Kubernetes(GKE)にPrometheusを導入する

GKE(Google Kubernetes Engine)にPrometheusを導入する手順をまとめます。『GKE prometheus』などで、Google検索すると以下の公式ドキュメントが検索上位にヒットします。

GKEで稼働しているコンテナをPrometheusサーバでメトリクスを収集し、Grafana等で可視化したい場合は、上記の1つ目のドキュメントの内の『Prometheus による GKE のモニタリング』を参考に進めます。
2つ目のドキュメントは、Stackdriver Kubernetes Engine Monitoringにおいて、Prometeusのメトリクス(指標)を使って管理する場合に使用するので、今回の用途とは関係がないため注意が必要です。

Prometheusサーバのセットアップ

まず、Prometheus公式ドキュメントを元にPrometheusを既存のGKEクラスタにセットアップします。Prometheusサーバ自体もGKEで稼働させたいので、こちらの章を参考にします。

Prometheus用のnamespaceを作成

以下コマンドを実行し、prometheus用のnamespaceを作成します。

kubectl create namespace monitoring


Prometheusをデフォルト状態で起動

Prometheusイメージのデフォルト状態で起動し、動作を確認してみます。

sample設定で稼働させるシンプルなデプロイメントを作成します。

○ deployment-prometheus.yml

apiVersion: apps/v1
 kind: Deployment
 metadata:
   name: prometheus
   namespace: monitoring
   labels:
     app: prometheus
 spec:
   replicas: 1
   selector:
     matchLabels:
       app: prometheus
   template:
     metadata:
       labels:
         app: prometheus
     spec:
       containers:
         - image: prom/prometheus:v2.11.2
           name: prometheus
           ports:
             - containerPort: 9090
               name: prometheus

prometheusのバージョンは、2019年10月時点で安定していそうな v2.11.2を利用しています。

デプロイメントを作成します。

kubectl create -f deployment_prometheus.yml

作成されたPodを確認します。

kubectl get pods --namespace=monitoring
NAME                         READY   STATUS    RESTARTS   AGE
 prometheus-94db76695-6jmml   1/1     Running   0          62s

接続のため、ポートフォワードします。

kubectl port-forward prometheus-94db76695-6jmml 8080:9090 --namespace=monitoring

ブラウザから確認します。

以下のURLをにアクセスします。

http://localhost:8080

以下の画面が表示されます。

ブラウザから操作してみて、イメージを掴みます。こちらの記事を参考が参考になります。

Prometheus公式ドキュメントにも記載があるように、prometheusの設定ファイルを準備し、永続化ディスクに配置する必要があります。こちらは、後ほど設定していきます。

GKE用のPrometheus設定を行う

こちらの記事でも紹介されているように、『PrometeusはPULL型の監視方式(サーバ側から監視先ホストを叩いて回るモデル)』です。GKEから情報を取得するには、Prometeusサーバの設定ファイルにscrape_config設定を追加します。kubernetes_sd_configs(Kubernetes service discovery configurations)を利用することで、GKEからメトリクスが収集されます。

Google Cloudのドキュメントにも以下の記載があります。

Kubernetes SD 取得構成を設定することで、GKE 内のアプリケーションを自動的に検出するように Prometheus を構成できます。この構成により、Prometheus で Kubernetes API に対してクエリを実行し、追加の構成なしで新しい取得ターゲットを検出できます。

https://cloud.google.com/solutions/white-box-app-monitoring-for-gke-with-prometheus?hl=ja

同ドキュメントを読み進めていくと以下の記載があります。

GKE を取得するように構成された Prometheus の別の例をご覧ください。

上記のリンクのPrometheus設定例をベースに構成していきます。リンク先の設定ファイルから各設定項目の説明コメントを削ぎ落としてConfigmapとして設定したものが以下です。(各設定項目の詳細については、本記事では割愛します。)そのまま利用しても動作しますが、適宜環境に合わせて書き換えます。

○ prometheus_configmap.yml

apiVersion: v1
apiVersion: v1
kind: ConfigMap
metadata:
  name: prometheus-config
  labels:
    name: prometheus-config
  namespace: monitoring
data:
  prometheus.yml: |
    # Scrape config for API servers.
    scrape_configs:
    - job_name: 'kubernetes-apiservers'
      kubernetes_sd_configs:
      - role: endpoints
    
      scheme: https
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
    
      relabel_configs:
      - source_labels: [__meta_kubernetes_namespace, __meta_kubernetes_service_name, __meta_kubernetes_endpoint_port_name]
        action: keep
        regex: default;kubernetes;https
    
    # Scrape config for nodes (kubelet).
    - job_name: 'kubernetes-nodes'
      scheme: https
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
    
      kubernetes_sd_configs:
      - role: node
    
      relabel_configs:
      - action: labelmap
        regex: __meta_kubernetes_node_label_(.+)
      - target_label: __address__
        replacement: kubernetes.default.svc:443
      - source_labels: [__meta_kubernetes_node_name]
        regex: (.+)
        target_label: __metrics_path__
        replacement: /api/v1/nodes/${1}/proxy/metrics
    
    # Scrape config for Kubelet cAdvisor.
    - job_name: 'kubernetes-cadvisor'
      scheme: https
    
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
    
      kubernetes_sd_configs:
      - role: node
    
      relabel_configs:
      - action: labelmap
        regex: __meta_kubernetes_node_label_(.+)
      - target_label: __address__
        replacement: kubernetes.default.svc:443
      - source_labels: [__meta_kubernetes_node_name]
        regex: (.+)
        target_label: __metrics_path__
        replacement: /api/v1/nodes/${1}/proxy/metrics/cadvisor
    
    # Example scrape config for service endpoints.
    - job_name: 'kubernetes-service-endpoints'
    
      kubernetes_sd_configs:
      - role: endpoints
    
      relabel_configs:
      - action: labelmap
        regex: __meta_kubernetes_service_label_(.+)
      - source_labels: [__meta_kubernetes_namespace]
        action: replace
        target_label: kubernetes_namespace
      - source_labels: [__meta_kubernetes_service_name]
        action: replace
        target_label: kubernetes_name
    
    # Example scrape config for probing services via the Blackbox Exporter.
    - job_name: 'kubernetes-services'
    
      metrics_path: /probe
      params:
        module: [http_2xx]
    
      kubernetes_sd_configs:
      - role: service
    
      relabel_configs:
      - source_labels: [__address__]
        target_label: __param_target
      - target_label: __address__
        replacement: blackbox-exporter.example.com:9115
      - source_labels: [__param_target]
        target_label: instance
      - action: labelmap
        regex: __meta_kubernetes_service_label_(.+)
      - source_labels: [__meta_kubernetes_namespace]
        target_label: kubernetes_namespace
      - source_labels: [__meta_kubernetes_service_name]
        target_label: kubernetes_name
    
    # Example scrape config for probing ingresses via the Blackbox Exporter.
    - job_name: 'kubernetes-ingresses'
    
      metrics_path: /probe
      params:
        module: [http_2xx]
    
      kubernetes_sd_configs:
      - role: ingress
    
      relabel_configs:
      - source_labels: [__meta_kubernetes_ingress_scheme,__address__,__meta_kubernetes_ingress_path]
        regex: (.+);(.+);(.+)
        replacement: ${1}://${2}${3}
        target_label: __param_target
      - target_label: __address__
        replacement: blackbox-exporter.example.com:9115
      - source_labels: [__param_target]
        target_label: instance
      - action: labelmap
        regex: __meta_kubernetes_ingress_label_(.+)
      - source_labels: [__meta_kubernetes_namespace]
        target_label: kubernetes_namespace
      - source_labels: [__meta_kubernetes_ingress_name]
        target_label: kubernetes_name
    
    # Example scrape config for pods
    - job_name: 'kubernetes-pods'
    
      kubernetes_sd_configs:
      - role: pod
    
      relabel_configs:
      - action: labelmap
        regex: __meta_kubernetes_pod_label_(.+)
      - source_labels: [__meta_kubernetes_namespace]
        action: replace
        target_label: kubernetes_namespace
      - source_labels: [__meta_kubernetes_pod_name]
        action: replace
        target_label: kubernetes_pod_name


以下コマンドを実行し、Configを作成します。

kubectl create -f prometheus_configmap.yml



ClusterRoleの作成

prometheusからkubernetesのリソースにアクセスできるようにClusterRoleを作成し、バインドします。
この記事を参考にしました。Configmapで参考にしたprometheusリポジトリにも設定例があります。

○ cluster_role.yml

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: prometheus
rules:
- apiGroups: [""]
  resources:
  - nodes
  - nodes/proxy
  - services
  - endpoints
  - pods
  verbs: ["get", "list", "watch"]
- apiGroups:
  - extensions
  resources:
  - ingresses
  verbs: ["get", "list", "watch"]
- nonResourceURLs: ["/metrics"]
  verbs: ["get"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: prometheus
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: prometheus
subjects:
- kind: ServiceAccount
  name: default
  namespace: monitoring


以下コマンドを実行し、ClusterRoleを作成します。

kubectl create -f cluster_role.yml


PVCの作成

Prometheusが収集したデータを保存する永続ボリュームを要求するPVC(persistentVolumeClaim)を用意します。

○ prometheus_pvc.yml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: prometheus-pvc
  namespace: monitoring
  labels:
    app: prometheus-pvc
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 20Gi


次に以下のコマンドを実行し、PVCを作成します。

kubectl create -f prometheus_pvc.yml


Deploymentの作成

『Prometheusサーバのセットアップ』で作成したdeploymentファイルに、設定ファイルと永続ボリューム設定を追加します。

○ prometheus_deployment.yml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: prometheus
  namespace: monitoring
  labels:
    app: prometheus
spec:
  replicas: 1
  selector:
    matchLabels:
      app: prometheus
  template:
    metadata:
      labels:
        app: prometheus
    spec:
      containers:
        - image: prom/prometheus:v2.11.2
          name: prometheus
          ports:
            - containerPort: 9090
              name: prometheus
          volumeMounts:
            - name: prometheus-config-volume
              mountPath: /etc/prometheus/
            - name: prometheus-storage-volume
              mountPath: /prometheus/
      volumes:
        - name: prometheus-config-volume
          configMap:
            defaultMode: 0666
            name: prometheus-config
        - name: prometheus-storage-volume
          persistentVolumeClaim:
            claimName: prometheus-pvc
      securityContext:
        runAsUser: 1000
        fsGroup: 2000
        runAsNonRoot: true

prometheus-config-volumeの権限は、otherの6(r+x)が必要であったため暫定で 0666 にしています。おそらくprometheusコンテナの実行ユーザの問題かと思いますので、適宜修正してください。

また、securityContextについては、以下のエラーが出たため、こちらを参考に追加しています。デフォルトでは、nobody:nogroupユーザで実行されることが原因のようです。

opening storage failed: lock DB directory: open /prometheus/lock: permission denied


以下コマンドを実行し、変更を適用します。

kubectl apply -f deployment_prometheus.yml


ServiceDiscovery画面からメトリクスの取得を確認

あらためて、ローカル端末からポートフォワードします。

kubectl port-forward prometheus-<稼働中のID> 8080:9090 --namespace=monitoring


以下のURLに接続し、Kubernetes関連のメトリクスが表示されていることを確認します。

http://localhost:8080/service-discovery

○ 表示例

上記が表示されていれば、問題なくGKEからメトリクスを収集できています。ポートフォワードを終了します。

PrometheusのSerivceを作成

Serviceを作成し、Service経由でアクセス可能にします。

○ prometheus_svc.yml

apiVersion: v1
kind: Service
metadata:
  name: prometheus
  namespace: monitoring
  labels:
    app: prometheus
spec:
  type: ClusterIP
  ports:
    - port: 9090
  selector:
    app: prometheus

以上で、Prometeusの設定は完了です。次の記事では、Grafanaをセットアップして、メトリクスを可視化していきます。