Kubernetes(GKE)にPrometheusを導入する
GKE(Google Kubernetes Engine)にPrometheusを導入する手順をまとめます。『GKE prometheus』などで、Google検索すると以下の公式ドキュメントが検索上位にヒットします。
GKEで稼働しているコンテナをPrometheusサーバでメトリクスを収集し、Grafana等で可視化したい場合は、上記の1つ目のドキュメントの内の『Prometheus による GKE のモニタリング』を参考に進めます。
2つ目のドキュメントは、Stackdriver Kubernetes Engine Monitoringにおいて、Prometeusのメトリクス(指標)を使って管理する場合に使用するので、今回の用途とは関係がないため注意が必要です。
Prometheusサーバのセットアップ
まず、Prometheus公式ドキュメントを元にPrometheusを既存のGKEクラスタにセットアップします。Prometheusサーバ自体もGKEで稼働させたいので、こちらの章を参考にします。
Prometheus用のnamespaceを作成
以下コマンドを実行し、prometheus用のnamespaceを作成します。
kubectl create namespace monitoring
Prometheusをデフォルト状態で起動
Prometheusイメージのデフォルト状態で起動し、動作を確認してみます。
sample設定で稼働させるシンプルなデプロイメントを作成します。
○ deployment-prometheus.yml
apiVersion: apps/v1
kind: Deployment
metadata:
name: prometheus
namespace: monitoring
labels:
app: prometheus
spec:
replicas: 1
selector:
matchLabels:
app: prometheus
template:
metadata:
labels:
app: prometheus
spec:
containers:
- image: prom/prometheus:v2.11.2
name: prometheus
ports:
- containerPort: 9090
name: prometheus
prometheusのバージョンは、2019年10月時点で安定していそうな v2.11.2を利用しています。
デプロイメントを作成します。
kubectl create -f deployment_prometheus.yml
作成されたPodを確認します。
kubectl get pods --namespace=monitoring
NAME READY STATUS RESTARTS AGE
prometheus-94db76695-6jmml 1/1 Running 0 62s
接続のため、ポートフォワードします。
kubectl port-forward prometheus-94db76695-6jmml 8080:9090 --namespace=monitoring
ブラウザから確認します。
以下のURLをにアクセスします。
http://localhost:8080
以下の画面が表示されます。

ブラウザから操作してみて、イメージを掴みます。こちらの記事を参考が参考になります。
Prometheus公式ドキュメントにも記載があるように、prometheusの設定ファイルを準備し、永続化ディスクに配置する必要があります。こちらは、後ほど設定していきます。
GKE用のPrometheus設定を行う
こちらの記事でも紹介されているように、『PrometeusはPULL型の監視方式(サーバ側から監視先ホストを叩いて回るモデル)』です。GKEから情報を取得するには、Prometeusサーバの設定ファイルにscrape_config設定を追加します。kubernetes_sd_configs(Kubernetes service discovery configurations)を利用することで、GKEからメトリクスが収集されます。
Google Cloudのドキュメントにも以下の記載があります。
Kubernetes SD 取得構成を設定することで、GKE 内のアプリケーションを自動的に検出するように Prometheus を構成できます。この構成により、Prometheus で Kubernetes API に対してクエリを実行し、追加の構成なしで新しい取得ターゲットを検出できます。
https://cloud.google.com/solutions/white-box-app-monitoring-for-gke-with-prometheus?hl=ja
同ドキュメントを読み進めていくと以下の記載があります。
GKE を取得するように構成された Prometheus の別の例をご覧ください。
上記のリンクのPrometheus設定例をベースに構成していきます。リンク先の設定ファイルから各設定項目の説明コメントを削ぎ落としてConfigmapとして設定したものが以下です。(各設定項目の詳細については、本記事では割愛します。)そのまま利用しても動作しますが、適宜環境に合わせて書き換えます。
○ prometheus_configmap.yml
apiVersion: v1
apiVersion: v1
kind: ConfigMap
metadata:
name: prometheus-config
labels:
name: prometheus-config
namespace: monitoring
data:
prometheus.yml: |
# Scrape config for API servers.
scrape_configs:
- job_name: 'kubernetes-apiservers'
kubernetes_sd_configs:
- role: endpoints
scheme: https
tls_config:
ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
relabel_configs:
- source_labels: [__meta_kubernetes_namespace, __meta_kubernetes_service_name, __meta_kubernetes_endpoint_port_name]
action: keep
regex: default;kubernetes;https
# Scrape config for nodes (kubelet).
- job_name: 'kubernetes-nodes'
scheme: https
tls_config:
ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
kubernetes_sd_configs:
- role: node
relabel_configs:
- action: labelmap
regex: __meta_kubernetes_node_label_(.+)
- target_label: __address__
replacement: kubernetes.default.svc:443
- source_labels: [__meta_kubernetes_node_name]
regex: (.+)
target_label: __metrics_path__
replacement: /api/v1/nodes/${1}/proxy/metrics
# Scrape config for Kubelet cAdvisor.
- job_name: 'kubernetes-cadvisor'
scheme: https
tls_config:
ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
kubernetes_sd_configs:
- role: node
relabel_configs:
- action: labelmap
regex: __meta_kubernetes_node_label_(.+)
- target_label: __address__
replacement: kubernetes.default.svc:443
- source_labels: [__meta_kubernetes_node_name]
regex: (.+)
target_label: __metrics_path__
replacement: /api/v1/nodes/${1}/proxy/metrics/cadvisor
# Example scrape config for service endpoints.
- job_name: 'kubernetes-service-endpoints'
kubernetes_sd_configs:
- role: endpoints
relabel_configs:
- action: labelmap
regex: __meta_kubernetes_service_label_(.+)
- source_labels: [__meta_kubernetes_namespace]
action: replace
target_label: kubernetes_namespace
- source_labels: [__meta_kubernetes_service_name]
action: replace
target_label: kubernetes_name
# Example scrape config for probing services via the Blackbox Exporter.
- job_name: 'kubernetes-services'
metrics_path: /probe
params:
module: [http_2xx]
kubernetes_sd_configs:
- role: service
relabel_configs:
- source_labels: [__address__]
target_label: __param_target
- target_label: __address__
replacement: blackbox-exporter.example.com:9115
- source_labels: [__param_target]
target_label: instance
- action: labelmap
regex: __meta_kubernetes_service_label_(.+)
- source_labels: [__meta_kubernetes_namespace]
target_label: kubernetes_namespace
- source_labels: [__meta_kubernetes_service_name]
target_label: kubernetes_name
# Example scrape config for probing ingresses via the Blackbox Exporter.
- job_name: 'kubernetes-ingresses'
metrics_path: /probe
params:
module: [http_2xx]
kubernetes_sd_configs:
- role: ingress
relabel_configs:
- source_labels: [__meta_kubernetes_ingress_scheme,__address__,__meta_kubernetes_ingress_path]
regex: (.+);(.+);(.+)
replacement: ${1}://${2}${3}
target_label: __param_target
- target_label: __address__
replacement: blackbox-exporter.example.com:9115
- source_labels: [__param_target]
target_label: instance
- action: labelmap
regex: __meta_kubernetes_ingress_label_(.+)
- source_labels: [__meta_kubernetes_namespace]
target_label: kubernetes_namespace
- source_labels: [__meta_kubernetes_ingress_name]
target_label: kubernetes_name
# Example scrape config for pods
- job_name: 'kubernetes-pods'
kubernetes_sd_configs:
- role: pod
relabel_configs:
- action: labelmap
regex: __meta_kubernetes_pod_label_(.+)
- source_labels: [__meta_kubernetes_namespace]
action: replace
target_label: kubernetes_namespace
- source_labels: [__meta_kubernetes_pod_name]
action: replace
target_label: kubernetes_pod_name
以下コマンドを実行し、Configを作成します。
kubectl create -f prometheus_configmap.yml
ClusterRoleの作成
prometheusからkubernetesのリソースにアクセスできるようにClusterRoleを作成し、バインドします。
この記事を参考にしました。Configmapで参考にしたprometheusリポジトリにも設定例があります。
○ cluster_role.yml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: prometheus
rules:
- apiGroups: [""]
resources:
- nodes
- nodes/proxy
- services
- endpoints
- pods
verbs: ["get", "list", "watch"]
- apiGroups:
- extensions
resources:
- ingresses
verbs: ["get", "list", "watch"]
- nonResourceURLs: ["/metrics"]
verbs: ["get"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: prometheus
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: prometheus
subjects:
- kind: ServiceAccount
name: default
namespace: monitoring
以下コマンドを実行し、ClusterRoleを作成します。
kubectl create -f cluster_role.yml
PVCの作成
Prometheusが収集したデータを保存する永続ボリュームを要求するPVC(persistentVolumeClaim)を用意します。
○ prometheus_pvc.yml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: prometheus-pvc
namespace: monitoring
labels:
app: prometheus-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 20Gi
次に以下のコマンドを実行し、PVCを作成します。
kubectl create -f prometheus_pvc.yml
Deploymentの作成
『Prometheusサーバのセットアップ』で作成したdeploymentファイルに、設定ファイルと永続ボリューム設定を追加します。
○ prometheus_deployment.yml
apiVersion: apps/v1
kind: Deployment
metadata:
name: prometheus
namespace: monitoring
labels:
app: prometheus
spec:
replicas: 1
selector:
matchLabels:
app: prometheus
template:
metadata:
labels:
app: prometheus
spec:
containers:
- image: prom/prometheus:v2.11.2
name: prometheus
ports:
- containerPort: 9090
name: prometheus
volumeMounts:
- name: prometheus-config-volume
mountPath: /etc/prometheus/
- name: prometheus-storage-volume
mountPath: /prometheus/
volumes:
- name: prometheus-config-volume
configMap:
defaultMode: 0666
name: prometheus-config
- name: prometheus-storage-volume
persistentVolumeClaim:
claimName: prometheus-pvc
securityContext:
runAsUser: 1000
fsGroup: 2000
runAsNonRoot: true
prometheus-config-volumeの権限は、otherの6(r+x)が必要であったため暫定で 0666 にしています。おそらくprometheusコンテナの実行ユーザの問題かと思いますので、適宜修正してください。
また、securityContextについては、以下のエラーが出たため、こちらを参考に追加しています。デフォルトでは、nobody:nogroupユーザで実行されることが原因のようです。
opening storage failed: lock DB directory: open /prometheus/lock: permission denied
以下コマンドを実行し、変更を適用します。
kubectl apply -f deployment_prometheus.yml
ServiceDiscovery画面からメトリクスの取得を確認
あらためて、ローカル端末からポートフォワードします。
kubectl port-forward prometheus-<稼働中のID> 8080:9090 --namespace=monitoring
以下のURLに接続し、Kubernetes関連のメトリクスが表示されていることを確認します。
http://localhost:8080/service-discovery
○ 表示例

上記が表示されていれば、問題なくGKEからメトリクスを収集できています。ポートフォワードを終了します。
PrometheusのSerivceを作成
Serviceを作成し、Service経由でアクセス可能にします。
○ prometheus_svc.yml
apiVersion: v1
kind: Service
metadata:
name: prometheus
namespace: monitoring
labels:
app: prometheus
spec:
type: ClusterIP
ports:
- port: 9090
selector:
app: prometheus
以上で、Prometeusの設定は完了です。次の記事では、Grafanaをセットアップして、メトリクスを可視化していきます。
ディスカッション
コメント一覧
まだ、コメントがありません