druid集群监控方案 选择了prometheus方案。采用operations-software-druid_exporter为客户端采集器。具体方法: 部署operations-software-druid_exporter,这个是一个python组件,只支持py3,所以先安装py3,然后下载该组件,启动 nohup /usr/local/app/imply/yau-tmp/python3/bin/python3 operations-software-druid_exporter-master/druid_exporter/exporter.py & 具体可以参见该组件的github页面 https://github.com/wikimedia/operations-software-druid_exporter 该组件启动后实际启动了一个8000端口的http服务,druid支持发送http请求的方式去发送指标信息。在druid的节点通用配置如下: conf/druid/_common/common.runtime.properties
Monitoring
druid.monitoring.monitors=[“io.druid.java.util.metrics.JvmMonitor”] druid.emitter=http druid.emitter.http.recipientBaseUrl= http://hadoop-master:8000 这里url即写为expoter组件的地址和端口即可。 重启druid后生效,可curl http://hadoop-master:8000/metrics查看指标监控信息。 配置grafana视图吧 目前不支持JVM指标 另外还有个官方推荐的方案: druid-metrics-to-kafka ,需要配合kafka和druid本身