Prometheus
Architecture
Prometheus 的架构主要由以下几个部分组成:
-
Prometheus Server:Prometheus Server 是 Prometheus 的核心组件,它负责抓取和存储时间序列数据。Prometheus Server 通过 HTTP 协议从被监控的服务中抓取数据,然后将这些数据存储在本地磁盘上。
-
Service Discovery:Prometheus 支持多种服务发现机制,如 Kubernetes、Consul、DNS 等。通过服务发现,Prometheus 可以自动发现并监控新的服务。
-
Exporters:Exporter 是一种特殊的服务,它可以将原本不支持 Prometheus 的服务的数据转换为 Prometheus 可以抓取的格式。例如,Node Exporter 可以提供主机级别的指标,MySQL Exporter 可以提供 MySQL 数据库的指标。
-
Pushgateway:对于那些不能被 Prometheus 主动抓取的短命令任务,如批处理任务、短命令行脚本等,可以使用 Pushgateway 将指标推送到 Prometheus。
-
Alertmanager:当 Prometheus 的规则触发警报时,它会将警报发送到 Alertmanager。Alertmanager 负责去重、分组和路由警报,然后发送到如邮件、PagerDuty 等接收器。
-
Web UI/ API:Prometheus 提供了一个 Web UI 和 API,用户可以通过 Web UI 或 API 查询 Prometheus 的数据和状态。
-
Storage:Prometheus 默认使用本地磁盘进行数据存储。Prometheus 还支持远程存储接口,可以将数据发送到外部的存储系统,如 InfluxDB、OpenTSDB、Cortex、Thanos 等。
Prometheus 的部署方案主要有以下几种:
- 本地存储:Prometheus 默认使用本地磁盘进行数据持久化。这种方式简单易用,但是数据的保留期限受到磁盘空间的限制,且无法实现数据的长期存储。
- 远程存储:Prometheus 支持远程存储接口,可以将数据发送到外部的存储系统,如 InfluxDB、OpenTSDB、Cortex、Thanos 等。这种方式可以实现数据的长期存储,但是需要额外的存储系统。
- Prometheus Federation:Prometheus Federation 允许一个 Prometheus 服务器抓取另一个 Prometheus 服务器的数据,这可以用来实现数据的备份和冗余。
- Prometheus 高可用对:可以运行两个相同配置的 Prometheus 服务器,它们独立地抓取和存储相同的数据。在查询时,可以使用 Prometheus 的查询层(如 Thanos Query 或 Cortex)来合并这两个服务器的数据。这种方式可以提高数据的可用性,但是会增加存储和计算的开销。
- Thanos:Thanos 是一个 Prometheus 的扩展,它可以将 Prometheus 的数据上传到对象存储(如 Amazon S3、Google Cloud Storage),实现数据的长期存储和高可用。Thanos 还提供了全局查询、数据压缩、规则评估等功能。
- Cortex:Cortex 是一个基于 Prometheus 的多租户、高可用的指标系统。它使用分布式数据库(如 Bigtable、DynamoDB)来存储数据,可以实现数据的长期存储和高可用。
PromQL
PromQL 是 Prometheus Query Language 的缩写,是 Prometheus 提供的一种强大的数据查询语言。
PromLens
PromLens 是一个用于帮助开发者理解和编写 PromQL(Prometheus Query Language)查询的在线工具。Prometheus 是一个开源的系统监控和警报工具包,而 PromQL 是 Prometheus 的查询语言。
PromLens 提供了以下功能:
- 查询分析:PromLens 可以将 PromQL 查询分解成可视化的树形结构,帮助理解查询的工作原理。
- 查询优化:PromLens 可以提供关于如何优化的 PromQL 查询的建议,以提高查询效率和减少 Prometheus 服务器的负载。
- 查询构建:PromLens 提供了一个交互式的查询构建器,可以帮助构建复杂的 PromQL 查询,无需手动编写查询语句。
请注意,PromLens 是一个商业产品,虽然它提供了一个免费的在线演示版本,但是某些功能可能需要购买许可证才能使用。
数据模型
Prometheus 的数据模型主要由以下两个部分组成:
-
序列标识符(Series identifiers):每个系列都由一个指标名称和一组称为 “标签” 的键/值对唯一标识。
指标名称标识了正在测量的系统的总体方面(例如
http_requests_total
,由给定服务器进程处理的 HTTP 请求的总数)。标签允许将一个指标划分为子维度(例如
method="GET"
vsmethod="POST"
告诉处理了每种 HTTP 方法类型的多少请求)。标签可以有不同的来源:例如,一个被监控的目标可能本身就暴露了已经由一组标签分割的指标,或者 Prometheus 服务器可能会将目标标签附加到收集的系列上,以标识它们来自何处。形成系列标识符的指标名称和标签在 Prometheus 的 TSDB 中被索引,并用于在查询数据时查找系列。
-
序列样本(Series samples):样本形成了系列的大部分数据,并随着时间的推移被追加到索引的系列中:
时间戳是毫秒精度的 64 位整数。
样本值是 64 位浮点数(允许整数精度达到 2^53)。
指标类型
指标类型(Metric Types)是由抓取目标报告的,用于描述指标性质和行为的类型。Prometheus 支持四种指标类型:
-
Counter(计数器):一个只能增加(或重置)的指标,常用于表示累计值。
1 2
# 表示 Prometheus 服务器接收到的 HTTP 请求的总数。 prometheus_http_requests_total
-
Gauge(仪表):一个可以任意上下浮动的指标,常用于表示当前值。
1 2 3
# `node_memory_MemAvailable_bytes` 表示当前可用的内存量(以字节为单位),`node_disk_io_now` 表示当前磁盘 I/O 操作的数量。 node_memory_MemAvailable_bytes node_disk_io_now
-
Histogram(直方图):一个可以对观察结果进行采样并计数,然后在可配置的桶中累积的指标。
1 2
# 表示处理 `/api/v1/query` 路径的 HTTP 请求中,持续时间小于或等于 0.1 秒的请求的数量。 prometheus_http_request_duration_seconds_bucket{le="0.1",handler="/api/v1/query"}
-
Summary(摘要):一个可以对观察结果进行采样并计数,然后计算滑动时间窗口内的可配置百分位数的指标。
1 2
# 表示 job 标签为 "prometheus" 的 Go 垃圾回收过程中,所有持续时间的最大值(quantile="1" 表示 100% 的分位数,即最大值)。 go_gc_duration_seconds{job="prometheus", quantile="1"}
请注意,Histogram 和 Summary 都可以用来表示分布(如请求持续时间),但是它们在处理方式和性能上有所不同。Histogram 通过预定义的桶来收集数据,因此可以提供更好的性能和更少的错误,但是需要提前知道数据的分布。Summary 则可以计算任意百分位数,但是计算成本更高,而且在不同的 Prometheus 服务器之间不可聚合。
查询基础
表达式结果数据类型
结果数据类型(Expression language data types)在 PromQL 查询中使用的数据类型,描述了查询结果的形式。PromQL 支持四种数据类型:
-
瞬时向量(Instant vector):表示一组时间序列,每个时间序列都包含一个单一的样本,这些样本都共享相同的时间戳。这意味着表达式的返回值只会包含每个时间序列中最新的一个样本值。
1 2
# 表示 Prometheus 服务器接收到的 HTTP 请求的总数。 prometheus_http_requests_total
-
区间向量(Range vector):表示一组时间序列,每个时间序列都包含一段时间范围内的样本数据,这些数据是通过在瞬时向量后附加时间选择器(例如 [5m] 表示最近 5 分钟)来生成的。
1 2
# 表示过去 5 分钟内 Prometheus 服务器接收到的 HTTP 请求的总数。 prometheus_http_requests_total[5m]
-
标量(Scalar):一个简单的数字浮点值。主要来源于以下几种情况:
- 直接的数字字面量,例如
5
、0.1
、-3.14
等。 - 一些函数的返回结果,例如
time()
、day_of_month()
、hour()
等。 - 瞬时向量(Instant vector)经过聚合操作后得到的结果,例如
sum(http_requests_total)
、avg(cpu_usage)
等。
1 2 3 4 5 6 7 8
# 直接的数字字面量 5 # 使用 time() 函数获取当前时间戳 time() # 对 http_requests_total 指标进行求和操作 sum(http_requests_total)
- 直接的数字字面量,例如
-
字符串(String):一个简单的字符串值。主要来源于以下几种情况:
- 直接的字符串字面量,例如
"hello"
、'world'
、"Prometheus"
等。 - 一些函数的返回结果,例如
label_replace()
、label_join()
等。
1 2 3 4 5
# 直接的字符串字面量 "hello" # 使用 label_replace() 函数替换标签值 label_replace(http_requests_total, "method", "$1", "method", "(.*)")
- 直接的字符串字面量,例如
检查
|
|
选择器
PromQL 提供了强大的选择操作,可以根据指标名称和标签进行精确或模糊查询。以下是一些基本的选择操作:
-
简单的时间序列选择:返回具有指定指标的所有时间序列。
1 2
# Prometheus 服务器接收到的 HTTP 请求的总数 prometheus_http_requests_total
-
带标签的选择:返回具有指定指标和给定标签的所有时间序列。标签选择器允许通过
=
来选择标签值完全等于给定字符串的标签,通过!=
来选择标签值不等于给定字符串的标签,通过=~
来选择标签值符合给定正则表达式的标签,以及通过!~
来选择标签值不符合给定正则表达式的标签。1 2 3 4 5 6
# 请求处理器为 "/api/v1/query" prometheus_http_requests_total{code="200", handler="/api/v1/query"} # 请求处理器匹配正则表达式 "/api/v1/.*" prometheus_http_requests_total{code="200", handler=~"/api/v1/.*"} # 请求处理器不匹配正则表达式 "/api/v1/.*" prometheus_http_requests_total{code="200", handler!~"/api/v1/.*"}
-
范围向量选择(Range Vector Selectors):返回指定时间范围内的时间序列。时间持续性是由一个数字后面紧跟一个单位来指定的,包括毫秒(ms)、秒(s)、分钟(m)、小时(h)、天(d,假设一天总是 24 小时)、周(w,假设一周总是 7 天)和年(y,假设一年总是 365 天)。时间持续性可以通过连接来组合,单位必须从最长到最短进行排序,每个单位在一个时间持续性中只能出现一次。
1 2
# 过去 5 分钟内,Prometheus 服务器接收到的 HTTP 请求的总数,其中 HTTP 状态码为 200,请求处理器为 "/api/v1/query" prometheus_http_requests_total{code="200", handler="/api/v1/query"}[5m]
-
偏移修饰符(Offset modifier):允许在查询中改变单个瞬时向量和范围向量的时间偏移。
1 2 3 4 5 6 7 8 9 10 11 12
# 返回相对于当前查询评估时间过去 5 分钟的 http_requests_total 的值 http_requests_total offset 5m # 注意,偏移修饰符总是需要紧跟在选择器后面,返回相对于当前查询评估时间过去 5 分钟的 GET 方法的 http_requests_total 的总和 sum(http_requests_total{method="GET"} offset 5m) // 正确 sum(http_requests_total{method="GET"}) offset 5m // 错误 # 对于范围向量,偏移修饰符也同样适用。 # 返回一周前 http_requests_total 的 5 分钟速率 rate(http_requests_total[5m] offset 1w) # 返回相对于当前查询评估时间未来一周的 http_requests_total 的 5 分钟速率 rate(http_requests_total[5m] offset -1w)
-
@
修饰符:允许在查询中改变单个瞬时向量和范围向量的评估时间。提供给@
修饰符的时间是一个 Unix 时间戳,用浮点数表示。1 2 3 4 5 6 7 8 9
# 返回 http_requests_total 在 2021-01-04T07:40:00+00:00 的值 http_requests_total @ 1609746000 # 返回 GET 方法的 http_requests_total 在 2021-01-04T07:40:00+00:00 的总和 sum(http_requests_total{method="GET"} @ 1609746000) // 正确 sum(http_requests_total{method="GET"}) @ 1609746000 // 错误 # 对于范围向量,返回 http_requests_total 在 2021-01-04T07:40:00+00:00 的 5 分钟速率 rate(http_requests_total[5m] @ 1609746000)
子查询
操作符
二元操作符(Binary operators)
用于在两个表达式之间进行操作的符号。它们可以分为三类:
-
算术二元操作符:包括加(
+
)、减(-
)、乘(*
)、除(/
)、取模(%
)和幂(^
)。1 2
# job 标签为 "prometheus" 的 Go 垃圾回收过程中,所有持续时间的最大值(quantile="1" 表示 100% 的分位数,即最大值)与总持续时间的比例。 go_gc_duration_seconds_sum{job="prometheus"} / go_gc_duration_seconds{job="prometheus", quantile="1"}
-
比较二元操作符:包括等于(
==
)、不等于(!=
)、大于(>
)、小于(<
)、大于等于(>=
)和小于等于(<=
)。这些操作符可以在两个标量之间,两个向量之间,或者一个标量和一个向量之间进行操作。1 2
# job 标签为 "prometheus" 的当前内存使用量是否超过了 1GB 的阈值。 process_resident_memory_bytes{job="prometheus"} > 1e9
-
逻辑/集合二元操作符:包括逻辑与(
and
)、逻辑或(or
)和逻辑非(unless
)。1 2 3 4 5
# 这是一个表示实例的 CPU 使用率超过 75% 并且内存使用量超过 2GB 的查询。 (instance_cpu_usage_seconds_total > 0.75) and (instance_memory_usage_bytes > 2e9) # 返回所有的 HTTP 请求,除了那些返回 4xx 错误的请求 http_requests_total unless http_requests_total{status=~"4.."}
向量匹配(Vector matching)
在进行向量和向量的二元操作时,PromQL 提供了一些关键字来控制如何匹配两个向量中的时间序列,包括:
- 向量匹配关键字:包括
on
(基于给定的标签进行匹配)和ignoring
(忽略给定的标签进行匹配)。 - 组修饰符:包括
group_left
(多对一匹配,保留左侧向量的标签)和group_right
(多对一匹配,保留右侧向量的标签)。
进行向量匹配时,需要注意以下几点:
-
标签匹配:两个向量之间的每个时间序列必须具有完全相同的标签和值。如果标签或值不匹配,那么这两个时间序列就不会被匹配到一起。
-
时间对齐:向量匹配是基于时间的,因此两个向量的时间序列必须在同一时间点上有数据。如果一个向量在某个时间点有数据,而另一个向量在该时间点没有数据,那么这两个时间序列就不会被匹配到一起。
-
结果向量的标签:一对一向量匹配的结果向量将包含匹配的时间序列的所有标签和值。
-
NaN 值:如果在进行一对一向量匹配时,任何一方的值为 NaN,那么结果也将为 NaN。
-
操作符:一对一向量匹配可以使用任何二元操作符,如
+
、-
、*
、/
、%
、==
、!=
、>
、<
、>=
、<=
。
一对一向量匹配
在一对一向量匹配中,两个向量之间的每个时间序列必须具有完全相同的标签和值。
|
|
多对一和一对多向量匹配
在多对一和一对多向量匹配中,一个向量的多个时间序列可以匹配到另一个向量的一个时间序列。
|
|
函数
rate()
和 irate()
rate()
和 irate()
是用于计算时间序列的速率。
-
rate(v range-vector)
:计算在给定的时间范围内时间序列的平均速率。它适用于更长的时间范围,因为它会平滑掉短期的波动。 -
irate(v range-vector)
:计算在给定的时间范围内时间序列的即时速率。它适用于更短的时间范围,因为它会反映出短期的波动。
以下是一些的示例:
|
|
在这些示例中,首先使用 rate()
或 irate()
函数来计算每个实例的 CPU 使用率的平均速率或即时速率,然后可以使用这些速率来进行进一步的分析或警报。
[!tip]
rate()
和irate()
的主要区别
时间范围:
rate()
函数会计算指标在给定时间范围内的平均变化率。它会考虑整个时间窗口内的数据点。irate()
函数则只关注最近两个数据点之间的瞬时变化率。它只看最近的数据点,不考虑整个时间范围。响应速度:
irate()
函数对于突发性变化更加敏感,可以快速捕捉指标的瞬时变化。rate()
函数则更平滑,对于平稳变化的指标更适用。用途:
rate()
通常用于监控长期趋势和指标的平均变化速度。irate()
则更适合用于检测短期异常情况和突发性变化,例如报警触发。总的来说,如果您需要关注指标的长期趋势和平均变化速度,使用
rate()
函数更合适。而如果您需要快速检测指标的突发性变化,irate()
函数会是更好的选择。
predict_linear()
predict_linear
是 Prometheus 的一种预测函数,它可以用于预测在给定的时间范围内,时间序列的值将如何线性地增加或减少。这对于预测磁盘使用率等资源的未来使用情况非常有用。
以下是一个使用 predict_linear
预测未来一小时内磁盘使用率的示例:
|
|
这个表达式的含义是,预测在未来一小时(3600 秒)内,根文件系统(mountpoint="/"
)的可用字节(node_filesystem_avail_bytes
)将如何变化。如果返回的值小于 0,那么这意味着预计在未来一小时内,磁盘空间将耗尽。
这个表达式的结果可以用于设置警报,以便在磁盘空间可能耗尽之前得到通知。
需要注意的是,predict_linear
函数使用的是线性回归模型,这意味着它假设过去的趋势将在未来继续。这可能不总是正确的,因此在使用这个函数时需要谨慎。
sort()
和 sort_desc()
sort()
和 sort_desc()
是用于对向量进行排序。
-
sort(v instant-vector)
:返回一个新的向量,其中包含了输入向量的所有元素,但是这些元素按照它们的样本值升序排序。 -
sort_desc(v instant-vector)
:返回一个新的向量,其中包含了输入向量的所有元素,但是这些元素按照它们的样本值降序排序。
以下是一些示例:
|
|
在这些示例中,首先使用 rate()
函数来计算每个实例的 CPU 使用率,然后使用 sort()
或 sort_desc()
函数来对这些使用率进行升序或降序排序。
histogram_quantile()
histogram_quantile(φ scalar, b instant-vector)
是 Prometheus 中的一个内置函数,用于从经典直方图或原生直方图中计算 φ-分位数(0 ≤ φ ≤ 1)。
以下是一些示例:
|
|
在这些示例中,首先使用 rate()
函数来指定分位数计算的时间窗口,然后使用 histogram_quantile()
函数来计算 φ-分位数。还可以使用 sum by()
函数来按照特定的标签进行聚合。
聚合
基于标签的聚合
Prometheus 支持以下内置聚合运算符,可用于聚合单个瞬时向量的元素,生成具有聚合值的新向量:
- sum:在指定的维度上计算总和。该函数将相同标签组合的值相加,生成一个新的时间序列,其值为该组合下所有样本值的总和。
- min:在指定的维度上选择最小值。该函数将返回每组相同标签组合下的最小样本值,生成一个新的时间序列。
- max:在指定的维度上选择最大值。该函数将返回每组相同标签组合下的最大样本值,生成一个新的时间序列。
- avg:在指定的维度上计算平均值。该函数将计算每组相同标签组合下的样本值的平均值,生成一个新的时间序列。
- group:结果向量中的所有值都为 1。该函数将每个元素的值都设置为 1,生成一个新的时间序列。
- stddev:在指定的维度上计算总体标准偏差。该函数将计算每组相同标签组合下的样本值的总体标准偏差,生成一个新的时间序列。
- stdvar:在指定的维度上计算总体标准方差。该函数将计算每组相同标签组合下的样本值的总体标准方差,生成一个新的时间序列。
- count:计算向量中元素的数量。该函数将返回每组相同标签组合下的元素数量,生成一个新的时间序列。
- count_values:计算具有相同值的元素的数量。该函数将返回每个唯一样本值的出现次数,生成一个新的时间序列。
- bottomk:按样本值选择最小的 k 个元素。该函数将返回每组相同标签组合下的最小 k 个样本值,生成一个新的时间序列。
- topk:按样本值选择最大的 k 个元素。该函数将返回每组相同标签组合下的最大 k 个样本值,生成一个新的时间序列。
- quantile:在指定的维度上计算 φ-分位数(0 ≤ φ ≤ 1)。该函数将计算每组相同标签组合下的样本值的分位数,生成一个新的时间序列。
Prometheus 的聚合操作符可以用于对标签维度进行聚合,或者通过包含 without
或 by
子句来保留不同的维度。这些子句可以在表达式之前或之后使用。
聚合操作的一般形式如下:
|
|
其中,<label list>
是一个未加引号的标签列表,可以包含尾随逗号,例如 (label1, label2)
和 (label1, label2,)
都是有效的语法。
without
会从结果向量中移除列出的标签,而所有其他标签都会保留在输出中。by
则相反,它会丢弃在 by
子句中未列出的标签,即使它们的标签值在向量的所有元素之间都是相同的。
parameter
只对 count_values
、quantile
、topk
和 bottomk
是必需的。
count_values
输出每个唯一样本值的一个时间序列。每个序列都有一个额外的标签。该标签的名称由聚合参数给出,标签值是唯一的样本值。每个时间序列的值是该样本值出现的次数。
topk
和 bottomk
与其他聚合器不同,它们在结果向量中返回输入样本的一个子集,包括原始标签。by
和 without
仅用于对输入向量进行分桶。
以下是一些示例:
|
|
基于时间的聚合
Prometheus 提供了一系列基于时间的聚合函数,这些函数可以对给定范围向量的每个序列进行时间聚合,并返回一个包含每个序列聚合结果的即时向量。
以下是一些示例:
|
|
注意,所有这些函数都假设在指定的间隔内,所有的值都有相同的权重,即使这些值在间隔内的分布不均匀。
Relabeling
Relabeling 允许在数据被 Prometheus 抓取之前动态地重写标签。这对于根据特定的规则过滤、聚合或修改抓取到的时间序列数据非常有用。
Relabeling 的配置通常在 Prometheus 的配置文件中的 scrape_configs
部分进行。每个 scrape_config
都包含一个 relabel_configs
部分,其中包含一系列的 relabeling 规则。
Prometheus 配置中的 relabeling 有relabel_configs
、metric_relabel_configs
和 alert_relabel_configs
,它们在 Prometheus 抓取和报警流程中的应用时间点和目标不同。
-
relabel_configs
:在 Prometheus 抓取目标之前应用,可以用于修改抓取目标的地址、协议方案或路径,或者基于目标的元标签来过滤目标。这些规则也可以用于添加、修改或删除目标的标签。 -
metric_relabel_configs
:在 Prometheus 抓取目标并解析度量之后应用。它们可以用于添加、修改或删除度量的标签,或者基于度量的标签来过滤度量。 -
alert_relabel_configs
:这些规则在 Prometheus 报警规则生成报警之后应用。它们可以用于添加、修改或删除报警的标签,或者基于报警的标签来过滤报警。
因此,relabel_configs
主要用于对抓取目标进行操作,metric_relabel_configs
主要用于对度量进行操作,而 alert_relabel_configs
主要用于对报警进行操作。
特殊标签
在 Prometheus 中,以双下划线 “__” 开头的标签通常被视为隐藏标签。这些标签通常用于内部目的,而不是用户可见或直接操作的。以下是一些常见的隐藏标签:
__address__
: 目标的地址(主机名和端口)。__scheme__
: 目标的通信协议(例如,http、https)。__metrics_path__
: 目标的指标路径(例如,/metrics)。__param_<name>
: 目标 URL 中传递的参数<name>
的值。__meta_<label>
: 由服务发现机制提供的元数据标签,其中<label>
是元数据标签的名称。__scrape_interval__
: 目标的抓取间隔。__scrape_timeout__
: 目标的抓取超时时间。__meta_XXXXXX
:在服务发现阶段添加到目标的标签中的,提供了关于目标的元数据信息。__tmp
:假设在一个重标签步骤中需要计算或提取一个值,并将其用作后续步骤的输入,可以将其存储在一个以__tmp
前缀开头的临时标签中,以确保它不会与其他标签冲突,并且在完成重标签过程后被正确清除。
这些隐藏标签通常在目标重标签后被移除,因为它们通常用于内部目的而不是用户可见。
规则
以下是 relabeling 规则的各个配置项的含义:
source_labels
: 这是一个标签名称的数组,用于选择现有标签的值。这些值会被连接起来,然后匹配下面配置的正则表达式。separator
: 这是一个字符串,用于连接source_labels
中的值。默认值是分号 “;"。target_label
: 这是一个标签名称,用于在 replace 动作中写入结果值。在 replace 动作中,这是必需的。正则表达式的捕获组可以在这里使用。regex
: 这是一个正则表达式,用于匹配提取的值。默认值是(.*)
,匹配任何值。modulus
: 这是一个整数,用于取源标签值的哈希的模。replacement
: 这是一个字符串,用于在正则表达式匹配时进行替换。正则表达式的捕获组可以在这里使用。默认值是$1
,表示第一个捕获组。action
: 这是一个动作,基于正则表达式的匹配结果进行。默认值是replace
。可选的动作有replace
、keep
、drop
、hashmod
、labelmap
、labeldrop
和labelkeep
。
以下是一些示例:
|
|
推荐使用 relabeler 工具 进行测试。这是一个强大的工具,可以帮助更好地理解和应用 Relabeling。
服务发现
Prometheus 的服务发现(Service Discovery)是其核心功能之一,它允许 Prometheus 自动发现目标系统并开始收集这些系统的指标。这对于动态变化的环境(如 Kubernetes)非常有用,因为不需要手动更新 Prometheus 的配置来添加或删除目标系统。
Prometheus 支持多种服务发现机制,包括:
- 静态配置:可以在 Prometheus 的配置文件中手动指定目标系统的地址。
- 文件服务发现:Prometheus 可以监视指定的 JSON 或 YAML 文件,文件中包含了目标系统的信息。
- Consul:Prometheus 可以从 Consul 服务发现和配置中心自动发现目标系统。
- DNS SRV 记录:Prometheus 可以查询 DNS SRV 记录来发现目标系统。
- EC2:Prometheus 可以使用 Amazon EC2 API 来发现 EC2 实例。
- Kubernetes:Prometheus 可以使用 Kubernetes API 来发现 Kubernetes 中的服务和 Pods。
- Marathon:Prometheus 可以使用 Marathon API 来发现 Marathon 应用。
- OpenStack:Prometheus 可以使用 OpenStack API 来发现 Nova 实例。
- ……
Exporter
在 Prometheus 监控系统中,Exporter 是一个重要的组件。它是一个服务,可以从被监控的系统中抓取指标,然后以 Prometheus 可以理解的格式暴露这些指标。
Prometheus 有多种类型的 Exporter,包括:
- 官方 Exporter:Prometheus 团队提供了一些官方的 Exporter,用于监控常见的服务,如 Linux 系统(Node Exporter)、HTTP 服务(Blackbox Exporter)和数据库(如 MySQL Exporter、PostgreSQL Exporter)。
- 第三方 Exporter:社区也提供了许多第三方的 Exporter,用于监控各种不同的服务和应用。
- 自定义 Exporter:如果需要监控的服务没有现成的 Exporter,也可以自己编写一个 Exporter。Prometheus 提供了多种语言的客户端库,可以帮助编写自定义的 Exporter。
每个 Exporter 都会运行一个 HTTP 服务器,Prometheus 服务器可以定期从这个 HTTP 服务器上抓取指标。需要在 Prometheus 的配置文件中指定每个 Exporter 的地址和抓取间隔。
Pushgateway
Pushgateway 是 Prometheus 的一个组件,它允许短期的批处理作业推送它们的指标到 Pushgateway,然后 Prometheus 服务器可以从 Pushgateway 拉取这些指标。这对于不能长时间运行以允许 Prometheus 拉取其指标的作业非常有用。
有两种主要的方式可以推送数据到 Pushgateway:
- HTTP API:Pushgateway 提供了一个 HTTP API,可以使用任何能发送 HTTP 请求的工具(如 curl)或编程语言(如 Python、Go)来推送数据。
- Prometheus 客户端库:Prometheus 提供了多种语言的客户端库(如 Go、Java、Python),这些客户端库通常包含推送数据到 Pushgateway 的功能。
这两种方式都需要提供 Pushgateway 的地址和端口,以及的作业的名称。还可以提供其他标签来进一步描述的指标。
AlertManager
报警流程
AlertManager 是 Prometheus 监控系统的一部分,负责处理 Prometheus 服务器发送的警报,并将警报通知给指定的接收者。
以下是 AlertManager 的报警触发流程:
- 警报生成:Prometheus 服务器根据定义的警报规则定期评估时间序列数据。如果满足警报条件,Prometheus 服务器将生成警报并发送到 AlertManager。
- 警报分组:AlertManager 根据配置文件中的
group_by
参数将接收到的警报分组。这可以减少警报通知的数量,因为同一组的警报将一起发送。 - 警报抑制:AlertManager 根据配置文件中的
inhibit_rules
参数抑制某些警报。如果一个警报的源匹配和目标匹配满足抑制规则,那么这个警报将不会发送。 - 警报路由:AlertManager 根据配置文件中的
route
参数将警报路由到指定的接收者。可以根据警报的标签和严重级别定义路由规则。 - 警报通知:AlertManager 将警报通知给指定的接收者。接收者可以是电子邮件、Slack、PagerDuty 等。
以下是 AlertManager 配置文件中的一些关键参数:
group_by
:定义了哪些标签应该用于将警报分组。同一组的警报将一起发送。group_wait
:定义了在首次发送警报通知之前,AlertManager 应该等待新组的警报多长时间。group_interval
:定义了如果警报组中至少有一个新的未解决的警报,AlertManager 应该多久发送一次警报通知。repeat_interval
:定义了如果警报组中没有新的未解决的警报,AlertManager 应该多久发送一次警报通知。routes
:定义了如何将警报路由到接收者。可以根据警报的标签和严重级别定义路由规则。receivers
:定义了接收警报通知的接收者。接收者可以是电子邮件、Slack、PagerDuty 等。inhibit_rules
:定义了哪些警报应该被抑制。如果一个警报的源匹配和目标匹配满足抑制规则,那么这个警报将不会发送。
模板
报警抑制
Recording Rules
在 Prometheus 中,Recording Rules 是一种预先计算和保存常用或复杂表达式结果的方式。这样可以提高查询效率,同时也可以简化复杂查询的书写。
Recording Rules 分为两种类型:
- Recording Rules:这种规则会将查询表达式的结果保存为一个新的时间序列。新的时间序列的名称通常由规则的名称决定。
- Alerting Rules:这种规则会根据查询表达式的结果触发警报。如果表达式的结果满足预定义的条件,Prometheus 就会生成警报并发送到 AlertManager。
可以在 Prometheus 的配置文件或者单独的规则文件中定义 Recording Rules。如果在 Prometheus 的配置文件中定义了规则文件的路径,Prometheus 就会自动加载这些规则文件。
Grafana
添加数据源
添加 Dashboard
在 “Panel” 页面中,可以配置的图表。在 “Query” 部分,可以输入的 PromQL 查询。例如,如果想显示 CPU 使用率,可以输入以下的 PromQL 查询:
|
|
可选择的 Variables
在 Grafana 中添加变量(variables)的步骤如下:
-
在的 Dashboard 页面,点击右上角的 “Dashboard settings” 按钮。
-
在 “Dashboard settings” 页面中,点击左侧的 “Variables” 菜单。
-
在 “Variables” 页面中,点击右上角的 “New Variables” 按钮。
-
在 “New Variable” 页面中,可以配置的变量。以下是一些基本的配置:
-
General -> Name: 输入变量的名称,例如 “host”。
-
General -> Label: 输入变量的标签,例如 “选择节点”。
-
Type: 选择 “Query result”。
-
Data source: 选择的 Prometheus 数据源。
-
Query options -> Query: 输入的 PromQL 查询来获取
host
的值。例如,可以输入以下的查询:1
up{job="node"}
-
Query options -> Regex: 输入一个正则表达式来从查询结果中提取
host
的值。例如,可以输入以下的正则表达式:1
.*{instance="(.*?)".*
-
Selection options -> Include All option: 勾选这个选项,然后在 “Custom all value” 中输入
.*
。
-
-
完成配置后,点击右下角的 “Apply” 按钮。
-
返回到 Dashboard 页面,可以在 Dashboard 的顶部看到的新变量。可以从下拉菜单中选择一个
host
,然后的 Dashboard 会根据选择的host
更新。1 2 3 4 5
# CPU使用率 100 - (avg by (instance) (irate(node_cpu_seconds_total{instance=~"$host", mode="idle"}[5m])) * 100) # 内存使用率 avg by (instance) ((node_memory_MemTotal_bytes{instance=~"$host"} - node_memory_MemAvailable_bytes{instance=~"$host"}) / node_memory_MemTotal_bytes{instance=~"$host"} * 100)
存储
本地存储
Prometheus 的本地时间序列数据库在本地存储中以自定义的高效格式存储数据。
磁盘上的布局如下:
-
数据块:被摄取的样本被分组成两小时的数据块。每个两小时的数据块由一个目录组成,该目录包含一个
chunks
子目录(包含该时间窗口的所有时间序列样本)、一个元数据文件和一个索引文件(将度量名称和标签索引到chunks
目录中的时间序列)。chunks
目录中的样本被分组到一个或多个最大为 512MB 的段文件中。当通过 API 删除系列时,删除记录存储在单独的tombstones
文件中(而不是立即从块段中删除数据)。 -
当前块:接收的样本的当前块保留在内存中,并且没有完全持久化。它通过可以在 Prometheus 服务器重启时重播的预写日志(WAL)来保护,以防止崩溃。预写日志文件存储在
wal
目录中,每个段为 128MB。这些文件包含尚未压缩的原始数据,因此它们比常规的块文件大得多。Prometheus 将保留至少三个预写日志文件。高流量服务器可能会保留超过三个 WAL 文件,以保留至少两小时的原始数据。 -
数据目录:Prometheus 服务器的数据目录看起来像这样:
|
|
请注意,本地存储的一个限制是它不是集群的或复制的。因此,它在驱动器或节点故障面前并不是任意可扩展的或持久的,应像管理任何其他单节点数据库一样管理。建议使用 RAID 来提供存储可用性,并推荐使用快照进行备份。通过适当的架构,可以在本地存储中保留多年的数据。
有关文件格式的更多详细信息,可参阅 TSDB format。
[!warning]
Prometheus 本地存储的文件系统选择的建议。
非 POSIX 兼容的文件系统:Prometheus 的本地存储不支持非 POSIX 兼容的文件系统,因为可能会发生无法恢复的损坏。
NFS 文件系统:不支持 NFS 文件系统,包括 AWS 的 EFS。虽然 NFS 可能是 POSIX 兼容的,但大多数实现都不是。
使用本地文件系统:强烈建议使用本地文件系统以确保可靠性。
压缩
压缩是 Prometheus 存储优化的一部分,它在后台将初始的两小时数据块最终压缩成更长的数据块。
压缩过程会创建包含跨度时间更长的数据的更大的数据块。这些数据块的跨度时间最多可以达到保留时间的 10%,或者 31 天,以较小的为准。
这样做的目的是为了提高数据的查询效率和存储效率。因为在一个大的数据块中查找数据,比在多个小的数据块中查找数据要快。同时,通过压缩,可以减少数据的存储空间,提高存储效率。
OpenMetrics
Prometheus 支持从 OpenMetrics 格式进行回填(Backfilling)。这是因为在某些情况下,可能需要将旧的或历史的指标数据导入到 Prometheus 中。例如,当从其他监控系统迁移到 Prometheus,或者 Prometheus 实例由于某种原因丢失了数据时。
OpenMetrics 是一个开放的指标导出格式,它是 Prometheus 指标导出格式的超集。这意味着任何 Prometheus 指标都可以表示为 OpenMetrics 格式,但 OpenMetrics 还支持一些 Prometheus 不支持的功能。
通过支持从 OpenMetrics 格式进行回填,Prometheus 可以接收和存储更丰富和更复杂的指标数据,这对于那些需要从其他系统迁移数据,或者需要处理复杂指标的用户来说非常有用。
联邦(Federation)
联邦(Federation)允许一个 Prometheus 服务器从另一个 Prometheus 服务器抓取选定的时间序列。
使用案例
-
层次化联邦(Hierarchical federation):层次化联邦允许 Prometheus 扩展到具有数十个数据中心和数百万节点的环境。在这种使用案例中,联邦拓扑类似于树,高级别的 Prometheus 服务器从大量的下级服务器收集聚合的时间序列数据。
例如,一个设置可能包括许多每个数据中心的 Prometheus 服务器,它们以高细节(实例级别的深入)收集数据,以及一组全局 Prometheus 服务器,它们只从这些本地服务器收集和存储聚合数据(作业级别的深入)。这提供了一个聚合的全局视图和详细的本地视图。
-
跨服务联邦(Cross-service federation):在跨服务联邦中,一个服务的 Prometheus 服务器被配置为从另一个服务的 Prometheus 服务器抓取选定的数据,以便在单个服务器内对两个数据集进行警报和查询。
例如,运行多个服务的集群调度器可能会公开关于在集群上运行的服务实例的资源使用信息(如内存和 CPU 使用情况)。另一方面,在该集群上运行的服务只会公开特定于应用的服务指标。通常,这两组指标由单独的 Prometheus 服务器抓取。使用联邦,包含服务级别指标的 Prometheus 服务器可能会从集群 Prometheus 中拉取关于其特定服务的集群资源使用指标,以便在该服务器内使用这两组指标。
Thanos
架构
以下是 Thanos 各个组件介绍:
-
Sidecar:Sidecar 是部署在 Prometheus 实例旁边的一个组件,它有两个主要功能。第一,它通过 gRPC 提供了一个接口,使得 Thanos Querier 可以访问 Prometheus 实例的数据。第二,它可以将 Prometheus 实例的数据上传到云存储,以实现数据的长期存储。
-
Store Gateway:Store Gateway 是一个服务,它可以访问云存储桶中的数据,并通过 gRPC 提供这些数据给 Thanos Querier。Store Gateway 也负责处理数据的索引,以加速查询。
-
Compactor:Compactor 是一个后台服务,它负责处理云存储桶中的数据。Compactor 的主要任务包括压缩数据(以减少存储空间的使用)、降采样数据(以加速长时间范围的查询)和应用数据保留策略。
-
Receiver:Receiver 是一个服务,它可以接收 Prometheus 的远程写入数据。Receiver 将这些数据暴露给 Thanos Querier,并可以选择将这些数据上传到云存储。Receiver 可以用于实现 Prometheus 的高可用或扩展 Prometheus 的写入能力。
-
Ruler/Rule:Ruler 或 Rule 是一个服务,它可以评估 Prometheus 的记录和警报规则。Ruler 可以将计算结果暴露给 Thanos Querier,并可以选择将结果上传到云存储。Ruler 允许在一个地方管理所有的规则,而不需要在每个 Prometheus 实例上单独管理规则。
-
Querier/Query:Querier 或 Query 是一个服务,它实现了 Prometheus 的 v1 API。Querier 可以从 Sidecar、Store Gateway、Receiver 和 Ruler 获取数据,然后聚合这些数据并返回给用户。Querier 允许查询所有的数据,无论这些数据是在 Prometheus 实例中,还是在云存储中。
-
Query Frontend:Query Frontend 是一个服务,它实现了 Prometheus 的 v1 API,并将请求代理到 Querier。Query Frontend 可以缓存 Querier 的响应,以加速重复的查询。Query Frontend 还可以将大查询拆分为多个小查询,以并行处理这些查询并减少查询时间。
Thanos 的部署模式包括:
-
使用 Thanos Sidecar 的 Kubernetes 部署:在这种部署模式下,每个 Prometheus 实例旁边都会部署一个 Thanos Sidecar。Thanos Sidecar 有两个主要职责:
-
数据上传:Thanos Sidecar 会定期将 Prometheus 实例的数据上传到云存储(如 Amazon S3、Google Cloud Storage 等)。这样,即使 Prometheus 实例的本地存储被清理,仍然可以从云存储中查询到旧的数据。
-
数据查询:Thanos Sidecar 提供了一个 gRPC 接口,Thanos Querier 可以通过这个接口查询 Prometheus 实例的数据。这意味着可以使用 Thanos Querier 查询所有 Prometheus 实例的数据,而不需要直接访问每个 Prometheus 实例。
-
-
通过 Receive 进行部署以扩展或与其他远程写入兼容的源集成:在这种部署模式下,Thanos Receiver 接收 Prometheus 的远程写入数据,然后将数据公开给 Thanos Querier 或上传到云存储。这种部署模式有两个主要用途:
-
扩展 Prometheus:如果的 Prometheus 实例无法处理大量的写入负载,可以使用 Thanos Receiver 来扩展 Prometheus 的写入能力。可以将 Prometheus 的远程写入数据发送到 Thanos Receiver,然后 Thanos Receiver 会将这些数据存储在本地或上传到云存储。
-
集成其他源:如果有其他的远程写入兼容的数据源(如 Grafana Loki、OpenTelemetry Collector 等),可以使用 Thanos Receiver 来集成这些数据源。可以将这些数据源的数据发送到 Thanos Receiver,然后 Thanos Receiver 会将这些数据存储在本地或上传到云存储。
-
Receiver
--receive.hashrings-file
--receive.hashrings-file
是 Thanos Receive 的一个启动参数,它指定了一个包含 hashring 配置的 JSON 文件的路径。
Hashring 是一种数据结构,用于在 Thanos Receive 的多个实例之间分配写入请求。每个请求都会被分配给 hashring 中的一个节点,这样可以确保数据的一致性和高可用性。
--receive.hashrings-file
文件的内容是一个 JSON 数组,每个元素都是一个 hashring 配置。每个配置都包含两个字段:
"endpoints"
:这个字段是一个字符串数组,包含了这个 hashring 中的所有 Thanos Receive 实例的地址。"tenants"
:这个字段是一个字符串数组,包含了这个 hashring 中的所有租户 ID。租户 ID 是用来区分不同的用户或者团队的。
例如,下面是 3 个 hashrings.json
文件的示例:
|
|