基于 Coolbpf 的应用可观测实践 | 龙蜥技术

龙蜥社区 -
基于 Coolbpf 的应用可观测实践 | 龙蜥技术

文/ eBPF 技术探索 SIG

随着 eBPF 技术的广泛应用,在操作系统层面提供了更多的观测能力,站在操作系统层面对应用的行为数据进行 trace 追踪成了一种应用监控的新手段,本文主要介绍基于 eBPF 实现对应用网络数据监控的背后逻辑。

一、一个请求数据包的组成

一个完整的应用请求数据包主要包含请求地址信息及具体的请求数据。其中请求地址信息就是我们常说的五元组信息(IP+端口+协议),这部分都是操作系统协议栈负责去解析;而请求数据则由应用通过各种协议去封装并解析,常见的应用协议有:http、mysql、rediis、dns 等。

应用每一个请求数据的接受与发送都是通过网络相关的系统调用与操作系统交互,如果请求报文没有加密,那么在系统调用处做一个拦截通过函数入参就能轻而易举的拿到应用协议数据。当下热门的应用可观测都是基于此方法对应用网络数据进行trace,包括:时延、流量统计、协议等。

二、基于系统调用的请求追踪2.1 网络请求模型

一个应用进程基于系统调用的网络请求模型如下(这里仅介绍客户端):

通过 socket 去建立套接字,获得一个 fd 作为 socket 的标识。通过 connect 填写 IP 端口信息发起请求连接。通过read/write请求/接收具体数据,除了read/write系统调用还有send/recvfrom,readv/writev 等可用。通过 close 结束本次请求。

通过上面的流程图我们大概了解了一次完整网络请求的系统调用逻辑。有几点需要注意:

对于单个建链完成的请求而言,其发送数据和接收数据往往是串行的,或者说一个 write 必然匹配一个 read,因此我们才能统计到 RT 时间,而 read/write 的返回字节数就可以作为我们的流量统计。write/read 如何配对,对于客户端而言,是先 write 再 read,常用的做法是通过进程 pid 和 socket fd 作为配对标识,实现 write/read 这一次完整请求数据的配对。2.2 系统调用追踪

eBPF 技术可以在不改变内核源码或加载内核模块情况下在内核插入指定 hook 代码,能在内核或应用程序执行到一个特定的 hook 点时执行。预定义的 hooks 包含系统调用、 函数出/入口、内核追踪点、网络事件等等。

有了 eBPF 做系统调用的 hook 以后,系统调用的事件采集对于我们来说变得格外方便,只不过我们需要注意下哪些事件需要上报及请求数据上报以后的匹配策略。同时对于获取请求数据是有一些讲究,对于 write 发送数据而言在系统调用函数入口直接获取入参就可以获取数据,但是对于 read 读取数据而言我们需要在系统调用函数的出口做 hook 去拿数据。

上文中提到 pid+fd 作为 traceid 作为请求的唯一标志,有如下两种方法可以实现:

方法1:当有 connect 的时候先在 BPF map 中记录下这个 traceid,表示有一个新的请求建立,后续的 read/write 请求数据都是以此为配对。不过在 http 长连接场景下,connect 发起可能在我们 trace 之前,所以只能通过 netlink 等其他方式来获取链接信息。

方法2:实际上我们关心的只是 read/write 的请求数据及如何配对,是否可以仅根据 fd 获取连接信息?BPF 程序可以拿到当前进程的 task_struct,根据 fd 可以拿到对应的 sock 结构体,sock 结构体中记录了请求地址信息。

除此之外就是 BPF 框架的技术选型,我们采用了 Coolbpf 开发,通过对 libbpf 的改进,在具备 core 特性的同时提供了更简洁的 API 接口,exporter 程序可以直接以 so 的形式加载代码。以上只是网络请求事件采集的最小单元,借助 exporter 的其他能力,可以获得更丰富的数据指标:错误数、时延、进程级流量统计等。

三、应用协议识别

在系统调用层面只能识别到 4 层网络协议,对于应用的 7 层协议无法识别,实际上是在 hook 系统调用拿到 buf 参数后,对 buf 的头部几个字节做协议头解析,目前支持的协议有:http、mysql、kafak、dns、mongo、pgsql、dubbo。对于 https 等加密报文可以通过 uprobe 的方式对 ssl 加密库做 hook,后续会支持这部分功能。

四、部署

我们在日常值班问题中也有碰到各种网络抖动时延问题,因此我们将此部分功能放在了 SysOM 智能诊断平台的 agent 中,可以通过容器一键部署,并在 grafana 中查看对应的时延分布及具体的时延请求信息。

同时我们与 sls 合作,也将此部分内核采集的能力输出给了 iLogtail。

五、what's more

除了上文提到的基于系统调用的应用观测,对于应用由于自身原因收包缓慢造成网络“假抖动”的情况,我们基于 Coolbpf 也做了相关观测实践。一个完整的收包流程主要分为两个阶段:

阶段1:OS 通过软中断将数据包上送到应用的收包队列并通知进程后就算完成了协议栈的收包工作。

阶段2:应用得到通知后去收报队列取包。

这两个阶段可以认为是异步的,我们将数据包到达收包队列到应用完成取包这段时间作为应用的"收包延迟时间"进行观测,基于此方法在网络抖动问题定位中得到了极大帮助。

案例1 某业务应用基于 dubbo 框架容器收到 tcp 包后延迟了将近 1s 业务层才收到

部署 SysOM agent 对“收包延迟时间”进行观测,发现"收包延迟时间"将近 1 秒,右侧红框部分为时间,单位为纳秒,结合左侧红框每次发生延迟时间都在某某时间 42 秒,怀疑跟业务某定时任务相关造成应用自身时延,最终排查到业务有某个任务会定时收集 jvm 的参数,对应用有 stop 动作,停掉该任务后消除了抖动问题。

案例2 业务高峰期,客户端 rpc 耗时比服务端多 20-30ms

业务监控如下:

部署 SysOM agent 对“收包延迟时间”进行观测,发现对应时间段存在应用“收包延迟时间”较大,因此首先排除了网络链路问题。红框部分为时间,单位为纳秒,图中时间需要加上 8 小时。

根据时序对比发现是由于此时间段应用在做 GC 导致,最后通过调整 GC 参数解决。

六、总结

以上是基于 Coolbpf 在可观测性的相关实践,相关功能都集成在了 SysOM 的 agent 中,后续会引入更多对应用观测的功能。当应用日志无法解决问题或者没有日志的情况下,利用 eBPF 技术在 OS 层面对应用行为逻辑的观测,在定位某些应用的疑难问题时有着极大帮助。

参考链接:

eBPF 介绍链接地址:https://www.rutron.net/posts/...

coolbpf gitee 代码仓链接地址:https://gitee.com/anolis/cool...

内核文档链接地址:https://www.kernel.org/doc/ht...

龙蜥实验室 coolbpf 链接地址:https://lab.openanolis.cn/#/a...

—— 完 ——

特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(cy198701067573@163.com),我们将及时处理。

Tags 标签

技术linux操作系统tcp-ip

扩展阅读

加个好友,技术交流

1628738909466805.jpg