栈回溯和符号解析是使用 perf 的两大阻力,本文以应用程序 fio 的观测为例子,提供一些处理它们的经验法则,希望帮助大家无痛使用 perf。

前言

系统级性能优化通常包括两个阶段:性能剖析和代码优化:

  1. 性能剖析的目标是寻找性能瓶颈,查找引发性能问题的原因及热点代码;

  2. 代码优化的目标是针对具体性能问题而优化代码或调整编译选项,以改善软件性能。

在步骤一性能剖析阶段,最常用的工具就是 perf。perf 是 linux 官方提供的性能分析工具,被包含在 Linux 内核源码树中。它是一个庞大的工具集合,功能相当繁杂。但在工作中,通常我们只会使用到 perf 其中相当小的一个子集,主要包含以下四个步骤:

  1. perf record: 采集数据,采的时间越长越心安;

  2. perf report: 查看采集数据,因为采集太长时间,解析数据会卡很久,我们试图理解数据,通常无法理解;

  3. perf script: 尝试查看原始采样点,通常无法理解;

  4. 生成火焰图: 色彩丰富,通常发给领导理解。

综上,后三个步骤是我们无法控制的,本文主要聊聊如何在步骤一尽量生成可信的采样数据。

workflow of perf

虽然听起来调侃,但上述步骤确实是标准的分析流程,毕竟有火焰图发明人 Brandon 的背书:

@Brandon

可以看到,它们被包含在 perf 工作流第三列的 capture stacks 中,简单回顾一下这四个步骤:

  1. perf record: 通过指定 -g 选项可以收集系统整体的函数调用栈(包含用户态和内核态),默认以 4000HZ 的频率收集,大约每秒生成 4000 个采样点,被保存在 perf.data 文件中;

$perfrecord-g-C0--sleep1[perfrecord:Capturedandwrote0.906MBperf.data(4001samples)]
  1. perf report: 通过解析 perf.data,生成热点函数占用 CPU 的比例。例如以下输出中,CPU0 大部分时间(99.73%)停留在内核代码的 idle 函数中,即 CPU0 大部分时间处于空闲状态:

$perfreport--no-child--stdio99.73%swapper[kernel.kallsyms][k]native_safe_halt|---native_safe_haltacpi_idle_do_entryacpi_idle_entercpuidle_enter_statecpuidle_enterdo_idlecpu_startup_entrystart_kernelsecondary_startup_64_no_verify
  1. perf script: 查看每个采样样本(栈),例如以下栈样本表明: cpu-clock:pppH: 事件于时间 45399.463561 发生,在 CPU0 触发了中断,中断打断的任务是进程号为 0 的内核线程 swapper,栈从下往上看,被打断时 CPU 正在执行 native_safe_halt 偏移 0xe 处的指令:

$perfscriptswapper0[000]45399。463561:250000cpu-clock:pppH:ffffffffa234c45enative_safe_halt+0xe([kernel.kallsyms])ffffffffa234c806acpi_idle_do_entry+0x46([kernel.kallsyms])ffffffffa1f4bafbacpi_idle_enter+0x9b([kernel.kallsyms])ffffffffa211efb7cpuidle_enter_state+0x87([kernel.kallsyms])ffffffffa211f33ccpuidle_enter+0x2c([kernel.kallsyms])ffffffffa1b16ff4do_idle+0x234([kernel.kallsyms])ffffffffa1b171efcpu_startup_entry+0x6f([kernel.kallsyms])ffffffffa3601262start_kernel+0x518([kernel.kallsyms])ffffffffa1a00107secondary_startup_64_no_verify+0xc2([kernel.kallsyms])
  1. 使用脚本生成火焰图,以下是官网例图:

可以发现,后续的分析步骤都基于步骤一采集得到的 perf.data。显然,只有获取到足够精准的调用栈信息,后续才能准确定位到性能瓶颈。可惜的是,获取函数调用栈并没有一个通用解,导致我们需要额外了解一些小知识。

choose your unwinder

获取函数调用栈过程又称栈回溯(unwind),栈回溯的方法被称为 unwinder,常见的 unwinder 有:

  1. fp:perf 默认选项,ARM 和 X86 都支持,消耗低;

  2. dwarf:通过 --call-graph=dwarf 指定,ARM 和 X86 都支持,对CPU和磁盘消耗高;

  3. lbr:通过 --call-graph=lbr 指定,仅 Intel 新型号支持,消耗低,但可回溯的栈深度有限;

  4. orc:内核 unwinder,无需指定。 在 perf record 中,若不通过 --call-graph 指定 unwinder,默认使用 fp 作为用户态栈的 unwinder;至于内核态的 unwinder,不由 perf 参数指定,由内核编译选项控制,低版本内核使用 fp,高版本内核使用 orc。

因此问题转化为:用户态使用哪个 unwinder 是更合适的?结论先行,以下是可供参考的方案:

  1. Intel CPU:优先使用 lbr,lbr 的好处是硬件实现,精准可靠,大部分情况下深度够用;

  2. ARM 架构:优先使用 fp,因为 ARM 架构寄存器比较多,保留了寄存器记录栈基址;

  3. X86 上没有 lbr 时:优先使用 dwarf,虽然 X86 架构也把栈基址保存在 %rbp,但只要编译优化大于等于 -O1 ,%rbp 寄存器基本作为通用寄存器使用,使得在 X86 上用 fp 获取用户态栈大部分时候不可靠。有以下注意点:
    1. 在 linux 5.19 版本以下,dwarf 可能采样不到动态链接库的栈(参考提交 perf unwind: Fix egbase for ld.lld linked objects);

    2. dwarf 需要复制保存每一个采样点的用户栈,因此采样期间 CPU 消耗较高,生成的采样数据也远大于其它 unwinder;

    3. 如果 dwarf 无法满足需求,可以 gcc 编译时添加选项 -fno-omit-frame-pointer 放弃复用 %rbp 寄存器的编译优化,重新编译应用后使用 fp。虽然该选项无法百分百保证 %rbp 一定可靠,但总体可信。

让我们通过在 X86 架构上观测应用程序 fio,对这些 unwinder 有个初步的了解:

$perfrecord-a--user-callchains--call-graph=dwarf-p`pidoffio`-operf.data.dwarf--sleep2$perfreport--no-ch--stdio-iperf.data.dwarf10.69%fio[kernel.kallsyms][k]iowrite16|---syscallio_submit0x55a0a986682e#<-我们会在下下节解决符号问题td_io_committd_io_queue0x55a0a985945a<-0x55a0a985b7d0<-start_thread__GI___clone(inlined)$perfrecord-a--user-callchains--call-graph=fp-p`pidoffio`-operf.data.fp--sleep2$perfreport--no-ch--stdio-iperf.data.fp8.27%fio[kernel.kallsyms][k]iowrite16|---syscall|--0.75%--0x70700000707|--0.75%--0x62d0000062d|--0.75%--0x5e1000005e1|--0.75%--0x55b0000055a|--0.75%--0x54800000548|--0.75%--0x52f0000052f|--0.75%--0x51000000510|--0.75%--0x44f0000044f|--0.75%--0x3cb000003cb|--0.75%--0x39800000398--0.75%--0x37c0000037b

以上采集数据的命令中使用 --user-callchains 选项指定了 perf 采样时只采集用户栈,排除掉我们暂时不关心的内核栈。输出中可以看到虽然 dwarf 采集得到的栈没有被完全翻译,但正确地回溯到了进程刚诞生的函数 __GI___clone,这表明 dwarf 采样得到了完整的栈;反观 fp,只得到了些奇怪的地址。我们的方案三是有效的!

what do dwarf do

为叙述完整,该节补充一点 dwarf 栈回溯原理,不影响 perf 使用,不涉及的朋友可以跳转下一节解决符号问题。

在编译过程中 gcc 无论是否指定 -g 选项, 默认都会生成 .eh_frame 和 .eh_frame_hdr 段. gcc 在翻译代码为汇编代码时, 会帮忙插上一些 CFI 伪指令, 如

$gcc-Stest.c#c语言生成汇编代码$vimtest.s#查看汇编代码$cattest.s.cfi_startproc#刚进函数,当前我们处于callee栈帧的起始处,更新CFA=rsp+8pushq%rbp#每次push寄存器到栈上,需要将CFA+=8,因为相比上一状态需要多往前走一个单位才是caller的栈帧.cfi_def_cfa_offset16.cfi_offset6,-16#并且更新该寄存器关于CFA的偏移,使回溯过程可以恢复该寄存器的值#...movq%rsp%rbp#将rsp寄存器赋值给rbp.cfi_def_cfa_register6#将寄存器6(rbp)定义为CFA寄存器,之后CFA的计算都基于rbp#...leave.cfi_def_cfa7,8#leave中将rbp寄存器的值赋值给rsp,即rsp此时指向callee栈帧开始处,此时CFA=rsp+8.cfi_endproc$readelf-wFtest.o#查看对应的.eh_frame印证0000000000000661rsp+8uc-80000000000000662rsp+16c-16c-80000000000000665rbp+16c-16c-800000000000006a6rsp+8c-16c-8

其中 CFA (Canonical Frame Address, which is the address of %rsp in the caller frame) 指上一级调用者的堆栈指针.

如上所示, 汇编器会将这些 CFI 伪指令收集到可执行文件中的 .eh_frame 段. 典型形式如下:

$readelf-wFa.outContentsofthe.eh_framesection:00000000000000000000001400000000CIE"zR"cf=1df=-8ra=16LOCCFAra0000000000000000rsp+8u...000000c800000000000000440000009cFDEcie=00000030pc=00000000000006b0..0000000000000715LOCCFArbxrbpr12r13r14r15ra00000000000006b0rsp+8uuuuuuc-800000000000006b2rsp+16uuuuuc-16c-800000000000006b4rsp+24uuuuc-24c-16c-800000000000006b9rsp+32uuuc-32c-24c-16c-800000000000006bbrsp+40uuc-40c-32c-24c-16c-800000000000006c3rsp+48uc-48c-40c-32c-24c-16c-800000000000006cbrsp+56c-56c-48c-40c-32c-24c-16c-800000000000006d8rsp+64c-56c-48c-40c-32c-24c-16c-8000000000000070arsp+56c-56c-48c-40c-32c-24c-16c-8000000000000070brsp+48c-56c-48c-40c-32c-24c-16c-8000000000000070crsp+40c-56c-48c-40c-32c-24c-16c-8000000000000070ersp+32c-56c-48c-40c-32c-24c-16c-80000000000000710rsp+24c-56c-48c-40c-32c-24c-16c-80000000000000712rsp+16c-56c-48c-40c-32c-24c-16c-80000000000000714rsp+8c-56c-48c-40c-32c-24c-16c-8

可以看到 .eh_frame 总体架构由 CIE 和 FDE 组成。通常一个 CIE 代表一个文件, 一个 FDE 代表一个函数. 其中核心的是 FDE 的组织:

利用 .eh_frame 进行栈 unwind 时候, 遵循以下步骤:

  1. 根据当前的PC在.eh_frame中找到对应的条目,根据条目提供的各种偏移计算其他信息。

  2. 首先根据CFA = rsp+4,把当前rsp+4得到CFA的值。再根据CFA的值计算出通用寄存器和返回地址在堆栈中的位置。

  3. 通用寄存器栈位置计算。例如:rbx = CFA-56。

  4. 返回地址ra的栈位置计算。ra = CFA-8。

  5. 根据ra的值,重复步骤1到4,就形成了完整的栈回溯。

handle missing symbols

函数调用栈本质是一串地址,perf 会尽量将地址翻译人类可读的符号。在以下样本点中,可以看到 IP 寄存器保存的地址属于 libc 库,它被正确翻译为 syscall+0x1d,但再往下回溯,我们只知道 syscall 函数是由 libaio 库某不知名函数调用的。这里出现 [unknown] 通常由于可执行程序的符号被裁剪所致,裁剪符号是有效减小可执行程序体积的做法。

$perfscript-D-iperf.data.dwarf2595947416313980x2d840[0x20f8]:PERF_RECORD_SAMPLE(IP,0x1):273245/273258:0xffffffff89d1869dperiod:250000addr:0...FPchain:nr:0[...]....IP0x00007f3afb87f52d...ustack:size8192,offset0xe0[...]fio273258259594.741631:250000cpu-clock:pppH:7f3afb87f52dsyscall+0x1d(/usr/lib64/libc-2.28.so)7f3afc50ab7d[unknown](/usr/lib64/libaio.so.1.0.1)55a0a9866a95[unknown](/usr/bin/fio)55a0a98197a5td_io_getevents+0x75(/usr/bin/fio)55a0a983b216io_u_queued_complete+0x66(/usr/bin/fio)55a0a98577d4[unknown](/usr/bin/fio)55a0a98591fa[unknown](/usr/bin/fio)55a0a985b7d0[unknown](/usr/bin/fio)7f3afc0db179start_thread+0xe9(/usr/lib64/libpthread-2.28.so)7f3afb884dc2__GI___clone+0x42

那怎么将符号补全呢?我们可以通过安装 -debuginfo-dbgsym 包解决,例如对于 fio:

#centos上,先使能yum的debuginfo源,再安装对应应用的-debuginfo包即可$cat/etc/yum.repos.d/CentOS-Linux-Debuginfo.repo[debuginfo]name=CentOSLinux$releasever-Debuginfobaseurl=http://debuginfo.centos.org/$releasever/$basearch/gpgcheck=0enabled=1gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-centosofficial$yumcleanall&&yummakecache$yum-yinstallfio-debuginfo.x86_64#ubuntu上,先导入调试符号签名密钥,再安装对应应用的-dbgsym包即可$aptinstallubuntu-dbgsym-keyring$aptinstallfio-dbgsym

补全后的栈如下所示:

$perfscript-iperf.data.dwarffio24692823.211391:250000cpu-clock:pppH:7f03631a89bdsyscall+0x1d(/usr/lib64/libc-2.28.so)7f0363ef1c14io_submit+0x34(/usr/lib64/libaio.so.1.0.1)555976f418cefio_libaio_commit+0xde(/usr/bin/fio)555976ef4a98td_io_commit+0x58(/usr/bin/fio)555976ef4fb5td_io_queue+0x3f5(/usr/bin/fio)555976f344eado_io+0x71a(/usr/bin/fio)555976f36880thread_main+0x18b0(/usr/bin/fio)555976f38561run_threads+0xcb1(/usr/bin/fio)

后记

当你面对一个性能问题,如果选择使用 perf 观测,那么问题就变成了三个,另外两个是在解决性能问题前,必须先解决栈回溯和符号解析,前者影响观测准确性,后者影响观测可读性。perf 大部分时候都帮忙做好了,但如果遇到了些小困难,希望本文能有幸帮上一点忙。