背景

在Arm64多核处理器中, 各核间的关系可能不同. 比如1个16 core的cpu, 每4个core划分为1个cluster,共享L2 cache. 当我们需要从core 0将任务调度出来时,如果优先选择core 1~3, 那么性能明显时优于其他core的.

那么操作系统怎么知道core之间这样的拓扑信息呢? Arm提供了MPIDR_EL1寄存器. 每个core都有一个该寄存器。

字段说明

a.该寄存器为只读寄存器

b.AFF3 & AFF2 都为ClusterID(从软件角度理解为不同CPU组的ID),AFF1 为CPUID,AFF0 为多线程核的线程ID(指的是是否支持超线程的id)

MPIDR_EL1

U, bit [30]

0表示多核处理, 1表示单核处理

MT, bit [24]

0表示没有使用单核超线程, 1表示使用了单核超线程。

其他的affinity,则表示了各核之间的亲和性。以一个8核2 cluster 非超线程cpu为例, core0的mpidr_el1的affinity为(0,0,0,0),core1为(0,0,0,1),以次类推, core7则为(0,0,1,3)。Arm规范要求了每个core的(Aff3,Aff2,Aff1,Aff0)编码必须唯一。不支持超线程的cpu, Aff0表示核id

这样通过树形结构的编码,OS可以从该寄存器中获取各core之间的关系。

Kernel应用

// kernel表示每个core的拓扑结构,每个core对应一个该结构struct cpu_topology {int thread_id;int core_id;int package_id;int llc_id;cpumask_t thread_sibling;cpumask_t core_sibling;cpumask_t llc_sibling;};void store_cpu_topology(unsigned int cpuid){struct cpu_topology *cpuid_topo = &cpu_topology[cpuid];// 读取MPIDR_EL1u64 mpidr = read_cpuid_mpidr();/* Create cpu topology mapping based on MPIDR. */// 判断芯片是否支持超线程if (mpidr & MPIDR_MT_BITMASK) {/* Multiprocessor system : Multi-threads per core */// 在支持超线程的cpu, Aff0表示一个core内的超线程idcpuid_topo->thread_id= MPIDR_AFFINITY_LEVEL(mpidr, 0);cpuid_topo->core_id= MPIDR_AFFINITY_LEVEL(mpidr, 1);// package_id即cluster idcpuid_topo->package_id = MPIDR_AFFINITY_LEVEL(mpidr, 2) | MPIDR_AFFINITY_LEVEL(mpidr, 3) <thread_id= -1;// 不支持超线程的cpu, Aff0表示核idcpuid_topo->core_id= MPIDR_AFFINITY_LEVEL(mpidr, 0);cpuid_topo->package_id = MPIDR_AFFINITY_LEVEL(mpidr, 1) | MPIDR_AFFINITY_LEVEL(mpidr, 2) << 8 | MPIDR_AFFINITY_LEVEL(mpidr, 3) << 16;}... ...}

MPIDR_EL1在devicetree中的体现
配置DTS时,需要设置MPIDR_EL1的值到CPU node中的reg property,以ArmV8 64bit系统为例:当#address-cell property为2时,需要设置MPIDR_EL1[39:32]到reg[7:0]、MPIDR_EL1[23:0]到reg[23:0]; 当#address-cell property为1时,需要设置MPIDR_EL1[23:0]到reg[23:0];reg的其他位设置位0。

Linux启动过程中MPIDR_EL1的相关逻辑
a.内核中定义了cpu的逻辑映射变量如下,该变量保存MPIDR_EL1寄存器中亲和值。

/* * Logical CPU mapping. */
extern u64 __cpu_logical_map[NR_CPUS];
#define cpu_logical_map(cpu)__cpu_logical_map[cpu]
b.cpu0(boot cpu/primary cpu)获取mpidr_el1亲和值的方式与其他cpu(secondary cpu)

获取方式有所不同。

void __init smp_setup_processor_id(void)
{
/*启动该过程时只有boot cpu即cpu0在执行,其他cpu还未启动
通过read_cpuid_mpidr获取的MPIDR_EL1值即为当前执行的CPU0
的亲和值*/
u64 mpidr = read_cpuid_mpidr() & MPIDR_HWID_BITMASK;

/*将获取到的cpu0的亲和值保存在cpu_logical_map(0)*/
cpu_logical_map(0) = mpidr;

/*
* clear __my_cpu_offset on boot CPU to avoid hang caused by
* using percpu variable early, for example, lockdep will
* access percpu variable inside lock_release
*/
set_my_cpu_offset(0);
pr_info(“Booting Linux on physical CPU 0x%lx\n”, (unsigned long)mpidr);
}