--- title: 控制节点上的拓扑管理策略 content_type: task min-kubernetes-server-version: v1.18 --- {{< feature-state state="beta" for_k8s_version="v1.18" >}} 越来越多的系统利用 CPU 和硬件加速器的组合来支持对延迟要求较高的任务和高吞吐量的并行计算。 这类负载包括电信、科学计算、机器学习、金融服务和数据分析等。 此类混合系统即用于构造这些高性能环境。 为了获得最佳性能,需要进行与 CPU 隔离、内存和设备局部性有关的优化。 但是,在 Kubernetes 中,这些优化由各自独立的组件集合来处理。 _拓扑管理器(Topology Manager)_ 是一个 kubelet 的一部分,旨在协调负责这些优化的一组组件。 ## {{% heading "prerequisites" %}} {{< include "task-tutorial-prereqs.md" >}} {{< version-check >}} ## 拓扑管理器如何工作 在引入拓扑管理器之前, Kubernetes 中的 CPU 和设备管理器相互独立地做出资源分配决策。 这可能会导致在多处理系统上出现并非期望的资源分配;由于这些与期望相左的分配,对性能或延迟敏感的应用将受到影响。 这里的不符合期望意指,例如, CPU 和设备是从不同的 NUMA 节点分配的,因此会导致额外的延迟。 拓扑管理器是一个 Kubelet 组件,扮演信息源的角色,以便其他 Kubelet 组件可以做出与拓扑结构相对应的资源分配决定。 拓扑管理器为组件提供了一个称为 *建议供应者(Hint Providers)* 的接口,以发送和接收拓扑信息。 拓扑管理器具有一组节点级策略,具体说明如下。 拓扑管理器从 *建议提供者* 接收拓扑信息,作为表示可用的 NUMA 节点和首选分配指示的位掩码。 拓扑管理器策略对所提供的建议执行一组操作,并根据策略对提示进行约减以得到最优解;如果存储了与预期不符的建议,则该建议的优选字段将被设置为 false。 在当前策略中,首选的是最窄的优选掩码。 所选建议将被存储为拓扑管理器的一部分。 取决于所配置的策略,所选建议可用来决定节点接受或拒绝 Pod 。 之后,建议会被存储在拓扑管理器中,供 *建议提供者* 进行资源分配决策时使用。 ### 启用拓扑管理器功能特性 对拓扑管理器的支持要求启用 `TopologyManager` [特性门控](/zh/docs/reference/command-line-tools-reference/feature-gates/)。 从 Kubernetes 1.18 版本开始,这一特性默认是启用的。 ### 拓扑管理器作用域和策略 拓扑管理器目前: - 对所有 QoS 类的 Pod 执行对齐操作 - 针对建议提供者所提供的拓扑建议,对请求的资源进行对齐 如果满足这些条件,则拓扑管理器将对齐请求的资源。 为了定制如何进行对齐,拓扑管理器提供了两种不同的方式:`scope` 和 `policy`。 `scope` 定义了资源对齐时你所希望使用的粒度(例如,是在 `pod` 还是 `container` 级别)。 `policy` 定义了对齐时实际使用的策略(例如,`best-effort`、`restricted`、`single-numa-node` 等等)。 可以在下文找到现今可用的各种 `scopes` 和 `policies` 的具体信息。 {{< note >}} 为了将 Pod 规约中的 CPU 资源与其他请求资源对齐,CPU 管理器需要被启用并且 节点上应配置了适当的 CPU 管理器策略。 参看[控制 CPU 管理策略](/zh/docs/tasks/administer-cluster/cpu-management-policies/). {{< /note >}} {{< note >}} 为了将 Pod 规约中的 memory(和 hugepages)资源与所请求的其他资源对齐,需要启用内存管理器, 并且在节点配置适当的内存管理器策略。查看[内存管理器](/zh/docs/tasks/administer-cluster/memory-manager/) 文档。 {{< /note >}} ### 拓扑管理器作用域 拓扑管理器可以在以下不同的作用域内进行资源对齐: * `container` (默认) * `pod` 在 kubelet 启动时,可以使用 `--topology-manager-scope` 标志来选择其中任一选项。 ### 容器作用域 默认使用的是 `container` 作用域。 在该作用域内,拓扑管理器依次进行一系列的资源对齐, 也就是,对每一个容器(包含在一个 Pod 里)计算单独的对齐。 换句话说,在该特定的作用域内,没有根据特定的 NUMA 节点集来把容器分组的概念。 实际上,拓扑管理器会把单个容器任意地对齐到 NUMA 节点上。 容器分组的概念是在以下的作用域内特别实现的,也就是 `pod` 作用域。 ### Pod 作用域 使用命令行选项 `--topology-manager-scope=pod` 来启动 kubelet,就可以选择 `pod` 作用域。 该作用域允许把一个 Pod 里的所有容器作为一个分组,分配到一个共同的 NUMA 节点集。 也就是,拓扑管理器会把一个 Pod 当成一个整体, 并且试图把整个 Pod(所有容器)分配到一个单个的 NUMA 节点或者一个共同的 NUMA 节点集。 以下的例子说明了拓扑管理器在不同的场景下使用的对齐方式: * 所有容器可以被分配到一个单一的 NUMA 节点; * 所有容器可以被分配到一个共享的 NUMA 节点集。 整个 Pod 所请求的某种资源总量是根据 [有效 request/limit](/zh/docs/concepts/workloads/pods/init-containers/#resources) 公式来计算的, 因此,对某一种资源而言,该总量等于以下数值中的最大值: * 所有应用容器请求之和; * 初始容器请求的最大值。 `pod` 作用域与 `single-numa-node` 拓扑管理器策略一起使用, 对于延时敏感的工作负载,或者对于进行 IPC 的高吞吐量应用程序,都是特别有价值的。 把这两个选项组合起来,你可以把一个 Pod 里的所有容器都放到一个单个的 NUMA 节点, 使得该 Pod 消除了 NUMA 之间的通信开销。 在 `single-numa-node` 策略下,只有当可能的分配方案中存在合适的 NUMA 节点集时,Pod 才会被接受。 重新考虑上述的例子: * 节点集只包含单个 NUMA 节点时,Pod 就会被接受, * 然而,节点集包含多个 NUMA 节点时,Pod 就会被拒绝 (因为满足该分配方案需要两个或以上的 NUMA 节点,而不是单个 NUMA 节点)。 简要地说,拓扑管理器首先计算出 NUMA 节点集,然后使用拓扑管理器策略来测试该集合, 从而决定拒绝或者接受 Pod。 ### 拓扑管理器策略 拓扑管理器支持四种分配策略。 你可以通过 Kubelet 标志 `--topology-manager-policy` 设置策略。 所支持的策略有四种: * `none` (默认) * `best-effort` * `restricted` * `single-numa-node` {{< note >}} 如果拓扑管理器配置使用 **Pod** 作用域, 那么在策略考量一个容器时,该容器反映的是整个 Pod 的要求, 于是该 Pod 里的每个容器都会得到 **相同的** 拓扑对齐决定。 {{< /note >}} ### none 策略 {#policy-none} 这是默认策略,不执行任何拓扑对齐。 ### best-effort 策略 {#policy-best-effort} 对于 Guaranteed 类的 Pod 中的每个容器,具有 `best-effort` 拓扑管理策略的 kubelet 将调用每个建议提供者以确定资源可用性。 使用此信息,拓扑管理器存储该容器的首选 NUMA 节点亲和性。 如果亲和性不是首选,则拓扑管理器将存储该亲和性,并且无论如何都将 pod 接纳到该节点。 之后 *建议提供者* 可以在进行资源分配决策时使用这个信息。 ### restricted 策略 {#policy-restricted} 对于 Guaranteed 类 Pod 中的每个容器, 配置了 `restricted` 拓扑管理策略的 kubelet 调用每个建议提供者以确定其资源可用性。。 使用此信息,拓扑管理器存储该容器的首选 NUMA 节点亲和性。 如果亲和性不是首选,则拓扑管理器将从节点中拒绝此 Pod 。 这将导致 Pod 处于 `Terminated` 状态,且 Pod 无法被节点接纳。 一旦 Pod 处于 `Terminated` 状态,Kubernetes 调度器将不会尝试重新调度该 Pod。 建议使用 ReplicaSet 或者 Deployment 来重新部署 Pod。 还可以通过实现外部控制环,以启动对具有 `Topology Affinity` 错误的 Pod 的重新部署。 如果 Pod 被允许运行在某节点,则 *建议提供者* 可以在做出资源分配决定时使用此信息。 ### single-numa-node 策略 {#policy-single-numa-node} 对于 Guaranteed 类 Pod 中的每个容器, 配置了 `single-numa-nodde` 拓扑管理策略的 kubelet 调用每个建议提供者以确定其资源可用性。 使用此信息,拓扑管理器确定单 NUMA 节点亲和性是否可能。 如果是这样,则拓扑管理器将存储此信息,然后 *建议提供者* 可以在做出资源分配决定时使用此信息。 如果不可能,则拓扑管理器将拒绝 Pod 运行于该节点。 这将导致 Pod 处于 `Terminated` 状态,且 Pod 无法被节点接受。 一旦 Pod 处于 `Terminated` 状态,Kubernetes 调度器将不会尝试重新调度该 Pod。 建议使用 ReplicaSet 或者 Deployment 来重新部署 Pod。 还可以通过实现外部控制环,以触发具有 `Topology Affinity` 错误的 Pod 的重新部署。 ### Pod 与拓扑管理器策略的交互 考虑以下 pod 规范中的容器: ```yaml spec: containers: - name: nginx image: nginx ``` 该 Pod 以 `BestEffort` QoS 类运行,因为没有指定资源 `requests` 或 `limits`。 ```yaml spec: containers: - name: nginx image: nginx resources: limits: memory: "200Mi" requests: memory: "100Mi" ``` 由于 requests 数少于 limits,因此该 Pod 以 `Burstable` QoS 类运行。 如果选择的策略是 `none` 以外的任何其他策略,拓扑管理器都会评估这些 Pod 的规范。 拓扑管理器会咨询建议提供者,获得拓扑建议。 若策略为 `static`,则 CPU 管理器策略会返回默认的拓扑建议,因为这些 Pod 并没有显式地请求 CPU 资源。 ```yaml spec: containers: - name: nginx image: nginx resources: limits: memory: "200Mi" cpu: "2" example.com/device: "1" requests: memory: "200Mi" cpu: "2" example.com/device: "1" ``` 此 Pod 以 `Guaranteed` QoS 类运行,因为其 `requests` 值等于 `limits` 值。 ```yaml spec: containers: - name: nginx image: nginx resources: limits: example.com/deviceA: "1" example.com/deviceB: "1" requests: example.com/deviceA: "1" example.com/deviceB: "1" ``` 因为未指定 CPU 和内存请求,所以 Pod 以 `BestEffort` QoS 类运行。 拓扑管理器将考虑以上两个 Pod。拓扑管理器将咨询建议提供者即 CPU 和设备管理器,以获取 Pod 的拓扑提示。 对于 `Guaranteed` 类的 CPU 请求数为整数的 Pod,`static` CPU 管理器策略将返回与 CPU 请求有关的提示, 而设备管理器将返回有关所请求设备的提示。 对于 `Guaranteed` 类的 CPU 请求可共享的 Pod,`static` CPU 管理器策略将返回默认的拓扑提示,因为没有排他性的 CPU 请求;而设备管理器 则针对所请求的设备返回有关提示。 在上述两种 `Guaranteed` Pod 的情况中,`none` CPU 管理器策略会返回默认的拓扑提示。 对于 `BestEffort` Pod,由于没有 CPU 请求,`static` CPU 管理器策略将发送默认提示, 而设备管理器将为每个请求的设备发送提示。 基于此信息,拓扑管理器将为 Pod 计算最佳提示并存储该信息,并且供 提示提供程序在进行资源分配时使用。 ### 已知的局限性 1. 拓扑管理器所能处理的最大 NUMA 节点个数是 8。若 NUMA 节点数超过 8, 枚举可能的 NUMA 亲和性并为之生成提示时会发生状态爆炸。 2. 调度器不是拓扑感知的,所以有可能一个 Pod 被调度到一个节点之后,会因为拓扑管理器的缘故在该节点上启动失败。