[zh] Fix some translation about node

pull/21938/head
Qiming Teng 2020-06-20 15:19:08 +08:00
parent c97d0a00e9
commit d2a8cd3b79
1 changed files with 161 additions and 125 deletions

View File

@ -4,14 +4,12 @@ content_type: concept
weight: 10
---
<!--
---
reviewers:
- caesarxuchao
- dchen1107
title: Nodes
content_type: concept
weight: 10
---
-->
<!-- overview -->
@ -26,18 +24,11 @@ architecture design doc for more details.
-->
在 Kubernetes 中节点Node是执行工作的机器以前叫做 `minion`。根据你的集群环境,节点可以是一个虚拟机或者物理机器。每个节点都包含用于运行 [pods](/docs/concepts/workloads/pods/pod/) 的必要服务,并由主控组件管理。节点上的服务包括 [容器运行时](/docs/concepts/overview/components/#node-components)、kubelet 和 kube-proxy。查阅架构设计文档中 [Kubernetes 节点](https://git.k8s.io/community/contributors/design-proposals/architecture/architecture.md#the-kubernetes-node) 一节获取更多细节。
<!-- body -->
<!--
## Node Status
-->
## 节点状态
<!--
A node's status contains the following information:
* [Addresses](#addresses)
@ -45,6 +36,9 @@ A node's status contains the following information:
* [Capacity and Allocatable](#capacity)
* [Info](#info)
-->
## 节点状态
一个节点的状态包含以下信息:
* [地址](#addresses)
@ -52,11 +46,11 @@ A node's status contains the following information:
* [容量与可分配](#capacity)
* [信息](#info)
<!--
Node status and other details about a node can be displayed using below command:
-->
可以使用以下命令显示节点状态和有关节点的其他详细信息:
```shell
kubectl describe node <insert-node-name-here>
```
@ -67,32 +61,29 @@ Each section is described in detail below.
<!--
### Addresses
The usage of these fields varies depending on your cloud provider or bare metal configuration.
-->
### 地址
<!--
The usage of these fields varies depending on your cloud provider or bare metal configuration.
-->
这些字段组合的用法取决于你的云服务商或者裸机配置。
<!--
* HostName: The as reported by the node's kernel. Can be overridden via the kubelet `--hostname-override` parameter.
* HostName: The as reported by the node's kernel. Can be overridden via the kubelet `-hostname-override` parameter.
* ExternalIP: Typically the IP address of the node that is externally routable (available from outside the cluster).
* InternalIP: Typichostnameally the IP address of the node that is routable only within the cluster.
-->
* HostName由节点的内核指定。可以通过 kubelet 的 `--hostname-override` 参数覆盖。
* ExternalIP通常是可以外部路由的节点 IP 地址(从集群外可访问)。
* InternalIP通常是仅可在集群内部路由的节点 IP 地址。
* HostName由节点的内核设置。可以通过 kubelet 的 `--hostname-override` 参数覆盖。
* ExternalIP通常是节点的可以外部路由从集群外可访问的 IP 地址。
* InternalIP通常是节点的仅可在集群内部路由的 IP 地址。
<!--
### Conditions {#condition}
The `conditions` field describes the status of all `Running` nodes. Examples of conditions include:
-->
### 条件 {#condition}
<!--
The `conditions` field describes the status of all `Running` nodes. Examples of conditions include:
-->
`conditions` 字段描述了所有 `Running` 节点的状态。条件的示例包括:
<!--
@ -100,24 +91,24 @@ The `conditions` field describes the status of all `Running` nodes. Examples of
|----------------|-------------|
| `OutOfDisk` | `True` if there is insufficient free space on the node for adding new pods, otherwise `False` |
| `Ready` | `True` if the node is healthy and ready to accept pods, `False` if the node is not healthy and is not accepting pods, and `Unknown` if the node controller has not heard from the node in the last `node-monitor-grace-period` (default is 40 seconds) |
| `MemoryPressure` | `True` if pressure exists on the node memory -- that is, if the node memory is low; otherwise `False` |
| `PIDPressure` | `True` if pressure exists on the processes -- that is, if there are too many processes on the node; otherwise `False` |
| `DiskPressure` | `True` if pressure exists on the disk size -- that is, if the disk capacity is low; otherwise `False` |
| `MemoryPressure` | `True` if pressure exists on the node memory - that is, if the node memory is low; otherwise `False` |
| `PIDPressure` | `True` if pressure exists on the processes - that is, if there are too many processes on the node; otherwise `False` |
| `DiskPressure` | `True` if pressure exists on the disk size - that is, if the disk capacity is low; otherwise `False` |
| `NetworkUnavailable` | `True` if the network for the node is not correctly configured, otherwise `False` |
-->
| 节点条件 | 描述 |
| 节点条件 | 描述 |
|----------------|-------------|
| `OutOfDisk` | `True` 表示节点的空闲空间不足以用于添加新 pods, 否则为 `False` |
| `Ready` | 表示节点是健康的并已经准备好接受 pods`False` 表示节点不健康而且不能接受 pods`Unknown` 表示节点控制器在最近 40 秒内没有收到节点的消息 |
| `MemoryPressure` | `True` 表示节点存在内存压力 -- 即节点内存用量低,否则为 `False` |
| `PIDPressure` | `True` 表示节点存在进程压力 -- 即进程过多;否则为 `False` |
| `DiskPressure` | `True` 表示节点存在磁盘压力 -- 即磁盘可用量低,否则为 `False` |
| `NetworkUnavailable` | `True` 表示节点网络配置不正确;否则为 `False` |
| `OutOfDisk` | `True` 表示节点的空闲空间不足以用于添加新 Pods, 否则为 `False` |
| `Ready` | 表示节点是健康的并已经准备好接收 Pods`False` 表示节点不健康而且不能接收 Pods`Unknown` 表示节点控制器在最近 `node-monitor-grace-period` 期间(默认 40 秒)没有收到节点的消息 |
| `MemoryPressure` | `True` 表示节点存在内存压力,即节点内存可用量低,否则为 `False` |
| `PIDPressure` | `True` 表示节点存在进程压力,即进程过多;否则为 `False` |
| `DiskPressure` | `True` 表示节点存在磁盘压力,即磁盘可用量低,否则为 `False` |
| `NetworkUnavailable` | `True` 表示节点网络配置不正确;否则为 `False` |
<!--
The node condition is represented as a JSON object. For example, the following response describes a healthy node.
-->
节点条件使用一个 JSON 对象表示。例如,下面的响应描述了一个健康的节点。
节点条件使用 JSON 对象表示。例如,下面的响应描述了一个健康的节点。
```json
"conditions": [
@ -135,8 +126,12 @@ The node condition is represented as a JSON object. For example, the following r
<!--
If the Status of the Ready condition remains `Unknown` or `False` for longer than the `pod-eviction-timeout`, an argument is passed to the [kube-controller-manager](/docs/admin/kube-controller-manager/) and all the Pods on the node are scheduled for deletion by the Node Controller. The default eviction timeout duration is **five minutes**. In some cases when the node is unreachable, the apiserver is unable to communicate with the kubelet on the node. The decision to delete the pods cannot be communicated to the kubelet until communication with the apiserver is re-established. In the meantime, the pods that are scheduled for deletion may continue to run on the partitioned node.
-->
如果 Ready 条件处于状态 `Unknown` 或者 `False` 的时间超过了 `pod-eviction-timeout`(一个传递给 [kube-controller-manager](/docs/admin/kube-controller-manager/) 的参数),节点上的所有 Pods 都会被节点控制器计划删除。默认的删除超时时长为**5 分钟**。某些情况下当节点不可访问时apiserver 不能和其上的 kubelet 通信。删除 pods 的决定不能传达给 kubelet直到它重新建立和 apiserver 的连接为止。与此同时,被计划删除的 pods 可能会继续在分区节点上运行。
如果 Ready 条件处于状态 `Unknown` 或者 `False` 的时间超过了 `pod-eviction-timeout`
(一个传递给 [kube-controller-manager](/docs/admin/kube-controller-manager/) 的参数),
节点上的所有 Pods 都会被节点控制器计划删除。默认的逐出超时时长为 **5 分钟**
某些情况下当节点不可访问时apiserver 不能和其上的 kubelet 通信。
删除 Pods 的决定不能传达给 kubelet直到它重新建立和 apiserver 的连接为止。
与此同时,被计划删除的 Pods 可能会继续在游离的节点上运行。
<!--
In versions of Kubernetes prior to 1.5, the node controller would [force delete](/docs/concepts/workloads/pods/pod/#force-deletion-of-pods)
@ -146,8 +141,12 @@ the `Terminating` or `Unknown` state. In cases where Kubernetes cannot deduce fr
permanently left a cluster, the cluster administrator may need to delete the node object by hand. Deleting the node object from
Kubernetes causes all the Pod objects running on the node to be deleted from the apiserver, and frees up their names.
-->
在 1.5 版本之前的 Kubernetes 里,节点控制器会将不能访问的 pods 从 apiserver 中[强制删除](/docs/concepts/workloads/pods/pod/#force-deletion-of-pods)。但在 1.5 或更高的版本里,在节点控制器确认这些 pods 已经在集群停止运行前不会强制删除它们。你可以看到这些处于 `Terminating` 或者 `Unknown` 状态的 pods 可能在无法访问的节点上运行。为了防止 kubernetes 不能从底层基础设施中推断出一个节点是否已经永久的离开了集群,集群管理员可能需要手动删除这个节点对象。从 Kubernetes 删除节点对象将导致 apiserver 删除节点上所有运行的 Pod 对象并释放它们的名字。
在 1.5 版本之前的 Kubernetes 上,节点控制器会将不能访问的 Pods 从 apiserver 中
[强制删除](/docs/concepts/workloads/pods/pod/#force-deletion-of-pods)。
但在 1.5 或更高的版本里,在节点控制器确认这些 Pods 在集群中已经停止运行前,不会强制删除它们。
你可以看到这些可能在无法访问的节点上运行的 Pods 处于 `Terminating` 或者 `Unknown` 状态。
如果 kubernetes 不能基于下层基础设施推断出某节点是否已经永久离开了集群,集群管理员可能需要手动删除该节点对象。
从 Kubernetes 删除节点对象将导致 apiserver 删除节点上所有运行的 Pod 对象并释放它们的名字。
<!--
The node lifecycle controller automatically creates
@ -156,18 +155,17 @@ When the scheduler is assigning a Pod to a Node, the scheduler takes the Node's
into account, except for any taints that the Pod tolerates.
-->
节点生命周期控制器会自动创建代表条件的[污点](/docs/concepts/configuration/taint-and-toleration/)。
当调度器将 Pod 分配给节点时,调度器会考虑节点上的污点,但是 Pod 可以容忍的污点除外。
当调度器将 Pod 指派给某节点时,调度器会考虑节点上的污点,但是 Pod 可以容忍的污点除外。
<!--
### Capacity and Allocatable {#capacity}
-->
### 容量与可分配 {#capacity}
<!--
Describes the resources available on the node: CPU, memory and the maximum
number of pods that can be scheduled onto the node.
-->
描述节点上的可用资源CPU、内存和可以调度到节点上的 pods 的最大数量。
### 容量与可分配 {#capacity}
描述节点上的可用资源CPU、内存和可以调度到节点上的 Pods 的个数上限。
<!--
The fields in the capacity block indicate the total amount of resources that a
@ -180,25 +178,24 @@ capacity 块中的字段指示节点拥有的资源总量。allocatable 块指
You may read more about capacity and allocatable resources while learning how
to [reserve compute resources](/docs/tasks/administer-cluster/reserve-compute-resources/#node-allocatable) on a Node.
-->
可以在学习如何在节点上[保留计算资源](/docs/tasks/administer-cluster/reserve-compute-resources/#node-allocatable)的同时阅读有关容量和可分配资源的更多信息。
可以在学习如何在节点上[保留计算资源](/docs/tasks/administer-cluster/reserve-compute-resources/#node-allocatable)
的同时阅读有关容量和可分配资源的更多信息。
<!--
### Info
-->
### 信息
<!--
Describes general information about the node, such as kernel version, Kubernetes version (kubelet and kube-proxy version), Docker version (if used), and OS name.
This information is gathered by Kubelet from the node.
-->
关于节点的通用信息例如内核版本、Kubernetes 版本kubelet 和 kube-proxy 版本、Docker 版本(如果使用了)和操作系统名称。这些信息由 kubelet 从节点上搜集而来。
### 信息 {#info}
关于节点的通用信息例如内核版本、Kubernetes 版本kubelet 和 kube-proxy 版本、Docker 版本
(如果使用了)和操作系统名称。这些信息由 kubelet 从节点上搜集而来。
<!--
## Management
-->
## 管理
<!--
Unlike [pods](/docs/concepts/workloads/pods/pod/) and [services](/docs/concepts/services-networking/service/),
a node is not inherently created by Kubernetes: it is created externally by cloud
providers like Google Compute Engine, or it exists in your pool of physical or virtual
@ -207,8 +204,13 @@ an object that represents the node. After creation, Kubernetes
checks whether the node is valid or not. For example, if you try to create
a node from the following content:
-->
与 [pods](/docs/concepts/workloads/pods/pod/) 和 [services](/docs/concepts/services-networking/service/) 不同,节点并不是在 Kubernetes 内部创建的:它是被外部的云服务商创建,例如 Google Compute Engine 或者你的集群中的物理或者虚拟机。这意味着当 Kubernetes 创建一个节点时它其实仅仅创建了一个对象来代表这个节点。创建以后Kubernetes 将检查这个节点是否可用。例如,如果你尝试使用如下内容创建一个节点:
## 管理
与 [Pods](/docs/concepts/workloads/pods/pod/) 和 [Services](/docs/concepts/services-networking/service/) 不同,
节点并不是在 Kubernetes 中从头创建的:它们由外部的云服务商(例如 Google Compute Engine创建或者是来自你的资源池
中的物理机或者虚拟机。
这意味着当 Kubernetes 创建一个节点时,它其实仅仅创建了一个对象来代表这个节点。
创建以后Kubernetes 将检查这个节点是否可用。例如,如果你尝试使用如下内容创建一个节点:
```json
{
@ -229,12 +231,19 @@ validates the node by health checking based on the `metadata.name` field. If the
services are running -- it is eligible to run a pod. Otherwise, it is
ignored for any cluster activity until it becomes valid.
-->
Kubernetes 会在内部创一个 Node 对象(用以表示节点),并基于 `metadata.name` 字段执行健康检查,对节点进行验证。如果节点可用,意即所有必要服务都已运行,它就符合了运行一个 pod 的条件;否则它将被所有的集群动作忽略直到变为可用。
Kubernetes 会在内部创一个 Node 对象(用以表示节点),并基于 `metadata.name` 字段执行健康检查,
如果节点合法,即所有必要服务都处于运行状态,它就有资格运行 Pod否则它将被所有的集群活动忽略直到其变为合法为止。
<!--
{{< note >}}
Kubernetes keeps the object for the invalid node and keeps checking to see whether it becomes valid.
You must explicitly delete the Node object to stop this process.
{{< /note >}}
-->
{{< note >}}
<!--
Kubernetes keeps the object for the invalid node and keeps checking to see whether it becomes valid.
You must explicitly delete the Node object to stop this process.--> Kubernetes 保留无效节点的对象,并继续检查它是否有效。必须显式删除 Node 对象以停止此过程。
Kubernetes 保留无效节点所对应的对象,并持续检查它是否合法。
若要停止这种检查,必须显式删除 Node 对象。
{{< /note >}}
<!--
@ -245,20 +254,18 @@ interface: node controller, kubelet, and kubectl.
<!--
### Node Controller
-->
### 节点控制器
<!--
The node controller is a Kubernetes master component which manages various
aspects of nodes.
-->
节点控制器是一个 Kubernetes master 组件,管理节点的方方面面。
<!--
The node controller has multiple roles in a node's life. The first is assigning a
CIDR block to the node when it is registered (if CIDR assignment is turned on).
-->
节点控制器在节点的生命周期中扮演了多个角色。第一个是当节点注册时为它分配一个 CIDR block如果打开了 CIDR 分配)。
### 节点控制器
节点控制器是一个 Kubernetes 控制面组件,管理节点的方方面面。
节点控制器在节点的生命周期中扮演多个角色。第一个是当节点注册时为它分配一个 CIDR 区间(如果启用了 CIDR 分配)。
<!--
The second is keeping the node controller's internal list of nodes up to date with
@ -267,7 +274,9 @@ environment, whenever a node is unhealthy, the node controller asks the cloud
provider if the VM for that node is still available. If not, the node
controller deletes the node from its list of nodes.
-->
第二个是使用云服务商提供了可用节点列表保持节点控制器内部的节点列表更新。如果在云环境下运行,任何时候当一个节点不健康时节点控制器将询问云服务节点的虚拟机是否可用。如果不可用,节点控制器会将这个节点从它的节点列表删除。
第二个保持节点控制器内部的节点列表与云服务商所提供的可用机器列表同步。
如果在云环境下运行,当某节点不健康时,节点控制器将询问云服务是否节点的虚拟机可用。
如果不可用,节点控制器会将该节点从它的节点列表删除。
<!--
The third is monitoring the nodes' health. The node controller is
@ -277,16 +286,18 @@ receiving heartbeats for some reason, e.g. due to the node being down), and then
all the pods from the node (using graceful termination) if the node continues
to be unreachable. (The default timeouts are 40s to start reporting
ConditionUnknown and 5m after that to start evicting pods.) The node controller
checks the state of each node every `--node-monitor-period` seconds.
checks the state of each node every `-node-monitor-period` seconds.
-->
第三个是监控节点的健康情况。节点控制器负责在节点不能访问时(也即是节点控制器因为某些原因没有收到心跳,例如节点宕机)将它的 NodeStatus 的 NodeReady 状态更新为 ConditionUnknown。后续如果节点持续不可访问节点控制器将删除节点上的所有 pods使用优雅终止默认情况下 40s 开始报告 ConditionUnknown在那之后 5m 开始删除 pods。节点控制器每隔 `--node-monitor-period` 秒检查每个节点的状态。
第三个是监控节点的健康情况。节点控制器负责在节点不可达
(即,节点控制器因为某些原因没有收到心跳,例如节点宕机)时,
将它的 NodeStatus 的 NodeReady 条件更新为 ConditionUnknown。
后续如果节点持续不可达,节点控制器将逐出节点上的所有 Pods使用体面终止
(默认情况下 40s 后开始报告 ConditionUnknown在那之后 5m 开始逐出 Pods。
节点控制器每隔 `--node-monitor-period` 秒检查每个节点的状态。
<!--
#### Heartbeats
-->
#### 心跳机制
<!--
Heartbeats, sent by Kubernetes nodes, help determine the availability of a node.
There are two forms of heartbeats: updates of `NodeStatus` and the
[Lease object](/docs/reference/generated/kubernetes-api/{{< latest-version >}}/#lease-v1-coordination-k8s-io).
@ -295,6 +306,8 @@ Each Node has an associated Lease object in the `kube-node-lease`
Lease is a lightweight resource, which improves the performance
of the node heartbeats as the cluster scales.
-->
#### 心跳机制
Kubernetes 节点发送的心跳有助于确定节点的可用性。
心跳有两种形式:`NodeStatus` 和 [`Lease` 对象](/docs/reference/generated/kubernetes-api/{{< latest-version >}}/#lease-v1-coordination-k8s-io)。
每个节点在 `kube-node-lease`{{< glossary_tooltip term_id="namespace" text="命名空间">}} 中都有一个关联的 `Lease` 对象。
@ -316,57 +329,69 @@ kubelet 负责创建和更新 `NodeStatus` 和 `Lease` 对象。
`NodeStatus` updates.
-->
- 当状态发生变化时或者在配置的时间间隔内没有更新时kubelet 会更新 `NodeStatus`
`NodeStatus` 更新的默认间隔为 5 分钟(比无法访问的节点的 40 秒默认超时时间长很多)。
`NodeStatus` 更新的默认间隔为 5 分钟(比不可达节点的 40 秒默认超时时间长很多)。
- kubelet 会每 10 秒(默认更新间隔时间)创建并更新其 `Lease` 对象。`Lease` 更新独立于 `NodeStatus` 更新而发生。
<!--
#### Reliability
-->
#### 可靠性
<!--
In Kubernetes 1.4, we updated the logic of the node controller to better handle
cases when a large number of nodes have problems with reaching the master
(e.g. because the master has networking problem). Starting with 1.4, the node
controller looks at the state of all nodes in the cluster when making a
decision about pod eviction.
-->
在 Kubernetes 1.4 中我们更新了节点控制器逻辑以更好地处理大批量节点访问 master 出问题的情况(例如 master 的网络出了问题)。从 1.4 开始,节点控制器在决定删除 pod 之前会检查集群中所有节点的状态。
#### 可靠性
在 Kubernetes 1.4 中我们更新了节点控制器逻辑以更好地处理大批量节点访问控制面而出问题的情况
(例如,控制面节点的网络出了问题)。从 1.4 开始,节点控制器在决定逐出 Pod 之前
会检查集群中所有节点的状态。
<!--
In most cases, node controller limits the eviction rate to
`--node-eviction-rate` (default 0.1) per second, meaning it won't evict pods
`-node-eviction-rate` (default 0.1) per second, meaning it won't evict pods
from more than 1 node per 10 seconds.
-->
大部分情况下,节点控制器把驱逐频率限制在每秒 `--node-eviction-rate` 个(默认为 0.1)。这表示它每 10 秒钟内至多从一个节点驱逐 Pods。
大部分情况下,节点控制器把驱逐速率限制在每秒 `--node-eviction-rate` 个(默认为 0.1)。
这表示它每 10 秒钟内至多从一个节点驱逐 Pods。
<!--
The node eviction behavior changes when a node in a given availability zone
becomes unhealthy. The node controller checks what percentage of nodes in the zone
are unhealthy (NodeReady condition is ConditionUnknown or ConditionFalse) at
the same time. If the fraction of unhealthy nodes is at least
`--unhealthy-zone-threshold` (default 0.55) then the eviction rate is reduced:
`-unhealthy-zone-threshold` (default 0.55) then the eviction rate is reduced:
if the cluster is small (i.e. has less than or equal to
`--large-cluster-size-threshold` nodes - default 50) then evictions are
`-large-cluster-size-threshold` nodes - default 50) then evictions are
stopped, otherwise the eviction rate is reduced to
`--secondary-node-eviction-rate` (default 0.01) per second. The reason these
`-secondary-node-eviction-rate` (default 0.01) per second. The reason these
policies are implemented per availability zone is because one availability zone
might become partitioned from the master while the others remain connected. If
your cluster does not span multiple cloud provider availability zones, then
there is only one availability zone (the whole cluster).
-->
当一个可用区域中的节点变为不健康时它的驱逐行为将发生改变。节点控制器会同时检查可用区域中不健康NodeReady 状态为 ConditionUnknown 或 ConditionFalse的节点的百分比。如果不健康节点的部分超过 `--unhealthy-zone-threshold` (默认为 0.55),驱逐速率将会减小:如果集群较小(意即小于等于 `--large-cluster-size-threshold` 个 节点 - 默认为 50驱逐操作将会停止否则驱逐速率将降为每秒 `--secondary-node-eviction-rate` 个(默认为 0.01)。在单个可用区域实施这些策略的原因是当一个可用区域可能从 master 分区时其它的仍然保持连接。如果你的集群没有跨越云服务商的多个可用区域,那就只有一个可用区域整个集群)。
当一个可用区域Availability Zone中的节点变为不健康时节点的驱逐行为将发生改变。
节点控制器会同时检查可用区域中不健康NodeReady 状态为 ConditionUnknown 或 ConditionFalse
的节点的百分比。如果不健康节点的比例超过 `--unhealthy-zone-threshold` (默认为 0.55
驱逐速率将会降低:如果集群较小(意即小于等于 `--large-cluster-size-threshold` 个节点 - 默认为 50
驱逐操作将会停止,否则驱逐速率将降为每秒 `--secondary-node-eviction-rate` 个(默认为 0.01)。
在单个可用区域实施这些策略的原因是当一个可用区域可能从控制面脱离时其它可用区域可能仍然保持连接。
如果你的集群没有跨越云服务商的多个可用区域,那(整个集群)就只有一个可用区域。
<!--
A key reason for spreading your nodes across availability zones is so that the
workload can be shifted to healthy zones when one entire zone goes down.
Therefore, if all nodes in a zone are unhealthy then node controller evicts at
the normal rate `--node-eviction-rate`. The corner case is when all zones are
the normal rate `-node-eviction-rate`. The corner case is when all zones are
completely unhealthy (i.e. there are no healthy nodes in the cluster). In such
case, the node controller assumes that there's some problem with master
connectivity and stops all evictions until some connectivity is restored.
-->
在多个可用区域分布你的节点的一个关键原因是当整个可用区域故障时,工作负载可以转移到健康的可用区域。因此,如果一个可用区域中的所有节点都不健康时,节点控制器会以正常的速率 `--node-eviction-rate` 进行驱逐操作。在所有的可用区域都不健康(也即集群中没有健康节点)的极端情况下,节点控制器将假设 master 的连接出了某些问题,它将停止所有驱逐动作直到一些连接恢复。
跨多个可用区域部署你的节点的一个关键原因是当某个可用区域整体出现故障时,工作负载可以转移到健康的可用区域。
因此,如果一个可用区域中的所有节点都不健康时,节点控制器会以正常的速率 `--node-eviction-rate` 进行驱逐操作。
在所有的可用区域都不健康(也即集群中没有健康节点)的极端情况下,节点控制器将假设控制面节点的连接出了某些问题,
它将停止所有驱逐动作直到一些连接恢复。
<!--
Starting in Kubernetes 1.6, the NodeController is also responsible for evicting
@ -376,8 +401,10 @@ NodeController is responsible for adding taints corresponding to node problems l
node unreachable or not ready. See [this documentation](/docs/concepts/configuration/taint-and-toleration/)
for details about `NoExecute` taints and the alpha feature.
-->
从 Kubernetes 1.6 开始NodeController 还负责驱逐运行在拥有 `NoExecute` 污点的节点上的 pods如果这些 pods 没有容忍这些污点。此外,作为一个默认禁用的 alpha 特性NodeController 还负责根据节点故障(例如节点不可访问或没有 ready添加污点。请查看[这个文档](/docs/concepts/configuration/assign-pod-node/#taints-and-tolerations-beta-feature)了解关于 `NoExecute` 污点和这个 alpha 特性。
从 Kubernetes 1.6 开始NodeController 还负责驱逐运行在拥有 `NoExecute` 污点的节点上的 Pods如果这些 Pods 没有容忍这些污点。
此外,作为一个默认禁用的 alpha 特性NodeController 还负责根据节点故障(例如节点不可访问或没有就绪)为其添加污点。
请查看[这个文档](/docs/concepts/configuration/assign-pod-node/#taints-and-tolerations-beta-feature)了解 `NoExecute` 污点
和这个 alpha 特性。
<!--
Starting in version 1.8, the node controller can be made responsible for creating taints that represent
@ -387,71 +414,72 @@ Node conditions. This is an alpha feature of version 1.8.
<!--
### Self-Registration of Nodes
When the kubelet flag `-register-node` is true (the default), the kubelet will attempt to
register itself with the API server. This is the preferred pattern, used by most distros.
-->
### 节点自注册
<!--
When the kubelet flag `--register-node` is true (the default), the kubelet will attempt to
register itself with the API server. This is the preferred pattern, used by most distros.
-->
当 kubelet 标志 `--register-node` 为 true (默认)时,它会尝试向 API 服务注册自己。这是首选模式,被绝大多数发行版选用。
当 kubelet 标志 `--register-node` 为 true (默认)时,它会尝试向 API 服务注册自己。
这是首选模式,被绝大多数发行版选用。
<!--
For self-registration, the kubelet is started with the following options:
-->
对于自注册模式kubelet 使用下列参数启动:
对于自注册模式kubelet 使用下列参数启动:
<!--
- `--kubeconfig` - Path to credentials to authenticate itself to the apiserver.
- `--cloud-provider` - How to talk to a cloud provider to read metadata about itself.
- `--register-node` - Automatically register with the API server.
- `--register-with-taints` - Register the node with the given list of taints (comma separated `<key>=<value>:<effect>`). No-op if `register-node` is false.
- `--node-ip` - IP address of the node.
- `--node-labels` - Labels to add when registering the node in the cluster (see label restrictions enforced by the [NodeRestriction admission plugin](/docs/reference/access-authn-authz/admission-controllers/#noderestriction) in 1.13+).
- `--node-status-update-frequency` - Specifies how often kubelet posts node status to master.
- `-kubeconfig` - Path to credentials to authenticate itself to the apiserver.
- `-cloud-provider` - How to talk to a cloud provider to read metadata about itself.
- `-register-node` - Automatically register with the API server.
- `-register-with-taints` - Register the node with the given list of taints (comma separated `<key>=<value>:<effect>`). No-op if `register-node` is false.
- `-node-ip` - IP address of the node.
- `-node-labels` - Labels to add when registering the node in the cluster (see label restrictions enforced by the [NodeRestriction admission plugin](/docs/reference/access-authn-authz/admission-controllers/#noderestriction) in 1.13+).
- `-node-status-update-frequency` - Specifies how often kubelet posts node status to master.
-->
- `--kubeconfig` - 用于向 apiserver 验证自己的凭据路径。
- `--kubeconfig` - 用于向 apiserver 表明身份的凭据路径。
- `--cloud-provider` - 如何从云服务商读取关于自己的元数据。
- `--register-node` - 自动向 API 服务注册。
- `--register-with-taints` - 使用 taints 列表(逗号分隔的 `<key>=<value>:<effect>`)注册节点。当 `register-node` 为 false 时无效。
- `--register-with-taints` - 使用污点列表(逗号分隔的 `<key>=<value>:<effect>`)注册节点。当 `register-node` 为 false 时无效。
- `--node-ip` - 节点 IP 地址。
- `--node-labels` - 在集群中注册节点时要添加的标签(请参阅 [NodeRestriction 准入插件](/docs/reference/access-authn-authz/admission-controllers/#noderestriction) 在 1.13+ 中实施的标签限制)。
- `--node-status-update-frequency` - 指定 kubelet 向 master 发送状态的频率。
- `--node-labels` - 在集群中注册节点时要添加的标签(请参阅
[NodeRestriction 准入插件](/docs/reference/access-authn-authz/admission-controllers/#noderestriction) 在 1.13+ 中实施的标签限制)。
- `--node-status-update-frequency` - 指定 kubelet 向控制面组件发送状态的频率。
<!--
When the [Node authorization mode](/docs/reference/access-authn-authz/node/) and
[NodeRestriction admission plugin](/docs/reference/access-authn-authz/admission-controllers/#noderestriction) are enabled,
kubelets are only authorized to create/modify their own Node resource.
-->
启用[节点授权模式](/docs/reference/access-authn-authz/node/) 和 [NodeRestriction 准入插件](/docs/reference/access-authn-authz/admission-controllers/#noderestriction)时,仅授权小组件创建或修改其自己的节点资源。
启用[节点授权模式](/docs/reference/access-authn-authz/node/) 和
[NodeRestriction 准入插件](/docs/reference/access-authn-authz/admission-controllers/#noderestriction)时,
仅授权 kubelet 创建或修改其自己的节点资源。
<!--
#### Manual Node Administration
A cluster administrator can create and modify node objects.
-->
#### 手动节点管理
<!--
A cluster administrator can create and modify node objects.
-->
集群管理员可以创建及修改节点对象。
<!--
If the administrator wishes to create node objects manually, set the kubelet flag
`--register-node=false`.
If the administrator wishes to create node objects manually, set the kubelet flag `-register-node=false`.
-->
如果管理员希望手动创建节点对象,请设置 kubelet 标 `--register-node=false`
如果管理员希望手动创建节点对象,请设置 kubelet 标 `--register-node=false`
<!--
The administrator can modify node resources (regardless of the setting of `--register-node`).
The administrator can modify node resources (regardless of the setting of `-register-node`).
Modifications include setting labels on the node and marking it unschedulable.
-->
管理员可以修改节点资源(忽略 `--register-node` 设置)。修改包括在节点上设置 labels 及标记它为不可调度。
管理员可以修改节点资源(忽略 `--register-node` 设置)。修改包括在节点上设置标签及
标记它为不可调度。
<!--
Labels on nodes can be used in conjunction with node selectors on pods to control scheduling,
e.g. to constrain a pod to only be eligible to run on a subset of the nodes.
-->
节点上的 labels 可以和 pods 的节点 selectors 一起使用来控制调度,例如限制一个 pod 只能在一个符合要求的节点子集上运行。
节点上的标签可以和 Pods 的节点选择算符一起使用来控制调度,例如限制某 pod 只能在符合要求的节点子集上运行。
<!--
Marking a node as unschedulable prevents new pods from being scheduled to that
@ -459,47 +487,55 @@ node, but does not affect any existing pods on the node. This is useful as a
preparatory step before a node reboot, etc. For example, to mark a node
unschedulable, run this command:
-->
标记一个节点为不可调度的将防止新建 pods 调度到那个节点之上,但不会影响任何已经在它之上的 pods。这是重启节点等操作之前的一个有用的准备步骤。例如标记一个节点为不可调度的执行以下命令
如果标记节点为不可调度的unschedulable将阻止新 Pods 调度到该节点之上,但不会影响任何已经在其上的 Pods。
这是重启节点等操作之前的一个有用的准备步骤。例如,要标记一个节点为不可调度的,执行以下命令:
```shell
kubectl cordon $NODENAME
```
{{< note >}}
<!--
{{< note >}}
Pods created by a DaemonSet controller bypass the Kubernetes scheduler
and do not respect the unschedulable attribute on a node. This assumes that daemons belong on
the machine even if it is being drained of applications while it prepares for a reboot
{{< /note >}}
-->
请注意,被 daemonSet 控制器创建的 pods 将忽略 Kubernetes 调度器,且不会遵照节点上不可调度的属性。这个假设基于守护程序属于节点机器,即使在准备重启而隔离应用的时候。
{{< note >}}
请注意,被 DaemonSet 控制器创建的 Pods 将忽略 Kubernetes 调度器,且不会遵照节点上不可调度的属性。
这个假设基于守护程序属于节点机器,即使在准备重启而隔离应用的时候。
{{< /note >}}
<!--
### Node capacity
-->
### 节点容量
<!--
The capacity of the node (number of cpus and amount of memory) is part of the node object.
Normally, nodes register themselves and report their capacity when creating the node object. If
you are doing [manual node administration](#manual-node-administration), then you need to set node
capacity when adding a node.
-->
节点的容量cpu 数量和内存容量)是节点对象的一部分。通常情况下,在创建节点对象时,它们会注册自己并报告自己的容量。如果你正在执行[手动节点管理](#manual-node-administration),那么你需要在添加节点时手动设置节点容量。
### 节点容量
节点的容量cpu 数量和内存容量)是节点对象的一部分。
通常情况下,在创建节点对象时,它们会注册自己并报告自己的容量。
如果你正在执行[手动节点管理](#manual-node-administration),那么你需要在添加节点时手动设置节点容量。
<!--
The Kubernetes scheduler ensures that there are enough resources for all the pods on a node. It
checks that the sum of the requests of containers on the node is no greater than the node capacity. It
includes all containers started by the kubelet, but not containers started directly by the [container runtime](/docs/concepts/overview/components/#node-components) nor any process running outside of the containers.
-->
Kubernetes 调度器保证一个节点上有足够的资源供其上的所有 pods 使用。它会检查节点上所有容器要求的总和不会超过节点的容量。这包括由 kubelet 启动的所有容器,但不包括由 [container runtime](/docs/concepts/overview/components/#node-components) 直接启动的容器,也不包括在容器外部运行的任何进程。
Kubernetes 调度器保证一个节点上有足够的资源供其上的所有 Pods 使用。
它会检查节点上所有容器的请求的总和不会超过节点的容量。
这包括由 kubelet 启动的所有容器,但不包括由[容器运行时](/docs/concepts/overview/components/#node-components)
直接启动的容器,也不包括在容器外部运行的任何进程。
<!--
If you want to explicitly reserve resources for non-Pod processes, follow this tutorial to
[reserve resources for system daemons](/docs/tasks/administer-cluster/reserve-compute-resources/#system-reserved).
-->
如果要为非 Pod 进程显式保留资源。请按照本教程[为系统守护程序保留资源](/docs/tasks/administer-cluster/reserve-compute-resources/#system-reserved)。
如果要为非 Pod 进程显式保留资源。请参考[为系统守护程序保留资源](/docs/tasks/administer-cluster/reserve-compute-resources/#system-reserved)教程
<!--
## Node topology
@ -513,20 +549,20 @@ If you have enabled the `TopologyManager`
[feature gate](/docs/reference/command-line-tools-reference/feature-gates/), then
the kubelet can use topology hints when making resource assignment decisions.
-->
如果启用了 `TopologyManager` [功能开关](/docs/reference/command-line-tools-reference/feature-gates/),则 kubelet 可以在做出资源分配决策时使用拓扑提示。
如果启用了 `TopologyManager` [特性门控](/docs/reference/command-line-tools-reference/feature-gates/)
则 kubelet 可以在做出资源分配决策时使用拓扑提示。
<!--
## API Object
-->
## API 对象
<!--
Node is a top-level resource in the Kubernetes REST API. More details about the
API object can be found at:
[Node API object](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#node-v1-core).
-->
节点是 Kubernetes REST API 的顶级资源。更多关于 API 对象的细节可以在这里找到:[节点 API 对象](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#node-v1-core)。
## API 对象
节点是 Kubernetes REST API 的顶级资源。
更多关于 API 对象的细节可以在这里找到:[节点 API 对象](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#node-v1-core)。
## {{% heading "whatsnext" %}}
@ -534,6 +570,6 @@ API object can be found at:
* Read about [node components](https://kubernetes.io/docs/concepts/overview/components/#node-components)
* Read about node-level topology: [Control Topology Management Policies on a node](/docs/tasks/administer-cluster/topology-manager/)
-->
* 了解有关[节点组件](https://kubernetes.io/docs/concepts/overview/components/#node-components)的信息。
* 了解有关[节点组件](/docs/concepts/overview/components/#node-components)的信息。
* 阅读有关节点级拓扑的信息:[控制节点上的拓扑管理策略](/docs/tasks/administer-cluster/topology-manager/)。