From 34563abc4fd47ada0838d8486596331009f6c3db Mon Sep 17 00:00:00 2001 From: Sean Wei <me@sean.taipei> Date: Fri, 24 Jun 2022 20:42:43 +0800 Subject: [PATCH] [zh] Fix some 404 links --- .../2020-09-30-writing-crl-scheduler/index.md | 8 ++--- ...kubernetes-is-moving-on-from-dockershim.md | 2 +- .../command-line-tools-reference/kubelet.md | 2 +- .../config-api/kubelet-config.v1beta1.md | 10 +++--- .../zh-cn/docs/reference/kubectl/kubectl.md | 6 ++-- .../config-and-storage-resources/volume.md | 3 +- .../labels-annotations-taints/_index.md | 32 +++++++++---------- .../zh-cn/docs/reference/scheduling/config.md | 8 ++--- .../setup/production-environment/_index.md | 9 +++--- .../tools/kubeadm/create-cluster-kubeadm.md | 10 +++--- .../tools/kubeadm/install-kubeadm.md | 4 +-- .../tools/kubeadm/kubelet-integration.md | 2 +- .../basic-stateful-set.md | 2 +- 13 files changed, 49 insertions(+), 49 deletions(-) diff --git a/content/zh-cn/blog/_posts/2020-09-30-writing-crl-scheduler/index.md b/content/zh-cn/blog/_posts/2020-09-30-writing-crl-scheduler/index.md index 7c052eb3d7..d2f1fa1e40 100644 --- a/content/zh-cn/blog/_posts/2020-09-30-writing-crl-scheduler/index.md +++ b/content/zh-cn/blog/_posts/2020-09-30-writing-crl-scheduler/index.md @@ -45,9 +45,9 @@ Most stateless systems, web servers for example, are created without the need to One of Kubernetes' responsibilities is to place "resources" (e.g, a disk or container) into the cluster and satisfy the constraints they request. For example: "I must be in availability zone _A_" (see [Running in multiple zones](/docs/setup/best-practices/multiple-zones/#nodes-are-labeled)), or "I can't be placed onto the same node as this other Pod" (see [Affinity and anti-affinity](/docs/concepts/scheduling-eviction/assign-pod-node/#affinity-and-anti-affinity)). --> Kubernetes 的职责之一是将 "资源"(如磁盘或容器)放入集群中,并满足其请求的约束。 -例如。"我必须在可用性区域 _A_"(见[在多个区域运行](/zh-cn/docs/setup/best-practices/multiple-zone/#nodes-are-labeled)), +例如。"我必须在可用性区域 _A_"(见[在多个区域运行](/zh-cn/docs/setup/best-practices/multiple-zones/#nodes-are-labeled)), 或者 "我不能被放置到与某个 Pod 相同的节点上" -(见[亲和与反亲和](/zh-cn/docs/setup/best-practices/multiple-zone/#nodes-are-labeled))。 +(见[亲和与反亲和](/zh-cn/docs/setup/best-practices/multiple-zones/#nodes-are-labeled))。 <!-- As an addition to those constraints, Kubernetes offers [Statefulsets](/docs/concepts/workloads/controllers/statefulset/) that provide identity to Pods as well as persistent storage that "follows" these identified pods. Identity in a StatefulSet is handled by an increasing integer at the end of a pod's name. It's important to note that this integer must always be contiguous: in a StatefulSet, if pods 1 and 3 exist then pod 2 must also exist. @@ -91,7 +91,7 @@ When adding additional resources to the cluster we also distribute them across z Note that anti-affinities are satisfied no matter the order in which pods are assigned to Kubernetes nodes. In the example, pods 0, 1 and 2 were assigned to zones A, B, and C respectively, but pods 3 and 4 were assigned in a different order, to zones B and A respectively. The anti-affinity is still satisfied because the pods are still placed in different zones. --> 请注意,无论 Pod 被分配到 Kubernetes 节点的顺序如何,都会满足反亲和性。 -在这个例子中,Pod 0、1 、2 分别被分配到 A、B 、C 区,但 Pod 3 和 4 以不同的顺序被分配到 B 和 A 区。 +在这个例子中,Pod 0、1、2 分别被分配到 A、B、C 区,但 Pod 3 和 4 以不同的顺序被分配到 B 和 A 区。 反亲和性仍然得到满足,因为 Pod 仍然被放置在不同的区域。 <!-- @@ -144,7 +144,7 @@ Our combined knowledge of the following is what lead to this misconception. * The behavior that a StatefulSet with _n_ replicas, when Pods are being deployed, they are created sequentially, in order from `{0..n-1}`. See [StatefulSet](https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/#deployment-and-scaling-guarantees) for more details. --> 我们对以下内容的综合认识是导致这种误解的原因。 -* Kubernetes [自动跨区分配 Pod](/zh-cn/docs/setup/best-practices/multiple-zone/#pods-are-spread-across-zone) 的能力 +* Kubernetes [自动跨区分配 Pod](/zh-cn/docs/setup/best-practices/multiple-zones/#pods-are-spread-across-zones) 的能力 * 一个有 _n_ 个副本的 StatefulSet,当 Pod 被部署时,它们会按照 `{0...n-1}` 的顺序依次创建。 更多细节见 [StatefulSet](/zh-cn/docs/concepts/workloads/controllers/statefulset/#deployment-and-scaling-guarantees)。 diff --git a/content/zh-cn/blog/_posts/2022-01-07-kubernetes-is-moving-on-from-dockershim.md b/content/zh-cn/blog/_posts/2022-01-07-kubernetes-is-moving-on-from-dockershim.md index 37e4c7dbc6..8d6a62c89c 100644 --- a/content/zh-cn/blog/_posts/2022-01-07-kubernetes-is-moving-on-from-dockershim.md +++ b/content/zh-cn/blog/_posts/2022-01-07-kubernetes-is-moving-on-from-dockershim.md @@ -194,6 +194,6 @@ dockershim removal makes up for the migration effort you'll have. Start planning now to avoid surprises. We'll have more updates and guides before Kubernetes 1.24 is released. --> -在这一点上,我们相信你(和 Kubernetes)从移除 dockershim 中获得的价值可以弥补你将要进行的迁移工作。 +在这一点上,我们相信你(和 Kubernetes)从移除 dockershim 中获得的价值可以弥补你将要进行的迁移工作。 现在就开始计划以避免出现意外。在 Kubernetes 1.24 发布之前,我们将提供更多更新信息和指南。 diff --git a/content/zh-cn/docs/reference/command-line-tools-reference/kubelet.md b/content/zh-cn/docs/reference/command-line-tools-reference/kubelet.md index a82f0e1f53..fc7f1f31ef 100644 --- a/content/zh-cn/docs/reference/command-line-tools-reference/kubelet.md +++ b/content/zh-cn/docs/reference/command-line-tools-reference/kubelet.md @@ -1351,7 +1351,7 @@ A set of <code><resource name>=<resource quantity></code> (e.g. <cod kubernetes 系统预留的资源配置,以一组 <code><资源名称>=<资源数量></code> 格式表示。 (例如:<code>cpu=200m,memory=500Mi,ephemeral-storage=1Gi,pid='100'</code>)。 当前支持 <code>cpu</code>、<code>memory</code> 和用于根文件系统的 <code>ephemeral-storage</code>。 -请参阅<a href="http://kubernetes.io/zh-cn/docs/user-guide/compute-resources">这里</a>获取更多信息。 +请参阅<a href="https://kubernetes.io/zh-cn/docs/concepts/configuration/manage-resources-containers/">这里</a>获取更多信息。 (已弃用:应在 <code>--config</code> 所给的配置文件中进行设置。 请参阅 <a href="https://kubernetes.io/zh-cn/docs/tasks/administer-cluster/kubelet-config-file/">kubelet-config-file</a> 了解更多信息。) </td> diff --git a/content/zh-cn/docs/reference/config-api/kubelet-config.v1beta1.md b/content/zh-cn/docs/reference/config-api/kubelet-config.v1beta1.md index 9650311462..15864fe93d 100644 --- a/content/zh-cn/docs/reference/config-api/kubelet-config.v1beta1.md +++ b/content/zh-cn/docs/reference/config-api/kubelet-config.v1beta1.md @@ -2,7 +2,6 @@ title: Kubelet 配置 (v1beta1) content_type: tool-reference package: kubelet.config.k8s.io/v1beta1 -auto_generated: true --- <!-- @@ -683,7 +682,7 @@ The cgroupRoot must be specified if this field is not empty. Default: "&qout; --> <p><code>systemCgroups</code>是用来放置那些未被容器化的、非内核的进程的控制组 -(CGroup)的绝对名称。设置为空字符串表示没有这类容器。回滚此字段设置需要重启节点。 +(CGroup)的绝对名称。设置为空字符串表示没有这类容器。回滚此字段设置需要重启节点。 当此字段非空时,必须设置<code>cgroupRoot</code>字段。</p> <p>默认值:""</p> </td> @@ -696,7 +695,7 @@ Default: "&qout; <!--cgroupRoot is the root cgroup to use for pods. This is handled by the container runtime on a best effort basis. --> - <p><code>cgroupRoot</code>是用来运行 Pod 的控制组 (CGroup)。 + <p><code>cgroupRoot</code>是用来运行 Pod 的控制组(CGroup)。 容器运行时会尽可能处理此字段的设置值。</p> </td> </tr> @@ -725,7 +724,7 @@ Default: true or systemd). Default: "cgroupfs" --> - <p><code>cgroupDriver</code>是 kubelet 用来操控宿主系统上控制组 (CGroup) + <p><code>cgroupDriver</code>是 kubelet 用来操控宿主系统上控制组(CGroup) 的驱动程序(cgroupfs 或 systemd)。</p> <p>默认值:"cgroupfs"</p> </td> @@ -1399,7 +1398,8 @@ Default: nil --> <p><code>systemReserved</code>是一组<code>资源名称=资源数量</code>对, 用来描述为非 Kubernetes 组件预留的资源(例如:'cpu=200m,memory=150G')。</p> - <p>目前仅支持 CPU 和内存。更多细节可参见 http://kubernetes.io/zh/docs/user-guide/compute-resources。</p> + <p>目前仅支持 CPU 和内存。更多细节可参见 + https://kubernetes.io/zh-cn/docs/concepts/configuration/manage-resources-containers/ 。</p> <p>默认值:Nil</p> </td> </tr> diff --git a/content/zh-cn/docs/reference/kubectl/kubectl.md b/content/zh-cn/docs/reference/kubectl/kubectl.md index 3991a69266..9b591b654c 100644 --- a/content/zh-cn/docs/reference/kubectl/kubectl.md +++ b/content/zh-cn/docs/reference/kubectl/kubectl.md @@ -22,9 +22,9 @@ kubectl 管理控制 Kubernetes 集群。 <!-- -Find more information at: https://kubernetes.io/docs/reference/kubectl/overview/ +Find more information at: https://kubernetes.io/docs/reference/kubectl/ --> -获取更多信息,请访问 [kubectl 概述](/zh-cn/docs/reference/kubectl/overview/)。 +获取更多信息,请访问 [kubectl 概述](/zh-cn/docs/reference/kubectl/)。 ``` kubectl [flags] @@ -625,4 +625,4 @@ When set to false, turns off extra HTTP headers detailing invoked kubectl comman * [kubectl top](/docs/reference/generated/kubectl/kubectl-commands#top) - 显示资源(CPU /内存/存储)使用率 * [kubectl uncordon](/docs/reference/generated/kubectl/kubectl-commands#uncordon) - 标记节点为可调度的 * [kubectl version](/docs/reference/generated/kubectl/kubectl-commands#version) - 打印客户端和服务器的版本信息 -* [kubectl wait](/docs/reference/generated/kubectl/kubectl-commands#wait) - 实验性:等待一个或多个资源达到某种状态 +* [kubectl wait](/docs/reference/generated/kubectl/kubectl-commands#wait) - 实验性:等待一个或多个资源达到某种状态 \ No newline at end of file diff --git a/content/zh-cn/docs/reference/kubernetes-api/config-and-storage-resources/volume.md b/content/zh-cn/docs/reference/kubernetes-api/config-and-storage-resources/volume.md index 828209a5b9..5b5f3eb352 100755 --- a/content/zh-cn/docs/reference/kubernetes-api/config-and-storage-resources/volume.md +++ b/content/zh-cn/docs/reference/kubernetes-api/config-and-storage-resources/volume.md @@ -17,6 +17,7 @@ content_type: "api_reference" description: "Volume represents a named volume in a pod that may be accessed by any container in the pod." title: "Volume" weight: 3 +auto_generated: true --> `import "k8s.io/api/core/v1"` @@ -444,7 +445,7 @@ Volume 表示 Pod 中一个有名字的卷,可以由 Pod 中的任意容器进 sizeLimit 是这个 EmptyDir 卷所需的本地存储总量。这个大小限制也适用于内存介质。 EmptyDir 的内存介质最大使用量将是此处指定的 sizeLimit 与 Pod 中所有容器内存限制总和这两个值之间的最小值。 默认为 nil,这意味着限制未被定义。更多信息: - http://kubernetes.io/zh-cn/docs/user-guide/volumes#emptydir + https://kubernetes.io/zh-cn/docs/concepts/storage/volumes/#emptydir <!-- - **hostPath** (HostPathVolumeSource) diff --git a/content/zh-cn/docs/reference/labels-annotations-taints/_index.md b/content/zh-cn/docs/reference/labels-annotations-taints/_index.md index 5bb97f3d46..984a12ccf2 100644 --- a/content/zh-cn/docs/reference/labels-annotations-taints/_index.md +++ b/content/zh-cn/docs/reference/labels-annotations-taints/_index.md @@ -178,7 +178,7 @@ The Kubelet populates this with `runtime.GOARCH` as defined by Go. This can be h 用于:Node -Kubelet 使用 Go 定义的 `runtime.GOARCH` 填充它。 如果你混合使用 ARM 和 X86 节点,这会很方便。 +Kubelet 使用 Go 定义的 `runtime.GOARCH` 填充它。如果你混合使用 ARM 和 X86 节点,这会很方便。 <!-- ### kubernetes.io/os @@ -230,11 +230,11 @@ This label has been deprecated. Please use `kubernetes.io/os` instead. --> ### beta.kubernetes.io/arch (已弃用) {#beta-kubernetes-io-arch} -此标签已被弃用。请改用`kubernetes.io/arch`。 +此标签已被弃用。请改用 `kubernetes.io/arch`。 ### beta.kubernetes.io/os (已弃用) {#beta-kubernetes-io-os} -此标签已被弃用。请改用`kubernetes.io/os`。 +此标签已被弃用。请改用 `kubernetes.io/os`。 <!-- ### kubernetes.io/hostname {#kubernetesiohostname} @@ -255,7 +255,7 @@ This label is also used as part of the topology hierarchy. See [topology.kubern Kubelet 使用主机名填充此标签。请注意,可以通过将 `--hostname-override` 标志传递给 `kubelet` 来替代“实际”主机名。 -此标签也用作拓扑层次结构的一部分。 有关详细信息,请参阅 [topology.kubernetes.io/zone](#topologykubernetesiozone)。 +此标签也用作拓扑层次结构的一部分。有关详细信息,请参阅 [topology.kubernetes.io/zone](#topologykubernetesiozone)。 <!-- ### kubernetes.io/change-cause {#change-cause} @@ -328,7 +328,7 @@ which allows users to influence ReplicaSet downscaling order. The annotation par 用于:Pod -该注解用于设置 [Pod 删除成本](/docs/concepts/workloads/controllers/replicaset/#pod-deletion-cost)允许用户影响 ReplicaSet 缩减顺序。注解解析为 `int32` 类型。 +该注解用于设置 [Pod 删除成本](/zh-cn/docs/concepts/workloads/controllers/replicaset/#pod-deletion-cost)允许用户影响 ReplicaSet 缩减顺序。注解解析为 `int32` 类型。 <!-- ### kubernetes.io/ingress-bandwidth @@ -353,7 +353,7 @@ For example, `10M` means 10 megabits per second. {{< note >}} 入站流量控制注解是一项实验性功能。 -如果要启用流量控制支持,必须将`bandwidth`插件添加到 CNI 配置文件(默认为`/etc/cni/net.d`) +如果要启用流量控制支持,必须将 `bandwidth` 插件添加到 CNI 配置文件(默认为`/etc/cni/net.d`) 并确保二进制文件包含在你的 CNI bin 目录中(默认为`/opt/cni/bin`)。 {{< /note >}} @@ -364,9 +364,9 @@ For example, `10M` means 10 megabits per second. 你可以对 Pod 应用服务质量流量控制并有效限制其可用带宽。 入站流量(到 Pod)通过控制排队的数据包来处理,以有效地处理数据。 要限制 Pod 的带宽,请编写对象定义 JSON 文件并使用 `kubernetes.io/ingress-bandwidth` -注解指定数据流量速度。 用于指定入站的速率单位是每秒, +注解指定数据流量速度。用于指定入站的速率单位是每秒, 作为[量纲(Quantity)](/zh-cn/docs/reference/kubernetes-api/common-definitions/quantity/)。 -例如,`10M`表示每秒 10 兆比特。 +例如,`10M` 表示每秒 10 兆比特。 <!-- ### kubernetes.io/egress-bandwidth @@ -391,7 +391,7 @@ For example, `10M` means 10 megabits per second. {{< note >}} 出站流量控制注解是一项实验性功能。 -如果要启用流量控制支持,必须将`bandwidth`插件添加到 CNI 配置文件(默认为`/etc/cni/net.d`) +如果要启用流量控制支持,必须将 `bandwidth` 插件添加到 CNI 配置文件(默认为`/etc/cni/net.d`) 并确保二进制文件包含在你的 CNI bin 目录中(默认为`/opt/cni/bin`)。 {{< /note >}} @@ -483,7 +483,7 @@ StatefulSet topic for more details. 当 StatefulSet 控制器为 StatefulSet 创建 Pod 时,控制平面会在该 Pod 上设置此标签。标签的值是正在创建的 Pod 的名称。 -有关详细信息,请参阅 StatefulSet 主题中的 [Pod 名称标签](/docs/concepts/workloads/controllers/statefulset/#pod-name-label)。 +有关详细信息,请参阅 StatefulSet 主题中的 [Pod 名称标签](/zh-cn/docs/concepts/workloads/controllers/statefulset/#pod-name-label)。 <!-- ### topology.kubernetes.io/region {#topologykubernetesioregion} @@ -529,8 +529,8 @@ A region represents a larger domain, made up of one or more zones. It is uncomm 在 PersistentVolume 上:拓扑感知卷配置器将自动在 `PersistentVolume` 上设置 Node 亲和性约束。 -一个 Zone 代表一个逻辑故障域。 Kubernetes 集群通常跨越多个 Zone 以提高可用性。虽然 Zone 的确切定义留给基础设施实现, -但 Zone 的常见属性包括 Zone 内非常低的网络延迟、 Zone 内的免费网络流量以及与其他 Zone 的故障独立性。 +一个 Zone 代表一个逻辑故障域。Kubernetes 集群通常跨越多个 Zone 以提高可用性。虽然 Zone 的确切定义留给基础设施实现, +但 Zone 的常见属性包括 Zone 内非常低的网络延迟、Zone 内的免费网络流量以及与其他 Zone 的故障独立性。 例如,一个 Zone 内的 Node 可能共享一个网络交换机,但不同 Zone 中的 Node 无法共享交换机。 一个 Region 代表一个更大的域,由一个或多个 Zone 组成。Kubernetes 集群跨多个 Region 并不常见,虽然 Zone 或 Region 的确切定义留给基础设施实现, @@ -544,9 +544,9 @@ Kubernetes makes a few assumptions about the structure of zones and regions: --> Kubernetes 对 Zone 和 Region 的结构做了一些假设: -1. Zone 和 Region 是分层的: Zone 是 Region 的严格子集,没有 Zone 可以在两个 Region 中; +1. Zone 和 Region 是分层的:Zone 是 Region 的严格子集,没有 Zone 可以在两个 Region 中; -2. Zone 名称跨 Region 是唯一的;例如, Region “africa-east-1” 可能由 Zone “africa-east-1a” 和 “africa-east-1b” 组成。 +2. Zone 名称跨 Region 是唯一的;例如,Region “africa-east-1” 可能由 Zone “africa-east-1a” 和 “africa-east-1b” 组成。 <!-- It should be safe to assume that topology labels do not change. Even though labels are strictly mutable, consumers of them can assume that a given node is not going to be moved between zones without being destroyed and recreated. @@ -581,7 +581,7 @@ If `PersistentVolumeLabel` does not support automatic labeling of your Persisten adding the labels manually (or adding support for `PersistentVolumeLabel`). With `PersistentVolumeLabel`, the scheduler prevents Pods from mounting volumes in a different zone. If your infrastructure doesn't have this constraint, you don't need to add the zone labels to the volumes at all. --> 你应该考虑手动添加标签(或添加对 `PersistentVolumeLabel` 的支持)。 -基于 `PersistentVolumeLabel` ,调度程序可以防止 Pod 挂载来自其他 Zone 的卷。如果你的基础架构没有此限制,则不需要将 Zone 标签添加到卷上。 +基于 `PersistentVolumeLabel`,调度程序可以防止 Pod 挂载来自其他 Zone 的卷。如果你的基础架构没有此限制,则不需要将 Zone 标签添加到卷上。 <!-- ### volume.beta.kubernetes.io/storage-provisioner (deprecated) @@ -1336,7 +1336,7 @@ See more details on the [Audit Annotations](/docs/reference/labels-annotations-t - [`insecure-sha1.invalid-cert.kubernetes.io/$hostname`](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#insecure-sha1-invalid-cert-kubernetes-io-hostname) - [`missing-san.invalid-cert.kubernetes.io/$hostname`](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#missing-san-invalid-cert-kubernetes-io-hostname) - [`pod-security.kubernetes.io/audit-violations`](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#pod-security-kubernetes-io-audit-violations) -- [`pod-security.kubernetes.io/enforce-policy`](/zh-cn/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#pod-security-kubernetes-io-enforce-policy) +- [`pod-security.kubernetes.io/enforce-policy`](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#pod-security-kubernetes-io-enforce-policy) - [`pod-security.kubernetes.io/exempt`](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/#pod-security-kubernetes-io-exempt) 在[审计注解](/zh-cn/docs/reference/labels-annotations-taints/audit-annotations/)页面上查看更多详细信息。 diff --git a/content/zh-cn/docs/reference/scheduling/config.md b/content/zh-cn/docs/reference/scheduling/config.md index f94ff242f8..0cd7190d71 100644 --- a/content/zh-cn/docs/reference/scheduling/config.md +++ b/content/zh-cn/docs/reference/scheduling/config.md @@ -251,7 +251,7 @@ extension points: --> - `NodeResourcesFit`:检查节点是否拥有 Pod 请求的所有资源。 得分可以使用以下三种策略之一:`LeastAllocated`(默认)、`MostAllocated` - 和`RequestedToCapacityRatio`。 + 和 `RequestedToCapacityRatio`。 实现的扩展点:`preFilter`,`filter`,`score`。 <!-- @@ -501,7 +501,7 @@ This would equate to manually enabling `MyPlugin` for all of its extension points, like so: --> -这相当于为所有扩展点手动启用`MyPlugin`,如下所示: +这相当于为所有扩展点手动启用 `MyPlugin`,如下所示: ```yaml apiVersion: kubescheduler.config.k8s.io/v1beta3 @@ -732,7 +732,7 @@ as well as its seamless integration with the existing methods for configuring ex ## Scheduler configuration migrations --> -## 调度程序配置迁移 +## 调度程序配置迁移 {#scheduler-configuration-migrations} {{< tabs name="tab_with_md" >}} {{% tab name="v1beta1 → v1beta2" %}} <!-- @@ -774,7 +774,7 @@ as well as its seamless integration with the existing methods for configuring ex * The scheduler plugin `ServiceAffinity` is deprecated; instead, use the [`InterPodAffinity`](/docs/concepts/scheduling-eviction/assign-pod-node/#inter-pod-affinity-and-anti-affinity) plugin (enabled by default) to achieve similar behavior. --> * 调度程序插件 `ServiceAffinity` 已弃用; - 相反,使用 [`InterPodAffinity`](/zh-cn/doc/concepts/scheduling-eviction/assign-pod-node/#inter-pod-affinity-and-anti-affinity) + 相反,使用 [`InterPodAffinity`](/zh-cn/docs/concepts/scheduling-eviction/assign-pod-node/#inter-pod-affinity-and-anti-affinity) 插件(默认启用)来实现类似的行为。 <!-- diff --git a/content/zh-cn/docs/setup/production-environment/_index.md b/content/zh-cn/docs/setup/production-environment/_index.md index 8705e2a2b7..f3086240c7 100644 --- a/content/zh-cn/docs/setup/production-environment/_index.md +++ b/content/zh-cn/docs/setup/production-environment/_index.md @@ -93,7 +93,7 @@ by managing [policies](/docs/concepts/policy/) and 你可以使用基于角色的访问控制([RBAC](/zh-cn/docs/reference/access-authn-authz/rbac/)) 和其他安全机制来确保用户和负载能够访问到所需要的资源,同时确保工作负载及集群 自身仍然是安全的。 - 你可以通过管理[策略](/zh-cn/docs/concets/policy/)和 + 你可以通过管理[策略](/zh-cn/docs/concepts/policy/)和 [容器资源](/zh-cn/docs/concepts/configuration/manage-resources-containers)来 针对用户和工作负载所可访问的资源设置约束, @@ -215,7 +215,7 @@ for details. --> - *为 API 服务器配置负载均衡*:配置负载均衡器来将外部的 API 请求散布给运行在 不同节点上的 API 服务实例。参阅 - [创建外部负载均衡器](/zh-cn/docs/access-application-cluster/create-external-load-balancer/) + [创建外部负载均衡器](/zh-cn/docs/tasks/access-application-cluster/create-external-load-balancer/) 了解细节。 <!-- - *Separate and backup etcd service*: The etcd services can either run on the @@ -318,7 +318,7 @@ control plane or have a cloud provider do it for you, you still need to consider how you want to manage your worker nodes (also referred to simply as *nodes*). --> -### 生产用工作节点 +### 生产用工作节点 {#production-worker-nodes} 生产质量的工作负载需要是弹性的;它们所依赖的其他组件(例如 CoreDNS)也需要是弹性的。 无论你是自行管理控制面还是让云供应商来管理,你都需要考虑如何管理工作节点 @@ -418,7 +418,7 @@ hundreds of people. In a learning environment or platform prototype, you might h administrative account for everything you do. In production, you will want more accounts with different levels of access to different namespaces. --> -### 生产级用户环境 +### 生产级用户环境 {#production-user-management} 在生产环境中,情况可能不再是你或者一小组人在访问集群,而是几十 上百人需要访问集群。在学习环境或者平台原型环境中,你可能具有一个 @@ -635,4 +635,3 @@ and [service accounts](/docs/reference/access-authn-authz/service-accounts-admin [DNS 自动扩缩](/zh-cn/docs/tasks/administer-cluster/dns-horizontal-autoscaling/) 和[服务账号](/zh-cn/docs/reference/access-authn-authz/service-accounts-admin/) 来为应用负载作准备。 - diff --git a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md index 8e1d3aa9f8..361e7ef6c6 100644 --- a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md +++ b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md @@ -83,7 +83,7 @@ applies to `kubeadm` as well as to Kubernetes overall. Check that policy to learn about what versions of Kubernetes and `kubeadm` are supported. This page is written for Kubernetes {{< param "version" >}}. --> -[Kubernetes 版本及版本偏差策略](/zh-cn/docs/setup/release/version-skew-policy/#supported-versions)适用于 `kubeadm` 以及整个 Kubernetes。 +[Kubernetes 版本及版本偏差策略](/zh-cn/releases/version-skew-policy/#supported-versions)适用于 `kubeadm` 以及整个 Kubernetes。 查阅该策略以了解支持哪些版本的 Kubernetes 和 `kubeadm`。 该页面是为 Kubernetes {{< param "version" >}} 编写的。 @@ -544,7 +544,7 @@ The `node-role.kubernetes.io/control-plane` label is such a restricted label and a privileged client after a node has been created. To do that manually you can do the same by using `kubectl label` and ensure it is using a privileged kubeconfig such as the kubeadm managed `/etc/kubernetes/admin.conf`. --> -默认情况下,kubeadm 启用 [NodeRestriction](/zh-cn/docs/reference/access-authn-authz/admissiontrollers/#noderestriction) +默认情况下,kubeadm 启用 [NodeRestriction](/zh-cn/docs/reference/access-authn-authz/admission-controllers/#noderestriction) 准入控制器来限制 kubelets 在节点注册时可以应用哪些标签。准入控制器文档描述 kubelet `--node-labels` 选项允许使用哪些标签。 其中 `node-role.kubernetes.io/control-plane` 标签就是这样一个受限制的标签, kubeadm 在节点创建后使用特权客户端手动应用此标签。 @@ -889,7 +889,7 @@ options. * Verify that your cluster is running properly with [Sonobuoy](https://github.com/heptio/sonobuoy) * <a id="lifecycle" />See [Upgrading kubeadm clusters](/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/) for details about upgrading your cluster using `kubeadm`. -* Learn about advanced `kubeadm` usage in the [kubeadm reference documentation](/docs/reference/setup-tools/kubeadm/kubeadm) +* Learn about advanced `kubeadm` usage in the [kubeadm reference documentation](/docs/reference/setup-tools/kubeadm/) * Learn more about Kubernetes [concepts](/docs/concepts/) and [`kubectl`](/docs/reference/kubectl/). * See the [Cluster Networking](/docs/concepts/cluster-administration/networking/) page for a bigger list of Pod network add-ons. @@ -903,7 +903,7 @@ options. --> * 使用 [Sonobuoy](https://github.com/heptio/sonobuoy) 验证集群是否正常运行。 * <a id="lifecycle"/>有关使用 kubeadm 升级集群的详细信息,请参阅[升级 kubeadm 集群](/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/)。 -* 在 [kubeadm 参考文档](/zh-cn/docs/reference/setup-tools/kubeadm/kubeadm)中了解有关 `kubeadm` 进阶用法的信息。 +* 在 [kubeadm 参考文档](/zh-cn/docs/reference/setup-tools/kubeadm/)中了解有关 `kubeadm` 进阶用法的信息。 * 了解有关 Kubernetes [概念](/zh-cn/docs/concepts/)和 [`kubectl`](/zh-cn/docs/reference/kubectl/)的更多信息。 * 有关 Pod 网络附加组件的更多列表,请参见[集群网络](/zh-cn/docs/concepts/cluster-administration/networking/)页面。 * <a id="other-addons" />请参阅[附加组件列表](/zh-cn/docs/concepts/cluster-administration/addons/)以探索其他附加组件, @@ -1051,7 +1051,7 @@ To learn more about the version skew between the different Kubernetes component the [Version Skew Policy](https://kubernetes.io/releases/version-skew-policy/). --> 要了解更多关于不同 Kubernetes 组件之间的版本偏差,请参见 -[版本偏差策略](https://kubernetes.io/releases/version-skew-policy/)。 +[版本偏差策略](/zh-cn/releases/version-skew-policy/)。 <!-- ## Limitations {#limitations} diff --git a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/install-kubeadm.md b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/install-kubeadm.md index dcdd8d158e..7b713372cf 100644 --- a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/install-kubeadm.md +++ b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/install-kubeadm.md @@ -40,7 +40,7 @@ For information on how to create a cluster with kubeadm once you have performed --> * 一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令 -* 每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存) +* 每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存) * 2 CPU 核或更多 * 集群中的所有机器的网络彼此均能相互连接(公网和内网都可以) * 节点之中不可以有重复的主机名、MAC 地址或 product_uuid。请参见[这里](#verify-mac-address)了解更多详细信息。 @@ -293,7 +293,7 @@ For more information on version skews, see: --> 关于版本偏差的更多信息,请参阅以下文档: -* Kubernetes [版本与版本间的偏差策略](/zh-cn/docs/setup/release/version-skew-policy/) +* Kubernetes [版本与版本间的偏差策略](/zh-cn/releases/version-skew-policy/) * Kubeadm 特定的[版本偏差策略](/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#version-skew-policy) {{< tabs name="k8s_install" >}} diff --git a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/kubelet-integration.md b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/kubelet-integration.md index a9ccfb9374..ef4a468b34 100644 --- a/content/zh-cn/docs/setup/production-environment/tools/kubeadm/kubelet-integration.md +++ b/content/zh-cn/docs/setup/production-environment/tools/kubeadm/kubelet-integration.md @@ -312,7 +312,7 @@ section. --> {{< note >}} 下面的内容只是一个例子。如果你不想使用包管理器, -请遵循[没有包管理器](/zh-cn/docs/setup/productionenvironment/tools/kubeadm/install-kubeadm/#k8s-install-2)) +请遵循[没有包管理器](/zh-cn/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#k8s-install-2)) 章节的指南。 {{< /note >}} diff --git a/content/zh-cn/docs/tutorials/stateful-application/basic-stateful-set.md b/content/zh-cn/docs/tutorials/stateful-application/basic-stateful-set.md index e51177de71..cf3a7ac6c8 100644 --- a/content/zh-cn/docs/tutorials/stateful-application/basic-stateful-set.md +++ b/content/zh-cn/docs/tutorials/stateful-application/basic-stateful-set.md @@ -213,7 +213,7 @@ _Running_ (see [Pod Phase](/docs/concepts/workloads/pods/pod-lifecycle/#pod-phas and _Ready_ (see `type` in [Pod Conditions](/docs/concepts/workloads/pods/pod-lifecycle/#pod-conditions)). --> 请注意,直到 `web-0` Pod 处于 _Running_(请参阅 -[Pod 阶段]((/zh-cn/docs/concepts/workloads/pods/pod-lifecycle/#pod-phase))) +[Pod 阶段](/zh-cn/docs/concepts/workloads/pods/pod-lifecycle/#pod-phase)) 并 _Ready_(请参阅 [Pod 状况](/zh-cn/docs/concepts/workloads/pods/pod-lifecycle/#pod-conditions)中的 `type`)状态后,`web-1` Pod 才会被启动。