日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Kubernetes資源配額使用指南

當 Kubernetes 集群運行過一段時間或者在被開發(fā)者大量使用后,Kubernetes 資源(例如 CPU 和內(nèi)存)的控制的問題就會顯現(xiàn)出來。而在大多情況下只有集群出問題后,我們才會意識到資源控制的重要性。

創(chuàng)新互聯(lián)是一家專業(yè)提供莆田企業(yè)網(wǎng)站建設(shè),專注與做網(wǎng)站、成都網(wǎng)站建設(shè)HTML5建站、小程序制作等業(yè)務(wù)。10年已為莆田眾多企業(yè)、政府機構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專業(yè)的建站公司優(yōu)惠進行中。

Kubernetes 部署過程如果沒有能充分考慮到將來的擴展性,資源類問題將會非常常見,此類問題與集群的管理和部署團隊的經(jīng)驗有關(guān)。

如果不加以合理控制,一個暴力的應(yīng)用或者開發(fā)者可能影響到共享該集群的所有業(yè)務(wù),大家因此會相互埋怨、指責并保護性地搶占資源。這對于集群管理和開發(fā)人員都是非常難以處理的場景。

在 Kubernetes 環(huán)境中控制應(yīng)用的計算資源使用有多種方式。大部分情況下,我們可以使用“資源控制”和“限制范圍”。注意存儲管理不在我們討論范圍之內(nèi),存儲管理可以通過持久卷Persistent Volume 件,以實現(xiàn)針對不同的存儲控制需求。

資源配額是一種控制 Kubernetes 計算資源的方法。本文告訴你如何使用該功能來管理開發(fā)人員行為并控制應(yīng)用的資源使用。

什么是資源配額

簡而言之,資源配額 提供了限制每個命名空間資源消耗的約束條件,它們只能在命名空間級別上應(yīng)用,這意味著它們可以應(yīng)用于計算資源,并限制命名空間內(nèi)的對象數(shù)量。

Kubernetes資源配額通過 ResourceQuota 對象來為每個命名空間設(shè)置資源配額,對以下對象類型的 CPU 和內(nèi)存進行限制:

  • 吊艙Pod
  • 服務(wù)Service
  • 機密信息Secret
  • 持久卷斷言Persistent Volume Claim(PVC)
  • 配置映射ConfigMap

Kubernetes 通過 request 和 limit 兩個參數(shù)對 CPU 和內(nèi)存進行限制(參考 LimitRange 文檔)。前者表示容器最小被保證資源,后者表示容器最大可用資源。實際上最大可用資源還受限于其它容器的實際使用情況。

下一張圖片解釋了配額中 request 和 limit 的區(qū)別:

Requests and limits in Kubernetes resource quotas下面我們就通過一個例子來說明如何設(shè)置資源配額來創(chuàng)建約束,將應(yīng)用程序限制在某些資源上,它還展示了實現(xiàn)資源配額以獲得對 Kubernetes 的控制的有用性。

準備環(huán)境

首先你需要一個 Kubernetes 環(huán)境。以下是我使用 Kubernetes 環(huán)境:

  • Minikube v1.14.2
  • Fedora 33 操作系統(tǒng)
  • 互聯(lián)網(wǎng)接入

如果你想在 Linux 機器上通過 Minikube 搭建 Kubernetes 測試環(huán)境,可以參考 Bryant Son 的《Minikube 入門》 一文。Window 或者 macOS 用戶可以參考這篇文章。

設(shè)置資源配額

這里我們僅展示 CPU 配額設(shè)置步驟,配置內(nèi)存配額或兩者的組合與之類似。

在生產(chǎn)環(huán)境中,CPU 是最需要被控制的資源,尤其是在多應(yīng)用的場景下特別需要注意防止某些應(yīng)用消耗太多 CPU 而影響到其它應(yīng)用。

首先我們創(chuàng)建一個命名空間,在其中設(shè)置 CPU 配額:

 
 
 
 
  1. $ kubectl create namespace quota-test 
  2. namespace/quota-test created 

準備 cpu-quota.yaml 文件,內(nèi)容如下:

 
 
 
 
  1. apiVersion: v1 
  2. kind: ResourceQuota 
  3. metadata: 
  4.   name: test-cpu-quota 
  5. spec: 
  6.   hard: 
  7.     requests.cpu: "100m"   
  8.     limits.cpu: "200m" 

應(yīng)用 CPU 配額到 Kubernetes 集群:

 
 
 
 
  1. $ kubectl apply -f cpu-qouta.yaml 
  2. resourcequota/test-cpu-quota created 

使用 kubectl describe 檢查配額配置情況:

 
 
 
 
  1. $ kubectl describe resourcequota/test-cpu-quota --namespace quota-test 
  2. Name:         test-cpu-quota 
  3. Namespace:    quota-test 
  4. Resource      Used  Hard 
  5. --------      ----  ---- 
  6. limits.cpu    0     200m 
  7. requests.cpu  0     100m 

在 Used resources 列中顯示了當前情況,該列值會隨著吊艙Pod的部署而變化。

下面是我們來驗證限額管理的場景。我們將在同一命名空間下部署三個不同的吊艙,為它們配置以不同的資源限制如下:

  • PodA:第一個被實例化,使用 50% 可用 CPU 資源
  • PodB:第二個被實例化,使用其余 50% 可用 CPU 資源
  • PodC:沒有可用 CPU 資源,因此不會被部署

部署吊艙

PodA:

 
 
 
 
  1. $ kubectl create -n quota-test -f - << EOF 
  2. apiVersion: v1 
  3. kind: Pod 
  4. metadata: 
  5.   name: poda 
  6. spec: 
  7.   containers: 
  8.   - name: quota-test 
  9.     image: busybox 
  10.     imagePullPolicy: IfNotPresent 
  11.     command: ['sh', '-c', 'echo Pod is Running ; sleep 5000'] 
  12.     resources: 
  13.       requests: 
  14.         cpu: "50m" 
  15.       limits: 
  16.         cpu: "100m" 
  17.   restartPolicy: Never 
  18. EOF 

部署 PodA 后,再次查看配額描述信息中的 Used CPU 信息:

 
 
 
 
  1. $ kubectl describe resourcequota/test-cpu-quota --namespace quota-test 
  2. Name:         test-cpu-quota 
  3. Namespace:    quota-test 
  4. Resource      Used  Hard 
  5. --------      ----  ---- 
  6. limits.cpu    100m  200m 
  7. requests.cpu  50m   100m 

PodB:

 
 
 
 
  1. $ kubectl create -n quota-test -f - << EOF 
  2. apiVersion: v1 
  3. kind: Pod 
  4. metadata: 
  5.   name: podb 
  6. spec: 
  7.   containers: 
  8.   - name: quota-test 
  9.     image: busybox 
  10.     imagePullPolicy: IfNotPresent 
  11.     command: ['sh', '-c', 'echo Pod is Running ; sleep 5000'] 
  12.     resources: 
  13.       requests: 
  14.         cpu: "50m" 
  15.       limits: 
  16.         cpu: "100m" 
  17.   restartPolicy: Never 
  18. EOF 

再次查看 CPU 資源使用,此時 PodB 啟動后 CPU 限制已經(jīng)達到上限:

 
 
 
 
  1. $ kubectl describe resourcequota/test-cpu-quota --namespace quota-test 
  2. Name:         test-cpu-quota 
  3. Namespace:    quota-test 
  4. Resource      Used  Hard 
  5. --------      ----  ---- 
  6. limits.cpu    200m  200m 
  7. requests.cpu  100m  100m 

PodC:

試著創(chuàng)建 PodC,此時 CPU 配額已經(jīng)被 PodA 和 PodB 用盡:

 
 
 
 
  1. $ kubectl create -n quota-test -f - << EOF 
  2. apiVersion: v1 
  3. kind: Pod 
  4. metadata: 
  5.   name: podc 
  6. spec: 
  7.   containers: 
  8.   - name: quota-test 
  9.     image: busybox 
  10.     imagePullPolicy: IfNotPresent 
  11.     command: ['sh', '-c', 'echo Pod is Running ; sleep 5000'] 
  12.     resources: 
  13.       requests: 
  14.         cpu: "5m" 
  15.       limits: 
  16.         cpu: "10m" 
  17.   restartPolicy: Never 
  18. EOF 

正我們期望,第三個 Pod 無法被啟動,配額限制了吊艙的創(chuàng)建:

 
 
 
 
  1. Error from server (Forbidden): error when creating "STDIN": pods "podc" is forbidden: exceeded quota: test-cpu-quota, requested: limits.cpu=10m,requests.cpu=5m, used: limits.cpu=200m,requests.cpu=100m, limited: limits.cpu=200m,requests.cpu=100m 

如我們的例子所示,定義合理的資源配額限制開發(fā)者行為對 Kubernetes 管理十分重要。

清理

刪除剛才創(chuàng)建的命名空間 quota-test:

 
 
 
 
  1. $ kubectl delete -n quota-test 

規(guī)劃資源配額

Kubernetes 中提供多種方式來控制資源的搶占和使用,合理的規(guī)劃和配置配額、限制范圍和其它原生參數(shù)對保持集群的穩(wěn)定性十分必要。

你應(yīng)該十分謹慎地控制計算資源的資源配額,特別是關(guān)鍵業(yè)務(wù)的生產(chǎn)應(yīng)用環(huán)境。

在規(guī)劃資源配額時,開發(fā)人員的參與很重要,需要他們預估并給出最合理的資源使用值。


網(wǎng)站標題:Kubernetes資源配額使用指南
標題鏈接:http://www.dlmjj.cn/article/dhoossh.html