wordpress301不能用免費網(wǎng)站推廣優(yōu)化
目錄
- 一、Pod控制器及其功用
- 二、pod控制器的多種類型
- 2.1 pod容器中的有狀態(tài)和無狀態(tài)的區(qū)別
- 三、Deployment 控制器
- 四、SatefulSet 控制器
- 4.1 StatefulSet由以下幾個部分組成
- 4.2 為什么要有headless?
- 4.3 為什么要有volumeClaimTemplate?
- 4.4 滾動更新
- 4.5 擴容及縮容
- 4.6 小結(jié)
- 五、DaemonSet 控制器
- 六、Job 控制器
- 七、CronJob 控制器
- 八、總結(jié)
- 8.1 Deployment
- 8.2 StatefulSet
- 8.3 DaemonSet
- 8.4 Job
- 8.5 CronJob
一、Pod控制器及其功用
Pod控制器,又稱之為工作負(fù)載(workload),是用于實現(xiàn)管理pod的中間層,確保pod資源符合預(yù)期的狀態(tài),pod的資源出現(xiàn)故障時,會嘗試進(jìn)行重啟,當(dāng)根據(jù)重啟策略無效,則會重新新建pod的資源。
二、pod控制器的多種類型
1、ReplicaSet: 代用戶創(chuàng)建指定數(shù)量的pod副本,確保pod副本數(shù)量符合預(yù)期狀態(tài),并且支持滾動式自動擴容和縮容功能。
ReplicaSet主要三個組件組成:
(1)用戶期望的pod副本數(shù)量
(2)標(biāo)簽選擇器,判斷哪個pod歸自己管理
(3)當(dāng)現(xiàn)存的pod數(shù)量不足,會根據(jù)pod資源模板進(jìn)行新建
幫助用戶管理無狀態(tài)的pod資源,精確反應(yīng)用戶定義的目標(biāo)數(shù)量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。
2、Deployment:工作在ReplicaSet之上,用于管理無狀態(tài)應(yīng)用,目前來說最好的控制器。支持滾動更新和回滾功能,還提供聲明式配置。
ReplicaSet 與Deployment 這兩個資源對象逐步替換之前RC的作用。
3、DaemonSet:用于確保集群中的每一個節(jié)點只運行特定的pod副本,通常用于實現(xiàn)系統(tǒng)級后臺任務(wù)。比如ELK服務(wù)
特性:服務(wù)是無狀態(tài)的
服務(wù)必須是守護(hù)進(jìn)程
4、StatefulSet:管理有狀態(tài)應(yīng)用
5、Job:只要完成就立即退出,不需要重啟或重建
6、Cronjob:周期性任務(wù)控制,不需要持續(xù)后臺運行
2.1 pod容器中的有狀態(tài)和無狀態(tài)的區(qū)別
- 有狀態(tài)實例
實例之間有差別,每個實例都有自己的獨特性,元數(shù)據(jù)不同,例如etcd,zookeeper
實例之間不對等的關(guān)系,以及依靠外部存儲的應(yīng)用 - 無狀態(tài)實例
deployment認(rèn)為所有的pod都是一樣的
不用考慮順序的要求
不用考慮在哪個node節(jié)點上運行
可以隨意擴容和縮容
三、Deployment 控制器
部署無狀態(tài)應(yīng)用
管理Pod和ReplicaSet
具有上線部署、副本設(shè)定、滾動升級、回滾等功能
提供聲明式更新,例如只更新一個新的image
應(yīng)用場景:web服務(wù)
vim nginx-deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:name: nginx-deploymentlabels:app: nginx
spec:replicas: 3selector:matchLabels:app: nginxtemplate:metadata:labels:app: nginxspec:containers:- name: nginximage: nginx:1.15.4ports:- containerPort: 80kubectl create -f nginx-deployment.yamlkubectl get pods,deploy,rs
四、SatefulSet 控制器
StatefulSet 是用來管理有狀態(tài)應(yīng)用的工作負(fù)載 API 對象。
StatefulSet 用來管理某 Pod 集合的部署和擴縮, 并為這些 Pod 提供持久存儲和持久標(biāo)識符。
和 Deployment 類似, StatefulSet 管理基于相同容器規(guī)約的一組 Pod。但和 Deployment 不同的是, StatefulSet 為它們的每個 Pod 維護(hù)了一個有粘性的 ID。這些 Pod 是基于相同的規(guī)約來創(chuàng)建的, 但是不能相互替換:無論怎么調(diào)度,每個 Pod 都有一個永久不變的 ID。
如果希望使用存儲卷為工作負(fù)載提供持久存儲,可以使用 StatefulSet 作為解決方案的一部分。 盡管 StatefulSet 中的單個 Pod 仍可能出現(xiàn)故障, 但持久的 Pod 標(biāo)識符使得將現(xiàn)有卷與替換已失敗 Pod 的新 Pod 相匹配變得更加容易。
StatefulSet 對于需要滿足以下一個或多個需求的應(yīng)用程序很有價值:
- 穩(wěn)定的、唯一的網(wǎng)絡(luò)標(biāo)識符。
- 穩(wěn)定的、持久的存儲。
- 有序的、優(yōu)雅的部署和擴縮。
- 有序的、自動的滾動更新。
在上面描述中,“穩(wěn)定的”意味著 Pod 調(diào)度或重調(diào)度的整個過程是有持久性的。 如果應(yīng)用程序不需要任何穩(wěn)定的標(biāo)識符或有序的部署、刪除或擴縮, 則應(yīng)該使用由一組無狀態(tài)的副本控制器提供的工作負(fù)載來部署應(yīng)用程序,比如 Deployment 或者 ReplicaSet可能更適用于你的無狀態(tài)應(yīng)用部署需要。
//名為 svc-demo 的 Headless Service 用來控制網(wǎng)絡(luò)域名
kubectl create svc clusterip svc-demo --tcp=80:80 --dry-run=client -oyaml > svc-demo.yaml
vim svc-demo.yamlapiVersion: v1
kind: Service
metadata:creationTimestamp: nulllabels:app: svc-demoname: svc-demo
spec:ports:- name: httpport: 80protocol: TCPtargetPort: 80selector:app: sts-demo //擁有此標(biāo)簽的pod 都有此servicetype: ClusterIPclusterIP: None //無頭服務(wù)的clusterIp為None
//名為 myapp-demo 的 StatefulSet 有一個 Spec,它表明將在獨立的4個 Pod 副本中啟動容器
vim stateful-demo.yaml apiVersion: apps/v1
kind: StatefulSet
metadata:labels:app: myapp-demoname: myapp-demo
spec:serviceName: svc-demoreplicas: 4selector:matchLabels:app: sts-demotemplate:metadata:labels:app: sts-demospec:containers:- image: soscscs/myapp:v1name: myappports:- containerPort: 80volumeClaimTemplates:- metadata:name: pvc-demospec:accessModes:- ReadWriteOnceresources:requests:storage: 2GistorageClassName: nfs-client-storageclass
4.1 StatefulSet由以下幾個部分組成
●Headless Service(無頭服務(wù)):用于為Pod資源標(biāo)識符生成可解析的DNS記錄。
●volumeClaimTemplates(存儲卷申請模板):基于靜態(tài)或動態(tài)PV供給方式為Pod資源提供專有的固定存儲。
●StatefulSet:用于管控Pod資源。
4.2 為什么要有headless?
在deployment中,每一個pod是沒有名稱,是隨機字符串,是無序的。而statefulset中是要求有序的,每一個pod的名稱必須是固定的。當(dāng)節(jié)點掛了,重建之后的標(biāo)識符是不變的,每一個節(jié)點的節(jié)點名稱是不能改變的。pod名稱是作為pod識別的唯一標(biāo)識符,必須保證其標(biāo)識符的穩(wěn)定并且唯一。
為了實現(xiàn)標(biāo)識符的穩(wěn)定,這時候就需要一個headless service 解析直達(dá)到pod,還需要給pod配置一個唯一的名稱。
4.3 為什么要有volumeClaimTemplate?
大部分有狀態(tài)副本集都會用到持久存儲,比如分布式系統(tǒng)來說,由于數(shù)據(jù)是不一樣的,每個節(jié)點都需要自己專用的存儲節(jié)點。而在 deployment中pod模板中創(chuàng)建的存儲卷是一個共享的存儲卷,多個pod使用同一個存儲卷,而statefulset定義中的每一個pod都不能使用同一個存儲卷,由此基于pod模板創(chuàng)建pod是不適應(yīng)的,這就需要引入volumeClaimTemplate,當(dāng)在使用statefulset創(chuàng)建pod時,會自動生成一個PVC,從而請求綁定一個PV,從而有自己專用的存儲卷。
服務(wù)發(fā)現(xiàn):就是應(yīng)用服務(wù)之間相互定位的過程。
應(yīng)用場景:
●動態(tài)性強:Pod會飄到別的node節(jié)點
●更新發(fā)布頻繁:互聯(lián)網(wǎng)思維小步快跑,先實現(xiàn)再優(yōu)化,老板永遠(yuǎn)是先上線再慢慢優(yōu)化,先把idea變成產(chǎn)品掙到錢然后再慢慢一點一點優(yōu)化
●支持自動伸縮:一來大促,肯定是要擴容多個副本
K8S里服務(wù)發(fā)現(xiàn)的方式—DNS,使K8S集群能夠自動關(guān)聯(lián)Service資源的“名稱”和“CLUSTER-IP”,從而達(dá)到服務(wù)被集群自動發(fā)現(xiàn)的目的。
kubectl get pods -A
kubectl delete pods coredns-54d67798b7-rl5wc -n kube-system
kubectl delete pods coredns-54d67798b7-qbvr5 -n kube-system
kubectl delete statefulsets.apps myapp-demo
vim stateful.yaml apiVersion: apps/v1
kind: StatefulSet
metadata:labels:app: myapp-demoname: myapp-demo
spec:serviceName: svc-demoreplicas: 4selector:matchLabels:app: sts-demotemplate:metadata:labels:app: sts-demospec:containers:- image: soscscs/myapp:v1name: myappports:- containerPort: 80volumeMounts:- name: pvc-demomountPath: /datavolumeClaimTemplates:- metadata:name: pvc-demospec:accessModes:- ReadWriteOnceresources:requests:storage: 2GistorageClassName: nfs-client-storageclass
解析上例:由于 StatefulSet 資源依賴于一個實現(xiàn)存在的 Headless 類型的 Service 資源,所以需要先定義一個名為 svc-demo 的 Headless Service 資源,用于為關(guān)聯(lián)到每個 Pod 資源創(chuàng)建 DNS 資源記錄。接著定義了一個名為 myapp 的 StatefulSet 資源,它通過 Pod 模板創(chuàng)建了 4 個 Pod 資源副本,并基于 volumeClaimTemplates 向前面創(chuàng)建的PV進(jìn)行了請求大小為 2Gi 的專用存儲卷。
4.4 滾動更新
StatefulSet 控制器將在 StatefulSet 中刪除并重新創(chuàng)建每個 Pod。它將以與 Pod 終止相同的順序進(jìn)行(從最大的序數(shù)到最小的序數(shù)),每次更新一個 Pod。在更新其前身之前,它將等待正在更新的 Pod 狀態(tài)變成正在運行并就緒。
kubectl edit statefulsets.apps myapp-demo kubectl get pods -w //查看滾動更新的過程
4.5 擴容及縮容
kubectl scale statefulset myapp-demo --replicas=6
kubectl scale statefulset myapp-demo --replicas=3
擴展伸縮
kubectl scale sts myapp --replicas=4 //擴容副本增加到4個kubectl get pods -w //動態(tài)查看擴容kubectl get pv //查看pv綁定kubectl patch sts myapp -p '{"spec":{"replicas":2}}' //打補丁方式縮容kubectl get pods -w //動態(tài)查看縮容
當(dāng)刪除一個 StatefulSet 時,該 StatefulSet 不提供任何終止 Pod 的保證。為了實現(xiàn) StatefulSet 中的 Pod 可以有序且體面地終止,可以在刪除之前將 StatefulSet 縮容到 0。
示例:
kubectl scale statefulset myappdata-myapp --replicas=0
kubectl delete -f stateful-demo.yaml
4.6 小結(jié)
常規(guī)service和無頭服務(wù)區(qū)別
service:一組Pod訪問策略,提供cluster-IP群集之間通訊,還提供負(fù)載均衡和服務(wù)發(fā)現(xiàn)。
Headless service:無頭服務(wù),不需要cluster-IP,而是直接以DNS記錄的方式解析出被代理Pod的IP地址。
注意:使用普通的 service 也可以解析出被代理Pod的IP地址
五、DaemonSet 控制器
DaemonSet 確保全部(或者一些)Node 上運行一個 Pod 的副本。當(dāng)有 Node 加入集群時,也會為他們新增一個 Pod 。當(dāng)有 Node 從集群移除時,這些 Pod 也會被回收。刪除 DaemonSet 將會刪除它創(chuàng)建的所有 Pod。
使用 DaemonSet 的一些典型用法:
●運行集群存儲 daemon,例如在每個 Node 上運行 glusterd、ceph。
●在每個 Node 上運行日志收集 daemon,例如fluentd、logstash。
●在每個 Node 上運行監(jiān)控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。
應(yīng)用場景:Agent
官方案例(監(jiān)控):https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/
示例:
vim daemon-demo.yamlapiVersion: apps/v1
kind: DaemonSet
metadata:labels:app: myapp-dsname: myapp-ds
spec:selector:matchLabels:app: myapp-dstemplate:metadata:labels:app: myapp-dsspec:containers:- image: soscscs/myapp:v1name: myappports:- containerPort: 80tolerations:- key: node-role.kubernetes.io/masteroperator: Existseffect: NoSchedule
六、Job 控制器
Job分為普通任務(wù)(Job)和定時任務(wù)(CronJob)
常用于運行那些僅需要執(zhí)行一次的任務(wù)
應(yīng)用場景:數(shù)據(jù)庫遷移、批處理腳本、kube-bench掃描、離線數(shù)據(jù)處理,視頻解碼等業(yè)務(wù)
https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/
vim job-demo.yamlapiVersion: batch/v1
kind: Job
metadata:name: myapp-job
spec:template:spec:containers:- name: myappimage: soscscs/myapp:v1command: ["/bin/sh","-c","echo zhangsan like singing ; sleep 10; date; exit 0"]restartPolicy: NeverbackoffLimit: 4
kubectl describe pods myapp-job-gnk6c
kubectl logs myapp-job-gnk6c
注意:job的重啟策略要么 Never
, 要么 OnFailure
,絕對不能為 Always
七、CronJob 控制器
周期性任務(wù),像Linux的Crontab一樣。
周期性任務(wù)
應(yīng)用場景:通知,備份
https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/
cronjob其它可用參數(shù)的配置
spec:
concurrencyPolicy: Allow #聲明了 CronJob 創(chuàng)建的任務(wù)執(zhí)行時發(fā)生重疊如何處理(并發(fā)性規(guī)則僅適用于相同 CronJob 創(chuàng)建的任務(wù))。spec僅能聲明下列規(guī)則中的一種:
●Allow (默認(rèn)):CronJob 允許并發(fā)任務(wù)執(zhí)行。
●Forbid:CronJob 不允許并發(fā)任務(wù)執(zhí)行;如果新任務(wù)的執(zhí)行時間到了而老任務(wù)沒有執(zhí)行完,CronJob 會忽略新任務(wù)的執(zhí)行。
●Replace:如果新任務(wù)的執(zhí)行時間到了而老任務(wù)沒有執(zhí)行完,CronJob 會用新任務(wù)替換當(dāng)前正在運行的任務(wù)。
startingDeadlineSeconds: 15 #它表示任務(wù)如果由于某種原因錯過了調(diào)度時間,開始該任務(wù)的截止時間的秒數(shù)。過了截止時間,CronJob 就不會開始任務(wù),且標(biāo)記失敗.如果此字段未設(shè)置,那任務(wù)就沒有最后期限。
successfulJobsHistoryLimit: 3 #要保留的成功完成的任務(wù)數(shù)(默認(rèn)為3)
failedJobsHistoryLimit:1 #要保留多少已完成和失敗的任務(wù)數(shù)(默認(rèn)為1)
suspend:true #如果設(shè)置為 true ,后續(xù)發(fā)生的執(zhí)行都會被掛起。 這個設(shè)置對已經(jīng)開始的執(zhí)行不起作用。默認(rèn)是 false。
schedule: '*/1 * * * *'
#必需字段,作業(yè)時間表。在此示例中,作業(yè)將每分鐘運行一次
jobTemplate: #必需字段,作業(yè)模板。這類似于工作示例
vim cronjob-demo.yamlapiVersion: batch/v1beta1
kind: CronJob
metadata:name: hello
spec:schedule: "*/1 * * * *"jobTemplate:spec:template:spec:containers:- name: helloimage: busyboximagePullPolicy: IfNotPresentargs:- /bin/sh- -c- date; echo Hello from the Kubernetes clusterrestartPolicy: OnFailure
八、總結(jié)
8.1 Deployment
1)部署無狀態(tài)應(yīng)用
2)創(chuàng)建和管理 ReplicaSet 和 Pod 資源,并維護(hù)Pod副本數(shù)量與期望值相同
3)創(chuàng)建和刪除Pod是并行執(zhí)行的,升級策略默認(rèn)為滾動更新的方式
8.2 StatefulSet
1)部署有狀態(tài)應(yīng)用
2)每個Pod的名稱都是唯一且固定不變的
3)每個Pod都可以有自己專屬的持久化存儲(基于PVC模板volumeClaimTemplates綁定PV實現(xiàn)的)
4)需要提前創(chuàng)建并關(guān)聯(lián)一個Headless Service資源(ClusterIP可以為None),在K8S集群內(nèi)部的Pod應(yīng)用可以通過 <pod_name>.<svc_name>.<namespace_name>.svc.cluster.local 格式解析出 PodIP(基于無頭服務(wù)Headless Service和CoreDNS實現(xiàn)的)
5)創(chuàng)建、滾動升級、擴容、縮容Pod都是有序進(jìn)行的(默認(rèn)為串行執(zhí)行的,podManagementPolicy: OrderedReady(默認(rèn))|Parallel)
創(chuàng)建、擴容是升序執(zhí)行的(順序為Pod標(biāo)識號從0到n-1)
滾動升級、縮容是倒序執(zhí)行的(順序為Pod標(biāo)識號從n-1到0)
Service資源的類型 4+1
ClusterIP NodePort LoadBalancer ExternalName + Headless Service
8.3 DaemonSet
1)理論上可以在K8S所有Node節(jié)點上創(chuàng)建相同的Pod資源(無論Node節(jié)點什么時候加入到K8S集群)
2)調(diào)度時會受到Node節(jié)點上的污點或者節(jié)點設(shè)置了cordon不可調(diào)度的影響,而不會在上述的Node節(jié)點中創(chuàng)建Pod
設(shè)置容忍 kubectl node xxx uncordon
3)資源清單配置中不需要設(shè)置副本數(shù) replicas
8.4 Job
1)部署一次性短期任務(wù)的資源,Pod不會持久運行
2)任務(wù)正常完成后Pod容器會正常退出并不會再重啟(restartPolicy通常設(shè)置為Nerver或OnFailure),且也不會重建Pod
3)如果任務(wù)執(zhí)行異常導(dǎo)致Pod容器異常退出,會重建Pod重試任務(wù),重試次數(shù)受 backoffLimit 配置影響(默認(rèn)為任務(wù)失敗后重試 6 次)
8.5 CronJob
1)部署周期性短期任務(wù)的資源,Pod不會持久運行
2)任務(wù)正常完成后Pod容器會正常退出并不會再重啟(restartPolicy通常設(shè)置為Nerver或OnFailure),且也不會重建Pod
3)使用必配字段 schedule 設(shè)置任務(wù)執(zhí)行的周期表,格式為 分 時 日 月 周