单个pod有可能由于各种原因挂掉,例如单点故障、受其他占用资源过高的pod影响等,此时会影响线上服务。
如果在多个worker node上有多个pod同时运行,这种机率就会大大降低。
所以,replicaset有两个作用:
Load balancing & Scaling
。当pod负载过高时,通过扩大replica数量,可以分担负载。当pod负载不大时,减少replica数量来释放资源。可以对比单台服务器
和负载均衡下挂多个服务器
两种方式,来理解replicaset的作用。
yaml格式如下:
apiVersion: apps/v1
kind: ReplicaSet
metadata:
name: myapp-replicaset
labels:
app: myapp
type: front-end
spec:
template:
# 这是pod的yaml文件
metadata:
name: myapp-pod
labels: #labels必须和replicaset的统一,否则会报错。
app: myapp
type: front-end
spec:
containers:
- name: nginx-container
image: nginx
replicas: 3
selector:
matchLabels:
type: front-end
运行:
kubectl create -f replicaset-definition.yaml
kubectl get replicaset
方法一:将yaml中的replicas更改为6,然后kubectl apply -f xxx.yaml
方法二:
kubectl scale replicaset --replicas=6 ${replica_name}
编写Pod
的yaml时,apiVersion为v1, 为什么这里是apps/v1
呢?
这是因为replicaset
定义在apis/apps/v1
目录下:
而pod定义在api/v1
目录下:
如果将apiVersion改成v1, 则报错:
另外,如果selector
部分的label和template
的label不统一,也会报错:
spec:
# modify replicas according to your case
replicas: 5
selector:
matchLabels:
tier: frontend-end
template:
metadata:
labels:
tier: frontend
spec:
containers:
- name: php-redis
image: gcr.io/google_samples/gb-frontend:v3
[@root:pod]$ kubectl apply -f 5.yaml
The ReplicaSet "frontend" is invalid: spec.template.metadata.labels: Invalid value: map[string]string{"tier":"frontend"}: `selector` does not match template `labels`