Chúng tôi có một NodePool dành riêng cho các đại lý CI. Khi mọi thứ hoạt động bình thường, bộ điều khiển CI của chúng tôi sẽ tạo một nhóm cho tác nhân CI và NodePool sẽ được tự động chia tỷ lệ bởi bộ tự động của GCP. Điều này có nghĩa là các nhóm sẽ có sự kiện sau cho biết rằng không có nút nào khớp với mối quan hệ của chúng:
0/3 nút khả dụng: 3 nút không khớp với sở thích/bộ chọn nút của Pod.
Và các Nút mới cuối cùng sẽ trực tuyến sau một thời gian ngắn. Tuy nhiên, hầu hết thời gian, bộ đếm tự động sẽ không thông báo rằng:
pod không kích hoạt mở rộng quy mô: 3 Không đủ bộ lưu trữ tạm thời, 6 nút không khớp với bộ chọn/mối quan hệ nút của Pod
Khi điều này xảy ra, tôi phải điều chỉnh quy mô NodePool theo cách thủ công thông qua giao diện người dùng của GCP trên phần NodePool, hoạt động ngay lập tức.
Tôi khá tự tin khi nói rằng có một lỗi ở đâu đó giữa cơ sở hạ tầng của Kubernetes và GCP, có thể là bộ tự động chia tỷ lệ. Bạn nghĩ sao?
Đây là cấu hình của NodePool, nếu nó có thể giúp ích:
tự động mở rộng:
đã bật: đúng
maxNodeCount: 3
cấu hình:
diskSizeGb: 100
diskType: pd-tiêu chuẩn
ephemeralStorageConfig:
localSsdCount: 2
loại hình ảnh: COS_CONTAAINRD
nhãn:
_redacted_: 'đúng'
máyType: c2-tiêu chuẩn-16
metadata:
vô hiệu hóa-di sản-điểm cuối: 'true'
oauthScopes:
- https://www.googleapis.com/auth/cloud-platform
ưu tiên: đúng
tài khoản dịch vụ: _đã xử lý_
shieldedInstanceConfig:
enableIntegrityMonitoring: true
thẻ:
- gke-chính
vết nhơ:
- hiệu lực: NO_SCHEDULE
khóa: _đã xử lý_
giá trị: 'đúng'
khối lượng công việcMetadataConfig:
chế độ: GKE_METADATA
ban đầuNodeCount: 1
instanceGroupUrl:
- _đã biên tập_
địa điểm:
- âu-tây1-c
- âu-tây1-b
- âu-tây1-d
sự quản lý:
tự động sửa chữa: đúng
tự động nâng cấp: đúng
maxPodsConstraint:
maxPodsPerNode: '110'
tên: ga
cấu hình mạng:
podIpv4CidrBlock: 10.0.0.0/17
podRange: chính-châu Âu-tây1-pods
podIpv4CidrSize: 24
liên kết bản thân: _đã chỉnh sửa_
trạng thái: CHẠY
nâng cấpCài đặt:
maxSurge: 1
phiên bản: 1.21.11-gke.900
Cảm ơn!