Tôi có 2 cụm kubernetes trong đám mây của IBM, một cụm có 2 Nút, cụm còn lại có 4.
Một nút có 4 Nút đang hoạt động bình thường nhưng ở nút còn lại, tôi phải tạm thời xóa các nút công nhân vì lý do tài chính (không nên thanh toán khi không hoạt động).
Khi tôi kích hoạt lại hai nút, mọi thứ dường như khởi động tốt và miễn là tôi không cố gắng tương tác với các Pod, bề ngoài nó vẫn ổn, không có thông báo nào về tính khả dụng hoặc tình trạng sức khỏe nguy kịch. OK, tôi đã xóa hai lỗi thời không gian tên
s đã bị mắc kẹt trong chấm dứt
trạng thái, nhưng tôi có thể giải quyết vấn đề đó bằng cách khởi động lại một nút cụm (không biết chính xác đó là nút nào nữa).
Khi mọi thứ đều ổn, tôi đã cố gắng truy cập bảng điều khiển kubernetes (mọi thứ được thực hiện trước đây đều ở cấp quản lý IBM hoặc trong dòng lệnh) nhưng ngạc nhiên là tôi không thể truy cập được với một trang báo lỗi trong trình duyệt:
Lỗi 503: Dịch vụ không khả dụng
Có một thông báo JSON nhỏ ở cuối trang đó cho biết:
{
"loại": "Trạng thái",
"apiVersion": "v1",
"metadata": { },
"trạng thái": "Thất bại",
"message": "lỗi khi cố truy cập dịch vụ: đọc tcp 172.18.190.60:39946-\u003e172.19.151.38:8090: đọc: thiết lập lại kết nối bởi ngang hàng",
"lý do": "Dịch vụ không khả dụng",
"mã": 503
}
tôi đã gửi một nhật ký kubectl kubernetes-dashboard-54674bdd65-nf6w7 --namespace=kube-system
ở đâu vỏ
được hiển thị là đang chạy, nhưng kết quả không phải là nhật ký để xem, thay vào đó là thông báo này:
Lỗi từ máy chủ: Nhận "https://10.215.17.75:10250/containerLogs/kube-system/kubernetes-dashboard-54674bdd65-nf6w7/kubernetes-dashboard":
đọc tcp 172.18.135.195:56882->172.19.151.38:8090:
đọc: thiết lập lại kết nối bởi ngang hàng
Sau đó, tôi phát hiện ra rằng tôi không thể lấy nhật ký của không tí nào vỏ
đang chạy trong cụm đó, tôi cũng không thể triển khai bất kỳ đối tượng kubernetes tùy chỉnh mới nào yêu cầu lập lịch trình (tôi thực sự có thể áp dụng Dịch vụ
s hoặc Bản đồ cấu hình
nhưng không vỏ
, Bộ bản sao
, triển khai
hoặc tương tự).
tôi đã cố gắng
- tải lại các nút worker trong workerpool
- khởi động lại các nút worker trong workerpool
- khởi động lại kubernetes-dashboard
triển khai
Thật không may, không có hành động nào ở trên thay đổi khả năng truy cập của vỏ
S.
Có một thứ khác có thể liên quan (mặc dù tôi không chắc nó thực sự là như vậy):
Trong cụm khác chạy tốt, có ba calico vỏ
s đang chạy và cả ba đều hoạt động trong khi trong cụm có vấn đề chỉ có 2 trong số ba calico vỏ
s đang hoạt động, cái thứ ba vẫn ở trong Chưa giải quyết
nhà nước và một kubectl mô tả pod calico-blablabla-blabla
tiết lộ lý do, một Biến cố
Cảnh báo FailedScheduling Trình lập lịch trình mặc định của 13s
0/2 nút khả dụng: 2 nút không có cổng miễn phí cho các cổng nhóm được yêu cầu.
Có ai có manh mối về những gì đang diễn ra trong cụm đó không và có thể chỉ cho tôi các giải pháp khả thi không? Tôi thực sự không muốn xóa cụm và tạo cụm mới.
Chỉnh sửa
Kết quả của kubectl description pod kubernetes-dashboard-54674bdd65-4m2ch --namespace=kube-system
:
Tên: kubernetes-dashboard-54674bdd65-4m2ch
Không gian tên: hệ thống kube
Ưu tiên: 2000000000
Tên lớp ưu tiên: system-cluster-critical
Nút: 10.215.17.82/10.215.17.82
Thời gian bắt đầu: Thứ hai, ngày 15 tháng 11 năm 2021 09:01:30 +0100
Nhãn: k8s-app=kubernetes-dashboard
pod-template-hash=54674bdd65
Chú thích: cni.projectcalico.org/containerID: ca52cefaae58d8e5ce6d54883cb6a6135318c8db53d231dc645a5cf2e67d821e
cni.projectcalico.org/podIP: 172.30.184.2/32
cni.projectcalico.org/podIPs: 172.30.184.2/32
container.seccomp.security.alpha.kubernetes.io/kubernetes-dashboard: thời gian chạy/mặc định
kubectl.kubernetes.io/restartedAt: 2021-11-10T15:47:14+01:00
kubernetes.io/psp: ibm-privileged-psp
Tình trạng: Đang chạy
IP: 172.30.184.2
IP:
IP: 172.30.184.2
Được kiểm soát bởi: ReplicaSet/kubernetes-dashboard-54674bdd65
Hộp đựng:
bảng điều khiển kubernetes:
ID vùng chứa: containerd://bac57850055cd6bb944c4d893a5d315c659fd7d4935fe49083d9ef8ae03e5c31
Hình ảnh: registry.eu-de.bluemix.net/armada-master/kubernetesui-dashboard:v2.3.1
ID hình ảnh: registry.eu-de.bluemix.net/armada-master/kubernetesui-dashboard@sha256:f14f581d36b83fc9c1cfa3b0609e7788017ecada1f3106fab1c9db35295fe523
Cổng: 8443/TCP
Cổng máy chủ: 0/TCP
lập luận:
--auto-tạo-chứng chỉ
--namespace=kube-system
Trạng thái: Đang chạy
Bắt đầu: Thứ hai, ngày 15 tháng 11 năm 2021 09:01:37 +0100
Sẵn sàng: Đúng
Số lần khởi động lại: 0
yêu cầu:
CPU: 50m
bộ nhớ: 100Mi
Sống động: http-get https://:8443/ delay=30s timeout=30s period=10s #success=1 #failure=3
Sẵn sàng: http-get https://:8443/ delay=10s timeout=30s period=10s #success=1 #failure=3
Môi trường: <không>
gắn kết:
/certs từ kubernetes-dashboard-certs (rw)
/tmp từ tmp-volume (rw)
/var/run/secrets/kubernetes.io/serviceaccount từ kube-api-access-sc9kw (ro)
Điều kiện:
Loại Trạng thái
Khởi tạo đúng
Sẵn sàng Đúng
ContainerSẵn sàng Đúng
PodScheduled True
tập:
kubernetes-dashboard-certs:
Loại: Bí mật (một tập được điền bởi một Bí mật)
SecretName: kubernetes-dashboard-certs
Tùy chọn: sai
khối lượng tmp:
Loại: EmptyDir (một thư mục tạm thời chia sẻ thời gian tồn tại của nhóm)
Trung bình:
SizeLimit: <bỏ đặt>
kube-api-access-sc9kw:
Loại: Dự kiến (ổ chứa dữ liệu được đưa vào từ nhiều nguồn)
Số giây hết hạn mã thông báo: 3607
ConfigMapName: kube-root-ca.crt
ConfigMapOptional: <nil>
API hướng xuống: đúng
Lớp QoS: Ổn định
Bộ chọn nút: <none>
Dung sai: node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute op=Tồn tại trong 600 giây
node.kubernetes.io/unreachable:NoExecute op=Tồn tại trong 600 giây
Sự kiện: <không có>