Điểm:0

Hai nics 10Gb được liên kết trên hệ điều hành khách ESXi không sử dụng toàn bộ băng thông

lá cờ cn

Trên máy khách ESXi, với hệ điều hành Ubuntu 18.04, hai nic được kết nối từ hai vswitch khác nhau, mỗi nic có một đường lên 10Gb riêng biệt.

Tôi đã tạo một liên kết nic từ hai liên kết này với số dư-rrthăng bằng-alb chế độ. Khi kiểm tra băng thông, nó không vượt quá giới hạn 10Gb (khoảng 9,7gbps) cho giao diện được liên kết.

 bwm-ng v0.6.1 (thăm dò cứ sau 0,500 giây), nhấn 'h' để được trợ giúp
  đầu vào: /proc/net/dev loại: tỷ lệ
  \ iface Rx Tx Tổng cộng
  ================================================================= ============================
               lo: 0,00 b/s 0,00 b/s 0,00 b/s
           ens160: 3,82 kb/giây 5,30 Gb/giây 5,30 Gb/giây
           ens192: 15,33 kb/giây 4,35 Gb/giây 4,35 Gb/giây
            trái phiếu0: 19,16 kb/giây 9,64 Gb/giây 9,64 Gb/giây
  --------------------------------------------- ----------------------------
            tổng: 38,31 kb/giây 19,28 Gb/giây 19,29 Gb/giây

# liên kết ip
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    liên kết/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: ens160: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 trạng thái LÊN chế độ MẶC ĐỊNH nhóm mặc định qlen 1000
    liên kết/ether 00:0c:29:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: ens192: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 trạng thái LÊN chế độ MẶC ĐỊNH nhóm mặc định qlen 1000
    liên kết/ether 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 trạng thái qdisc noqueue UP mode MẶC ĐỊNH nhóm mặc định qlen 1000
    liên kết/ether 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
# mèo /proc/net/bonding/bond0
Trình điều khiển liên kết kênh Ethernet: v3.7.1 (27 tháng 4 năm 2011)

Chế độ liên kết: cân bằng tải thích ứng
Slave chính: Không có
Slave hiện đang hoạt động: ens192
Trạng thái MII: lên
Khoảng thời gian bỏ phiếu MII (ms): 100
Độ trễ lên (ms): 0
Độ trễ xuống (ms): 0

Giao diện nô lệ: ens192
Trạng thái MII: lên
Tốc độ: 10000 Mb/giây
Duplex: đầy đủ
Số lần lỗi liên kết: 0
Địa chỉ CTNH cố định: 00:0c:29:xx:xx:xx
ID hàng đợi nô lệ: 0

Giao diện nô lệ: ens160
Trạng thái MII: lên
Tốc độ: 10000 Mb/giây
Duplex: đầy đủ
Số lần lỗi liên kết: 0
Địa chỉ CTNH cố định: 00:0c:29:xx:xx:xx
ID hàng đợi nô lệ: 0

Tôi đã kiểm tra cấu hình mà không sử dụng ESXi (máy Ubuntu trên máy trần), tôi nhận được băng thông tổng hợp khoảng 16Gbps cho giao diện bond0. Ngoài ra, với một nic trên một khách ESXi, tôi có thể bão hòa nó và nhận được băng thông khoảng 10gbps.

Có bất kỳ giới hạn nào đối với ESXi vswitch hoặc máy khách không?

lá cờ br
Các vswitch được cấu hình như thế nào? Bạn đang sử dụng khung jumbo?
lá cờ br
Cũng có một đọc này; https://unix.stackexchange.com/questions/469346/link-aggregation-bonding-for-bandwidth-does-not-work-when-link-aggregation-gro
raitech avatar
lá cờ cn
cấu hình vswitch còn lại như mặc định: MTU 1500, hàm băm IP dựa trên tuyến đường. Tôi đã kiểm tra cấu hình với một Nic và tôi có thể nhận được toàn bộ băng thông 10Gb

Đăng câu trả lời

Hầu hết mọi người không hiểu rằng việc đặt nhiều câu hỏi sẽ mở ra cơ hội học hỏi và cải thiện mối quan hệ giữa các cá nhân. Ví dụ, trong các nghiên cứu của Alison, mặc dù mọi người có thể nhớ chính xác có bao nhiêu câu hỏi đã được đặt ra trong các cuộc trò chuyện của họ, nhưng họ không trực giác nhận ra mối liên hệ giữa câu hỏi và sự yêu thích. Qua bốn nghiên cứu, trong đó những người tham gia tự tham gia vào các cuộc trò chuyện hoặc đọc bản ghi lại các cuộc trò chuyện của người khác, mọi người có xu hướng không nhận ra rằng việc đặt câu hỏi sẽ ảnh hưởng—hoặc đã ảnh hưởng—mức độ thân thiện giữa những người đối thoại.