CISCO NEXUS 9516 DATA CENTRE

Thử nghiệm của chúng tôi về Cisco Nexus 9516 với 1024 cổng Ethernet đã được nạp đầy đủ 50G – kiểm tra chuyển mạch lõi mật độ cao nhất đã từng được thực hiện bởi Network World – cho thấy nó có khả năng xử lý không đánh rơi bất cứ gói tin nào.

Có bao nhiêu cổng tại lõi của trung tâm dữ liệu? 1.024 cổng sẽ trông như thế nào?

Đó là cấu hình chúng tôi đã sử dụng để đánh giá chuyển đổi lõi của trung tâm dữ liệu Nexus 9516 của Cisco Systems. Trong bài kiểm tra Clear Choice độc ​​quyền này, chúng tôi đánh giá việc chuyển đổi lõi trung tâm dữ liệu của Cisco với hơn 1.000 cổng Ethernet 50G. Điều đó làm cho điều này trở thành bài kiểm tra 50G lớn nhất, và đó là bài kiểm tra chuyển mạch mật độ cao nhất mà Network World đã từng xuất bản.

Như tên của nó cho thấy, Nexus 9516 chấp nhận tối đa 16 thẻ dòng N9K-X9732C-EX, được xây dựng xung quanh các ASIC của Cisco về đám mây. Những con chip tốc độ cao này có thể chạy với tốc độ 100G, lên tới 512 cổng và tốc độ 25G hoặc 50G cho 1.024 cổng. Chúng tôi đã chọn tốc độ 50G và hợp tác với nhà cung cấp kiểm tra và đo lường Spirent Communications để tải toàn bộ kiểm soát và máy bay dữ liệu của switch.

Kết quả thật đáng kinh ngạc. Trong số những điểm chính:

  • Đường truyền tốc độ trong các kiểm tra liên quan đến giao thức IPv4, IPv6 và multicast
  • Hỗ trợ hơn 1 triệu IPv4 và 1 triệu đường IPv6
  • Hỗ trợ cho 10.000 nhóm multicast IP và 10,2 triệu tuyến multicast. Cả hai con số đều là những mức cao nhất đạt được trong kiểm thử đa hướng của một hệ thống đơn lẻ
  • Điện năng tiêu thụ từ 13-22 watt trên mỗi cổng

Hiệu suất có thể mở rộng rất cao. Bộ chuyển mạch Cisco chuyển tiếp mỗi khung đơn mà chúng tôi đã ném vào nó trong mỗi bài kiểm tra và không bao giờ giảm dù chỉ một.

Một triệu tuyến đường

Các bài kiểm tra chuyển đổi thường liên quan đến việc tải lên máy bay dữ liệu với lưu lượng truy cập, và chúng tôi đã làm điều đó, nhưng chúng tôi không dừng lại ở đó. Bên cạnh việc làm vỡ bộ chuyển đổi fabric với IPv4 unicast, IPv6 unicast, và IPv4 multicast với tốc độ dòng tất cả trên 1024 cổng 50G Ethernet, chúng tôi cũng được nạp đầy đủ máy bay kiểm soát của switch với định tuyến trạng thái – rất nhiều định tuyến trạng thái.

Trong các bài kiểm tra Unicast IPv4 và IPv6, chúng tôi đã cho phép Border Gateway Protocol (BGP) – bây giờ là một sự lựa chọn thông thường ngay cả trong các trung tâm dữ liệu lớn – và đã quảng cáo hơn 1 triệu tuyến đường duy nhất, cả trong các kiểm tra IPv4 và IPv6.

Để hiểu được một triệu tuyến đường đại diện, hãy xem xét rằng toàn bộ Internet công cộng bao gồm, theo văn bản này, khoảng 671.000 đường IPv4 và 40.000 đường IPv6. Do đó, Nexus 9516 có thể định tuyến lưu lượng truy cập đến mọi mạng, có thể truy cập được trên Internet công cộng và vẫn còn rất nhiều khoảng trống còn lại.

Trong sự công bằng, Nexus 9516 là một bộ chuyển mạch trung tâm dữ liệu chứ không phải là bộ định tuyến lõi. Loại thứ hai thường liên lạc với nhiều cặp BGP, mỗi cái có một cái nhìn khác nhau về Internet, kết quả là bảng định tuyến máy bay điều khiển lớn hơn nhiều được gọi là Cơ sở thông tin định tuyến (RIB).

Nhưng các loại router cũng chỉ cài đặt một tuyến đường tối ưu cho một đích đến vào phần cứng, được gọi là cơ sở thông tin chuyển tiếp (FIB). Trong thử nghiệm này, thiết bị Cisco đã cài đặt hơn 1 triệu mục nhập độc nhất vào phần cứng FIB của nó, và sau đó, trên máy bay dữ liệu, chuyển tiếp lưu lượng truy cập ở tốc độ đường tới mọi tuyến.

Điều này rất có ý nghĩa bởi vì các kiến ​​trúc sư của trung tâm dữ liệu ngày càng sử dụng BGP thường xuyên hơn, chứ không phải là giao thức gateway bên trong, không chỉ cho kết nối toàn cầu mà còn để đạt được số lượng lớn các máy chủ lưu trữ dữ liệu trung tâm. Trong các trung tâm dữ liệu lớn nhất, chẳng hạn như các trung tâm dữ liệu và các công ty viễn thông, BGP có thể là sự lựa chọn ổn định nhất và dễ dàng nhất để khắc phục khi sự cố xảy ra.

Để kiểm tra khả năng chuyển mạch unicast, chúng tôi đã sử dụng máy phát/máy phân tích lưu lượng Spirent TestCenter để phá vỡ lưu lượng IPv4 và IPv6 theo mô hình lưới hoàn toàn, cách căng thẳng nhất để tải bộ chuyển đổi fabric. Chúng tôi đã cung cấp lưu lượng truy cập cho tất cả 1.024 cổng . Vào cuối mỗi bài kiểm tra, chúng tôi đo được thông lượng, độ trễ, và jitter cho mỗi trong tám kích thước khung.

Trong thử nghiệm chuyển mạch, thông lượng có ý nghĩa cụ thể: Đây là tỷ lệ cao nhất mà ở đó chuyển đổi chuyển tiếp tất cả lưu lượng truy cập được cung cấp mà không cần giảm một khung đơn. Đối với Nexus 9516, thông lượng báo cáo rất dễ: Luôn luôn di chuyển lưu lượng truy cập ở tốc độ đường truyền, bất kể kích thước khung hình. Như bảng kết quả thử nghiệm cho thấy, chuyển đổi Cisco không bao giờ bỏ một khung duy nhất trong bất kỳ kiểm tra nào của chúng tôi.

Chúng ta nên lưu ý rằng chúng tôi đã tắt tất cả các dịch vụ không cần thiết để tải toàn bộ chuyển đổi fabric với lưu lượng truy cập thử nghiệm. Các giao thức này bao gồm các giao thức mà chúng tôi không sử dụng, như ICMP (Internet Control Message Protocol), là một phần quan trọng của IPv4 và đặc biệt là hoạt động của IPv6 trong các mạng sản xuất. Chúng tôi cũng đã vô hiệu hóa dịch vụ chẩn đoán nội bộ mà Nexus chuyển sang sử dụng để kiểm tra sức khỏe các thành phần hệ thống (sử dụng lệnh “no diagnostic monitor module <slot #> test all”), được tiếp xúc với người dùng. Các khung duy nhất trên dây trong các bài kiểm tra của chúng tôi là lưu lượng kiểm tra, lưu giữ BGP và các thông điệp TCP ACK.

Một số người có thể khẳng định một cách chính xác rằng đây không phải là cách tiếp cận “thế giới thực”, nhưng khiếu nại đó bỏ qua điểm kiểm tra chuẩn. Như được mô tả trong RFC 2544, phương pháp chuẩn về tiêu chuẩn công nghiệp cho việc kiểm tra hiệu năng thiết bị mạng, lưu lượng không nhất thiết phải bị vô hiệu hóa để tạo đường cho lưu lượng kiểm tra.

Mục tiêu của chúng tôi là mô tả các đặc tính chuyển tiếp và mức độ chậm trễ của thiết bị Cisco trong điều kiện trường hợp xấu nhất (xem phần bên dưới về cách chúng tôi thực hiện). Việc nhân rộng một số định nghĩa về điều kiện thực tế sẽ không làm gì lúc này bởi vì không có định nghĩa nào về thuật ngữ và cũng vì việc phát lại lưu lượng sản xuất sẽ không tải toàn bộ chuyển đổi. Một điểm chuẩn tốt phải mang lại sức ép, và các bài kiểm tra này tạo ra những điều kiện lưu thông căng thẳng nhất.

Chúng tôi cũng đo độ trễ và jitter (biến thể độ trễ), các chỉ số này còn quan trọng hơn việc truyền tải các ứng dụng nhạy cảm với độ trễ như cuộc gọi thoại và video. Một số máy tính hiệu năng cao và các ứng dụng thương mại tần số cao cũng rất nhạy cảm với độ trễ và jitter.

RFC 2544 cũng yêu cầu độ trễ được đo ở, và chỉ ở, tốc độ truyền dữ liệu, và đó là những gì chúng tôi đã làm ở đây. Thời gian trễ trung bình ít hơn 4 micro giây (μsec) trong tất cả các trường hợp, và độ trễ tối đa thấp hơn 6 μsec trừ một trường hợp (xem Bảng 1 một lần nữa). Ngoại lệ duy nhất là lưu lượng IPv6 với khung 1518 byte.

Trên mặt của nó, độ trễ trong một vài giây duy nhất có vẻ như không ảnh hưởng đến hiệu suất của ứng dụng, vì nó thường mất vài mili giây chậm trễ trước khi người dùng nhận thấy một điều gì đó không chính xác.

Tuy nhiên, chúng ta nên lưu ý rằng ở tốc độ 50G, chỉ mất khoảng 100 nano giây để đặt một khung 64 byte trên dây, và chỉ khoảng 1,5 μsec để chèn khung khung jumbo dài 9,216 byte. Tại sao, sau đó, sự chậm trễ lại xảy ra nhiều hơn?

Như đã nói, chúng tôi đã thiết kế thử nghiệm để có thể chịu sức ép tối đa khi chuyển đổi. Ngoài việc sử dụng các dạng lưu lượng truy cập căng thẳng nhất, chúng tôi cũng đã sử dụng các giao thức định tuyến động trong cả hai bài kiểm tra unicast và multicast.

Các giao thức này làm tăng thêm lưu lượng truy cập, chẳng hạn như tin nhắn giữ BGP mỗi 30 giây trên mỗi cổng 1.024. Nó không nhiều, nhưng cho rằng đường ống đã được lấp đủ bởi lưu lượng truy cập thử nghiệm, có nghĩa là có những tình huống mà ít nhất hai khung sẽ đến cùng một cổng đích tại cùng một thời điểm. Điều này buộc việc chuyển sang bộ đệm ở ít nhất một trong các khung, tăng độ trễ và jitter. Với thời gian thử nghiệm đủ dài (chúng tôi chạy tất cả các lần lặp kiểm tra trong 5 phút), độ trễ và jitter có thể tăng cao hơn số lý thuyết tối thiểu. Chúng tôi không xem xét độ trễ trong các đơn vị thời gian nhỏ là vấn đề, thậm chí ở tốc độ Ethernet 50G.

Multicast: Vươn lên những tầm cao mới

Không phải tất cả các doanh nghiệp đều sử dụng IP multicast, nhưng đối với những người có khả năng mở rộng là mối quan tâm chính. Trong các ngành công nghiệp nhất định, chẳng hạn như kinh doanh tài chính và truyền hình cáp, phân phối nhanh đến nhiều người sử dụng là rất quan trọng, và đại diện cho hàng tỷ đô la doanh thu.

Thử nghiệm này đã phá vỡ nền tảng mới cho multicast ít nhất ba lần. Chúng tôi đã thử nghiệm với 10.000 địa chỉ nhóm multicast IPv4 duy nhất, gần gấp đôi so với bất kỳ dự án Network World nào trước đó. Hơn nữa, chúng tôi cấu hình chuyển đổi để nhân rộng lưu lượng multicast đến 1.023 cổng ở một bản ghi khác. Và cuối cùng, bởi vì Cisco đã sử dụng định tuyến multicast để chuyển tiếp lưu lượng truy cập, nó đã phải xây dựng một bảng định tuyến với 10,2 triệu mục duy nhất (10.000 nhóm lần 1.023 cảng đích). Tất cả những thuộc tính này đã làm cho điều này trở thành thử nghiệm nhóm multicast quy mô lớn nhất mà chúng tôi từng cố gắng.

Để đo hiệu suất của nhóm multicast, chúng tôi đã cấu hình công cụ kiểm tra Spirent để mô phỏng các máy thu đa kênh trên 1.023 trong tổng số 1.024 cổng. Mỗi người nhận gia nhập cùng một nhóm 10.000 multicast. Sau đó, chúng tôi đã xác minh rằng switch đã xây dựng đúng bảng multicast với 1.023 cổng thuê bao và 10,2 triệu tuyến multicast (mroutes) duy nhất. Cuối cùng, chúng tôi đã có dụng cụ Spirent cung cấp lưu lượng multicast đến một cổng, dành cho tất cả các địa chỉ nhóm, buộc chuyển đổi để nhân rộng mọi khung đầu vào 1.023 lần.

Như trong các bài kiểm tra unicast, chúng tôi đo được thông lượng, độ trễ, và jitter cho một trong tám kích thước khung. Đối với thông lượng multicast, chuyển đổi luôn luôn chạy ở tốc độ đường cho mỗi kích thước khung và không bao giờ bỏ một khung đơn trong bất kỳ cuộc kiểm tra sức ép năm phút nào của chúng tôi (xem bảng kết quả, ở trên, một lần nữa).

Độ trễ và độ rung thấp và không đổi so với kích thước khung. Trên thực tế, cả hai chỉ số đều thấp hơn đáng kể so với các phép đo tương tự đối với lưu lượng unicast, tối đa là 2μsec. Một phần là vì tính chất điểm – đa điểm của multicast ít căng thẳng hơn đối với fabric chuyển mạch so với mô hình lưu lượng truy cập đầy đủ trong các bài kiểm tra unicast.

Tuy nhiên, cần lưu ý rằng độ trễ cực đại cao nhất ghi lại trong các bài kiểm tra multicast – 4.085 μsec, với khung 1,518 byte – thấp hơn khoảng 32 phần trăm so với số lượng cao nhất từ ​​các bài kiểm tra unicast IPv4 (thời gian chờ tối đa 6.21 microseconds, một lần nữa với các khung hình 1.518 byte).

Sự khác biệt trong jitter multicast thậm chí còn lớn hơn. Ở đây, kết quả jitter tối đa của trường hợp xấu nhất (345 nano giây với khung 64 byte) nhỏ hơn gấp tám lần so với trường hợp jitter tối đa cho tình trạng lưu lượng unicast IPv4 (2.853 μsec với khung 1,518 byte).

Đơn giản chỉ cần đặt thời gian trễ multicast và jitter quá thấp với Cisco Nexus 9516 – thậm chí ở quy mô chưa từng thấy – tác động đến lưu lượng truy cập ứng dụng sẽ không đáng kể.

Tiêu thụ điện: Một Switch tiết kiệm hơn

Thử nghiệm cuối cùng của chúng tôi đo lượng điện mà switch cần khi được trang bị nhiều cổng. Sử dụng hai nguồn cung cấp năng lượng của thiết bị, chúng tôi đo vẽ hiện tại khi nhàn rỗi và khi xử lý các khung hình 64, 1518 và 9216 byte ở tốc độ đường truyền, sử dụng các thông số tương tự như trong các bài kiểm tra unicast IPv4.

Sau khi xác định rằng các thiết bị Cisco thống nhất nạp điện chia sẻ trên tất cả 10 nguồn điện, chúng tôi đã có thể đo được hai nguồn điện và nhân lên năm để có được tổng số watt.

Điện năng tiêu thụ dao động từ khoảng 13,7 kilowatts khi nhàn rỗi đến tối đa là 22,5 kW khi nạp đầy các khung 64 byte (xem Bảng Tiêu thụ Điện năng). Khung ngắn sử dụng nhiều năng lượng hơn vì chúng tạo ra nhiều chuyển đổi trạng thái điện hơn; tốc độ khung hình càng cao, điện thế càng cao. Việc sử dụng điện cho các khung 1518 và 9216-byte, khoảng 15 kW, gần với con số nhàn rỗi hơn so với công suất với khung ngắn.

 

(Nguồn: Tổng hợp)

Anh Tuấn

Comments

comments