Cisco Nexus 9000
 

Cisco Nexus 9000 (N9K) to seria przełączników wykorzystująca Cisco Cloud Scale ASIC, która stosowana jest w centrach danych, środowiskach chmurowych, sieciach SAN, do łączenia serwerów i pamięci masowych oraz w miejscach, gdzie stosowane są wspomagane sztuczną inteligencją aplikacje, które wymieniają dużą ilość danych. 


 


W zależności od modelu, udostępniają porty Ethernet o prędkościach 100Mbps, 1Gbps, 10Gbps, 25Gbps, 40Gbps, 50Gbps, 100Gbps i 400Gbps oraz tak zwane Unified Ports (UP), gdzie oprócz technologii Ethernet obsługiwana jest technologia FC (Fibre Channel) z prędkością 4G, 8G, 16G i 32G.

Przełączniki te obsługują również rozszerzenia DCB (Data Center Bridging) dla technologii Ethernet, za sprawą których są w stanie udostępnić prawdziwą Converged Enhanced Ethernet (CEE) do obsługi takich technologii, jak między innymi RoCE (RDMA over Converged Ethernet) czy FCoE (FC over Ethernet).


Z wykorzystaniem Cisco Nexus 9000 możemy zbudować zarówno tradycyjną sieć, opartą na dobrze znanych protokołach i technologiach, jak i dwupoziomową Fabric na bazie architektury Clos (Spine and Leaf).

W obu przypadkach możemy skonfigurować wszystko ręcznie, skorzystać z wielu różnych narzędzi do automatyzacji lub z zewnętrznego kontrolera SDN (Software Defined Network).

Z rodziną Cisco Nexus 9000 powiązane są 3 różne systemy:

  • Cisco NX-OS: bardzo rozbudowany oraz otwarty do oprogramowania system operacyjny, który umożliwia elastyczną konfigurację, automatyzację i zarządzanie przełącznikami Cisco Nexus 9000.
  • Cisco ACI (Application Centric Infrastructure): gotowe rozwiązanie klasy SDN (Software Defined Network) "pod klucz" firmy Cisco Systems oparte na idei IBN (Intent-Based Networking).
  • Cisco DCNM (Data Center Network Manager): zapewnia automatyzację, zarządzanie, bardzo dużą widoczność, monitorowanie oraz kontrolę spójności na urządzeniach z systemem Cisco NX-OS.

Przełączniki te mogą działać w trybie NX-OS lub ACI. W trybie NX-OS mogą być obsługiwane z poziomu wbudowanego CLI, systemu zarządzania Cisco DCNM, poprzez NX-API (HTTPS), z użyciem NX-SDK (Python, Go i C++) oraz narzędzi do automatyzacji, jak Red Hat Ansible Automation, Chef, Puppet czy SlatStack.

Za pomocą NX-API można uzyskać dostęp do wszystkich funkcji, jakie udostępnia CLI (Command Line Interface), a przełączniki Cisco Nexus 9000 potrafią też obsługiwać kontenery.

W trybie ACI mogą być obsługiwane tylko z poziomu Cisco APIC (Application Policy Infrastructure Controller). Niemniej, zarządzanie kontrolerem Cisco APIC może być realizowane z poziomu CLI, WebUI oraz z użyciem API, SDK i różnych narzędzi do automatyzacji, jak m.in. Red Hat Ansibie Automation czy HashiCorp Terraform.


Tak duża elastyczność sprawia, iż możemy zarządzać każdym przełącznikiem niezależnie, skorzystać z gotowego rozwiązania "pod klucz" do scentralizowanego zarządzania, jakim jest Cisco ACI czy Cisco DCNM lub wykorzystać swój własny system SDN (Software Defined Network) czy rozwiązanie do automatyzacji i zarządzania.

Architektura ta jest na tyle otwarta, że nawet korzystając z Cisco ACI czy Cisco DCNM, możemy łatwo z użyciem API/SDK lub narzędzi do automatyzacji, jak Red Hat Ansible Automation, połączyć czy zintegrować wszystko z resztą już używanej infrastruktury i jej systemami zarządzania.


Jesteśmy partnerem Cisco Systems i za naszym pośrednictwem można zakupić ich rozwiązania na polskim rynku. Zainteresowanych zapraszamy do This email address is being protected from spambots. You need JavaScript enabled to view it.. Z nami masz pewność, że wszystko pochodzi z oficjalnego kanału.

Należy jednak pamiętać, że nie każdy ma czas na samodzielne tworzenie i potem dalsze utrzymywanie własnego systemu. Warto spojrzeć na to realnie i zastanowić się, czy na pewno znajdziemy na to czas.

Stworzenie systemu to zaledwie początek. Później będziemy musieli dbać o jego dalszy rozwój, testowanie, aktualizacje oraz integrację ze zmieniającym się oprogramowaniem różnych innych rozwiązań, a w niektórych środowiskach także certyfikacje w obszarze zgodności z różnymi normami bezpieczeństwa. Inna rzecz, że znalezienie specjalistów do obsługi rozwiązania, które powstało typowo pod nas "w garażu" naprawdę nie będzie łatwe.

 

Dlatego Cisco Systems udostępnia gotowe rozwiązanie SDN "pod klucz" do obsługi m.in. przełączników Cisco Nexus 9000 o nazwie Cisco ACI (Application Centric Infrastructure). Umożliwia ono scentralizowane zarządzanie siecią i powiązanymi z nią politykami zarówno w ramach infrastruktury fizycznej centrum danych, jak i tej wirtualnej, dostępnej w ramach różnych platform chmurowych.

Niemniej, nie jesteśmy do niczego zmuszani i możemy stosować własne rozwiązania do zarządzania i monitorowania. Platformy należące do rodziny Cisco Nexus 9000 wykorzystują otwarty system Cisco NX-OS oraz model danych YANG. Obsługują także protokół NETCONF i RESTCONF.



W ramach rodziny Cisco Nexus 9000 (N9K) dostępne jest kilka serii przełączników:

  • Cisco Nexus 9500 (przełącznik modularny, tryb NX-OS lub ACI),
  • Cisco Nexus 9300 (przełącznik o stałej budowie, tryb NX-OS lub ACI),
  • Cisco Nexus 9200 (przełącznik o stałej budowie, tryb NX-OS).
  • Cisco Nexus 9000v (przełącznik wirtualny, tryb NX-OS).

W ramach każdej z tych serii dostępne jest wiele różnych modeli przełączników, a czasem także dodatkowych komponentów, dlatego przed wyborem konkretnego przełącznika zapraszamy do bezpośredniego This email address is being protected from spambots. You need JavaScript enabled to view it. z nami.



Do przełączników Cisco Nexus 9000 można także dopinać urządzenia typu Fabric Extenders z serii Cisco Nexus 2000, które mogą pełnić funkcję wyniesionych modułów z dodatkowymi portami. W ten sposób można zbudować rozproszony systemu modułowy, który będzie łatwo rozszerzalny i zarządzany z jednego miejsca.

Dostępne w Cisco Nexus 9000 porty o dużych prędkościach mogą być rozszywane specjalnymi kablami na większą ilość portów o niższej prędkości. Sprawia to, że pojedyncze urządzenie jest w stanie obsługiwać bardzo dużą ilość urządzeń końcowych, jak serwery czy pamięci masowe.


O ile urządzenia różnych producentów posiadają różne systemy operacyjne i zestawy funkcjonalności, to zawsze są one ograniczone funkcjonalnie i wydajnościowo do tego, co potrafią ich wewnętrzne układy.

Powszechnie dostępne układy do obsługi i przetwarzania ruchu sieciowego nie są w stanie dostarczyć wszystkich funkcjonalności, jakie są dziś potrzebne w centrach danych. Dzisiejszym środowiskom aplikacyjnym nie wystarcza już prosta sieć, a wraz ze wzrostem ich ilości i złożoności, staje się to coraz bardziej odczuwalne i zauważalne.

Oczywiście Cisco Systems posiada w swojej ofercie też przełączniki oparte w całości na standardowych, stosowanych przez resztę producentów układach. Niemniej, jest jedynym producentem rozwiązań sieciowych, który wciąż inwestuje w tworzenie własnych układów scalonych. Dlatego w ofercie Cisco Systems można także znaleźć przełączniki oparte na ich własnym układzie, który potrafi zaoferować sporo więcej.


 

Cisco Cloud Scale ASIC (Application-Specific Integrated Circuit) wykorzyste 16 nanometrową (nm) technologię. Dzięki niej jest w stanie działać 50% szybciej od powszechnie stosowanych przez innych producentów, standardowych 28-nm układów. Dodatkowo, w układzie o tej samej wielkości Cisco Systems może zaoferować więcej pasma, większe tablice i bufory oraz obsługę sprzętową dużo większej ilości mechanizmów bezpieczeństwa i innych funkcjonalności.

Sprawia to, że ruch nie zwalnia nawet przy bardzo złożonych politykach aplikacyjnych.


Dzięki tym specjalistycznym układom, Cisco Nexus 9000 oferują większą wydajność przełączania ruchu tunelowego, który podlega na nich enkapsulacji i dekapsulacji. Odbywa się to w jednym obiegu, bez dodatkowej recyrkulacji czy ponownego przetwarzania pakietu po takim zabiegu.

Układ jest w stanie zerknąć od razu do nagłówka zewnętrznego i wewnętrznego, a następnie podjąć decyzję o dalszym losie pakietu, czyli jego ewentualnej dekapsulacji i przekazaniu dalej. Potrafi też od razu określić miejsce docelowe i na tej podstawie podjąć decyzję związaną z tym, czy trzeba dokonać enkapsulacji, czy też nie.

Standardowe układy nie potrafią podjąć takich decyzji w jednym obiegu. Po zrealizowaniu enkapsulacji lub dekapsulacji, realizowana jest recyrkulacja i pakiet przetwarzany jest drugi raz. Dlatego w przypadku innych rozwiązań, obsługa sieci nakładkowych (ang. overlays) powiązana jest ze spadkiem wydajności czy ilości obsługiwanych pakietów na sekundę.


Sieć nakładkowa, to logiczna sieć, która działa na podwalinie innej sieci, zwanej siecią podkładową (ang. Underlay Network) lub siecią transportową. Tą inną siecią jest infrastruktura bazowa w ramach której tworzy się wiele różnych sieci nakładowych o różnych topologiach. Każda dla innej organizacji, klienta, działu czy też specyficznej aplikacji.

Wszystkie one współdzielą jedną fizyczna sieć. Sieci nakładkowe są w stanie rozciągnąć VLAN nawet poza granicę wielu domen L3. Umożliwia to budowanie bardzo skalowalnych oraz elastycznych topologii L3 sieci bazowej, z możliwością zapewnienia widoczności na poziomie L2. Dzięki temu możliwa jest wygodna migracja zasobów wirtualnych czy systemów pomiędzy serwerami znajdującymi się nawet w różnych lokalizacjach czy centrach danych. Taka migracja nie wymaga żadnych zmian w adresacji IP, dzięki czemu też nie wymusza na nas zmiany certyfikatów, modyfikacji w bazach danych, serwerach nazw czy innych, powiązanych aplikacjach.

Dzięki sieciom nakładkowym domeny L2 da się w kontrolowany i skalowalny sposób rozciągać w ramach całej sieci podkładowej, co nazywane jest makro segmentacją. Zwykła segmentacja wykorzystuje VLAN.

Zastosowanie Cisco Cloud Scale ASIC sprawia, że do budowy sieci nakładowych nie musimy wybierać urządzeń o dwukrotnie większej wydajności, niż zakładany ruch.
Modele przełączników Cisco Nexus 9000 o stałej budowie obsługiwane są przez pojedynczy układ w architekturze SOC (Switch On Chip), a modularne przez wiele takich układów w architekturze Clos (Spine & Leaf).
Cisco Nexus 9000 obsługują także mikro segmentację. Do tego celu wymagana jest ich integracja z Cisco ACI. Mikro segmentacja zapewnia możliwość kontrolowania ruchu pomiędzy systemami czy aplikacjami pracującymi w tej samej sieci logicznej. Dzięki temu możemy kontrolować ruch wymieniany nawet pomiędzy maszynami wirtualnymi, serwerami, systemami czy aplikacjami pracującymi w jednym VLAN i tej samej podsieci. Pozwala to wygodnie różnicować rodzaj wymienianego pomiędzy nimi ruchu i izolować podejrzane aplikacje.

Jesteśmy partnerem Cisco Systems i za naszym pośrednictwem można zakupić ich rozwiązania na polskim rynku. Zainteresowanych zapraszamy do This email address is being protected from spambots. You need JavaScript enabled to view it.. Z nami masz pewność, że wszystko pochodzi z oficjalnego kanału.

Cisco Nexus 9000 obsługują także MACsec i Cisco CloudSec do szyfrowania AES-256 z pełną prędkością portu. MACsec opisany w IEEE 802.1AE realizuje szyfrowanie pomiędzy dwoma bezpośrednio połączonymi urządzeniami, podczas gdy Cisco CloudSec umożliwia szyfrowanie danych na odległość, pomiędzy oddalonymi od siebie przełącznika terminującymi tunele VXLAN (szyfrowanie VTEP-to-VTEP).
 

Cisco CloudSec umożliwia obsługę wydajnych i bezpiecznych połączeń DCI (Data Center Interconnect) z obsługą CIA (Confidentiality, Integrity and Availability), pomiędzy różnymi centrami danych, lokalizacjami czy strefami awarii.

Warto też zwrócić uwagę na obsługę inteligentnych buforów. Cisco Cloud Scale ASIC potrafi zapewnić odpowiednią ich obsługę zarówno dla skrajnie dużych i długich przepływów (ang. elephant flows), jak i tych mniejszych czy krótszych (ang. mice flows). Dotyczy to nawet ich wspólnej koegzystencji w tym samym czasie.

Elephant Flows powiązane są z transmisja bardzo dużej ilości danych. Najczęściej za nie odpowiadają zadania kopii zapasowych, migracje maszyn wirtualnych czy procesy synchronizujące okresowo duże ilości danych. O ile takich transmisji jest zwykle niewiele, to zużywają one większość pasma.

Mice Flows powiązane są z transmisja niewielkiej ilości danych. Najczęściej za nie odpowiadają różne zapytania i odpowiedzi wymieniane pomiędzy aplikacjami. W takich przepływach wymieniana jest bardzo niewielka ilość pakietów, skutkiem czego wykrycie zgubionego pakietu i jego ponowna retransmisja jest realizowana o wiele wolniej. Najczęściej wymaga to minięcia licznika RTO (Retransmission Timeout) w TCP. Dodatkowo, zgubienie pakietu TCP powoduje chwilowe zmniejszenie rozmiarów okien, skutkiem których chwilowo zwalnia transmisja. Stąd zgubienie nawet pojedynczego pakietu może mieć tutaj diametralny wpływ na całościową wydajność działania aplikacji.

Dlatego w trakcie wzrostu obciążenia sieci, Mice Flows powinny być dodatkowo chronione zarówno przed zgubieniem pojedynczego pakietu, jak i wzrostem opóźnień. Inteligentne bufory w Cisco Cloud Scale ASIC potrafią to robić bez niepotrzebnego zwiększania rozmiaru buforów, skutkiem którego dodatkowo rosną opóźnienia.

Inteligentne zarządzanie buforami w Cisco Cloud Scale ASIC pozwala zapewnić odpowiednią jakość obsługi dla Mice i Elephant Flows, nawet przy 100% wysyceniu łącz.

Układ ten stosuje do tego celu AFD (Approximate Fair Dropping) z obsługą ETRAP (Elephant Trap) i/lub DPP (Dynamic Packet Proritization) oraz DBP (Dynamic Buffer Protection).

AFD (Approximate Fair Dropping) dba o przestrzeń w buforach do obsługi Mice Flows, biorąc pod uwagę także ich chwilowe skoki (ang. microburst) oraz sprawiedliwy podział pasma pomiędzy Elephant Flows. Mechanizm ten również wyklucza Mice Flows z obsługi przez algorytmy unikania przeciążeń (Congestion Avoidance), które stosują wcześniejsze odrzucanie pakietów lub powiadomienia.
 

AFD wykorzystuje ETRAP (Elephant Trap), który bada przepływy na portach wejściowych i na podstawie ich aktywności klasyfikuje je na Mice Flows lub Elephant Flows. AFD z ETAP zwraca uwagę na ilość bajtów przesłanych w ramach przepływu. Mierzona na wejściu aktywność przepływów, pomaga w odpowiedniej alokacji buforów wyjściowych czy też w przypadku Elephant Flows, w aktywacji dla nich algorytmów zapobiegania przeciążeniom.
 
Algorytmy te są w stanie odrzucać pojedyncze pakiety ruchu powiązanego z przepływem, który przekracza wyliczone granice sprawiedliwego podziału pasma. Im bardziej przekraczana jest granica, tym większe staje się prawdopodobieństwo odrzucenia w takim Elephant Flow pakietu. Bez AFD taka obsługa realizowana byłaby per cała klasa ruchu, bez świadomości czy podziału w ramach takiej klasy na Mice i Elephant Flows.

AFD obsługuje także mechanizm unikania przeciążeń ECN (Explicit Congestion Notification), który zapewnia jawne powiadomienie obu stron o przeciążeniu. AFD z ECN oznacza ruch kierowany do odbiorcy wartością CE (Congestion Experienced) w polu DSCP/Traffic Class nagłówka IP. Dzięki temu, odbiorca wie że dochodzi do przeciążenia i ustawia flagę ECN-echo (ECE) w nagłówku TCP dla ruchu, jaki jest generowany w odpowiedzi do nadawcy.
 

Nadawca widząc flagę ECE wie, że powinien zwolnić swoją transmisję czy inaczej zmniejszyć rozmiar okna przesuwnego CWDN (Congestion Window) dla tego połączenia. Dodatkowo, po zmniejszeniu rozmiaru okna CWDN nadawca sygnalizuje to w stronę odbiorcy z użyciem flagi CWR (Congestion Windows Reduced). Kiedy odbiorca odbierze segment TCP z flagą CWR, przestaje ustawiać flagę ECE w segmentach TCP generowanych do nadawcy. Dzięki obsłudze ECN można delikatniej, bez odrzucania pakietów reagować na przeciążenia w sieci.

DPP (Dynamic Packet Proritization) zapewnia dynamiczną separację Mice i Elephant Flows w ramach tej samej klasy ruchu z użyciem oddzielnych kolejek. Daje to możliwość priorytetowej obsługi Mice Flows z użyciem LLQ (Low Latency Queue), podczas gdy Elephant Flows mogą być obsługiwane przez WFQ (Weighted Fair Queue). Bez DPP nie jest to możliwej, jako iż ruch w ramach tej samej klasy jest traktowany tak samo.
 

W tym celu DPP analizuje przepływy na porcie wejściowym, dzieląc je na Mice i Elephant Flows. DPP wykorzystuje do tego ilość przesłanych pakietów. W ten sposób już na wejściu Mice Flows grupowane są w ramach Mice QoS Group, a Elephant Flows w ramach QoS Group powiązanej z oryginalną klasą ruchu, do której należy przepływ. Dzięki temu na wyjściu, dla każdej z tych QoS Group można aplikować różne mechanizmy obsługi czy traktowania ruchu.

AFD i DPP można wykorzystywać niezależnie, jak i razem. Najlepszy efekt osiągniemy, kiedy będą one działać razem dla danej klasy ruchu. W ten sposób DPP jest w stanie zapewnić priorytetową obsługę dla wszystkich nowych połączeń i Mice Flows, a wewnętrznie w ramach oryginalnych klasy ruchu może działać dodatkowo AFD, dbający o odpowiednie rozmiary buforów i obsługę unikania lub zapobiegania przeciążeń dla wszystkich przepływów.

Jesteśmy partnerem Cisco Systems i za naszym pośrednictwem można zakupić ich rozwiązania na polskim rynku. Zainteresowanych zapraszamy do This email address is being protected from spambots. You need JavaScript enabled to view it.. Z nami masz pewność, że wszystko pochodzi z oficjalnego kanału.

DBP (Dynamic Buffer Protection) zapewnia kontrolę alokacji buforów w ramach jednej współdzielonej pamięci. Kontrola ta realizowana jest w sposób dynamiczny, na podstawie ilości wolnej w danej chwili pamięci i konfigurowalnego stopnia agresywności. DBP wylicza dla każdej z kolejek maksymalną wartość progową.

W ten sposób dostępna pamięć współdzielona może być bardzie wykorzystywana przez przepływ, w ramach którego realizowana jest transmisja bardzo dużej ilości danych, ale tylko do momentu, kiedy nie będzie ona potrzebna innym przepływom. Jeżeli się one pojawią, DBP stara się sprawiedliwie udostępnić każdemu przepływowi minimum to, co się mu należy. Reszta wolnej pamięci jest dostępna dla pozostałych według konfigurowalnego stopnia agresywności.

W niektórych scenariuszach jest lepiej nie otrzymać pakietu w ogóle, niż otrzymać go z większym opóźnieniem, które to może być powiązane ze zwiększeniem buforów. Dlatego jeżeli z jakiś powodów jest to niepożądane, to stopień agresywności można ustawić tak, by nie dało się wykorzystywać więcej, niż nam przysługuje.

Cisco Cloud Scale Hardware Telemetry udostępnia bardzo dużą widoczność. Potrafi analizować i wyłapywać z ruchu dużą ilość danych telemetrycznych z pełną prędkością portu, bez żadnego dodatkowego obciążenia dla CPU.

Dane te mogą być eksportowane do dalszej analizy i wizualizacji do zewnętrznego kolektora, jak Cisco Stealthwatch, Cisco Secure Workload (dawne Cisco Tetration) czy Cisco Nexus Insights (dawne Cisco Network Insights).

Cisco Nexus 9000 z Cisco Cloud Scale ASIC udostępnia informacje o przepływach z Data Plane oraz dane statystyczne bezpośrednio z układu ASIC. Informacje te dostarczane są z użyciem FTFTE i SSX.
 
FT (Flow Table) dostarcza pełne informacje o przepływach wraz z ich metadanymi.
 
 
 
Przełączniki Cisco Nexus 9000 obsługują także pełny Flexible NetFlow z obsługę eksportu danych do CPU przełącznika lub zewnętrznego kolektora danych NetFlow.
 
FTE (Flow Table Events) wyłapuje podobne informacje, jak FT. Różnicą jest to, iż wyłapuje stosowne dane tylko w trakcie zajścia konkretnego zdarzenia, jak dla przykładu przekroczenie progu odrzuconych pakietów na porcie lub w kolejce czy odebraniu pakietu z określoną wartością TTL.
 
 
Dane statystyczne z układu ASIC, jak m.in. statystyki z interfejsów, buforów i kolejek są przesyłane strumieniowo (ang. streaming) z użyciem funkcjonalności SSX (Streaming Statistics Export).

Cisco Cloud Scale ASIC udostępnia elastyczną alokację przestrzeni dla dostępnych tablic, które wykorzystywane są do obsługi ruchu L2, L3, Multicast, funkcji bezpieczeństwa i wielu innych funkcjonalności. W ten sposób mogą zostać one lepiej dostosowane do danego wdrożenia czy zastosowania.

Została także w nich usprawniona obsługa ruchu multicast. Dodatkowa przestrzeń do obsługi tego ruchu jest współdzielona przez wszystkie porty. Dzięki temu nie jest potrzebna replikacja jednego pakietu do wielu buforów. Jedna kopia może zostać odczytana przez wszystkie zainteresowane nią porty.

Cisco Nexus 9000 obsługują dwie metody sprzętowego rozkładu obciążenia w ramach dostępnych tras:
  • ECMP (Equal-Cost Multipath), który statycznie na bazie wyniku funkcji mieszającej, wykorzystującej wybrane pola nagłówków do rozkładu ruch na dostępne trasy,
  • DLB (Dynamic Load-Balancing), który bierze dodatkowo pod uwagę wysycenie łącz, stąd rozkład ruchu na dostępne trasy realizowany jest bardziej dynamicznie.
DLB zapewnia dostarczanie pakietów w tej samej kolejności, w jakiej są one generowane. Metoda ta jest świadoma opóźnień występujących w sieci oraz przerw w ruchu. W ten sposób, wznowiony po krótkiej przerwie ruch danego przepływu, jest umieszczany na mniej obciążonym łączu. Jest to coś pomiędzy rozkładem obciążenia per pakiet, które niestety nie gwarantuje dostarczania pakietów w kolejności ich wysłania (jest to problematyczne dla komunikujących się ze sobą stron), a per przepływ, które niestety nie gwarantuje równomiernego wysycenia łącz.

Dzięki DLB możemy skorzystać z zalety obu metod, co sprawia, że możemy zapewnić równomierne wysycenie łącz i gwarancję dostarczenia pakietów w kolejności ich wysłania.

Cisco Nexus 9000 obsługują MPLS (Multiprotocol Label Swtiching) oraz rozszerzenie Segment Routing dla MPLS (SR-MPLS). Dzięki SR-MPLS są w stanie realizować sterowanie ruchem w o wiele prostszy i bardziej skalowalny sposób, bez potrzeby stosowania RSVP (Resource Reservation Protocol) i MPLS TE (Traffic Engineering).

Nadawanie i produkcja telewizyjna oraz studia emisyjne czy produkcyjne do niedawna, do transmisji audio i wideo stosowały tylko infrastrukturę opartą o SDI (Serial Digital Interface). Kable SDI umożliwiają transmisję tylko pojedynczego sygnału i tylko w pojedynczym kierunku. Stąd infrastruktura SDI wykorzystywała bardzo dużą ilość, często bardzo długich kabli, co z czasem stawało się trudne w utrzymaniu i modyfikacji.

IP Fabric for Media czy inaczej PMN (Professional Media Network) to zestaw standardów, umożliwiający zastąpienie infrastruktury SDI, infrastrukturą IP. Do głównych standardów z tego obszaru należy m.in. Society of Motion Picture and Television Engineers (SMPTE) 2022-6, 2022-7, 2059-2 i 2110.
 

Cisco Nexus 9000 są w stanie obsługiwać najnowsze standardy transmisji wideo, jak m.in. 4K i 8K ultra HD czy zapewnić bardzo niskie opóźnienia i stałe odchyły czasowe dla transmisji powiązanych z emisją i produkcją medialną.

Do transmisji medialnej stosowany jest multicast. Tradycyjny protokół PIM (Protocol Independent Multicast) nie bierze pod uwagę prędkości łącz. Rozkłada on ruch multicast z wykorzystaniem funkcji mieszającej, co może doprowadzić do umieszczenia zbyt dużej ilości strumieni na jednym łączu. Należy pamiętać, iż w transmisji medialnej często ruch audio i wideo transmitowany jest bez żadnej kompresji, stąd tym bardziej łatwo do tego doprowadzić.

Dzięki Cisco NBM (Non-Blocking Multicast) możliwy jest rozkład obciążenia ruchu multicast z uwzględnieniem dostępnych prędkości łącz. Po aktywacji NBM protokół PIM staje się świadomy dostępnych przepustowości i rozkłada ruch bardziej inteligentnie, co umożliwia utrzymanie bardzo dobrej jakości przy wielu równoczesnych transmisjach.

Przełączniki te obsługują też technologię vPC (Virtual Port-Channel), dzięki której para takich przełączników może być widoczna z punktu innych urządzeń jak jeden przełącznik. Pozwala to im agregować w ramach jednej wiązki Port-Channel połączenia, które idą do obydwóch przełączników, pracujących w ramach vPC. Dzięki temu nawet całkowita awaria czy wyłączenie pojedynczego przełącznika nie powoduje utraty połączenia do sieci.

Dodatkowo przełączniki modularne Cisco Nexus 9500 z dwiema kartami Supervisor obsługują ISSU (In-Service Software Upgrade), NSF (NonStop Forwarding) i SSO (Stateful SwitchOver).

Przełączniki Cisco Nexus 9000 obsługują również wiele innych technologii i protokołów, jak m.in. IPv4, IPv6, BFD, RIP, OSFP, EIGRP, IS-IS, BGP, PBR (Policy Based Routing), IP SLA, PIM-SM, SSM, MSDP, IGMP, MLD, DCB, PFC, ETS, DCBX, ECN, RSTP, MSTP, BPDU Guard, BPDU Filtering, Loop Guard, Root Guard, Bridge Assurance, NAT, HSRP, VRRP, SPAN, ER-SPAN, RADIUS, TACACS+, DHCP, IPv6/IPv4 FHS (First Hop Security), DAI (Dynamic ARP Inspection), IPSG (IP Source Guard), Port Security, uRPF (Unifcast RPF), CCP (Control-Plane Policing, ACLs, NTP, PTP, CDP, LLDP, SNMP, RMON, NetFlow, sFlow, PnP (Network Plug and Play), POAP (PowerOn Auto Provisioning), MPLS, MPLS VPN, VTP, VLAN, Trunk, Private VLAN, Q-in-Q, VXLAN, EtherChannel, LACP, Traffic Storm Control, Flex Links, QoS czy też różne funkcjonalności specyficzne dla technologii FC czy FCoE.

Nie sposób wszystkiego wymienić, dlatego zapraszamy w tym obszarze do This email address is being protected from spambots. You need JavaScript enabled to view it..

Na rynku jest zbyt dużo sprzętu z szarego kanału, stąd koniecznie sprawdzaj, czy firma sprzedająca produkty Cisco Systems jest na 100% jej partnerem handlowym. Sprawdzić można to w Cisco Partner Locator, gdzie też jesteśmy.

Zapraszamy do kontaktu drogą mailową This email address is being protected from spambots. You need JavaScript enabled to view it. lub telefonicznie +48 797 004 932