Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


06.12.2018

Niższe moce

UPS Eaton 9SX
03.12.2018

Monitory dla MŚP

AOC E1
29.11.2018

Wykrycie szkodliwego...

Sophos Intercept X Advanced
27.11.2018

Automatyzacja zabezpieczeń

Red Hat Ansible Automation
23.11.2018

Nieograniczona skalowalność

SUSE Enterprise Storage 5.5
20.11.2018

Dwa procesory Threadripper

AMD Ryzen Threadripper 2970WX i 2920X
16.11.2018

Dla biznesu i edukacji

Optoma 330USTN
13.11.2018

Superszybki dysk SSD

Patriot Evolver
09.11.2018

Ograniczenie kosztów

Canon imageRUNNER ADVANCE 525/615/715

Platforma Cisco HyperFlex

Data publikacji: 30-11-2017 Autor: Marek Sokół
RYS. 1. WIZJA ROZWOJU...

Firma Cisco od lat kojarzona z produktami sieciowymi, w roku 2009 wkroczyła zdecydowanie na rynek serwerów. Od tego czasu rynkowe trendy się zmieniają, pojawiają się systemy bardziej zwinne, typu software defined storage. Nie dziwi zatem, że również w ofercie Cisco znalazło się rozwiązanie hiperkonwergentne, któremu przyjrzymy się w niniejszym artykule.

Świat technologii się zmienia, udoskonala, optymalizuje oraz konsoliduje. W każdym kwartale pojawiają się ulepszenia istniejących technologii lub całkowicie nowe rozwiązania. Start-upy rosną jak grzyby po deszczu, łatwość zdobywania finansowania poprzez np. crowdfunding zmniejsza próg wejścia dla nowych idei i pomysłów. Rosnąca popularność chmur obliczeniowych, gdzie płaci się tylko za zasoby, których się potrzebuje i używa, to kolejne ułatwienie dla nowych firm i pomysłów.

Co zatem z dużymi organizacjami, posiadającymi ogromne centra przetwarzania danych, potężne silosy technologiczne, które z różnych powodów nie chcą przenosić swojej infrastruktury do chmury? Czy są skazane na powolne wymieranie, nie będąc w stanie dotrzymać kroku nowym, małym zwinnym konkurentom, którzy szybciej i skuteczniej wypełniają nisze rynkowe? Odpowiedzią na to pytanie jest uniwersalne i zawsze prawdziwe: to zależy. W artykule skupiamy się na technologii, która może pozwolić firmom szybciej dostarczać infrastrukturę pod nowe potrzeby, nie migrując do chmury. Aby to osiągnąć, muszą rozważyć uproszczenie wdrażania i skalowania infrastruktury serwerowej. Przykładem takiego uproszczenia jest architektura hiperkonwergentna, która w ramach jednego bloku oferuje wszystkie potrzebne elementy: procesor, RAM i najważniejszy komponent – przestrzeń dyskową. To właśnie przestrzeń dyskowa zawarta w każdym bloku stanowi istotę hiperkonwergencji.

> Wizja

Proces projektowania własnej realizacji hiperkonwergencji przez Cisco uwzględnia realizację następujących celów:

 

  • szybkość i prostota, jednolita platforma zarządzania w ramach wszystkich centrów przetwarzania danych, będących w utrzymaniu;
  • ekonomia podobna do usług chmury publicznej, rozbudowa środowiska adekwatna do wymagań, czego efektem jest skalowanie kosztów proporcjonalnie do potrzeb (cloud as experience, cloud as economics).

 

Spełnienie tych postulatów wymaga nowego podejścia, które dostarcza kompleksowego rozwiązania, niezależnego od innych usług czy technologii. Integracja sieci obejmuje ostatni obszar będący pod kontrolą innych dostawców, wymagający osobnego zarządzania, monitorowania i rozwoju. Kolejnym wyzwaniem jest stworzenie wydajnego, niezawodnego systemu plików udostępnianego w ramach klastra, którego niezależne fragmenty znajdują się w poszczególnych węzłach. Ostatnim krokiem jest stworzenie rozwiązania będącego w stanie przejąć obciążenia obecnej infrastruktury często dedykowanej konkretnym zadaniom, a w szczególności gotowego na obsługę nowych aplikacji, które będą się pojawiać w kolejnych latach.

> Platforma sprzętowa

Podstawą klastra Cisco HX jest architektura UCS, bazująca na dwóch przełącznikach Fabric Interconnect (FI), do których podłączone są serwery typu rack wielkości 1 lub 2 RU. Przykładowe połączenie klastra przedstawiono na rys. 2. Każdy serwer podłączony jest dwoma konwergentnymi łączami 10 GbE lub 40 GbE (w zależności od wybranej opcji) do obu FI, a FI połączone są ze sobą w celu uzyskania wspólnej warstwy zarządzania (dane pomiędzy serwerami nie są transmitowane). W prawidłowo skonfigurowanym środowisku cały ruch klastra zamyka się w obębie jednego FI, jednak w sytuacji specyficznej awarii ruch może wychodzić do przełączników LAN w celu przekazania go do drugiego FI. Autorska architektura Cisco UCS pozwala definiować w serwerach karty sieciowe oraz światłowodowe, w wyniku czego w jednym fizycznym połączeniu może być realizowany ruch LAN oraz SAN. W sytuacji gdy dysponujemy odrębną siecią SAN, każdy FI należy niezależnie z nią połączyć. Dzięki integracji automatycznie nakładane są odpowiednie polityki QoS oraz konfiguracja separacji ruchu za pomocą wirtualnych interfejsów oraz VLAN-ów, zapewniając odpowiedni priorytet dla danej klasy ruchu, a serwery uzyskują dodatkowe logiczne połączenie bez potrzeby fizycznego wpinania w nie dodatkowych komponentów. Warto wspomnieć, że dla zachowania takich samych parametrów wydajnościowych nie jest wspierana rozbudowa urządzeń Fabric Interconnect za pomocą Fabric Extenderów.

Fizyczne połączenia nie różnią się od tych stosowanych w ramach architektury UCS. Występują natomiast różnice w obsadzeniu pojedynczych serwerów dodatkowymi dyskami, a ponadto oprogramowanie uruchomione na serwerach ma wyłączność w zarządzaniu wspomnianymi dyskami.

Serwer w ramach klastra HyperFlex dostarczany jest wg wymagań klientów, zatem ilość pamięci RAM i procesory mogą się różnić. Przy projektowaniu klastra należy podjąć decyzję o konfiguracji all flash lub hybrydowej oraz wymaganej pojemności pojedynczego węzła. Wsparcie w takiej decyzji dostarczają oczywiście odpowiednie narzędzia Cisco, gdyż samodzielny wybór mógłby nie być optymalny. Biorąc pod uwagę wielkość serwerów, mamy następujące możliwości:•serwer 1 RU – model HX220c dla wersji hybrydowej oraz HXAF220c dla all flash. W serwerach tych można zainstalować do sześciu dysków przeznaczonych na dane o wielkości 1,2 TB w konfiguracji hybrydowej oraz 960 GB lub 3,8 TB w konfiguracji all flash;•serwer 2 RU – model HX240c dla wersji hybrydowej oraz HXAF240c dla all flash. W serwerach tych można zainstalować do dwudziestu trzech dysków przeznaczonych na dane o wielkości 1,2 TB w konfiguracji hybrydowej oraz do dziesięciu 960 GB lub 3,8 TB w konfiguracji all flash. Instalowanie maksymalnie dziesięciu dysków w konfiguracji all flash nie wynika z ograniczeń sprzętowych, lecz z potrzeby zapewnienia maksymalnej wydajności. W sytuacji potrzeby wsparcia dla obliczeń wykonywanych na GPU w serwerach tej serii jest możliwa instalacja odpowiednich kart rozszerzeń.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA. 

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"