Microsoft Azure Technical Essentials - Część 2 - Magazyn w chmurze.

Microsoft Azure Technical Essentials - Część 2 - Magazyn w chmurze.

Published

Słowem wstępu – usługi magazynu danych Azure to niejednokrotnie pierwszy rodzaj usług w chmurze, który wdrażają firmy. Do czynników kształtujących ten trend zaliczyć można niską cenę (przykładowo jedno wystąpienie kopii zapasowej plików i folderów o rozmiarze 5TB z lokalną redundancją to miesięczny koszt ok. 200 EUR), łatwość implementacji i to, że przecież absolutnie każda firma potrzebuje niezawodnego narzędzia właśnie do tworzenia wspomnianych kopii zapasowych. Oczywiście, przy pomocy Azure Storage możemy skonfigurować wiele innych usług, jak choćby repozytorium „jeziora danych” (Data Lake Store) na potrzeby obciążeń „big data” czy centrum odzyskiwania (Site Recovery). Przede wszystkim jednak, magazyn danych to usługa, z której będziemy korzystać, nawet jeżeli zamierzamy uruchomić maszyny wirtualne lub inne nasze aplikacje.

Storage Account

Na początku należy utworzyć konto naszego magazynu i określić jego dostępność, a w Azure parametr ten określamy terminami:
  • LRS (Locally Redundant Storage) – czyli magazyn lokalnie nadmiarowy, tzn. trzykrotnie replikowany synchronicznie w ramach jednostki magazynowania jednego centrum danych. Dobry wybór, jeśli w ten sposób zabezpieczamy naszą własną infrastrukturę, jednak jeśli wdrażamy aplikacje oparte wyłącznie na chmurze, to powinniśmy pomyśleć o jednej z poniższych opcji, gdyż tryb LRS nie zabezpiecza nas na wypadek awarii krytycznej całego centrum danych;
  • ZRS (Zone-Redundant Storage) – podobny do LRS, tyle że ten wariant pozwala na replikację asynchroniczną na poziomie centrów danych w jednym z regionów Azure;
  • GRS (Geo-Redundant Storage) – w tej opcji mamy dostępne podobnie jak wyżej, trzy lokalne synchroniczne kopie, a do tego trzy asynchroniczne kopie w sąsiednim centrum danych, tak więc jeśli naszym głównym ośrodkiem przetwarzania jest Europa Zachodnia (Amsterdam), to w wypadku jakiejkolwiek katastrofy, Microsoft przełączy nas do Europy Północnej (Dublin) i pozwoli nam na korzystanie z ośrodka w trybie zapisu;
  • RA-GRS (Read-Access Geo-Redundant Storage) – podobny do GRS, z  tym wyjątkiem, że drugi zestaw kopii pozostaje w trybie tylko do odczytu, by mogły z niego korzystać nasze aplikacje, w odróżnieniu do GRS, gdzie replika jest niedostępna do momentu przełączenia w wypadku awarii. Nie bez powodu jest to więc zdecydowanie najdroższa z dostępnych opcji redundancji danych.
Przy wyborze powinniśmy mieć na uwadze to, że te warianty są dostępne w zależności od usług i kierować się trzeba przeznaczeniem naszej aplikacji. Dodatkowo należy pomyśleć o rodzaju używanego konta Azure Storage, czyli jak chcemy przechowywać dane i w jaki sposób ich używać, a do wyboru mamy opcje takie jak:
  •  Plik, czyli prosty system plików wykorzystujący protokół wymiany danych SMB 3.0 i przechowujący dane w sposób rozproszony, pozostawia nam też dowolność przy wyborze klienta źródłowego, gdyż może być to zarówno platforma mobilna jak i system Linux lub Windows;
  • Dysk, w przypadku którego my zarządzamy kontem magazynowania do przechowywania plików wirtualnych dysków (VHD) powiązanych z maszynami wirtualnymi, do wyboru mamy magazyn Standard (HDD) i Premium Storage (SSD), jeśli wymagana jest duża przepustowość i niezawodność;
  • Obiekt blob, czyli nieustrukturyzowane dane dowolnego typu na potrzeby łatwej i wysokiej skalowalności z uwzględnieniem nadmiarowości geograficznej oraz podziałem na warstwy, w zależności od tego czy przechowujemy tam długoterminowe kopie zapasowe czy udostępniamy dane klientom na całym świecie za pomocą protokołu REST, przydatne w zastosowaniach „big data”;
  • Kolejka dla najbardziej skalowalnych aplikacji i usług w chmurze obsługujących duże wolumeny danych, doskonale wspiera aplikacje projektowane pod kątem rozłączania składników, dzięki czemu można je skalować oddzielnie.
  • Tabela, która przechowuje dane ze strukturą lub bez, ale z pominięciem „relacyjności” tych danych, tak więc mamy do czynienia z bazą NoSQL.
cloud services.PNG

Managed Disks

Od niedawna Azure daje też nową możliwość tworzenia dysków, dlatego ujmę to w oddzielnym podpunkcie. W odróżnieniu od klasycznych dysków, których kontrolą zajmujemy się sami, istnieje opcja utworzenia dysków w ramach kont magazynowania (Storage Accounts) automatycznie zarządzanych przez Azure, co znacznie ułatwia proces tworzenia, gdyż nie musimy się martwić o utworzenie konta i definiowanie URI dysku. Podobnie określamy typ dysku (Premium - SSD lub Standard – HDD), rozmiar, nazwę i kilka innych parametrów, ale to wszystko, co trzeba zrobić.

Przewagą jest to, że Azure daje nam pewność co do tego, że nie przekroczymy wyznaczonych granic skalowalności konta magazynowania. Do tego istnieje możliwość tworzenia migawek (snapshot), domyślnie generowanych jako dysk Standard, będących pełną kopią punktu w czasie, której możemy użyć np. w środowisku testowym dla rozwiązywania problemów.

Hybrid Storage

Oddzielnym rozwiązaniem, o którym warto krótko wspomnieć, jest StorSimple, czyli magazyn w chmurze hybrydowej. To zintegrowane narzędzie pamięci masowej dostępne jako wirtualna macierz i urządzenie fizyczne, w zależności od możliwości i potrzeb wynikających z wielkości naszego przedsiębiorstwa. Pozwala na automatyczne zarządzanie zadaniami   między lokalnym, a chmurowym magazynem. StorSimple analizuje wiek i częstotliwość wykorzystania plików i powiązania między nimi, a następnie deduplikuje, kompresuje, szyfruje (AES-256, oczywiście tylko my mamy dostęp do kluczy szyfrujących) i przydziela je w ramach logicznych warstw. Dane o największym stopniu utylizacji umieszczane są lokalnie na dyskach SSD, a te najmniej używane, jak np. archiwa czy kopie zapasowe, trafiają na lokalne dyski SAS lub przesyłane są do magazynu zdalnego, czyli Azure. Przypomina to pewne mechanizmy technologii Storage Spaces znanej już z Windows Server 2012.

 Takie rozwiązanie daje nam poczucie spokoju, nie tylko ze względu na bezpieczeństwo naszych danych, ale również ze względu na gwarancję ich dostępności na potrzeby Disaster Recovery i znaczny wzrost wskaźnika RTO (Recovery Time Objective). Ujednolicenie i konsolidacja magazynów danych oraz niższe koszty inwestycji w to rozwiązanie, dają firmom oszczędności sięgające nawet 80%. Bez wątpienia polecam dalej zgłębić wiedzę na temat StorSimple, zwłaszcza jeśli w niedługim czasie Twoja organizacja planuje aktualizację infrastruktury magazynów danych.
diagram.png

Copy as a Plain Text

Share

Related Stories
Od wirtualizacji przez chmury hybrydowe do wirtualizacji chmur, czyli rozwój trendów na rynku cloud.

ago

Jeszcze parę lat temu rozważaliśmy, czy w ogóle warto korzystać z chmury, bo przecież używamy narzędzi do wirtualizacji. Wydawało się, że są to rozwiązania bardzo do siebie podobne. Rzeczywistość pokazała, że realizują zupełnie inne funkcje, a cloud otwiera potężne możliwości.
Microsoft Azure Technical Essentials - Relacja z warsztatów praktycznych, część 1.

ago

5 lipca wziąłem udział w zorganizowanym w Microsoft, technicznym warsztacie dotyczącym usług oferowanych (obecnie jest ich ponad 600!) na platformie chmury obliczeniowej Microsoft Azure oraz sposobu ich implementacji. Postaram się w skrócie podzielić zdobytą wiedzą i korzystając z okazji napisać więcej o możliwościach jakie niesie ta konkretnie chmura.
Managed Services i SQL dla NAV on Azure, czyli co zwiększa produktywność systemu w chmurze

ago

Platforma Microsoft Dynamics NAV Managed Services została zaprojektowana w celu tworzenia środowisk NAV 2016 i kolejnych wersji w bardzo szybki, przystępny sposób. Dostępna jest przez specjalnie zaprojektowany portal, ale fizycznie znajduje się w chmurze. Pozwala ona na
Nav on Azure. Czy rzeczywiście Dynamics NAV w chmurze jest bardziej opłacalny dla firmy?

ago

Na przestrzeni 10 lat mała lub średnia firma może zaoszczędzić aż 30% kosztów na utrzymaniu NAV, jeśli wybierze opcję w chmurze Microsoft Azure. Do Azure przekonuje też szybka implementacja środowiska oraz to, że chmura nie wymaga dużych zasobów wewnętrznych. Jest to rozwiązanie szyte na miarę niskobudżetowych projektów SMB.

CISCO DNA - Pełna programowalność, automatyzacja, prywatność i bezpieczeństwo?

Instynktownie odróżniamy rzeczy dobre od złych, stale się uczymy i wiemy, dokąd zmierzamy. Czy sieć może być równie inteligentna? Zadając sobie to pytanie, Cisco Systems rozpoczęło prace nad koncepcją intuicyjnej sieci. 20 czerwca tego roku zaprezentowało najnowsze osiągnięcia w technologiach sieciowych określane mianem innowacji dekady. Inżynierowie Cisco wypracowali schemat sieci, które potrafią uczyć się, rozpoznawać intencje i zapewnić bezpieczeństwo swoim użytkownikom. Tomorrow starts here.