wtorek, 1 sierpnia 2017

Dyski chude, dyski grube, overalokacja...

W środowiskach wirtualnych mamy pewną elastyczność w prezentowaniu zasobów dyskowych dla maszyn wirtualnych.
Nie dam rady opisać wszystkich możliwości - skupię się na głównych metodach, które mają swoje rozwinięcia, modyfikowane przez konkretnych producentów sprzętu i oprogramowania.
  • Thick Provisioning - jest to odpowiednik zasobu w środowisku fizycznym. Po prostu deklarujemy jakąś wielkość zasobu, który ma zostać przedstawiony maszynie wirtualnej i ten zasób jest dla niej w pełni alokowany, nie jest dostępny dla innych maszyn. Wada jest oczywista - gdy zarezerwowaliśmy 1TB, a pliki faktycznie zajmują 30 GB - mamy zajęty 1 TB. Jednakowoż w niektórych zastosowaniach nie możemy zrezygnować z przydziału typu Thick. Tam gdzie możemy to zrobić możemy zastosować inne metody przydziału zasobów.
  • Thin Provisioning  (TP)– przedstawianie systemowi większej ilości zasobów niż w rzeczywistości jest dostępne. Zasoby są udostępniane od razu po ich przydzieleniu (formatowanie odbywa się w tle).
  • Virtual Provisioning (VP), który polega na współdzieleniu i prezentowaniu zasobu jako dostępnego dla kilku systemów jednocześnie.
  • Overalokacja – prezentowanie systemowi zasobów większych niż są w rzeczywistości dostępne. Można to porównać do overbookingu w transporcie lotniczym.

Na deser prosty obrazek demonstrujący różnicę między Grubymi (Thick) woluminami, a Cienkimi, zwanymi też Uproszczonymi (Thin):




wtorek, 25 kwietnia 2017

Dyski Twarde - współczesność cz. 2

Kilka słów o typach dysków z jakimi możemy spotkać się we współczesnym sprzęcie:

Dysk talerzowy to dysk magnetyczny, w którym dane zapisywane są na okrągłych  talerzach, zamkniętych w obudowie. Do zapisu i odczytu służy  specjalna głowica umieszczona na ruchomym ramieniu. Parametrem, od którego w dużym stopniu zależy wydajność dysku jest prędkość obrotowa talerzy. Wyższa prędkość obrotowa znacznie poprawia szybkość wykonywania operacji zapisu oraz odczytu danych. Inne parametry, które będą rzutowały na wydajność to: interfejs, ilość pamięci podręcznej, zastosowane algorytmy usprawniające (takie jak NCQ), średni czas dostępu. Zaletą nośników magnetycznych są: wysoka pojemność i niska cena. Ten typ nośnika najlepiej sprawdzi się, kiedy wykorzystamy go jako miejsce składowania i archiwizacji danych.

Dyski Solid-State (SSD) korzystają ze zintegrowanych układów obwodów do trwałego zapamiętywana danych. Dyski SSD nie posiadają ruchomych części mechanicznych, dzięki czemu są mniej podatne na wstrząsy i cichsze, charakteryzują się również krótszym czasem dostępu i mniejszymi opóźnieniami. Z tego względu napędy SSD są najszybszymi urządzeniami na rynku dysków twardych.

Dyski hybrydowe SSHD łączą w sobie zalety szybkiego magazynu danych typu SSD oraz tradycyjnego HDD. Są tańsze niż SSD i szybsze niż dysk talerzowy. Działanie dysku SSHD polega na tym, że na szybszą część dane, które są najczęściej wykorzystywane. Pozostała część, o większej pojemności używana jest przez dane, które są „wywoływane” rzadziej. Logika dysku hybrydowego potrafi optymalizować położenie danych tak, aby dostęp był możliwie najszybszy.

czwartek, 9 marca 2017

Dyski Twarde - współczesność cz. 1

Kontynuując cykl wpisów o dyskach twardych dotarłem do współczesności. Warto napisać kilka słów więcej, więc postanowiłem "współczesność" podzielić na kilka wpisów.
Dziś kilka słów o interfejsach połączeniowych z jakimi możemy spotkać się we współczesnym sprzęcie:

Magistrala Serial ATA (SATA): zastąpiła starszy interfejs równoległy (PATA, często nazywany również IDE), wprowadzając kilka istotnych zmian: przewody mniejszych rozmiarów i niższy koszt ich produkcji (7 przewodników zamiast 40), podłączanie urządzeń podczas pracy systemu, szybsze przesyłanie danych dzięki wyższej prędkości sygnału i bardziej wydajna praca za pośrednictwem protokołu kolejkowania wejścia/wyjścia.

Dyski Near Line SAS: to napędy SATA, które mają głowice, nośniki i prędkość obrotu tradycyjnych dysków SATA ale posiadają pełnoprawny interfejs SAS znany z klasycznych napędów tego typu. Jest to rozwiązanie pośrednie pomiędzy SATA i SAS. Zyskujemy możliwość użycia tańszych (ale i mniej wydajnych) dysków przy dobrodziejstwie korzystania ze sprzętowego kontrolera SAS.

Serial Attached SCSI (SAS): jest sposobem podłączenia dysków twardych i napędów taśmowych. Jest to szeregowy protokół bezpośredni, zastępujący starsze, oparte na szeregowej magistrali SCSI. Korzysta ze standardowego zestawu poleceń magistrali SCSI. Interfejs SAS jest wydajniejszy niż SATA, które byłoby dla szybszych dysków „wąskim gardłem”. Stąd też nie produkuje się dysków SATA o prędkościach obrotowych większych niż 7200 obr./min.

poniedziałek, 13 lutego 2017

Business Continuity: Backup a archiwizacja

Dziś w cyklu "teoretyczne podstawy procesu ciągłości biznesowej" zajmiemy się danymi. A dokładniej ich zabezpieczaniem. Jeżeli mówimy o zabezpieczaniu danych, większość z nas pomyśli w pierwszej kolejności o kopiach zapasowych i archiwizacji danych.
W języku polskim określenia: „backup” i „archiwum” są (często mylnie) stosowane zamiennie.

Wykonywanie kopii bezpieczeństwa to nie to samo co archiwizacja danych!

Różnica jest zasadnicza:
Backup to zbiór danych, które mają służyć do odtworzenia oryginalnych danych w przypadku ich utraty lub uszkodzenia. Kopia zapasowa jest wykonywana w określonym punkcie czasu, zapisana w określonym formacie i monitorowana  przez cały okres użytkowania w systemie tworzącym kopie zapasowe.

Archiwum to repozytorium, służące do długoterminowego  przechowywania  starszych danych. Archiwum nie jest kopią danych, lecz jest to oryginalny zestaw danych przeniesiony z jednej lokalizacji do innej.
Zarchiwizowane dane powinny być rejestrowane i zarządzane w czasie podobnie jak kopie zapasowe, ale ponieważ dane się nie zmieniają, w dowolnym punkcie czasu istnieje tylko jedna ich kopia. Archiwa są przeznaczone do długoterminowego przechowywania danych na nośnikach, które są odporne na procesy starzenia.

czwartek, 15 grudnia 2016

"Parental Control" czyli internet dla najmłodszych

Temat mniej technologiczny, ale ważny.

Mój syn jest już w wieku, w którym sam korzysta z komputera, co oprócz radości z samodzielności pociechy może budzić obawy co do tego co może w sieci znaleźć. Chciałbym jednocześnie dać mu możliwość samodzielnego korzystania z dobrodziejstw techniki, nie prowadząc przy tym permanentnej kontroli tego co znajduje się na ekranie. Chciałbym zminimalizować możliwość że syn trafi w sieci na treści, które będą dla niego nieodpowiednie.
Czyli potrzebuję jakiegoś narzędzia do kontroli rodzicielskiej...

Szukając rozwiązania prostego i skutecznego trafiłem na rozszerzenie do Firefoxa (ale i dla Chrome): http://www.s3blog.org/fox-web-security.html.

Rozszerzenie działa w oparciu o bezpieczne DNS - standardowo sprawdza czy odwiedzana strona jest "odpowiednia" w trzech niezależnych bazach (zawsze można dopisać kolejne).

Możemy zabezpieczyć konfigurację hasłem, dzięki czemu pociecha nie będzie mogła jej zmienić ani wyłączyć zabezpieczenia.


Konfiguracja rozszerzenia jest banalnie prosta i sprowadza się do przysłowiowych "kilku kliknięć".
Po zainstalowaniu wchodzimy w opcje konfiguracji rozszerzenia i ustawiamy w polu hasło nasze sekretne hasło. Dobrze będzie je zapamiętać, gdyż nie ma łatwej możliwości usunięcia tego zabezpieczenia (trzeba usunąć całą konfigurację przeglądarki).
Następnie wybieramy zakładkę "blokowanie treści dla dorosłych":

Na rysunku powyżej pokazałem ustawienia, które ja wybrałem.
Aby nasza pociecha nie była zaskoczona "innym" zachowaniem przeglądarki, warto zmodyfikować ustawienia dotyczące kolorowania paska adresu przeglądarki. Znajdziemy je w zakładce "Others":


Jeżeli zajdzie taka możemy do "czarnej listy" dopisać strony które nie są blokowane przez wpisy z baz danych.

Rozszerzenie sprawdziłem z Firefoksem w Windows 10 oraz w Lubuntu. W obydwu przypadkach działa tak, jak oczekiwałem.

PS - dodatek jest bezpłatny, ale autor prosi o dobrowolne datki. Myślę, że warto...

poniedziałek, 21 listopada 2016

Dell R230 i Windows Server 2008 R2

Często zdarza się, że oprócz funkcji administratora musimy objąć funkcję kustosza. Przed takim wyzwaniem zostałem postawiony w dniu dzisiejszym. Co prawda sprzęt całkiem nowy- Dell Power Edge R230, ale za to OS lekko przestarzały - Windows Server 2008 R2.
Z różnych przyczyn OS (dokładnie w wersji Foundation) musiał być zainstalowany bezpośrednio na fizycznym sprzęcie. Wirtualizacja czy nowsza wersja nie wchodziła w grę z powodu wybrednej aplikacji, która ma na tym serwerze działać.

Wyzwaniem okazała się już sama instalacja systemu. Mianowicie instalowany system, pochodzący z czasów "zamierzchłych" nie wspiera USB w wersji 3.0.Tymczasem serwer posiada układy udostępniające jedynie USB 3.0. USB 2.0 nie ma i już. Wyższe modele Power Edge posiadają w BIOSie przełącznik trybu pracy :USB 2.0/3.0. PE 230 jednak takiego przełącznika nie posiada i porty nie mają możliwości pracy w trybie USB 2.0.
Problem objawia się trywialnie, mianowicie po uruchomieniu instalatora Windows Serwer nie działa ani mysz ani klawiatura. Klincz. Podłączenie się przez iDraca nie wchodziło w grę, ponieważ na pokładzie był tylko iDrac Express.

Poszukiwania w sieci doprowadziły mnie do znalezienia bardzo prostego rozwiązania. Musimy dysponować obrazem iso lub płytką instalacyjną Windows.
Do tej instalki musimy "wstrzyknąć" odpowiedni sterownik. Na szczęście Dell ułatwił nam zadanie i przygotował odpowiedni skrypt/program.
Program ściągniemy stąd. Zipa rozpakowujemy tam, gdzie nam wygodnie ;)
Sam proces jest banalny, program jest napisany w PowerShell'u, dlatego rozpoczynamy od uruchomienia Powershella (jako administrator).
Następnie wydajemy (w oknie PShell) polecenie Set-ExecutionPolicy Unrestricted.
Przechodzimy do folderu, do którego rozpakowaliśmy skrypt i wydajemy polecenie: .\DriverUpdate.ps1.
Okno PShell powinno wyglądać mniej więcej tak:


W tzw. "międzyczasie" skrypt otworzy okno, w którym możemy wybrać parametry pracy:
  • Wybrać pracę z plikami z płyty DVD, lub wskazać lokalizację pliku ISO
  • Wskazać edycję systemu
  • Wybrać docelową lokalizację, w której zostanie utworzone zmodyfikowane ISO
    Dodać do tworzonego ISO dodatkowe sterowniki. Jeżeli zależy nam jedynie na USB 3.0 - pozostawiamy puste.
Część okna z opcjami wygląda tak:

Po wciśnięciu "START" czekamy kilka minut, dopóki w oknie PowerShella nie ujrzymy komunikatu "ISO creation successful".
Teraz możemy wypalić płytę i działać...

Opracowano na podstawie: http://en.community.dell.com/techcenter/b/techcenter/archive/2016/05/15/how-to-inject-usb-3-0-drivers-into-windows-server-2008-r2sp1-for-use-on-dell-r230-r330-t130-t330

środa, 16 listopada 2016

Dysk twardy - historia cz. 3

Jak napisałem w poprzednim odcinku - rozwinięciem IDE był standard Enhanced Integrated Drive Electronics (EIDE). Standard ten został zaprezentowany w 1994 przez Western Digital, umożliwiał podłączanie dysków o większej niż dotychczas pojemności oraz innych urządzeń takich jak CD-ROMy czy napędy taśmowe.
Rozwinięcie to było odpowiedzią na największe bolączki IDE czyli:
  • ograniczoną pojemność dysków (do 504 MB),
  • ograniczoną szybkość transmisji danych,
  • niemożność podłączenia więcej niż dwóch dysków twardych,
  • brak możliwości podłączenia urządzeń innych niż dyski twarde.
Ograniczenie pojemności sprytnie ominięto dzięki stosowaniu 28-bitowego adresowania LBA (Logical Block Cylinder). Adres LBA wskazywał  unikalną pozycję na dysku o maksymalnej pojemności 8,4 GB, co było znacznym krokiem naprzód.
Ważne było też zwiększenie liczby ilości możliwych do podłączenia urządzeń. Wprowadzono tzw. drugi kanał, zwiększając do 4 ilość możliwych do podpięcia urządzeń.

Standard EIDE (Enhanced IDE) zapewniał wsteczną zgodność ze standardem IDE - dyski IDE współpracowały z Host Adapterem EIDE, zaś urządzenia EIDE (oczywiście z ograniczeniami wynikającymi ze specyfikacji) współpracowały z IDE.

Rozszerzeniem dla IDE był ATAPI (AT Attachment Packet Interface). Było to rozszerzenie definiujące parametry techniczne, jakie miały spełnić urządzenia inne niż dyski twarde (w praktyce głównie CDROMy) podłączane do adaptera EIDE.

Wdzięczną kwestią w przypadku IDE jest nazewnictwo. Oficjalnie standard został nazwany jako ATA, co jest skrótem od AT-Attachment. Skrót IDE wywodzi się z faktu, że w odróżnieniu od poprzednich standardów, tutaj główna część elektroniki będącej interfejsem dysku była zintegrowana w obudowie wraz z talerzami nośnika danych. Nazwa ta została użyta po raz pierwszy przez firmę Western Digital.
W miarę rozwoju ATA, jak pojawiały się kolejne udoskonalenia, skrót nazwy zaczęto uzupełniać o liczbę wskazującą na przepustowość danej wersji interfejsu: ATA/33, ATA/66, ATA/100, ATA/133. Obecnie interfejs ten nazywany jest najczęściej PATA (Parallel ATA), aby odróżnić go od SATA (Serial ATA).