Dyski twarde – budowa oraz zasada działania

Dyski twarde są niezbędnym elementem wyposażenia każdego PC, przy czym jest to element istotnie wpływający nie tylko na całkowitą wydajność komputera, ale i na komfort jego używania. Zwłaszcza w kontekście coraz to bardziej ?rozepchanych? pakietów oprogramowania.

Poszczególne krążki dysku twardego pokryte są warstwą ferromagnetyku (dwu-lub trójtlenek żelaza) służącą do zapisu informacji. Krążki te (talerze) pozostają w zwykłych dyskach na stałe w obudowie i tworzą razem z głowicami zapisująco-odczytującymi praktycznie jedną całość.

Trudno dzisiaj sobie wyobrazić peceta bez twardego dysku, który ?nigdy nie jest za duży?.

Nowe programy wymagają coraz szybszych procesorów i modułów pamięci (RAM. Cache). Twardym dyskom poświęca się jakby nieco mniej uwagi, choć mają one nieraz zasadniczy wpływ na ogólną wydajność systemu. Często w praktyce okazuje się, że w seryjnie zmontowanym PC właśnie twardy dysk jest ?wąskim gardłem?, hamując nieraz znacznie cały system.

Twarde dyski z biegiem lat staja się coraz mniejsze, jeśli chodzi o rozmiary i coraz większe, jeśli chodzi o pojemność.

Rozwój technologiczny dysków twardych na przestrzeni ostatnich kilkudziesięciu lat, pod względem dynamiki można porównać chyba tylko z rozwojem układów scalonych. Za pierwszy dysk twardy uznaje się wytworzone przez koncern IBM urządzeni IBM 305 RAMAC (Randmo Access Method of Accounting and Control). Dysk ten ?ujrzał? światło dzienne 13 września 1956 roku i mógł pomieścić zawrotną w tamtych czasach ilość danych: ok. 5MB na, bagatela, 50 talerzach o 20-calowej średnicy każdy!

Pierwszym dyskiem zastosowanym w komputerze PC, a dokładniej w firmowanych przez IBM komputerach IBM PC/XT, był opracowany przez firmę Seagate 5,25-calowy model ST-412. przy znacznie mniejszych od swojego ?przodka? rozmiarach miał aż 10 MB pojemności. Ten pierwszy stosowany w PC dysk już znacznie bardziej przypominał obecnie produkowane modele. Głowice odczytujące i zapisujące dane na talerzach dysku nie dotykały bezpośrednio powierzchni nośnika, czyli podobnie jak w obecnie produkowanych modelach. Oczywiście na początku lat 80. nikt nie słyszał o tak obecnie popularnym w PC interfejsie ATA, a wszystkie parametry wydajnościowe dysku znacznie odbiegały od tego, co udaje się uzyskać, stosując obecnie produkowane modele. Jednak sama idea działania i założenia konstrukcyjne pozostały.

Na początku 1980 roku wprowadzono, wraz z rozpowszechnieniem komputerów osobistych, dostępne dla wszystkich dyski o średnicy 5,25 cala. Ich pojemność wynosiła od 5 do 10 MB.

Dziś napędy HDD wyposażone są w talerze o średnicy 3,5 cala. Ich pojemność liczona jest w gigabajtach.

Budowa i działanie:

Twarde dyski różnią się wymiarami zewnętrznymi, sposobem podłączenia (interfejsem) oraz różnymi procedurami zapisu magnetycznego. Wyróżnić możemy (na podstawie interfejsu) cztery główne typy twardych dysków:

Dyski ze złączem ST506/ST412

Dyski ze złączem ESDI

Dyski ze złączem SCSI (oraz SAS tj. Sata Attached SCSI)

Dyski ze złączem (E)IDE w tym PATA i SATA

Standardowym dyskiem w dzisiejszych pecetach jest typ (E)IDE (Enhanced Integrated Device Electronic) oraz, w wydajniejszych systemach, dysk SCSI, który doczekał się w międzyczasie kilku różnych specyfikacji.

Różnice w szybkości i przepustowości obu rodzajów dysków są w obecnie produkowanych modelach praktycznie niezauważalne przy zastosowaniu pojedyńczego dysku, a przewaga SCSI (SAS) ujawnia się przy podłączeniu większej ilości urządzeń…

Pozostałe rodzaje twardych dysków to modele już nie produkowane i w zasadzie przestarzałe. Jednakże, ponieważ jeszcze do niedawna były masowo montowane w pecetach i do dziś z powodzeniem wypełniają swoje zadania, zajmiemy się nimi. O tym, czy dany komputer można wyposażyć w nowy lub w dodatkowy twardy dysk decyduje przede wszystkim typ interfejsu.

Stosowana w dyskach sztywnych technika zapisu nie odbiega od tej, z jaką mamy do czynienia w magnetofonie czy w kartach telefonicznych, a także w dyskietkach. Wytwarzane przez elektromagnetyczną głowicę pole magnetyczne powoduje uporządkowanie domen magnetycznych w nośniku ferromagnetycznym o szerokiej pętli histerezy, a ruch tak zapisanego nośnika w pobliżu głowicy odczytującej powoduje w niej indukcję sygnału elektrycznego, odpowiadającego zapisanym danym. Współczesna technologia do odczytu danych używa, zamiast głowic indukcyjnych, półprzewodnikowych elementów magnetorezystywnych, umożliwiających zwiększenie zarówno odczytywalnej gęstości zapisu, jak i zwiększenie szybkości odczytu.

Dysk stały naszego PC to wirujący talerz lub zespół talerzy o powierzchni pokrytej nośnikiem magnetycznym, a odpowiednio ustawiane na tych powierzchniach głowice zapisują i odczytują dane. Głowice umieszczone są na przypominającym ramię gramofonu ramieniu pozycjonującym i dociskane do powierzchni dysku sprężynami, ale podczas obrotów dysku nie stykają się z nią ? powstająca w wyniku szybkich obrotów talerzy ?poduszka powietrzna? utrzymuje głowice nad powierzchnią. Rozwiązanie takie nazywane jest ?pływającymi głowicami? i jak na razie jest bezkonkurencyjne i stosowane powszechnie, chociaż są już w toku prace nad innymi sposobami prowadzenia głowic.
Jak już wspomniałem, głowice dysku są zamontowane na konstrukcji obrotowej, budzącej skojarzenie z ramieniem gramofonu. Słuszne optycznie skojarzenie nie jest jednak prawdziwe. Podczas gdy ramię gramofonu było prowadzone przez ścieżkę zapisu na płycie, to z ramieniem głowic dysku jest zupełnie inaczej ? musi ono być ustawione tak, by głowice znalazły się nad odczytywaną właśnie ścieżką (czy raczej ? na odczytywanym ?cylindrze?). W pierwszych konstrukcjach dysków sztywnych pozycjonowanie głowic było realizowane przez mechanizm napędzany silnikiem krokowym (rozwiązanie takie jest do dziś stosowane w napędach dyskietek). W miarę wzrostu wymagań szybkościowych stosowano inne rozwiązania, spośród których optymalnym jak na razie okazało się voice coil, czyli układ magnetodynamiczny, wzorowany na stosowanym w głośnikach (stąd nazwa) ? umieszczona w polu silnego magnesu stałego cewka porusza się zgodnie z przepływającym przez nią prądem, ustawiając w odpowiedniej pozycji związane z nią mechanicznie ramię głowic dysku. Technika ta pozwoliła na zmniejszenie czasu pozycjonowania głowic na zadanej ścieżce z kilkudziesięciu do kilku milisekund, a przy przejściach pomiędzy kolejnymi ścieżkami nawet poniżej jednej milisekundy.
Tradycyjnie w komputerze PC AT adresowanie dysku przez przerwanie 13 BIOS-u (INT 13) odbywało się za pomocą trzech parametrów: cylindra, głowicy i sektora (tzw. adresowanie CHS od słów Cylinder, Head, Sector). Konwencjonalne funkcje INT 13 używały 24 bitów do reprezentacji adresów, zatem możliwe było jedynie zaadresowanie obszaru o pojemności 8,4 GB (224×512 bajtów/sektor = 8,4 GB). W celu przekroczenia tej granicznej wartości producenci wprowadzili dwa nowsze sposoby (stosowane właśnie w dzisiejszych dyskach) adresowania.
Pierwszy polegał na rozszerzeniu reprezentacji adresu w konwencji CHS do 32 bitów, drugi ? częściej stosowany ? używał zupełnie odmiennej metody noszącej nazwę LBA. W metodzie LBA (Logical Block Addressing) stosowane jest adresowanie 28-bitowe, co pozwala na zaadresowanie obszaru do granicznej (znowu!) pojemności wynoszącej: 228×512 bajtów/sektor = 137,4 GB. Jest to wartość jak na razie nieosiągalna dla przeciętnego posiadacza komputera (dla producentów ? owszem; nie tak dawno Quantum poinformowało o wyprodukowaniu dysku o pojemności ponad 200 GB!). Ten właśnie tryb adresowania jest zalecany i zaimplementowany w BIOS-ach większości dzisiejszych PC-tów.
Zapis na dysku dokonywany jest w formie koncentrycznych ścieżek, podzielonych na sektory. Dość tajemnicze pojęcie ?cylinder?, występujące w opisie parametrów dysku i nie znajdujące bezpośredniego odbicia w jego konstrukcji, to grupa ścieżek o tym samym numerze na wszystkich powierzchniach roboczych. Liczba głowic odpowiada liczbie roboczych powierzchni talerzy dysku.
Taki opis parametrów fizycznych dysku oraz wynikający z niego tryb adresowania stanowiły pierwotnie podstawę rozumienia zapisu na dysku przez wszystkie systemy operacyjne. Opis CHS (cylinder/head/sector) sprawdzał się bardzo dobrze w czasach, gdy całością procesu zapisu i odczytu danych zarządzała jednostka centralna przy współudziale dość prymitywnego sterownika. Nietrudno jednak zauważyć, że całkowita długość pierwszej, najbardziej zewnętrznej ścieżki jest znacznie większa od długości ostatniej, najbliższej osi talerza. Liniowa gęstość zapisu jest stała dla wszystkich ścieżek (po prostu ? maksymalna), a przy stałej liczbie sektorów na każdej kolejnej ścieżce (licząc od ostatniej do pierwszej) marnowałaby się coraz większa ilość miejsca. Dlatego już od dość dawna stosuje się technikę MZR (Multiple Zone Recording), maksymalnie wykorzystującą dostępną powierzchnię talerzy ? liczba sektorów w ostatnim cylindrze dysku, wynikająca z liniowej gęstości zapisu, pozostaje stała w kolejnych cylindrach do chwili, gdy ilość wolnego miejsca pozwoli na dodanie jednego sektora więcej. Na dysku powstają w ten sposób kolejne strefy, charakteryzujące się rosnącą liczbą sektorów w miarę zbliżania się do krawędzi talerza.
W początkowym okresie stosowania MZR praktykowano technikę przeliczania geometrycznej lokalizacji danych na logiczne parametry systemu CHS. Wymagało to dość kłopotliwego, ręcznego wprowadzania parametrów przeliczeniowych konkretnych modeli dysków do pamięci konfiguracji systemu (tzw. Setup). Od problemu indywidualnych parametrów dysków uwolniły nas dopiero: z jednej strony rozwój interfejsu ATA, dzięki któremu system był w stanie samodzielnie odczytać z dysku i przyjąć do wiadomości przeliczeniowe parametry, z drugiej zaś ? wprowadzenie BIOS-u funkcji obsługi trybu LBA (Logical Block Addressing), uniezależniającego adresowanie danych na dysku od ich fizycznej lokalizacji na nim.

Odzyskiwanie Danych

      1. Głowice

    Głowice magnetorezystywne :

    Twardy dysk ze swoimi maleńkimi elementami wykonanymi z dokładnością przy której, zegarmistrzowska precyzja przypomina raczej kowalską robotę to w istocie arcydzieło technologii. Prawdziwym cudem jest jednak głowica. W nowoczesnych konstrukcjach stosuje się tak zwane głowice magnetorezystywne.

    Gwoli ścisłości powinno się raczej używać określenia ?hybrydowe? ? do zapisu danych służy elektromagnetyczna głowica cienkowarstwowa (jej mikroskopijna ceweczka ma około 10 zwojów), głowica magnetorezystywna służy do odczytu. Wykorzystuje ona efekt zmiany oporności elektrycznej specjalnego materiału (stop żelaza i niklu) przy zmianie pola magnetycznego i jest o wiele czulsza od głowicy elektromagnetycznej. Pozwala to znacznie zmniejszyć powierzchnię zajmowaną przez każdy bit informacji, a więc ? zwiększyć gęstość zapisu.   Współczesne dyski charakteryzują się gęstością rzędu 1 gigabita na cal kwadratowy, zaś w laboratoriach IBM (to właśnie w nich stworzono pierwsze głowice magnetorezystywne) osiągnięto w grudniu 1996 roku gęstość 5 gigabitów na cal kwadratowy.

    Przy tej gęstości na jednym calu długości ścieżki mieści się 240 tysięcy bitów, na jeden cal promienia dysku przypada 21 tysięcy ścieżek, a jeden bit zajmuje powierzchnię 1,2 na 0,1 mikrometra (przekrój ludzkiego włosa zmieściłby około 1000 bitów). Dzięki doskonaleniu technologii GMR (Giant Magnetoresistive Effect) naukowcy przewidują osiągnięcie przed końcem wieku gęstości 10 Gb na cal kwadratowy.

    Pozycjonowanie głowicy:

    Kiedyś na potrzeby ?nawigacji? zarezerwowana była cała jedna powierzchnia dysku, na której zapisane były znaczniki ścieżek i sektorów dla pozostałych głowic ? system taki nazywał się ?dedicated servo?. Dzisiejsze napędy wykorzystują technologię ?embedded servo? ? znaczniki umieszczone są na powierzchniach roboczych i przemieszane z obszarami danych. Wiąże się to co prawda z przydzieleniem elektronice dysku dodatkowych zajęć, pozwala jednak zwiększyć efektywną pojemność urządzenia. W celu uniknięcia błędów odczytu głowica musi znajdować się dokładnie nad środkiem danej ścieżki. Nie jest to wcale łatwe zadanie, gdyż pod wpływem ciepła materiał, z którego wykonane są płyty dysku, może ulec odkształceniom. W odróżnieniu od tradycyjnej techniki Servo, przy której głowica musiała regularnie korzystać ze ścieżki sterującej, aby zoptymalizować swoją pozycję, mechanizm Embedded Servo wykorzystuje informacje sterujące zapisane na każdej ścieżce. Głowice zapisująco ? odczytujące mogą więc korzystać z nich przez cały czas, co umożliwia dokładniejsze pozycjonowanie. Technika Embedded Servo działa na podobnej zasadzie, jak automatyczny pilot, który nieprzerwanie dba o utrzymanie właściwego toru lotu.

    Stosowana dawniej okresowa kalibracja głowicy dysku powodowała natomiast dodatkowe przerwy w transmisji danych.Inteligentne układy sterujące pozwoliły także zmienić sposób przesuwania głowicy nad szukaną ścieżkę ? niegdyś służyły do tego stosunkowo powolne i zawodne silniczki krokowe (do dziś używane w stacjach dyskietek zdradzają swą obecność charakterystycznym burczeniem), teraz delikatne jak piórko kolibra ramię głowicy wychylane jest na podobieństwo wskazówki miernika elektrycznego za pomocą cewki, przez którą przepływa prąd o odpowiednio dobranym natężeniu (tzw. voice coil) ? dzięki temu średni czas dostępu do danych to dziś 10 lub mniej milisekund. Niektóre firmy stosują technologię ?Read on Arrival?, wykorzystującą mechanizm korekcji błędów ? pierwsza próba odczytu podejmowana jest jeszcze zanim głowica ustabilizuje się nad żądaną ścieżką; albo próba się powiedzie, albo skutecznie zadziała mechanizm korekcji błędu odczytu, w najgorszym przypadku trzeba będzie ponowić odczyt ? nic do stracenia, a można zyskać cenne milisekundy.

    Odległości:

    Odległość głowicy od nośnika (ok. 2 milionowych części cala), jest o wiele mniejsza od średnicy ludzkiego włosa, przez tak wąską szczelinkę nie przechodzi nawet światło! Aby umożliwić dostęp do poszczególnych ścieżek, zawieszone obrotowo ramię wychyla się na podobieństwo wskazówki miernika, poruszane polem cewki magnetycznej ? układ taki, zwany voice coil, zapewnia szybkość ruchu dużo większą od stosowanych w pierwszych konstrukcjach silniczków krokowych.

        1. Kodowanie

    Kodowanie danych:

    Zapis danych binarnych w formie magnetycznej nie jest dokonywany bezpośrednio ?bit w bit? ? dane przeznaczone do zapisu są kodowane według pewnych algorytmów, których zadaniem jest usprawnienie odczytu, a także zapewnienie większej jednoznaczności zapisu. Kodowanie danych przeznaczonych do zapisu składa się z dwu faz ? najpierw do zapisywanych danych dodawane są dane nadmiarowe umożliwiające detekcję i korektę ewentualnych błędów odczytu (CRC ? Cyclic Redundancy Code ? najprostszy, a zarazem jeden z najefektywniejszych algorytmów wprowadzania danych nadmiarowych dla celów korekcji błędów), następnie zaś wynikowe wartości są przekształcane tak, by uniknąć powtarzania dłuższych ciągów powtarzających się zer czy jedynek.
    Historycznie pierwszym systemem kodowania danych był MFM, dziś już zupełnie nie stosowany, wyparty następnie przez kodowanie RLL (Run Lenght Limited) stosowane w dyskach sztywnych do niedawna, a wciąż jeszcze używane przy zapisie na dyskietkach. Obecnie powszechnie stosowaną techniką kodowania danych na dysku jest PRML (Partial Response Maximum Likelihood), która zapewnia największą efektywną gęstość zapisu, a także najniższą stopę błędu odczytu danych. Technika PRML wymaga stosowania w układach sterujących dysku specjalizowanych procesorów o dużej mocy, jednak technologie krzemowe są obecnie na tyle tanie, że uzyskiwane dzięki nim zwiększenie gęstości zapisu z nawiązką wyrównuje nieco wyższy koszt wbudowanej w dysk elektroniki.

        1. MZR

    MZR ? Multiple Zone Recording ? zapis wielostrefowy:

    Nietrudno zauważyć, że w wyniku podziału każdej ścieżki na stałą liczbę sektorów, sektory znajdujące się dalej od osi dysku będą znacznie dłuższe (długość sektorów wewnętrznych jest ograniczona ?od dołu? maksymalnym upakowaniem bitów na jednostkę powierzchni). Aby zapobiec ewidentnemu marnotrawstwu, podzielono dysk na kilka stref o określonej liczbie sektorów (od 60 do 120 sektorów na ścieżkę), coraz większej dla stref bliższych obwodowi dysku. Zysk jest ewidentny (o około 25% większa pojemność i wydajność), przy okazji wychodzi na jaw drobne oszustwo: jak to się ma do liczby sektorów na ścieżkę deklarowanej w ?Setupie? BIOS? Ano, BIOS mówi swoje, a elektronika dysku po cichu dokonuje przeliczeń…
    Mało tego, wewnątrz dysku dzieje się jeszcze coś, o czym ani użytkownik, ani system operacyjny nie mają zielonego pojęcia. Chodzi mianowicie o system obsługi błędów. Oczywiście, dane zapisywane na dysku wyposażone są w dodatkowe informacje umożliwiające funkcjonowanie systemu korekcji ?w locie? (ECC on the fly, kodowanie Reed-Solomon itd). Oprócz tego jednak na każdej ścieżce zarezerwowana jest pewna liczba sektorów, które w przypadku pojawienia się fizycznych uszkodzeń nośnika ?podstawiane? są przez wewnętrzny mikroprocesor napędu zamiast sektorów wadliwych ? dzieje się to całkowicie niezauważalnie dla świata zewnętrznego. Notabene, wewnętrzne układy mikroprocesorowe, w które wyposażone są współczesne napędy, mają moc przetwarzania porównywalną z co najmniej z IBM PC/AT.

        1. PRML

    PRML (Partial Response Maximum Likelihood):

    Większość napędów jeszcze do niedawna podczas odczytu danych używała techniki zwanej peak detection (wykrywanie wartości ekstremalnych ? maksimum siły sygnału). W miarę wzrostu gęstości zapisu rozróżnienie sąsiednich wartości szczytowych sygnału od siebie nawzajem i od tzw. tła stawało się coraz trudniejsze. Problem ten rozwiązywano wstawiając pomiędzy sąsiadujące szczyty (?jedynki?) rozdzielające chwile ciszy (?zera?). Takie postępowanie sprowadzało się do kodowania zerojedynkowych ciągów za pomocą ciągów bardziej przejrzystych, czyli łatwiej identyfikowalnych, lecz z konieczności dłuższych. To oczywiście obniżało efektywną gęstość zapisu danych, a w konsekwencji także wydajność napędu.

    Z pomocą przyszła opracowana na potrzeby długodystansowej komunikacji w przestrzeni kosmicznej technologia PRML (Partial Response Maximum Likelihood). Pochodzący z głowicy odczytującej analogowy sygnał jest próbkowany w wielu miejscach, a następnie cyfrowo filtrowany przez wbudowany w elektronikę dysku dedykowany procesor sygnałowy DSP. Uzyskaną w ten sposób próbkę analizuje się algorytmem Viterbi. Sprawdza on wszystkie kombinacje danych, które mogły wygenerować zbliżony ciąg i wybiera tę najbardziej prawdopodobną. Umożliwia to dodatkowe zwiększenie czułości kanału odczytu i istotne zmniejszenie prawdopodobieństwa wystąpienia błędów odczytu. Najlepsze efekty daje połączenie technologii PRML z magnetorezystywną głowicą odczytującą ze względu na dobrą jakość generowanego przez nią sygnału analogowego. Głowica magnetorezystywna (MRH) wykorzystuje inne zjawisko fizyczne niż głowice, zbliżone konstrukcją do stosowanych w zwykłych magnetofonach. Element czytający MRH jest wykonany z substancji zmieniającej oporność w polu magnetycznym, więc namagnesowanie nośnika bezpośrednio rzutuje na natężenie płynącego przez głowicę MR prądu. Istotną zaletą technologii MR jest większa czułość, pozwalająca na radykalne zwiększenie gęstości zapisu, a co za tym idzie ? wzrost pojemności napędu przy zachowaniu jego rozmiarów.

    PRML oznacza także inną metodę kodowania danych na dysku: o ile przejście ze starej metody MFM (Multiple Frequency Modulation) na bardziej zaawansowaną RLL (Run Length Limited) oznaczało wzrost upakowania danych o około 50%, PRML daje tu kolejne 20-40% zysku (różne źródła podają różne wartości).

        1. Zapis magnetyczny

    Napęd różni się od innych pamięci (jak np. RAM czy Cache wykonanych przeważnie z półprzewodnikowych obwodów elektrycznych) tym, że składa się z wielu mniej lub bardziej skomplikowanych części mechanicznych. Jedną z konsekwencji tego faktu jest naturalny proces zużywania się napędów, co po dłuższej eksploatacji prowadzi do błędów w zapisie i odczycie, a nawet do całkowitej niesprawności. Inaczej jest w przypadku elektronicznych nośników pamięci, które nie zużywają się w normalnej eksploatacji, tylko w wyniku niewłaściwego obchodzenia się z nimi. Urządzenie składające się z mechanicznych i obracających się części, jakim jest każdy twardy dysk wrażliwe jest na działanie takich czynników zewnętrznych, jak upuszczenie czy wstrząsy w czasie pracy i może w ich wyniku zostać poważnie uszkodzone.

    Techniki zapisu magnetycznego:

    Wśród napędów rozróżnia się dwa zasadniczo różne sposoby zapisu, a więc i odczytu informacji: magnetyczny jak w przypadku twardych dysków. W każdym pececie znajduje się specjalny kontroler napędów, które z reguły steruje zarówno napędem dyskietek jak i dyskiem twardym (jednym lub kilkoma). Cyfrowe (zerojedynkowe) informacje przeznaczone do zapisu trafiają do kontrolera. Następnie zamieniane są w impulsy magnetyczne, a dokładniej, zmienia się kierunek przepływu prądu w cewce powodując zmianę bieguna pola magnetycznego, aby mogły być zapisane na magnetycznej powierzchni twardego dysku. Nie wystarczy jednak przy tym zapisywać dane bity jeden po drugim, trzeba dodatkowo zaznaczyć gdzie dany bit się zaczyna, a gdzie kończy. Może się to dziać na kilka różnych sposobów:

    FM ? Frequence Modulation

    MFM ? Modified Frquence Modulation

    RLL ? Run Length Limited

    ARLL ? Advanced Run Length Limited

    Metoda FM:

    W tej na najstarszej technice każdej jedynce odpowiada zmiana biegunowości pola magnetycznego, natomiast przy zerze pozostaje ona niezmieniona. Początek każdego bitu (obojętnie zero czy jedynka) wymaga dodatkowo tzw. sygnału taktującego, czyli dodatkowej zmiany biegunowości. Tak, więc do zapisu ?1? potrzeba dwu zmian biegunowości, a do ?0? jednej (tylko początek taktu).

    Metoda ta nie wykorzystuje optymalnie miejsca na twardym dysku, gdyż wymaga zbyt wielu zmian biegunowości. Im mniej tych zmian, tym więcej danych można zmieścić na tej samej powierzchni. Metoda ta jest już dosyć przestarzała i używana jest właściwie tylko przez stary format dyskietki IBM.

    Metoda MFM:

    Lepsze wykorzystanie miejsca na dysku umożliwia zmodyfikowana metoda modulacji częstotliwości ? MFM. Sygnał taktujący został tutaj niejako ?przejęty? przez strumień informacji. Rozwiązanie to zakłada jednak stałą prędkość obrotową dysku, tylko wtedy każdemu bitowi przyporządkowany jest taki sam, co do wielkości obszar. W technice MFM zmiana biegunowości odbywa się dla każdej jedynki tylko w środku danego obszaru, natomiast każde zero rozpoczyna się na początku takiego obszaru, ale tylko wtedy, gdy wcześniejszy bit nie był jedynką. Oznacza to 100% wzrost gęstości zapisu w stosunku do metody FM. Przez wiele lat była to najczęściej stosowana technika zapisu na twardych dyskach. Współpracowały one z kontrolerami w standardzie ST506/412, który umożliwiał zapis w 17 sektorach po 512 bajtów w każdym. Standard ten stosowany jest ciągle w spotykanych obecnie napędach dyskietek 3,5? i 5,25?.

    Metoda RLL:

    Dalsze zagęszczenie zapisu, czyli zmniejszenie ilości zmian biegunowości pola magnetycznego na jednostkę informacji, przyniosła metoda kodowania informacji. Pewnym grupom bitów przyporządkowano kod o zmiennej długości. Odkodowanie następowało według następującej zasady:

    Pomiędzy dwoma jedynkami znajdować się musi zawsze określona liczba zer.

    Procedura ta ? a istnieje cały ich szereg ? nazywana jest metodą RLL

    Np. w metodzie RLL2.7 pomiędzy dwie jedynki wstawianych jest od 2-7 zer, zas w RLL 3.9, znanej również pod nazwą ARLL (Advanced RLL), od 3 do 9.

    Twarde dyski IDE i SCSI wykorzystują zwykle procedurę RLL1.7 lub jakąś jej odmianę. Tabel 2.1 pokazuje przyporządkowanie konkretnym grupom bitów (jest ich tylko siedem) kodów w procedurze RLL2.7. Procedura RLL2.7 pozwala na 50% zwiększenie pojemności twardych dysków w porównaniu z metoda MFM, na każdej ścieżce zmieści się bowiem 26 a nie 17 sektorów. Procedura RLL3.9 zwiększa te pojemność już o 100% (34 sektory na każdej ścieżce).

    powiązane posty