Wenn Daten Karussell fahren

Festplatten waren nicht immer so klein und handlich, wie wir sie kennen. Zahlreiche Innovationen, die wir heute für selbstverständlich halten, sind bereits über 50 Jahre alt.

Wie Festplatten zu dem wurden, was sie sind.

Ich schiebe den Stecker meiner Festplatte in die USB-Buchse meines PCs. Aus dem Gehäuse des portablen Speichermediums dringt ein leises Surren. Die Scheiben drehen sich im Kreis und mein PC spielt die bekannte Erkennungsmelodie. Speichermedium angeschlossen. Zwei Klicks, ein Ziehen und schon verschiebe ich Datenpakete zwischen Festplatte, Stick und der Speicherkarte meiner Kamera. Ein Hochgenuss zu wissen, wo meine Fotos lagern, meine Erinnerungen, Dokumente – eben alles, was ich hin und wieder brauche. Mein eigenes Archiv.

Es war einmal…

Die erste richtige Festplatte kam mit dem IBM Ramac 305 bereits 1959 auf den Markt und hatte den überaus kreativen Namen IBM 350. Diese Festplatte, die wohl eher ein großer Wandschrank war, benötigte 40 Platten, um die damals unvorstellbar große Kapazität von fünf Megabyte (MB) zu verarbeiten. Das aber dafür in Echtzeit. Die erste Festplatte löste die Technologie des Trommelspeichers ab. Diese Speicher-Hochtechnologie war aber streng limitiert. Nicht nur wegen dem hohen Preis und dem Platzbedarf, sondern auch, weil relativ kurz nach Ende des Zweiten Weltkriegs das Vertrauen der Siegermächte in Deutschland nicht wiederhergestellt war, waren der Rechner in Deutschland und Osteuropa faktisch unverkäuflich. Deswegen nahm Konrad Zuse sein Schicksal mit seiner Zuse KG selbst in die Hand. So kam mit der Zuse Z 23,  der erste kommerziell erfolgreiche Rechner, Ende 1959 auf den Markt.

Zuses Lärmtrommel

Edwin Aures ist Informatiker am Lehrstuhl für Rechnerarchitektur an der Erlanger Universität. Er hat die Zuse in über zwei Jahren Freizeitarbeit wieder zum Laufen gebracht.  Er drückt auf einige leuchtende Knöpfe. Ein leichtes elektrisches Surren liegt in der Luft. Ein weiteres Drücken und der Elektromotor des Trommelspeichers beginnt zu arbeiten. Ein immer lauter werdendes Scheppern erfüllt den kleinen Raum der Informatiksammlung Erlangen, die einen von drei noch betriebsfähigen Zuses beherbergt. Das deutsche Wechselstromnetz schwingt mit 50 Hertz (Hz). Der Umwandler, der den Motor speist, wandelt diesen auf das Doppelte um, wodurch sich die Trommel schneller drehen kann. Da die Recheneinheit auf den Takt der Trommel synchronisiert ist, arbeitet die Zuse allein durch diesen einfachen Schritt doppelt so schnell wie ohne das Aggregat.

Dann, als der Lärm nach fast zwei Minuten langsam anstrengend wird, ist es plötzlich leiser. „Die Zuse braucht diese Anlaufzeit, bis die 20 Kilogramm schwere Trommel aus dem Lager gehoben wird“, erklärt Aures. „Oben sitzt ein Wirbelstrommagnet, wie bei einer Zugbremse, nur anders herum.“ Durch die schnelle Drehung schwebt das Alurohr im Inneren. „Das schont die Lager auf die Dauer“, ergänzt Aures.

Die Zuse Z 23, wie sie im Nürnberger Museum für Industriekultur steht. Alte Technik, die aber noch voll funktionsfähig ist. Foto: Lukas Schöpfel

Genial, aber daneben

Bei der Zuse ist eine ferromagnetische Beschichtung auf ein dickes Aluminiumrohr aufgetragen. „Durch die große Masse dreht die Trommel ruhiger“, merkt Aures an, als er die kaputte Vorgängertrommel herauswuchtet. Dieses Rohr wird luftdicht in einem Tubus verschlossen, auf dem gruppenweise 256 Köpfe zum Schreiben und Lesen fest verbaut sind. Sie magnetisieren den Lack, der die einzelnen Dezimalstellen einer Datei dauerhaft erhalten können. Aures lobt die Dauerhaftigkeit des Trommelspeichers: „Wir fanden nach fast 30 Jahren noch Reste vom Betriebssystem darauf.“ Dabei ist es entscheidend, wie weit die Köpfe von der Beschichtung entfernt sind. Zu nahe und sie wird abgekratzt, zu weit weg und die Beschichtung ist zu schwach magnetisiert zum fehlerfreien Wiederauslesen.

Obwohl viele Dinge den Trommelspeicher zu einem verlässlichen Speichermedium machten – eines kann nicht geleugnet werden: Will der Anwender mehr Speicher, muss die Oberfläche größer werden und das geht nur durch einen größeren Trommeldurchmesser. Somit haben sich die Plattenspeicher aufgrund ihrer Platzeffizienz verdient durchgesetzt. Plattenspeicher sind zwar Giganten, doch sind sie beidseitig beschreibbar. Obwohl ein Plattenpaket über eine Tonne wog, so war es doch mit einem Spezialwagen in sehr geringem Umfang mobil. Ist eine Oberfläche des Speichers kaputt, muss nur eine Scheibe statt der ganzen Trommel ausgetauscht werden.

1010111 1101111 1101000 1101001 1101110 100000 1100100

Übersetzt heißt dieser Binärcode „Wohin damit?“ Also wohin mit den Daten? Wie werden diese verarbeitet? Wissenschaftler speicherten anno 1961 Daten noch auf einem Lochstreifen. Programme wie auch Daten und Schrift wurden in Pergamentrollen gestanzt. Sollten die Daten nun gelesen und beispielsweise auf den Trommelspeicher geschrieben werden, war der erste Befehl auf dem Lochstreifen die Speicheradresse. Anwender mussten genauestens wissen, wie viele Daten anfallen würden und jeden Speicherplatz auf der Trommel einzeln und händisch vorgeben. Waren die Daten größer als ein Speicherplatz bzw. eine Trommelumdrehung, wurde automatisch auf der nächsten Spur weitergeschrieben. Für damalige Verhältnisse eine nützliche Idee und eine spürbare Erleichterung. Von Maschinenseite aus wurde das so bewältigt, dass jeder Datensatz von einer Art Klammer umspannt wurde, die das Volumen angab. So eine Klammer haben Dateien immer noch, nur wesentlich ausführlicher. Heute geben sie unter anderem  Volumen, Art der Datei (docx, xlsx, exe, html, jpg etc.), Erstelldatum und letzten Zugriff an. Diese Informationen sind bei der Datenformatierung FAT notwendig.

Für den Computer legt dieses Protokoll fest, wie mit Daten beim Speichern und Lesen umgegangen werden soll. Die erste Formatierungsregel, genannt FAT12, wurde 1980 durch Windows QDOS eingeführt, da die Diskette seit ihrer Einführung 1971 eine ausgeklügeltere Speicherverwaltung nötig machte. FAT12 konnte mit bis zu 16 MB arbeiten, der Nachfolger FAT16 bereits mit 2 GB.

Wird heutzutage eine Datei in einen unbeschriebenen Bereich gespeichert, wird zuerst ein sogenanntes Cluster ausgewählt. War bei der Zuse eine Datenrille vor einem Kopf eine primitive Form, so sind es mit FAT12 512 MB. Dieses Cluster kann nur eine Datei aufnehmen. Es besteht aus mehreren Sektoren, die die einzelnen Teilinformationen einer Datei speichern. Das ist vergleichbar mit dem Aufbewahren der Wäsche: Ein Berg Bettzeug kommt in den Kellerschrank, die einzelnen Laken finden Platz in den Regalböden. Ist dennoch ein Regal frei, wird es nicht belegt, damit sich die Wäschesorten nicht vermischen. Ist eine Wäscheladung kleiner als ein Schrank, bleibt er ungenutzt, ist es mehr Wäsche, als in einen Schrank Platz finden kann, wird der Rest in einem weiteren Schrank gelagert. Ebenso bei FAT: Sehr kleine Dokumente verbrauchen mehr Platz als nötig, deswegen wurde die Clustergröße mit FAT32 auf 16 KB und mit dem Nachfolger NTFS auf 4 KB gesenkt. Das ermöglicht einen wesentlich effizienteren Umgang mit Speichermedien.

Bereits nach kurzer Zeit der Benutzung einer Festplatte ist aber kein gänzlich freier Speicherplatz mehr vorhanden. Es kommen neue Dateien hinzu, andere werden gelöscht. Bleiben wir bei unserem Wäschebeispiel: Der Benutzer löscht etwas, also leert er metaphorisch einige Regalböden. Dann geht er einkaufen und kommt mit vielen Kleidungsstücken wieder nach Hause. Ein gänzlich freier Schrank ist aber nicht mehr da. Jetzt wird klar, warum man die Sektoren in Cluster eingeteilt hat: Alle roten Hemden liegen im Schlafzimmerschrank, die blauen Hemden im Kellerschrank und die Pullover im Kinderzimmer. Hat man sich also beim Umziehen für ein blaues Hemd entschieden, weiß man bzw. der PC, in welchem Schrank oder Cluster er die gewünschte Datei finden wird. Wir erinnern uns aber daran, dass sich im Kellerschrank auch die Bettlaken befinden. Der Zustand, dass sich so in einem Cluster verschiedene Sorten befinden, nennt sich Fragmentierung. Ist kein leeres Cluster vorhanden, wird die Datei gestückelt und zuerst in Lücken gefüllt, bevor ein frischer Speicherplatz belegt wird. Ist eine Datei also über die ganze Festplatte verteilt, dauert der Zugriff länger, da erst alle Teile zusammengesucht werden müssen.

Arme: wichtiger als gedacht

Letzter physikalischer Baustein, der die Technik der 1960er Jahre von der heute bekannten Plattenspeichertechnik unterscheidet, ist der bewegliche Arm im Inneren. Um sich die langen Reihen von Schreib- und Leseköpfen zu sparen, setzten die Ingenieure einfach nur einige wenige Köpfe auf einen Arm, der die ganze Breite der Platte abfahren konnte. Wenige Jahre nach der Ramac 305 brachte IBM 1961 den Speicher 1301 mit „fliegenden Armen“ auf den Markt. Diese Vorrichtung konnte sowohl lesen als auch schreiben. Damals war es noch üblich, dass jede der 20 in einem Modul befindlichen Platten einen eigenen Arm hatte. Zudem rückten die Köpfe näher an die Platte heran, was eine höhere Datendichte ermöglichte; nach so kurzer Zeit war die Kapazität im Vergleich zur Ramac um Faktor 13 auf fast 30 MB gestiegen. Die englische Abkürzung für Festplatte HDD (Hard Disk Drive) gibt bis heute zu erkennen, dass die Daten auf einer Platte sitzen.

Bibliothek en miniature

Seit den Sechzigern ist die Technik der Festplatte stets weiter verbessert worden und die Kapazität stieg rasant. IBM knackte 1965 die Marke von 100 MB. Neun Jahre später kratzte STC mit 880 MB schon am nächsten Meilenstein. 1981 durchbrach IBM mit der 3380 die Marke von einem Gigabyte: Sie konnte 1,26 GB aufnehmen. Dann brachte Hitachi die erste Festplatte mit einem Terrabyte heraus. Im Vergleich zur der 3380 ist das eine Vertausendfachung. Wollte man mit der Zuse dieselben 1,26 GB speichern, so müsste man fast acht Fußballfelder mit Trommelspeichern vollstellen.

Ein letzter beachtlicher Schritt ist die fortlaufende Miniaturisierung der Festplatte. Die monströsen Gigabytespeicher waren für Industriekunden gedacht, doch hatte auch der Normalverbraucher etwas von den Entwicklungen. Denn die einzelnen Platten schrumpften von über einem Meter Durchmesser auf wenige Zentimeter. Ebenso rasant verloren die Platten an Gewicht und der Heimcomputer das Problem des andauernden Speichermangels. Aber es geht noch kleiner, viel kleiner.

Bestes Beispiel dafür ist der der Apple iPod. Während auf die Zuse nur einige wenige Seiten unformatierter Text oder Zahlenreihen passten, warb Apple mit dem ersten iPod Classic 2001 mit dem Werbespruch: „1000 Songs in deiner Hosentasche“. Die winzige 1,8 Zoll Festplatte fasste ganze fünf Gigabyte an Daten. Die Nachfolger dieser besonders kleinen oder flachen Platten kommen heute in besonders dünnen Laptops wie den sogenannten Ultrabooks von Intel oder den Macbooks von Apple vor.

Crash: was nun?

Eines schönen Tages stecke ich wieder meine Festplatte an, aber diesmal wird sie nicht erkannt. Windows will sie nun aus Sicherheitsgründen formatieren. Ich bin schockiert. Sind jetzt alle Fotos und Studienarbeiten verloren? Ich suche im Netz nach Lösungen und anscheinend lässt sich da was machen.

Thomas Ludwig am Tresen seines Ladens in Nürnberg Whörd. Foto: Lukas  Schöpfel

Thomas Ludwig ist IT-Systemelektroniker und führt seinen eigenen Computerladen, den „PC-Spezialist“. Er schaut sich die Platte an: „70 Prozent der Fehler sind defekte Dateisysteme und keine physikalischen Fehler.“ Das heißt, dass meistens die Zuordnungstabelle defekt ist und nicht der Motor oder eine eiernde Scheibe Schuld ist. Bei Festplatten werden die eigentlichen Informationen und die Metadaten getrennt gespeichert. Logisch, denn wenn ich nicht weiß, wo die roten Hemden liegen, kann ich keine anziehen. Trotzdem sind die Informationen (Hemden) aber noch da, nur eben die Metadaten unauffindbar. Diesen Luxus des Wiederherstellens gab es bei der Zuse nicht. Vor jeder Benutzung musste das Betriebssystem durch einen Quersummentest auf Vollständigkeit geprüft und bei Bedarf neu eingelesen werden. „Seit es aber Festplatten gibt, hat man sich dieses System erdacht“, erinnert sich Oliver Kubik, Sales-Manager bei ECS, einer der führenden Datenretter.

Die Directory-Einträge speichern die oben erwähnte Klammer ab, also Dateiname, -größe, -art, Datum und Zeit der letzten Änderung und den Namen des ersten Clusters. Die eigentliche Speicheradresse und die Directory-Einträge nennt man zusammen MFT-Daten. Dieses Master File Table liegt in der sogenannten Service-Area. Den Teil, den man als Anwender tatsächlich sieht und nutzt, ist dagegen die User-Area. Diese Service-Area steht auf dem äußersten Rand der Scheiben. Bei der Benutzung werden die enthaltenen Einträge automatisch aktualisiert und Backups angelegt. Ein System, das bei frühen Plattenspeichern nützlich und nun bei wachsender Kapazität unerlässlich ist.

„Möglicherweise ist die Service-Area der Platte beschädigt. Sie kann also nicht korrekt initialisiert werden, defekte Sektoren verhindern ein Auslesen der Daten“, erklärt Tobias Lindgren. Er ist Cheftechniker der „Datenrettung Deutschland“ und Kollege von Kubik. Sowohl beim PC-Spezialist als auch bei ECS werden die MFT-Informationen ausgelesen und nach Backups gesucht. Besonders bei fragmentierten Dateien sind dann die Klammerattibute wichtig, wenn mehrere Stücke zu einer ganzen Datei gepuzzelt werden müssen. Wenn nur einige Fragmente fehlen, ist die Datei wiederherstellbar. Ist der Header korrupt, also beschädigt, so sind wegen den fehlenden Metainformationen die verschiedenen Puzzlestücke nicht mehr zuordenbar.

Danach wird die Platte nach den eigentlichen Dateien untersucht. Tauchen bei diesem Scan Dateien auf, die nicht in der Zuordnungstabelle verzeichnet waren, so heißt das Raw-Recovery – quasi eine Suche ohne klar einschätzbare Erfolgsaussichten. „Dabei können lediglich die Dateien als solche wiederhergestellt werden, ohne Informationen wie Bezeichnung, Erstelldatum und Ordnerstruktur“, stellt Lindgren heraus. „Die Dateien werden dann einfach beliebig benannt, das macht die Software“, ergänzt Kubik. Sind hingegen die passenden MFT-Informationen vorhanden, so kann die Datei vollständig sein.

Vor 50 Jahren konnten sich nur große Betriebe einen „rechnenden Raum“ leisten. Für sie wurde die getrennte Speicherung in den Areas erdacht. Als Übersichtsverzeichnis, wie ein Telefonbuch, ermöglicht sie ein schnelles Finden von Daten für den Computer. Ganz nebenbei erleichtert sie die Rettung, wenn doch der Ernstfall eintritt; schließlich ist eine verlustfreie und permanente Speicherung wünschenswert.

SSD ist der HDD sein Tod?

Seit einigen Jahren sind SSDs für den Consumermarkt erschwinglich geworden. Diese Solid State Disk, also eine ruhende Speicherzelle, funktioniert ganz grob gesagt wie ein riesiger USB-Stick. Sie ist unempfindlich gegen Stöße, die Zugriffszeiten sind phänomenal, da nicht eine Plattenumdrehung lang gewartet werden muss, und leben lange. Warum also nicht wechseln?

So altgedient die HDD auch ist, sie ist nach wie vor unersetzlich. Es gibt schon SSDs mit über einem TB zu kaufen, aber sie sind teurer. Und das viel größere Problem: „Nur einmal eine Fehlspannung am Laptop und alles kann weg sein“, meint Lehmann warnend. Er empfiehlt immer eine Sicherung auf dem altbewährten Medium. „Alle Programme wie Office und das Betriebssystem arbeiten schneller mit der neuen Speichertechnologie. Trotzdem ist eine permanente Sicherung von Arbeitsdaten auf einer Festplatte unersetzlich, einfach, risikolos und auch nicht teuer.“ Auch die Datenrettung bei einer SSD  schätzt er als sehr schwer und aufwändig ein: „Die Erfolgschancen sind gering. Das ist der Preis für die Schnelligkeit.“

…da hat man was Eigenes.

Die gute alte Festplatte wird also vorerst nicht im Wandschrank neben Mamas Disketten und Omas Diaprojektor landen, ganz im Gegenteil. ASTC, der Verband der Festplattenhersteller, malt sich bis 2025 über zehn Terabyte große Speicher aus. Währenddessen füllt unter anderem Western Digital die Zwischenräume der Platten mit Helium. So passen acht statt nur sieben Platten in ein Gehäuse. Allerdings sind die Preise um 500 Dollar aktuell eher für Betriebe bezahlbar und nötig. Wer aber an die wachsende Zahl an Cloud-Diensten denkt oder auch nur, wieviel Speicherplatz ein 4K-Video benötigt, der kann sich ausmalen, dass in einigen Jahren neben einer SSD eben auch eine HeHDD Karussell fahren könnte.

Ich bin derweil erstmal zufrieden mit meiner alten neuen Technik unter dem Schreibtisch. Zwar hat sich der Trommelspeicher nicht durchgesetzt, aber er legte viele Grundsteine, die wir heute zu leicht übersehen. Schon erstaunlich, wie dieses edle schwarze Kästchen zu dem wurde, was es jetzt ist: mein Archiv.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert