REFERAT-MenüDeutschGeographieGeschichteChemieBiographienElektronik
 EnglischEpochenFranzösischBiologieInformatikItalienisch
 KunstLateinLiteraturMathematikMusikPhilosophie
 PhysikPolitikPsychologieRechtSonstigeSpanisch
 SportTechnikWirtschaftWirtschaftskunde  



Projekt Speichermedien



Speichermedien





1. Magnetische Speichermedien




1.1. Disketten





1.1.1. Die gängigsten Diskettenformate


5¼-Zoll-Disketten:

360 KByte

1,2 MByte


3½-Zoll-Disketten:

720 KByte

1,44 MByte

2,88 MByte


1.1.2. Genormte Leistungsmerkmale der Disketten


Bis in die Details sind die Eigenschaften von Disketten festgelegt, und zwar sowohl in mechanischer und physikalischer Hinsicht als auch, was ihre magnetischen Eigenschaften angeht. Dafür gibt es eine Reihe von Normen. Sie unterscheiden sich nicht wesentlich und ergänzen sich in mancher Hinsicht.

Am wichtigsten für die Diskettenindustrie sind die Regeln der ECMA (European Computer Manufacturers Assosiation).


ECMA-Normen


Der Standart ECMA 70 beschreibt die mechanischen, physikalischen und magnetischen Charakteristika für Disketten des 5¼-Zoll-Formates mit 40 Spuren pro Seite. Disketten mit 80 Spuren für das 720-KByte- und das 1,2 MByte-Format sind in ECMA 78 und 99 festgelegt.

DIN-Normen


Die DIN-Normen bezüglich der mechanischen Eigenschaften sind DIN 66247, Teil 1 (Mechanische Eigenschaften), Teil 2 (Elektromegnetische Eigenschaften bei 7 958 Flußwechsel/rad) sowie die Ergänzungen in Teil 2 A1 (Elektromagnetische Eigenschaften bei 13 262 Flußwechsel/rad). Die DIN 66248 mit ihren Teilen 1, 2, 3, 3 A1, 4, 5 und 6 enthält Informationen über Aufzeichnungsverfahren und Formatierung. Auch hier sind zugleich die zugehörigen Prüfvorschriften festgelegt.

Die Festlegung zur Messung des Transmissionswertes (Lichtdurchlässigkeit) mittels lichtemmitierender Dioden (LED) sind in DIN 66243 Teil 2 veröffentlicht. Angelehnt sind alle diese Vorschriften an die internationalen ISO-Normen (ISO = International Organisation for Standardization). Die einschlägigen Regeln lauten: ISO 6596/1, ISO 7487/1, ISO 8630/1, ISO 8378/1.

Erwähnenswert ist noch, daß für verschiedene Messungen international die Referenzdisketten der deutschen Physikalisch-Technischen Bundesanstalt (PTB) in Braunschweig vorgeschrieben sind.


1.1.3. Die 5¼-Zoll-Diskette


So manche Dinge tragen im Sprachgebrauch andere Namen als unter Fachleuten - man denke nur an den Schraubenzieher, offiziell 'Schraubendreher'. Bei Disketten ist es nicht anders: Mit geringerer Dichte heißen Sie 'DD' oder '2D' für 'doppelte Dichte' und tragen auch die Bezeichnung '48 tpi', weil 48 Spuren pro Zoll (tracks per inch) auf ihnen untergebracht werden. Die andere Sorte heißt 'HD' und '96 tpi' für hohe Dichte und 96 Spuren pro Zoll. Die Norm allerdings will es ganz anders:

Da die Kantenlänge der 5¼-Zoll-Disketten etwa 130 mm beträgt, heißt sie nach DIN 'Diskette E 130' in der einseitig beschreibbaren und 'Diskette Z 130' in der zweiseitig beschreibbaren Variante. Während bei den Disketten mit der Kennzeichnung 'E' nur eine Seite (die Seite 0) als beschreibbar deklariert wird, müssen bei zweiseitig beschreibbaren Disketten die Daten auf beiden Seiten - in sogenannter Wechselaktschrift - gespeichert werden können.

Disketten des 360 KByte-Formates haben auf jeder Seite 40 Spuren, bei einer Dichte von 1,9 Spuren/mm. Bei 80-Track-Disketten sind es 3,8 Spuren pro Millimeter. Bezüglich der formatierten Speicherkapazität muß bei letzteren noch zwischen DD- und HD-Disketten unterschieden werden. Diese Einteilung haben jedoch die Disketten nicht von Hause aus; es hadelt sich dabei vielmehr um das Format, das ihnen bei der Formatierung aufgezwungen wird.

Unter 'Dichte' ist die Aufzeichnungsdichte zu verstehen. Sie hat also mit der Diskette nur insofern zu tun, daß sich eine Diskette in der deklarierten Dichte beschreiben und lesen lassen muß.


Aufbau


Die 5¼-Zoll-Diskette besteht aus 4 Komponenten, einer Fexieblen Kustoffhülle, die an ihrer innenseite mit einem Reinigungsvlies überzogen ist. Darin befindet sich das Speichermedium, daß in der Mitte durch einen Hub-Ring verstärkt ist.

1.1.4. Die 3½-Zoll-Diskette




In ihre Einzelteile zerlegt, bestehen 3½-Zoll-Disketten im wesentlichen nur aus zehn Komponenten. Bei näherer Betrachtung finden sich neben dem eigentlichen Speichermedium noch zwei unscheinbare Teile von großer Bedeutung. Sie verbergen sich unter dem Reinigungsvlies: Ein flexibles Plastikstück, der sogenannte Lifter, drückt permanent gegen die Diskettenscheibe. So wird zum einen die Scheibe bei jeder Undrehung gereinigt, zum anderen das Start-/Laufdrehmoment konstant gehalten.

Andruckstege auf der gegenüberliegenden Gehäuseinnenseite stellen zusätzlich die Reinigung der zweiten Diskettenseite sicher und stabilisieren darüber hinaus den Lauf der Scheibe. Extreme Temperaturen lassen den kleinen, nützlichen Helfer seine Elastizität verlieren, das Laufverhalten der Diskette gerät aus den Fugen.

1.2. Festplatten




Das Funktionsprinzip einer Festplatte ist nicht schwer zu verstehen, ähnelt es doch sehr dem von Disketten. Wie bei diesen werden die Bits in magnetische Flußrichtungswechsel umgesetzt. Das bedeutet nichts anderes als daß die Magnetpartikel der Oberfläche eine andere Polung für eine »0« einnehmen als für eine »1«.


Allerdings bewegen sich Festplatten in ganz anderen Dimensionen. Im Gegensatz zur Diskette mit ungefähr 300 Umdrehungen pro Minute rotiert die Festplatte(n) mit 3600 Umdrehungen, manche Modelle gar mit 5000 und mehr. Daß die Magnetschicht nicht, wie bei herkömmlichen Disketten, auf einem weichen Kunststoffträger aufgebracht werden kann, leuchtet ein: Eine dünne Kunststoffscheibe würde bei diesen Geschwindigkeiten unweigerlich zu flattern beginnen. Bei Festplatten verwendet man daher Aluminium- oder Glasscheiben als Trägermaterial. Um mehr speichern zu können, werden dabei mehrere Scheiben übereinander auf eine gemeinsame Achse montiert. Radial hierzu, ähnlich wie beim guten alten Plattenspieler, sind an einem beweglichen Arm die Schreib-/Leseköpfe befestigt, und zwar für jede Plattenoberfläche einer (Bild 2).



Eine Berührung zwischen Kopf- und Platte, der gefürchtete »Headcrash«, wäre bei dieser hohen Rotationsgeschwindigkeit tödlich: Datenverlust wäre die Folge, und auch der Kopf könnte in Mitleidenschaft gezogen werden. Dies verhindert jedoch der sogenannte Bernoulli-Effekt. Bei solch hohen Rotationsgeschwindigkeiten bildet sich zwischen Plattenoberfläche und Kopf ein Luftpolster, so daß der Kopf im Abstand von einem Mikrometer (ein Millionstel Meter) auf diesem Polster über der Platte schwebt. So erklärt sich auch die Stoßempfindlichkeit von Festplatten im Betrieb. Staub, Fingerabdrücke oder gar Haare würden sich vor dem Schreib-/Lesekopf wie ein Gebirge auftürmen. Um das Eindringen von Staubpartikeln auszuschließen, werden Festplatten in staubfreien Räumen hergestellt und luftdicht verschlossen oder mit einem feinen Filter vor Staub geschützt. Vor jeglichem Transport sollten Festplatten unbedingt »geparkt« werden. Bei diesem Vorgang, der entweder automatisch bei Trennung vom Stromnetz erfolgt (Autopark-Funktion) oder manuell per Programm (meist »Ship« oder »Park«) ausgelöst werden muß, werden die Schreib-/Leseköpfe in einen Plattenbereich gefahren, der keinerlei Daten enthält. Hier können die Köpfe ohne Gefahr auf der Platte landen (die sogenannte »landing zone«). Zusätzlich werden die Köpfe in dieser Parkposition arretiert, so daß eine Zerstörung bei einigermaßen pfleglicher Behandlung ausgeschlossen werden kann. Besonders interessant ist die Autopark-Funktion moderner Laufwerke. Vom Netz getrennt, kommt die Platte aufgrund ihrer Schwungmasse erst nach einiger Zeit zum Stillstand. Ein Generator erzeugt aus dieser Restrotation Strom, der benutzt wird, um die Köpfe in eine ungefährliche Position zu fahren.


Im Gegensatz zu Diskettenlaufwerken rotieren Festplatten ständig, da es zu lange dauern würde, sie bei jeder Datenanforderung erneut auf Touren zu bringen. Der Geschwindigkeitsvorteil der Festplatte ginge verloren. Damit wären wir auch schon beim entscheidenden Vorteil von Festplatten: Sie sind schnell. Selbst die ersten Festplattenlaufwerke mit Zugriffszeiten um die 80 ms waren ein gewaltiger Fortschritt. Die mittlere Zugriffszeit liegt bei den Spitzenreitern heute unter 10 ms. Diskettenlaufwerke dagegen weisen eine mittlere Zugriffszeit von 150 bis 200 ms auf, also deutlich mehr. Da die Magnetbeschichtung höherwertig ist und die Köpfe sehr viel genauer arbeiten, können Festplatten auch wesentlich mehr Daten aufnehmen. Während Disketten heute bis zu 2,88 MByte speichern, bereiten auch ein GByte (1 GByte = 1024 MByte) oder mehr keine Probleme. Haushoch gewinnen Sie auch beim Datendurchsatz. Wo Diskettenlaufwerke mit 30 bis 40 KByte pro Sekunde aufwarten können, bringt es selbst eine langsame Festplatte auf 200 KByte pro Sekunde. Der mittlere Bereich liegt dann bei 600 bis 700 KByte pro Sekunde, und ab einem MByte aufwärts beginnt die High-end-Klasse, die bis zu 2 MByte pro Sekunde (alle Werte ohne Cache) erreicht.

Von BPI und FCI


Die sogenannte Aufzeichnungsdichte wird in BPI (Bits per Inch = Bits pro Zoll) angegeben. Diese ereicht heute Werte von zikra 40000 BPI. Ein ebenso gebräuchliches Maß für die Aufzeichnungsdichte ist »Flux Changes per Inch« (FCI). Übersetzt bedeutet das soviel wie »Flußwechsel pro Zoll« und gibt an, wie oft die Ausrichtung der Magnetpartikel pro Zoll geändert werden kann, denn der Abstand »d« zwischen zwei Flußwechseln kann eine bestimmte Grenze aus physikalischen Gründen nicht unterschreiten. Die gegenseitige Beeinflussung zweier nebeneinander liegender Bits wäre zu groß, eine »Umpolung« und somit ein Datenverlust wäre nicht ausgeschlossen. Je höher jedoch die Werte BPI beziehungsweise FCI sind, desto mehr Daten lassen sich auf der Festplatte unterbringen.


1.2.1. Datenorganisation


Auf den Magnetoberflächen werden durch die Low-level-Formatierung Datenspuren in Form konzentrischer Ringe eingerichtet. Die Spuren eines Plattenstapels, die genau übereinander liegen, bezeichnet man als Zylinder. Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte. Diese Spurdichte wird in TPI angegeben, das bedeutet Tracks Per Inch, als Spuren pro Zoll.

Da die inneren Spuren einen geringeren Umfang haben als die äußeren, können sie auch weniger speichern. Bei älteren Festplatten legt also die innerste und somit auch kürzeste Spur fest, wie viele Sektoren (1 Sektor = 512 Datenbytes) auf allen anderen Spuren untergebracht werden.


Schon bald entwickelte man ein Verfahren, um dieser Platzverschwendung auf den äußeren, längeren Spuren zu begegnen. Zone-Bit-Recording oder ZBR hieß das Zauberwort. Die Platte wird hierzu in mehrere Spurgruppen eingeteilt. Dabei wird für jede Gruppe die maximale Anzahl von Sektoren pro Spur bestimmt. Je kleiner diese Gruppen sind, desto besser ist die Ausnutzung der Platte. Im Idealfall würde für jede Spur der optimale Wert errechnet. Der Rechneraufwand für den Controller würde in diesem idealen Fall stark ansteigen, da er bei jedem Zugriff erst berechnen müßte, wie viele Sektoren auf der zu lesenden Spur untergebracht sind. Um den Rechenaufwand gering zu halten, faßt man mehrere Spuren zu einer »Zone« zusammen, in der die Sektorenanzahl der Spuren gleich ist. Das Verfahren stellt also einen Kompromiß aus Geschwindigkeit und Platzgewinn dar.

Die Abbildung zeigt ein Beispiel für eine Einteilung. In Zone 2 können dabei die wenigsten Daten gespeichert werden, in Zone 0 die meisten. Die LPS 120AT von Quantum bringt innerhalb ihrer 16 Zonen zwischen 44 (ganz innen) und 87 (ganz außen) Sektoren auf jeder Spur unter.

So kommt diese 25,4 mm hohe 3½-Zoll-Festplatte mit nur einer Speicherplatte auf eine beeindruckende Kapazität von 120 MByte. Das Modell LPS 450 des gleichen Herstellers kommt bei identischen äußeren Abmessungen mit fünf Speicherplatten gar auf eine Kapazität von 425 MByte. Es dürfte damit wohl zu den Spitzenreitern in diesem Bereich zählen.


1.2.2. Der Interleave-Faktor


Da die ersten Festplatten im Vergleich zu den damaligen Rechnern zu schnell waren, konnte der Computer die Sektoren nicht direkt hintereinander lesen. Während er beispielsweise Sektor 1 las und auswertete, war Sektor 2 schon am Kopf vorbei, so daß dieser erst nach einer weiteren Umdrehung gelesen werden konnte. Um diese Verzögerung zu vermeiden (so wären für die 17 Sektoren einer Spur einer MFM-Platte immerhin 17 Umdrehungen nötig gewesen), dachte man sich einen Trick aus. Zwischen zwei aufeinanderfolgenden logischen Sektoren wird eine Lücke eingefügt. In diese Lücke kommt dann ein zusätzlicher logischer Sektor der Spur. Dieses Verfahren wird »Interleave« (Versatz, verschachtelter Sektorzugriff) genannt. Der sogenannte »Interleave-Faktor« gibt an, wieviele physikalische Sektoren zwischen zwei logischen liegen und somit auch, wieviele Umdrehungen zum kompletten Lesen einer Spur notwendig sind. Bei einem Interleave von 1:3 folgt Sektor 2 erst drei Sektoren nach dem ersten. Zum Einlesen der Spur wären also drei Umdrehungen nötig. Ideal ist natürlich ein Interleave-Faktor 1:1. Hier folgen die logischen Sektoren unmittelbar aufeinander, und die Spur kann innerhalb einer Umdrehung gelesen werden. Moderne Festplatten/Controller-Kombinationen erreichen diesen Interleave, der eigentlich ja gar keiner mehr ist, mühelos, indem zum Beispiel ein Pufferspeicher (Cache) auf dem Controller untergebracht ist.


1.2.3. Die Rechneranbindung


Die eigentliche Anbindung an den Computer übernimmt wie so oft eine spezielle Steckkarte, der Festplatten-Controller. Kann dieser auch noch Diskettenlaufwerke mitsteuern, so spricht man von einem Kombi-Controller. Dabei gibt es vier verschiedene Arten von Controller-Schnittstellen und somit auch vier verschiedene Festplattenarten:


ST506/412


Dieses Interface wurde nach der ersten Seagate-Festplatte, die diese Schnittstelle verwendete, der ST506 (»ST« = Seagate Technology) benannt. Je nach Aufzeichnungsverfahren werden hierbei Datenübertragungsraten von 5 MBit (MFM) bis zu 7,5 MBit (RLL) pro Sekunde erreicht. In der Praxis liegt der Datendurchsatz etwa zwischen 200 und 600 KByte pro Sekunde. Zu erkennen ist die ST506/412-Schnittstelle am 20poligen Daten- und am 34poligen Steuerkabel (meistens Flachbandkabel). Da die Datenübertragung seriell erfolgt, liegt der Datendurchsatz recht niedrig. Der Standard-Controller ist der WD1003 von Western Digital, zu dem viele Controller kompatibel sind.

ESDI


Das Enhanced Small Device Interface (ESDI) ist als Weiterentwicklung des ST506/412 zu sehen. Es arbeitet mit den gleichen Kabelverbindungen, und ebenfalls seriell. Die Übertragungsrate liegt hier mit 10 bis 15 MBit pro Sekunde schon deutlich höher. Sowohl ST506/412 als auch ESDI sind PC-spezifische Entwicklungen und erlauben maximal zwei Festplatten gleichzeitig.


SCSI


Die derzeit wohl universellste Schnittstelle ist das 1982 standardisierte Small Computer System Interface. SCSI oder das neue, weiterentwickelte und abwärtskompatible SCSI-II ist keine reine Festplattenschnittstelle, auch Scanner, CD-ROM-Laufwerke und vieles mehr kann daran angeschlossen werden. Bis zu sieben Geräte (also auch bis zu sieben Festplatten) können beliebig gemischt in einer Reihe angeschlossen werden, wobei das jeweils letzte mit einem Abschlußwiderstand versehen werden muß. Da jedes Gerät eine eigene Adresse in Form einer Nummer hat, kommen die Daten auch immer beim richtigen an, indem sie von Gerät zu Gerät witergereicht werden, bis der Adressat erreicht ist. Ein weiterer Vorteil, der für SCSI spricht, ist die hohe Verarbeitung dieser Schnittstelle, die auch beim Next-Rechner und beim Apple Macintosh anzutreffen ist. Die eigentliche Intelligenz dieser parallelen Schnittstelle besitzt jedoch das jeweilige Gerät, nicht der Controller. Im Gegensatz zu ST506/412 steuert nicht der Steckkarten-Controller Vorgänge wie beispielsweise Formatieren, sondern der Computer erteilt hier nur den Befehl »formatiere Festplatte«, und alles weitere veranlaßt der auf dem Gerät integrierte Controller, während der Computer schon weiterarbeiten kann. Daher nennt man die hier verwendeten Steckkarten statt Controller besser Host-Adapter. Der Host-Adapter nimmt lediglich eine Anpassung der elektrischen Signale zwischen SCSI-Gerät und dem ISA/EISA/MCA-Bus des PCs vor.

Im Falle einer Festplatte befindet sich die gesamte Steuerelektronik auf der Platte. Das hat den Vorteil, daß der Hersteller die Verbindung zwischen Festplatte und Controller stark optimieren kann und der Host-Adapter nur noch wenig Einfluß auf die Datenübertragungsrate hat. Nachteilig ist jedoch der höhrere Preis von SCSI-Komponenten, da jedes Gerät seine eigene Schnittstelle quasi »mitschleppt«. Zu erkennen sind SCSI-Festplatten am 50poligen Flachbandkabel, welches bis zu 6 Meter lang sein darf. Die maximale Datenübertragungsrate liegt bei bis zu 4 MByte pro Sekunde, welche in der Praxis aber fast nie erreicht wird. Der derzeit wohl meistverbreitete SCSI-Host-Adapter stammt von der amerikanischen Firma Adaptec, heißt 1542B (Kombi-Controller) und kostet um die 500 Mark. SCSI-Produkte sind aufgrund ihrer enormen Leistungsfähigkeit und dem damit verbundenen höheren Preis bis jetzt eher den Profis vorbehalten. Nicht verschwiegen werden sollte auch der höhere Installationsaufwand bei SCSI. Oft sind weitere Treiber erforderlich, die eventuell Inkompatibilität hervorrufen können, oder es müssen die bereits erwähnten Abschlußwiderstände angebracht werden. Auch eine Anderung der Gerätereihenfolge kann Probleme mit sich bringen, ganz im Gegensatz zur eigentlichen SCSI-Spezifikation. SCSI sollte also nicht unbedingt von Einsteigern installiert werden, sondern gehört in schon etwas erfahrene, wenn nicht sogar in Profi-Hände. Dies ergibt sich allerdings durch den bereits erwähnten recht hohen Preis fast automatisch.
IDE (auch AT-Bus genannt)


Furore macht in letzter Zeit die bisher neueste Schnittstelle, das Integrated Device Electronics IDE, welches oft auch als AT-Bus-Schnittstelle bezeichnet wird. Letztere Bezeichnung rührt daher, aß diese Technologie wirklich erst AT-Besitzern (also ab 80286) zugänglich ist, da die Schnittstelle auf dem 16 Bit breiten Bus des AT aufbaut. Keine Regel jedoch ohne Ausnahme: Es gibt seit kurzem auch IDE-Adapter für PCs mit 8086/88-Prozessor, allerdings geht hier einiges an Geschwindigkeit verloren. Wie auch SCSI arbeitet IDE parallel, und auch hier benötigt man einen Host-Adapter. Die eigentliche Intelligenz, der Controller, ist wieder auf der Festplatte selbst integriert (daher auch der Name) und läßt sich somit optimal auf das jeweilige Laufwerk abstimmen. IDE eignet sich allerdings nur zum Anschluß von Festplatten (neuerdings auch Streamern), und auch hier ist die Anzahl auf zwei (mit teueren IDE-Adaptern bis zu vier) Platten beschränkt.

Der große Vorteil ist der wesentlich günstigere Preis gegenüber SCSI bei durchaus vergleichbarer Geschwindigkeit (an die 2 MByte pro Sekunde können erreicht werden, durchschnittlich ist es ungefähr 1 MByte pro Sekunde). Doch nicht nur die Platten sind wesentlich günstiger: Ein IDE-Host-Adapter mit Disketten-Controller kostet nur etwa 200 Schilling, auch Modelle mit bereits integrierten seriellen und parallelen Schnittstellen nicht wesentlich teurer.


Abschließend kann man sagen, daß die Zukunft SCSI und IDE gehören wird. ST506/412-Festplatten werden vom Markt verschwinden, und auch ESDI wir aufgrund des hohen Preises Schwierigkeiten haben, sich gegen die Standards IDE und SCSI zu behaupten.


1.2.4. Aufzeichnungsverfahren


Doch wie werden die Bits und Bytes in magnetische Form gebracht? Die 0- und 1-Informationen werden auf verschiedene Codierungsarten in verschieden gerichtete Magnetpartikel umgesetzt. Die Ausrichtung links/rechts könnte dabei beispielsweise dem magnetischen Nord-/Südpol entsprechen. Der Schreib-/Lesekopf besitzt dazu eine Spule. Wird diese Spule von Strom durchflossen, so bildet sich ein je nach Stromrichtung anders ausgerichtetes Magnetfeld, welches die Plattenoberfläche entsprechend magnetisiert. Da auch Festplatten nie hunderprozentig gleich laufen, müssen zusätzlich zu den Daten sogenannte Taktinformationen gespeichert werden. Diese sichern, daß immer mit gleicher Geschwindigkeit gelesen und geschrieben wird, indem etwaige Abweichungen durch eine Anderung der Dreh-zahl korrigiert werden (man stelle sich nur das Chaos vor, wenn jeder Sektor unterschiedlich lang wäre). Werden die Taktinformationen, mit den zu speichernden Daten verknüpft, auf jeder Plattenoberfläche gespeichert, so spricht man von einem »Embedded Sector Servo«, daß heißt, die Informationen für den Gleichlauf der Festplatte sind in die Datensektoren eingebettet. Man kann jedoch eine Oberfläche des Plattenstapels ausschließlich für diese Taktinformationen verwenden, während alle anderen nur für Daten genutzt werden.

Erstere Methode eleganter und wird auch meist vorgezogen. Würden sich ständig 0- und 1-Bits abwechseln, so könnte man auf einen separaten Takt verzichten und beispielsweise die 1 zur Synchronisation verwenden. Probleme bereiten dabei aber längere Folgen von gleichen Bits (zum Beispiel 000 oder 111111). Diese sogenannten Läufe englisch Runs) stellen besonders hohe Anforderungen an den Gleichlauf. Die beschriebenen Codierungsarten verwenden hier unterschiedliche Methoden, um nicht aus dem Takt zu geraten.


NRZ-Verfahren


Am Anfang war das NRZ-Verfahren (NRZ = Non Return to Zero). Hierbei wird die Magnetisierung nur gewechselt, wenn auch bei den Datenbits ein Wechsel von 0 nach 1 oder umgekehrt erfolgt (Bild 4). Folgen mehrere gleiche Bits, bleibt der Schreibstrompegel bestehen. Bei aufeinanderfolgenden 1-Bits bleibt der Schreibstrom konstant auf high (1), ohne zwischendurch zu low (0) zurückkehren, was dem Verfahren seinen Namen gab. Die Pegel des Schreibstroms entsprechen exakt dem Verlauf des digitalen Datensignals, also den zu speichernden Bits. Leider hat dieses an sich sehr einfache Verfahren einen großen Nachteil: Da beliebig lange 0- beziehungsweise 1-Läufe auftreten können, sind die Gleichlauf-Anforderungen besonders hoch, schließlich enthält die zu schreibende Bitfolge keinerlei Taktinformationen (also kein Embedded Sector Servo). Die Taktsignale müssen daher auf einer separaten Oberfläche des Plattenstapels untergebracht werden, die somit für Daten blockiert ist.



FM-Verfahren


Das Frequenzmodulationsverfahren FM (Frequency Modulation) integierte erstmals die Taktinformationen. Die Datenbits werden hierzu in eine FM-Bitfolge umgesetzt, da ja der Takt hinzugefügt werden muß. Dabei wird aus einer 1 Die Bitfolge 11 und aus einer 0 die Folge 10. Die erste Ziffer dient dabei als Taktinformation, und die zweite stellt das jeweilige Datenbit dar. Der Verlauf der Schreibstromkurve in Bild 6 läßt sich nun wie folgt beschreiben: Enthält eine Bitzelle (eine Bitzelle enthält ein Datenbit und eventuell Taktinformationen) die FM-Bitfolge »10«, so bedeutet dies »Schreibstrom halten«. Die Bitfolge »11« bedeutet demnach »Schreibstrom wechseln«, un der Schreibstrompegel wird innerhalb der Bitzelle gewechselt. Die erste Ziffer gibt also den Schreibstrompegel zu Beginn der Bitzelle an, und die zweite den Pegel am Ende (jeweils an der gestrichelten Linie). Wie in Bild 5 zu sehen ist, entstehen dabei viele kleine verschiedene magnetisierte Bereiche. Da der Abstand »d« zwischen zwei Flußwechseln nicht beliebig klein sein kann, ist der Schreibdichte eine deutliche Grenze gesetzt. Zusätzlich ist dieses Verfahren relativ platzintensiv, da in jeder Bitzelle Taktinformationen gespeichert sind. Aufgrund dieser Tatsache bezeichnet man die FM-Codierung oft auch als Single-Density-Format, also als Format mit einfacher Schreibdichte.



MFM-Verfahren


Die Weiterentwicklung des FM-Verfahrens ließ nicht lange auf sich warten. Das modifizierte Frequenzmodulationsverfahren MFM (Modified Frequency Modulation) brachte eine Ver-dopplung der Speicherkapazität. Der Takt wird hier nur in einer Bitzelle gespeichert, wenn die Zelle selbst und die vorhergehende keine 1 enthalten. Aus einem 1-Datenbit wird somit die MFM-Folge 01, und aus einer 0 die Folge 00. Ging dieser Bitzelle allerdings schon eine Zelle mit 00 voran, so wird aus dem zweiten 0-Datenbit eine 10, um den Lesetakt stabil zu halten. Vor jeder 1 der MFM-Bitfolge erfolgt nun ein Wechsel des Schreibstromsignals.

Die verschiedenen Magnetisierungszonen werden deutlich weniger und insgesamt größer (Bild 6). Während das FM-Verfahren zwölf Flußwechsel zur Codierung der Bitfolge des Beispiels verwendet, benötigt das MFM-Verfahren nur noch sechs Flußwechsel, was die oben angesprochene Kapazitätsverdopplung bestätigt. Besonders die ersten ST506/412-Festplatten verwenden diese Aufzeichnungsmethode, bei der jeweils 17 Sektoren auf einer Spur unter-gebracht werden. Da die Geschwindigkeit des Verfahrens nicht allzu hoch ist, entwickelten die Hersteller ein weiteres.




RLL-Verfahren


Ziel des RLL-Verfahrens ist es, die Länge der »0«-Läufe zu begrenzen. RLL steht für Run-Length-Limited, das bedeutet Lauflängenbegrenzung. Beim hier betrachteten RLL-(2,7)-Ver-fahren liegen zwischen zwei 1-Bits mindestens zwei und höchstens sieben 0-Bits. Neuartig an diesem Verfahren ist, daß erstmals auch die auf das zu codierende Datenbit folgenden Bits der sogenannte Kontext, beim eigentlichen Codierungsverfahren berücksichtigt werden. Die Tabelle zeigt, wie aus den Datenbits die RLL-Bitfolge entsteht.



Die in Bild 7 dargestellte Bitfolge wird demnach in drei Schritten übersetzt. Aus 11 wird im RLL-Code 0100, und aus den beiden folgenden 010 wird jeweils 001000. Die Datenbits 11010010 sind also zur RLL-Bitfolge 0100001000001000 geworden, aus ursprünglich 8 Bit werden nun 16. Auffällig sind allerdings die recht zahlreich vertretenen 0-Bits. Der Schreibstrom wechselt, wie schon bei MFM, vor jedem 1-Bit der RLL-Folge. Es entstehen vier Magnetisierungszellen. Zunächst erscheint es paradox, daß RLL Platz sparen soll, sind doch aus 8 auf einmal 16 Bit geworden. Noch einmal soll wiederholt werden, daß die Flußwechsel in der Magnetschicht einen bestimmten Abstand nicht unterschreiten können. Nun folgt der eigentliche Trick: Da beim RLL-(2,7)- Verfahren auf ein 1-Bit wenigstens zwei 0-Bits folgen läßt sich die Aufzeichnungsdichte dadurch steigern, daß man die Bitfolge »001« auf dem kleinsten Stück aufzeichnet. Geht man also von Datenbits aus, so kann man 1,5 dieser Datenbits auf dem minimalen Stück unterbringen, statt wie sonst nur 1 Datenbit. Somit erklärt sich der 50prozentige Platzgewinn von RLL-(2,7) gegenüber der MFM-Codierung. Angewendet wird dieses Verfahren zum Beispiel bei neueren ST506/412-Platten und auch bei den neuen IDE-Modellen. Man sollte sich allerdings nicht über Angaben wie RLL-(1,7) wundern, denn hierbei handelt es sich nur um eine Abwandlung des hier beschriebenen RLL-(2,7)-Verfahren, bei dem auf ein 1-Bit wenigstens eine 0 folgt, anstatt mindestens zwei.


Bit         Kontext RLL-(2,7)-Code

1 0 10 00

1 1 01 00

0 00 10 0100

0 10 00 1000

0 11 00 0100

0 010 00 001000

0 011 00 100100



1.2.5. Fehlerkorrekturen


Auch Festplatten sind nicht gegen Fehler gefeit. Um diese zu erkennen, wird zu den gespeicherten Daten eine Prüfsumme gebildet, die mitgespeichert wird. Werden diese Daten nun gelesen, wird wieder eine Prüfsumme gebildet und mit der auf der Platte verglichen. Stimmen beide überein, so ist mit sehr großer Wahrscheinlichkeit alles in Ordnung. Andernfalls meldet die Festplatte dem Controller einen Fehler. Dieser gibt dann den Befehl, den ganzenVorgang zu wiederholen, denn schließlich könnte auch der Kopf ein wenig verrutscht sein (Seek Error). In der Regel ist danach das Problem behoben, und man spricht von einem »Soft Error«, also einem »weichen« Fehler. Im Fall, daß mehrere Versuche fehlschlagen, handelt es sich um einen »Hard Error«. Wahrscheinlich ist dann an dieser Stelle der Platte die Magnetschicht beschädigt, und die Daten sind leider verloren. Festplatten haben übrigens ab Werk bereits solche Oberflächenfehler, die aber auf der Gehäuseoberseite aufgedruckt sind. Diese defekten Sektoren müssen bei der Low-Level-Formatierung angegeben werden, damit sie von vornherein nicht mit Daten belegt werden.

Zwischen 0 und 20 solcher defekten Sektoren sind durchaus die Regel und kein Anlaß zur Panik. IDE-Festplatten (die im übrigen nur mit dem DOS-Befehl »format« formatiert werden dürfen) haben sogar pro Spur einen oder mehrere Reserve-Sektoren, die in solchen Fällen dann statt der defekten benutzt werden.


1.2.6. Geschwindigkeit


Ein sehr wichtiges Beurteilungskriterium ist neben Aufzeichnungs- und Speicherdichte die mittlere Zugriffszeit einer Festplatte. Diese wird in Millisekunden (ms) angegeben und setzt sich aus der Einstell- und der Latenzzeit zusammen. Die Einstellzeit gibt an, wie lange der Schreib-/Lesekopf benötigt, um zur angeforderten Spur zu fahren. Die Latenzzeit gibt an, wieviel Zeit dann noch vergeht, bis der angeforderte Sektor unter dem Kopf angelangt ist (die Platte rotiert ja dauernd, und somit ist der gesuchte Sektor mit hoher Wahrscheinlichkeit nicht gerade unter dem Schreib-/Lesekopf). Die Hersteller versuchen, diese Zugriffszeit ständig zu verringern. Dies kann einmal durch schnellere Bewegung der Köpfe erreicht werden, die dann an der Spur angekommen, aufgrund der höheren Geschwindigkeit stärker abgebremst werden und deshalb länger brauchen, sich zu »beruhigen«, also auszuschwingen. Man versucht in diesem Fall, die sogenannte »settling time« gering zu halten, damit diese Kopfberuhigungs-Phase nicht den Geschwindigkeitszuwachs zunichte macht die Latenzzeit kann durch eine höhere Drehzahl der Festplatte verringert werden, denn je schneller sich die Platte dreht, desto eher ist der angeforderte Sektor am Schreib-/Lesekopf angelangt. Ein weiterer angenehmer Effekt dieser Drehzahlerhöhung ist der gesteigerte Datendurchsatz, denn die Spur wird in wesentlich kürzerer Zeit eingelesen (Ingerleave 1:1 vorausgesetzt).

Eine neue Methode ist, einen zweiten Arm mit Schreib-/Leseköpfen diagonal gegenüber dem bereits vorhandenen anzuordnen. Bei diesem von der Firma Conner entwickelten Verfahren wird jeweils der Arm mit Schreib-/Leseköpfen bewegt, der der angeforderten Spur am nächsten ist. Weiterhin arbeiten die Arme völlig unabhängig voneinander, also kann ein Arm Leseoperationen ausführen, während der andere gerade Daten auf die Festplatte schreibt. Hierzu muß eine Menge Daten kurzzeitig zwischengespeichert werden, bis sie auf die Platte beziehungsweise bis sie an den Rechner weitergegeben werden können.

Im Vergleich zum Prozessor sind RAM-Bausteine zwar langsam, aber den Vergleich mit Festplatten gewinnen sie haushoch. Was liegt also näher als Daten, die man öfter benötigt, nach einmaligem Lesen von der Platte in einem solchen Zwischenspeicher abzulegen, damit sie im Wiederholungsfall aus dem schnellen RAM gelesen werden können? Gewährleistetwird dies erst durch die Lokalitätseigenschaft von Programmen, welche besagt, daß gerade benötigte Programmteile mit sehr hoher Wahrscheinlichkeit beim nächsten Lesezugriff noch einmal benötigt werden. Man versucht sogar vorauszuahnen, welche Daten der Computer als nächstes anfordern könnte (look-ahead-cache). Da hierbei die Anzahl der Treffer die der Fehlschläge aufgrund ausgefeilter Algorithmen übersteigt, bringen Cache-Speicher einen nicht zu verachtenden Geschwindigkeitszuwachs sowohl beim Zugriff als auch beim Datendurchsatz. Auf modernen Festplatten befindet sich in der Regel bereits ein integrierter Cache von 32 bis 512 KByte Größe, der in mehrere Segmente unterteilt ist und sämtliche Lesezugriffe (neuerdings auch Schreibzugriffe) puffert. Die teuerste Lösung im Bereich Festplatten-Cache ist nach wie vor der Cache-Controller (bei IDE und SCSI natürlich richtiger: Host-Adapter). Es handelt sich hier, ähnlich wie beim Prozessor- oder RAM-Cache vieler 386er und 486er, um einen Cache auf Hardwarebasis, der vollkommen softwaretransparent arbeitet, also von der Software gar nicht bemerkt wird. Die meisten dieser Controller besitzen einen eigenen Prozessor, der den gesamten Datentransfer von und zur Platte übernimmt.

Dabei kann er auf einen Cache von 512 KByte bis zu 16 MByte zugreifen. Der auf den Steckkarten integrierte Prozessor nimmt der CPU sämtliche Arbeit ab, indem er direkt auf den rechnereigenen Speicher zugreift. Dies kann allerdings Probleme mit sich bringen, wenn Daten in Cache und Arbeitsspeicher nicht übereinstimmen, die sogenannte Datenkonsistenz nicht gewährleistet ist. Je größer der Cache, desto größer der Schaden bei einem Stromausfall.


Günstiger und oft auch schneller sind Cache-Programme. Die reinen Software-Lösungen benutzen einen Teil des Arbeitsspeichers für ihre Zwecke. Obwohl bei Cache-Programmen wieder die CPU des Rechners das Kommando übernehmen muß, ist diese Lösung oft schneller als die oben beschriebenen Cache-Controller mit eigenem Prozessor. Der Grund hierfür ist recht simpel. Zwar geht bei einem Software-Cache Rechenzeit für diesen Vorgang verloren, aber die Cache-Controller müssen Daten über den I/O-Bus transportieren. Leider ist der Bus aber nur mit 8 MHz getaktet (selten bis zu 12 MHz), während auf den Arbeitsspeicher mit voller Taktfrequenz des Prozessors zugegriffen werden kann. Zudem haben die Cache-Programme im Falle von Inkompatibilität den Vorteil, daß sie problemlos abschaltbar sind, ganz zu schweigen vom niedrigeren Preis. Man benötigt lediglich etwas zusätzlichen RAM und eines dieser Programme. Die Preise für RAM-Bausteine sinken ständig, und viele bekannte Cache-Programme entstammen dem Sharewarebereich (so zum Beispiel Hyperdisk).

Außerdem wird seit MS-DOS 5.0 der Microsoft-eigene Cache Smartdrive mitgeliefert, der auch optimal mit Windows zusammenarbeitet. Alles in allem ist dies die geeignete Lösung für Heimanwender: schnell und preisgünstig.


1.2.7. Die Zukunft der Festplatte


Festplatten werden in Zukunft noch mehr Speicherplatz haben, noch kleiner werden, und vielleicht noch schneller werden. Die ersten Schritte dazu sind schon getan:


Die  neue Produktlinie von Seagate, die im 2. Quartal 94 ausgeliefert wird, umfaßt eine Festplatte mit dem Namen Elite 9. Diese 5¼'-Festplatte in voller Bauhöhe, kann immerhin 9 GByte Daten speichern und wird um 3400 Dollar erhältlich sein. Sie dreht sich mit 5400 Umdrehungen in der Minute, hat eine durchschnittliche Suchzeit von 11 ms und eine Mean-Time-Between-Failure - Zeit von 500.000 Stunden.


Eine weiter zukunftweisende Technologie ist die Entwicklung des 32g schweren, 1,3' Laufwerks von Hewlett Packard namens Kittyhawk. Diese Festplatte ist nicht wesentlich größer als ein 5-Mark-Stück und kann immerhin 42 MB speichern. Diese Festplatte ist vor allem für PDAs (Personal Digital Assistent) und Notebooks konzipiert worden, da sie außer  ihrer geringen Außmaße auch eine ungewöhnlich hohe Stoßfestigkeit besitzt.

Notiz:    60 Kittyhawks passen in ein 5¼'-Laufwerk, und könnten somit als Disk-Array-System die Datensicherheit in Netzwerkservern erhöhen.

Die neueste Technologie: Nasse Scheiben


Auch wenn einem der Abstand zwischen Schreib-/Lesekopf und Platte mit lediglich 1 Mikrometer sehr gering erscheint, den Festplattentechnikern ist auch dieser Spalt noch viel zu groß. Denn je näher der Kopf über der Platte schwebt, desto höher wird die erzielbare Dichte. Dabei bedeutet halber Abstand die vierfache Informationsdichte.

Die Firma Conner scheint diesem Wunschtraum nun ein ganzes Stück näher gekommen zu sein. Statt auf einem Luftpolster ruht bei diesem patentierten Verfahren der Schreib-/Lesekopf auf einem dünnen Flüssigkeitsfilm (Liquid Disk). Dies bringt zwei entscheidende Vorteile: Zum einem ist der Flüssigkeitsfilm wesentlich dünner als das Luftpolster, was zu einer erheblichen Steigerung der Plattenkapazität führt, zum anderen wirkt das Öl zwischen Kopf und Platte wie ein Puffer, der deren zerstörerisches Zusammentreffen (Headcrash verhindert. Bisher funktioniert dieses System nur bei extem kleinen Festplattenformaten, da bei größeren Scheiben die hohe Umdrehungsgeschwindigkeit an den Außenbereichen der Platte den Schmierfilm zum Reißen bringen würde.

Das Know-how stammt von einer Firma für Spezialschmierstoffe, die Conner kurzerhand aufgekauft hat. Wann derartige Platten auf dem Markt zu erwarten sind, ließ Conner noch nicht durchblicken.


1.3. Streamer



1.3.1. Grundlagen der Streamer-Technologie

Ab einer Festplattenkapazität von 80 MByte ist der Einsatz von Disketten für Backups aus Zeitgründen einfach nicht mehr sinnvoll. Der Anwender wird vielmehr die Anschaffung eines Streamers in Erwägung ziehen. Aber wie funktioniert so ein Gerät eigentlich? Wie zuverlässig arbeiten Bandlaufwerke? Welche Unterschiede gibt es in dieser Technologie?Aufgrund stetig sinkender Preise werden Streamer auch im privaten Bereich interessant. Das Wort 'Streamer' kommt aus dem Englischen und bedeutet schlicht und einfach 'Band'.Die Vorteile der 3,5- oder 5,25-Zoll-Mini-Bandlaufwerke (so die korrekte Bezeichnung) gegenüber Disketten beispielsweise lassen sich an einer ganzen Reihe von Faktoren belegen: Streamer sind angesichts der gebotenen Leistung und der Zuverlässigkeit preisgünstig und verwenden Bänder, die für den professionellen EDV-Markt entwickelt wurden und daher einem sehr hohen Qualitätsstandard entsprechen. Streamer-Laufwerke im DC2000-Format können sogar über den ohnehin in jedem Pc vorhandenen Disketten-Controller angesteuert werden und benötigen dann nur die mitgelieferte  Steuer-Software und ein Band ('Tape') zum Betrieb. Weitere Controller in Form von Zusatzkarten sind nicht notwendig. Außerdem können DC-2000-Streamer mit wenigen Handgriffen aus einem PC aus- und in einen anderen eingebaut werden. Streamer sind etwa genauso schnell wie ein Diskettenlaufwerk, können aber wesentlich mehr Daten speichern.Die Laufwerke vom Typ DC600A hingegen benötigen zwar einen eigenen Controller, sind aber mit einer Datenübertragungsrate von 90 KByte pro Sekunde deutlich schneller als die DC2000-Streamer (etwa 60 KByte pro Sekunde).Galt vor einigen Jahren eine Kapazität von 40 MByte pro Band noch als echte Errungenschaft, so können Streamer mit heute aktueller Technologie bereits zigfache Datenmengen aufnehmen. Der eigentliche Streamer ist heute sowohl als externes als auch als internes Gerät erhältlich.Der prinzipielle Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsgeräten wie zum Beispiel einem Stereokassettenrekorder. Ein Motor bewegt das Magnetband innerhalb der Datenkassette ('Cartridge') - an einem Schreib-/Lesekopf vorbei - vorwärts. Entscheidender Unterschied zu anderen Aufzeichnungsgeräten ist, daß der Kopf nicht starr installiert ist, sondern mehrere Spuren ('Tracks') nebeneinander mit den seriell aufgezeichneten Daten beschreiben kann.
Auf einem Streamer-Band befinden sich mehrere Aufzeichnungsspuren nebeneinanderAuch bei der mitgelieferten Software gibt es Unterschiede. Durch die mitgelieferte Software kann der Anwender per Menü zwischen verschiedenen Arten der Datensicherung wählen. So ist es möglich, nach einem bestimmten Datum angelegte Dateien oder alle Dateien an denen innerhalb der letzten Woche Anderungen vorgenommen wurden, zu sichern. Ebenso ist ein sogenanntes 'File-Backup' durchführbar, bei dem wiederum einzelne Dateien oder gesamte Verzeichnisseselektiv auf Band gespeichert werden können. Das 'Image-Backup' hingegen läßt die Sicherungen Sektor für Sektor ablaufen, wodurch eine Eins-zu-eins-Kopie der Festplatte angefertigt wird. Um beispielsweise nach Büroschluß eine automatische Datensicherung vorzunehmen, wird zusätzlich ein 'Clock-Verfahren' angeboten, bei dem der Streamer zum angegebenen Zeitpunkt mit der Sicherung beginnt, ohne daß der Anwender diese Aktion speziell starten müßte.Zur Schonung des Bandes versuchen die Streamer-Hersteller unter anderem, mechanische Belastungen beim Weitertransport weitestgehend zu vermeiden. Im Gegensatz zu großen Computerbändern und anderen Datenträgern wird der physikalische Antriebsmechanismus bei Datenkassetten durch einen speziellen Antriebsriemen realisiert, der sich im Inneren der Kassette befindet. So verwendet der Cartridge-Hersteller DEI einen texturierten Equithan-Riemen, der eine optimale Rutschfestigkeit zwischen Riemen und Band gewährleistet und dadurch die Bandspannung erheblich verbessert. Über die Antriebsrolle wird nun nicht etwa das Band vorwärtsbewegt, sondern der Riemen. Dieser wiederum wird in der Kassette so über mehrere Rollen geführt, daß er an den Spulen auf das Magnetband drückt und es dadurch weitertransportiert. Durch eine solche Technik werden Bandschäden und die Möglichkeit eines Bandrisses erheblich vermindert, da mechanische Einwirkungen durch den elastischen Riemen weitgehend abgefangen werden.Ausgefeilte Fehlerkorrekturmethoden beugen einem eventuellen Datenverlust vorDas so verbesserte 'Bandspannungsprofil' gewährleistet bei den genannten DEI-Cartridges einen optimalen Kontakt zwischen Band und Kopf und sorgt so für eine bessere Datenaufzeichnung. Die von DEI verwendeten Bandmaterialien ('plattierte Partikeldatenträger') verursachen rein rechnerisch nur halb so viele Fehler ('Drop-Outs') wie ältere Kassetten und weisen so gute Laufeigenschaften auf, daß die Verschleißerscheinungen des Schreib-/Lesekopfes dreimal geringer sind.Natürlich steht gerade bei Streamern die Datensicherheit im Mittelpunkt des Interesses, denn eben aus diesem Grund werden sie häufig der Backup-Methode per Diskette vorgezogen. Welche Verfahren sind also bei Streamern zum 'Katastrophenschutz' im Einsatz?Eine Möglichkeit besteht in der zyklischen Redundanzprüfung ('CRC', 'Cycling Redundancy Check'), wie sie bereits bei Disketten-Controllern eingesetzt wird. Im Fehlerfall erkennt das Laufwerk anhand der CRC-Prüfsumme, daß der betreffende Sektor noch einmal gelesen werden muß. In den meisten Fällen ist die defekte Position jedoch überhaupt nicht mehr lesbar, und die Daten sind somit unwiderruflich verloren.Bei Lesefehlern lassen sich die Daten über mathematische Berechnungen aus den Prüfsummen rekonstruieren.
Für Magnetbandkassetten wurden deshalb verschiedene Verfahren entwickelt, bei denen das Laufwerk in einem getrennten Sektor oder Block weitere Redundanz- und Prüfsummen speichert. Am sichersten wäre es wohl, die Daten eines Sektors einfach zweimal hintereinander zu speichern. Wenn ein Sektor nicht mehr lesbar ist, existiert somit eine ständige Kopie. Nachteile dieses Verfahrens sind der offensichtliche Zeitverlust bei der Datenübertragung sowie der große Platzbedarf auf dem Band. Trotz aller Qualitätssicherung beim Bandmaterial wird allgemein akzeptiert, daß Fehler in der Oberfläche eines magnetischen Speichermediums auftreten können. Da heute immer mehr Daten auf einenQuadratzentimeter gepackt werden, um die Kapazität zu erhöhen, können sich bereits kleine Oberflächenfehler entsprechend kritisch auf große Datenmengen auswirken. Bei Fehlern, die nach Aufzeichnung der Daten durch unsachgemäße Lagerung oder äußere Einflüsse (Wärme, Flüssigkeiten, Magnetismus) entstehen, hilft die nur auf Redundanz beruhende ECC-Methode ('Error Correction Code') nicht weiter. Auch das häufig angewendete 'Read-after-write-Verfahren', das zwar durch eine Leseüberprüfung nach jedem Schreiborgang eine richtige Datenübertrage sicherstellt, kann späteren Beschädigungen der Bandoberfläche trotz eine technisch aufwendigen, doppelten Kopfes nicht den Schrecken nehmen.Auf der Suche nach mathematischen ECC-Methoden wurde eine Vielzahl von Standards für die unterschiedlichsten Bandformate durch das ameikanische Komitee 'QIC' normiert. So besteht beim QIC-100-Standard für DC600A- und DC2000-Datenkassetten ein 8192 Byte große Datenblock aus zwei 4KByte-Blöcken, denen jeweils ein kompletter 4-KByte-Block mit ECC-Bytes folg. Um den ECC noch sicherer zu machen, werden beim QIC-100 die Blöcke verschoben ('interleaved') aufgezeichnet, wodurch sichergestellt wird, daß auch größere Fehlerstellen im Band keine Probleme bereiten.Der vom Streamer-Marktführer Irwin gesetzte Standard läuft bei QIC unter der eigenen Bezeichnung QIC-86-4. Das Unternehmen konnte früher als alle anderen Hersteller ein patentiertes Servo-Positionierungsverfahren für den Schreib-/Lesekopf anbieten, das eine wesentlich höhere Genauigkeit und auch die Austauschbarkeit der Datenkassetten zwischen verschiedenen Geräten garantierte.Das von Irwin eingesetzte Verfahren kann einzelne Fehler auf dem Band korrigieren, auch ohne daß auf dem Datenträger viel Platz für die Redundanzdaten des ECC benötigt wird.Aber noch weiter Vorteile bietet das Irwin-Verfahren: Die Information bezüglich des Codes wird nur dann benutzt, wenn bei der Rückübertragung zur Platte tatsächlich Fehler zu korrigieren sind. Ist ein Datensektor fehlerfrei, geht auch keine Zeit für die ECC-Berechnung verloren. Weil Irwin das Band wie eine Festplatte ansteuert, werden durch das Formatieren von vornherein fehlerhafte Bandstellen ausgesondert und im Inhaltsverzeichnis festgehalten. Daher können die Datensektoren auf dem Band sinnvollerweise immer dirket von ihren ECC-Sektoren stehen.

Die Sektoren 1 bis 16 werden als Datensektoren genutzt, die ECC-Sektoren folgen an Stelle 17 und 18. Der von Irwin verwendete Codieralgorithmus liest ein bestimmtes Byte 'x' aus jedem der 16 Datensektoren, um daraus zwei Redundanz-Bytes zu berechnen. diese beiden errechneten Redundanz-Bytes werden dann wiederum an der Stelle 'x' in den Sektoren 17 und 18 gespeichert. Hierdurch wird ermöglicht, daß zwei beliebige 1-KByte-Sektoren aus einem 16-KByte-Datenblock bei Verlust durch Berechnung rekonstruiert werden können. Diese rein mathematische Verfahren ist sogar in der Lage, Fehler zu korrigieren, die erst nach der Übertragung entstehen, also zum Beispiel Veränderungen des Magnetismus eines Bandes.Welche Art der Backup-Datensicherung (Band oder Diskette) ein Anwender bevorzugt, muß natürlich dem individuellen Geschmack überlassen werden, doch stehen Streamer in puncto Sicherheit eindeutig an der Spitze.Streamer bieten ein optimales Preis-Kapazitäts-Verhältnis bei hoher DatensicherungDatensicherung auf Disketten ist bei großen Datenmengen die wohl umständlichste Art, Programme vor dem Verlust zu bewahren. Denn während dieses Vorganges muß permanent eine Person beim Rechner bleiben, um die Disketten zu wechseln.Wechselplatten erfreuen sich bei vielen Anwendern großer Beliebtheit, bieten jedoch nicht mehr Sicherheit als eine eingebaute Festplatte. Ihr Vorteil gegenüber der Sicherung per Disketten besteht in der erheblich größeren Kapazität, doch die vergleichsweise hohen Anschaffungskosten für weitere Platten sprechen eindeutig für Streamer.Die Verwendung in unterschiedlichen Rechnern wird nicht nur von der Wechselplatte und von Disketten gewährleistet. Das Econo-Tape von Caliper beispielsweise ist in allen Modellversionen auch extern zu betreiben, das heißt, daß der Streamer an beliebig vielen Rechnern benutzt werden kann und nur die Cartridges ausgewechselt werden müssen. Nicht nur hierdurch ist die Verwendung eines Streamers erheblich günstiger als andere Methoden. Werden die Kosten zur erlangten Sicherheit in Relation gesetzt, stehen Streamer ganz gewiß erneut an allererster Stelle.

1.3.2. SicherheitDas regelmäßige Durchführen von Backups mit einem Streamer mag beruhigen, besagt aber für die Sicherheit der Daten rein gar nichts. Erst wenn testweise auch das Rücksichern (Restore) der Daten fehlerfrei gelungen ist, darf man durchatmen.Wenn man einen Streamer daher das erste Mal in Betrieb nimmt sollte man folgendes tun:

1. eine kleine Partition sichern, 2. den Inhalt des Bandes auf eine andere Partition (mit genügend Platz)
zurückschreiben, 3. mit Vergleichsprogrammen (notfalls mit COMP von DOS) die Dateien auf der
Ursprungspartition mit denen auf der per Restore beschriebenen vergleichen. Achten sie überdies darauf, daß auch wirklich alle Dateien gesichert wurden, die
sie sichern wollten.
Dieser Aufwand mag sie verwundern, denn die Handbücher suggerieren, daß eine aktivierte Verify-Option oder ein Compare-Lauf nach dem sichern ausreicht.1.3.3. Verify und CompareViele Backup-Programme unterscheiden ein sogenanntes 'Verify' und ein 'Compare'. Beim Verify werden nur die Sektor-Prüfsummen (Floppy-Controller schreiben halt 'Sektoren' aufs Band) auf dem Datenträger verifiziert, keinenfalls aber die auf Band geschriebenen Daten byteweise mit dem Original verglichen. Verify gibt also im Prinzip nur Aufschluß darüber, ob der Datenträger physisch in Ordnung ist.Ein echtes Compare bei einem Backup-Programm liest die Daten von der Festplatte und vom Band in einem zweiten Durchgang neu ein und vergleicht sie byteweise auf Übereinstimmung. Erst ein Compare-Durchgang kann also zuverlässig feststellen, daß die gewünschten Daten gesichert wurden und sich auch vom Band wieder korrekt lesen lassen.Für die Erstinbetriebnahme eines Streamers aber reicht auch das nicht aus. Es gab durchaus Fälle, in denen das Compare klappte, das Restore aber dennoch fehlschlug. Zur Zeit ist in Verbindung mit MSDOS 6.0 zum Beispiel gesundes Mißtrauen angebracht, denn darauf ist längst noch nicht alle heute verkaufte Software eingestellt. Und Versionsunverträglichkeiten sind für die absurdesten Phänomene gut.Was den Umgang mit beschädigten Bändern betrifft, die ein Backup enthalten, ist generell große Vorsicht angesagt. In der Regel klappt das Rücksichern nur bis zum ersten Banddefekt, und Reparatur-Tools sind selbst im Profisektor die Ausnahme. Es sei daher grundsätzlich empfohlen, mit der Anzahl der Backup-Bänder nicht zu knausern. Je mehr Bänder mit zeitlich dicht beieinander liegenden Backups verfügbar sind (die alle per Compare überprüft wurden), desto geringer der Datenverlust im Katastrophenfall.QIC-StandardsDie Abkürzung QIC steht für Quarter Inch Cartridge Drive Standards Incorporated und befaßt sich mit der Spezifikation diverser Randbedingungen, die im Bereich des Backup-Streaming mit Viertel-Zoll-Kassetten auftauchen.Das Wichtigste beim Durchkämpfen durch das mittlerweile üppige Dickicht an Bezeichnungen ist, daß QIC-Standards unterschiedlichste Bereiche beschreiben. Während QIC-40 und -80 zum Beispiel das physikalische und logische Band-Layout inklusive einer Art Dateisystem spezifizieren, bafaßt sich QIC-107 mit der Schnittstelle, also letztlich mit dem 34poligen Floppy-Controller-Interface bei IBM-ATs. QIC-115 hingegen legt dasselbe für PS/2-Rechner und deren 40poligen Floppy-Anschluß fest. QIC-117 spezifiziert für die genannten Standards die Timing-Verhältnisse zwischen Rechner und Laufwerk, und QIC-106 gar die Eigenheiten der Schreib-/Leseköpfe für QIC-40-Laufwerke.
In aller Kürze als Hilfe zum Durchstöbern von Anzeigen:                   QIC-107, 115, 36, 02 bezeichnen gängige Interface-Standards QIC-20, 40, 80, 11, 24, 120, 150, 525 (früher 320) und 1350 beschreiben AufzeichnungsverfahrenFloppy-Anschluß = QIC-40/80?Ein Bandlaufwerk läßt sich - ebenso wie Festplatten - auf unterschiedlichste Weise an einen Rechner anschließen. Ein SCSI-Host-Adapter mit entsprechend eingerichtetem Bandlaufwerk ist eine relativ aufwendige Lösung, zudem müssen SCSI-Lösungen im PC - da SCSI nicht zum definierten PC Standard gehört - oft mit besonderen Treibern ausgestattet werden.Ein Floppy-Controller jedoch steckt seit jeher in jedem PC, und mit den vorhandenen Signalen lassen sich auch Bänder beschreiben und Band-Laufwerke steuern. Der dadurch mögliche Wegfall eines seperaten Host-Adapters spart natürlich Kosten. Die ersten Streamer zum Anschluß an den Floppy-Controller arbeiten nach dem QIC-40-Standard, der auch heute noch sehr verbreitet ist und von einigen QIC-80-Streamern gelesen werden kann.Die QIC-Standardisierungen befassen sich einerseits mit den physikalischen und logischen Aufzeichnungsmodalitäten und andererseits mit der hardwaremäßigen Schnittstellendefinition.Urvater QIC-40QIC-40 wurde für Viertel-Zoll-Kassetten (Quater Inch) namens DC2000 erdacht. Das ursprüngliche Band (DC2080) wird in 20 Spuren unterteilt, die der Streamer abwechselnd vorwärts und rückwärts abklappert. Da man in der Floppy-Controller-Hardware auf die Fähigkeiten des FDC-Chips µPD765 von NEC in bezug auf die physikalische Formatierung festgelegt ist, teilt man diese MFM-formatierten Spuren wie folgt auf: 29 Sektoren zu 1024 Bytes Länge bilden ein sogenanntes Segment, und 68 solcher Segmente (Blöcke) füllen eine Spur. Formatiert und abzüglich aller ECC-Codes faßt dann eine solche Kassette 40 386 560 Daten-Bytes. Auf den 50 Prozent längeren XL-Kassetten lassen sich folglich 60 MByte unterbringen.QIC-40-Streamer sind für XT- und AT-Floppy-Controller geeignet. Für eine XT-gemäße Datentransferrate von 250 kBit/s laufen 25 Zoll Band pro Sekunde am Kopf vorbei; wenn der Controller auch High-Density-Floppies bedient (500 kBit/s), muß der Streamer das Band mit 50 Zoll pro Sekunde transportieren. Je höher die Datentransferrate, desto schneller läuft ein Backup- oder Restore-Durchgang ab. Durch die Kopplung der Datenrate an jeweils eine eigene Transportgeschwindigkeit bleibt das Format identisch, das heißt, ein und dieselbe QIC-40-Kassette kann sowohl an einem langsamen als auch an einem schnellen Controller mit demselben Streamer gelesen und beschrieben werden.
Mittlerweile ist es üblich, die Daten vor der Sicherung zu komprimieren, so daß sich die nutzbare Kapazität eines QIC-40-Bandes bei typischem Datengemisch auf 120 MByte erhöht. Seither firmieren diese Streamer in der Werbung als 120-MByte-Typen. Laut Herstelleraussagen kann man davon ausgehen, daß die für die Kompression aufgewendete CPU-Zeit ab 16-MHz-80286 das Speichern auf Band nicht mehr behindert, so daß - da insgesamt weniger auf Band geschrieben werden muß und die Zeit dafür durch das Format fest vorgegeben ist - Kompression den Backup- und Restorevorgang erheblich beschleunigt.Auf dem Vormarsch: QIC-80Der neuere Standard QIC-80 ermöglicht - wie seine Bezeichnung ahnen läßt - ziemlich genaun die doppelte Speicherkapazität gegenüber QIC-40. Bei QIC-80 verwendet man baugleiche Kassetten wie bei QIC-40, die aber angeblich höher qualifiziert sind. 'DC2000' wird zwar gern als Gattungsname für Viertel-Zoll_Kassetten mißverstanden, jedoch warnen Streamerhersteller eindringlich davor, eine Kassette mit der Typenbezeichnung DC2000 (QIC-40) ein einem QIC-80 Streamer zum Schreiben zu benutzen. QIC-80-Kassetten in Standardlänge (205 Fuß) heißen DC2080 (Bezeichnung von 3M), die XL-Versionen DC2120.QIC-80 Bänder werden mit 28 Spuren und 34 Zoll/s bei einer (minimal zulässigen) Datentransferrate von 500 kBit/s beschrieben. QIC-80-Streamer sind folglich nicht mehr an einem einfachen XT-Controller mit 250 kBit/s betreibbar, auch läßt die veränderte Spurzahl (Schmalere Spuren) kein zuverlässiges Schreiben, wohl aber Lesen (dann mit 50 Zoll/s) von QIC-40-Bändern zu. Auf eine DC2080-Kassette passen pro Track 100 Segmente zu 29 KByte, was rund 80 MByte Kapazität ergibt (DC2120 entsprechen 120 MByte).Natürlich wird auch bei QIC-80-Streamern emsig mit Datenkompression gearbeitet, so daß sich auf einer DC2120 üblicherweise 250 MByte, beim Spezial-Format des Mountain gar 300 MByte sichern lassen. Eine konservative Firma wie Archive (Maynard und Irwin sind übrigens auch 'Archive Companies') inserieren den XL5580 allerdings auch heute noch brav als 80 MByte Streamer.
1.3.4. High Speed Adapter


Seit Floppy-Laufwerke mit 2,88 MByte in die PC-Welt einziehen, lassen sich auch Floppy-Controller mit 1MBit/s Datenrate aufgrund preiswerter Controller-Chips kostengünstig realisieren. Zu modernen Floppy-Controller-Streamern, sind heute fast immer auch sogenannte High-Speed-Adapter erhältlich, die dann allerdings erwarten, daß der Streamer das Band für diesen Betriebsfall auch doppelt schnell transportiert. High-Speed-Adapter erhalten also die Format-Kompatibilität, wickeln aber alles doppelt so schnell ab.

1.3.5. Das dritte Laufwerk


Mein Verweis auf 2,88-MB-Floppies soll nicht in die Irre führen: man verwendet zwar auf High-Speed-Adaptern vergleichbare Floppy-Controller-Chips, die Controller-Boards enthalten aber in der Regel keinerlei eigene BIOS-Software, um tatsächlich 2,88-MB-Disketten ansteuern zu können. Der Zugriff auf diese Controller findet ausschließlich über mitgelieferte Backup-Software statt, und die kennt sich mit 2,88-MB-Disketten nicht aus.

High-Speed-Adapter helfen in der Regel aber noch aus einer anderen PC-Klemme: bekanntermaßen kann ein PC nicht mehr als zwei Floppy-Laufewrke bedienen. Das war und ist zwar grundsätzlich nur eine Restriktion des PC-BIOS, daraufhin hat aber auch mancher Low-Cost-FDC die Ansteuerung von mehr Laufwerken verlernt. So gibt es für die meisten Floppy Streamer zwar Adapter-Kabel, die den Betrieb zweier Floppies (Disk 0 und 1) und eines Streamers als Drive 2 oder 3 ermöglichen, nur muß das nicht mit jedem Floppy-Controller klappen. Wenn man Pech hat, muß man für Backups also 'mal eben' das zweite abziehen, damit alles läuft.


Auch in dieser Beziehung kann ein High-Speed-Adapter helfen, da dieser generell als Zweit-Controller konzipiert ist und folglich parallel zum installierten Floppysystem arbeitet. Er belegt dann üblicherweise Systemadressen, um Konflikte zu vermeiden und läßt zudem gesondert die Wahl des Interrupts (IRQ) und DMA-Kanals zu.


1.3.6. QIC-80-Kompatibilität


Keineswegs ist jeder Streamer zum Anschluß an den Floppy-Controller ein QIC-80-Streamer. Der Irwin-Streamer zum Beispiel läßt sich auch mit Fremdsoftware nicht zum QIC-80-Streamer wandeln. Dennoch ist natürlich die Software maßgebend für die Einhaltung des QIC-80-Standards. Damit aber trotz zertifizierter QIC-80-Kompatibilität ein Austausch möglich wird, sind zwei Bedingungen unbedingt einzuhalten:


Zum ersten darf die Backup-Software keinenfalls auf irgendein hauseigenes 'Super-Format' eingestellt werden. Ich formuliere das extra in dieser Weise, denn nicht immer ist das 'Normal-Format' eindeutig als QIC-80 gekennzeichnet. Zum zweiten darf man keine Datenkompression verwenden, denn diese fällt bei unterschiedlicher Backup-Software grundsätzlich verschieden aus. So kann ein anderes Backup-System das Band zwar unter Umständen physikalisch lesen, aber meist schon nicht mehr das Band-Directory oder auch nur den Tape-Header entschlüsseln. Deshalb ist zusätzlich zu empfehlen, bei Tauschbestrebungen auch nicht einen anders eingestellten Backup-Set auf dem Band zu haben, damit Fremdsoftware nicht eventuell darüber stolpert.

1.3.7. Fremd-Schnittstellen


Obwohl QIC-80 der Floppy-Welt entsprang, gibt es keine prinzipiellen Probleme, einen QIC-80-kompatiblen Streamer über eine völlig andere Schnittstelle zu bedienen. Es läuft dann in der Praxis darauf hinaus, eine bestimmte Schnittstelle nach außen zu realisieren, um diese dann intern letztlich in einen Floppy-Controller münden zu lassen. Geräte dieser Art sind zum Beispiel der BackPack für den Anschluß an eine PC-Druckerschnittstelle  sowie der Summit mit einem AT-Bus-Interface (IDE).


1.3.8. Die QIC-Standards


Standard              Kassettentyp Kapazität Schnittstellen


Minicartridges


QIC-40                DC2000 40 MB QIC-107, 115, 117

QIC-40XL           DC2000 60 MB QIC-107, 115, 117

QIC-80                DC2080 80 MB QIC-107, 115, 117

QIC-80XL           DC2120 120 MB QIC-107, 115, 117

QIC-100              DC2000 20/40 MB QIC-103, 108

QIC-128              DC2110 86 MB QIC-103, 108

QIC-128              DC2165 128 MB QIC 103, 108

QIC-385M           QIC-143 385 MB Floppy, IDE

QIC-410M           QIC-143 410 MB SCSI-2

QIC-6GB(M)       QIC-138 6 GB (*) SCSI-2


Cartridges


QIC-24                DC600A 60 MB QIC-02, 36, SCSI

QIC-120              DC6150 125 MB QIC-02, SCSI

QIC-150              DC6150 150 MB QIC-2, SCSI

QIC-150              DC6250 250 MB SCSI, SCSI-2

QIC-525              DC6320 320 MB QIC-02, SCSI, SCSI-2

QIC-525              DC6525 525 MB QIC-02, SCSI, SCSI-2

QIC-1000C QIC-136 1 GB SCSI, SCSI-2

QIC-1350            QIC-137 1,35 GB SCSI-2

QIC-2100C QIC-137 2,1 GB SCSI-2

QIC-20GB(C)      QIC-139 20 GB (*) SCSI-2


(*) mit QIC-122- oder QIC-130-Datenkompression

2. Optische Speichermedien



Neben herkömmlichen Speichermedien auf ferromagnetischer Basis haben sich mittlerweile auch die magneto-optischen Aufzeichnungsverfahren am Markt etabliert. Im Zuge der zunehmenden Verbreitung von Multimedia-Anwendungen prognos-tizieren Marktforscher den optischen Speichermedien hervorragende Aussichten.


Man unterscheidet bei den optischen Speichermedien zwischen den CD-ROMs, den WORMs und den MO-Laufwerken. Während das CD-ROM einen Nur-Lese-Speicher darstellt, kann ein WORM (Write Once Read Multiple) einmal beschrieben werden. Das MO-Laufwerk basiert hingegen auf der magneto-optischen Aufzeichnung, Daten können also beliebig oft gespeichert und gelöscht werden.


2.1. CD-ROM - ein Nur-Lese-Speicher


Das CD-ROM ist das erste optische Medium, das im nicht-professionellen Bereich eine weite Verbreitung erfahren hat. Dies resultiert zum einen aus den stark sinkenden Hardwarepreisen wie auch aus der stetig steigenden Anzahl unterstützender Anwendungen.

Wie die Audio-CD ist das CD-ROM nur auf einer Seite beschichtet. Die Oberfläche dieses Speichermediums besteht aus einer Polycarbonat-Kunststoffschicht, einer reflektierenden Aluminium- und einer Schutzlackschicht. In die Plattenoberfläche wird bei der Herstellung - ähnlich wie bei einer Schallplatte - eine spiralförmige Spur gezogen, in die mit Hilfe eines Lasers in bestimmten Abständen Vertiefungen eingebrannt werden. Im Gegensatz zur Schallplatte verläuft diese Spur von innen nach außen. Die spiralförmige Spur eignet sich ideal zum Einlesen großer Mengen sequentieller Daten. Das Verfahren erlaubt den den Herstellern, dieselben Anlagen für die CD-ROM-Produktion zu nutzen, wie sie auch für die Audio-CDs verwendet werden.
Der Vorteil wird jedoch über eine erhöhte Zugriffszeit erkauft. Die konzentrischen Spuren der Festplatte erlauben einen schnelleren Zugriff, da der entsprechende Sektor aufgrund der konstanten Distanz einer Spur zur Plattenmitte schneller lokalisiert werden kann. Dieser Vorgang ist bei einer spiralförmigen Spur wesentlich komplexer. Beim Lesevorgang wird die Spur durch einen scharf gebündelten Laserstrahl abgetastet. Trifft der Laser auf eine Vertiefung, erfolgt eine Absorption, trifft er auf keine Vertiefung, wird der Strahl reflektiert und von einer Fotozelle erkannt. Die Daten sind daher - wie von herkömmlichen Medien bekannt - in binärer Form auf der CD gespeichert. Wird der Strahl reflektiert, entspricht das dem Zustand 0, erfolgt eine Absorption entspricht dies dem Zustand 1. Die Vertiefungen werden als Pits, die Stellen, die unverändert bleiben, als Lands bezeichnet.


Die Zugriffszeiten eines CD-ROM-Laufwerks liegen etwa zwischen 300 und 400 Millisekunden. Eine Verbesserung der Leistung wurde durch das Continuous-Read-Verfahren erreicht. Hierbei werden bereits Daten in den Puffer eingelesen, während die vorher gelesenen Daten noch über den Bus zum Rechner übertragen werden. Bei der CD-ROM-Technologie sind jedoch die Anforderungen an die Datensicherheit gegenüber der bei Audio-CDs wesentlich höher. Mehr als zehn Prozent des verfügbaren Speicherplatzes werden für die Datenverwaltung und die Fehlerüberprüfung belegt.

Ein Vorteil der CD sind ihre niedrige Herstellungskosten. Berücksichtigt man nur die reinen Vervielfältigungskosten, so ist bereits bei geringen Auflagen die Herstellung von einem Programmpaket, das nur wenige Disketten umfaßt, teurer als eine CD-ROM-Produktion. Ein weiterer Vorteil besteht darin, daß jedes CD-ROM-Laufwerk grundsätzlich auch Audio-CDs abspielen kann. Das Abspielen der Audio-CD wird dabei über den Computer gesteuert. Es sind auch externe CD-ROM-Laufwerke erhältlich, die den Bedienungskomfort eines Audio-CD-Gerätes bieten und unter Verwendung eines Akkus als mobiler CD-Player genutzt werden können. Die Leistungsdaten dieser Laufwerke liegen allerdings in der Regel unter denen der Laufwerke, die für den reinen CD-ROM-Betrieb konzipiert wurden. Aufgrund des Aufzeichnungsformats und der Rotationsgeschwindigkeit der CD ist die Datentransferrate bei allen CD-ROM-Laufwerken nahezu identisch.

Als ein Einsatzgebiet für die CD-ROM bietet sich zweifelsohne die Softwaredistribution an. Die heutigen Applikationen werden immer umfangreicher, eine größere Anzal von HD-Installationsdisketten sind bereits keine Seltenheit mehr. Was liegt also näher als die Software auf CD-ROM anzubieten? Damit ließen sich mehrere Probleme auf einen Schlag lösen: Zum einen bietet die CD-ROM gegenüber magnetischen Datenträgern eine wesentlich höhere Datensicherheit, so daß die Originalsoftware immer unverfälscht zur Verfügung steht; zum anderen wird den Herstellern der Kopierschutz damit frei Haus geliefert.

Die CD-ROM-Technologie gilt als Idealmedium für Multimedia-Anwendungen. Farbbilder, Grafiken, Sounds und vor allem bewegte Bildsequenzen, kurzum für alle Anwendungen, die eine immense Speicherkapazität erfordern. Gerade im Bereich Multimedia werden CD-ROM-Laufwerke häufig im Paket mit Soundkarten angeboten. CD-ROM-Laufwerke sind sowohl als interne Laufwerke als auch als externe Laufwerke in einem gesonderten Gehäuse erhältlich. Zudem sind Gehäuse verfügbar, in denen mehrere CD-ROM-Laufwerke untergebracht werden können, so daß auf entsprechend große Datenmengen zugegriffen werden kann. CD-Wechsler bieten sich insbesondere zum Einsatz in Netzwerken an.

Mittlerweile werden auch einmal beschreibbare CDs angeboten, die CD-Rs (R = Recordable). Diese sind wesentlich teurer als ihre nur lesbaren Pendants. Die Perspektiven für die CD-Rs sind aufgrund ihrer Kompatibilität zum CD-ROM-Standard rosig. Der CD-ROM kommt zugute, daß sich die Hersteller frühzeitig auf verbindliche Normen bezüglich des Aufzeichnungsverfahrens festgelegt haben. Dieser High-Sierra-Standard legt fest, in welcher Organisation die Daten auf der CD unterzubringen sind. Der in Europa verbreitete Standard (ISO-9660) ist aus dem High-Sierra-Standard entwickelt worden. Anwendungen, die für den High-Sierra-Standard konzipiert wurden, sind im übrigen auch unter ISO-9660 lauffähig. Im Gegensatz dazu sind ISO-9660-Anwendungen nicht unter Verwendung eines High-Sierra-Treibers ablauffähig.


Technische Daten


Die Größe einer CD-ROM entspricht mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm exakt den Abmessungen der Audio-CDs. Trotzdem sollte man nicht der Versuchung erliegen, eine CD-ROM mit einem Audio-CD-Player abzuspielen. Die Lautsprecher der Stereoanlage könnten unter Umständen Schaden nehmen.

Die Standards der CD-ROM (siehe Textbox) legen eine bestimmte Datenstruktur auf der CD fest. Die Daten werden auf der CD, ähnlich wie auf einer Festplatte in Blöcken gespeichert, wobei ein Block 2352 Byte umfaßt. Von diesen 2352 Byte werden jedoch nur 2048 zum Speichern der Information benötigt, die restlichen Bytes verwendet das Gerät zur Blockidentifikation und Fehlerkontrolle.




Standards rund um die CD



CD-DA                (Compact Disc Digital Audio) Hinter diesem Kürzel verbirgt sich die
bekannte Audio-CD. Diese CDs lassen sich ebenfalls mit nahezu allen CD-ROM-Laufwerken abspielen.


CD-I                    (Compact Disk Interactive) Für diese CDs ist ein spezieller CD-I-Player erforderlich, der an ein Fernsehgerät angeschlossen werden kann. Dieser Standard wurde speziell für multimediale Anwendungen mit Kombinationen aus Audio und Video entwickelt.


CD-ROM             (Compact Disc Read Only Memory) nicht beschreibbarer optischer Datenträger, dessen Daten über spezielle CD-ROM-Laufwerke in den Computer eingelesen werden können.


CD-XA                (Compact Disc Extended Architecture) Dabei handelt es sich um eine Erweiterung der CD-ROM-Spezifikation. Der XA-Standard läßt es zu, daß neben Daten auch Audioinformationen gespeichert werden, wobei Ton- und Bildinformationen ineinander verschachtelt werden. Aus diesem Grund lassen sich Daten und Töne parallel auslesen.


High Sierra Dieser Standard beschreibt, in welcher Art und Weise die Daten auf einer CD abzulegen sind, und sorgt so für Kompatibilität verschiedener Laufwerke und CDs. Beschlossen wurde dieser Standard 1986 von zahlreichen Soft- und Hardwareherstellern, die sich hierzu in einem Hotel namens »High Sierra« in Kalifornien trafen.


Multisession bezeichnet CDs, die in mehreren Sitzungen (Sessions) bespielt wurden. Dieses Verfahren ist in erster Linie dem Photo-CD-Bereich vorbehalten. Zum Abspielen dieser CDs sind spezielle multisessionfähige Laufwerke erforderlich. Im Gegensatz dazu stehen Singlesession-CDs, die in einem Durchgang beschrieben wurden.


Yellowbook von Philips und Sony beschlossene Spezifikation der CD-ROM zur Block- und Datenstruktur sowie Fehlererkennung. Das Gegenstück hierzu bei Audio-CDs ist das Redbook.

Aufzeichnungsverfahren


Für die schnelle Methode des Einlesens sequentieller Daten bei CD-ROMs ist ein spezielles Aufzeichnungsverfahren notwendig: Das CLV-Verfahren (Constant Linear Velocity), bei dem jeder Datenblock immer die gleiche Länge besitzt. Logischerweise befinden sich auf der äußersten Spur deutlich mehr Datenblöcke als auf der inneren. Da jedoch im Interesse einer konstanten Datenübertragung pro Zeiteinheit stets nur die gleiche Anzahl an Datenblöcken den Lesekopf passieren darf, muß die Rotations-geschwindigkeit entsprechend angepaßt werden. Durch dieses Verfahren wird der zur Verfügung stehende Platz optimal ausgenutzt, auf die Zugriffsgeschwindigkeit wirkt es sich hingegen negativ aus.

Ein direktes Gegenbeispiel ist die Festplatte, auf der sich die Spuren in konzentrischer Form befinden. Dementsprechend wird hier ein anderes Aufzeichnungsverfahren angewandt, das sogenannte CAV-Verfahren (Constant Angular Velocity). Hier bleibt die Umdrehungsgeschwindigkeit immer konstant, da sich auf jeder Spur die gleiche Anzahl  Datenblöcke befindet. Erreicht wird dadurch eine deutlich höhere Zugriffszeit als beim CLV-Verfahren - ein Vorteil, der jedoch über eine Kapazitätsverschwendung erkauft wird. Soll sich auf jeder Spur die gleiche Menge Datenblöcke befinden, muß man sich an der kürzesten, in dem Fall der innersten Spur orientieren.


Unter den CD-ROM-Laufwerken existieren auch kostengünstige Varianten, die über die serielle beziehungsweise parallele Schnittstelle angeschlossen werden können.

WORM (Write-Once-Read-Many)

magneto-optische Laufwerke


Einige wesentliche Punkte unterscheiden Worm-Laufwerke von CD-ROM-Laufwerken:


- verschiedene Plattengrößen (3,5', 5,25', 8', 12', 14')


- mehr Speicherplatz (14' bis 8 Gigabyte, 5,25' ca. 650 MB)


- unterschiedliche verwendete Materialien


- zwei Laser (Schreib- und Lese-Laser)


- ist einmal - unwiderruflich - beschreibbar


Das was bei CD-ROM´s von Anfang an geregelt wurde, hat bei WORM-Disks so nicht stattgefunden: Die Bildung eines Standards, der jede Scheibe im Laufwerk eines jeden Herstellers laufen läßt. Gerade in der Anfangsphase (bei den 12' Disks, die als erste am Markt erschienen) haben viele Hersteller ihr eigenes Süppchen gekocht. Mit dem erscheinen der 5,25' Laufwerke hat man auch begonnen, sich Gedanken über einen Worm Standard zu machen.

Jedes WORM-Laufwerk verfügt über zwei Laser: einen schwachen Lese-Laser und einen wesentlich stärkeren Schreib-Laser. Die gespeicherten Informationen werden eingelesen, indem die Oberfläche der Scheibe vom Laser abgetastet wird. Die zrückgeleiferte Reflektion wird analysiert und in binäre Daten umgewandelt.

Neben einer großen Bandbreite an verwendeten Materialien für die WORM (Glas, Aluminium oder Kunststoff) kommen auch verschiedene Aufzeichnungsverfahren zum Einsatz:


- Bubble Forming


- Pit forming


- Dye albative


- Phase changing


Das 'Bubble forming', also das 'Blasenerzeugungsverfahren' benötigt eine thermisch veränderbare Matallschicht, die von einer Polymerschicht umgeben und von Glas ummantelt ist. Trifft nun der Schreiblaser auf eine Stelle, wird hier eine Blase erzeugt, die beim Lesevorgang den Strahl des Lese-Lasers streut und mit geringerer Intensität reflektiert.

Beim 'Pit forming'-Verfahren befindet sich über einer reflektierenden eine weitere, nicht reflektierende. Der Sreiblaser brennt dann ein Loch in der Stärke von einem tausendstel Millimeter in die undurchlässige Schicht. Trifft dann der Lese-Laser auf dieses Loch, wird er auf eine Photozelle reflektiert.

Wesentlich bei der magneto-optischen Technologie ist, daß bei einem digitalen Aufzeichnungsverfahren zwei, vom Lese-Laser unterscheidbare, Zustände erzeugt werden können. Ein Laserstrahl erhitzt zuerst die Stellen, auf die geschrieben werden soll. Sobald die sogenannte Curie-Temperatur erreicht ist, wird durch ein schwaches Magnetfeld die magnetische Ausrichtung der jewiligen Stelle verändert. Wichtig ist dabei vor allem eine entsprechende Fokussierung des Schreiblasers, um nicht Informationen, die schon in angrenzenden Randbereichen abgelegt worden sind, zu beschädigen.

Das 'Phase changing'-Verfahren ist zum Beispiel ein rein optisches Verfahren, das zumeist bei professionellen WORM-Laufwerken zum Einsatz kommt. Es findet aber auch schon bei wiederbeschreibbaren, optischen Laufwerken seinen Einsatz. Wesentlicher Unterschied zu den übrigen Verfahren ist, daß es völlig ohne Elektro-Magneten auskommt. Ein Schreib- bzw. Lesevorgang hängt von der Intensität des (einen!) Laserstrahls ab. Beim wesentlich stärkeren Schreibvorgang wird der Punkt, auf den der Strahl auftrifft, geschmolzen und führt dazu, daß dieser Punkt künftig bei einer Abtastung beim Lese-Vorgang nur noch eine ganz schwache Reflexion liefert. Ist das der Fall, wird '1' zurückgeleifert, kommt der Strahl ohne Intensitätsverlust retour, steht dies für '0'.

Die WORM-Disks haben ihr Einsatzgebeit hauptsächlich in Archivierungssystemen. Sie sind kaum geeignet, eine Publikation in größeren Stückzahlen zu produzieren, da bei der Herstellung einer WORM diese das Master darstellt. Will man von einer WORM eine Kopie machen, bräuchte man zwei WORM-Rekorder/Player, die dann - der langsamen Zugriffsgeschwindigkeit entsprechend, ziemlich lange für die Erstellung einer Kopie benötigen würden. Gerade diese langsamen Zugriffsgeschwindikeiten sind aber ein Manko, auf das man sich bei den möglichen Speichermengen durchaus einlassen kann. Mit Wurlitzer-ähnlichen Geräten kann man durchaus Systeme im Terrabyte Bereich (1 Terrabyte = 1024 Gigabyte bzw. 1.099.511.627.776 Byte) erziehlen. Nicht zuletzt aufgrund der Größe der Speichermedien sind WORM-Laufwerke zumeist nur als externe Geräte lieferbar. Im Archivierungsbereich werden heute Magnetband bzw. Mikrofiche bzw. -film vielfach durch WORM-Datensicherungs-Systeme ersetzt. Erwähnenswert ist noch, daß die WORM´s gegenüber Omwelteinflüssen wesentlich unempfindlicher als die CD-ROM´s sind.

2.3. Magneto-optische Speicher - Die Alternative


Da sie nur einmal beschreibbar und nicht löschbar sind, scheiden die WORMs jedoch als echter Massenspeicher aus. Magneto-optische Festplatten sind die bessere Alternative. Bei der magneto-optischen Aufzeichnungstechnologie handelt es sich um eine Kombination aus magnetischen und optischen Techniken. Ein Aufzeichnungsverfahren, das nach dem digitalen Prinzip arbeitet muß zwei verschiedene Zustände an einer Stelle des Mediums erzeugen und diese beiden Zustände beim Lesen unterscheiden können. Dies erreichen unterschiedlich starke Laserstrahlen in Verbindung mit einem Elektromagneten.

Das Beschreiben einer magneto-optischen Disk erfolgt durch einen energiereichen Laserstrahl. Dieser Laserstrahl erhitzt die Stellen, an denen aufgezeichnet werden soll, auf die materialspezifische Curie-Temperatur. Wird sie erreicht, so genügt bereits ein schwaches äußeres Magnetfeld, um die Magnetisierungsrichtung des Datenträgermaterials zu ändern. Bei diesem Vorgang werden die Informationen buchstäblich gelöscht. Auf der anderen Seite der optischen Platte befindet sich ein Elektromagnet, der ein magnetisches Feld erzeugt, welches die neue magnetische Orientierung der Aufzeichnungszone bewirkt. Die Magnetisierungsrichtung liegt dabei senkrecht zur Plattenoberfläche. Bei hohen Leistungen des Lasers besteht jedoch die Gefahr, daß angrenzende Zonen durch Wärmeleitung ebenfalls erhitzt und durch das Magnetfeld entsprechend beeinträchtigt werden. Der Laserstrahl muß daher präzise fokussiert sein. Die Leistungen der verwendeten Laser liegen dabei im Milliwatt-Bereich, die Curie-Temperaturen hingegen bei einigen hundert Grad Celsius.


Wie auch auf herkömmlichen Datenträgern, werden auf der magneto-optischen Disk zwei verschiedene magnetische Zustände dargestellt: positiv und negativ. Unterschieden werden die beiden Zustände durch die Polarisation bei der Reflexion des energieärmeren Lese-Laserstrahls. Der reflektierte Strahl ist, je nach Ausrichtung des Magneten, polarisiert (man spricht vom sogenannten Kerr-Effekt). Der Informationsinhalt in den Zonen, die nicht durch den Laserstrahl erhitzt werden , bleibt vom Magnetfeld unbetroffen und wird daher nicht verändert.


Bei einer magneto-optischen Disk wird also stets zuerst gelöscht, danach beginnt erst der eigentliche Schreibvorgang. Dies erklärt auch, warum ein Schreibvorgang auf eine magneto-optische Disk wesentlich zeitaufwendiger ist als bei herkömmlichen Datenträgern.


Die magneto-optische Technologie erfordert beim Schreib-/Lesekopf eine komplizierte Optik. Dies wirkt sich natürlich auf Größe und Gewicht des Schreib-/Lesekopfes negativ aus. Ein großer und schwerer Kopf läßt sich nicht so schnell bewegen und beeinträchtigt daher die Zugriffsgeschwindigkeit.


Diese Faktoren erklären, warum die magneto-optischen Laufwerke wesentlich geringere Leistungsdaten in bezug auf Schreib-/Lesevorgänge aufweisen als herkömmliche Festplatten. Magneto-optische Laufwerke können somit als 'Zwitter' zwischen rein optischen Systemen bezeichnet werden.

Die Vorteile von magneto-optischen Disks liegen klar auf der Hand: Im 5 1/4-Zoll-Format können sie zwischen 600MByte und 1GByte an Daten aufnehmen. Die kleineren 3 1/2-Zoll-Disks fassen immerhin 128 MByte Daten. Zudem sind sie im Gegensatz zu Festplatten unempfindlich gegenüber magnetischen Feldern, da sich die magnetische Struktur nur ändern läßt, wenn die notwendige Temperatur an der entsprechenden Stelle anliegt. Sie können daher Datensicherheit auf lange Sicht gewähren. Aber auch andere äußere Einflüsse wie Feuchtigkeit, Hitze oder fahrlässige Handhabung fügen den Disks keinen Schaden zu. Eine Reihe von beschreibbaren Disks sind auf 10 bis 100 Jahre Datensicherheit konzipiert.


Die Einsatzgebiete der magneto-optischen Laufwerke ergeben sich aus ihren Vorteilen. Große Datenmengen stellen für diese Laufwerke kein Problem dar. Wer sich schon einmal an einem Farbscanvorgang mit 24-Bit-Farbtiefe versucht hat, wird sich ein entsprechendes Laufwerk sehnlichst gewünscht haben. Mehrere MByte Daten sind da schnell erreicht und auch die größte Festplatte ist irgendwann zu klein. Aus diesem Grund bieten sich MO-Disks im Bereich der Printmedien als Datenträger geradezu an. Ahnliches gilt für CAD und Grafik. Aber auch als Backup- beziehungsweise Archivierungsmedium bietet sich die MO an. Zudem ist die MO-Disk leicht aus dem Laufwerk zu entnehmen und zu transportieren.


Beim Phasenwechselverfahren (Phase Changa Technology) handelt es sich im eigentlichen Sinne um keine neue Technologie. Neu ist nur das Einsatzgebiet. Bislang wurde dieses Verfahren, das bereits seit Jahrzehnten bekannt ist, hauptsächlich bei professionellen WORM-Laufwerken eingesetzt. Mittlerweile findet es auch bei wiederbeschreibbaren optischen Platten Verwendung. Bei dieser Technologie handelt es sich um ein rein optisches Aufzeichnungsverfahren, das ohne Elektromagneten auskommt. Aufgezeichnet und gelesen werden die Daten durch zwei unterschiedlich starke Laserstrahlen. Zum Schreiben wird die Intensität des Laserstrahls mehr als verzehnfacht.


Zur Verdeutlichung: Die Leistung des Lasers liegt dann ungefähr zwischen 18 bis 20 Milliwatt. Dies genügt, um die entsprechende Schicht bis zum Schmelzpunkt zu erhitzen. Die Stellen, an denen der Schreiblaser auftrifft, ändern ihre Reflexion beim Abtasten durch den Leselaser. Beim Phasenwechselverfahren wird durch Fotozellen zwischen zwei Intensitäten des Lesestrahls differenziert - im Gegensatz zur magneto-optischen Technologie, wo die Polarisation des Lichtes entscheidend ist. Hat die Intensität nach der Reflexion stark abgenommen, so steht dies für den Zustand 1, wird der Laserstrahl ohne Intensitätsverlust reflektiert, beschreibt dies den Zustand 0. Der starke Schreiblaser ändert beim Schreiben durch Erhitzen und rasches Abkühlen die Atomstruktur und damit die Reflexionsfähigkeit des Materials. Dabei macht man sich die Tatsache zunutze, daß einige Materialien mit einem Laserstrahl zwischen einem amorphen und einem kristallinen Zustand hin- und hergeschaltet werden können. Im amorphen Zustand weisen diese Materialien einen deutlich geringeren Reflexionsgrad auf als im kristallinen. Der amorphe Zustand, beziehungsweise der binäre Zustand 1, wird durch die Erhitzung auf den Schmelzpunkt erreicht.

Um die Teilchen wieder in den kristallinen Zustand zu versetzen, genügt es, einen schwächeren Laserstrahl zu verwenden. Die Teilchen werden dann zwar auch erwärmt, aber nicht bis zum Schmelzpunkt gebracht. Aufgrund der durch die zugeführte Wärme gewonnenen Bewegungsfreiheit richten sie sich wieder in kristallinen Strukturen aus. Dies bedeutet, daß an dieser Stelle wieder der Zustand 0 erreicht wird. Die Unterschiede in der Intensität der Reflexion sind dabei wesentlich größer als die Polarisationsunterschiede beim magneto-optischen Verfahren.


Gegenüber dem magneto-optischen Verfahren kann das Phasenwechselverfahren mit einer deutlich schnelleren Geschwindigkeit aufwarten. Dies begründet sich darin, daß vor dem Beschreiben der Platte die darauf vorhandene Information nicht erst gelöscht werden muß. Der optische Datenträger kann bei nur einer Umdrehung beschrieben werden, während bei dem magneto-optischen Verfahren stets derer drei notwendig sind. Dieses optische Laufwerk ist aufgrund der Technologie kostengünstiger herzustellen als ein magneto-optisches Laufwerk. Der Schreib-/Lesekopf ist weniger komplex und weist daher auch ein wesentlich geringeres Gewicht auf. Allein durch Veränderung der Intensität kann mit einem Laser geschrieben und gelesen werden. Ein leichterer Schreib-/Lesekopf verkürzt die Zugriffszeit erheblich, da er wesentlich schneller an die entsprechende Stelle der Platte gefahren werden kann. In bezug auf die Zugriffszeit sind die technischen Möglichkeiten mit Sicherheit noch nicht ausgeschöpft, auch wenn von Laufwerken, die mit dem Phasenwechselverfahren arbeiten, schon Zugriffszeiten erreicht werden, die im Bereich älterer RLL-Festplatten liegen. Denkbar wäre beispielsweise auch eine Erhöhung der Umdrehungszahl. Fortschritte werden in der Verbesserung der Aufzeichnungsdichte erzielt. Erst wenn die Zugriffszeiten mit denen magnetischer Speicher vergleichbar sind, werden beide Verfahren in direkter Konkurrenz zueinander stehen. Hinsichtlich der Kapazität lassen sich bei optischen Speichermedien zwei Aufzeichnungsverfahren unterscheiden. Zum einen findet das CAV-Verfahren (CAV = Constant Angular Velocity) Verwendung. Hierbei bleibt die Drehzahl der Platte konstant. Daher ist die Dichte der Daten in den inneren Bereichen der Platte größer als in den äußeren. Im Gegensatz dazu steht das CLV-Verfahren (CLV = Constant Linear Velocity). Bei diesem Verfahren wird die Fläche der Platte effektiver genutzt. Die Dichte der Informationen ist stets gleich, sowohl auf den äußeren Spuren als auch auf den inneren. Die insgesamt größere Gesamtkapazität wird jedoch durch eine längere Zugriffszeit erkauft, da die Drehzahl der Platte während des Durchlaufs geändert werden muß und eine komplexere Datenorganisation erforderlich ist.


Der Trend geht eindeutig zu wiederbeschreibbaren Opto-Laufwerken. Die Zukunft gehört Kombi-Laufwerken, die sowohl WORMs als auch CDs und Phase-Change-Disks lesen können, welche zudem in der Lage sind, unterschiedliche Datenträger zu beschreiben. Starke Zuwachsraten verzeichnen auch die 'Jukeboxen', die mechanisch mehrere Disks verwalten können. Im Vordergrund stehen bei den Jukeboxen nach wie vor die CD-ROMs.

Auch bei den Materialien und den Herstellungsverfahren wird die Forschung vorangehen, so daß sinkende Preise und höhere Leistungen zu erwarten sind. Die optischen Speichermedien sind jedoch beileibe nicht die einzigen, auf denen die Entwicklung weitergeht. Festplatten werden immer schneller und bieten mehr Speicherkapazität bei sinkender Gerätegröße. Ebenso macht im Bereich der Archivierung die Entwicklung der Bandlaufwerke Fortschritte. Selbst die altbewährte Diskette ist vom Fortschritt nicht ausgeschlossen und wird mit einem Vielfachen der heutigen Speicherkapazität aufwarten können. Die ultimative Technologie wird es daher nicht geben. Der Anwender wird stets nach Einsatzgebiet, zur Verfügung stehenden Mitteln und Speicheranforderungen abwägen müssen, für welche Technologie er sich entscheidet. Dabei wird es eher ein Miteinander als ein Gegeneinander der einzelnen Technologien geben.







Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen