REFERAT-MenüDeutschGeographieGeschichteChemieBiographienElektronik
 EnglischEpochenFranzösischBiologieInformatikItalienisch
 KunstLateinLiteraturMathematikMusikPhilosophie
 PhysikPolitikPsychologieRechtSonstigeSpanisch
 SportTechnikWirtschaftWirtschaftskunde  



Multimedia

Einleitung


Definition des Begriffes 'Multimedia'

Die Zerlegung des Wortes in seine Bestandteile macht ansatzweise deutlich, worum es hier geht: Die Kombination mehrerer Medien. Eine genaue Definition müßte aber dennoch unterscheiden zwischen zeitabhängigen Medien, die sich also vom Erscheinungsbild her ändern (Animationen, Simulationen, Videosequenzen, Ton), und zeitunabhängigen Medien, die ein konstantes Aussehen haben (Texte, Bilder, Grafiken). Die Verknüpfung dieser beiden Medienarten ergibt dann eine Multimedia-Anwendung im eigentlichen Sinne .

Eine in der Literatur oft geforderte, weitere Bedingung für den multimedialen Charakter einer Anwendung ist ein hoher Interaktionsgrad[1] . Dieser Meinung schließe ich mich nur bedingt an, denn Interaktion sollte meiner Ansicht nach nur implementiert werden, wenn sie der Zielsetzung der Anwendung nicht entgegensteht.



Texte können mit Bildern kombiniert werden, Lernprogramme mit kleinen Animationen, die Zusammenhänge besser deutlich machen, Datenbanken mit Photos, etc

Eines haben alle diese Möglichkeiten gemeinsam: Sie versuchen durch die Kombination von zwei, meistens aber drei und mehr Medienquellen, Information einfacher begreiflich zu machen.

Einleuchtend ist zum Beispiel, daß eine Beschreibung des menschlichen Blutkreislaufs, wie sie sich in einem Lehrbuch finden ließe, abstrakter und somit schwerer erfaßbar ist, als eine mit bewegten Bildern und Photos 'greifbar' gemachte Gestaltung des Themas.

'Ein Bild sagt mehr als tausend Worte'. Das ist eine elementare Weisheit, die sich Multimedia in verschiedenster Art und Weise zu Nutze macht. Und nicht nur das: Durch bewegte Bilder und Animationen lassen sich in Verbindung mit Musik -  wie in einem Werbespot - ganz gezielt Gefühle ansprechen, was die Einprägsamkeit der wahrgenommenen Informationen noch weiter steigert.

An dieser Stelle möchte ich kurz einige Anwendungsmöglichkeiten dieser neuen Technologie - speziell vor betriebswirtschaftlichem Hintergrund - ansprechen.



Einsatzmöglichkeiten


Information, Präsentation und Archivierung1

Reisekataloge sind oft nicht mehr auf dem neuesten Stand und sind in der Herstellung sehr teuer. Um diese Nachteile abzuschalten gibt ein großes Touristikunternehmen seine Reisekataloge bereits als CD-ROM heraus. Das sichert eine größere Aktualität und senkt die Produktionskosten. Außerdem besteht ein weiterer Vorteil der digitalisierten Kataloge in der Möglichkeit, kurzfristige Anderungen und eventuell anfallende Restbestände per DFÜ auf die Rechner der Reisebüros zu überspielen. Die so nachträglich eingespeisten Informationen werden dann in den Katalog sozusagen aufgenommen, und der Reisevermittler kann auf Grundlage eines einheitlichen und aktuellen Informationsangebots die Kunden beraten.

Auf die gleiche Art und Weise werden auch Teilekataloge vertrieben. Hier liegt der Vorteil in der möglichen Implementierung von bewegten Explosionszeichnungen. Eine aus mehreren Einzelteilen zusammengesetzte größere Komponente kann so in ihre Bestandteile zerlegt werden, daß ihr Aufbau deutlich wird. Des weiteren besteht die Möglichkeit, Anleitungen zur Wartung oder zum Einbau vorzunehmen, was in Form von Animationen oder kleinen Videosequenzen erfolgen kann.

In einigen Museen oder in öffentlichen Verwaltungen gibt es bereits vereinzelt interaktive Informationssysteme, bei denen der Besucher gezielt durch die für ihn interessanten Informationen geführt wird. Er kann zwischen verschiedenen Sachgebieten wählen, und das entsprechende Wissen wird ihm dann - audiovisuell aufbereitet - vermittelt.

In der Medizin ist es schon jetzt möglich, Röntgenbilder zusammen mit Patientendaten und eventuell sogar gesprochenen Diagnosen verschiedener Arzte in einer multimedialen Datenbank zu speichern und bei Bedarf abzurufen. Hier eröffnet sich die Möglichkeit, auf der Grundlage ausführlicher Informationen zu diagnostizieren und zu behandeln. Diese Art, Patientendaten zu speichern, wird sich aber erst in einiger Zeit durchsetzen, da die hierfür benötigte Hardware momentan noch sehr teuer ist.


Ausbildung[4]

Sog. multimediale Lernumgebungen, also Programme mit audiovisuellen Komponenten, erreichen eine sehr hohe Lerneffizienz. Der Lernende kann bei der Wissensaufnahme oft selbst bestimmen, was er lernt und wie schnell der 'Unterricht' erfolgen soll. Oft gibt es die Möglichkeit, nach Abschluß eines Kapitels Tests zu machen oder Zusammenfassungen zu lesen bzw. sich anzusehen.

Man kann unterscheiden zwischen Hypermedia und wissensbasierten Tutorsystemen.

Hypermedia ist prinzipiell ein Hypertextsystem, das um multimediale Komponenten erweitert ist. Der Lernende bewegt sich selbständig durch das Wissensgebiet.

Bei einem wissensbasierten Tutorsystem hingegen wird berücksichtigt, welche Lernfortschritte gemacht werden, um darauf die Testfragen und Wiederholungen abzustimmen. Der Anwender wird quasi vom System 'an die Hand genommen' und durch das Wissen geführt.


Entwurf[5]

Mittels ausgefeilter Konstruktionsprogramme sind Architekten und Designer in der Lage, ihre Entwürfe und Planungen nicht mehr nur als gestaltlose, zweidimensionale Zeichnungen zu betrachten. Sie können nun Häuser räumlich darstellen und selbst die passende Inneneinrichtung mit realistischen Oberflächen versehen und sogar den Lichteinfall samt Schatten simulieren. Diese technischen Möglichkeiten gestatten es, die Zahl der Fehlplanungen zu reduzieren.




Entwicklung des Multimedia - Marktes

Die Aktualität des Themas 'Multimedia' wird deutlich, wenn man sich die zu erwartenden Umsatzzahlen (in Mio. DM) der beteiligten Branchen ansieht (1993 - 1996 geschätzt)[6]:




Art der Daten


Prinzipiell läßt sich eine Unterscheidung in digitale und analoge Daten vornehmen. Wobei generell festgestellt werden muß, daß natürlich nur digitale Informationen im Computer gespeichert und be- bzw. verarbeitet werden können.

Sowohl Video- als auch Audiosignale können in beiden der eben genannten Formen auftreten.


Digitale Daten

Audio - digitale Daten sind z.B. die herkömmlichen Musik - CDs. Aber auch die in vielen Programmen enthaltenen Soundkomponenten (Windowssounds, Effekte in Spielen ..) und Sprachausgabe von schon digital gespeicherten Phonemen liegen bereits in dieser, für den Computer verständlichen Form vor. Desweiteren kann der PC über seine Soundkarten - MIDI[7] - Schnittstelle externe MIDI - Geräte wie Synthesizer steuern und die von ihnen erzeugten digitalen Daten verarbeiten.

Zu den video - digitalen Daten gehören praktisch alle sichtbaren Informationen , die bereits in Programmen und sonstigen Dateien integriert sind. Hierbei muß noch zwischen den beiden verschiedenen Arten, auf die ein Bild gespeichert werden kann, unterschieden werden:

Vektorbilder setzen sich zusammen aus verschiedenen geometrischen Figuren, von denen die spezifischen Daten (Form, Größe, Plazierung, Farbe) gespeichert werden. Hierzu gehören unter anderem Diagramme, wie sie mit Tabellenkalkulations programmen erzeugt werden können oder Zeichnungen, die aus diversen Grafikanwen dungen stammen. Auch die einzelnen Bilder einer Animation sind im Computer er zeugt und somit vektorieller Natur.

Sehr viel speicheraufwendiger sind sogenannte Bitmaps, bei denen für jeden einzelnen Bildpunkt Zahlenwerte für seine Lage und Farbe gespeichert werden müssen. Hier wächst natürlich der Speicherbedarf mit genauerer Auflösung und differenzierterer Farbabstufung exorbitant an. Beispiele für solche Bitmapbilder sind Photos und Videosequenzen.

Um ungefähr einschätzen zu können, welche Datenmassen beim MM-Betrieb anfallen können, hier nun der Speicheraufwand für digitalisierte Informationen:1 Seite Schreibmaschinentext

2 KB

1 Seite Graphik (24 bit/Bildelement)

50 KB

Video Standbild

200 - 700 KB

1 Minute Audio in Stereo

5,3 MB

.komprimiert

1,3 MB

1 Minute Video-Bewegtbild

> 1 GB

..komprimiert

9 MB

1 Seite Farbdruck, DIN A4

200 MB

Spielfilm (Farbe, 90 min.)

5 TB


Speicheraufwand digitalisierter Informationen[8]

Analoge Daten

Audiodaten sind Daten, die nicht im Computer erzeugt oder schon gespeichert sind, sondernerst noch durch ein Mikrofon oder einen A/D-Wandler in digitales Format gebracht werden müssen, wenn sie verarbeitet werden sollen. Hierzu gehören Sprache, die technisch aufbereitet werden soll, oder Musikaufnahmen, die im Verlauf einer Plattenproduktion optimiert werden.

Videodaten können aus verschiedenen Quellen stammen. Beispiele sind Video-Kameras, Video-Rekorder oder RGB-Pal-Fernsehsignale. Diese analogen Informationen müssen nicht grundsätzlich in digitaler Form gespeichert werden. Es ist möglich, das Videosignal einer externen Quelle, wie auch immer es geartet sein mag, in einem Bildschirmausschnitt darzustellen. Zu diesem Zweck wird das Videosignal  einfach in das normale VGA-Signal umgerechnet und anschließend in einem Bildschirmausschnitt dargestellt. Mehr Details hierzu in Teil III.

An dieser Stelle sollte noch kurz die Tatsache Erwähnung finden, daß selbst digitale Informationen nicht immer einfach zu verarbeiten sind, weil man oft mit verschiedenen Anwendungen parallel arbeitet, wenn unterschiedliche Informationsquellen genutzt werden sollen. Viele dieser Anwendungen verwenden ihr eigenes Speicherformat . Sollte einmal kein passender Graphikfilter zur Verfügung stehen, wird die notwendige Umwandlung in das benötigte Format zur Odysse durch verschiedene Anwendungen, die natürlich mit großem Zeitaufwand verbunden ist.

Generell muß also eine mangelnde Standardisierung jeglicher Speicherformate festgestellt werden, was speziell in Sachen Multimedia mit seinen enormen Datenmassen ein Hindernis bedeutet - übrigens nicht die einzige Hürde, wie später noch gezeigt wird.

Eine andere Möglichkeit, diese Daten zu strukturieren, wäre eine Differenzierung nach ihrer Entstehungsart in analoge

digitale und

errechnete Daten.



Errechnete Daten

Auf die beiden ersten Datenarten ist in diesem Kapitel schon ausreichend eingegangen worden. Bei der letzten Form multimedialer Informationen handelt es sich um die sogenannte 'virtuelle Realität'. Hier werden 'die Ton- und Bildinformation weder von analogen noch von digitalen Speichermedien wiedergegeben, sondern sie werden - möglichst realistisch - auf der Grundlage eines mathematischen Modells 'erzeugt'.'[9]


Hard- und Softwarekomponenten


Software

Medienintegration

Autorensysteme

Wenn man von Software zur Erstellung von Multimedia-Anwendungen spricht, meint man in aller Regel die sogenannten Autorensysteme.

Darunter versteht man Software, mit deren Hilfe interaktive Lernprogramme mit multimedialen Komponenten, Präsentationen und multimediale Datenbanken erstellt werden können.

Die Programme werden dabei nicht wie üblich als herkömmlicher Programmcode - wie in gängigen Hochsprache (Pascal, C,..) üblich - geschrieben, sondern durch Verwendung von Funktionen, die in der Regel in Form von Symbolen vom Autorensystem zur Verfügung gestellt werden. Diese Funktionen werden später automatisch in den Programmcode umgesetzt. Auf diese Art und Weise ist die Erstellung eines Programms mit Hilfe eines Autorensystems sehr leicht auch von einem Nicht-Programmierer durchzuführen.

Es existiert eine Vielzahl unterschiedlicher Autorensysteme, die sich vor allem in ihrer Komplexität und Ausrichtung zur Erstellung bestimmter Anwendungen unterscheiden. Während einige sich vor allem zum Entwickeln von CBT-Programmen[10] eignen, kann man mit anderen auf einfache Weise Präsentationen oder Multimedia-Datenbanken erzeugen.

Am Beispiel des Autorensystems 'Authorware Professional 2.0 für Windows' (AP) der Firma Macromedia sollen die Möglichkeiten dargestellt werden, die eine solche Entwicklungsumgebung schafft [11].

Die Oberfläche des Programms ist so konzipiert, daß der Nutzer seine Multimedia-Anwendung anhand eines Flußdiagramms konstruiert.

Nachdem das Programm gestartet worden ist, kann der Programmierer an einer von oben nach unten verlaufenden langen Linie entlang die Icons, die ihm AP zur Verfügung stellt, sozusagen 'aufhängen'.

Für die in einem Multimedia-Programm benötigten Funktionen und Komponenten gibt es verschiedene Icons, beispielsweise ein Display-Icon zur Anzeige von Text und Grafiken, ein Interaktions-Icon, ein Sound-Icon, das für die Akustik zuständig ist, ein Video-Icon und letztendlich zur Strukturierung der Abläufe Gruppen-Icons.

Hinter jedem Icon steht eine Auswahltafel mit bestimmten Optionen, die dem Entwickler diverse Möglichkeiten zur Bearbeitung und Integration von Graphik-, Sound- und Videodateien gibt. Auch ist es möglich, kleinere Graphiken und Animationen zu erstellen und Bilder zu Beschriften. Für anspruchsvolle Animationen muß aber dennoch auf professionelle Programme wie den Animator für 2D-Animationen oder das 3D-Studio für räumliche Abläufe zurückgegriffen werden.

Über die Auswahltafeln lassen sich die zahlreichen Icon-Funktionen steuern und festlegen - für Graphiken und Videos zum Beispiel Bildübergänge, Bildstandzeiten oder die Anzahl von Bildern pro Sekunde.

In Kästchen, die mit den einzelnen Icons verknüpft sind, können Bedingungen für Verzweigungen und die Fortsetzung des Programms formuliert werden.

Zur genaueren Auswertung von Textantworten bieten sich Variablen an. Mit 'AP-Systemvariablen' läßt sich sehr einfach eine Kontrolle des Nutzerverhaltens durchführen, indem beispielsweise Antwortzeiten für Fragen, komplexe Interaktionen oder auch richtige und falsche Antworten registriert und ausgewertet werden. So ist es z.B. möglich, nach der dritten falschen Antwort die richtige Lösung anzuzeigen und mit der nächsten Aufgabe fortzufahren.

Außerdem wird eine Vielzahl von Systemfunktionen zur Manipulation und Berechnung von Werten und zur Steuerung des Applikationsverlaufs geboten. Komplizierte Berechnungen und Formeln bis hin zu Funktionen verbergen sich insbesondere hinter einem Kalkulations-Icon.

Es stehen also hinter den Icons und Dialogboxen komplexe Entwicklungs-Tools, die eine sehr differenzierte Applikationserstellung erlauben. Wer aber wirklich bis in die programmtechnischen Feinheiten vordringen möchte, sollte doch ein wenig tiefer gehende Kenntnisse in Bezug auf verschiedene Variablen und den Einsatz von Funktionen mitbringen.

Wenn nun der Rohentwurf in der Form eines Flußdiagramms vorliegt, kann sich der Programmierer sofort davon überzeugen, ob alles nach seinen Vorstellungen abläuft oder ob er noch Modifikationen vornehmen muß. Dazu wechselt er von der gerade beschriebenen Ebene, in der mittels Icons ein Flußdiagramm erstellt wurde, in die Wiedergabe-Ebene. Hier kann der gesamte Ablauf - oder nur ein Teil davon - wiedergegeben werden.

Des weiteren besteht die Möglichkeit, Programmteile zu gruppieren, was dem Entwickler einerseits die Möglichkeit verschafft, unterschiedliche Ideen auszuprobieren, und andererseits auch noch eine Strukturierungsmöglichkeit an die Hand gibt. Diese Programmteile lassen sich als sogenannte 'models' speichern und in anderen Programmen verwenden.

Abschließend kann über dieses Autorensystem gesagt werden, daß es sich speziell für die Entwicklung von CBT-Anwendungen eignet, weil gute Auswertungsmöglichkeiten für Interaktion zwischen Programm und Nutzer bestehen. Außerdem gibt es ein Runtime-Modul, das die zum Abspielen notwendige Software enthält. Die erstellten Applikationen sind also allein ablauffähig.

Noch ein Wort zum Preis. Laut Testberichten handelt es sich mit AP um ein sehr starkes Entwicklungswerkzeug. Der Preis fällt mit über 10.000,- DM aber trotzdem relativ hoch im Vergleich zu Konkurrenzprodukten aus[12], die schon ab 800,- DM zu haben sind. Deren Funktionsumfang ist zwar nicht ganz so umfassend, rechtfertigt aber einen solchen Preisunterschied nicht.


In MS-Windows 3.1 integrierte Multimedia-Programme

Neben den Autorensystemen, also einer sehr umfangreichen und flexiblen Möglichkeit Multimedia-Anwendungen zu erstellen, gibt es auch noch Mittel und Wege, mit MS-Windows 3.1 unterschiedliche Medien zu kombinieren.

Auf Windows komme ich an dieser Stelle zu sprechen, weil wohl fast jeder schon Erfahrungen damit gesammelt hat.

Es ist längst nicht so flexibel und vielschichtig, wie die gerade erläuterten Möglichkeiten, aber für den Hobbyanwender reicht es wahrscheinlich aus, um zumindest ein wenig multimediale Atmosphäre zu schaffen.

Die Fähigkeit zur Interaktion ist sehr eingeschränkt und läßt sich erst unter Zuhilfenahme von Visual Basic nutzen.

Nun zu der in Windows 3.1 integrierten Software. Hier sollen nur der Klangrekorder und die Medienwiedergabe Erwähnung finden.

Unter der Voraussetzung, daß eine Soundkarte im PC vorhanden ist, ermöglicht es das Programm 'Klangrekorder', Geräusche aus unterschiedlichen Quellen zu digitalisieren und als Datei abzuspeichern. Diese wiederum können nun mit anderen Ton-Dateien kombiniert und gemischt werden. Auch eine Modifizierung der Sounds ist jetzt möglich (Echo, Hall, ..).

Die 'Medienwiedergabe' ist eine Anwendung, die einerseits zum Abspielen von Animations-, Klang-, Video- und MIDI-Dateien gedacht ist, andererseits aber auch die Steuerung des CD-ROM-Laufwerks übernimmt. Schon ihr Aüßeres läßt dies vermuten, da bei Aufruf des Programms ein dem herkömmlichen CD-Spieler ähnliches Tastenfeld erscheint.


Medienbe- und Verarbeitung

Man kann diese Software grob unterteilen in Animations-, Bildbearbeitungs- und Soundprogramme.


Animationen

Unter einer Animation versteht man eine Folge von Bildern, die aneinandergereiht beim Ablauf den Eindruck eines bewegten Bildes entstehen lassen. Dabei wird bei jedem Bild einer Animation nur ein kleines Detail geändert, um die Bewegung so flüssig wie möglich zu halten. Animationen dienen zur Darstellung und Erläuterung bestimmter Abläufe (z.B. Arbeitsweise eines Motors oder des Herz- Kreislaufsystems). Man kann bei diesen Programmen grob trennen zwischen 2D- und 3D-Anwendungen.

Als Beispiel für den zweidimensionalen Fall sei hier der 'Animator Pro' der Firma Autodesk erwähnt. Die erzeugten Animationen - auch 'Flics' genannt - lassen sich dann in andere Multimedia-Anwendungen einbauen.

Wie bei einem Trickfilm wird ein Ausgangsbild erstellt. Auf der nächsten Seite wird dann der Umriß des aktuellen Bewegungszustandes eingeblendet, so daß die notwendige Bewegungsänderung durch Orientierung am Vorbild leichter nachvollziehbar wird.

Für den Fall, daß eine bereits existierende Trickfigur animiert werden soll, kann diese über einen Scanner[14] eingelesen und mit einer speziellen Bildbearbeitungssoftware nachbearbeitet werden. Die so erstellte Vorlage dient dann als Basis für den gerade erläuterten Vorgang, den man auch als 'Trace'-Funktion bezeichnet.

Eine weitere Funktion des Animators ist die sogenannte 'Cel'-Animation. Durch diese lassen sich viele Arten von Objekten animieren und zu einem 'Film' kombinieren. Dabei können z.B. Schriftzüge auf dem Bildschirm zeichenweise zu einem Logo zusammengesetzt und das komplette Logo dann gedreht oder verkleinert werden. So kann man aus mehreren kleinen Cel- Animationen eine komplette Präsentation zusammenstellen.

Das '3D-Studio', das ebenfalls von Autodesk kommt, ist eine für den professionellen Bereich entwickelte Lösung zur Erstellung dreidimensionaler, fotorealistischer Animationen. Räumlichen Objekten lassen sich eine Vielzahl von Materialoberflächen zuordnen, die bei entsprechend positionierten Lichtquellen sehr realistisch wirken. So unterscheidet sich beispielsweise die Reflektion einer Kugel mit Kunststoffoberfläche von der mit einer Holzoberfläche.

Das 3D-Studio besteht aus insgesamt fünf Modulen:

Der '3D-Editor' zur Erstellung einfacher dreidimensionaler Netzobjekte.

Der '2D-Shaper' zur Formung zweidimensionaler komplexer Objekte.

Der '3D-Lofter' zur Umwandlung zweidimensionaler Objekte oder im 2D-Shaper             erstellter Objekte in dreidimensionale.

Der 'Material-Editor' zur Bearbeitung bzw. Erstellung neuer Oberflächen-Texturen.

Der 'Keyframer' zur Animation der erstellten Objekte.

Mittels dieser Werkzeuge können nun Objekte erstellt werden.

Der erste Schritt ist dabei die Auswahl von in einer Bibliothek abgelegten Formen wie Kugel, Röhre, Kegel, etc.. . Diese werden zu einem Objekt zusammengesetzt, gespeichert und dadurch wie ein Ganzes behandelt.

Nun können noch beliebige Lichtquellen gesetzt werden, wobei selbst die Beleuchtungsfarbe variieren kann. Dem so entstandenen Objekt wird jetzt noch eine Oberfläche zugeordnet. Der Blickwinkel des Betrachters spielt ebenfalls eine wichtige Rolle. Im 3D-Studio muß der Anwender dafür eine 'Kamera' positionieren.

Sind diese Arbeiten abgeschlossen, errechnet das Programm die realistische Darstellung des Objekts unter den vorher festgelegten Rahmenbedingungen[15] (Lichtquellen, Blickwinkel, Oberflächenmaterial).

Im Anschluß folgt die eigentliche Animation. Dabei kann dem einzelnen Objekt eine sogenannte 'Transformation' zugeordnet werden. Es kann unter fünf Möglichkeiten gewählt werden: Bewegen, Drehen, Größe ändern, Quetschen, Anpassen.

Da eine Animation funktioniert wie ein Daumenkino, wird festgelegt, wie viele Bilder pro Sekunde gebraucht werden. Mit ca. 25-30 'Frames per Second' entsteht ein sehr flüssiger Ablauf der Bewegungen. Je nachdem wie lang die Animation werden soll, können hier schnell Tausende von Seiten entstehen. Das Programm nimmt dem Anwender aber durch die gerade erwähnten Transformationen die Arbeit ab, jede einzelne Seite per Hand verändern zu müssen.

Die fertige Animation wird in einer Datei gespeichert, die die einzelnen Frames als Gittermodell der erzeugten Objekte enthält. Soll die Oberflächenstruktur und der Lichteinfall sowie der Blickwinkel mit abgelegt werden, muß jede einzelne Seite der Animation 'gerendert', also neu berechnet werden.

Eine andere Möglichkeit, Animationen zu erzeugen, besteht darin, einen Filmausschnitt oder eine Videosequenz als Grundlage zu benutzen. Mit einer Video-Overlay-Karte[16] werden aus umfangreichem Filmmaterial einzelne Bilder, die in kurzen Abständen hintereinander folgen, sozusagen aus dem Gesamtmaterial herausgetrennt. Diese einzelnen Bilder - auch 'Frames' genannt - werden dann in ein Format von beispielsweise 320´200 Punkten und 256 Farben umgewandelt. Durch die Auswahl nur jeden dritten Bildes, die Reduktion der Bildpunkte und Farben wird der Bedarf an Speicherplatz deutlich reduziert. Aber auch hier entsteht immernoch eine Dateigröße von ca. 80 KB pro Bild ( ! ) bei mittlerer Komprimierung . Die so erzeugten Einzelbilder lassen sich dann wie auch bei anderen Animationen als Sequenz abspielen.


Bildbearbeitung

Hier läßt sich differenzieren zwischen

vektororientierten- bzw.

pixelorientierten Programmen.

Dieser Unterschied wurde schon in Kapitel II angesprochen.

Zu der ersten Gruppe gehören die Mal- und Zeichenprogramme, wie beispielsweise 'Paint', das zum Lieferumfang von Windows gehört, oder für anspruchsvollere Aufgaben 'Corel Draw'.

Mit Hilfe dieser Applikationen können von sehr einfachen geometrischen Formen bis hin zu komplexen, fast schon an Kunst grenzenden Bildern, alle nur denkbaren Objekte gestaltet werden.

Einige Programme sind in der Lage, den Stil berühmter Maler zu kopieren. Durch ein druckempfindliches Grafiktablett wird die Stärke gemessen, mit der ein 'Pinsel' über die Zeichenunterlage geführt wird. Im übrigen kann auch zwischen verschiedenen Papiersorten und Leinwänden gewählt werden - das Programm simuliert dann die jeweiligen optischen Auswirkungen. Man erhält so die Möglichkeit, indem man ein Photo als Vorlage auf das Grafiktablett legt, ein beliebiges Bild - beispielsweise im Stile van Goghs - zu schaffen.

Größere Bedeutung kommt jedoch den Programmen zu, die sich mit der nachträglichen Veränderung von Bitmap-Bildern beschäftigen. Auch digitalisierte Photos gehören hierzu.

Endeten bei der manuellen Bearbeitung von Photos die Möglichkeiten schon bei Helligkeitsveränderungen und eventuell mühsamer Retusche, so bieten die heutigen Bildbearbeitungsprogramme eine fast unübersehbare Menge von Filtern[18] und Kalibrierfunktionen. Über die Grundfähigkeiten hinaus, die jedes Bildverarbeitungsprogramm erfüllt - also Filter für eine Veränderung von Kontrast, Helligkeit und Schärfe - gibt es noch eine Reihe weiterer Funktionen, von denen einige hier kurz beschrieben werden sollen:

'Mosaik-Effekt' : Bei diesem auch häufig im Fernsehen zum Unkenntlichmachen von Personen benutzten Effekt wird das Bild in Helligkeitssegmente zerlegt. Innerhalb eines Segmentes wird der gleiche Farbton verwendet, was zur Folge hat, daß ein differenziertes Erkennen unmöglich ist.

'Posterization-Effekt' : Ein hochauflösendes Bild wird auf nur wenige Grau- und Helligkeitsstufen reduziert. Das Programm zerlegt das Bild in Flächen, die sich voneinander in ihrer Schwarzdeckung unterscheiden. Bei drei Abstufungen zwischen Weiß und Schwarz können die so erzeugten Flächen in drei unterschiedlichen Grautönen wiedergegeben werden.

'Motion-Blur-Effekt' : Durch eine gewisse Unschärfe wird hier ein                        Bewegungseffekt erzeugt. Das veränderte Bild sieht dann wie ein Photo aus, bei etwas sich schnell Bewegendes mit einer langen Belichtungszeit aufgenommen wurde und die Bewegungen deshalb verschwimmen.

'Cylinder-Effekt' : Bei diesem 3D-Filter wird das Bild einfach auf einem Zylinder abgebildet. Dadurch entsteht aufgrund horizontaler Rundung eines Zylinders und der dadurch bedingten langgezogenen Figuren ein täuschend echt wirkender 3D-Effekt.

'Fish-Eye-Effekt' : Wie beim Zylinder-Effekt wird das Bild sozusagen auf einen geometrischen Gegenstand abgebildet, hier allerdings auf eine Kugel.

Quintessenz und Ziel aller künstlichen Nachbearbeitungsmöglichkeiten ist die Korrektur von eventuell aufgetretenen Fehlern beim Fotografieren. Schärfentiefe, Kontrast und Helligkeit können den Vorstellungen des Fotographen angepaßt werden.

Den Manipulationsmöglichkeiten von Fotos sind keine Grenzen gesetzt. Zum Beispiel kann durch eine 'Klone'-Funktion ein Objekt einfach vom Bild verschwinden oder durch ein anderes ersetzt werden - der Rest bleibt der Phantasie des Anwenders überlassen.

Bilder, die auf solche Art und Weise nachbehandelt wurden, lassen sich dann in Multimedia-Anwendungen implementieren.


Sound[19]

Diese Art Software, die zum Teil bereits zusammen mit Soundkarten ausgeliefert wird, läßt sich grob in drei Gruppen aufteilen:

Reine 'Abspielprogramme' zur Musikwiedergabe,

'Sequenzerprogramme' zum gezielten Bearbeiten von MIDI-Daten,

'Notations- und Musiktheorieprogramme', die die Komposition in optisch richtiger Form zu Papier bringen und beim Komponieren behilflich sind.

Die Gruppe der reinen Abspielprogramme stammt oft aus dem Shareware- Bereich und verfügt nur über einen recht eingegrenzten Funktionsumfang. Diese Software ist in der Lage, zumeist Soundblaster- oder Adlibdateiformate zu verstehen. Da diese Soundkarten im Low- Cost- Bereich angesiedelt sind, ist deren Wiedergabequalität recht dürftig.

Einfache Ausführungen beherrschen die Aufnahme und Wiedergabe von Sounddateien. Etwas komfortablere Varianten erlauben bereits Klangbearbeitung durch den Einsatz von Filtern, Echo, Hüllkurven (beispielsweise das langsame Ausklingen einer Klaviernote) oder durch umgekehrtes Abspielen der Klangsequenzen. Hinzu kommen die Möglichkeit, Rauschen hinzuzumischen sowie der Einsatz von diversen Klanggeneratoren, die neue Klänge erzeugen. Die besseren Programme dieser Kategorie sind in der Lage, komplette Sequenzen auszuschneiden, einzufügen oder sie zu kopieren. Desweiteren kann ein Instrument ein- bzw. ausgeblendet werden. Letztendlich ist es möglich, relativ naturgetreue Geräusche zu erzeugen, indem man digitalisierte (gesampelte) Originalklänge in seine 'Komposition' einbaut.

Die zweite Gruppe, die sogenannten Sequenzerprogramme, arbeiten schwerpunktmäßig nicht mehr auf der niedrigen Stufe preiswerter Sound-Karten, sondern orientieren sich mehr in Richtung semiprofessioneller Musiker und Komponisten.

Mit einem Sequenzerprogramm kann man MIDI-Dateien selbst erstellen, aufnehmen und abspielen. Prinzipiell funktionieren sie wie eine Mehrspurbandmaschine. Die meisten Sequenzer bedienen sich des MIDI-Standards. Da MIDI mit elektronischen Nachrichten bereits alle Informationen über die gespielte oder zu spielende Musik überträgt, liegt es nahe, einfach diese Informationen aufzuzeichnen und später nur diese wiederzugeben. Nichts anderes macht ein Sequenzer, gleich, ob es sich um ein Sequenzer-Gerät handelt oder um ein entsprechendes Programm auf dem Computer. Programme, die ohne MIDI arbeiten gibt es ebenfalls; sie funktionieren nach ähnlichen Prinzipien. Die Bearbeitungsmöglichkeiten der Musikinformationen sind ähnlich denen der ersten Gruppe von Soundprogrammen, nur daß hier die einzelnen Instrumente auf verschiedenen Spuren separiert sind und sich dementsprechend auch differenzierter behandeln lassen. So haben einige Programme ein integriertes Mehrkanalmischpult. Auch moderne Windows-Arbeitstechniken finden Anwendung: Durch 'Drag and Drop' (Ziehen und Fallenlassen) können Melodien einfach verändert werden, indem man eine Notensequenz mit der Maus aufnimmt und an beliebiger, anderer Stelle platziert.

Die dritte Gruppe der Musikprogramme ist für die korrekte Notation zuständig. Sie erleichtern dem Musiker die Komposition eigener Stücke, indem sie für eine grafische Aufbereitung in Form richtiger Notenblätter sorgen. Hier wird also Desktop Publishing für Noten praktiziert, um Komponiertes auch in angemessener Form zu Papier zu bringen.

Einige dieser Programme sind in der Lage, aus normalen MIDI-Dateien heraus vollkommen selbständig schon ansehnliche Vorergebnisse zu produzieren, die kaum noch der Nachbearbeitung bedürfen. Die Fähigkeiten von guten Programmen dieser Kategorie gehen soweit, daß, wenn ein 'Klavierspieler' das Keyboard bedient und gleichzeitig über ein Fußpedal den Takt tippt, das Programm alles korrekt aufs Papier bringt, inklusive der richtigen Pausen.


Gestaltung virtueller Räume[21]

Multimedia zeichnet sich unter anderem durch die Fähigkeit aus, auf interaktive Eingriffe des Anwenders reagieren zu können. Ein noch viel weitergehender Schritt in dieser Beziehung ist die virtuelle Realität (VR) - auch Cyberspace genannt. Interaktive Anwendungen machen dabei den Schritt in die dritte Dimension.

Die virtuellen 3D-Welten reagieren dynamisch auf die Interaktion mit dem Benutzer. Mit einem konventionellen CAD-Programm werden die Welten inkl. der darin enthaltenen Objekte am Computer erstellt. Über eine spezielle VR-Computer-Anlage mit entsprechender Zusatzausstattung[22] kann sich der Anwender in dieser Welt bewegen. Bei Cyberspace geht es um möglichst realistische Simulationen.

Die Vorgehensweise zur Erstellung eines virtuellen Raumes ist nicht sehr aufwendig: Durch relativ einfache, in C geschriebene Routinen wird zuerst die Umgebung, also der Raum festgelegt[23]. Anschließend folgt die Definition oder der Import der Objekte, die im Raum 'existieren' sollen inklusive ihrer Oberflächenstruktur. Nun werden Lichtquellen definiert und positioniert. Genau wie beim 3D-Studio muß auch noch der Ausgangsblickwinkel des Betrachters festgelegt werden. Animationen lassen sich ebenfalls einbauen. Der wesentliche Unterschied ist die Zuordnung eines Sensors für den Datenhandschuh bzw. den Datenanzug und den Bewegungssensor auf dem Helm des Anwenders. Hierdurch wird erst die Möglichkeit geschaffen, interaktiv und dazu noch in Echtzeit auf das Geschehen im virtuellen Raum Einfluß zu nehmen.

Wenn man bedenkt, wieviele Berechnungen gleichzeitig durch eine solche Software vom Rechner verlangt werden, ist klar, daß nur sehr schnelle Rechner diesen Anforderungen genügen können. Es gibt bereits VR-Anwendungen auf PC-Basis[25]. Es muß aber auf ein wackelfreies Bild verzichtet werden, weil preiswerte Hardware nicht in der Lage ist, eine angemessene Anzahl von Bilder pro Sekunde zu berechnen. Für den Normal-Anwender wird sich die VR also noch einige Zeit als unzugängliche High-Tech-Domäne darstellen.


Mischverfahren zwischen Hard- und Software:                        Datenkompression

Die enormen Datenmassen, die bei multimedialen Anwendungen zustande kommen, sind in ihrer bestehenden Struktur quantitativ nur schwer zu bewältigen. Speziell für Videosequenzen und Audiodateien würden Unmengen an Speicherplatz benötigt[26], was eine Kostenexplosion zur Folge hätte. Die im Normalfall unkomprimiert anfallenden Daten häufen sich mit bis zu 12 MB pro Sekunde (!) an. Zur Lösung dieser Problematik sind verschiedene Datenkompressionsverfahren entwickelt worden, von denen hier nun die zur Zeit wichtigsten und die für die Zukunft interessantesten kurz vorgestellt werden sollen.

Grundlegende Begriffe

Bei den folgenden Ausführungen spielt die Datentransferrate eine zentrale Rolle. Es handelt sich hierbei um die Anzahl der Daten, die innerhalb einer bestimmten Zeiteinheit (hier: 1 Sekunde) transportiert werden.

Weitere Kernbegriffe sind die optische und die zeitliche Auflösung von Bildern. Die optische Auflösung meint die Anzahl von Punkten, die ein Bild hat - meistens in der Form 'Spaltenzahl mal Zeilenzahl' gegeben. Mit der zeitlichen Auflösung ist die Bildwiederholfrequenz gemeint, also die Anzahl von Bildern pro Sekunde. Letzter wesentlicher technischer Begriff ist die Samplingrate, was die Anzahl von Abtastungen eines Audiosignals pro Sekunde meint.

Die Notwendigkeit einer Komprimierung von Video- und Audiosignalen wurde bereits angesprochen. Die Tabelle auf Seite 4 zeigt den notwendigen Speicherbedarf, der je nach den unterschiedlichen Medien, die verarbeitet werden, entsteht.


JPEG

Das uncodierte Standbild wird in Blöcke zerlegt, die mit einem speziellen Algorithmus (DCT)[27], auf den hier nicht näher eingegangen wird, transformiert werden. Bei diesem Schritt werden die Daten zum erstenmal reduziert.

Um die Eigenschaften des menschlichen Auges auszunutzen, werden nun einige hochfrequente Segmente des Bildes mit weniger Informationen gespeichert, als niederfrequente Teile[28].

Die verschiedenen Farbkomponenten des Bildes werden nun einzeln codiert und mit jeweils einer Quantisierungsmatrix einem weiteren Algorithmus (DPCM)[29] zugeführt.

Das auf diese Weise komprimierte Bild wird dann bei Bedarf in umgekehrter Reihenfolge wieder dekomprimiert.



Standbildkompression nach dem JPEG-Standard[30]


Diese Algorithmen können in eigens dafür entwickelten Prozessoren als Mikrocode abgelegt werden und so den Hauptprozessor von zusätzlicher Arbeit entlasten. In der Regel wird aber im Still-Video-Bereich auf solche Hilfsprozessoren verzichtet werden. Die Dekomprimierung wird also mittels entsprechender Programme vom Hauptprozessor durchgeführt werden.

Ein JPEG-Coder arbeitet mit Kompressionsverhältnissen von 8:1 bis 18:1.


H.261

Der H.261-Standard wird für die Kompression von Bildsequenzen für Videokonferenzen oder Bildtelefon verwendet. Der Algorithmus zielt auf Datenraten von p64 kbit/s, wobei p im Bereich von 1-30 liegt[31]. Der H.261-Coder verarbeitet Bilder, die nicht zeilenverschränkt sind und verwendet als Eingabedatenformat das CIF. Eine Bewegtbildsequenz mit einer örtlichen CIF-Auflösung und einer Bildfolgefrequenz von 10 Hz kann mit einem Kompressionsverhältnis von ca. 190:1 codiert werden, was eine komprimierte Datenrate von 64 kbit/s ergibt und die Übertragbarkeit über einen ISDN-Kanal ermöglicht.


MPEG-Verfahren

Die Aktivitäten der 'Motion Picture Experts Group' lassen sich bisher in zwei Phasen aufteilen.

MPEG-I

In Phase I wurde ein Standard zur Codierung von Videosignalen für interaktive Multimediasysteme entwickelt. In digitalen Speichermedien, wie z.B. CD-ROM, stehen Datentransferraten von ca. 1,15 Mbit/s zur Verfügung, was das Ziel der Kompression ist. Der MPEG-I- Standard ist flexibel in Bezug auf das Bildformat und unterstützt Trickmodi, wie z.B. wahlfreien Zugriff[33], schnellen Vorwärts- und Rückwärtssuchlauf, sowie die Wiedergabe in umgekehrter Reihenfolge.

Ein MPEG-I-Coder erreicht eine Kompressionsrate von 26:1, was einer Datenrate von 1,15 Mbit/s entspricht. Dieser Standard ist mittlerweile in vielen Produkten umgesetzt worden.


MPEG-II

Dieser Standard ist kürzlich fertig gestellt worden, ist aber noch nicht im Markt präsent. Er wird offen sein gegenüber größeren Formaten, die z.B. von hochauflösendem Fernsehen (HDTV) benutzt werden.

Für einige Anwendungen ist der Aspekt der Skalierbarkeit von besonderem Interesse. Skalierbarkeit bedeutet, daß aus den codierten Daten eines hochauflösenden Signals (z.B. HDTV) ein niedrigauflösendes (z.B. TV) extrahiert werden kann. Interaktive Computersysteme wären damit in der Lage, ein verkleinertes Bild anzuzeigen, ohne die gesamten Daten des hochauflösenden Bildes verarbeiten zu müssen. Mehrere Ansätze zur Realisierung der Skalierbarkeit werden zur Zeit untersucht.


MPEG-Audio

Dieser Standard bietet eine Vielzahl von Anwendungsmöglichkeiten, wie z.B. die digitale Speicherung von Audiosignalen auf kostengünstigen Speichermedien oder die digitale Übertragung auf Leitungen mit begrenzter Kapazität.

Die digitale Darstellung eines Stereo-Audiosignals in Studioqualität erfordert eine Samplingrate von 48 kHz, was einen Speicheraufwand von ca. 1,5 Mbit/s nach sich zieht. Das Ziel der MPEG war die Codierung eines Stereosignals mit einer auf 256 kbit/s verringerten Datenrate bei einer der Compact Disc vergleichbaren Audioqualität. Aber auch eine stärkere Kompression auf 128-192 kbit/s soll noch zu akzeptabler Wiedergabe führen.

Prinzipiell kann diese Zielsetzung erreicht werden durch eine Zerlegung des Frequenzspektrums in 'Spektralkomponenten', die in ähnlichen Bandbreiten vorgenommen wird, wie vom menschlichen Gehör auch. Anschließend wird das Signal den Gesetzen der Psychoakustik entsprechend gewichtet und codiert. Töne, die das Ohr intensiver wahrnimmt, werden mit höherem Speicheraufwand abgelegt, als solche die leicht überhört werden können.

Abschließend kann gesagt werden, daß bei einer Datenrate von 128 kbit/s für ein Stereo-Signal bzw. 64 kbit/s für ein Mono-Signal ein MPEG-Audio-Codec[34] die beste heute bekannte Ton-Qualität erreicht. Nach intensiven Hörtests ergibt sich für die meisten Testsignale eine Qualität, die der Compact Disc sehr nahe kommt. Der MPEG-Audio-Standard ist Bestandteil von MPEG-I.

Das MPEG-Gremium nimmt bereits die dritte Phase seiner Tätigkeit in Angriff, und auch eine vierte Entwicklungsstufe ist bereits in Planung.

Fraktalkompression

Jeder kennt die Sog. 'Apfelmännchen', die aus bestimmten Formeln mit sich leicht ändernden Parametern immer detaillierter berechnet werden können. Prinzipiell läßt sich jedes Bild auf ähnliche Art und Weise so aufbauen wie ein Apfelmännchen. Alles hängt hier von den richtigen Parametern ab. Statt für jeden Bildpunkt nun Werte für Lage und Farbe zu speichern, werden für das gesamte Bild nur noch die Formelparameter abgelegt.

'Der Bilderkennungsprozeß, der ein Bild automatisch in seine fraktalen Grundstrukturen zerlegt, heißt 'Fractal Transform' und wurde erst 1988 entdeckt. Die Zusammensetzung größerer Teile des Bildes aus verschiedenen Grundblöcken wird in 'Affinitätskoeffizienten' gespeichert. Dazu findet der Transformprozeß heraus, wie die Grundelemente in veränderter Form im Bild verteilt sind. Ein Koeffizient muß also Daten enthalten, die sagen, wo und wie die Grundelemente gedreht, verzerrt, erhellt oder sonstwie verändert nochmals im Bild vorkommen.'[35]

Die Berechnung der Koeffizienten ist relativ zeitaufwendig. Das Abspielen von bereits kodierten Bildern geschieht aber in sehr hoher Geschwindigkeit. Auf einem 486er ist es problemlos möglich, Videosequenzen mit 20 Hz und mehr, also ruckfrei darzustellen. Eine weitere Besonderheit dieses Verfahrens ist die Möglichkeit, Bilder in einer Auflösung zu berechnen, die über die Genauigkeit ihrer Vorlage hinausgeht. Bleibt zu sagen, daß die Fraktalkompression mit Kompressionsraten von bis zu 10000:1 mit Sicherheit unerreicht bleiben wird. Deshalb hat der Erfinder des Verfahrens, Professor Michael Barnsley, auch schon das Interesse der MPEG auf sich gezogen, die an einer Integration dieser Technik in MPEG- IV interessiert ist.


Für alle beschriebenen Kompressionsverfahren gilt, daß sie sowohl als Software in Form von Dateifiltern oder Konvertierungsprogrammen, als auch als Hardware auf speziell angefertigten Zusatzboards (z.B. DVI, JPEG, MPEG), in Erscheinung treten können. Bei steigender Datenmasse und zunehmendem Professionalitätsgrad wird die Tendenz allerdings in Richtung Hardware gehen, um den Hauptprozessor von Zusatzarbeit zu befreien und ein schnelles Arbeitstempo zu gewährleisten.


Die Hardware

Es wurde schon mehrfach angesprochen, daß Multimedia nach viel Speicherplatz verlangt. Die herkömmlichen Disketten im Format '' bzw. '' reichen hier natürlich nicht mehr aus.

Die in jedem PC mittlerweile vorhandene Festplatte erfüllt zwar alle Anforderungen in Bezug auf Speicherplatz[36] und vor allem auf die Zugriffszeit (<10 ms). Der hohe Preis einer ausreichend großen Platte läßt sie aber für multimediale Anwendungen unzweckmäßig erscheinen. Außerdem eignet sie sich nicht für einen auf große Stückzahlen ausgerichteten Vertrieb.






Speichermedien

CD-ROM[37]

Die Technologie der optischen Speicherung, die der Musikindustrie die CD brachte, verspricht eine ähnliche Revolution bei den Computern in Form der CD-ROM auszulösen. Speicherplatten, die wie CDs ihren Inhalt durch Laserlicht zugänglich machen, haben eine viel höhere Kapazität als jedes magnetische Speichermedium. Ein Laserstrahl arbeitet so präzise, daß eine 12 cm große Normal-CD über 600 MB Daten aufnehmen kann - etwa 500 mal soviel wie eine gleich große Diskette.

Neue Lasertechniken sind bereits in der Entwicklung. Der sogenannte 'Blue Laser' arbeitet mit kurzwelligerem Licht als herkömmliche Laser und ermöglicht eine noch höhere Speicherdichte. Die Folge wird eine CD sein, auf der rund 2,5 Giga Byte (GB) Platz finden. Die Zugriffszeit von momentan 200-400 ms wird sich merklich verringern. Auch die Datentransferraten, die bislang bei 150 kB/s lagen, erfahren schon jetzt durch die sog. 'Multispin'-Laufwerke , die mit mehrfacher Umdrehungsgeschwindigkeit arbeiten, eine Weiterentwicklung auf Werte von mehr als 500 kB/s.

Neben ihrer großen Kapazität hat sie auch den Vorteil, unempfindlich gegen Wärme, Feuchtigkeit, Fingerabdrücke, Magnete, mechanische Beschädigung und Abnutzung zu sein, was jeden magnetischen Datenträger zerstören würde. Sicherheitskopien sind also nicht notwendig.

Optische Platten verdanken ihre Beständigkeit dem Verfahren nach dem sie hergestellt werden. Zur Aufzeichnung erzeugt ein starker Laser[39] auf ein Signal hin eine Markierung (Pit) auf einer leeren Platte - und keine Markierung, wenn er kein Signal erhält. So schafft er ein Muster, daß den Einsen und Nullen des Binärcodes entspricht. Zum Abrufen tastet ein schwächerer Laser das Muster ab. Das von den Markierungen reflektierte Licht des Strahls wird von einer photoelektrischen Vorrichtung registriert und als Datenbit an den Computer übermittelt.

CD-ROMs lassen sich mit ähnlichen Verfahren duplizieren wie Schallplatten. Wenn die Mutterplatte mit einem Laserstrahl hergestellt ist, kann man von ihr eine Prägematrize herstellen und dann Kopien in einer Presse anfertigen.

Durch spezielle Fehlerkorrektur-Mechanismen wird eine sehr hohe Datenintegrität gewährleistet: Auf eine Billion (1012) Bit kommt nur höchstens ein Fehler.

Die Standards für optische Speichermedien sind in verschiedenen 'Books' festgehalten . Das 'Red Book' enthält die Standards für Audio-CDs. Im 'Yellow Book' finden sich die Standards für die CD-ROM: Für Form und Aufteilung der spiralförmigen Spur, sowie zur Oberflächenbeschaffenheit und zum Replikationsverfahren. Das 'Green Book ' beinhaltet Angaben für die bisher nur von Philips angebotene Compact Disc Interactive (CD-I). Zum Schluß sei noch das 'Orange Book' erwähnt, das die Standards für beschreibbare optische Speicher enthält .

Neben der CD-ROM-XA[42], die sich wohl zum Standard im Computerbereich entwickeln wird, gibt es noch das schon erwähnte CD-I und CDTV.

Bei dem von Sony und Philips vorgestellten CD-I handelt es sich um ein CD-Abspielgerät für den Consumer-Markt, welches direkt an einen Fernseher angeschlossen werden kann. Auf einer CD lassen sich 75 Minuten Live-Video speichern, inklusive Toninformation in Stereoqualität. Das auf einem Motorola-Chip der 68XXXer Reihe basierende Abspielgerät soll als Weiterentwicklung der ursprünglich von Philips entwickelten Audio-CD dem privaten Anwender Zugang zu Live-Video und interaktiven Anwendungen ermöglichen.

Um dabei den Kontakt zur Außenwelt nicht zu verlieren, lassen sich die Abspielstationen sowohl als Audio-CD-Player nutzen als auch durch Verwendung einer geringfügigen Hard- und Software-Ergänzung als CD-ROM-Laufwerk. Ein CD-I-Player verfügt bereits über einen seriellen Anschluß und kann über den intergrierten Ethernet Adapter an LANs angekoppelt werden. Auch die Steuerung diverser Peripheriegeräte ist kein Problem. Ein SCSI-Kontroller übernimmt diese Aufgabe. Durch diese Elemente ist eine hohe Investitionssicherheit gegeben.

Derzeit gibt es bereits eine ganze Reihe Anwendungen in Form von CD-ROMs auf dem Markt. Selbständige Produktionsfirmen können die Lizenzen und das technische Equipment bei Philips erwerben, um eigene Titel auf den Markt zu bringen.

Auch bei CDTV von Commodore bildet ein separates CD-Abspielgerät die Basis für Multimedia-Anwendungen. Erweitert um eine Tastatur, Maus, Monitor und Diskettenlaufwerk bildet das CDTV ein komplettes Amiga-500-System.


WORM

Der Begriff WORM steht für optische Platten, die im Gegensatz zu CDs nicht nur gelesen werden können, sondern die vom Benutzer einmalig beschreibbar sind.

Um beschreibbar zu werden, müssen WORMs zwei besondere Merkmale aufweisen: Ein Plattenmaterial, dessen Reflexionseigenschaften sich durch einen Laserstrahl dauerhaft verändern läßt, und ein Laufwerk mit einem Laser, der auf zwei verschiedenen Energiestufen arbeitet - hoch für aufzeichnen, niedrig für lesen. Das erste dieser beiden Charakteristika unterscheidet WORMs dann auch von den normalen CD-ROMs.

Die am meisten verbreitete Art dieser optischen Platten besteht aus mehreren Schichten metallischer Stoffe, die leicht durch den starken Laserstrahl zu schmelzen sind, wodurch das Lochmuster, das die Daten repräsentiert, entsteht.

WORM-Platten sind ideal zum Speichern von Informationen, die nicht geändert werden sollen und auch nicht geändert werden müssen, beispielsweise für jede Art von Archivierung.

Zur Zeit kommen die ersten ausgereiften CD-Writer auf den Markt. Ihre Preise liegen um 12000,- DM plus 3500,- DM für die notwendige Software. Desweiteren sind zwei große Festplatten von >700 MB notwendig. Die Daten werden auf der ersten Platte gesammelt und dann - fertig aufbereitet - auf die zweite kopiert werden, um den für den Brennvorgang kontinuierlichen Datenstrom zu gewährleisten. Momentan ist also das Equipment für den privaten Anwender noch zu teuer.



Soundkarten

Zur Grundausstattung eines PCs gehörte bislang noch keine Soundkarte[46]. Für Multimedia-Anwendungen ist sie aber notwendig, und es ist absehbar, daß in einiger Zeit nicht nur die Grundausstattung von Computern um dieses Zusatzboard erweitert wird, sondern daß die entsprechenden Chips auf der Hauptplatine implementiert werden .

Was genau macht nun eine Soundkarte ?

Ein akustisches Signal kann vom Computer nur verarbeitet werden, wenn es vorher digitalisiert wird. Zu diesem Zweck haben Soundkarten einen sogenannten Analog-Digital-Wandler (ADW). Töne werden mittels eines Mikrofons von akustischen Schwingungen in elektrische umgewandelt. Diese wiederum können nun durch den ADW 'gesampelt', also abgetastet werden. Die charakteristischen Eigenschaften der Schwingung werden in bestimmten Zeitabständen gemessen und als Zahlenwert aufgezeichnet.[48]

Die Folge der aufgezeichneten Werte stellt den Ton dar. Je geringer der zeitliche Abstand zwischen zwei Messungen ist, desto besser ist die Aufzeichnungsqualität, da auch kleinste Veränderungen der Schwingung erfaßt werden. Man spricht hier von der Samplingrate, die ein Maß für die Leistunsfähigkeit einer Soundkarte ist. Sie wird gemessen in kHz und liegt bei marktüblichen Karten bei 44,1 kHz für Mono-Aufzeichnung bzw. 2  22,05 kHz für Stereo-Aufzeichnungen. Es gibt auch Karten, die selbst Stereo mit 44,1 kHz samplen; allerdings findet diese hohe Qualität ihren Niederschlag in einem ebenso hohen Preis.

Ein weiteres Maß für die Güte einer Soundkarte ist die Genauigkeit mit der das Sampling vorgenommen wird. Beispielsweise kann bei einer 16-bit-Abtastung zwischen (216 =) 65536 verschiedenen Zustände unterschieden werden, während bei einer 8-bit-Abtastung lediglich (28=) 256 Werte differenziert werden.

Die zweite, wesentliche Fähigkeit einer Soundkarte besteht darin, elektronische Töne in den unterschiedlichsten Variationen direkt zu erzeugen. Dies wird mit Hilfe eines Sythezisers erreicht, der die durch Oszillatoren erzeugten Töne, Klänge, Geräusche usw. zu einem Gesamtklangbild zusammensetzt. Da das Klangbild abhängig ist vom Frequenzgang einer Schwingung, kann es durch seine Modifizierung verändert werden. Diesen Vorgang nennt man Frequenzmodulation (FM). Durch Simulation bekannter Frequenzgänge können somit bekannte Instrumente wie Orgeln, Blasinstrumente usw. von der Soundkarte imitiert werden.


Grafikkarten

Mittlerweile ist eine VGA-Karte Standard. Meistens sind Auflösungen von 1024768 Punkten möglich, wobei natürlich der Normalanwender nur selten diesen Modus auf seinem üblicherweise sehr kleinen Monitor benutzen wird. Die Fähigkeit, verschiedene Farben darzustellen ist sehr unterschiedlich bei den einzelnen Karten und reicht von 16 (4 bit) bis True-Color-Darstellung (24 bit), was 16,7 Millionen Farben entspricht.

Seit einiger Zeit ist gerade im Marktsegment der Grafikkarten einiges in Bewegung geraten. Es gibt jetzt sogenannte Beschleuniger-Karten, die vor allem für grafikhungrige Windowsanwendungen einen gravierenden Geschwindigkeitsvorteil für den Bildschirmaufbau bringen. In Bezug auf Multimedia ist dies insofern wichtig, als daß Windows sich auch hier zu der Benutzeroberfläche entwickelt.

Video- und Animationssequenzen erhöhen die Anforderungen an eine Grafikkarte zudem auch noch erheblich. Soll Live-Video etc. problemlos und ruckfrei dargestellt werden, empfiehlt es sich jedoch, keinen herkömmlichen ISA-Bus einzusetzen. Dieser transportiert die Daten 16-bit-weise mit einer Taktfrequenz von 8,33 MHz, was bei den Datenmassen im Videobereich sehr enge Grenzen setzt.

Im Gegensatz hierzu schaffen andere 'Bus- Systeme'[49] den Datentransport mit 32 Bit und zwar in einer wesentlich höheren Geschwindigkeit, nämlich im Systemtakt. Bei einem Rechner mit 33 oder 50 MHz, kommen so enorme Transferraten heraus.


Video-Karten

Diese Karten können die unterschiedlichsten Funktionen erfüllen. Einige Karten decken nur ein sehr enges Aufgabenfeld ab, während andere fast an die Fähigkeiten eines Filmstudios heranreichen. Hier sollen die einzelnen Funktionen vorgestellt werden, die zur Zeit erfüllt werden können. Welche Karte letztendlich von Interesse für den einzelnen Anwender ist, hängt dann nur von seinen Ansprüchen ab.

VGA-PAL-Konverter wandeln das Computerbildsignal so um, daß es auf einem nor- malen Fernseher dargestellt oder mit einem Videorekorder aufgenommen werden kann. Dazu wird die Bildwiederholfrequenz synchronisiert, d.h. auf 50 Hz gebracht. In vielen Home-Computern der ersten Stunde (C64, Atari..) waren solche Konverter integriert. Damals galt es noch als Luxus, einen speziellen Monitor zu be- sitzen. Einige Rechner arbeiten auch heute noch auf diese Art und Weise (Atari, Amiga).

Framegrabber digitalisieren einzelne Bilder aus einer Videosequenz und speichern sie auf Festplatte ab. Die Bilddarstellung erfolgt über die Grafikkarte des Rechners, weshalb die Darstellung nicht ruckfrei ist.

Video-Overlay-Karten übernehmen selbst die Darstellung des Fernseh- oder Videobil- des und zwar in Echtzeit in einem Bildschirmfenster. Die Grafikkarte oder der Rech- ner selbst werden also nicht beansprucht. Diese Karten verfügen meistens über eine Framegrabber-Funktion.

Genlock-Karten sollen eigentlich nur mehrere Signale synchronisieren, um sie ge- meinsam darstellen zu können. Diese Fähigkeiten besitzen auch normale Video- Overlay-Karten. Wobei Genlocks nicht in der Lage sind, das Fersehsignal auf den Monitor zu bringen, sondern nur umgekehrt. Ihr Einsatzgebiet ist deshalb vor allem das Vertiteln von Videofilmen.

Video-Manipulations-Karten beherrschen die professionelle Bearbeitung und Ausga- be von Videofilmen inklusive Schnitt und Vertitelung.




Externe Bildquellen

Was für die Soundkarte das Mikrofon bzw. die Stereoanlage oder MIDI-Geräte sind, sind für Video-Karten die externen Bildquellen. Ihre Funktionsweise und ihr Einsatzgebiet sollen im Folgenden kurz vorgestellt werden.


Videorekorder und Videokamera

Speziell für die nachträgliche Bearbeitung von Filmmaterial - also Bewegtbildsequenzen - wird in zunehmendem Maße auch der Computer eingesetzt. Was früher nur professionellen Filmherstellern möglich war, ist dank einer deflationären Entwicklung der Hardwarepreise jetzt auch dem Hobbyfilmer zugänglich. Heutzutage wird nicht mehr mit klassischen Material aufgezeichnet, sondern auf Magnetbänder verschiedenster Art und in unterschiedlichsten Formaten[50]. Diese werden von den oben erklärten Video-Karten in ein für den Computer verständliches Format umgerechnet und stehen dann zur Verarbeitung bereit.


Scanner

Der Scanner dient zur Digitalisierung von Standbildern und eignet sich für die verschiedensten Aufgaben von DTP bis Archivierung.

Man kann unterscheiden zwischen Schwarz/Weiß- bzw. Graustufenscannern auf der einen Seite und Farbscannern auf der anderen Seite. Beide Varianten gibt es in verschiedenen Formen und Größen. Die kleinste Version stellt der sog. 'Hand-Scanner' dar, der eine Scanbreite von ca. 11cm aufweist und prädestiniert ist für das Einlesen kleiner Grafiken und Bilder.

Ist man darauf angewiesen, größere Vorlagen zu digitalisieren, reicht der Handscanner nicht mehr aus. Die Möglichkeit, DIN-A4-Vorlagen zu lesen, besteht bei den 'Einzug- und Flachbettscannern'. Erstere ziehen die Vorlage automatisch zum Scannen ein, letztere funktionieren wie Kopierer, d.h. das Original wird auf eine Glasscheibe gelegt und die Scanvorrichtung 'fährt unter ihr durch'.

Der eigentliche Scanvorgang ist bei allen Modellen gleich: Die Vorlage wird von einer Lichtquelle beleuchtet, und eine photoelektrische Einrichtung registriert die Reflexionen. Diese Werte werden dann von der Scannersoftware in das gewünschte Grafikformat umgerechnet.

Beim S/W- und Graustufenscanner gibt es allerdings Unterschiede bei der Farbe des Lichtes, mit dem eine Vorlage beleuchtet wird. Manche Geräte verwenden grünes Licht und andere rotes, was eine gewisse Unempfindlichkeit gegenüber der jeweiligen Farbe nach sich zieht.

Bei Farbscannern taucht dieser Nachteil nicht auf, weil die Vorlage in den drei Grundfarben (Rot, Grün, Blau) beleuchtet und abgetastet wird. Zum Digitalisieren einer Farbgrafik sind also drei Scanvorgänge notwendig.





Interaktion und Steuerung

Als einfachstes und auch geläufigstes Eingabemittel dient die normale PC-Tastatur. In zunehmendem Maße wird aber vor allem wegen der Durchsetzung grafischer Benutzeroberflächen die Tastatureingabe durch die Maus unterstützt. Seit kurzem existieren Mäuse, die eine räumliche Steuerung der Anwendungen ermöglichen. Das kann in CAD-Anwendungen, die die Vorlage für virtuelle Räume liefern, eine sinnvolle Steuerungsalternative sein.

Wenn das Multimedia-Terminal öffentlichen Zugang hat, wie das z.B. bei Info-Terminals in Museen und Behörden der Fall ist, eignet sich eine Tastatur nur bedingt. Hier wird vorzugsweise der sog. Touchscreen in Verbindung mit einer grafischen Benutzeroberfläche Verwendung finden. Bei diesem berührungsempfindlichen Bildschirm erfolgt die Eingabe durch Berührung der Monitor-Oberfläche. Der eigene Finger funktioniert dabei wie die herkömmliche Computer-Maus. Allerdings mit dem Unterschied, daß kein Doppelklick, sondern ein einfaches Berühren ausreicht, um die dementsprechende Funktion auszulösen. Bei einigen Modellen kann selbst unterschiedlicher Berührungsdruck noch registriert werden, was eine differenziertere Bedienung ermöglicht.


Netzwerke

LANs

In lokalen Netzen steht eine Datentransferrate von ~ 10 Mbit/s[51] zur Verfügung. Dieser Wert ist ausreichend für die Übertragung von Bewegtbildsequenzen mit Begleitton. Allerdings muß in qualitativer Hinsicht mit Einbußen gelebt werden, d.h. eine geringe Auflösung und wenige Farben stehen zur Verfügung. Soll eine dem PAL-Standard vergleichbare Qualität erreicht werden, müssen Kompressionskomponenten eingesetzt werden, die eine Echtzeitkomprimierung und -dekomprimierung der anfallenden Daten erlauben. Parallel dazu besteht auch die Möglichkeit, die bislang zur Vernetzung üblichen Koaxial- und Twisted-Pair-Kabel gegen Glasfaserkabel auszutauschen, was den Preis eines Netzes aber beträchtlich in die Höhe treiben wird.


WANs

Im Bereich der Bundesrepublik Deutschland existieren Datenleitungen mit sehr begrenzter Kapazität bezüglich ihrer Übertragungsraten. Das herkömmliche Telefonnetz läßt unter Ausschöpfung aller DFÜ-Kompressionsverfahren nicht mehr als ca. 50 kbit/s zu und ist zudem durch seine analoge Funktionsweise sehr störanfällig. ISDN arbeitet zwar digital, überträgt aber auch nur 64 kbit/s. Im Laufe der nächsten Jahre wird das sog. B-ISDN[52] eingeführt, welches 100 Mbit/s überträgt. Bei solchen Transferraten und immer besseren Kompressionsmöglichkeiten wird es in absehbarer Zeit nicht mehr zu Problemen beim Darstellen multimedialer Informationsquellen kommen.




Virtuelle Realität

Wie schon kurz erwähnt, besteht eine spezielle VR-Anlage aus einem sehr leistungsstarken Rechner, Datenhelm mit Bewegungssensor und Datenhandschuh bzw. Datenanzug.

Der Rechner sollte die Leistungsfähigkeit einer Workstation besitzen. Man kann allerdings auch mit einem speziellen 486er[53] und einem sog. DVI-Deliverie-Board eine Echtzeitberechnung der notwendigen Bilder realisieren. Allerdings reicht diese Rechenleistung nicht für stereoskopische Darstellung. Für diesen Fall benötigt man zwei Rechner mit eben genannter Konfiguration.

Dazu kommt der Datenhelm. Er besteht aus zwei Farb-LCDs und dem Infrarot-Bewegungssensor, der die Positionsänderungen und damit die veränderte Sichtweise des Anwenders dem System mitteilt. Durch die Darstellung zweier unterschiedlicher Bilder vor dem rechten und linken Auge des Betrachters erhält dieser einen räumliche Eindruck seiner virtuellen Umgebung. Es hat für ihn den Anschein, als könne er sich durch den 'Raum' bewegen.

Diese Bewegung wird ausgelöst und gesteuert durch den Datenhandschuh, den der Anwender wie seine eigene Hand auf den LCDs sehen kann. Der Handschuh liefert Bewegungsdaten an den Rechner und kann so die Richtung angeben, in die sich der 'Cybernaut' bewegen möchte. Durch eine bestimmte Handhaltung ,wie einen ausgestreckten Zeigefinger oder eine geballte Faust, gibt man dem Rechner zu verstehen, ob man sich bewegen möchte, oder ob ein Menü im Raum erscheinen soll, mit dessen Hilfe man Systemsteuerungsaufgaben erfüllen kann. Diese Systemsteuerung kann eine neue virtuelle Umgebung laden oder den vorhandenen Raum den eigenen Vorstellungen in Bezug auf Farbe etc. entsprechend anpassen.

Die unterschiedliche Krümmung des Handschuhs wird erfaßt durch auf ihm verlaufende Glasfaserkabel. Ein Datenanzug funktioniert nach exakt dem gleichen Prinzip. Der Anwender hat hier sogar die Möglichkeit die eigenen Schritte vor seinem 'geistigen Auge' nachzuvollziehen.


Ausblick


Es wurde versucht den derzeitigen Entwicklungstand von Hard- und Software für multimediale Anwendungen darzustellen. Der Fortschritt speziell im Hardwarebereich ist rasant. Immer mehr Leistung zu immer günstigeren Preisen läßt umfassendes Multimedia auch für den privaten Anwender in absehbarer Zeit möglich werden.

Vor allem die Erfolge bei der Entwicklung leistungsfähiger Kompressionsverfahren werden einen effizienteren Umgang mit multimedialen Datenstrukturen möglich machen - sind doch die ungeheuren Datenmassen der größte Hemmschuh bei der Weiterentwicklung der multimedialen Idee.

Auch die gerade auf den Markt gekommene neue Generation von Microchips (Pentium, Alpha) wird den Zuwachs im Bereich Multimedia beschleunigen. Man denke hier an Cyberspace und andere Anwendungen, die mit umfangreicher Echtzeitberechnung und Interaktion zu tun haben.

Der Aufbau schneller Datennetze kann die Möglichkeiten von Multimedia potenzieren. Der Zugriff auf weit entfernte multimediale Datenbanken und ein mit Hypermedia vergleichbares 'Lotsensystem' durch die enormen Informationsfluten[54] scheinen in nicht allzu weiter Zukunft realisierbar.

Vielleicht sitzen wir irgendwann mit unseren bis dahin extrem leicht gewordenen Datenhelmen zu Hause im Wohnzimmer und machen eine dreidimensionale Reise durch die Geschichte, besichtigen unser nächstes Urlaubsziel schon vorher oder eignen uns auf interaktive und interessante Weise beliebiges Wissen an.



Wolff, M.-R.; HMD 169/93

Encarnaçao, J., u.a.; Autorenwerkzeuge für multimediale Informationssysteme, in it+ti 2/93

Rakow, T.C., u.a.; Einsatz von objektorientierten Datenbanksystemen für Multimedia-Anwendungen, in it+ti     3/93

Wolff, M.-R.; HMD 169/93 S. 19/20

Wolff, M.-R.; HMD 169/93 S. 20/21

Frater, H., Paulißen, D.; Das große Buch zu Multimedia, Düsseldorf 1993, S.37


MIDI = Musical Instrument Digital Interface

Wolff, M.-R.; HMD 169/93, S.12

Müller, W.; in Computer Zeitung Nr. 24 / 17. Juni 93, S. 20

CBT = Computer Based Training

Steinbrink, Bernd, 'Multimedia-Regisseure', c't 1993 Heft 10

Testergebnisse, Ausrichtung bzw. Entwicklungsschwerpunkte sind aus  c't  zu entnehmen, Heft 10 - 1993

Visual Basic ist eine ereignisorientierte Programmiersprache von Microsoft

Ein Scanner ist ein Gerät zum digitalisieren von Bildern.

Dieser Vorgang wird als 'Rendering' bezeichnet.

Eine Video-Overlay-Karte ist eine Multimedia-Hardware-Erweiterungskarte, auf deren Fähigkeiten und     Funktionsweise in Kapitel 3.3.4 eingegangen wird.

Auf Komprimierungsverfahren wird in Kapitel 3.2 eingegangen.

Unter Filtern versteht man alle Möglichkeiten zur Bearbeitung von Bildern, also Helligkeits- und Kontrastfilter ebenso wie Effekt- und Perspektivfilter

Kluge, O.; Soundprogramme, in CHIP 7/1992

Soundblaster und Adlib sind weit verbreitete Soundkarten, die mittlerweile Kompatibilitäts-Standards gesetzt                 haben.

Krüger, W., Virtual Reality - Anwendungen in Wissenschaft, Technik und Medizin, in it+ti 3/93, S.31 ff.

Frater, H., Paulißen, D.; Das große Buch zu Multimedia, S. 532 ff.

Datenhandschuh bzw. -anzug und ein mit Farb-LCDs ausgestatteter Helm zur Visualisierung. Mehr hierzu in                        3.3.8

Alternativ zur Erstellung mit einem CAD-Programm.

Echtzeit meint die verzögerungsfreie Umsetzung der eigenen Bewegung durch den Computer.

Siehe 3.3.7.

Datenrate[Bit/s] = Breite[Pixel] ´ Höhe[Pixel] ´ Frequenz[Bilder/s] ´ Farbtiefe[Bit/s]

Bei 352 ´ 288 Pixel, 25 Bildern/s und 24 Bit Farbtiefe  T 352 ´ 288 ´ 25 ´ 24 = 60825600 Bit/s .

bei einer Auflösung von 360 288 Bildpunkten und True-Color (16,7 Millionen Farben)

DCT (Diskrete Cosinus Transformation)

Man nennt das 'Quantisieren', also das Gewichten der Bildinformation entsprechend dem Sehverhalten. Rot hat                 beispielsweise eine niedrigere Frequenz als blau.

DPCM (Differential Pulse Code Modulation)

Musmann,G., u.a.; Kompressionsalgorithmen ; in it+ti 2/93, S. 8

Offenbar wird hier auf die Verwendung von ISDN-Kanälen gezielt, die ja mit 64 kbit/s arbeiten.

Das Gesamtbild wird aufgeteilt in gerade und ungerade Zeilen, wobei jeweils erstere und letztere immer           abwechselnd dargestellt werden.

Das ist keine Selbstverständlichkeit, da es auch Kompressionsverfahren gibt, die nur seriellen Zugriff gestatten.

Diese 1,15 Mbit/s entsprechen in etwa 150 kB/s eines Standard-CD-ROM Laufwerks. Aber speziell in diesem                       Bereich schreitet die Entwicklung schnell voran, so daß heute schon 300 kB/s (2,4 Mbit/s) möglich sind.

Codierer / Decodierer

Kohlen, Manfred: Die Datenstampfer; PC-Professional Spezial Multimedia, ZIFF-Verlag, München 1993

Es gibt Platten mit einer Kapazität von > 2 GB

Compact Disc - Read Only Memory

Rinke, B., Vergleich CD-ROM-Laufwerke; Testberichte in: DOS, 8'93, Seiten 48 ff.

Prinzipiell wird hier das gleiche Verfahren wie bei WORMs angewandt. Nur werden bei Worms keine                                  Prägematrizen hergestellt.

'Book' ist die Bezeichnung für Standards auf diesem Gebiet.

Siehe 3.3.1.2.

Vorteil dieses Standards ist die 'Multisessionfähigkeit', d.h. daß eine mehrfach mit Daten ergänzte CD - wie die                             Photo-CD - gelesen werden kann.

Diese Chips finden auch in Apple Computern Verwendung.

Commodore Dynamic Total Vision

Write Once Read Many

Ausnahmen bilden hier die sog. Multimedia-PCs, deren von Microsoft festgelegte Mindestkonfiguration aber                              mehr als Werbe-Etikett dient denn als ernstzunehmende Richtlinie.

Eine Implementierung bereits auf der Hauptplatine ist auch für die Grafikchips denkbar.

Der gesamte Vorgang des Sampling besteht aus dem Abtasten des analogen Signals und seiner Umsetzung in                    digitale Werte.

Schnurer, G., Moderne PC-Bussysteme, in c't 10/93, S.110 ff.

VHS, S-VHS, YUV, FBAS. Die Unterschiede der Einzelnen Formate sollen hier nicht näher erläutert werden.                     Details hierzu finden sich in: Stotz, D.; Schöne Schweinerei - Grundlagen zur Video-Technik; in PC- Professionell Spezial, S. 100 ff.

Ethernet-LAN

Breitband-ISDN

486DX2/66 mit 32 MB RAM und großer, schnelle Festplatte, Local-Bus-Architektur, Local-Bus-Grafikkarte

Maurer, H., Kappe, F.; Hyper-G: Ein Großes Universelles Hypermediasystem und einige Spin-offs; in it+ti 2/93, S. 39 ff.







Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen