REFERAT-MenüDeutschGeographieGeschichteChemieBiographienElektronik
 EnglischEpochenFranzösischBiologieInformatikItalienisch
 KunstLateinLiteraturMathematikMusikPhilosophie
 PhysikPolitikPsychologieRechtSonstigeSpanisch
 SportTechnikWirtschaftWirtschaftskunde  



Ich habe das Thema Computer gewahlt



Ich habe das Thema Computer gewählt, weil ich mich sehr häufig damit

beschäftige. Sei es bloss, um irgendein Foto digital zu verbessern

oder um einen einfachen Text zu schreiben, oder um sich die Zeit etwas

zu vertreiben. Aus dem letzten Grund entstand auch unser Netzwerk mit

zwei Computern, welches demnächst noch ausgebaut werden soll, aus

diesem Grund fingen auch mein Bruder und ich damit an, unsere Pcs selber

zusammenzustellen und zusammenzusetzen. Ich bin eindeutig

interessiert, an den kleinen surrenden Kästchen, das sieht man daran,

dass ich vor habe, einmal Informatik zu studieren.


Das Thema Computer ist auch für den Lehrerberuf nicht ohne Bedeutung,

so hat die Primarschule Murten doch schon einen eigenen Computerraum

mit etwa zwanzig Computern. Selbst im Klassenzimmer unserer

'Ubungsschulklasse stehen hinten zwei Computer. Und die



Arbeitsblätter und Prüfungen werden auch immer häufiger und einfacher

mit Computern hergestellt.


Um also mal einen Einblick in die Geschichte der Rechner zu erhalten,

wird im ersten Kapitel die Geschichte von ganz vorne aufgerollt und erläutert,

bis ins Jahr 1924.


Das zweite Kapitel handelt davon, wie die Elektronik die Mechanik

Schritt für Schritt ablöst.


Im dritten Kapitel wird der Zusammenhang zwischen der

Computerentwicklung und dem Militär erläutert. Es wird hauptsächlich

ein ganz grosses Projekt der Vereinigten Staaten nach dem Zweiten

Weltkrieg erklärt. Auch gehe ich kurz auf das Thema Raumfahrt ein.


Das vierte Kapitel ist der Gegenwart gewidmet. Es geht um das

Internet, wie es entstanden ist, was es für Dienste anbietet und

welche Auswirkungen es auf unser Geschäfts- und Alltagsleben hat.


Kapitel fünf stellt die Betriebssysteme vor, die heute am bekanntesten

und verbreitesten sind.


Der letzte Teil der Facharbeit geht um das heimtückische Einschleichen

der Rechner in unser ganz alltägliches Leben.



section

Wenn man sich verdeutlicht, dass ein Computer nur rechnet, so kann man

sagen, dass der erste Computer bereits 1617 aufgetaucht ist. Es ist

eine hölzerne Additionsmaschine, die vom Schotten John Napier

erfunden wurde. Später entwickelte Napier eine Rechenhilfe zum

Multiplizieren, Dividieren und Wurzelziehen.


Zu dieser Zeit gab es den Begriff Computer bereits, allerdings

meinte man damit nicht einen grauen Kasten, der surrt und ab und zu

blinkt, sondern einen Menschen, der seinen Lebensunterhalt damit

verbrachte, zu rechnen. Das erste Mal als eine solche Computermannschaft

aufgestellt wurde, war im Jahre 1766. Ihr Auftrag war es, die

Navigationstabellen des britischen Königreichs zu erstellen.


1822 schlägt Charles Babbage der britischen Königsgesellschaft vor,

dass eine Maschine die Arbeit der menschlichen Computer übernehmen

soll. Die britische Regierung erklärt sich bereit, Babbage's Pläne zu

unterstützen. Charles Babbage reist während zehn Jahren durch Europas

Werkstätten und sucht die präzisesten  Zahnräder und die feinste

Mechanik. Nachdem er die Regierung 17'470 Pfund gekostet hat (etwa 20

Dampflokomotiven), stellt er einen lauffähigen Prototypen her. Als

Babbage jedoch versucht, die Regierung von seiner neuen Idee zu

überzeugen, nämlich eine Maschine, die jede ihr gestellte

mathematische Aufgabe löst, erkennt die Regierung, dass Babbage den

Bezug zur Realität verloren hat. Von der Regierung erhält er nie

wieder auch nur einen Penny. Den Rest seines Lebens verbringt er

jedoch damit, seine Idee umzusetzen. Bis 1871 füllt er tausende von

Seiten in seinen Notizbüchern über seine ``Analytical Engine'': eine

vollautomatische Maschine mit Speicher, Lochkartensteuerung und

Druckwerk. Charles Babbage war seiner Zeit etwa um hundert Jahre

voraus.


begin[ht]

begin

includegraphics[width=5cm]

caption

end

end


Die Lochkarte wird erst um 1890 eingeführt. Das amerikanische Amt für

Volkszählungen schrieb nämlich einen Wettbewerb aus, um die Erhebung

der Daten neu zu organisieren (1880 brauchten 1500 Angestellte sieben

Jahre um alle Daten auszuwerten und zusammenzuzählen). Die durch

Hermann Hollerith präsentierte Lochkarte gewinnt diesen Wettbewerb und kommt

eben im Jahre 1890 erstmals bei statistischen Aufgaben zum Zug. Sie

diente allerdings bereits zu Beginn des 19. Jahrhunderts als Träger

von Steuerungsprogrammen für Webstühle.


Hollerith erkrankt 1911 und verkauft seine Lochkartenfirma

(Lochkarten, Leseapparate ldots). Die Firma die sie mit zwei anderen

Geräteherstellern bildet wird 1924 umbenannt und erhält den Namen

``IBM'', International Business Machines Corporation. Thomas Watson, der

Chef dieses Unternehmens, wird in den dreissiger Jahren einer der

bestbezahltesten Manager der USA. Es gelingt ihm, die Macht der grössten

Firma der Büromaschinenwelt, auf den Computermarkt zu übertragen.


section


subsection


subsubsection

1936 entwirft Alan Turing einen imaginären Rechenapparat, der nur auf

Papier existiert. Seine Maschine liest und schreibt auf einem

unendlichen Band Symbole. Sie geht dabei nach einem Algorithmus vor, das

heisst, sie verfährt nach einem festgelegten Ablauf. Dass der

24-jährige ein mathematisches Genie war, wurde erkannt,

dass er den Grundstein für die Computer der Zukunft geliefert hatte,

jedoch nicht.


subsubsection


Mit geringem Aufwand an Personal und Material gelingt es dem Berliner

Bauingenieur Konrad Zuse 1941 als erstem, einen funktionsfähigen,

programmierbaren Relaisrechner (Z3) fertigzustellen. Die

Vorgängermodelle Z1 (1938) und Z2 werden ohne staatliche Unterstützung

in der elterlichen Wohnung gefertigt. Das Ziel von Zuses Arbeiten

besteht darin, schematisch ablaufende Berechnungen, die im Bereich der

Baustatik häufig auftreten, zu automatisieren. Zuse, der seine ersten

beiden Maschinen noch mit der Unterstützung von Freunden und den

Geldmitteln eines Spezialrechenmaschinen-Fabrikanten entwickelte, ist

nach Kriegsbeginn auf die Unterstützung von militärischer Seite

angewiesen. Sowohl die Deutsche Versuchsanstalt für Luftfahrt, die die

Z3 teilfinanziert, als auch die Henschel Flugzeugwerke, die ihm

Artbeitskräfte für sein während des Krieges gegründetes Ingenieurbüro

zur Verfügung stellen, sind mit der Entwicklung der ferngesteuerten

Bomben V1 und V2 beschäftigt. Zuse wird vom Fronteinsatz freigestellt

und entwickelt bei Henschel einen Spezialrechner für die

Flügelvermessung dieser Bomben. Allerdings ist dieses Spezialgerät das

einzige, das direkt zur Stärkung des deutschen Militärpotentials

beiträgt. Die Anforderungen an die Maschinen Z1 bis Z4 sind in erster

Linie durch Probleme aus dem Bereich der Baustatik bestimmt. Für

Zuse war die entgültige Maschinenstruktur noch nicht gefunden. Diese

hatte sich den Aufgaben anzupassen. Also musste der Weiterentwicklung

der Maschinen die Entwicklung eines Plankalküls vorausgehen, der es

erlaubte, die einschlägigen Probleme zu beschreiben. Für die Probleme,

die Zuse zum Massstab nahm, war zu dieser Zeit für eine Bearbeitung

auf den Maschinen kein großes Interesse vorhanden.


Der Zusammenbruch des Hitler-Faschismus setzt der deutschen

Rechnerentwicklung vorerst ein Ende. Im Rahmen der nationalen und

internationalen Entwicklung der Informatik sind Zuses Arbeiten

lediglich von historischem Wert. Zwanzig Jahre nach Beendigung des

Zweiten Weltkrieges gibt es die von Zuse gegründete Firma nicht

mehr. Sie ist von dem größten deutschen Rechnerhersteller, der Siemens

AG, aufgekauft worden. Doch auch bei Siemens ist der dominierende

Einfluss der amerikanischen Entwicklung sichtbar geworden.


subsubsection

Ebenfalls im Jahre 1936 beschliesst der Physikstudent Howard Aiken,

eine Maschine zu bauen, die Differentialgleichungen lösen kann. Die

Frma IBM bietet ihm finanzielle Unterstützung an. Nach sechs Jahren

wird sein Rechenapparat fertig gestellt. Die Maschine namens

textsc wiegt fünf Tonnen und ist fünfzehn Meter lang. Sie

schafft drei Additionen pro Sekunde, um einen Logarithmus auszurechnen

braucht sie über eine Minute. Die von Hermann Hollerith

bekanntgemachte Lochkarte findet auch hier wieder Verwendung, nämlich

als Programmspeicher. Man kann allerdings nicht mehr von Lochkarten

sprechen, die Programmkarten für textsc sind acht Zentimeter

breite, mehrfach gefaltete Bänder, in die die Rechenprogramme

eingelocht sind.


subsubsection

Die durch die trägen, elektromechanischen Schaltungen sehr langsamen

Apparate von Konrad Zuse und Howard Aiken wurden bereits im nächsten

Jahr, 1937 von der Idee des Mathematikers John Atanasoff überholt. Er

plant ein binäres Rechengerät, welches mit Elektronenröhren

funktioniert. Da keine Mechanik betätigt werden muss, schalten sie

viel schneller, als die bisherigen Relais. Sie waren also für den

Computerbau ideal. John Atanasoff stoppt jedoch seine

Computerforschung als er von einem Forschungslabor der

amerikanischen Marine angeworben wird.


subsubsection

Die Entwicklung des Computers wird nicht nur von neuen Technlogien

(Röhren, Lochkarteldots) oder vom Erfindergeist mancher klugen Leute

vorangetrieben, sondern auch vom Bedürfnis der Computer zu

militärischen Zwecken.


Alan Turing wird vom britischen Geheimdienst geholt, um ein Gerät

namens Colossus zu bauen. Dieses Gerät ermöglicht es den Alliierten,

die Funkcodes der deutschen Chiffriermaschine Enigma zu

entschlüsseln. Colossus ist zu einem grossen Teil auch ein Faktor,

weshalb die Alliierten über das dritte Reich siegen.


subsubsection


Eine andere Anwendung der Computer im Militär ist die Berechnung von

Schussbahntabellen. Eine typische Feuertabelle enthält ca. 3000

Flugbahnen. Der von Bush entwickelte Differential Analyzer ist zwar

etwas schneller als die bis dahin entwickelten Relaisrechner, auch

50mal schneller als ein Mensch mit einem mechanischen Tischrechner,

jedoch hätte die Berechnung einer einzigen Feuertafel noch 30 Tage

gedauert.


Aufgrund eines Vorschlages von John W, Mauchly, in dem er empfiehlt,

Röhren zum Bau von Rechnern zu verwenden, schreiben er und Prosper

Eckert 1943 einen Report über einen ``Electronic Diff. Analyzer'', der

mindestens 10mal so schnell sein sollte wie die bisher benutzten

Maschinen. Sie senden ihn im Namen der Moore School an das Ballistic

Research Laboratory in Aberdeen. Nach einem kurzen Treffen in Aberdeen

werden die Mittel zur Realisierung dieses Vorschlages vom Militär

bewilligt. Mauchlys Konzept basiert auf den Anregungen von J. v.

Atanasoff, der ihm bereits 1941 seine Vorstellungen einer digitalen

elektronischen Version des Differential Analyzers unterbreitet hatte.

Atanasoff ist aufgrund fehlender finanzieller, personeller und

technischer Mittel nicht in der Lage, seine Vorstellungen selbst zu

verwirklichen.


Das Ergebnis, der Electronical Numerical Integrator and Computer

(ENIAC) erfüllt die militärischen Anforderungen an die

Rechengeschwindigkeit besser als erwartet; er ist etwa 1000mal

schneller als die Relaisrechner (wie textsc) und der Differential

Analyzer. Er ist etwa vierundzwanzig Meter lang und zwei Meter

hoch. Sein Inneres besteht aus über 18'000 Elektronenröhren.


Die bis zu diesem Zeitpunkt verbreiteten Analogmaschinen verlieren

ihre Bedeutung. Die mechanischen Geräte haben gegenüber den

Digitalrechnern den Nachteil, daß sie mit wachsender

Rechengeschwindigkeit ungenauer werden. Von Neumann begründete seine

Erwartung, daß Digitalrechner effektiver sind, mit dem Argument, dass

bei digitalen Maschinen mit doppelten Kosten eine doppelte

Geschwindigkeit erzielt werden kann, dieser Faktor jedoch bei analogen

Geräten erheblich ungünstiger wäre.


Obwohl auch heute noch für spezielle militärische Anwendungen

leistungsfähige Analogrechner eingesetzt werden, haben sie auf die

weitere Rechnerentwicklung keinen Einfluß. Sie können ebenso wie die

elektromechanischen Rechner die durch militärische Erfordernisse

forcierten Anforderungen an Rechengeschwindigkeiten,

Verarbeitungskapazität und Zuverlässigkeit nicht erfüllen.


subsubsection


Wiederum gefördert von den Ballistic Research Laboratories, entwickelt

das ENIAC-Team den Electronic Discrete Variable Arithmetic Computer

(EDVAC). Im EDVAC-Entwurf wird zum ersten Mal das Konzept eines

Universalrechners mit interner Programmspeicherung (von

Neumann-Rechner) entwickelt, das auch heute noch das Grundprinzip des

Computers ist. Durch die Verbreitung dieser Entwürfe und die

Vorlesungen von Neumanns an der Moore School (1946) werden die

Arbeiten der ENIAC-Gruppe international bekannt. Der ENIAC wird als

Wurzel der Computerentwicklung betrachtet. Die enormen finanziellen

Mittel, die das amerikanische Verteidigungsministerium zur Förderung

der Rechnerentwicklung weiterhin aufwendet, verschaffen den

Amerikanern eine weltweite Vormachtsstellung auf dem Gebiet der

Rechnerentwicklung.



subsection

William Shokley, John Bardeen und Walter Brattain erfinden 1947 den

Transistor. Er wird zunächst nur als Verstärker gebraucht, man erkennt

seine Eigenschaften als schneller Schalter jedoch bald. Anfangs der

50-er Jahre wird er dann in Massen produziert, Hauptabnehmer ist das

Militär. 1956 erhalten Shokley, Bardeen und Brattain den Nobelpreis

für die Erfindung des Transistors. Shokley gründete kurz davor eine

Firma namens textsc. 1957 verlassen

ihn allerdings seine acht Ingenieure und gründen eine eigene Firma:

textsc. Die erste Firma die nichts anderes

als Siliziumhalbleiter produziert. Die Gründer der Firma sind Robert

Noyce und Gordon Moore. Andere Halbleiterfirmen schiessen wie Pilze

aus dem Boden. Die Wurzeln dieser Firmen führen fast alle zu Shokley

oder Fairchild zurück. Zwei Beispiele sind textsc und textsc

(AMD). 1968 verlässt Robert Noyce Fairchild und gründet die heute

bekannteste Prozessorherstellerfirma textsc (Integrated

Technology). Die meisten Halbleiterhersteller Nordamerikas (ausser

textsc und textsc) befinden sich im

kalifornischen Silicon Valley.


subsubsection

Der Transistor wird laufend verkleinert, bis er schliesslich 1962 die



Grösse eines Salzkorns hat. 1968, sechs Jahre später, setzt sich der

Mikrochip, eine Vielzahl von Transistoren auf einem kleinen Schnipsel

Kristall, durch. 1971 bringt Intel den Chip textsc

heraus. Ein Chip mit 2300 Transistoren. Diese Technik wird bis heute

verfolgt. Das heisst, seit 1971 hat sich nur noch die Architektur der

Chips verändert, die grundlegende Technik zur Chipherstellung ist

immer noch dieselbe geblieben.



begin[ht]

begin

includegraphics[width=4cm]

caption

end

end




Zur Chipherstellung wird eine Kristallscheibe fotochemisch

beschichtet, darauf ein Schaltplan projiziert, anschliessend ätzt

Säure die so festgeschriebenen Strukturen aus dem Material. Dies wird

so oft wiederholt, bis alle Transistoren, Verbindungsleitungen und

sonstigen Bauelemente komplett sind. Mit dieser Technik kann man etwa

noch bis ins Jahr 2003 arbeiten, danach stösst die optische Belichtung

an ihre Grenzen. Zur Zeit rüsten die Chiphersteller ihre Fabriken mit

Lasern aus, um die einzelnen Schaltungen noch kleiner werden zu

lassen.




section


Wie man anhand der Computerentwicklung sehen kann, ist das Militär

sehr stark am Computer interessiert. Eine weitere mögliche  Nutzung

der Rechner wird bald erkannt:


subsection


``Noch 1942 wird von Vannevar Bush und seinen Mitarbeitern am MIT

(Massachusetts Institute of Technology) eine

verbesserte Version des Differential Analyzers entwickelt, bei der

mechanische Teile durch elektronische Konstruktionen ersetzt

werden. 1944 beginnt eine andere Gruppe am MIT unter der Leitung von

Jay W.  Forrester, einen Analogrechner zur Flugsimulation (WHIRLWIND)

zu entwickeln. Nach einigen Gesprächen im November 1944 mit Offizieren

und Wissenschaftlern, die an der Entwicklung des ENIAC betelligt

waren, wird diese Entscheidung revidiert: ``Wir werden nicht mehr

einen Analog-Computer bauen; wir bauen einen Digitalcomputer''.


Doch die Förderung für dieses Projekt wird ab 1948 reduziert und

schliesslich ganz eingestellt. Das Interesse des Office of Naval

Research (ONR), das bisher ca. 1 Million Dollar pro Jahr für das

Projekt ausgegeben hatte, besteht primär in mathematischen

Berechnungen, wie Feuerkontrolle, Flugbahnberechnungen usw.; an der

Echtzeitverarbeitung, dem Schwerpunkt des WHIRLWIND-Projektes, besteht

kein Interesse.


Der ``Kalte Krieg'' führt dazu, dass Frühwarnsysteme (air defense

systems) eine hohe Priorität in der Forschung erhalten. Nachdem es den

Russen gelungen ist, die Atombombe zu bauen, geht es darum, die mit

dieser Waffe ausgerüsteten Interkontinentalbomber frühzeitig erkennen

zu können. Die Arbeiten am MIT auf dem Gebiet der Radartechnologie

zeigen, dass WHIRLWIND auch für den neuen Zweck optimal geeignet ist;

die Förderung wird jetzt (1950) von der Luftwaffe übernommen.


Die über Telefonleitungen ankommenden Daten der Radarstationen werden

vom Rechner aufbereitet und im Kontrollraum auf Bildschirmen

angezeigt, an denen die Flugüberwachungsoffiziere die angezeigten

Objekte identifizieren und die Position erfassen.


Die militärischen Anforderungen nach Steigerung der

Rechengeschwindigkeit, Vergrösserung der Leistungsfähigkeit, Erhöhung

der Zuverlässigkeit und nach zunehmender Miniaturisierung werden von

WHIRLWIND erfüllt. Als Kernstück des ``Cape Cod System'' ist dieser

Rechner der Prototyp für das Semiautomatic Ground Environment (SAGE)

Air Defense System. Es ist der erste Rechner mit Echtzeitverarbeitung,

doch ohne ``interrupt handling'', so dass für die ankommenden

Radardaten als externer Zwischenspeicher eine Magnettrommel benötigt

wird. Eine weitere Trommel benötigt man für die Speicherung des 20'000

Instruktionen umfassenden Cape Cod Systems. Mit seinem 16

bit-Prozessor kann WHIRLWIND trotz seiner Größe als erster

Mini-Computer bezeichnet werden.cite'' Neuartig sind:


begin


item die Verwendung einer zentralen Datenleitung im Rechner (main bus),


item die Entwicklung von Prüfzeichen (parity bit) und Fehler

erkennenden Codes zur Fehlerananlyse bei der Datenübertragung,


item der Einbau eines Magnetkernspeichers, durch den die

Rechengeschwindigkeit verdoppelt werden kann,


item der Anschluss von Telefonleitungen zur Übermittlung der

Radardaten (Datenfernübertragung),


item die Verwendung von Bildschirmgeräten (Radargeräten mit Schriftanzeige),


item die Benutzung eines Lichtgriffels (light gun) für die

Positionseingabe durch den Flugüberwachungsoffizier.


end



begin[ht]

begin

includegraphics[width=4cm]

caption

end

end




Neben der Anpassung von WHIRLWIND an die durch die Air Force

gestellten Aufgaben entwirft das Projektteam den neuen Computer für

SAGE. Zehn Jahre nach der Fertigstellung wird der Betrieb von

WHIRLWIND 1959 eingestellt. Das wichtigste Argument dafür sind neben

den Betriebskosten von 300'000 Dollar die hohen Wartungskosten für die

Software. Ein weiterer Grund ist, weil SAGE nicht sehr zuverlässig

war: wenn sich die Flugbahn von zwei Flugzeugen kreuzten, konnte SAGE

nicht mehr zwischen feindlichem und freundlichem Flugzeug

unterscheiden, glücklicherweise traf dieser Fall nie ein. Das

WHIRLWIND-Projekt ist der Anfang einer langen Entwicklung hin zum

``vollautomatisierten Schlachtfeld'', wobei dem Rechner die zentrale

strategische und technologische Funktion zufällt. Mit der Abkehr von

einem passiven Luftüberwachungssystem hin zu einem System, dem später

die Zielauswahl für die Interkontinentalraketen übertragen wird, das

wichtige Entscheidungs- und Auswertungsfunktionen übernimmt und das

für die Verknüpfung aller Teilsysteme sorgt, ist WHIRLWIND bzw. SAGE

der Prototyp für die mit C3I (command, control, communications and

intelligence) bezeichneten Frühwarn- und Entscheidungssysteme (FWES).



subsection

Natürlich werden auch in der Raumfahrt Computer eingesetzt. Allerdings

sind es nicht ganz gewöhnliche Computer wie sie überall auf der Erde

laufen, sondern speziell für den Weltraum entwickelte Systeme.'' Dies

aus dem Grund, weil im Weltraum ganz andere Bedingungen herrschen als

auf der Erde:


begin


item Selbst in Satelliten schwanken die Temperaturen stark, da keine

Atmosphäre für einen schnellen Temperaturausgleich sorgt. Ein Satellit

ist auf der Sonnenseite Temperaturen von +120 Grad und auf der

Schattenseite Temperaturen von -190 Grad ausgesetzt. Auf der

Nachtseite kühlt der ganze Satellit relativ schnell aus.


item Das zweite Hindernis ist das Vakuum. Für die Elektronik selber

bedeutet dies keine Einschränkung, jedoch für den

Massenspeicher. Festplattenlaufwerke können im Vakuum nicht betrieben

werden. Früher wurden daher Bandlaufwerke zur Speicherung der Daten

eingesetzt. Diese verfügten schon früh über relativ große Kapazitäten,

der Zugriff und die Aufzeichnungs- und Wiedergabegeschwindigkeit waren

jedoch gering.


item Als drittes Hindernis ist die Bedingung der fehlenden

Gravitation. Auch dies wirkt sich vor allem auf mechanische Bauteile

aus. Im allgemeinen ist es jedoch kein grosses Problem.


item Das letzte Problem ist dafür schwerer zu lösen. Es sind die

kosmischen Strahlen der Sonne und des Weltraums. Diese schädigen die

Elektronik. Für den Weltraumeinsatz wird daher eine spezielle

strahlungsresistente Elektronik gefordert. Dies macht oft besondere

Techniken bei der Herstellung nötig, und die Gefahr der

Empfindlichkeit steigt von Chip- zu Chip-Generation. Daher erscheinen

heute die eingesetzten Prozessoren relativ veraltet, da die

Entwicklung in den letzten Jahren nur langsam fortschritt. Noch

bedeutsamer ist dieses Problem bei planetaren Missionen, vor allem bei

Missionen zum Jupiter, bei dem der Strahlungsgürtel ungleich mächtiger

als auf der Erde ist.


item Die Stromversorgung: Strom ist in Raumfahrzeugen

limitiert. Besonders Planetenmissionen verfügen nur über relativ wenig

Strom, wenn die Mission zu den äußeren Planeten geht. Heute sind

Prozessoren wahre Stromfresser. Ein Athlon Prozessor verbraucht bei

600 MHz fast 40 Watt an Strom. Dabei entsteht Abwärme die auch

abgeführt werden muß. Dies verbraucht weiteren Strom, da Lüfter

mangels Atmosphäre wirkungslos sind. Daher werden oft spezielle

Varianten für den Weltraumeinsatz gefertigt, die weniger Strom

verbrauchen, oder geringerer getaktet sind.


item Zuverlässigkeit: Hardware an Bord eines Satelliten sollte heute

eine Lebensdauer von 12-15 Jahren haben, denn so lange kann ein

Satellit betrieben werden. Trotzdem ist dies heute weniger ein Problem

als in den sechziger und siebziger Jahren, als die geforderte

Zuverlässigkeit oft nur durch überzählige Bauteile erreicht werden

konnte.cite''






end


begin[ht]

begin

includegraphics[width=3.5cm]

caption

end

end



Aus all diesen Gründen müssen die Computer für den Einsatz im Weltraum

entweder umgerüstet werden oder es müssen völlige Neuentwicklungen

gemacht werden. Als Beispiel für eine Anpassung der ``Erdcomputer'' an

den Weltraum soll uns die Raumsonde textsc dienen.


subsubsection

Die Raumsonde Mars Pathfinder besteht

eigentlich aus zwei Teilen : Der eigentlichen ca 330 kg schweren

Raumsonde und einem nachtischgrossen ca 20 kg schweren Rover.


``Die Raumsonde selbst verfügte über einen Bordcomputer auf Basis eines

IBM Power PC Chips, den IBM auch in seiner RS/6000 Reihe einsetzt und

der auch in Apples zu finden ist. Eine weltraumtaugliche Version

(modifiziert von Lockheed Martin) wird im Mars Pathfinder

eingesetzt. Die Taktgeschwindigkeit wurde von 200 auf 20 Mhz gesenkt,

um den Stromverbrauch zu senken. Der Prozessor leistete bei dieser

Geschwindigkeit immer noch 22 Millionen Instruktionen pro Sekunde und

verbrauchte 10 Watt. Die Software selbst besteht aus einem 6 MB EEPROM

und einem 128 MB RAM, das auch zur Datenspeicherung dient. Derselbe

Rechner sollte auch dem Mars Polar Lander als Hauptrechner dienen,

leider meldete sich die Sonde nach der Landung nicht mehr.


Anders sah es bei dem kleinen Rover aus. Er verwendete einen 80C85,

einer Millitary CMOS Version des Nachfolgers des legendären

8080. Mithin war der Prozessor beim Start so ca 20 Jahre alt. Immerhin

verarbeitete der Computer die Daten von 70 Kanälen, darunter die

Bewegung der Motoren, Kameras und die Daten der Experimente. Die Daten

wurden über ein UHF Modem mit 2.4 KBaud an den Pathfinder

geschickt. Obgleich die Hardware damals nicht die neueste war erfüllte

Sie ihren Zweck, denn der ganze Sojourner hatte nur 16 Watt Strom zur

Verfügung, wofür selbst für das Fahren nur 10 Watt verbraucht

wurden. Zum Vergleich : Ein PC verbraucht je nach Ausbaustufe ohne

Monitor 80-150 Watt.cite''


section


subsection

Das amerikanische Verteidigungsministerium konstruiert 1969 ein

Computernetz mit dem Namen textsc (Advanced Research

Projects Agency-NET). Es besteht aus vier miteinander verbundenen

Computern. 1972 wird es der 'Offentlichkeit präsentiert und zur

Verfügung gestellt. Es schliessen sich bald viele Universitäten und

Forschungseinrichtungen an. Die TCP/IP-Protokolle werden bis 1982

entwickelt, dabei wird grosser Wert darauf gelegt, dass diese

Protokolle von allen Rechnertypen verstanden werden.


``Heute beteiligen sich über 12,8 Millionen Computer am Internet. Die

meisten Rechner befinden sich allerdings in den USA und Europa. Etwa

66 Prozent der Grossrechner stehen in den Vereinigten Staaten von

Amerika. Der Rest des Internet findet man zu 22 Prozent in West- und

Mitteleuropa, ein Prozent in Osteuropa, 0,3 Prozent§ im mittleren Osten,

0,5 Prozent in Lateinamerika, vier Prozent in Australien, 3,5 Prozent

in Asien (davon 2,5 Prozent in Japan) 0,6 Prozent in Afrika (ohne

Südafrika 0,001 Prozent). Die wirtschaftlich unterentwickelten Länder

haben kaum Zugang zum Internet, sie können es sich finaziell kaum

leisten.  Dazu kommt, dass es in den technologisch und ökonomisch

rückständigen Ländern kaum Daten gibt, die im Internet veröffentlicht

werden. Wenn sich also doch jemand den Zugang zum ``Weltmedium''

verschaffen kann, erhält die meisten Informationen aus den USA und

Europa, wird also fremdbestimmt. In der Schweiz gab es zu Beginn des

Jahres 1999 bereits über 500'000 Internetanschlüsse, eine Zahl, die

täglich grösser wird.cite


subsection

``Die Benutzung des Internet kann aufgeklärt, nach Regeln des Anstands,

geltender Ethik und nach Massgabe der Menschenrechte geschehen -- oder

aber unvernünftig, ideologisch, destruktiv, kriminell und

menschenverachtend. Beispiele für Letzteres sind die Verbreitung von



rassistischer Propaganda und Pornographie über das Netz. Wegen der

technisch gegebenen Offenheit des Internet und auf Grund seiner

globalen Konstruktion sind die einzelnen Nationalstaaten nicht in der

Lage, den vernünftigen Gebrauch des Internet mittels entsprechender

Gesetze durchzusetzen. Es braucht hierzu wohl eine Ethik der Benutzer,

die eigene Regeln des Umgangs mit dem Internet entwickeln müssten.cite


subsection


subsubsection

Eine der ersten Anwendungen, die, als das Internet Anfangs der 70er

Jahre bekannt wurde, sehr grossen Anklang fand, ist die elektronische

Post, auch E-Mail [i:mel] genannt. Dieser Dienst

erlaubt es den Internetbenutzern, Briefe, die nur als Datei

existieren, anderen Internetbenutzern zu senden. Heute wird die E-Post

für allerlei Zwecke benutzt: Geschäftsbriefe, private Briefe,

Werbungldots auch Kettenbriefe geistern bereits im Internet herum.


subsubsection

Es wurde erst 1993 am Cern-Institut in der Schweiz entwickelt. Der

Grundstein ist das HTTP (Hypertext Transfer Protocoll). Drei Jahre

nach der Einführung des HTTP zählt das WWW zu den erfolgreichsten und

bekanntesten Diensten des Internet. Dies, weil es für den Benutzer

sehr einfach zu bedienen ist. Das WWW bietet massenweise Informationen

verteilt auf vielen Servern in der Welt. Man kann das WWW benutzen, um

Text-, Bilder-, Ton- oder gar Videodateien zu veröffentlichen oder zu

suchen, auch um sich eine Theaterkarte reservieren zu lassen oder eine

Pizza zu bestellen. Um sich im World Wide Web orientieren zu können, gibt es

sogenannte Suchmaschinen. Man gibt diesen Computern an, was man im

Internet sucht und diese geben einem dann verschiedene URLs an, wo

sich die gesuchte Information oder der gesuchte Dienst befindet.


subsubsection

Telnet bedeutet Terminalemulation. Das heisst, man kann mit einem

entsprechenden Programm seinem Computer den Befehl geben, sich wie ein

Terminal zu verhalten. Dazu braucht es aber noch einen zweiten

Computer, der die Servertätigkeit übernehmen muss. Der erste Computer

logt sich mit einem Benutzernamen und einem Passwort beim zweiten

Computer ein und benutzt dessen Rechnerleistung. Die Ergebnisse

erscheinen dann auf dem Bildschirm des ersten Computers. Man kann so

also an Bibliotheken, die über elektronische Verwaltung führen,

Anfragen stellen oder statistische Analysen am Grossrechner von seinem

Heimcomputer aus durchführen.


subsubsection

Kurz FTP. 'Ahnlich wie bei Telnet muss man sich bei FTP bei einem

anderen Rechner einloggen. Das FTP wurde entwickelt, um grössere

Dateien auf den eigenen Computer zu laden. Um jedoch der

'Offentlichkeit diesen Dienst anbieten zu können, gibt es Server, die

den Benutzernamen ``Anonymus'' akzeptieren, als Passwort gibt man dann

die E-Mail-Adresse ein. Für den Server bedeutet dies, dass man nicht

registriert ist, man also nicht alle Dateien auf dem Server benutzen

kann.


subsubsection

Wenn man im Internet ist und eine Seite kann nicht gefunden werden, so

erscheint häufig: ``The requested URL could not be retrieved!''. Das

bedeutet, dass die Internet-Adresse (eben der URL) nicht

existiert. Der URL, Uniform Resource Locator, ist wie folgt

zusammengesetzt:


begin

item um welche Art von Informationen es sich handelt.

item auf welchem Rechner die Informationen zu finden sind und

item wo auf diesem Rechner die Information gespeichert ist.

end


Am Besten kann man die Funktionsweise eines URLs an einem Beispiel

erläutern:


begin


texttt


end


Der erste Teil des URLs bedeutet die Art des

'Ubertragungsprotokolls. In unserem Fall also HTTP, das Protokoll für

das World Wide Web. Dieser Teil endet mit einem

Doppelpunkt. Der zweite Teil, texttt, beginnt mit zwei

Schrägstrichen. Er gibt den Servernamen des gewünschten Computers an. Der

dritte Teil, texttt,

beschreibt den Pfad der Datei auf dem angesprochenen Server. Er

beginnt mit einem Schrägstrich.


subsubsection

Die Newsgroups sind als Diskussionsforen zu bezeichnen, bei welchen

die Internetbenutzer per E-Post einander Fragen stellen können. So kann zum

Beispiel Person A, welche Probleme mit seiner Kaninchenzucht hat, das

speziell für die Kaninchenzucht gebildete Diskussionsforum anfragen,

welchen Fehler sie macht. Wenn die Person A Glück hat, so antworten ihr

etwa fünf Personen. Wenn sie Pech hat antwortet ihr niemand oder

hunderte. Die Frage, die gestellt wurde, ist natürlich für alle

Personen ersichtlich, so dass man die Probleme und Lösungen der

anderen Personen sieht., bevor man selber eine Frage stellt.


subsection

``Amerikas Unternehmen stehen in den meisten Schlüsselindustrien der

modernen Informationsgesellschaft an der Spitze und haben sich voll

darauf eingestellt, dass das Internet die Geschäftswelt

revolutionieren wird. Die bisherige Führungsposition der US-Konzerne

ist vor allem günstigen wirtschaftlichen Rahmenbedingungen zu

verdanken.


``Amerika ist der Ofen, in dem die Zukunft geschmiedet wird.'' Das hat

Leo Trotzki vor nunmehr über 70 Jahren in seiner Autobiographie ``Mein

Leben'' vermutet. Natürlich entwickelte sich die Geschichte anders, als

sie sich der Kommunist vorstellte. Nicht Marx, sondern der Markt

feierte Triumphe.  Auch an der Schwelle zum 21. Jahrhundert scheint

Amerika jedenfalls in wirtschaftlicher Hinsicht die Schmiede der

Zukunft zu sein. Die USA stehen in den meisten Schlüsselindustrien der

modernen Informationsgesellschaft an der Spitze. Amerikanische

Pionierunternehmen, die vielfach erst gerade während der letzten

zwanzig Jahre entstanden sind, führen insbesondere bei der Entwicklung

von Computer-Hardware und -Software sowie beim Aufbau des

Internets. Hinzu kommen bedeutende Vorsprünge vielversprechender

Sparten der Fernmeldetechnik und der Biotechnologie; und diese

Fortschritte wiederum wären ohne die mächtige Computertechnik kaum

erreichbar gewesen.


Praktisch alle amerikanischen

Topmanager sind davon überzeugt, dass die Informatik und

``Killerapplikation'' Internet zu mächtigen Umwälzungen in der Wirtschaft

und zu einer weiteren Beschleunigung der Globalisierung führen

werden. Die Erneuerung sei derart integral, dass gut und gerne von

einer ``New Economy'' gesprochen werden könne. Die Behauptung von

Microsoft-Chef Bill Gates, dass sich die Geschäftswelt in den

nächsten 10 Jahren stärker verändern wird als in den letzten 50

Jahren, wird selten als Übertreibung empfunden. Amerikanische

Unternehmen haben sich bereits während der letzten Jahre ernsthaft,

das heisst auf der obersten Führungsebene, mit den Möglichkeiten des

Internets auseinandergesetzt und stark in Richtung Cyberspace

investiert. Die neue Herausforderung führte bereits zu ersten

Grossfusionen, man denke nur an den geplanten Zusammenschluss von

America Online und Time Warner oder an die Kombinationen im

Fernmeldesektor.


Die amerikanische Ausrüstungsinvestitionen nahmen in der zweiten

Hälfte der neunziger Jahre massiv zu. Dabei stiegen die realen

Auslagen für Computeranlagen jährlich um über 40%. Sehr rapide werden

auch die Übertragungskapazitäten in der Fernmeldeindustrie ausgebaut,

um den Internet-Verkehr problemlos bewältigen zu können. Gegenwärtig

wächst das amerikanische Glasfasernetz um rund 6000 ``Strang''-Kilometer

pro Tag, und Experten gehen davon aus, dass sich die

Übertragungsbandbreite in den nächsten Jahren jährlich verdreifachen

wird. Annähernd 50% der US-Haushalte verfügen bereits über einen

Internet-Anschluss, und auf sie entfallen mehr als zwei Drittel der

Kaufkraft. In Europa hat die Internet-Penetration während der letzten

Jahre ebenfalls stark zugenommen, liegt doch der Anteil der

Online-Haushalte bei rund 15%.cite''


subsubsection


``Während der letzten Jahre sind in den USA nicht nur Tausende neuer

Online-Firmen aus dem Boden geschossen, die Pionieruntermehmen wie

Amazon, Yahoo!, E-Trade oder E-bay nachzueifern versuchen. Auch die

meisten Konzerne der ``Old Economy'' haben die neue Herausforderung

längstens angenommen. Der Pharmakonzern Merck führt schon jetzt die

grösste Online-Apotheke, der Computerkonzern Dell verkauft bereits die

Hälfte seiner Apparate via Internet, und höchste Priorität haben auch

etwa Industriekonzerne wie Honeywell oder General Electric dem neuen

Medium zugemessen.  General-Electric-Chef Jacke Welch erklärte im

neusten Geschäftsbericht, dass das Internet die ``Erbsubstanz von

General Electric für immer verändert, das Unternehmen mit neuer

Energie versehen und in jeder Beziebung revitalisiert'' habe. Ford

Motor errichtet mit den Rivalen General Motors und Daimler-Chrysler

einen Online-MarktpIatz für den günstigeren Einkauf von Komponenten;

solche Online-Märkte für den Einkauf sind auch in den meisten anderen

Branchen im Aufbau. Experten gehen davon aus, dass in den nächsten

Jahren vor allem der Internet-Handel zwischen Firmen explosionsartig

zunehmen werde; die Marktforschungsfirma Forrester Research rechnet

damit, dass der Offline-Grosshandel im Jahr 2003 allein in den USA ein

Volumen von 1300 Mrd. $ erreichen und damit über 90 % des E-Commerce

bestreiten werde.  Gemäss einer Erhebung von Andersen Consulting

scheinen in Europa viele Unternehmer dem Internet immer noch mit

erheblicher Skepsis zu begegnen. Erst 64% der befragten Manager (im

Vorjahr 51%) erblicken einen Wettbewerbsvorteil im

Internet. Symptomatisch für diese Haltung war unlängst vielleicht auch

die Antwort eines deutschen Top-Bankiers auf die Frage, was er vom

Electronic banking halte. Er sagte: ``In Deutschland hat das für uns

noch keine, Priorität, unsere Kunden lieben den Bankschalter; wir

haben das mit Umfragen genau untersucht'' Solche Meinungsumfragen sind

jedoch tückenreich. Im Wettbewerb setzt sich letztlich jener

Unternehmer durch, welcher die Kundschaft davon überzeugen kann, dass

die neuen Produkte oder Dienste praktischer und günstiger sind.cite''



subsection


``Mit dem Internet können die Menschen auf eine neue Art miteinander

kommunizieren, Beziehungen eingehen und pflegen (per E-Post, in

Gesprächsrunden, sogenannten Chats, in

Videokonferenzenldots). Soziale Interaktion wird auf diese Art bequem

und deshalb vielleicht häufiger. Aber man bleibt auf eine bestimmte

Art vor dem Computer immer einsam. Das Gespräch auf dem Internet

bringt natürlich niemals die Atmosphäre einer wirklichen Begegnung

zwischen Menschen hervor.


Bestimmte Arbeitsplätze können dort eingerichtet werden, wo ein

Computer steht und auf das Netz gegangen werden kann. Menschen, die

weit voneinander entfernt leben, können zusammenarbeiten. Zugleich

besteht auch die Gefahr der Isolation der Arbeitnehmer, wenn oft nur

noch sachlich über den Computer miteinander kommuniziert wird oder man

sich in virtuellen Unternehmen aufhält, ohne soziale oder

gewerkschaftliche Traditionen.


Mit dem Internet wird auch ein neuer Umgang mit Wissen möglich. Der

Austausch von Informationen und Wissen zu verschiedensten Zwecken

wird leichtgemacht und kann über weite Entfernungen geschehen. Das

Internet stellt frei zugängliche, riesige Informations- und

Wissensarchive zur Verfügung, Hypertexte zu den verschiedensten

Themen, deren Inhalte sich dauernd ändern. Im Internet wird nicht

linear wie in einem Buch gelesen. Zu einem Thema liest man vielmehr

isolierte kleine Stücke, die man aus dem grossen Gesamttext, eben dem

Hypertext, entnimmt, indem man verschiedene Adressen mit Dokumenten,

elektronische Magazinen, Websites usw. aufsucht, um das Gefundene

dann für sich selber zu vernetzen. Wissen wird durch das Internet

demokratisiert, jeder und jede kann sich über alles informieren und

Informationen auch weitergeben. Eine freie Urteilsbildung ist

möglich. Dabei ist die Aufnahme von Informationen und Wissen aus dem

Internet aber nicht leicht: Wegen der grossen Menge an Daten und

Informationen muss man gut auswählen können. Um zu verhindern, dass

man sich nur Halbwissen aneignet oder gar elektronisch manipulierten,

falschen Informationen aufsitzt, benötigt man eine hohe

Auswahlfähigkeit, die eine gute Vorbildung einschliesst.cite''




subsection

Das Internet hat sich in den letzten Jahren rasant entwickelt, nicht

nur bezüglich der Anzahl der angeschlossenen Rechner oder der

übertragenen Datenmenge, sondern auch in der Leistungsfähigkeit der

Dienste. Da inzwischen nicht nur akademische, computerorientierte

Experten Zugang zum Internet besitzen, sondern auch Wissenschaftler

und Studenten aus anderen Disziplinen und private Anwender zu den

Nutzern der Dienste zählen, wird wesentlich mehr Wert auf den

Benutzungskomfort gelegt. Durch das World Wide Web mit seinen

komfortablen Browsern (das sind Programme, die einem durch das

Internet ``führen'') und der Integration vieler verschiedener Dienste

unter einer Oberfläche ist es für Anfänger nicht mehr notwendig,

Betriebssystembefehle oder Steuerkommandos zu lernen.


Leistungsfähige

Suchmaschinen machen das ganze Netz und nicht nur einzelne Server zu

einer einzigen Informationsquelle, so dass es nicht mehr notwendig ist

zu wissen, wer welche Informationen anbietet. Eine Weiterentwicklung

dieser Suchhilfen und eine Verbesserung der Informationsstrukturen ist

allerdings in Zukunft notwendig, um die Informationsflut beherrschen

zu können. Eine unschätzbare Möglichkeit bieten dabei die NetNews, mit

denen auf ein globales Wissen und die Erfahrung vieler Experten



zugegriffen werden kann und so ebenfalls der gezielte Zugang zu

Informationen erleichtert wird.


section

Welche Betriebssysteme gibt es: Zu Beginn muss gesagt werden, dass es

sehr viele unterschiedliche Betriebssysteme gibt. Die, die am

bekanntesten sind, werden jetzt vorgestellt.


subsection

Windows 95/98 stammt von Microsoft. Die Firma wurde 1978 von Bill

Gates gegründet und wurde berühmt mit seinem Betriebssystem

MS-DOS. Später wurde eine grafische Oberfläche (die Art, mit dem

Computer über Fenster, Symbole und Mauszeiger zu kommunizieren)

entwickelt und verkauft. Dieses programm hiess Windows, welches immer

weiterentwickelt wurde bis zu der Version 3.11.


begin[ht]

begin

includegraphics[width=9cm]

caption

end

end



``Windows95 ist eine Weiterentwicklung zu Windows 3.11, wobei allerdings

gesagt werden muss, dass es viele Verbesserungen wie beispielsweise die

32bit Architektur mit sich bringt. Ausserdem ist nun nicht mehr MS-DOS

das Betriebssystem, sondern Windows selbst. Eine wichtige Neuerung ist

auch die Datei Msdos.sys, die sich im Root des Startlaufwerks

befindet. Seit Windows 95 ist diese Datei lesbar und dadurch

veränderbar. Hierdurch können Anpassungen vorgenommen werden (Bsp.:

Nicht-Starten der graphischen Oberfläche als Standard

einstellen). Allerdings wird bei Windows95 noch ein 16bit Dateisystem

verwendet. Windows 98 hat ein 32bit Dateisystem und bringt damit noch

mehr Performance mit sich. Außss§rdem verschmilzt der Internet Explorer

mit der Oberfläche. Damit sind dann auch interaktive Inhalte auf dem

Desktop möglich.cite''


Windows von Microsoft ist das Betriebssystem, welches

auf den meisten Heim-PCs läuft. In der Industrie wird neben UNIX

häufig auch Windows NT benutzt. Ein Betriebssystem aus dem Hause

Microsoft, welches allerdings nicht von Microsoft entwickelt und

geschrieben wurde. Der Vorteil von Windows ist, dass man alle

Anwndungen bekommen kann: Spiele, Büroprogramme (Textverarbeitung,

Tabellenkalkulation, Zeichenprogramm,ldots), Fahrpläne,

Telefonbücher,ldots Der Nachteil ist, dass es sehr instabil ist. Dies

kann ich aus eigener Erfahrung bezeugen. Ich arbeite manchmal auf Windows

95, welches mir regelmässig abstürzt, (Ein- bis Zweimal pro Sitzung,

ohne zu übertreiben) ich benutze es dabei, um grosse Bildateien zu

bearbeiten (hauptsächlich scannen).


Dazu kommt, dass durch die Verbreitung von Windows, die meisten

Computerviren Windows-Rechner angreifen. So auch der im Moment

bekannte Virus ``I Love You''. Dieser Virus löscht alle jpg-Dateien

(Bilder), versteckt alle mp3-Dateien und benennt sie um. Er schickt

alle Passwörter, die auf dem Computer gespeichert sind an eine

E-Post-Adresse und schickt sich selber an alle Personen, die im

Adressbuch des Computerbenutzers mit einer E-Post-Adresse gespeichert

sind. Dieser Virus konnte nur durch das Intenet so schnell, so

intensiv verbreitet werden.


subsection


``UNIX ist ein Mehrbenutzer- und damit auch Multitasking-fähiges

Betriebssystem, das heute eines der am weitesten verbreiteten

Betriebssysteme ist.  Geschichte: Die Geschichte des Betriebssystems

UNIX geht bis in das Jahr 1969 zurück. Zu diesem Zeitpunkt arbeitete

Ken Thompsen bei den Bell Labarotories, einer Forschungseinrichtung,

die von der Fa. AT&T und der Fa. Western Electric unterhalten

wurde. Ken Thompsen beteiligte sich an einem großen Programmierprojekt

zur Entwicklung des Betriebssystems MULTICS, mit dem sich die Bell

Laboratories in Zusammenarbeit mit der Fa. General Electric und dem

Massachusetts Institute for Technology (MIT) beschäftigten. Im März

1969 zogen sich die Bell Laboratories von diesem Programmierprojekt

zurück. Thompsen plante die Entwicklung eines eigenen Betriebssystems,

das sich stark von den bisherigen Betriebssytemen unterscheiden

sollte. Die dann erste, kommerziell verfügbare Version von UNIX, war

UNIX Version 7. Der Betriebssystemkern enthielt ca. 10'000 Zeilen

Code, von denen aber noch ca. 1'000 Zeilen in Assembler und damit

maschinenabhängig geschrieben waren. Die Umsetzung des

Betriebssystemkerns auf die Programmiersprache C brachte dann aber

eine deutliche Vereinfachung in Fragen der Portierbarkeit. Diese

flexible und portable Konzeption war das Erfolgsrezept von

UNIX.cite''


subsection

``Linux ist ein relativ junges Betriebssystem. Es entstand aus einer

Idee von Linus Torvalds (Helsinki/Finnland), der Unix als perfektes

Betriebssystem ansah, aber erkannte, daß Unix praktisch

unerschwinglich für den Normalverbraucher ist. Er kam auf die Idee,

dass man ein Derivat entwickeln müsste, welches für Jedermann frei

verfügbar ist. Die allerersten Kernel-Teile wurden von Linus

Torvalds alleine entwickelt und im September 1991 über das Internet

verbreitet. In sehr kurzer Zeit fanden weltweit Programmierer

Interesse an dieser Idee und entwickelten die ersten Erweiterungen. So

entstanden ein verbessertes System zur Dateiverwaltung, Treiber für

diverse Hardware, zahlreiche Zusatzprogramme und vieles mehr. Diese

Komponenten wurden ebenfalls kostenlos zur Verfügung gestellt. Das

Gesamtsystem wächst seitdem in rasanter Geschwindigkeit, wobei das

Internet dies natürlich erst möglich macht. Ein wichtiger Faktor ist

die Tatsache, daß Linux frei von Rechten ist und zu diesem Zeitpunkt

bereits frei verfügbare Software vorhanden war. GNU-Programme sind wie

Linux frei kopierbar und werden zudem mit allen Quellcodes

weitergegeben. Das ermöglicht es allen Anwendern, die Programme bei

Problemen oder Fehlern selbst zu erweitern oder zu korrigieren. Daraus

resultieren immer bessere und ausgereiftere Versionen. Der GNU

C-Compiler ist Standard in der Unix-Welt und sogar für DOS / Windows

erhältlich. Linux selbst wird mit dem GNU C-Compiler

weiterentwickelt. Durch viele weitere Komponenten wird zusammen aus

dem Linux-Kernel, zahlreichen GNU-Komponenten, der Netzwerk Software

von BSD und dem ebenfalls freien X-Window-System (grafische

Oberfläche) des MIT ein komplettes System.cite''


subsection

``Das Betriebssystem von Silicon Graphics ist IRIX, das auf UNIX System

V Release 4 basiert. Damit ist eine weitgehende Kompatibilität zu

anderen Derivaten mit diesem leistungsstarken Grundstock gegeben. Bei

aller Leistungsfähigkeit sind die UNIX Befehle allerdings nicht

intuitiv und verlangen vom Benutzer eine lange Einarbeitung. Um

trotzdem eine intuitive Bedienung zu ermöglichen, ist in IRIX mit

Indigo Magic eine Benutzerumgebung vorhanden, die die einfache

Bedienung von PCs mit der Stabilität und Leistungsfähigkeit von UNIX

Plattformen verbinden soll, was zum Teil auch gelingt. Icons

repräsentieren nicht allein Dateien und Applikationen, sondern auch

Peripheriegeräte wie Drucker und CD-Player, andere Computer innerhalb

des Netzwerkes oder sogar Mitarbeiter. Icons sind intelligent, sie

wechseln ihr Aussehen, um eine Statusänderung anzuzeigen, etwa dass

sich im Drucker kein Papier mehr befindet oder im CD-Player eine

Musik-CD liegt. Indigo Magic unterstützt auch ``drag & drop''. So kann

eine Applikation gestartet werden, indem man das entsprechende Icon

oder indem man ein Icon einer Datei auf die Applikation

zieht. Weiterhin können Icons, die oft benötigt werden, direkt auf dem

Desktop abgelegt weerden. Der Dateimanager bietet eine einfache,

graphische Art, durch das Dateisystem zu navigieren. Verschiedene

Ansichtsarten sind gegeben, unter anderem auch eine Darstellung von

Bilddateien durch kleine Kontrollbilder statt einem Icon, was gerade

bei grossen Verzeichnissen voller Bilder sehr nützlich ist.cite''


subsection

``Die Entwicklung des Operating Systems/2 begann bereits 1984. Der Grund

der Entwicklung war die Einführung einer neuen Rechnergeneration durch

IBM. Diese neue Generation sollte mit dem Mikrokanal, einem neuen

Bus-System, ausgestattet werden. 1987 kam diese Technik unter dem

Namen PS/2 auf den Markt. Nach erfolglosem Anlauf von OS/2, der

bedingt war durch die grosse Fehlerbehaftung, stieg Microsoft, nach der

Einführung von Windows, aus der Gemeinschaftsproduktion mit IBM

aus. Der Erfolg von OS/2 blieb auch weiterhin aus. Dies änderte sich

mit der Einführung von Version 2.0, das mit preemptiven Multitasking

und 32-Bit aufwarten konnte. Ein grosses Problem dieser Version war

aber noch die enorme Hardwarevoraussetzung, weshalb es auch nicht zum

grossen Durchbruch von OS/2 kam. IBM arbeitete trotzdem weiterhin an

OS/2 und präsentierte im Oktober 1994 die gründlich modifizierte

Version OS/2 Warp 3, die eine Reihe von Verbesserungen aufwies.

Hardwarevoraussetzungen: 4 MB RAM (besser: 8MB), 386SX (32bit

Prozessor), 35MB Speicherplatz und VGA fähig.cite''




section

Wir sind von den Computern eindeutig abhängig geworden, ähnlich wie

von der Elektrizität:

begin


item In jedem neuen Auto steckt mindestens ein Computer. Die A-Klasse

von Mercedes würde ohne das elektronische Stabilisierungssystem in

einer Elchtest-ähnlichen Situation umkippen. Dank demselben System,

gelingt es dem Audi TT auch in einer Kurve mit einer Geschwindigkeit

von über 180 km/h keinen Unfall zu verursachen., wenn man vom

Gaspedal geht


item Die Automaten in Banken um Geld abzuheben oder die

Billettautomnaten an den Bahnhöfen funktionieren kaum ohne Computer.


item Alle Züge, die schneller als 160 km/h fahren, werden über einen

Linienleiter geführt. Dieser Linienleiter ersetzt das Auge des

Lokführers indem er der Lokomotive die Signale der noch

abzufahrenden Strecke anzeigt. Ab 160 km/h vermag das menschliche

Auge die Signale nicht mehr wahrzunehmen.


item Die modernen Fernseher mit Bild-in-Bild-Funktion und 200 Seiten

Teletext-Seitenspeicher kommen auch nicht ohne Computer aus.


end


Die grossen Entwicklungen, die in den letzten zehn Jahren gemacht

wurden waren eigentlich nur die alte Technologie mit einem Prozessor

zu verbinden.


subsection

Es ist unglaublich, wieviele Kleinrechner sich in einem Haushalt

finden lassen:


begin


item in der Kaffeemaschine

item in einem Ladegerät für Akkus und leere Alkaline-Batterien

item im Kochherd (Baujahr 1999) und Backofen (1999)

item in den Stereoanlagen (Kassettengerät, Receiver und Tuner,

CD-Player ldots einzig im Plattenspieler findet sich keiner, aber

auch hier gibt es Modelle mit Computer)

item im Faxgerät

item Im Videorecorder und in der Videokamera

item in den Funkweckern (diese Wecker werden von einer Mutteruhr in

Frankfurt am Main, DCF77, gesteuert)



end


begin[ht]

begin

includegraphics[width=12cm]

caption

end

end



Dies sind die Geräte, die mir in zehn Minuten in den Sinn kommen. Alle

Apparate befinden sich in unserem Haus. Natürlich kommt noch ein Auto

dazu mit zwei Chips, für das Anti-Blockiersystem und für das automatische

Sperrdifferenzial. Dazu kommen noch zwei PCs, die beide rege benutzt

werden, für Schularbeiten, Bildbearbeitung (es ist ganz interessant,

Fotos elektronsisch zu manipulieren), um Musikdateien zu bearbeiten

(äusserst praktisch für eine Rockband), aber auch um ganz simple

Geschäftsbriefe und Arbeiten zu schreiben.


section

Die Materialbeschaffung für dieses Thema war relativ schwer. Man findet

kaum Bücher, welche aktuell genug sind um für diese Arbeit dienlich zu

sein. Deshalb wählte ich als hauptsächliche Quelle das Internet. Aber

wie ich bereits im Kapitel Internet erwähnt habe, ist es nicht gerade

leicht, sich durch diesen Dschungel von Informationen

durchzukämpfen. Durch glückliche Zufälle entdeckte ich bei einem

Kollegen, eine Ausgabe des GEO, in welcher sehr viele wertvolle

Informationen steckten. Auch durch einen glücklichen Zufall las ich

einen Bericht in der NZZ. Die Quellensuche war nicht gerade sehr

einfach, dies half mir aber, zu lernen, wie man im Medium der Zeit zu

sinnvollem Material kommt.


Da ich sehr viel mit Computern arbeite, probiere ich immer wieder

etwas Neues aus. Ebenso dieses Programm. Es ist kein gewöhnliches

Textverarbeitungsprogramm wie Word, welches ein

textsc-Programm (what you see, is what you get) ist. Das

Programm heisst LaTeX und läuft auf allen Computern. Es ist kein

Schreibprogramm, sondern ein Programm, mit welchem man die Zeichen

setzt. Um eine kleine Idee zu vermitteln, wie man mit LaTeX arbeitet,

lege ich eine Seite hinzu, wie man schreibt. Da ich erst ein paar

Berichte damit und noch keine Arbeiten damit schrieb, entstanden zwei

kleine Probleme, welche ich nur mit Hilfe beheben konnte. Ich bin

jedoch davon überzeugt, dass ich mit einem textsc-Programm

eindeutig mehr Probleme gehabt hätte und mehr Zeit hätte investieren

müssen als mit LaTeX.


Ich lernte bei dieser Arbeit insgesamt viel:









Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen







Neu artikel