REFERAT-MenüDeutschGeographieGeschichteChemieBiographienElektronik
 EnglischEpochenFranzösischBiologieInformatikItalienisch
 KunstLateinLiteraturMathematikMusikPhilosophie
 PhysikPolitikPsychologieRechtSonstigeSpanisch
 SportTechnikWirtschaftWirtschaftskunde  

Lernprogramme - lerntheoretische Positionierung




Lernprogramme - lerntheoretische Positionierung


Die im Folgenden angeführten "Lerntheorien gehen dem Versuch nach, Kenntnisse über das Lernen zu systematisieren." (Lefrancois, 1976: S.6) Dabei folgen sie in ihrem Aufbau der historischen Entwicklung, wobei keine der vorgestellten Theorien nicht auch den Erkenntnissen der modernen Psychologie genügen würde. Jede Theorie beleuchtet bestimmte Aspekte des menschlichen Lernens und Denkens. Im Anschluss an jede Theorie werden die darauf basierenden Lernprogramme vorgestellt. Hierbei sollen die typischen Programme jeder einzelnen Entwicklungsphase dargestellt werden.






Behavioristische Lerntheorien und Instruktionssysteme


Da sich der Behaviorismus in erster Linie mit dem beobachtbaren Verhalten beschäftigt, sind auch die daraus entwickelten Lernprogramme auf die Überprüfung eines erfolgreichen Lernprozesses angewiesen, der sichtbar ist. Durch die Konditionierung eines bestimmten Inhalts, wird den Postulaten des Behaviorismus Folge geleistet.



Behavioristische Lerntheorien

Es handelt sich bei diesem Theoriekomplex um die ältesten lernpsychologischen Erkenntnisse. 1913 wurde der Behaviorismus mit WATSONS Aufsatz "Psychologie, wie der Behaviorist sie sieht" begründet, obwohl es schon früher Bemühungen gab, das menschliche Verhalten psychologisch zu erklären (PAWLOW). Die Behavioristen beschäftigen sich mit dem Verhalten von Menschen und Tieren unter bestimmten Bedingungen. Die zur Entwicklung der Theorien angewandten Methoden gründen fast ausschließlich auf experimentellen, wiederholbaren Versuchen innerhalb einer definierten Laborsituation. Entsprechend allgemeingültig haben die Behavioristen auch ihre Ergebnisse formulieren können. Das Lernen wird hier beschrieben als eine Reiz-Reaktions-Verbindung, die auf unterschiedliche Weise beeinflusst werden kann.




Klassisches Konditionieren nach PAWLOW

Diese von PAWLOW, einem russischen Physiologen, begründete Theorie besagt, dass dem natürlichen, meist angeborenen Reflex künstlich ein neuer, bedingter Reflex hinzugefügt werden kann. Der bedingte Reflex wird dabei die gleiche Reaktion hervorrufen, wie der natürliche, unbedingte Reflex. Pawlow bezeichnet diesen Vorgang als einen Lernvorgang. Da es sich um Reiz-Reaktionsverbindungen handelt, ist es wichtig hinzuzufügen, dass Reflexe wiederum im Körper als Reize weitergeleitet werden. Es ist auch wichtig, darauf hinzuweisen, dass die Konditionierung, also der Lernprozess, von einer zeitlichen Dimension abhängt. Der natürliche Reiz und der noch unbedingte Reiz müssen sehr kurz aufeinander folgen, wenn die Konditionierung zum Erfolg führen soll. Durch ein Beispiel soll der Vorgang des klassischen Konditionierens verdeutlicht werden:

Das Fallen der Bomben im  Weltkrieg hat bei den Menschen Angst und Schrecken ausgelöst. Meistens jedoch ertönte vor dem Fallen der ersten Bomben der Fliegeralarm. Bei vielen Menschen hat nach der zweiten Wiederholung jener Signalabfolge schon der Fliegeralarm selbst Angst und Schrecken verursacht. "Auch in Friedenszeiten löst die Sirene bei zahlreichen Menschen Angst aus, selbst wenn es sich nur um einen Probealarm handelt." (Edelmann, 1996: S.63) Für den unkonditionierten Menschen würde der Alarm alleine keine signifikante Reaktion auslösen. Erst durch die Kombination von Fliegeralarm und dem Fallen der Bomben wird die Reaktion (Angst und Schrecken) konditioniert. Hätten diese beiden Reize nicht in einem zeitlichen Verhältnis zueinander gestanden, hätte man den Fliegeralarm nicht mit dem Fallen der Bomben assoziiert und der unbedingte Reiz, Angst bei dem Ertönen des Heulens zu verspüren, wäre nie zu einem bedingten Reiz geworden. Das Modell der klassischen Konditionierung ist noch erweitert worden, nachdem man feststellte, dass allein die Vorstellung des Ertönens des Fliegeralarms zu Angstzuständen geführt hat.


Aber nicht nur der zeitliche Faktor, sondern auch die Anzahl der Wiederholungen der Koppelung von bedingtem und unbedingtem Reiz haben Auswirkungen auf den Lernprozess. "In der Regel ist also der Erwerb einer bedingten Reaktion an das wiederholte Zusammenvorkommen dieser beiden Reize gebunden. Dieses Prinzip wollen wir Bekräftigung nennen." (Edelmann, 1996: S.69)

Als Löschung werden solche Reiz-Reaktionsverbindungen bezeichnet, bei denen der bedingte Reiz wiederholt mit der Reaktion gekoppelt wird, ohne Darbietung des unbedingten Reizes. Dem ist hinzuzufügen, dass "im Gegensatz zu diesen bedingten Reflexsituationen () emotional-motivationale Reaktionen häufig sehr widerstandsfähig gegenüber Löschung" (Edelmann, 1996: S.70) sind. In einem Beispiel geht EDELMANN auf diesen Spezialfall ein: "Kinder und auch Erwachsene empfinden zuweilen auch vor relativ kleinen Hunden Angst, obwohl unangenehme Erlebnisse mit solchen Tieren überhaupt nicht mehr erinnert werden können." (Edelmann, 1996: S.70)


Bei der Reiz-Generalisierung wird der bedingte Reiz so verallgemeinert, dass er auf Reize mit ähnlichen Eigenschaften übertragen werden kann. Hat ein Kind zum Beispiel Angst vor Arzten, kann diese Angst schon erzeugt werden, gegenüber Menschen, die einen weißen Kittel tragen.


Die Reiz-Differenzierung stellt das genaue Gegenteil zur Reiz-Generalisierung dar. Hierbei ist der Handelnde in der Lage, zwei bedingte Reize voneinander zu unterscheiden. So wird einer der beiden bedingten Reize gelöscht, während der andere bekräftigt wird. Ein Beispiel aus dem Humanbereich könnte sein, "dass das Kind eine sehr differenzierte bedingte Angstreaktion dem Vater gegenüber zeigt, wenn häufiger nur dieser schimpft." (Edelmann, 1996: S.72) Dadurch empfindet es jedoch keine generelle Angst vor männlichen Erwachsenen.


Instrumentelles Lernen nach SKINNER

Die Grundlagen des instrumentellen Lernens sind dem des klassischen Konditionierens sehr ähnlich. Allgemein unterscheidet man zwischen zwei verschiedenen Konditionierungstypen, der Konditionierung des Antwortverhaltens und der Konditionierung des Wirkverhaltens. Die Konditionierung des Antwortverhaltens entspricht der klassischen Konditionierung. "Beim Antwortverhalten antwortet der Organismus auf Reize, beim Wirkverhalten wirkt er von sich aus auf die Umwelt ein." (Edelmann, 1996: S.108) Beim Wirkverhalten kommt dem Organismus also eine größere Aktivität zu. Das Verhalten ist kein reaktives, sondern eher ein spontanes. Es ist wichtig festzuhalten, dass man im Zusammenhang mit dem instrumentellen Lernen nicht von einer Reaktion spricht, sondern von "Verhalten", da die Reaktionsmuster meist komplexer sind.


"Beim instrumentellen Lernen entscheiden die Konsequenzen, die dem Verhalten folgen, über dessen zukünftiges Auftreten." (Edelmann, 1996: S.108) Es gibt verschiedene Arten von Konsequenzen, die auf eine jeweils andere Art und Weise das neue Verhalten bestimmen:

Positive Verstärkung: Durch die Darbietung eines positiven Reizes kann ein Verhalten aufgebaut werden. Wenn der Lehrer seinen Schüler beispielsweise lobt, so wird dies zu einer Wiederholung seines Verhaltens führen.

Negative Verstärkung: Auch durch den Entzug eines positiven Reizes kann ein Verhalten aufgebaut werden. Man unterscheidet zwei Formen der negativen Verstärkung. Das Fluchtlernen und das Vermeidungslernen. Von Fluchtlernen spricht man, wenn man "direkt mit dem aversiven Ereignis konfrontiert wird und Maßnahmen ergreift, diesem zu entkommen." (Edelmann, 1996: S.132) Das Vermeidungslernen scheint sich davon nur durch eine zeitliche Komponente zu unterscheiden. Eine schon im Vorhinein bekannte negative Konsequenz würde dann zum Vermeidungslernen führen. "Ein Lehrer sagt: In der kommenden Woche werdet ihr eure Hausaufgaben einwandfrei erledigen, sonst fällt der Wandertag aus. Die Schüler strengen sich alle an und die angedrohte Zwangsmaßnahme muss nicht angewandt werden." (Edelmann, 1996: S.114) In diesem Fall würde man von einem Vermeidungslernen sprechen, da die schon bekannte Konsequenz erst dann vollzogen wird, wenn die Hausaufgaben nicht gemacht werden. In jedem Fall ist jedoch die negative Verstärkung von der Bestrafung zu unterscheiden, weil die negative Verstärkung niemals die Durchführung einer negativen Konsequenz ist, sondern nur deren Androhung. Angst und negative Verstärkung stehen jedoch in einem sehr engen Verhältnis.

Die Bestrafung: Durch eine Bestrafung kann ein Verhalten abgebaut werden. In diesem Fall folgt auf das Verhalten unmittelbar eine negative Konsequenz. Ahnlich der Verstärkungs-Terminologie kann auch die Bestrafung auf der einen Seite der Entzug eines positiven Ereignisses oder die Darbietung eines negativen Ereignisses sein. Die Bestrafung ist jedoch vor allem im pädagogischen Umfeld nicht ganz unproblematisch, da der aversive Reiz einer Generalisierung unterliegen kann, was nicht zuletzt dazu führt, dass sich die Angst vor der Strafe auf den Erzieher oder Lehrer überträgt und so nicht mehr nur die Bestrafung selber, sondern der Bestrafende zum Mittelpunkt der Angstvorstellung wird.

Die Löschung: Durch Nichtbeachtung eines bestimmten Verhaltens kann dieses gelöscht werden. Dadurch dass jede mögliche Konsequenz auf eine bestimmte Reaktion ausbleibt, wird keiner der zuvor beschriebenen Mechanismen angetrieben. Das Verhalten steht so im Raum, als wäre es nie passiert. So "verabredet der Lehrer ohne Wissen des betreffenden Kindes mit den anderen Schülern, dass diese den Clownerien keine Beachtung schenken und vor allen Dingen nicht mehr lachen sollen. Er selbst übersieht konsequent das unerwünschte Verhalten." (Edelmann, 1996: S.148) D.h. das Verhalten bleibt aus, weil es keinen Erfolg mehr zeitigt.



Behavioristische Lernprogramme

Behavioristische Lernprogramme haben die Entwicklung computerunterstützten Lernens bis heute geprägt. Die ersten Lernprogramme wurden in den 50er und 60er Jahren entwickelt. SKINNER war zu diesem Zeitpunkt der Ansicht, ein programmierter Lernprozess sei für die Umsetzung behavioristischer Lerntheorien geeignet. Für diesen Zweck hat er den Grundstein für den Programmierten Unterricht gelegt, denn wie oben schon beschrieben, spielt der zeitliche Zusammenhang zwischen Reaktion und Konsequenz eine entscheidende Rolle. KERRES stellt dementsprechend fest, dass man gerade in der Schule häufig das Problem vorfindet, "dass Verhaltensweisen, die gelernt werden sollen zu selten und nicht unmittelbar belohnt werden." ( Kerres, 1998: S. 47) Die behavioristischen Lerntheorien sind in Regeln formuliert worden. Deshalb eignet sich eine mechanistische Gestaltung besser für die Umsetzung der behavioristischen Gesetze. So ist es auch schon sehr früh möglich gewesen, in einen einfachen Computer das sichtbar gemachte Verhalten, zum Beispiel in Form von Prüfungsfragen, zusammen mit den entsprechenden Konsequenzen einzuprogrammieren. Da es in der behavioristischen Theorie nur ein "Richtig" und "Falsch" gibt, treten keine Verzweigungen auf, die ein Verhalten komplexer machen.


1.1. Programmierte Instruktion

Die in den 60er und 70er Jahren entwickelten programmierten Instruktionen beruhten auf einem linearen Programmaufbau. Hierbei ist der Lerninhalt in kleinste Lernsegmente aufgeteilt worden, da man davon ausging, dass Regeln und Wissen unabhängig von dem Lerner bestehen. Spätestens seit dem Einzug des Konstruktivismus in die Lerntheorien weiß man, dass diese These nicht stimmt (vgl. Abschnitt 3.1.). MANDL beschreibt den Lernprozess behavioristischer Lerntheorien als einen Versuch des Lehrers, "einen Teil des Wissens objektiv zu vermitteln." (Mandl/Gruber/Renkl, 1995: S.167)


Der Programmablauf eines Instruktionsprogramms stützt sich auf die These, Lernprozesse seien objektivierbar. Dementsprechend einfach ist die Programmstruktur definiert:

Präsentation des Lernstoffes

Prüfung

Eine Prüfung, zum Beispiel eine Abschlussfrage, konnte bestanden oder nicht bestanden werden. Erstere Möglichkeit hatte einen Fortschritt in der Vermittlung des Lerninhalts zur Folge. Es folgte eine neue Präsentation mit einer anschließenden Prüfung. Hat der Lernende die Frage nicht richtig beantwortet, wurde der Lernstoff wiederholt. Diese Art des Lernens bringt eine Reihe von Vor- und Nachteilen mit sich, die im Folgenden dargestellt und diskutiert werden sollen.


Durch das Medium Computer ist der Lehrende, also der Programmierer, in der Lage, den Benutzer in jeder Situation und vor allen Dingen unmittelbar zu verstärken. Der Lernende selbst wiederum kann zu jedem Zeitpunkt das Lernprogramm beenden und nach einiger Zeit an entsprechender Stelle weiterarbeiten. Die Emotionslosigkeit des Computers macht ihn zu einem geduldigen Lehrmeister, der fehlerhafte Antworten nicht bestraft, sondern ignoriert, indem er mit einer Wiederholung der Präsentation beginnt. Da man herausfand, dass negative Verstärker und auch Bestrafung auf Dauer nicht förderlich für den Lernprozess sind, wurden die Lernprogramme so gestaltet, dass sie auf dem Prinzip der Belohnung beruhten, schlimmstenfalls der Löschung. SCHULMEISTER bemerkt dazu: "Sobald aber das Feedback den Hauch der Kontrolle oder der Korrektur annimmt, weicht der Lernende zurück." (Schulmeister, 1997: S.111) Aus diesem Grund stellte ein Großteil der ersten Lernprogramme, die auf den SKINNERschen Verhaltensregeln beruhen, meist suggestive Fragen. So konnte man mit großer Sicherheit davon ausgehen, dass der Lernende die richtige Antwort geben würde. Auf der anderen Seite ist es wahrscheinlich für den Lernenden schon eine Bestrafung, wenn die Prüfungsfrage zum vierten Mal falsch beantwortet wurde und die Präsentation nochmals wiederholt wird, nicht nur, dass die Motivation des Lernenden rapide sinkt, sondern auch, dass diese Systeme aufgrund ihrer fehlenden diagnostischen Schnittstelle nicht in der Lage sind, den Fehler zu analysieren und dem Lernenden mitzuteilen. Denn "Fehler können für Lernende eine wichtige Informationsquelle sein, die das Lernen sogar fördern." ( Kerres, 1998: S. 50) Weiterhin ist zu bemängeln, dass der Lernende nur auf eine bestimmte Frage hin konditioniert wird, es fällt ihm jedoch schwer, das so erlernte Wissen auf andere, ähnliche Fragen anzuwenden. Seine Antworten werden auf bestimmte Fragen konditioniert, deren Sinn das Programm selbst nicht erfassen kann. Es kann nur mit einer gewissen Fehlertoleranz bezüglich der Rechtschreibung reagieren.


Autorensysteme

Durch die Entwicklung neuerer Programmiersprachen war es möglich, Lernprogramme zu verzweigen. Dennoch folgten auch diese Systeme dem Prinzip der programmierten Instruktion. Auch hier lagen die Lernziele ausschließlich im Bereich der Fakten- und Wissensvermittlung. Es entwickelten sich zwei Typen von Autorensystemen. Die einen reproduzierten programmierte Abläufe, während die anderen spontan Aufgaben variieren konnten. Letztere erhielten auch den Namen "generative Systeme".


Die Funktionsweise dieser Autorensysteme gestattet dem Benutzer, auch ohne einschlägige Programmierkenntnisse ein Lernprogramm selbst zu entwickeln, indem er dem System das Fachwissen in Form von Fragen einprogrammiert und richtige und vorhersehbare falsche Antworten vorgibt. Das Programm selber formt mit Hilfe vorprogrammierter Algorithmen den Input in ein Lernprogramm um. Der Lernende kann anschließend diesen Lerninhalt abrufen, wobei der Autorenteil ausgeblendet wird.


Ganz allgemein gilt für die Autorensysteme die gleiche Kritik, die schon an den programmierten Instruktionen vorgenommen wurde. Es gibt nur eine wesentliche strukturelle Unterscheidung im Vergleich zu den programmierten Instruktionen. Au­torensy­ste­me haben eine Expertenschnittstelle, die es ermöglicht das Lernprogramm einer bestimmten Gruppe von Benutzern anzupassen. Es ist ein Schritt auf dem Weg zur Individualisierung von Lernsystemen, dennoch bleibt das System für den Lernenden starr.


Die Erstellung eines solchen Lernprogramms zum Beispiel durch einen Lehrer wird auf 50 - 500 Stunden pro eine Stunde Programmzeit geschätzt (vgl. Schulmeister, 1997: S.105). Weiterhin ist es noch nicht gelungen, das Programm in die Lage zu versetzen, sich an die Lernfähigkeit des Lernenden anzupassen. Zur Effizienz solcher Lernsysteme bemerkt FISCHER: " Interessanterweise werden ihr [der computer-unterstützten Unterrichtung] nur kurzfristige Effekte zugeschrieben, die zudem noch verdächtig sind, vom Hawthorne-Effekt des ,Neuen' überlagert zu sein." (Fischer, 1985: S. 69)


Dennoch muss auf der anderen Seite auch benannt werden, dass es dem programmierunkundigen Lehrer mit Hilfe dieser Lernprogramme gestattet ist, ein Lernprogramm zu formulieren, dessen Einsatz sich für den Unterricht eignen würde, da durch die Kooperation zwischen Lehrer und Computer für die Schüler in den 60er Jahren ein neues Medium erschlossen wurde, dessen Inhalt dem Lehrer wohlbekannt war und mit dessen Hilfe eine neue Form der Wissensrepräsentation in die Schulen gelangte.


Courseware

In der Courseware sind die Autorensysteme durch Animation und Simulation weiterentwickelt worden. "der Begriff wird heute weitgehend mit CAI  oder CBT gleichgesetzt, wobei sich darunter Tutorien, Drill & Practice-Programme, Simulationen und Multimedia-Programme verbergen können." (Schulmeister, 1997: S.107) Nur aufgrund der sich immer weiterentwickelnden Computertechnologie ist es möglich, so viele verschiedene Anwendungsgattungen in ein System zu implementieren. Es steht jedoch weiterhin die Überprüfung der Reaktion des Lernenden im Mittelpunkt. Insofern bleiben die Wurzeln des Behaviorismus noch erkennbar. Trotzdem ist es gelungen, einige Defizite im Vergleich zu den Autorensystemen auszugleichen. Die Linearität auf der einen Seite und die sich ständig wiederholenden Methoden der Wissensvermittlung auf der anderen Seite werden in diesen Systemen durch eine ansprechende Gestaltung (multimedial) aufgefangen, wodurch zumindest die Motivation des Lernenden immer wieder neu angefacht wird. Ferner sind diese Lernprogramme auch in der Lage interpretationsabhängige Lerninhalte zu vermitteln, wie zum Beispiel "Erlernen von praktischen Fähigkeiten bei Sozialarbeitern [Seabury/Maple (1993)], Erlernen der wissenschaftlichen Argumentation [Borg (1993)], Erwerb der Fähigkeit zuhören zu können [Cronin (1993)] und die Verbesserung von Kommunikationsfähigkeiten [Mc Kenzie (1993)]" (Schulmeister, 1997: S. 108).


Ein großer Vorteil der CBT-Programme ist die Berücksichtigung der Individualität der Lernprozesse. Vor allem im Bereich der betrieblichen Weiterbildung sind die Vorkenntnisse der Teilnehmer meist sehr unterschiedlich. Durch CBT-Systeme wird es dem Benutzer möglich, sein individuelles Lerntempo zu bestimmen. Während der Fortgeschrittene bestimmte Lernsequenzen eines Programms überspringt, ist es dem Anfänger auch möglich, eine Lektion mehrmals zu wiederholen, ohne sich vor der Lerngruppe zu blamieren.



Kognitivistische Lerntheorien und Tutoren


Die Grundlage der kognitivistischen Lernforschung bildet die Kategorisierung von Wissen. Desweiteren wird die Formulierung operationalisierbarer Lernziele in den Mittelpunkt gerückt. In der Nachfolge der behavioristischen Lerntheorien soll also auch hier die Überprüfbarkeit eines Lernziels festgeschrieben werden. Die Anforderungen an solche Lernprogramme sind schon wesentlich komplexer als bei den Behavioristen. Man bemühte sogar die klassische KI-Forschung, um einige Probleme, vor allem der Adaptivität, mit Hilfe intelligenter Tutoren zu lösen (siehe Kap. 3. ITS). Darüber hinaus mussten diese Programme in der Lage sein, verschiedene kognitive Subsysteme des Lernenden anzusprechen.



Kognitivistische Lerntheorien

Die Kognitivisten interessierten sich nicht mehr für die von Außen beobachtbaren Verhaltensänderungen, sondern für die "innere Repräsentation der Umwelt". (Edelmann, 1996: S.8) Zu Beginn der 60er Jahre begann ein Umdenken in der Lernpsychologie von der Vorstellung, Lernen als eine Verhaltensänderung zu sehen, hin zu einer Definition, in der Lernen als eine Informationsaufnahme und -verarbeitung beschrieben wurde. In den kognitiven Lerntheorien wurde versucht, die Wissensverarbeitung zu strukturieren.


Allgemein beschäftigen sich die kognitiven Lerntheorien mit der Art und Weise wie der Mensch sein Wissen speichert. Durch die Bildung von Kategorien hat der Mensch die Möglichkeit, spezielles Wissen zu generalisieren, indem er einen Spezialfall einer Gruppe ähnlicher Spezialfälle zuweist. Kategorisierung "wird durch die folgenden beiden intellektuellen Leistungen herbeigeführt:

Es muss von den Besonderheiten eines Einzelfalls abgesehen (abstrahiert) werden und

es müssen die gemeinsamen Eigenschaften hervorgehoben werden." (Edelmann, 1996: S.174)

Hierzu benutzt der Mensch Eigenschaftsbegriffe. Sie werden auch deskriptive Konstrukte genannt. Eigenschaftsbegriffe dienen der Beschreibung empirischer Sachverhalte. Demgegenüber stehen die explikativen Konstrukte, auch Erklärungsbegriffe genannt, sie dienen der Erklärung beobachteter Sachverhalte. "Sie [explikative Konstrukte] unterstellen eine Abhängigkeit zwischen zwei oder mehreren Ereignissen. Beispielsweise können die Leistungsunterschiede zwischen Schülern durch unterschiedliche Intelligenz oder unterschiedlichen Fleiß erklärt werden." (Edelmann, 1996: S.184) Auch Erklärungsbegriffe werden vom Lernenden kategorisiert.


Stehen Begriffe in einer Beziehung zueinander, entwickelt der Mensch Begriffshierarchien, um sie inhaltlich voneinander zu trennen und dennoch zu immer größeren Beziehungsgeflechten anzuordnen. Die im Folgenden beschriebenen Theorien von GAGNE, AUSUBEL beschäftigen sich mit dem verbalen Lernen. Sie gehören zu den Klassikern der Unterrichtspsychologie und werden in den darauffolgenden kognitivistischen Lernprogammen häufiger zitiert werden.


Regellernen nach GAGNE

GAGNE spricht statt von Wissenserwerb von dem Erwerb von Regeln, wobei Regeln aus Begriffsketten bestehen. "Wissen besteht (demnach) aus der Kombination von Begriffen." (Edelmann, 1996: S.202)


Es ist eine Voraussetzung des Regellernens, dass alle vorkommenden Begriffe bekannt sind. Nach GAGNE geht es nicht um das Auswendiglernen von Sätzen, sondern um das Verstehen der Beziehung der einzelnen Begriffe untereinander. EDELMANN benennt vier Maßnahmen für den Erwerb von Wissen oder Regeln:

Die Bedeutung des Begriffs muss dem Lernenden deutlich werden und soll von allen Lernenden einheitlich gebraucht werden. Aus diesem Grund werden Definitionen für Begriffe vorgenommen.

Durch das Erklären einiger Beispiele wird versucht, die Regel mit bestimmten beschriebenen Situationen zu assoziieren.

Um dem Lernenden zu helfen, nicht die Wortkette auswendig zu lernen, sondern die Regel zu verstehen, wird dieselbe Regel öfters mit anderen Worten wiederholt.

Zur Überprüfung des Gelernten werden die Aufgaben in einen anderen Zusammenhang gestellt. Hierbei ist festzustellen, ob die Regel verstanden wurde oder auswendig gelernt worden ist.


Genau wie sich Begriffe in einer Begriffshierarchie organisieren, werden nach GAGNE Regeln in eine Regelhierarchie eingeordnet. Dementsprechend ordnen sich die Begriffsbildung, der Wissenserwerb und das Problemlösen zu einer Lernstruktur an. So lernt der Mensch zuerst Begriffe eines bestimmten Lernumfeldes zu kategorisieren, bzw. in Theorien zu formulieren. Anschließend werden Regeln aufgestellt. Das abschließende Problemlösen stellt eine Anwendung dieser Regel dar. GAGNE benennt hierzu ein Beispiel: "Wenn innerhalb der Physik Probleme gelöst werden sollen, dann müssen zuvor die wissenschaftlichen Regeln, die auf die Probleme anzuwenden sind, gelernt sein; wenn diese Regeln ihrerseits gelernt werden sollen, muss man sicherstellen, dass zuvor die relevanten Begriffe erworben wurden usw." (Gagne, 1969: S.141)


Sprachliches Lernen nach AUSUBEL

Nach AUSUBEL gibt es zwei Dimensionen des Lernens:

Dimension "sinnvoll/mechanisch"

Dimension "rezeptiv/entdeckend"

Die erste Dimension gibt Auskunft darüber, wie gelernt wird. Hiermit werden die Tätigkeiten auf der Lernerseite wiedergegeben, während die zweite Seite die Lehrerseite beleuchtet. Hier wird dargestellt wie AUSUBEL sich die Präsentation des Lernstoffes vorstellt. Es wird jedoch im Folgenden zuerst die Lernerseite genauer beschrieben:


1. Sinnvolles Lernen

Es ist das Ziel des sinnvollen Lernens, den Lernstoff verstanden zu haben, er darf nicht nur auswendig gelernt werden. Desweiteren muss "der neue Lernstoff () zufallsfrei auf bisheriges Wissen bezogen werden", wobei mit zufallsfrei eindeutig gemeint ist. In diesem Zusammenhang führt AUSUBEL die Assimilationstheorie ein, nach der das neu  Gelernte immer mit dem Vorwissen verknüpft werden muss.


Mechanisches Lernen

Beim mechanischen Lernen wird das Lernmaterial wortwörtlich gelernt, es wird auswendig gelernt, wobei ein inhaltliches Verständnis nicht notwendig ist. Allerdings kann dann der Lernstoff auch nicht assimiliert werden.


Auf der Lehrerseite unterscheidet man das rezeptive vom entdeckenden Lernen. Die Lerntypen der zweiten Dimension machen demnach auch keine Aussage darüber, ob das Wissen assimiliert wird oder nicht.


1. Rezeptives Lernen

Beim rezeptiven Lernen stellt der Lehrer dem Schüler den Lernstoff in abgeschlossener Form vor. Dies kann zum Beispiel durch einen Lehrervortrag oder einen fertigen Text geschehen. Der Schüler kann also keinen Einfluss auf die Wissensvermittlung nehmen. Diese Art der Präsentation hat sowohl Vor- als auch Nachteile. Da der Ablauf der  Wissensvermittlung im Vorhinein feststeht, ist es zwar möglich dem Schüler zu Beginn der Lerneinheit einen Überblick über den Lernumfang zu geben, auf der anderen Seite ist es ihm aber nicht möglich, aktiv an der Wissensvermittlung teilzunehmen. Diese Lernform bietet sich, so EDELMANN, eher beim Erlernen komplexer Stoffgebiete an, da "Wissensvermittlung vorwiegend durch entdeckendes Lernen () eine außerordentlich unökonomische Angelegenheit" wäre.




Entdeckendes Lernen

"Das wesentlichste Merkmal des entdeckenden Lernens ist die Tatsache, dass der Hauptinhalt dessen, was gelernt werden soll, nicht gegeben ist, sondern vom Schüler entdeckt werden muss". (Ausubel/u.a., 1980/81: S.47) Diese Form des Lernens wird eher bei alltäglichen Problemen des Lebens verwendet[1]. Sie ist darüber hinaus auch die Lernform, mit der Kinder Begriffs- und Regelhierarchien aufbauen.




Nach AUSUBEL ergeben sich durch die Kombination dieser 2 Dimensionen vier Grundformen des Lernens:

Mechanisch-rezeptiv

Sinnvoll-rezeptiv

Mechanisch-entdeckend

Sinnvoll-entdeckend

AUSUBEL befürwortet das sinnvoll-rezeptive Lernen, da das Ziel jeder unterrichtlichen Lernaktivität der "Erwerb einer klaren, stabilen und organisierten Wissensmenge" (Ausubel, 1974: S.139) ist.


Die beiden Theorien zum "verbalen Lernen" setzen verschiedene Schwerpunkte. Während GAGNE seine Überlegungen der Art der Wissensspeicherung widmet, dimensioniert AUSUBEL den Lernbegriff.



Kognitivistische Lernprogramme

Der im Behaviorismus erzeugten Atomisierung der Lernprozesse sollte in den kognitivisti­schen Lernprogrammen entgegengewirkt werden. Instructional design-Systeme folgen den von GAGNE und AUSUBEL beschriebenen Lerntheorien über die Organisation und den Erwerb von Wissensstrukturen. "Für das didaktisch-methodische Vorgehen hat sich in der pädagogischen Psychologie der Begriff der Instruktion eingebürgert. Man versteht darunter die möglichst präzise Beschreibung der Beeinflussung des Lernens." (Edelmann, 1996: S.11) Aus diesem Grund bezeichnet SCHULMEISTER die von diesen Autoren beschriebenen Theorien als Instruktionstheorien. Außerdem sollte der monoton und linear ablaufende Lernprozess variablen Unterrichtsmethoden Platz machen. LOWYCK und ELEN charakterisieren die enge Verbindung der beiden Theorien innerhalb der Instruktionstheorie folgendermaßen: "Both the behaviouristic origins and the general systems theory strongly influenced the outlook of the ID []. While in ID the design parameters are selected from a behaviouristic framework, the process is structured in line with general systems theory."




Instructional design - Lehrerorientierte Systeme

Typisch für das Instruktionsdesign ist nach BAUERLE die Übertragung von deklarativem, prozedualem und kontextualem Wissen vom Lehrer auf den Schüler (vgl. Bäuerle, 1999: S.50). Somit steht auch dieser Programmtyp ganz im Zeichen der behavioristischen Lerntheorien. Es ist eine Aufgabe der Instructional Design-Systeme (ID-Systeme), Lehrern nach der Formulierung eines Lernziels entsprechende Methoden vorzuschlagen. REIGELUTH stellt sich die Umsetzung solcher ID-Systeme in der Gestalt von Expertensystemen vor. In diesem Fall stehen solche Systeme in einem engen Zusammenhang zu den Autorensystemen, wobei die ID-Systeme eine Weiterentwicklung darstellen, die es dem Lehrer auf der Basis der kognitiven Lerntheorien ermöglicht, seinem selbst entwickelten Lernprogramm eine Reihe unterschiedlicher Lernmethoden hinzuzufügen. Erst später entwickelten sich ID-Systeme, die auch dem Lernenden zur Verfügung standen.


Das ID ist zu jeder Zeit einer vehementen Kritik unterworfen worden. Einige Vorwürfe sollen an dieser Stelle wiedergegeben werden: Das ID gehört nach SCHULMEISTER zu den kognitivistischen Theorien, dennoch sind Programme, die der Instruktionstheorie folgen von der grundlegenden Idee GAGNES u.a. verschieden. Die Kategorien, die diese Lernprogramme bilden, sind eher "Klassifikationsschemata für Objekte nach dem Muster biologischer Taxonomien mit zusätzlichen kausalen, probabilistischen bzw. korrelationalen Relationen zwischen Handlungen [], aber keine kognitiven Konzepte im Sinne der kognitiven Psychologie." (Schulmeister, 1997: S.135) Für die Kognitivisten waren die Eigenschafts- und Erklärungsbegriffe eine Art der Zuordnung von Begriffen, die auf Individualität und Subjektivität beruhten. Das Lernprogramm jedoch gibt solche Klassifikationsschemata vor, ohne dass der Lernende darauf Einfluss nehmen kann. Eine ähnliche Kritik vertritt BAUERLE, der der Ansicht ist, dass "auch modernere, auf den Erkenntnissen der Kognitionspsychologie fußende Ansätze, bei denen die Lernenden möglichst viel von dem, was sie verinnerlichen müssen, auch verstehen sollen, () der Theorie des Instruktionalismus [folgen]. Dies bedeutet, dass auch bei kognitivistisch geprägten Lehrmethoden (und somit bei den meisten der heute als "modern" geltenden Lernprogrammen, auch der Mehrzahl der ITS [siehe Kap. 3.3.]) der Lernende keinen Einfluss darauf hat, was er wann oder wie lernen muss." (Bäuerle, 1999: S.59/60)


Der in AUSUBELS Theorie integrierte Vorgang der Assimilation spricht desweiteren gegen eine Vorgabe von Kategorien, wie ID-Systeme sie ausführen. Neues Wissen wird dabei nicht nur in schon vorhandene Wissensstrukturen integriert, sondern es findet eine Veränderung in der Wissensstruktur statt, wobei auch das neu erworbene Wissen einer Modifikation unterliegt, da es in die Wissensstruktur eingepasst werden muss.


Eine weitere Schwäche der ID-Systeme skizziert SCHULMEISTER folgendermaßen: "Lerntheorien sind per definitionem deskriptiv, Instruktionstheorien per definitionem präskriptiv." (Schulmeister, 1997: S.137) Nach HABERMAS gilt allerdings, "dass Sätze einer deskriptiven Theorie sich nicht in präskriptive Sätze übersetzten lassen." (Habermas, 1970: S. 24) SCHULMEISTER schreibt dazu weiter: "LANDA unterscheidet Propositionen in deskriptiven Theorien mit der Form von Wenn-Dann-Aussagen, von Propositionen in präskriptiven Theorien mit der Form ,in order to do this'. Und er macht deutlich, dass Propositionen der letzteren Art nicht durch Transformationen aus Wenn-Dann-Regeln gewonnen werden können." (Schulmeister, 1997: S.138) Demnach ist es also nicht möglich, die Erkenntnisse der kognitiven Lerntheorien so in Instruktionen umzuwandeln, dass zum einen ein symbolverarbeitender Computer in der Lage ist, jene Erkenntnisse darzustellen und zum anderen dem Lernenden durch eine Instruktion ein Sachverhalt erklärt werden kann. Ein Beispiel von LANDA soll diese Ausführungen verdeutlichen: " Instruktionen der Art ,suche ein analoges Problem' oder ,versuche das Problem in kleinere Probleme zu unterteilen' sind heuristische Hinweise an den Lernenden in Problemlösungsprozessen. Sie helfen dem Lernenden, erklären aber nichts. Wenn aber Heuristiken als Instruktionen in ID vorkommen können, dann dürfte klar sein, dass der explanative Gehalt von ID gering ist." (Schulmeister, 1997: S. 138)


Ein weiteres sich stellendes Problem ist die einseitige Ausrichtung von ID-Systemen auf zu erlernende Fähigkeiten. Sollen sie jedoch in der Lage sein, einem Lehrer die Planung seines Unterrichts zu erleichtern, müssten sie auch die Einstellungen der Schüler mit berücksichtigen. Wie SCHULMEISTER schreibt, sind "Psychologische Faktoren wie Ausweichen, Unlust, Lust auf Abwechslung, u.a." nicht nur nicht enthalten, sie sind auch ein "offenes Problem" für die Programmierer solcher ID-Systeme. Eine sich da­r­an anschließende Schwierigkeit ist, dass ein ID-System nie eine Gruppe von Schülern betreuen kann, sondern immer nur ein Lernkonzept zur Verfügung stellt. Es ist also nicht in der Lage auf die unterschiedlichen Lernvoraussetzungen einzugehen. Diese Aufgabe bleibt weiterhin dem Lehrer vorbehalten, da der Lehrer in der Lage ist, ad hoc Entscheidungen in bestimmten Situationen zu treffen, die nicht nur auf der kognitiven Ebene liegen, sondern auch auf psychologischen und sozialen Hintergrundinformationen über seine Schüler beruhen. "Die Varianz, über die ein Lehrer verfügt, ist stets größer als die einer Datenbank oder einer in Form von Regeln geschriebenen Wissensbasis." (Schulmeister, 1997: S.151) SCHULMEISTER geht nicht davon aus, dass ID-Systeme je in der Lage sein werden, einen Lehrer zu substituieren.


Die ID-Systeme gehen nach einem deduktiven Ansatz vor. Hierbei werden aus allgemeinen Lernzielen, Lehrmethoden abgeleitet, die sich dann in einem konkreten Lernprozess manifestieren. Als Deduktionsproblem bezeichneten Schulmeister u.a. die Schwierigkeit, die Lernmethode von den Lernzielen abhängig zu machen. Das ID-System wird dadurch deterministisch und damit behavioristischen Lernprogrammen ähnlich, in denen der Lernende ausschließlich eine reaktive Rolle einnimmt. "Selbst wenn die Instruktionalisten ihre ursprüngliche behavioristische Grundlage verlassen zu haben glauben, steckt in ihnen noch der behavioristische Ansatz, der Lehren als Induktion und den Lernenden als Reagierenden versteht, sowie die Annahme, dass man das Ganze gelernt hat, wenn man die Teile des Ganzen identifiziert und gelernt hat." (Schulmeister, 1997: S. 146) Die Kritik zum Deduktionsproblem ist vernichtend. JONES, LI und MERRILL bezeichnen das ID-System als Indoktrination und SCHULMEISTER bezweifelt die "Freiheit des Pädagogen im Instruktionsdesign." (Schulmeister, 1997: S.146)


Einen Ausweg aus dem Deduktionsproblem suchte man in lernerorientierten Programmen. Nicht mehr der Lehrer sollte im Mittelpunkt des Systems stehen, sondern der Schüler. Aus einem Instruktionsprogramm sollte also wieder ein Lernprogramm im herkömmlichen Sinne werden. Zu einem selbstregulierenden System kann man jedoch erst kommen, wenn die präskriptiven Konzepte der Instruktionstheorien gegen deskriptive Konzepte ausgetauscht werden. Dennoch stellen VERMUNT und VAN RIJSWIJK einen allgemeinen Trend mit zunehmendem Alter hin zu extern-regulierten und reproduktionsorientierten Lernerergebnissen fest. Dies scheint die Reaktion auf das "in ihrer Lernumwelt überwiegende Angebot an expositorischer Instruktion und reproduktiven Lernsituationen" (Schulmeister, 1997: S.149) zu sein. So produziert die Instruktionstheorie ihre eigenen Schüler, die weit von Innovation oder Kreativität entfernt sind. Das eher mechanische Lernen nach AUSUBEL gerät in den Vordergrund. Das sinnvolle, verstehende Lernen scheint durch das ID nicht erreicht zu werden, wie MAYES, DRAPER u.a. bei einer Studie zur Wahrnehmung von Benutzerschnittstellen herausfand. "It seems that the necessary information is picked up, used and discarded; it is not learned in the sense that commands are learned. More exactly users retain only enough information for recognition, not the much greater amount required for recall." (Mayes, 1992: S.9/10)


Instructional design Systeme: Lernerorientiert

Eine Kontrolle des Lerners über das Programm soll das Problem der Adaptivität regeln. So ist es ID-Systemen möglich, sich an den Lerner anzupassen. Auch wenn es dem Lernprogramm nicht möglich ist, sich über eine Diagnosefunktion automatisch an den Lernenden anzupassen, so ist es doch dem Lernenden möglich über ein Auswahlmenü an Unterrichtsmethoden das Lernprogramm seinen Lerngewohnheiten anzugleichen. Es bleibt jedoch zu erwähnen, dass diese Form der Adaptivität nicht dem entspricht, was man unter einem sich anpassenden System versteht, denn hierbei müsste sich das Programm über eine Diagnosekomponente dem Lernprozess des Benutzers angleichen können. Es sind unterschiedliche Formen von Kontrollstrategien entworfen worden. CHUNG und REIGELUTH differenzieren eine Kontrolle des Lerners in die "Kontrolle über den Inhalt, die Sequenz, die Lerngeschwindigkeit, das Display bzw. die Strategie, den internen Prozess und die Beratungsstrategie." (Schulmeister, 1997: S.152) MERRILL ist der Meinung, dass es vier bewusste Strategien gibt: Selektion von Inhalten, Selektion von Displays, bewusste Kognition und Metakognition. (vgl. Merrill, 1980) MERRILL beurteilt die Auswahl der Kontrollstrategien allerdings auch sehr kritisch. So kann eine ungezielte Nutzung der Lernerkontrolle eher zu einem Leistungsabfall als zu einer Verbesserung des Lernerfolgs führen. Gerade bei schwachen Lernern oder solchen, die ohne die nötigen Vorkenntnisse mit der Lernerkontrolle umgehen, kann kein klar strukturierter Lernprozess erzeugt werden, so dass der Lernende sich in einer Fülle von Informationen verliert. Vielfach wurde aus diesen Beobachtungen die Konsequenz gezogen, den Lernenden vor solchen unüberschaubaren Systemen zu schützen.


Der Lernerkontrolle, bei der der Lernende die Kontrolle über die Steuerung des Lernprogramms übernimmt, steht also die Programmkontrolle gegenüber, bei der ein großer Teil des Lernprozesses durch den Computer gesteuert wird. SCHULMEISTER sagt hierzu: "Hier wird die Lernerkontrolle wieder zur Lernkontrolle " (Schulmeister, 1997: S.158/159). Dies ist jedoch genau der Vorbehalt, den man gegenüber ID-Systemen hatte. SCHULMEISTER sagt an anderer Stelle, dass jede Beurteilung über Vor- und Nachteile einer Lernerkontrolle von der Lernstrategie abhängt, davon ob es sich z.B. um ein ID-System oder einen Hypertext mit freier Navigation handelt. Darüber hinaus muss man verschiedene Lernstile voneinander unterscheiden, um ein konstruktives Urteil über eine Lernerkontrolle fällen zu können.


Intelligente Tutorielle Systeme (ITS)

Eine grundlegende Eigenschaft von ITS ist ihre Diagnosefähigkeit. Erwachsen aus der Kritik der Instruktionssysteme sollten die IT-Systeme adaptionsfähig gemacht werden. MANDL und HRON definieren deshalb auch Lernprogramme immer nur dann als "intelligent", "wenn sie in der Lage sind, einen flexiblen und adaptiven Dialog mit dem Lernenden zu führen." (Mandl/Hron, 1990: S. 19) Nach einem Input des Lernenden werden über eine Kommunikationsstruktur Kompetenz und Kompetenzdefizite analysiert. Dementsprechend stellt das System ein tutorielles Angebot zusammen. BAUERLE schreibt dazu: "Bei Diagnosesystemen und sog. Intelligenten Tutoriellen Systemen handelt es sich sowohl um flexible als auch adaptive Programme." (Bäuerle, 1999: S.50) Um den unterschiedlichen Anforderungen gerecht werden zu können, hat man ähnlich den Expertensystemen eine Mehrkomponentenstruktur entwickelt:

Eine Komponente, die eine Modellierung des Wissensgebietes vornimmt

Eine Komponente, die ein Modell des Lernenden konstruiert

Eine Komponente, die pädagogische Strategien bereitstellt

Eine Komponente zur Kommunikation mit dem Lernenden

Nicht bei allen ITS sind alle vier Komponenten vertreten, so bestehen einige Systeme nur aus einer Wissensbasis, andere bestehen nur aus einem Lernermodell. Im folgenden sollen jedoch alle vier Komponenten und deren Verknüpfung untereinander deutlich gemacht werden. (siehe Abb.3)


Zu a) Wissenskomponente

Diese Komponente entspricht der Wissensbasis eines Expertensystems, was nicht weiter verwundert, da IT-Systeme der KI-Forschung entlehnt sind. Ihr Programmdesign entspricht daher einem, auf den lernenden Benutzer abgestimmten, Expertensystem. Das Wissensmodell besteht aus deklarativem, prozedualem und in neueren Entwicklungen von ITS heuristischem Wissen. Im deklarativen Wissensbereich wurden Begriffe definiert und deren Vernetzung untereinander hergestellt. Das prozeduale Wissen stellt sich in Form von Regeln und Prozessabläufen dar, "mit deren Hilfe sich Probleme lösen lassen sollen." (Schulmeister, 1997: S.182) Heuristisches Wissen imitiert das Problemlöseverhalten eines Experten, wobei dieses Verhalten nicht an einen Inhalt gebunden ist, sondern in Form von Regeln den Computer in die Lage versetzen soll, den Lösevorgang des Lernenden nachzuvollziehen oder ihm vorzugeben. SCHULMEISTER unterscheidet zwei Möglichkeiten für die Gestaltung eines IT-Systems. Zum einen das Black-box-Modell, welches eine Antwort formuliert, ohne dass der Lernende den Lösungsweg nachvollziehen kann. Zum anderen das Glass-box-Modell, das als Gegenteil zum Black-box-Modell mit einer Erklärungskomponente ausgestattet ist und in der Lage ist, das Problemlöseverhalten eines Experten zu imitieren und mit Hilfe seines heuristischen Wissens dem Lernenden die Lösungsschritte erklären kann.


Zu b) Lernerkomponente

Es gibt zwei Möglichkeiten ein Lernermodell zu konstruieren. Zum einen kann das Wissen des Lernenden als Teil des Expertenwissens abgeglichen werden. KERRES spricht in diesem Fall von einem Overlay-Modell (Kerres, 1998: S. 63), zum anderen werden gegebene Antworten von einem System analysiert und immer als Abweichung zum Expertensystem betrachtet. KERRES bezeichnet diese Modelle als Differenzmodelle (Kerres, 1998: S.63). Die erstere Möglichkeit unterliegt der Schwäche, dass das System nicht erkennen kann, "ob das Wissen des Lernenden sich deshalb von dem Wissen des Experten unterscheidet, weil der Lernende nicht über es verfügt oder weil er andere Strategien als der Experte verfolgt." (Schulmeister, 1997: S.184) Auch die zweite Variante, zwischen der Antwort des Lernenden und der Vorgabe in der Wissensbasis zu differenzieren, kann letztlich nur fehlendes Wissen annehmen, nicht aber verschiedene Lösungswege voneinander unterscheiden. Selbst wenn die Wissensbasis über heuristisches Wissen verfügt, ist doch die Menge an Regeln für einen Problemlösevorgang begrenzt, so dass es letztlich nicht eindeutig möglich ist, die falsche von der richtigen Lösung zu unterscheiden.


Eine große Schwäche des Lernermodells ist das Schattendasein der bisher in der Lernpsychologie schon gut erforschten Lernstile und Lernstrategien. Nur sehr begrenzt werden entsprechende Forschungsergebnisse in Lernermodellen verwendet, wodurch es möglich wäre, individuelle Lerndiagnosen durchzuführen.


Zu c) Pädagogisches Modell

Das pädagogische Modell simuliert das Entscheidungsverhalten des Lehrers. Seine Aufgabe besteht darin, die Ergebnisse des Lernermodells, des Diagnoseverfahrens also aufzugreifen, um daraus Lernstrategien abzuleiten. Die Variantenvielfalt, den Schüler zur Einsicht seines Fehlers zu führen und ihn dabei aus seinen eigenen Fehlern lernen zu lassen, lässt sich in zwei Teilgebiete aufspalten. Einerseits gibt es Systeme, die mit Hilfe des sokratischen Dialoges, also durch ein Frage-Antwort-Spiel, den Schüler zu einer Analyse seiner eigenen Fehler zu führen. Andererseits hat sich die Coaching-Methode entwickelt, bei der fehlende Wissensbestände mit Hilfe von einfachen Übungen oder dem Probieren von Problemlösungen ausgeglichen werden sollen, wobei der Coach erklärend aktiv wird, wenn der Lerner danach verlangt.




Zu d) Kommunikationskomponente

Die Kommunikationskomponente wird für die wichtigste und entscheidendste aller 4 Komponenten gehalten. Gerade durch die Interaktion zwischen Tutor und Lernendem ist eine individuelle Anpassung des Tutors an den Lernprozess möglich. Das unterscheidet ein ITS z.B. von einem ID-System, Autorensystem oder anderen frühen kognitivistischen und behavioristischen Lernprogrammen. Dennoch war lange Zeit die Interaktion zwischen Computer und Lernendem ein großes Problem. Heute ist die Computertechnologie und sind die Programmierer in der Lage, eine audio-verbale Kommunikation zwischen Computer und Lernendem herzustellen. Dennoch bemerkt WOOLF an dieser Stelle: "Effective communication with a student does not mean natural language understanding or generation [] Rather effective communication requires looking beyond the words that are spoken and determining what the tutor and the student should be communicating about."


Ahnlich wie in ID-Systemen besteht auch bei den ITS das Problem der Operationalisierbarkeit von pädagogischen Situationen. In diesen Fällen ist eine Wenn-Dann-Abhängigkeit kaum herzustellen, auf die ein symbolverarbeitender Computer jedoch angewiesen ist. Deshalb werden auch die ITS immer in einer engen Verwandtschaft zu den behavioristischen Lernprogrammen stehen, wobei die Programmierer gezwungen sind, pädagogische Situationen auf die nach außen sichtbaren Ausschnitte zu beschränken. SCHULMEISTER schreibt dazu: "Aber die gesamte Anlage der ITS kommt nicht darum herum, diese Konzepte als Verhaltensziele zu operationalisieren, wenn Vergleiche von Lernermodell und Wissensmodell möglich sein sollen.


Es bleibt jedoch auch bei den IT-Systemen eine entscheidende Frage, ob sich der Lernende an das Lernprogramm anpassen soll, oder ob das Lernprogramm in der Lage sein sollte, sich an seinen Schüler anzupassen. Im ersten Fall wäre man wieder bei den Instruktionsmodellen der 50er und 60er Jahre. Der zweite Fall stellt die Programmierer vor wesentlich größere Probleme. Zum einen hat die kognitive Psychologie noch nicht alle Lernparameter so erforscht, dass es einem Computer möglich wäre, sich an die Lernvorgänge des Schülers anzupassen, auf der anderen Seite würde diese Form der Adaptivität zu einer "kombinatorischen Explosion" (Schulmeister, 1997: S.201) führen. Ist es jedoch sowohl der Kognitionsforschung als auch der Computertechnologie irgendwann möglich, diese Probleme aus dem Weg zu räumen, dann wäre ein Lernprogramm auch in der Lage, sich in einer, wie SCHULMEISTER sagt "natürlichen" Form an den Lernenden anzupassen. Bis heute sind ITS aber nur in der Lage, sich grob dem Lernenden anzugleichen. SCHULMEISTER ist jedoch eher der Ausfassung, dass es solche universalen Lernermodelle nie geben wird. Sowohl in der Kognitionsforschung als auch in der KI-Forschung hat man das Problem der Universalität dadurch lösen wollen, dass man Wissensgebiete in immer kleinere Teilgebiete zergliedert hat, um die daraus entstehenden Ergebnisse zu einem immer komplexer werdenden Wissen zusammenzuschließen. Jedoch sind nahezu alle Versuche gescheitert, weil die Atomisierung den Ausgangszustand verändert. (vgl. Kapitel 1.)


Eine andere Schwäche der ITS liegt in der Verarbeitung hermeneutischer Wissensgebiete. Die Programmierer eines ITS sind nicht in der Lage ein Sachgebiet, wie z.B. "methodologisches, historisches, soziales, psychologisches, ästhetisches, anthropologisches und ethnographisches Wissen" ( Schulmeister, 1997: S. 205) in die Wissensbasis zu implementieren, da eine Formulierung in Wenn-Dann-Regeln nicht möglich ist. Natürlich bestehen auch solche Wissensgebiete aus deklarativem Wissen, doch der all­er­größ­te Teil ist dem Erfahrungswissen vorbehalten und stellt somit die Fachleute vor große Probleme.



Konstruktivistische Lerntheorien und entdeckendes Lernen mit Hypermedia-Programmen


Durch die sehr subjektive Art der Aneignung von Wissen wird das Charakteristikum der Individualität für konstruktivistische Lernprogramme sehr stark betont. Oft jedoch ist der Grad der konstruktivistischen Anforderungen an sich so offen, dass es schwierig ist, ein Lernumfeld zu schaffen. Mit Hypertexten ist es aber nicht nur gelungen, eine ganz neue Form von Lernprogrammen zu erschaffen, sondern es ist den Designern auch geglückt, ein Computerprogramm auf eine Lerntheorie zuzuschneiden, wie SCHULMEISTER an später noch zu zitierender Stelle erwähnt (siehe Kap. 3.1.).



Konstruktivistische Lerntheorien

"Der Konstruktivismus ist keine Theorie des Seins, formuliert keine Aussagen über die Existenz der Dinge an sich, sondern ist eine Theorie der Genese des Wissens von Dingen, eine genetische Erkenntnistheorie" (Schulmeister, 1997: S.73) Konstruktivistische Lerntheorien beziehen sich auf situative Lernprozesse. "Lernen entwickelt sich aus Handeln, Handeln vollzieht sich in sozialen Situationen, Denken und Kognition sind demzufolge situativ. Oder mit den schlagkräftig formulierten Sätzen von MATURANA und VARELA: ,Jedes Tun ist Erkennen, und jedes Erkennen ist Tun.' " (Schulmeister: 1997: S.75) Für den Lernprozess bedeutet dies, dass das Augenmerk darauf gelegt werden muss, dass Kognition in situ geschieht, kontextuell gebunden oder "situiert" ist. NEISSER prägte die Formel: "Wir sehen nur das, was wir wissen." Jedes Wissen wird kontextuell erworben. Jedes Wissen ist also hermeneutisch und damit der Subjektivität unterworfen und lässt sich im Gegensatz zu den Aussagen der Kognitivisten nicht in starre Begriffs- oder Erklärungskategorien einordnen. Nach dem Konstruktivismus ist der Wissenserwerb einer noch zu beschreibenden Dynamik unterworfen.


PIAGETS Theorie der genetischen Epistemologie

PIAGET war zweifellos der Pionier der konstruktivistisch orientierten Kognitionsforschung des 20. Jahrhunderts. 1980 starb er im Alter von 84 Jahren. Er war in unterschiedlichen wissenschaftlichen Disziplinen zu Hause. Dazu gehörte  Biologie, Psychologie und insbesondere Kognitionspsychologie. Er beschäftigte sich mit der Wahrnehmung, dem Erkennen und dem Gedächtnis.


PIAGET ging davon aus, dass die Entwicklung menschlichen Erkennens vom äußeren zum inneren Handeln vollzogen wird. Hierbei setzt sich der Mensch handelnd und wahrnehmend mit seiner Welt auseinander. Dabei verinnerlicht er bestimmte Handlungsschemata, die sich wiederum über den Vorgang der Assimilation und Akkomodation bilden. Mit zunehmender Handlungskompetenz erreicht der lernende Mensch immer höhere Komplexitätsstufen. Unter Assimilation versteht PIAGET den Umgang mit etwas Neuem als Assoziation von etwas Bekanntem. Ahnlich dem Lochkartensystem wird der Organismus ein Erlebnis in bereits verfügbare begriffliche Strukturen einpassen. Andersherum gesagt nimmt der Organismus nur das wahr, was in seine schon bekannten Strukturen hereinpasst. Assimilation ist stets eine Reduzierung neuer Erfahrungen. Assimilation ist bei PIAGET anders zu verstehen als bei AUSUBEL, da bei AUSUBEL in der Assimilation der Vorgang der Akkomodation eingeschlossen ist. PIAGET hat den Wissenserwerb jedoch in diese zwei Komponenten geteilt. Durch die Akkomodation wird das Neue den schon vorhandenen kognitiven Strukturen hinzugefügt, wodurch sich nicht nur die Struktur selbst ändert, sondern auch das Einzufügende. Die häufigste Ursache von Akkomodation ist die sprachliche Interaktion. Der Vorgang der Assimilation und Akkomodation setzt die Fähigkeit der Objektkonstanz voraus. Hiermit meint PIAGET die fast selbstverständliche Tatsache, Gegenstände auch dann als existent zu betrachten, wenn man sie nicht sieht. Die Motivation, die die Assimilation und Akkomodation vorantreibt, ist die Aquilibration. PIAGET bezeichnet damit ein Gleichgewichtsbedürfnis zwischen der Erwartung des Eintretens einer bestimmten Situation und deren tatsächlichem Verlauf. Ergeben sich hier Diskontinuitäten, muss das Handlungsschema verändert werden. PIAGET hat diese Veränderung der Handlungsschemata noch erweitert, indem er den Subjekt-Objektzirkel eingeführt hat. Hiermit weist PIAGET auf die genetische Entwicklung der Schemata[2] hin und fügt hinzu, dass sich diese Schemata im Laufe eines Lebens ändern (z.B. Erinnerungen an die Kindheit: Der Umgang mit den Eltern, Bruder, Schwester, Oma), so dass die von Piaget entworfene konstruktivistische Lerntheorie einer Dynamik unterworfen ist, die bisher bei keiner der vorgestellten Lerntheorien zu finden war.





Zusammenfassend ist also zu sagen, dass kognitive Veränderungen und Lernen nach PIAGET immer dann auftreten, wenn ein Schema statt des erwarteten Ergebnisses zu Störungen führt, und wenn diese Störungen ihrerseits eine Akkomodation nach sich ziehen, die ein neues Aquilibrium herstellt. Wissen[3] und Lernen ist also nichts anderes als eine höhere Form der Anpassung an die Umwelt.


BRUNERS pädagogisch-methodisches Konzept auf der Basis der PIAGETschen Theorie

Es fällt schwer, die umfassende Theorie BRUNERS einer bestimmten Lerntheorie zuzuordnen. Seine Beiträge zur Kategorisierung von Begriffen und deren Zusammenfassung in Regeln würde man eher den kognitivistischen Lerntheorien zuordnen (vgl. Le Francois, 1995: S.108ff), während seine Ausführungen zum "entdeckenden Lernen" eher in einer nahen Verwandtschaft zu der konstruktivistischen Erkenntnistheorie nach PIAGET steht. Unter entdeckendem Lernen versteht BRUNER allgemein die selbstlernende Erschließung eines Wissensgebietes, wobei der Lehrer nur eine beobachtende und helfende Funktion hat.


Da der Lehrer seine Schüler nie auf jede mögliche Situation vorbereiten kann, muss der Lernende schon früh beginnen, Techniken zum Problemlösen zu entwickeln. Nach BRUNER ist es wichtig, solche Problemlösetechniken zu üben. Es sind vier Merkmale des entdeckenden Lernens nach BRUNER zu benennen:


Transferförderung

Der Schüler geht mit gelerntem Wissen induktiv um, das heißt, er sucht nach jeder neu gelernten Wissenseinheit nach Gemeinsamkeiten in seiner schon vorhandenen Wissensstruktur und formuliert daraufhin Regeln, um sich bestimmte Gemeinsamkeiten erklären zu können. Je mehr Einzelfälle er kennenlernt, umso präziser werden seine Regeln, so dass er nach einer gewissen Weile in der Lage ist, auf der Basis seiner Regel ungewisse Faktoren vorherzubestimmen. Er ist dann also in der Lage von der Regel, dem Allgemeinfall, auf den Einzelfall zu schließen. Solche Gedankengänge bezeichnet BRUNER als deduktiv. In dem Vorgehen des Schülers ist die genetische Theorie PIAGETS wiederzuerkennen. Jeder neue Einzelfall wird assimiliert, also als Differenz zu den bisherigen Beobachtungen verstanden, und durch Akkomodation in die Wissensstruktur eingebunden. Je mehr Einzelfälle dem Schüler bekannt werden, desto komplexer wird die Wissensstruktur oder das Schema.


Problemlösefähigkeit

Hierzu gehört die Fähigkeit, die Lösung eines Problems relativ selbstständig anzugehen. Der Lernende muss in der Lage sein, "die Problemstellung zu analysieren, Hypothesen zu formulieren und zu prüfen." (Edelmann, 1996: S. 216) Beherrscht der Schüler diese Eigenschaft, hat er gelernt, zu lernen, so BRUNER.


Intuitives Lernen

Hiermit sind Einfälle gemeint, deren Herkunft nicht in Worte zu fassen sind. Der Volksmund nennt solche Einfälle auch "Geistesblitze". Intuitives Denken ist zurückzuführen auf die Vertrautheit in einem bestimmten Wissensgebiet. Hierdurch ist der Lernende in der Lage, bestimmte Denkfolgen zu überspringen, um schneller zu seinem Ziel zu gelangen.


Förderung der intrinsischen Motivation

Es wird beim entdeckenden Lernen eine Neugier gegenüber einem Wissensgebiet erzeugt, indem man nur Bruchstücke bekannt gibt, und die Fülle der Informationen von dem Schüler entdecken lässt. Diese Neugier wirkt motivierend auf den Schüler, neues Wissen zu erlangen.



Konstruktivistische Lernprogramme

Es ist gerade die Nicht-Linearität von konstruktivistischen Lernprogrammen, die es dem Benutzer, nach den Erkenntnissen der strukturgenetischen Theorie PIAGETS, ermöglicht, nach seinen eigenen Konstrukten neues Wissen zu assimilieren und zu akkomodieren. "Lernen als Prozess, Lernen in Wissensgemeinschaften und kontextbezogenen Lernumwelten steht im Mittelpunkt des Konstruktivismus. Es wird daher verständlich, dass das Augenmerk der Konstruktivisten auf jenen höheren Lern- und Denkprozessen wie Interpretieren und Verstehen liegt, die Instruktionalisten bewusst ausgespart haben." (Schulmeister, 1997: S.166)


Hypertext - Hypermedia

SCHULMEISTER ist eine Unterscheidung der Begriffe "Multimedia" oder "Hypermedia" sehr wichtig. "Hypermedia ist ein Subset von Hypertext, und Hypermedia ist zugleich ein Subset von Multimedia. Vermutlich ist es besser, Multimedia und Hypertext als zwei unabhängige Entitäten mit einer Schnittmenge zu betrachten, die man als Hypermedia bezeichnet." (Schulmeister, 1997: S.23) Der Begriff "Multimedia geht dabei für SCHULMEISTER über einen Zusammenschluss verschiedener Medien weit hinaus. In einer Zusammenfassung formuliert er, Multimedia sei eine "interaktive Form des Umgangs mit symbolischem Wissen in einer computergestützten Interaktion." (Schulmeister, 1997: S.22)


Historisch gesehen, besteht ein Hypertextsystem aus einem Text, der so als Datei gespeichert ist, dass es möglich ist, mit Hilfe von Links, interaktiven Textverweisen, in der Textstruktur zu springen. Der Hypertext ermöglicht dem Benutzer, eine unüberschaubare Datenmenge zu strukturieren. Der Computer schien für diesen Zweck prädestiniert zu sein. NIELSEN schreibt hierzu: "That hypertext is fundamentally a computer phenomenon [] Hypertext can only be done on a computer, whereas most other current applications of computers might just as well be done by hand." (Nielsen, 1995: S.16) Mit diesen Systemen ist es den Autoren gelungen, dem Computer eine Aufgabe zuzuschreiben, die seinem Charakteristikum gerecht wird, nämlich riesige Datenmengen zu speichern. Es ist für einen symbolverarbeitenden Computer ein Leichtes, jene Datenmengen, also auch Symbole miteinander zu verknüpfen, das entspricht seiner "Eigenart". Heute können Hypertexte aber auch mit Bildern, Videosequenzen und Musik verbunden sein. Deshalb werden solche Systeme heute auch Hypermedia-Systeme genannt. Der wohl bekannteste und größte Hypertext ist das World Wide Web. Das Surfen durch das Internet ist vergleichbar mit der Arbeitsweise an einem Hypertextprogramm.


Hypertexte können den unterschiedlichsten Anforderungen entsprechen. Ahnlich den ID-Systemen können sie den Trainer oder Lehrer bei der Auswahl seiner Lehrmethode unterstützen. Es ist aber auch möglich, Hypertextsysteme dem Schüler als Lernprogramm zur Verfügung zu stellen. Letztlich kann es ebenfalls der schlichten Darbietung von Informationen dienen, wie sie z.B. durch das Internet repräsentiert wird.


SCHOOP und GLOWALLA formulieren vier Strukturelemente eines Hypertextsystems:

strukturelle Aspekte

operationale Aspekte

mediale Aspekte

visuelle Aspekte

Im Folgenden sollen diese vier Elemente so erklärt werden, dass es möglich ist, sich eine Vorstellung von der Funktionsweise eines Hypertextsystems zu machen (siehe Abb.4):


Die Struktur eines Hypertextsystems besteht aus Knoten, Links und Ankern. Die Knoten vernetzen einzelne Begriffe untereinander. Sie sind zu vergleichen mit Straßenkreuzungen, da in einem Knoten mehrere Textpfade aufeinandertreffen. Man unterscheidet große und kleine Knoten. Je mehr Pfade von einem Knoten ausgehen, desto größer ist er. "Knoten können Beispiele, Annotate, Literatur, andere Titel, Bilder, Töne oder Filme sein." (Schulmeister, 1997: S.252) Links und Anker sind die Verknüpfung zweier Knoten. Hierdurch kann der Benutzer zu einem anderen Themengebiet springen. "Diese Links stellen die Verbindung zwischen der Textstelle im Ausgangsdokument (Knoten) und dem Ziel her, an das der Leser geführt werden soll ("Anchor" = engl. für Anker)" (Bäuerle/Schröter, 1999: S. 70) In den meisten Fällen wird das Link oder der Anker im Hypertext speziell markiert, sei es durch eine andere Farbe, Veränderung des Cusors o.ä.. Weiterhin unterscheidet man unidirektionale und bidirektionale Links. Während die unidirektionalen Links in einer Sackgasse enden, verweisen bidirektionale Links, wiederum an einen neuen Knoten, wobei der Benutzer in zwei Richtungen navigieren kann.


Mit operationalen Aspekten meinen SCHOOP und GLOWALLA die Navigation innerhalb des Hypertextes, häufig auch als "browsing" bezeichnet. Sie entspricht der Lernerkontrolle bei den behavioristischen und kognitivistischen Lernprogrammen und unterliegt einer ähnlichen Spannung zwischen einem eher lernerdeterminierten und einem eher programmdeterminierten Lernprozess. Erst wenn sich die Designer über die Zielgruppe im Klaren sind, ist diese Frage ernsthaft zu beantworten. Das Risiko des "lost in hyperspace" liegt nur bei Erstbenutzern und Neulingen in einem Wissensgebiet vor. Hat der Lerner ein klares absehbares Lernziel vor Augen oder hat er sich an die Hypertextumgebung gewöhnt, ist das oben beschriebene Risiko geringer. Auch SPIRO und JEHNG halten Hypertextsysteme für erfahrene Lerner für geeigneter: "It is best suited for advanced learning, for transfer/application learning goals requiring cognitive flexibility, in complex and ill-structured domains rather than introductory learning, for memory tests, in simpler domains." (Spiro/Jehng, 1990: S.167) Die Programmdesigner von Hypertextsystemen sind hier der Wahl zwischen eher strikteren Navigationsformen oder eher offenen Navigationsformen ausgesetzt. Es kann auch eine Vorliebe für das entdeckende Lernen die Wahl zwischen diesen beiden Navigationsformen bestimmen, da hier sicherlich die offene Navigationsform präferiert würde, um dem Lernenden "ein gewisses Maß an Desorientierung zu bieten." (Schulmeister, 1997: S.59)


Ein ähnliches Problem stellt das der Granularität dar. Man bezeichnet damit die Größe der Informationseinheit. Je größer die Informationseinheit, desto schwächer ist der Einfluss des Hypertext-Charakteristikums. Werden aber die Informationseinheiten zu klein gewählt, kann dies zu einer Verfremdung der Gesamtinformation führen und den Lerner im Aufbau seiner kognitiven Konstrukte stören oder sogar verwirren. Zur Lösung des Problems der Granularität schlagen LAVE und WENGER die Einbettung des Hypertextsystems in eine Erzählung, eine Story, vor. Hierdurch kann man die Informationseinheiten relativ klein wählen, um sicherzustellen, dass sie inhaltlich nicht allzu komplex werden. Durch die im Hintergrund erzählte Geschichte ist man dennoch in der Lage, die Zusammenhänge herzustellen. Einer Story gelingt es also, die für den Lerner unabhängig nebeneinanderstehenden Informationen inhaltlich zu strukturieren.


Durch die verschiedenen Formen von Verbindungsarten (siehe Abb.4) ist es möglich, die unterschiedlichen Möglichkeiten von Autorensteuerung zu verdeutlichen:

Pfade verbinden Knoten miteinander, ohne einen Knoten zweimal anzusteuern. Ringe hingegen führen den Lerner durch einen cyclischen "Lernweg", bei dem Startpunkt und Ziel identisch sind. Speichen wiederum sind den Pfaden sehr ähnlich. Sie sind eine lineare Verbindung zwischen zwei Knoten, sie führen den Lerner jedoch wieder zu seinem Ausgangspunkt zurück und zwar über den gleichen Weg, den sie schon auf dem Hinweg genommen haben. Durch diese verschiedenen Verbindungsarten ist es möglich, als Autor den Lerner während seines Lernprozesses zu steuern. Je dominanter die Verbindungen zwischen den Knotenpunkten ist, um so autorengesteuerter ist das System. Ist es möglich in einem Programm ohne Ziel zu "browsen", sind eine Reihe anderer Orientierungshilfen entworfen worden, die im Folgenden beschrieben werden sollen.


KUHLEN benennt eine Reihe gebräuchlicher hypertextspezifischer Orientierungs- und Navigationsmittel: "graphische Übersichten ("Browser"), vernetzte Ansichten ("web views"), autorendefinierte Übersichtsmittel, Pfade ("path/trails"), geführte Unterweisungen ("guided tours"), "Backtrack"-Funktionen, Dialoghistorien, retrospektive graphische (individuelle) Übersichten, leserdefinierte Fixpunkte ("bookmarks"), autorendefinierte Wegweiser ("thumb tabs"), Markierung gelesener Bereiche ("breadcrumbs")." (Kuhlen, 1991: S.144ff.)


Der mediale Aspekt der Hypertextprogramme wurde schon angesprochen und leitete eine neue Entwicklung im Bereich der Hypertextsysteme ein, die Hypermediaprogramme. So ist heute ein Hypertextprogramm als solches kaum noch zu erkennen, da es von einem reichhaltigen Angebot an verschiedenen Programmen überlagert ist.


Der visuelle Aspekt spielt für die Orientierung innerhalb eines Hypertextes eine wichtige Rolle. Aus diesem Grund haben Designer eine Menge von Alternativen entwickelt, die vom klassischen Inhaltverzeichnis abweichen. Unter dem Sammelbegriff "Knowlegde Maps" oder graphische Browser werden graphische Darstellungen von Hypertext-Knoten verstanden. Die unterschiedlichen Abbildungen der Inhaltsübersichten können zweidimensional, dreidimensional oder hierarchisch sein. Die Zukunft soll in dynamischen Verknüpfungen liegen, d.h. dem Benutzer werden durch das Programm nur solche Verknüpfungen zur Verfügung gestellt, die seinen aktuellen Bedürfnissen entsprechen. Für solche Anwendungen müssen jedoch erst die Diagnosesysteme weiterentwickelt werden. Neben der graphischen Darstellung der Verknüpfung von Hypertext-Knoten können aber auch die Relationen von Hypertext zu Echt-Weltphänomenen repräsentiert werden. Hierdurch bliebe die Wissensbasis nicht systemimmanent, sondern es würden ebenfalls Verknüpfungen außerhalb des Systems aufgebaut werden.


Von vielen Autoren werden die Vorteile des Hypertextsystems für den Lerner hervorgehoben. So stellt z.B. SCHULMEISTER fest, dass es durch Hypertexte auch möglich ist, hermeneutische Wissensgebiete zu repräsentieren. Allerdings nicht in der Form eines instruktionellen Lernprogramms, sondern als eine Darbietung von Informationsvielfalt. Dadurch ist es möglich, die Ergebnisse von Verhaltensmodifikationen innerhalb einer bestimmten Situation anzugeben. Die Menge der Verhaltensmodifikationen bleibt dennoch weiter beschränkt, um das System vor dem ewig gefürchteten unendlichen Regress zu bewahren. Trotzdem zeigen Hypertexte in diesem Bereich eindeutig Vorteile gegenüber den bisher vorgestellten behavioristischen und kognitivistischen Lernprogrammen, die sich auf die Präsentation von Faktenwissen, d.h. deklarativem Wissen beschränkt haben, mit Ausnahme der Courseware-Systeme.

TERGAN stellt die Ahnlichkeit zwischen menschlichem Denken und einem Hypertextprogramm heraus und behauptet: "Das Arbeiten mit modernen Hypertext/Hypermedia-Systemen entspricht einem aktiven Aufsuchen, Explorieren, kognitiven Verarbeiten, Umstrukturieren und (falls vom System unterstützt) Kreieren von Informationsknoten unter Nutzung einer interaktiven graphischen Benutzeroberfläche." (Targan, 1995: S.124) Die Strukturgleichheit von Hypertext und Denken wird von SCHULMEISTER auch als die "Hypothese der kognitiven Plausibilität von Hypertext" bezeichnet. Dieser Parallelisierung zwischen der Arbeit des menschlichen Gehirns und der Funktionsweise eines Hypermediaprogramms stimmt BAUERLE jedoch nur bedingt zu: "Dagegen wird jedoch häufig eingewendet, die komplexe Assoziationsstruktur des menschlichen Gedächtnisses könne nicht so ohne weiteres durch ein Netz aus Hypertext-Links nachgestellt werden." (Bäuerle, 1999: S. 73) Dennoch, so BAUERLE weiter, sei eine assoziative Lernumgebung immer einer linearen vorzuziehen. Es soll dem jedoch entgegengesetzt werden, dass jeder Lernsituation und jedem Lernziel eine ihr eigene Lernumgebung zugewiesen werden muss. So ist z.B. der Erwerb wissenschaftlicher Fakten immer einer Linearität unterworfen, da die Wissensstrukturen aufeinander aufbauende sind.


SCHULMEISTER hat auf der Basis der konstruktivistischen Lerntheorien sieben Postulate an ein Lernprogramm aufgestellt:

Aktivität des Lernenden: Der Lernende selbst bestimmt den Aufbau oder die Umstrukturierung von Konstrukten.

Situativität des Lernenden: Der Lernende ist der Kontextgebundenheit unterworfen.

Interaktivität des Wissenserwerbs: Nur durch die Interaktion mit anderen können letztendlich Wissensstrukturen aufgebaut werden.

Kumulation von Informationen: Informationen werden mit allen schon vorhandenen Strukturen verknüpft.

Konstruktivität des Wissenserwerbs: Aufbau von Konstrukten.

Zielorientierung des Lernenden: Am erfolgreichsten wird der Schüler lernen, wenn er das Ziel kennt.

Selbstregulierung des Lernenden: Da die Aussagen konstruktivistischer Lerntheorien jedem Individuum einen eigenen Erkenntnisprozess zuordnen, ist es wichtig, dass der Lernprozess nicht auf einer Instruktion beruht, sondern aktiv und selbstbestimmt ist.

Der Hypertext scheint in den meisten Punkten den Anforderungen an ein konstruktivistisches Lernprogramm zu genügen. Oft fällt es jedoch schwer, den Aspekt der Interaktivität in den computergebundenen Lernkontext mit einzubeziehen, da die Arbeit mit einem Hypermedia-Programm zwar individuell, dadurch jedoch meist auch sehr einsam ist. Ein ähnlicher Konflikt ergibt sich bei der Betrachtung des Aspektes der Zielorientierung. Häufig fällt es den Designern von Lernprogrammen schwer, zu definieren, wieviel Zielorientierung der Benutzer benötigt. Vielfach werden zieldefinierte Programme programmdeterminiert, wie sich schon bei der Modellierung eines Navigationssystems bei Hypertexten herausstellte.


Neben den Hypertextsystemen hat sich eine Reihe anderer Formen entwickelt, die sich ihrer offenen Struktur bedienen. So wurden zum Beispiel Lexika und Enzyklopädien als Hypertext konstruiert. Ihr Vorbild bleibt dabei das geschriebene Buch, so dass sie in einer Programmumgebung als elektronische Bücher bezeichnet werden. Das elektronische Buch lässt sich dennoch aufgrund seiner charakteristischen Eigenschaften von einem Hypertext unterscheiden. Einerseits sieht der Benutzer zu einem bestimmten Kapitel das Layout einer Buchseite vor sich, andererseits kann der Benutzer durch Skip-Tasten das Umblättern einer Buchseite simulieren. Folgende Elemente sind in einem Großteil von elektronischen Büchern zu finden:

Eine Suchoption, die es dem Benutzer ermöglicht, mit Hilfe unterschiedlicher Suchkriterien schnell an die Informationen zu gelangen, die für ihn relevant sind.

Eine Markieroption, um Lesezeichen zu setzen und wichtige Textstellen zu markieren.

Ein Inhaltsverzeichnis, um dem Benutzer die Orientierung zu erleichtern.

Links, wie man sie aus den Hypertexten kennt, jedoch ist ihre Verknüpfung meist nur unidirektional und führt somit nicht zu einem verknüpften Netz, sondern gibt Zusatzinformationen oder Erklärungen an.

Man sieht am Beispiel der Lexika, dass die Umsetzung in ein elektronisches Buch sinnvoll sein kann. Dennoch darf nicht vergessen werden, dass es weiterhin durchaus Textgattungen geben wird, bei denen eine lineare Verwendung sinnvoller erscheint (z.B. Romane, wissenschaftliche Arbeiten). Es hängt also immer von der Art der Wissensvermittlung ab, ob sich eine lineare oder eine nicht lineare Programmgestaltung eignet.


Eine andere Form von Hypertextsystemen sind die sogenannten KIOSK-Systeme. Sie sind wesentlich unverzweigter als ein Hypertextprogramm. Ihre Anwendung finden sie in erster Linie in der Präsentation. Gegenwärtig machen sich jedoch eher Versandhäuser, Museen und das Marketing diese Technologie zunutze. Ihre Struktur ist fest verdrahtet und stark von Autoren geleitet. Eines der Grundelemente von KIOSK-Systemen sind die "guided-tours". Hier haben die Autoren einen Weg durch das System für den Benutzer vordefiniert, um ihn z.B. in ein unbekanntes Wissensgebiet einzuführen. In Lernprogrammen werden sie als Instruktionsteil eingebaut. Die Grenzen zwischen KIOSK-Systemen und Hypertexten sind schwimmend. Je komplexer das System, desto hypertextähnlicher wird es.


Simulationen

Simulationen können in vielen Lernprogrammen zur Anwendung kommen, werden von SCHULMEISTER jedoch als "einer der Stützpfeiler des Konstruktivismus" (Schulmeister,1997: S.374) benannt. Sie dienen der Nachahmung von komplexen Maschinen, Prozessen, Modellen und Systemen. Sie werden als dynamische Systeme bezeichnet, weil es dem Benutzer ermöglicht wird, durch die Anderung von Parametern die Auswirkungen auf das Gesamtsystem zu beobachten. "Der entscheidende Vorteil dieser Simulationen liegt darin, dass sie ohne finanzielles Risiko Entscheidungsabläufe in Echtzeit erlauben." (Bäuerle, 1999: S.10)


Unter einer Simulation, so SACHER, "versteht man das Arbeiten und Experimentieren mit einem Modell anstelle eines realen Objekts", wobei "ein Modell ein vereinfachtes Bild einer Klasse originaler Objekte ist." (Sacher, 2000: S.159) Zu ihrer Erstellung werden reale Abläufe beobachtet. Aufgrund der Differenz zwischen Ausgangs- und Endzustand werden Regeln formuliert, lassen sich diese in die Form eines Algorithmus bringen spricht man von einer Computersimulation (vgl. Sacher, 2000: S.159). Nach WEDEKIND basiert somit jede Computersimulation auf Modellen, genauer auf operativen Modellen, mit denen eine aktive Auseinandersetzung möglich ist (vgl. Wedekind, 1981: S.35).


Viele Ansätze und Begründungen zum Lernen mit Modellierungsprogrammen und Simulationen entwickeln sich aus dem Problemlösen oder dem entdeckenden Lernen, andere aus dem Ansatz Lernumwelten, situierte Kognition und dem Konstruktivismus." (Schulmeister, 1997: S.378) Die Gemeinsamkeiten aller Ansätze sind dem Lernprozess bei Simulationen zu entnehmen. DUFFIELD unterscheidet hierbei 4 Phasen:

Analyse der Ergebnisse



Hypothesengenerierung

Hypothesentesten

Evaluierung

"Simulationen fordern eine Begründung durch kognitionspsychologische und konstruktivistische Theorien geradezu heraus, obwohl [] hier  die Unterscheidung zwischen wissenschaftlicher Methodologie und psychologischen Denkprozessen beachtet werden muss. Simulationen werden deshalb auch gern für das Training von Problemlösungsprozessen eingesetzt." (Schulmeister, 1997: S.379) Die oben von SCHULMEISTER beschriebene Unterscheidung soll an dieser Stelle besonders hervorgehoben werden, da Simulationen dazu verführen Variablen an Grenzwerten zu orientieren, um mögliche Auswirkungen auf die Umwelt zu evaluieren. Für forschende Zwecke ist das wohl angebracht, für Ausbildungszwecke ist bei dieser Nutzung von Simulationen jedoch eine große Gefahr zu sehen, da hierdurch keine Assimilation mit realen Abläufen stattfinden kann.


Es sei noch auf den modellhaften Charakter einer Simulation hingewiesen. Modelle können immer nur einen Teil der wirklichen Abläufe darstellen. Sie sind also einer starken Reduktion unterworfen. BAUERLE bemerkt hierzu: "Keine Computersimulation wird alle Möglichkeiten dieser Situation berücksichtigen können." (Bäuerle, 1999: S.11) So bleibt vielfach eine Erprobung bestimmter Abläufe in der Realität unerlässlich.


Gesamtüberblick über alle vorgestellten Lernprogramme und aktuellen Entwicklungen

In einer abschließenden Zusammenfassung sollen noch einmal alle Lernprogramme in einer Übersicht vorgestellt werden.


Lern-theorie

Lernprogramm

Komponenten

Vorteile

Nachteile

Behavioristische Lerntheorie

Programmierte Instruktion

Instruktion

Prüfung

kleine Lerneinheiten

Häufiges Feedback zum Verstärken der Motivation

Unmittelbares Feedback

Leichter Wiedereinstieg in das Programm

indifferente Unterscheidung in richtig und falsch

stark lineare Programmstruktur

standardisiertes Feedback

demotivierende Monotonie

Suggestivfragen

Transferproblem

Autorensysteme

Autorenschnittstelle

Benutzerschnittstelle

Algorithmen zum Umsetzen des Autoreninputs

Verzweigung des Programms

Individualität durch Autorenschnittstelle

Programmieren für den Laien wird möglich

unverhältnismäßig lange Programmierzeit

keine Adaptivität

kurzfristige Lerneffekte

expositorische Instruktion

Courseware, CBT

unterschiedliche Komponenten aus unterschiedlichen kognitiven Werkzeugen

ansprechende Gestaltung

Multimediasysteme

Repräsentation hermeneutischer Wissensgebiete

geschlossenes System

keine Adaptivität

Kognitivistische Lerntheorie

ID-Systeme

Lehrerorientiert

Autorenschnittstelle

Expertenschnittstelle

Erleichterung bei der Vorbereitung des Unterrichts

Der Lerner bleibt reaktiv

programmdeterminiert

die kognitiven Theorien sind nicht mit einem Instruktionsprogramm vereinbar

können helfen, aber nicht erklären

Deduktionsproblem

ID-Systeme

Lernerorientiert

Lernerkontrolle

Wissensbasis

Benutzerschnittstelle

Anpassung des Lerners an das System


Anfänger haben Schwierigkeiten im Umgang mit der Lernerkontrolle

IT-Systeme

Wissensbasis

Benutzerschnittstelle

Expertenschnittstelle

Diagnosefähig

Möglichkeit zur Interaktion mit dem Programm

kein Einbezug von Lernstilen innerhalb der Inferenzkomponente

keine Verarbeitung hermeneutischer Wissensgebiete möglich

Konstruktivistische Lerntheorie

Hypertext - Hypermedia

Links

Knoten

Naviga­tionskomponente

Knowledge Maps

Nicht-linear

können sowohl Lehrer- als auch Lernerorientiert sein

entdeckendes Lernen möglich

Repräsentation hermeneutischer Wissensgebiete

Anpassung des Lerners an das System

verirren in der Informationsfülle


Simulationen

Modell

Dynamische Berechnung des Modells

dynamisches System

"Stützpfeiler des Konstruktivismus"

können auch bei praktischen Fähigkeiten anleiten

Reduktion der Wirklichkeit



Es bleibt festzuhalten, dass jedes Lernprogramm seine eigenen Schwächen und Stärken besitzt. Es ist deshalb auch nicht möglich, ein behavioristisches Lernprogramm durch ein kognitivistisches oder gar konstruktivistisches Lernprogramm zu substituieren. So klassifizieren MIDORO und OLIMPO Lernprogramme nach ihrer Adaptivität, Navigabilität und ihrer Reaktivität. Während z.B. Hypertexte Vorteile in der freien Navigation bilden und so dem Lerner die Möglichkeit zum entdeckenden Lernen geben, besitzen die ITS die Charakteristik, sich an den Lerner anzupassen, weil sie mit einer intelligenten Diagnoseschnittstelle ausgestattet sind. Simulationen wiederum können sehr variabel auf die Eingaben des Lernenden reagieren und gelten deshalb als besonders dynamisch (vgl. Midoro/Olimpo, 1991: S.181). In aktuellen CBT-Entwicklungen werden die vorgestellten Lernprogramme zusammengeschlossen. Es handelt sich bei aktuellen Programmentwicklungen um Multikomponentensysteme. So ist es möglich, ein Lernprogramm mit einem komplexen Anforderungsprofil zu konstruieren.


Das Erschließen der neuen Medien, wie z.B. des Internet oder Multimedia-Anwendungen wird als ein entscheidender Faktor im deutschen Bildungssystem bezeichnet. So ist in den Empfehlungen zur Erneuerung des Bildungswesen zu lesen: "Der Zugang zum Internet wird zu einem entscheidenden Faktor für die Qualität von Bildung und Ausbildung." (Empfehlungen 1999: S.39) Der ehemalige Bundespräsident HERZOG merkt jedoch kritisch an: "Wir müssen die Pädagogik für das Informationszeitalter aber erst noch erfinden." (Herzog, 1999: S.20)


Deutlich wird dieser von Herzog bedenkenswerte Einwand, in einem kürzlich veröffentlichten Aufsatz von SCHULMEISTER. Er beschäftigt sich mit den im Internet zu findenden Lernprogrammen und im speziellen mit virtuellen Universitäten. Schulmeister kommt zu dem Schluss, dass sich das Lernangebot virtueller Universitäten nicht von dem der Präsenzuniversitäten unterscheidet, häufig sogar die Präsenzuniversitäten ein weitergehendes Angebot zu bieten haben. SCHULMEISTER gibt fünf Leistungen an, die das Profil einer virtuellen Universität ausmachen:

"Qualität der didaktischen Materialien im Netz

Qualität der moderierten Seminare im Netz

Intensität der tutoriell begleiteten Arbeitsgruppen im Netz

Die Kommunikation im Chat-Modus

Das Selbstlernen im interaktiven Modus" (Schulmeister, 1999: S. 169)

Durch die Analyse einzelner Aspekte kommt SCHULMEISTER zu der Überzeugung, dass die meisten der angebotenen Medien in virtuellen Universitäten "einfache Rückgriffe auf Methoden des Programmierten Unterrichts" (Schulmeister, 1999: S. 170) sind. Solche Medien werden nicht nur sehr schnell den Lerner demotivieren, sondern auch die Lerneffizienz auf ein Minimum reduzieren (siehe Kap.1.1.). Bei der Betrachtung virtueller Seminare stellt SCHULMEISTER heraus, dass dieser Aspekt nicht der Virtualität angepasst wurde, sondern "an realen Seminarformen orientiert ist." (Schulmeister, 1999: S.171) Die zusätzlich von diesen Universitäten angebotene Lernsoftware ist meist nicht über das Internet selbst zu erschließen, sondern wird per CD-Rom an den Benutzer geschickt.  Seine Untersuchungen zu den Lernprogrammen fallen sehr positiv aus. Er relativiert jedoch auch seine Aussage, indem er die gigantische Informationsflut des Internet in Relation setzt zu den hervorgebrachten Lernprogrammen. In einer abschließenden Bewertung weist SCHULMEISTER noch einmal auf die Entpädagogisierung durch das Internet hin. Hier wurden auf ein modernes Informationsmedium veraltete didaktische Methoden angewandt. Das hat dazu geführt, dass man die Erkenntnisse der Kognitionspsychologie vernachlässigt hat zugunsten der alten Instruktionstheorien. Schulmeister fordert, "dass den Lernenden mehr Raum zur aktiven Dokumentation und zum Austausch ihrer Denkprozesse, mehr Raum für aktives Tun und für das Konstruieren von Wissen und Programmen als Werkzeuge für die kognitive Konstruktion von Wissen angeboten werden." (Schulmeister, 1999: S.173) An dieser Stelle soll noch einmal auf die Bedenken von HERZOG eingegangen werden, der noch nach einer Pädagogik für das Informationszeitalter suchte. Erst wenn es gelingt, einen reflektierten Umgang mit den neuen Medien zu pflegen, ist es auch möglich, diesen Systemen eine didaktisch und lerntheoretisch tragfähige Grundlage zu schaffen. Lange Zeit war die Lern- und Kognitionspsychologie der Computertechnologie voraus. Lernprogramme basierten auf den Erkenntnissen einer Lerntheorie. Heute existiert die Technologie und fordert die Kognitionspsychologen heraus, eine Theorie zu formulieren, die einen konstruktiven Umgang z.B. mit dem Informationsmedium Internet zulässt.



Diese Meinung vertritt allerdings nur Ausubel, Bruner ist da ganz anderer Meinung. Für ihn ist das entdeckende Lernen eine Möglichkeit, Problemlösestrategien zu entwickeln.

Unter Schemata versteht Piaget die festen Zuschreibungen von Funktionsweisen gegenüber einer bestimmten Sache, die so im Subjekt eine subjektive Bedeutung erlangt.

Es sollte darauf hingewiesen werden, dass Piaget immer ein "Passen" meint, wenn er von Wissen spricht.










Haupt | Fügen Sie Referat | Kontakt | Impressum | Datenschutz







Neu artikel