REFERAT-MenüDeutschGeographieGeschichteChemieBiographienElektronik
 EnglischEpochenFranzösischBiologieInformatikItalienisch
 KunstLateinLiteraturMathematikMusikPhilosophie
 PhysikPolitikPsychologieRechtSonstigeSpanisch
 SportTechnikWirtschaftWirtschaftskunde  



Alternativenergiegewinnung



Alternativenergiegewinnung

Kernfusion

Die Entwicklung der Fusionsforschung

Die Fusionsforschung begann gleich nach dem II. Weltkrieg mit viel Optimismus, denn es herrschte vor allem in Amerika der Glaube, daß man die Kernfusion mit einem ähnlich großen materiellen Aufwand wie im Manhattan Projekt entwickeln und zur Serienreife bringen könnte. Die ersten Anstrengungen wurden unabhängig voneinander und unter strenger Geheimhaltung in den USA, der UdSSR und GB betrieben. Da die grundlegenden Probleme unterschätzt wurden kam es zur Aufhebung der Geheimhaltung zugunsten internationaler Zusammenarbeit und Neuorientierung der Strategie: nicht mehr die Konstruktion eines Reaktors, sondern Probleme der Plasmaphysik standen für die kommenden zehn Jahre mehr im Vordergrund der Forschung.

Die Fusionsforschung ist aus der Forschung an der Wasserstoffbombe hervorgegangen. Die Wasserstoffbombe stellt den Beweis der Möglichkeit der Kernfusion dar, jedoch ist diese Fusionsreaktion unkontrolliert. Direkter Nachfolger, zunächst streng geheimgehalten, war die laserinduzierte Trägheitsfusion. Mit Hilfe der Pellets sollte die Explosion der Wasserstoffbombe im kleinen simuliert werden. Dies und auch die starken Laser, die mit dieser Technik verbunden sind, bilden mögliche Grundlagen für SDI. Die Forschungen an der Laserfusion wurden jedoch schließlich der zivilen Fachwelt geöffnet und dem zivilen Ziel der Energieforschung unterstellt. Jedoch hing diesem Projekt immer der militärische Aspekt an, mit dem sich viele Forscher nicht in Verbindung sehen wollten. So begann man nach anderen Wegen der Energieerzeugung durch Kernfusion zu forschen. Anfang der Fünfziger Jahre hatte die Sowjetunion bereits erste Tokamak-Programme gestartet. Schon früh kam es hier zu einem Gedankenaustausch unter den Nationen. Japan und USA wie auch die europäischen Staaten begannen Fusionsprogramme im Bereich des magnetischen Einschlusses. Die Forschungsergebnisse veranlaßten die Beteiligten zu ersten Prognosen über die Realisierung der Kernfusion. So sagte 1955 der Präsident der Genfer 'Atoms for Peace' Konferenz, daß die Fusionsforschung 20 Jahre zur Lösung der Probleme brauchen würde.



Daß dieser Zeitraum eindeutig zu kurz gewählt war, zeigte sich schon bald. Diverse Experimente in den verschiedenen Bereichen des magnetischen Einschlusses sowie der Laserinduzierten Fusion ergaben neue Probleme und damit eine Revision der Prognosen: 1978 stellt man fest, daß die in den Experimenten erreichten Plasmaparameter innerhalb von Fünf Jahren um den Faktor zehn gesteigert werden konnten, was bedeuten würde, daß der 'Breakeven', als der Punkt mit ausgeglichener Energiebilanz 1981 - 82 zu erreichen sei und daß noch deutlich vor 2030 die Fusionsreaktoren einen nennenswerten Anteil an der Energieversorgung nehmen würden.

Am 1.6.1978 wird die JET-Gruppe gegründet, die die Entwicklung, den Bau und die Forschung für das auf 12 Jahre ausgelegte JET-Projekt übernehmen sollte. Am 25.6.1983 wird das erste Experiment im JET durchgeführt. Ziel des Projektes soll in einer späteren Ausbauversion des JET ein Brennzyklus von 20 s sein. Etwa zur gleichen Zeit wie JET, teilweise einige Jahre später, teilweise früher laufen Projekte der UdSSR, Amerikaner und Japaner mit Namen T-15, TFTR und JT-60 an, die in der Größenordnung von JET liegen und ähnlich nahe dem Lawson Kriterium kommen, jenem Punkt, an dem thermonuleares Brennen einsetzt. Die Zielsetzungen der Projekte sind geringfügig unterschiedlich, gemeinsames Ziel ist es jedoch, zu thermonuklearem Brennen in Zeiten bis zu 100 s zu gelangen. Bei allen Projekten handelt es sich um Tokamaks.

Seltsamerweise erst Ende der 80er Jahre beginnen Forschungen zur Sicherheit der Tokamaks. TESPE, ein Projekt der Kernforschungsanlage Karlsruhe (KfK), stellt ein verkleinertes Modell für einen Fusionsreaktor dar und ist neben Experimenten zu Wandmaterialien auch um die Erforschung von Störfällen bemüht, unter anderem bezüglich der 'Disruption', also dem plötzlichen Zusammenbrechen des Manetfeldes. Die Probleme und Ergebnisse, die die Forscher aus Projekten wie JET ziehen, erzwingen eine erneute Revision der Prognosen bezüglich der ersten Fusionskraftwerke. Erst 2050, also Mitte des nächsten Jahrhunderts, wird die Kernfusion beginnen, einen Marktanteil an der Energieerzeugung zu erlangen. Und noch länger wird es dauern, bis ein nennenswerter Anteil der Energie aus Fusionsreaktoren kommen wird.

Nichts desto trotz ist bereits die Planung des nächsten Projektes in Angriff genommen. ITER - der Internationale thermonukleare Experimental-Reaktor wird 1987 ins Leben gerufen. Er soll der letzte Versuchsreaktor vor Erstellung des DEMO-Reaktors sein. Letzterer soll in ca. 30 Jahren als erster funktionsfähiger und stromerzeugender Reaktor die wirtschaftliche Produktion von Strom mittels Kernfusion demonstrieren. ITER selbst soll ab 1997 gebaut werden, 2004 fertiggestellt sein und 2005 in Betrieb gehen. Seine Leistung soll bereits 1000 MW betragen. Durchgeführt wird dieses Projekt von den USA, GUS, Japan und der EG. Wissenschaftliche Erkenntnisse von allen Großanlagen der beteiligten Staaten fließen in dieses Projekt.


Internationale Forschungsprogramme

Übersicht

Es gibt weltweit vier institutionell geführte Zentren der Kernfusionsforschung. Sie sind in ihrer Größe etwa gleich und arbeiten parallel an ähnlichen Forschungsprogrammen. Dem übergeordnet sind drei internationale Expertengruppen (USA, Japan, Deutschland - Jülich), welche einen technologischen Austausch verwirklichen sollen.

Die Studiengruppe INTOR, bestehend aus europäischen, japanischen, sowjetischen und amerikanischen Wissenschaftlern erarbeiten im Auftrage der Internationalen Atomenergiebehörde in Wien (IAEA) ein weltweites Gemeinschaftsprojekt (ITER - Internationaler Thermonuklearer Experimenteller Reaktor). Deutschlands Forschung wird weltweit als führend angesehen und hat gute Chancen für eine führende Beteiligung am ITER Projekt, evtl auch Standort für den ITER-Reaktor zu werden.

Europa/Deutschland

1958 wurde in Europa ein gemeinsames Forschungsprogramm EURATOM gegründet. Ziel ist ein Demonstrationsreaktor DEMO (in etwa vierzig Jahren), der die prinzipielle Machbarkeit der Energiegewinnung durch Kernfusion deutlich machen soll.

Es gibt zwei gemeinsame Forschungseinrichtungen, die Gemeinsame Forschungsstelle (GFS) und der in Culham aufgestellte Tokamak 'Joint European Torus' (JET, Baukosten etwa eine Mrd. DM). Das Nachfolge Projekt, der 'Next European Torus' (NET), soll dann letztes Zwischenprojekt zum DEMO sein.

Ansonsten sind die Programme auf die einzelnen Mitgliedsstaaten verteilt.

Getragen werden die Forschungen von dem Haushalt der EG und den Haushalten der einzelnen, nationalen Forschungseinrichtungen.

Hauptforschungsgegenstand sind magnetische Einschlußkonzepte, alternative Einschlußkonzepte werden nur mit etwa 10% unterstützt.

Hauptforschungseinrichtungen in Deutschland sind hauptsächlich das IPP (Institut für Plasma-Physik in Garching mit Tokamak ASDEX, Stellerator Wendelstein), KfK (Kernforschungszentrum Karlsruhe) und das KFA (Kernforschungszentrum in Jülich). Sie sind in dem Europäischen Forschungsprogramm vollständig integriert.

KfK und IPP gründeten 1982 eine Entwicklungsgemeinchaft zur Kernfusion.

USA

Die Kernfusionsforschung in den USA ist organisiert und überwacht von Department of Energy. Die Programme verteilen sich auf Großversuchseinrichtungen (Hauptteil), Universitäten und einige privat unterstützte Forschungseinrichtungen.

Es steht weltweit der größte Etat zur Verfügung. Die Programme sind aber in kurze Abschnitte aufgeteilt, so daß der Etat dynamisch, unstetig vergeben wird.

Als Versuchseinrichtungen stehen mehrere kleinere Tokamak-Experimente, ein MIGMA Experiment und ein Tokamak-Reaktor in Princeton (von der Größe mit JET vergleichbar) und Trägheitseinschluß-Versuche (militärisches Interesse) zur Verfügung.

GUS

Versuchseinrichtungen sind ausschließlich staatlich unterhalten und koordiniert. Schwerpunkt ist hier die Plasmaphysik. Es wird an Programmen zur Tokamaktechnik (favorisiert) und zum MIGMA gearbeitet.

Japan

Die japanischen Versucheinrichtungen werden von mehreren Ministierien getragen und von einem übergeordneten, nationalen Gremium (JAERI) koordiniert. Private Firmen unterstützen die Forschungen beträchtlich durch die Entwicklung von benötigten Spezialtechniken (supraleitende Spulen, Vakuumtechnik, Plasmaheizung) Forschungseinrichtungen sind Großanlagen (Tokamak JT-60), diverse Einrichtungen der Universitäten und private Firmen. Es wird parallel an verschiedenen Einschlußverfahren und der Weitereintwicklung der magnetischen, toroidalen Einschlußtechniken gearbeitet.


Diskussion möglicher Technischer Ansätze

Übersicht

Der Kernfusion liegt eine Reaktion zwischen zwei Wasserstoffisotopen , z.B. Deuterium und Tritium, zu Grunde: 2H+ + 3H+ © 4He2+ + n0. Bei dieser Reaktion wird, nach dem Gesetz für den Massendefekt von A. Einstein, Energie frei. Um die Verschmelzung der Wasserstoffkerne zu Heliumkernen zu starten, muß das Wasserstoffgas auf eine Temperatur von über 100 Millionen Grad Celcius erhitzt werden (200 Mio. Grad wurden schon erreicht). Zum Vergleich: Die Sonne hat auf ihrer Oberfläche eine Temperatur von 5500 C und in ihrem Innern 15.000.000 C. Es entsteht dabei ein sogenanntes Plasma, ein Gemisch aus freien Wasserstoffionen und freien Elektronen.

Es wird mit Plasmen gearbeitet, die aus nur 1g Wasserstoffionen besteht. Die Thermische Energie des heißen Wasserstoffplasmas reicht aus, um 100 kg Stahl zu verdampfen.

Um mit diesen hohen Temperaturen arbeiten zu können werden die Plasmen und ihre thermische Abstrahlung mit Magnetfeldern, deren Stärke das 100.000 fache des Erdmagnetfeldes übersteigen, im Vakkuum eingefangen.

Bei den meisten Techniken treten energiereiche Neutronen auf. Da sie sich nicht durch Magneten auf eine definierte Bahn zwingen lassen, treffen sie auf das das Plasma umgebende Material und sind für dessen Verstrahlung verantwortlich. Sie werden aber dazu benuzt, um mit Lithium das meist benötigte Tritium herzustellen.

Prinzipiell kann man zwischen vier Techniken der Kernfusion unterscheiden: Die Induzierte Trägheitsfusion, die Fusion mit magnetischem Einschluß, die kalte Kernfusion und die Fusion aus der Teilchenbeschleunigertechnik.

Fusion mit magnetischem Einschluß

Die Fusion mit magnetischem Einschluß findet in geschlossenen Vakuumkammern statt. Das Gas, bestehend aus Wasserstoff, Deuterium oder Tritium oder Kombinationen dieser Stoffe, wird in dieser Kammer auf 50 bis 400 Millionen Grad erhitzt und liegt dann als Plasma vor, d.h. das Gas ist vollständig ionisiert. Durch Magnetfelder wird das Plasma auf eine Bahn gezwungen, die verhindert, daß das Plasma die Wand berührt. Unter hohem Druck und Temperatur kommt es schließlich zum thermonuklearen Brennen.

Allgemein ergeben sich beim magnetischen Einschluß folgende Probleme:

Durch die Schwierigkeiten beim Plasmaeinschluß und durch Verunreinigungen kommt es zu Energieverlusten

Durch Neutronenbeschuß wird das Reaktormaterial radioaktiv

Die extremen Bedingungen führen zu hohen Materialermüdung und damit zu hohen Kosten

Große gespeicherte Energiemengen in den Magnetfeldern und radioaktives Inventar stellen ein Gefahrenpotential dar.

Hoher Energiebedarf beim Betrieb durch die benötigte Heizung und Magnete (300MW Verbrauch einer mittleren Großstadt!!).


Beim Magnetischen Einschluß gilt es noch, drei Reaktortypen zu unterscheiden:

Stellaratoren

Hier ist das Reaktorgefäß ähnlich wie beim Tokamak eine ringförmige Röhre, also ein Torus. Das Plasma fließt hier im Kreis, wobei es durch geeignete Magnetfelder in sich verwunden wird, um Abstrahlungsverluste zu minimieren. Diese zusätzlichen Magnetfelder verkomplizieren die Technik des Reaktors. Auch erreicht man derzeit nicht den gewünschten Einschlußgrad (Produkt aus Druck mal Zeit).

Der Stellerator ist aber für die Konstruktion eines energieliefernden Reaktors dadurch sehr interessant, da er sich zum kontinuierlichen Betrieb eignet (vgl. Tokamak).

Tokamak

Tokamak ist eine Abkürzung für die Russische Bezeichnung von Toroidkammer im Magnetfeld. Beim Tokamak handelt es sich um einen Torus, in dem das Plasma im Kreis fließt (vgl. Stellerator). Über äußere Spulen wird ähnlich wie bei einem Transformator ein Strom im Plasma induziert. Durch diesen Strom werden die Abstrahlungsverluste minimiert, so daß kein Magnetfeld für die Verwindung des Plasmas notwendig wird. Zusätzlich stellt der Strom im Plasma eine Heizmethode dar. Mit den Tokamaks ist man den Bedingungen für selbsterhaltendes thermonukleares Brennen bisher am nächsten gekommen, was vielleicht aber auch daran liegt, daß hier die intensivsten Forschungen getätigt werden.

Als Hauptnachteil des Tokamak ist zu nennen, daß er sich nicht für einen kontinuierlichen Betrieb eignet, sondern regelmäßig wieder neu mit Plasma aufgeladen werden muß (vgl. Stellerator), was auch eine extreme Belastung der Anlage ausmacht.

Spiegelmaschinen

Das Reaktorgefäß bildet eine gerade Röhre. An den Enden wird das Plasma durch entsprechende Magnetfelder in seiner Flußrichtung reflektiert. Bei der Reflexion an den Ende kommt es zu erhöhten Energieverlusten.

MIGMA-Konzept

Bei dem MIGMA-Verfahren werden aus einem Teilchenbeschleuniger Teilchen (z.B. Deuteronen und Trionen) wiederholt zur Kollision gebracht und verschmelzen. Es ist mit diesem Konzept auch eine Fusion zwischen Protonen und dem Bor-11 Isotops möglich. Es entstehen vier energiereiche Alphateilchen (4He2+).

Das besondere an diesem Ansatz ist, daß kein radioaktives und toxisches Tritium benötigt wird und keine Neutronen enstehen, welche für die unerwünschte Radioaktivität verantwortlich sind.

Hauptproblem bei dieser Technik sind laut KfK die Energieverluste der Teilchen durch die entstehende Synchrotronstrahlung.

Leider wird diese von einigen Physikern für genial gehaltene Technik weltweit ignoriert. Es werden zur Weiterentwicklung trotz ansehlicher Anfangserfolge in den 70 Jahren nicht genügend Fördermittel zur Verfügung gestellt. Grund hierfür könnte sein, daß bei dieser Reaktion keine energiereichen Neutronen entstehen, die zu dem sehr interessanten Nebenprodukt, dem spaltbaren Material, führen.

Induzierte Trägheitsfusion

Ein Gemisch aus Deuterium und Tritium wird von einer kleinen kugelförmigen Hülle umgeben. Diese 1mm großen Kügelchen (Pellets) werden im Vakuum mit einem Hochenergielaser oder einem Leicht- oder Schwerionenstrahl beschossen. Bei der so herbeigeführten Implosion wird das Wasserstoffgemisch auf ein fünfzigstel seines Volumens komprimiert. Die extreme Erhitzung läßt das fusionierende Plasma enstehen.

Durch Simulationen ließ sich ermitteln, daß der thermonuklare Energieausstoß typischerweise das Hundertfache der Laserenergie beträgt.

Hauptproblem ist die Konstruktion der benötigten kurzwelligen Hochenergielaser bzw. Beschleuniger. Des weiteren entstehen auch hier hochenergetische Neutronen.

Die Konstruktion eines energiegewinnenden Reaktors, der z.B. zehn Pellets pro Sekunde zünden würde, wäre denkbar.

Kalte Kernfusion

Die Reaktion wurde aus theoretischen Überlegungen schon in den vierziger Jahren von F. Frank und Andrej D. Sacharov vorhergesagt und 10 Jahre später durch einen Zufall von Luis W. Alvarez experimentell nachgewiesen.

Bei der kalten Kernfusion oder auch Myon -katalysierten kalten Kernfusion kann man die hohen Temperaturen und riesigen Versuchsaufbauten umgehen. Die kalte Kernfusion läuft bei Temperaturen ab 13 bis über 1000 Kelvin in festen, flüssigen oder gasförmigen Medien ab.

Die Reaktion kann in einer einfachen mit Tritium und Deuterium gefüllten Kammer durchgeführt werden. Hierzu läßt man negative Myonen in die Kammer eindringen. Die Myonen stellen durch besondere Stoßprozesse enge Bindungen zwischen den Wasserstoffmolekülen her. Die so myonisch gebundenen Kerne verschmelzen und es wird Energie in Form von Wärme frei. Die Myonen werden dabei wieder freigesetzt und können unter bestimmten Bedingungen weitere Fusionen katalysieren.

Myonen kann man künstlich mit Hilfe von Teilchenbeschleunigern erzeugen. Damit ein Myon mehrere Kernfusionen katalysieren kann, sind hohe Energien für dessen Erzeugung notwendig.

Leider wird mehr Energie benötigt, um die Reaktion ablaufen zu lassen, als später frei gesetzt wird. Die kalte-Fusion ist zur Zeit nur für die Grundlagenforschung interessant. Es gibt bis heute keine reproduzierbare Versuchsanordnung mit positiver Energiebilanz.


Aspekte der TA Kernfusion

Technologischer Aspekt

Ziel der weltweiten Fusionsprogramme ist die konkrete Konstruktion eines Reaktors. Die prinzipielle Realisierbarkeit eines energieliefernden Reaktors ist nicht geklärt. Es wird gehofft, dies in sechs bis zehn Jahren beantworten zu können. Strategie hierbei ist die der wahrscheinlichsten Widerlegung, d.h. man versucht die Unlösbarkeit zu beweisen. Einige Experten schätzen sogar, daß ein wirtschaftlich arbeitender Reaktor, ohne generelle konzeptionelle Anderungen der Fusionstechnik, ausgeschlossen ist. Die früheste Realisierung wird in 50 bis 60 Jahren angenommen.

Es muß dabei das sogenannte thermonukleare Brennen hervorgerufen werden, d.h. ein Plasmagemisch muß in einen Zustand gebracht werden, in dem die Umsetzung von Wasserstoff zu Helium kontrolliert und kontinuierlich vollzogen wird.

Die immanenten Probleme bezüglich der Realisierung oder einer Vorhersage werden durch die nichtlinearen physikalischen Phänomene des Plasmas hervorgerufen. Hieraus entspringen zwei fundamentale Hindernisse:

Es ist nicht möglich einen kleinen Versuchsreaktor zu bauen und dann auf ein größeres Modell hochzurechnen.

Vorhersagen sind nur an einem der Größe des Endreaktors entsprechenden Testreaktors zu erproben (immense

Kosten), die derzeitig zur Verfügung stehende Computerleistung reicht bei weitem nicht aus, um eine Simulation mit allen

Parametern zu errechnen (zwingende experimentelle Forschung).

So entstanden bei der Forschung immer neue unvorhergesehene Probleme, die die zeitlichen Prognosen über die Verwirklichung der Programme sich nie bewahrheiten ließen.

Um einen Fusionsreaktor zu konstruieren, müssen parallel zur eigentlichen Plasma-Physik eine Vielzahl andere Techniken entwickelt werden, die auch für andere Anwendungsgebiete von Nutzen sein könnten (supraleitende Magneten, Radiosender im Höchstfrequenzbereich, intensive Teilchenstrahler, Vakuumtechnik, etc.). Wobei die Resultate dieser Forschungstätigkeiten wissenschaftlich als eher gering eingestuft werden.

Dadurch, daß die Fusionsprogramme ausschließlich institutionell koordinierte Großprojekte sind, sind die Bau-, Planungs- und Anhörungsphasen so lang, daß die angewanten Techniken, nach Beendigung eines Programmes wieder überholt sind.

Ökonomischer Aspekt

Zur Zeit werden in Amerika, Asien und Europa jährlich etwa zwei bis drei Mrd. DM für funktionsfähige Fusionsreaktoren ausgegeben. Von der Kommission der EG wurde das nächste europäische Fünf-Jahres-Programm mit Aufwendungen von insgesamt 1,5 Mrd. Rechnungseinheiten (das entspricht etwa 4 Mrd. DM) vorgeschlagen.

Nach heutiger Absicht werden nur die Flagschiffe des amerikanischen und des europäischen Forschungsprogramms, nämlich TFTR und JET, bereits Tritium verbrennen und damit Eigenschaften eines echten Fusionsfeuers demonstrieren. Die Radioaktivierung ihrer Bauteile erfordert Abschirmungen und die Anwendung fernbedienter Spezialwerkzeuge für Reperaturen und zur Manipulation von Komponenten. Die INTOR-Studie (INTOR = International Tokamak Reactor), die von Europa, Japan, UdSSR und USA gemeinsam ausgearbeitet wurde, geht über TFTR und JET noch hinaus und ist Symbol für die ersten Gehversuche auf dem Weg zu einem wirklichen Reaktor. Die letzte Entwicklungsstufe vor der kommerziellen Nutzung wäre die Demonstration eines ökonomischen Systems; diese liegt noch gut 30 Jahre vor uns. Ein nennenswerter energiewirtschaftlicher Beitrag der Kernfusion ist wohl erst in 50 Jahren zu erwarten.

Deutschland finanzierte 1985 etwa 140 Millionen DM pro Jahr in eigene Fusionsprojekte und nocheinmal 100 Millionen DM pro Jahr über die EG in das internationale Fusionsprogramm.

Der Bau und 20 jährige Forschungsbetrieb von NET wird voraussichtlich fünf Milliarden ECU (1 ECU ¯ 2,23DM, '85) kosten. Auf Deutschland fällt ein Anteil von fünf Milliarden DM (innerhalb von 20 Jahren).

Vergleich:

Ein Bau eines Leichtwasserreaktors kostet etwa fünf Milliarden DM.

Um sicherzugehen, daß man für die Aufwendungen der Forschung auch den wirtschaftlichen Nutzen ziehen kann, wird vorgeschlagen, die Internationalisierung der Forschung auf einen Wirtschaftsraum zu konzentrieren.

Einer Einschätzung der Wirtschaftlichkeit von Fusionsreaktoren ist nicht sehr einfach. Es existiert noch kein funktionsfähiger Reaktor, der eine fundierte Kosteneinschätzung ermöglichen würde. Dies ist nach derzeitiger Einschätzung nicht vor dem Jahr 2050 zu erwarten. Ein Vergleich der verschiedenen Kraftwerkstypen müßte sich auf diesen Zeitpunkt beziehen. Wie sich jedoch die Rohstoffpreise, Endlagerkosten und Steuern für die bisherigen Energieträger entwickeln werden, ist nur unsicher abzuschätzen.

Nach derzeit gängigen Schätzungen würden die Anlagenkosten für einen Fusionsreaktor zwei bis dreimal höher sein als bei einem Spaltreaktor und wesentlich höher als bei einem Brutreaktor. Auch liegt die Verfügbarkeit der Fusionsreaktoren unter der von Spaltreaktoren, da Fusionsreaktoren häufiger gewartet werden müssen (Wandwechsel), wegen ihrer großen Komplexität störanfälliger sind und die Energieerzeugung in relativ kurzen Zyklen abläuft. Um gegenüber diesen Reaktoren wirtschaftlich konkurrieren zu können, muß ein Fusionsreaktor also niedrigere Brennstoffkosten, höhere Zuverlässigkeit, höhere Sicherheit und geringere Endlagerkosten aufweisen. Dies bedeutet, daß u.a. das Problem der geringen Wandlebensdauer gelöst werden muß.

Es ist jedoch nach wie vor nicht sicher, ob die Forschung schließlich einen funktionsfähigen Reaktor erbringen wird. Zwar ist eine Erweiterung des Fusionsprogrammes auf andere Reaktortypen nur mit einer geringen Budget-Steigerung möglich, da sich die Forschungsergebnisse weitgehend transformieren lassen, jedoch stellt sich die Frage, ob die Fusionsforschung neben ihrem eigentlichen Ziel noch weitere Erkenntnisse von solcher Bedeutung erbringt, daß sie die hohen Forschungsgelder rechtfertigt. Die Fusionsforschung erbringt neue Erfahrungen und Ergebnisse im bereich Mikrowellen-, Vakuum- und Magnetbautechnik, jedoch ist die Bedeutung, die diesen Erkenntnissen beigemessen wird, eher gering. Sie würden bestenfalls den beteiligten Firmen Marktvorteile gegenüber Konkurrenten einräumen, was hinsichtlich der starken japanischen und amerikanischen Industrie bedeutsam sein kann. Nebenprodukte der Forschung, wie sie sich zum Beispiel in der 'Teflonpfanne der Weltraumforschung' finden, sind bei der Kernfusionsforschung nicht zu erwarten. Spin-off-Effekte sind wegen des eng begrenzten Aufgabenfeldes nicht zu erwarten.

In Anbetracht der bekannten Probleme und der langen Bauzeiten, bedingt durch die große Komplexität der Fusionsreaktoren, ist nicht vor 2050 damit zu rechnen, daß Fusionskraftwerke nennenswert zur Energieversorgung beitragen, und auch danach wird der Anteil nur langsam steigen und nicht über den, der heute von Spaltreaktoren erbracht wird, hinausgehen. Dies liegt auch darin begründet, daß Fusionsreaktoren wegen der hohen Anlaufzeiten und der geringen Verfügbarkeit nur als Grundlastkraftwerke geeignet sind.

Eine Möglichkeit, die Wirtschaftlichkeit der Fusionskraftwerke enorm zu steigern, ergibt sich aus der Brutfähigkeit der Reaktoren. Pro Energieeinheit erzeugen Fusionsreaktoren zehnmal mehr Neutronen als Spaltreaktoren, die zudem noch energiereicher sind. Einbringen von uran- oder thoriumhaltigen Materialien in die Reaktionskammer würde eine Erbrütung spaltbaren Materials ermöglichen. Mit dem so erbrüteten spaltbaren Materialien ließen sich zehn Spaltreaktoren gleicher Leistung betreiben, bei hochkonvertierenden Reaktoren (Brutreaktoren) sogar 40 - 60. Man geht sogar soweit, daß sich die Fusionsreaktion zum Erbrüten von Material lohnen würde, selbst wenn der Fusionsreaktor nicht zur Energieproduktion direkt benutzt werden würde, ja selbst, wenn der Reaktor nicht selbsterhaltend thermonuklear brennen würde, also getrieben werden müßte.

Einen ökonomischen Faktor stellt die Förderung der Forschung dar. Die bereitgestellten Mittel fließen über die Forschungszentren an die Industrie, welche die Teile für Reaktoren, Versuchsanordnungen etc. produziert. Dies stellt einen wirtschaftlichen Faktor dar, der sogar zu Überlegungen führt, Länder, in denen die Reaktoren gebaut werden, verstärkt zur Finanzierung des gemeinsamen Forschungsprojektes heranzuziehen.

In den USA wird ein erheblich größerer Teil der Forschungsunterstützungen von der Industrie aufgebracht. Insgesamt fördern die USA die Fusionsforschung mit über 500 Mio. US-$ jährlich. Japan hat ein sehr ehrgeiziges Fusionsforschungsprogramm und fördert dies jährlich mit einem Etat, der dem gesamteuropäischen gleichkommt. Hier werden ebenfalls nennenswerte Beiträge von der Industrie geleistet. Dies liegt jedoch auch an der zum Teil engen Verknüpfung von Industrie und Universitäten. Den zeitlichen Verlauf der Förderprogramme kann man der Abbildung 1 entnehmen.

Ökologischer Aspekt

Ein Beweggrund für die Suche nach neuen Energiequellen ist die Reduzierung des CO2-Ausstoßes, da dieses Gas erheblich zum Treibhauseffekt beiträgt. Hier jedoch liegen die Chancen für einen Fusionsreaktor, zu dieser Problematik positiv beizutragen, nicht sehr gut. Zum einen liegt der Anteil der gesamten Energieproduktion am CO2-Ausstoß bei ca. 20%, zum anderen wird der Fusionsreaktor nicht als Ersatz für Kraftwerke mit fossilen Brennstoffen angesehen, sondern als weitere nukleare Option. Dies liegt in der technischen Natur des Fusionsreaktors begründet, in seiner niedrigen Verfügbarkeitszeit und langen Anlaufzeit. Nicht zuletzt ist mit Fusionsreaktoren derzeit nicht vor 2050 zu rechnen, so daß bereits vorher Wege zur Verminderung des Treibhauseffektes gefunden werden müssen. Auch für einen Einsatz in Entwicklungsländern, wo der Bedarf an Energieversorgung in nächster Zeit stark steigen wird, ist der Fusionsreaktor wegen der Komplexität, der späten Verfügbarkeit und den hohen Kosten eher ungeeignet. Studien, welche den Vorteil der Fusionsreaktoren gegenüber den Spaltreaktoren hinsichtlich des CO2-Ausstoßes bei Förderung und Produktion der Brennstoffe und Materialien untersuchen, liegen leider nicht vor.

Fusionsreaktoren benötigen zum Erreichen der Fusionsparameter bei derzeitiger Technik giftiges Beryllium. Die Handhabung und Verarbeitung ist durchführbar, wie JET beweist. Inwieweit jedoch das Beryllium wärend des Reaktorbetriebes nach außen gelangt, ist nicht bekannt.

An radioaktiven Materialien sind Tritium und durch Neutronenbeschuß aktivierte Reaktormaterialien zu beachten. Die Eigenschaften des Tritiums sind weitgehend erforscht. So liegen für das Tritiuminventar umfangreiche Gefahrenstudien vor. Problematisch ist die Handhabung des Tritiums dadurch, daß dieses Gas durch nahezu alle Materialien diffundiert, ganz besonders aber durch die stark erwärmten Reaktorwände. Technische Lösungen hinsichtlich der Gebäudeabdichtung sind teilweise vorhanden. Ein wichtiger und kaum beherrschbarer Austrittspunkt für Tritium ist jedoch das Kühlsystem, da sich einmal in das Kühlmittel gelangtes Tritium nicht wieder entfernen läßt. Hinsichtlich der Strukturmaterialien des Reaktors sind Vorhersagen und Risikoabschätzungen wesentlich schwerer aufzustellen, da noch kein endgültiges Reaktorkonzept vorliegt. Die Reaktorwand wird durch Neutronenbeschuß aktiviert und muß regelmäßig ausgewechselt werden, da der Neutronenbeschuß auch zur Materialermüdung führt, unterstützt durch die extremen Bedingungen, denen das Material ausgesetzt ist. So wurde zum Beispiel bei der ersten erfolgreichen Fusionsreaktin im JET 1992 bei einem Tritiumanteil von 14% und 2 Sekunden Brennintervall die Reaktorwand so stark aktiviert, daß ein Betreten erst nach mehreren Wochen wieder möglich war. Die Reaktorwand muß als radioaktiver Müll gelagert werden, so daß sich auch hier ein Entsorgungsproblem ergibt. Nach derzeitigen Einschätzungen wird die während des Reaktorbetriebes anfallende Abfallmenge sehr groß sein, größer als die eines Spaltreaktors. Jedoch ist der Abfall anders geartet als bei Spaltreaktoren. Je nachdem, welche Materialien schließlich gewählt werden, kann die Halbwertszeit des Mülls verhältnismäßig gering sein. Bei Verwendung von Titan und Vanadium ließe sie sich so reduzieren, daß nach 30 - 50 Jahren eine Wiederverwendung der Materialien oder gar des Mantels möglich wäre. Dieser Vorteil wird jedoch deutlich geschwächt, wenn man beachtet, daß nach derzeitigem Kenntnisstand ein Wandwechsel wohl alle zwei Jahre erforderlich wäre, so daß trotz allem erhebliche Lagerkapazitäten erforderlich wären und die Menge des radioaktiven Materials groß wäre. Hinsichtlich des Gefahrenpotentials des Abfalles existieren noch keine detaillierten Studien.

Auch Störfallstudien gestalten sich noch schwierig, da noch keine endgültigen Daten für einen Reaktor vorliegen. Gefahrenpotential bergen die starken Magnetfelder und die in ihnen gespeicherte Energie. Ein plötzliches Zusammenbrechen der Magnetfelder würde zu einer mechanischen Zerstörung des Reaktors führen. Bei der derzeit geplanten Bauweise des Reaktorgebäudes (Containment) mit mindestens 2,5 m dicken Wänden (auch zur Strahlungsabschirmung) würde dies jedoch nicht zu einer Beschädigung desselben führen und somit wäre ein Austritt des Radioaktiven Inventares unwahrscheinlich. Ein Durchgehen der Fusionsreaktion (Leistungsexkursion), wie sie bei Spaltreaktoren möglich ist, wäre bei Fusionsreaktoren ausgeschlossen, da bereits geringe Verunreinigungen des Plasmas zum Erliegen der Reaktion führen. Kleinere Störfälle, wie z.B. ein Leck im Reaktorgefäß, hätten vergleichbare Folgen wie bei einem Spaltreaktor. Das Austreten radioaktiven Materials innerhalb des Containments wäre durchaus möglich. Ein Austritt radioaktiven oder toxischen Materials außerhalb des Reaktorgebäudes und damit eine Gefährdung der Umwelt durch innere Einflüsse ist also nahezu ausgeschlossen, nicht jedoch bei äußeren Einflüssen, die zur Zerstörung des Containments führen würden. Des weiteren ist anzunehmen, daß im normalen Betrieb die radiologischen Belastungen nicht niedriger als die eines Spaltreaktors ausfallen werden.

Sehr bemerkenswert ist, daß Risikostudien nahezu überhaupt nicht durchgeführt werden. Lediglich für Tritium wurden umfangreiche Studien angefertigt, wobei dies auch von großem Interesse hinsichtlich der Tritiumhandhabung im militärischen Bereich und in Spaltreaktoren ist. Selbst für JET wurden keine umfangreichen Studien angefertigt, welche sich mit den Möglichen Auswirkungen eines Störfalles beschäftigen. Erst Ende der 80er Jahre wurde an einem verkleinerten Modell eines Fusionsreaktors Störfallforschung betrieben. Die an diesem Testreaktor TESPE gesammelten Erkenntnisse ergaben eine weitgehende Beherrschbarkeit der möglichen Störfälle, jedoch ist wie bei den meißten Ergebnissen der Fusionsforschung eine Übertragung (Skalierung) auf größere Reaktoren nur begrenzt oder mit Faustregeln möglich. Der Nutzen dieser Studien ist also begrenzt. Allgemein wird darauf verwiesen, daß sich in großem Umfange den Risikostudien erst zugewandt wird, wenn die plasmaphysikalischen Probleme als lösbar gelten.

TESPE:

Der Kompakttorus TESPE steht in Karlsruhe, seine Aufgabe ist es Störfälle zu simulieren und mögliche Schwachpunkte in der Konstruktion des Torus aufzudecken. Er ist der erste seiner Art. TESPE ist ein verkleinertes Modell der Magnetkonfiguration künftiger Großanlagen. Die bisher untersuchten Störungen waren sowohl in ihren elektrischen wie in den thermischen und mechanischen Konsequenzen sicher beherrschbar. Das Experimentierprogramm an TESPE soll 1988 abgeschlossen werden.(Spektrum der Wissenschaft Juni 1987)

Sozialer Aspekt

Aus den Gesprächen mit zahlreichen Experten aus den Deutschen Plasmainstituten gab es folgende Aussagen zu dem Sozialen Aspekt.

Auf der Seite der Wissenschaftler

In Fachkreisen wird diskutiert, ob die Öffentlickeit überhaupt legitimiert ist informiert zu werden. Die Argumentation hierbei ist, daß die Öffentlichkeit aufgrund ihres mangelnden Wissens nicht in der Lage ist (wie auch das Parlament), die Problematik, die den Entscheidungen zugrunde liegt, zu durchschauen. Es wird bezweifelt, daß die in Erscheinung tretende Minderheit repräsentativ für die Öffentlichkeit ist. Die Inhalte der Außerungen dieser Minderheit seien von anderen Prozessen gesteuert, die mit der tatsächliche Meinung der Gesellschaft wenig zu tun haben. 'Meiner Meinung nach muß die Bevölkerung die wesentlichen Entscheidungen der Wissenschaft selbst überlassen.' (Wissenschaftlicher Direktor de IPP) . Als limitierender Faktor ist hier das fehlende Vertrauen der Bevölkerung zur Wissenschaft zu sehen.

Nach Meinung der Experten gibt es im Moment genügend Techniker und Wissenschaftler auf den relevanten Gebieten für die Kernfusionsforschung. Man sieht aber eine große Gefahr falls die Geldmittel gekürzt werden, weil dann der Anreiz, in die Plasmaphysik einzusteigen, immer geringer wird, was einen Basisverlust bedeuten kann. Ebenso führt eine in ihrer Intensität abnehmende Forschung insbesondere im Bereich der Hochschulen zu einer sinkenden Zahl von Quereinsteigern. Da aber auch in näherer Zukunft kein erhöhter Personalbedarf von Nöten sein wird, da eine Verkürzung der Entwicklungszeit durch eine größere Mitarbeiterzahl für unwarscheinlich gehalten wird, gibt es kein Interesse an einer Aufstockung des Budgets. In einer denkbaren Auflösung der Arbeitsgruppen in den Großforschungseinrichtungen und deren vollständigen Einbindung in europäische bzw. internationale Großprojekte wird eine große Gefahr für die Kontinuität der Forschung erkannt: Die Projektanbindung kann zu einem fast vollständigen Informationsverlust insbesondere bei einem Generationswechsel führen.

Ein weiteres Problem, das von den Experten genannt wurde, ist das es zu wenig Anreizmechanismen in den Forschungseinrichtungen gibt. Außerdem die starre Besoldungsstruktur nach den Beamtentarifen wird als veraltet betrachtet. Außerdem ist die unentschlossene Haltung der Bundesregierung bemängelt worden. Aus Sicht der Experten hat man noch nicht die Notwendigkeit der kontrollierten Fusion verstanden. Führende Mitarbeiter in den Forschungseinrichtungen fühlen sich immer mehr als 'Kürzungsverwalter'. Anderungen der Rahmenbedingungen scheinen dringend erforderlich: Neben einer flexibleren Handhabung des Beamtentarifs wird auch eine Angleichung des wirtschaftlichen Vorsprungs ausländischer Gastwissentschaftler bei einer länderübergreifenden Kooperation gefordert, um sozialen Frieden zu bewahren. Wichtiger erscheint jedoch eine stärkere Motivation der Mitarbeiter durch politische Willensbildung und eine Verbesserung von Organisationsstruktur und Management.

Ein Dilemma für die Fusionsforscher besteht vor allem darin, daß sie nur ungern auf mögliche Vorteile von Fusionsreaktoren z.B. gegenüber Spaltreaktoren hinsichtlich Sicherheits- bzw. Umweltfragen hinweisen. Nach der Ansicht der Experten verschlechtert dies nur das (ohnehin geringe) Ansehen konventioneller Kerntechnik.

Über die Bewilligung von Forschungsgeldern haben die Forschungsministerien der Nationen zu entscheiden. Da hier jedoch selten in der jeweiligen Fachsparte kompetente Leute arbeiten, benötigen diese den Rat von Experten. Diese rekrutieren sich jedoch wegen des enormen Umfanges und hohen Anteils am Gesamtprogramm aus den geförderten Bereichen des Fusionsprogrammes, dem magnetischen Einschluß. Diese Forscher stehen unter einem gewissen Erfolgsdruck. In ihr Projekt, dem sie die Durchführbarkeit vorhersagten, sind gewaltige Gelder geflossen. Einzugestehen, daß Fehler gemacht wurden oder man sich gar auf einem toten Gleis der Forschung befindet, ist mit der Gefahr des Zusammenstreichens des Etats seitens der Ministerien verbunden und auch mit einem gewissen psychologischen Druck. Die Wissenschaftler, die die Projekte im Auftrage des BMFT begutachten, werden aus Loyalitätsgründen eher für ihre Kollegen urteilen. Insofern werden die Experten anderen Projekten, mögen sie auch ebenfalls Hoffnungen in sich bergen, keine Chancen geben indem sie zur Förderung raten, würde dies doch bedeuten, daß an ihrem Etat Abstriche fällig wären, da die Forschungsprogramme in ihrem Gesamtumfang begrenzt sind.



Ahnliche Mechanismen erschweren es den Forschern der nicht geförderten Projekte, in namhaften Zeitschriften Artikel zu veröffentlichen. Die Redaktionen bedienen sich kompetenter Experten, um zu verhindern, daß unseriöse oder für den Fachmann offensichtlich lächerliche Artikel zur Veröffentlichung gelangen. Auch hier stammen die Experten meißtens aus den geförderten Projekten, und auch hier haben sie kein Interesse daran, eine Stimmung gegen ihre Projekte entstehen zu lassen.

Auf der Seite der Bevölkerung

Die 'Öffentlichkeit' hat Einfluß auf die Forschung über die Institutionen des Staates und den damit verbundenen Haushaltsmitteln. Das das große Mißtrauen der Bevölkerung gegenüber den Kerntechnologien wirkt sich auf die politische Förderung und eindeutige Stellungsnahme hemmenden aus.

In den siebziger Jahren wurde vor dem Hintergrund der Ölkrise die Kernfusion als DIE Lösung der Energieprobleme in der Zukunft präsentiert.

Militärische Interessen und Forschungen werden als zivile Energieprojekte vorgestellt.

Der Standpunkt der Gesellschaft bezüglich der Akzeptanz der Fusionstechnologie ist nicht eindeutig bekannt und wird als Unsicherheit bei der Entwicklung des Reaktors angesehen. Dies läßt sich auf den geringen Informationsstand der Bevölkerung und das prinzipielle Mißtrauen gegen Kernenergieanlagen zurückführen.

Ein deutliches Akzeptanzproblem wird von allen Beteiligten erwartet. Das Problem der radioaktiven Freisetzung im Normalbetrieb und den Fragen der Endlagerung der radioaktiven Abfälle führt ohne Zweifel zu den selben Akzeptanzproblemen wie bei der Kernspaltung, auch wenn die Halbwertszeiten deutlich geringer sind und ein geringeres Gefährdungspotential der Reaktoren zu Grunde liegt. Man scheut aber gerade den Vergleich mit Kernspaltungsreaktoren, denn man wird Kernkraftgegner generell nicht von Kernenergie überzeugen können, da es immer ein Restrisiko geben wird. Dadurch werden auch wieder langwierige Genehmigungsverfahren von Nöten sein und können u. a. auch einen deutschen Standort für ITER gefährden. Wären Fusionsreaktoren heute verfügbar, wäre ihr Einsatz ähnlich dem von Brutreaktoren nachhaltig gefährdet.

Für die Zukunft wird eine deutlich Verstärkung der Kritik an der Kernfusion erwartet. Deswegen sollte man gezielte Maßnahmen zur Verbesserung der Akzeptanz durchführen.

Größtenteils wird die Auffassung vertreten, daß Akzeptanz keine Konstante der Geschichte ist. Zu diesem Thema gibt es einen interessanten Artikel von Cesare Marchetti 'Die Lebenskurve von Energiequellen läßt sich berechnen' Cesare Marchetti vom Internationalen Institut für Angewandte Systemanalyse (IIASA) behauptet, daß die Kernenergie sich noch ein Jahrhundert weiterentwickeln wird und dann erst von neuen Energieträgern abgelößt wird. Er vergleicht die Skepsis gegenüber der Kernfusion mit der gegenüber der Einführung der Eisenbahn, des Autos oder der Elektrizität. Er sagt weiter: 'Sie gleichen oft bis in Details den Reaktionen auf die Kernenergie, so daß ein grundlegender Verhaltens-Mechanismus erkennbar wird. Als Ergebnis seiner Untersuchungen kommt er zu dem Schluß: Die Kernenergie wird erst nach dem Jahre 2100 allmählich einer neuen Primäreenrgieart weichen. Als Grundlage für seine exakten Aussagen benutzt er die Volterra-Lotka-Gleichungen mit denen man die Marktanteile der einzelnen Energieträger berechnen kann. Die Gleichungen wurden 1920 für die Biologie aufgestellt. Die tatsächlichen Kurven weichen nie mehr als 2 % Von den theoretischen Kurven ab. Diese Aussagen bedeuten, daß man die Lebenskurve einer Energie-Technologie errechnen kann, wenn man den Zeitpunkt ihrer ersten wirtschaftlichen Nutzung und die Daten bis zu einem Marktanteil von 2 bis 3 % kennt. Daraus ergibt sich der Zeitraum bis zum maximalen Marktanteil (Sättigung) dieser Technologie, dessen Höhe im Verhältnis zum Gesamtenergieverbrauch und der Zeitpunkt, wann diese Technologie wieder belanglos werden wird. Nach den Berechnungen für Energiequellen erwartet man um das Jahr 2025 eine neue Energiequelle und das wird mit hoher Wahrscheinlichkeit die Kernfusion sein. Philosophen mögen den Schluß ziehen, daß technologische Innovationen immer den gleichen Entwicklungsgang nehmen, weil sich Befürworter und Gegner mit ihren Argumenten die Waage halten: Aus den nüchternen Daten lassen sich derartige nachgeschobene Begründungen für das vorsichtige Verhalten des sozioökonomischen Systems nicht belegen.'

Politischer Aspekt

Motiviert wird die immense Forschung an der Fusionstechnik hauptsächlich durch den benötigten, zukünftigen Energiebedarf und dem riesigen Energiepotential, das durch die Fusion erhofft wird. Ziel der Forschung ist hier die Konstruktion einer Energiequelle. Die Grundlagenforschung der Plasmaphysik ist ein Nebenprodunkt, und wäre als alleinstehendes Projekt mit den entstehenden Kosten nicht zu rechtfertigen.

Durch diese hohen Forschungskosten steht das Projekt unter extremen Erfolgsdruck. Sollte sich eine wirtschaftliche Energiegewinnung durch den Fusionsreaktor als nicht möglich herausstellen, stünden Wissenschaftler und Forschung unter heftiger, öffentlicher Kritik. Es wird ein Einbruch in dem Vertrauensverhältnis zwischen Wissenschaft und Öffentlichkeit befürchtet. Daraus resultiert eine recht starre Politik bezüglich der Fusionskonzepte, an denen gearbeitet wird.

Die öffentliche Politik bezieht keine klare Stellung zwischen Für und Gegen der Kernfusion. Auch dies wirkt sich auf den Erfolgsdruck aus, da es die Perspektive der Forschung für die Zukunft im Dunkeln lässt. Von den Wissenschaftlern wird deshalb eine klarere Stellungsnahme der Politiker und Maßnahmen zur Verbesserung der Akzeptanz der Kern- und Fusionstechnik in der Öffentlichkeit gewünscht.

Die gemeinsame europäische Forschung und die großen Erfolge am JET-Projekt haben einen technologischen Vorsprung gegenüber den Programmen in der restlichen Welt entstehen lassen. Die Zusammenarbeit und Forschungskoordination in Europa wird als positiv bezeichnet.

Hingegen ist die Meinung bezüglich einer weltweiten Zusammenarbeit (ITER) nicht so einheitlich. Als Probleme werden angesehen die soziale Unruhe aufgrund unterschiedlicher Entwicklungsniveaus weltweit, Einfluß der allgemeinen politischen Gegebenheiten zwischen den Ländern/Entwicklungsgemeinschaften. Es wird befürchtet, daß die untechnische Politik sich zu sehr auf die technologische (z.B. Standortbestimmung des ITER-Reaktors) auswirkt. Standortdiskussionen führten schon beim JET zu zweijähriger Verzögerung des Baues. Beim ITER-Projekt bemüht man sich aus diplomatischen Gründen wichtige Positionen international ausgeglichen zu besetzen. Dies war schon innerhalb von neun Monaten möglich. Was die Entschlossenheit der beteiligten Kartoffelbauern entschieden demonstriert.

ITER wäre das erste weltweite, technische Geimeinschaftsprojekt. Es wird deshalb auch ein Experiment der Koordination und Diplomatie sein.

Die Fusionstechnik wurde erstmals vom Militär zur Entwicklung der Wasserstoffbombe intensiver untersucht. Ein kontinuierliches Interesse und Unterstützung des Militärs ist damit verbunden geblieben. Besonders deutlich wird dies in der Induzierten Kernfusion, bei der eine Nutzung für zivile Energiegewinnung als sehr unwahrscheinlich gilt. Ein höherer Pentagonbeamter habe sogar behauptet, daß die Laser-Induzierte Kernfusion der Öffentlichkeit nur als ziviles Projekt vorgestellt wurde, um die finanziellen Ausgaben und Vorschungen zu legitimieren, es sich dabei aber ausschlißelich um ein Militärisches Projekt handelt . Für das Miltär sind hauptsächlich die Abfallprodukte der Forschung (z.B. Hochenergielaser), Prestigegewinn (höheres Ansehen bei Wissenschaftlern durch uneigennützige Unterstützung) und die Abfallprodukte der Energiegewinnung (spaltbares Material, Tritium für die Waffenproduktion) interessant. Ein Tokamak-Experiment wird als eher uninteressant betrachtet. Daher ist ein weltweites Forschungsprogramm überhaupt möglich.

Aktuelle Fragestellungen der TA

Auf allgemeine Kritik unter den Wissenschaftlern stößt der fehlende öffentliche und politische Rückhalt der Forschungsarbeiten. Verantwortlich dafür sind Akzeptanzprobleme mit der Kernenergiekonzepten. Es wird eine Willensbildung gefordert, die eine klare Perspektive in förderpolitischen Fragestellungen aufzeigt.

Als empfohlene TA-relevante Fragestellungen zur Förderung der politischen Willensbildung gelten :

Abschätzung der Entwicklung der Stromerzeugungskosten aller Energieträger bei Berücksichtigung von Umweltkosten wie CO2-Steuer, Endlagerkosten etc., umfassende Bestimmung der radiologischen Belastung für Lebewesen aus einem Enbdlager heraus (Berücksichtigung des Unterschiedes von Spalt- und Fusionreaktoren), Vergleich des Gefährdungspotentials einschließlich aller Apekte (von der Rohstoffgewinnung bis zur Stromerzeugung) für alle Energieträger Analyse der toxischen Belastungen durch die Bearbeitung un debn Einsatz von bestimmten Materialien, z.B. Beryllium, im Fusionsreaktor, Einfluß der Komplexität auf die Anlagenzuverlässigkeit (wichtig auch für die Wirtschaftlichkeitsbetrachtung), zukünftige Entwicklung der Stromnetze, Bedarfsanteile von zentraler und dezentraler Stromversorgung und zukünftiger Anteil von Brut- und Spaltreaktoren an der Energieerzeugung.

Weitere Punkte könnten sein:

Prüfung der derzeitigen institutionellen Förderung der Großforschungsprojekte, bensonders in Hinblick auf das zu erwartende weltweite Forschungsprogramm (ITER).

Analyse der öffentlichen Meinung zur sozialen und ökologischen Verträglichkeit des Fusionsforschung/-Reaktors.


Abschluß Kernfusion


'Die Fusionsforschung ist in mancher Hinsicht einmalig: Noch nie setzte sich die Grundlagenforschung ein so konkretes Ziel wie einen Reaktor.

Noch nie erforderte ein technisches Produkt so intensive Grundlagenforschung wie der Fusionsreaktor.

Noch nie allerdings sollte ein technisches Produkt auch so fernab von allen alltäglichen, ja irdischen Maßstäben arbeiten.'

(bild der wissenschaft 7-1985, Seite 70 letzte Absätze)


Fachbegriffe zur Kernfusion


Blanket                       das den Reaktor auskleidende Brutmaterial

Brüten             Umwandlung von nicht spaltbaren in spaltbares Material z.B.: Uran-238 in Plutonium-239

Brutmaterial    Radioaktives Material, das durch Neutronenbeschuß zu spaltbarem Material 'gebrütet' werden soll.

Deuterium       Wasserstoffisotop

Deuteron         Deuteriumkern

Einschluß        Unter dem Einschluß versteht man die Technik, mit der das aufgeheizte Gas (Plasma aus Wasserstoff - Isotopen) im Vakuum festgehalten wird, ohne mit den Reaktormantelmaterialien in Kontakt zu kommen.

IPP                  Institut für Plasma Physik in Garching (Unterabteilung des Max planck Instituts) Isotope Isotope sind Atome gleicher Stoffklasse, aber unterschiedlicher Kernmasse.

ITER               International Tokamak Experimental

JET                 Joint European Torus (Europaisches Tokamak Projekt)

KFA               Kernforschungsanlage Jülich

KfK                Kernforschungszentrum Karlsruhe

Kontamination           Unerwünschte Verunreinigung von Gegenständen durchradioaktive Stoffe Lawson-Kriterium Ist die Beschreibung der Funktion aller idealisierten Parameter zur Kernfusion

Myon              Myonen sind kurzlebige (Mtl. Lebensdauer 2ms) Elementarteilchen. Sie können positiv oder negativ geladen sein, haben ähnliche Eigenschaften wie Elektronen, aber eine 207 mal größere Masse. Sie kommen in der oberen Atmosphäre vor.

NET                Next European Torus

Pellet               Hohlkugel die Fusionspartner beinhaltet Plasma

Stellerator       Ringförmige Anordnung von magnetischen Feldern für plasmaphysikalische Experimente

Tokamak         Abkürzung für die russische Bezeichnung von Toroid - Kammer im Magnetfeld (Reaktor-Konzept)

Tritium                        Wasserstoffisotop

Triton              Tritiumkern

Windenergie

Die Nutzung der Windenergie hat eine lange Tradition. So wurden 'Windmühlen' schon vor mehr als 4.500 Jahren - in der Blütezeit der babylonischen Kultur - zum Wasserschöpfen eingesetzt. Auf der Insel Kreta entstanden ab dem 13. Jahrhundert zahlreiche Windmühlen, wobei die Flügel der Windräder mit Segeln bespannt wurden. Mehr als 10.000 waren im Einsatz. Im nördlichen Europa wurden die ersten Windmühlen im 8. Jahrhundert gebaut und im 19. Jahrhundert waren mehr als 30.000 Windenergieanlagen mit einer geschätzten Gesamtleistung von 300 bis 600 MW in Betrieb. Die Windmühlen wurden vorrangig zum Wasserpumpen eingesetzt. In den Jahren 1930 bis 1945 wurden in den USA und Europa mehrere größere Windkraftanlagen gebaut, mit Leistungen bis zu 1 MW.

Mit der Marktdurchdringung von Erdöl und Erdgas ist das Interesse für Windkraftanlagen deutlich zurückgegangen, und erst mit der Ölpreiskrise Mitte der 70er Jahre wurden neue Windkraftanlagen projektiert und gebaut. Die größte Windkraftanlage mit 3 MW-Nennleistung wurde im Jahre 1983 in Deutschland an der Nordseeküste in Betrieb genommen, wobei allerdings dieses Projekt nicht erfolgreich war, da die Konstruktion den auftretenden Windkräften nicht gewachsen war.

Die Weiterentwicklung der Windkraftanlagen hat sich dann zu kleineren Leistungseinheiten verschoben, wobei Anlagen ab 50 kW-Leistung in zunehmendem Maße in den USA und in europäischen Ländern installiert wurden. Heute sind es bereits 300 kW- bis 500 kW-Anlagen, welche als 'Stand der Technik' zu bezeichnen sind. In den letzten Jahren wurden in einigen Ländern die Windkraftanlagen in küstennahen Gebieten ständig ausgebaut, insbesondere in den USA, Dänemark, Deutschland, in den Niederlanden und in England. Die heute weltweit installierte Leistung von Windkraftanlagen wird auf 1.400 MW geschätzt, entsprechend einer Stromerzeugung von 6 TWh/Jahr.

Die Windkraftnutzung erfolgt derzeit im wesentlichen in windreichen Küstenregionen. Diese Regionen werden aber bei den zu erwartenden größeren Zubauraten schon in absehbarer Zeit knapp, sodaß in zunehmendem Maße auch Überlegungen zur Nutzung von Windenergie im Binnenland angestellt werden.

Das Windenergiepotential

Die Lufthülle der Erde ist einem globalen Bewegungssystem unterworfen, welches durch die Auswirkungen der Sonneneinstrahlung auf Erd- und Wasserflächen in Verbindung mit der Erdrotation aufrechterhalten wird und über welches örtliche Einflüsse gelagert sind. Die Luftbewegung in bodennahen Gebieten wird durch die Bodenreibung bedingt: Bäume, Waldstücke, Siedlungen, etc. bestimmen somit die Windverhältnisse. In diesem Falle handelt es sich um kleinräumige Anderungen in der Bewegung bodennaher Luftmassen. Eine großräumige Variante der Luftbewegungen ist gegeben durch das Umströmen von Hügeln oder Bergformationen, von Tälern, Geländestufen und ähnlichen.

Das weltweite Windenergiepotential beträgt etwa 0,2% der eingestrahlten Sonnenenergie, entsprechend etwa 370 TW bzw. 3 Mio TWh/Jahr. Dieser - theoretische - Wert entspricht der in den strömenden Luftmassen auftretenden Bewegungsenergie. Durch die Reibung der Luftmassen in den bodennahen Schichten verringert sich das Potential der Windenergie beträchtlich. Die zahlreichen weiteren Einflüsse, die an der Ausbildung der globalen und örtlichen Zirkulationsströme beteiligt sind, erschweren eine Abschätzung der zur Verfügung stehenden Energiemengen. Als Richtwert für das weltweit (theoretisch) nutzbare Windenergiepotential werden etwa 3 TW (ca. 26.000 TWh/Jahr) angenommen.

Das realisierbare Potential dürfte bei 1 TW (ca. 9.000 TWh/Jahr) liegen. Für die Windgeschwindigkeit maßgebend sind die Bodenkonfigurationen und die Höhe über dem Grund. Man unterscheidet zwischen

3 typischen Bodenkonfigurationen:

glatte, ebene Flächen (Meer, unmittelbare Küste),

niedrige, bewachsene und ebene Flächen und

Flächen mit hohen Hindernissen (Städte).

Die mittleren jährlichen Windgeschwindigkeiten auf der Erdoberfläche erreichen in küstennahen Gebieten Werte über 5 m/s. Die hohen Windgeschwindigkeiten an den Küsten liegen darin begründet, daß durch die geringere Oberflächenreibung über der offenen See, die zuströmenden Luftmassen hohe Geschwindigkeiten erreichen. Bei günstigen topografischen Lagen im Küstenbereich können auch noch mehrere 100 km von der Küste entfernt hohe Windgeschwindigkeiten auftreten.

Eine wesentliche Zunahme der Windgeschwindigkeit ist mit zunehmender Höhe über dem Boden festzustellen. In einer Höhe von 50 m kann mit der 1,5-fachen Windgeschwindigkeit gegenüber einer Höhe von 10 m gerechnet werden. Da das Leistungsangebot mit der dritten Potenz der Windgeschwindigkeit wächst, bedeutet dies, daß in 50 m Höhe die 2,4-fache und in 100 m Höhe die 3,4-fache Windenergieleistung im Vergleich zu 10 m Höhe zur Verfügung steht. Das Windenergiepotential in Österreich wurde in den letzten Jahren nahezu flächendeckend ermittelt. An exponierten Lagen, insbesondere in windreichen Tälern und auf Bergspitzen, können in einer Höhe von ca. 30 bis 100 m über dem Boden Windgeschwindigkeiten auftreten, welche den Einsatz von Windkraftanlagen zur Stromerzeugung rechtfertigen. Nach einer im Jahre 1981 durchgeführten Abschätzung des Windenergiepotentials in Österreich wurde ein technisch nutzbares Windenergiepotential von jährlich 6.600 bis 10.000 GWh abgeleitet /4/.

Meteorologische Voraussetzungen

Für die Auswahl eines für die Windenergienutzung geeigneten Standortes ist die Bestimmung der dort vorliegenden Windgeschwindigkeitsverteilung von Bedeutung. Da die Leistung des Windes mit der dritten Potenz der Windgeschwindigkeit ansteigt, wirken sich schon geringe Unterschiede der jährlichen mittleren Windgeschwindigkeit erheblich auf den Jahresenergieertrag (Stromerzeugung) aus. Aus diesem Grunde müssen im Binnenland detaillierte und örtlich hoch aufgelöste Untersuchungen der Windgeschwindigkeiten vorgenommen werden. Die mittlere jährliche Windgeschwindigkeit ist nur dort ein grober Hinweis auf die Stromerzeugung einer Windkraftanlage, wo Geschwindigkeitsschwankungen gering sind, wie beispielsweise in Küstenregionen.

Für Standorte mit starken Geschwindigkeitsschwankungen, wie beispielsweise in Binnenländern und insbesondere in alpinen Gegenden, ist die mittlere jährliche Windgeschwindigkeit für eine Abschätzung der Stromerzeugung mit einer Windkraftanlage nur wenig geeignet. An derartigen Standorten müssen genaue Messungen von Winddaten vorliegen, um zu einigermaßen abgesicherten Aussagen zu kommen. Mit günstigen Stromerträgen in Gebieten mit mittleren Windgeschwindigkeiten unter 3,5 m/s ist dann zu rechnen, wenn starke Geschwindigkeitsschwankungen gegeben sind, wie z.B. in manchen Teilen des Alpenvorlandes oder auch in Bergtälern.

Forschung, Entwicklung und Anwendung in Österreich

Forschung und Entwicklung auf dem Gebiet der Windkraftanlagen wurden in den OECD- Mitgliedsländern in internationaler Kooperation durchgeführt, wobei die Forschungsausgaben im Jahre 1993 bei 163 US $ lagen. Die Forschungsausgaben der öffentlichen Hand für Windenergie-Nutzung waren in Österreich eher bescheiden und lagen im Jahre 1990 bei 0,21 Mio ÖS, im Jahre 1991 bei 0,76 Mio ÖS, im Jahre 1992 bei 1,41 Mio ÖS und im Jahre 1993 bei 0,82 Mio ÖS.

Im Hinblick darauf, daß Windenergiekonverter heute einen sehr hohen technischen Stand aufweisen, haben sich die öffentlichen Ausgaben von den Bereichen Forschung und Entwicklung auf die Bereiche Demonstration und Markteinführung verschoben. In Deutschland wurde beispielsweise ein Förderungsprogramm für die Markteinführung von netzgekoppelten Windkraftanlagen beschlossen, wobei insbesondere durch günstigere Stromeinspeistarife die Anschaffung von Windkraftanlagen attraktiv gemacht wurde. So wurden im Jahre 1993 in Deutschland Windenergiekonverter mit einer Gesamtleistung von rund 155 MW neu errichtet, wodurch sich die installierte Windkraftleistung im Jahr 1993 nahezu verdoppelt hat. Im ersten Halbjahr 1994 wurden weitere 300 Anlagen mit einer elektrischen Leistung von rund 100 MW errichtet. Ende 1994 werden in Deutschland ca. 500 MW Windleistung installiert sein.

Schlußfolgerungen und Empfehlungen

Die Nutzung der Windenergie stellt auch für Österreich eine von vielen Möglichkeiten dar, erneuerbare Energiequellen zur Deckung der Energienachfrage heranzuziehen. Im Vergleich zu Photovoltaikanlagen liegen die Stromgestehungskosten an günstigen Standorten deutlich niedriger, und Windenergie liegt auch in Zeiten mit geringerer Sonneneinstrahlung vor. Eine Ergänzung zur Sonnenenergienutzung ist damit gegeben.

Netzgekoppelte WKA´s in Österreich


Pnenn

Nabenhöhe

Niederösterreich:


Lagerwey 30/250

250 kW



Vestas V 29

225 kW

31 m


Enercon E 30

200 kW

50 m


Nordex N 27

150 kW

30 m


Seewind 22/110

110 kW

35 m


Fuhrländer 30

30 kW

27 m


Nordex N 29

250 kW

50 m


Enercon E 40

500 kW

50 m


Lagerwey LW 30

250 kW

40 m


Seewind 20/110,



110 kW

31 m


Vestas V 44

600 kW

63 m


Enercon E 30

200 kW

50 m


Enercon E 40

500 kW

65 m


Lagerwey LW 30

250 kW

40 m

Oberösterreich


Enercon E-40

500 kW

49.5 m


Tacke TW 600

600 kW

50 m

Salzburg:


LMW 10/7

10 kW

24 m

Wien:


Seewind 22/110

110 kW

31.2 m

Gesamte in Österreich installierte Leistung:

7545 kW

Quelle:

Georg Kury
Zentralanstalt für Meteorologie und Geodynamik
Klimaabteilung
Hohe Warte 38
1190 Wien
E-mail: klidob@zaamus1.zamg.ac.at

Photovoltaik

In den letzten Jahren ist die Suche nach neuen erneuerbaren Energiequellen intensiviert worden. Viele der heute genutzten Energieträger belasten unsere Umwelt und sind in der Ergiebigkeit begrenzt. Die Nutzung erneuerbarer Energiequellen gewinnt zunehmend an Bedeutung. Photovoltaik (PV), die direkte Umwandlung von Sonnenlicht in Elektrizität, ist neben der Wasserkraft eine der umweltfreundlichsten Methoden Strom zu erzeugen /1/. Seit 1980 wurden in Österreich Photovoltaikanlagen mit einer Gesamtleistung von knapp 800 kW errichtet /2/ . Die Verteilung auf die einzelnen Systemkategorien zeigt, daß ein großer Teil der Anlagen abgelegene Verbraucher mit Strom versorgt (PV-Inselsysteme: 45 %). Wachsendes Umweltbewußtsein, Interesse an der neuen Technik sowie sinkende Komponentenpreise haben auch zum Bau von netzgekoppelten PV-Anlagen geführt. Durch eigene Forschungs- und Demonstrationsprojekte haben die österreichischen Stromversorger zur Erforschung dieser neuen Energiequelle einen wesentlichen Beitrag geleistet (EVU-Projekte >120 kWp: Loser / Altaussee, Seewalchen, Mooserboden / Kaprun, HTBLA-Wien X etc.).

Organisation der österreichischen PV-Förderprogramme

Am 12. Mai 1992 wurde der '200 kW - Photovoltaik - Breitentest' ins Leben gerufen. Diese Aktion umfaßt private Solarstromanlagen im Leistungsbereich von 1 bis 3,6 kWp mit einem Gesamtumfang von 200 kWp. Das österreichische 'Solardachprogramm' wird gemeinsam vom Verband der Elektrizitätswerke Österreichs (VEÖ), vom Bundesministerium für wirtschaftliche Angelegenheiten und vom Bundesministerium für Wissenschaft und Forschung organisiert.

Eine entsprechend besetzte Fachjury hat aus den eingelangten Bewerbungen insgesamt 96 Anlagen ausgewählt /4/. Im April 1993 war bereits das ganze Breitentestvolumen ausgeschöpft und alle Förderzusagen zugestellt. Bewerbungen im Umfang von 190 kWp mußten leider abgewiesen werden. Der Förderbeitrag beträgt 80.000.- je kWp installierter Solarmodulleistung. Das entspricht etwa 44 % der Gesamtkosten von öS 183.000.- je kWp. Von November 1993 bis Jänner 1994 stieg der Anteil der ausbezahlten und in Betrieb befindlichen Anlagen von 56 % auf 70 % ( von 113 kWp auf 139 kWp / 64 Projekte). Im Laufe des Sommers 1994 werden wahrscheinlich die restlichen Anlagen in Betrieb gehen. Uns sind bisher etwa 5 Rücktritte bekannt. An ihre Stelle rücken andere Bewerber aus der Reihe derjenigen, die sich schon angemeldet haben, aber leider nicht mehr berücksichtigt werden konnten.

Die '100 kWp - Photovoltaik - Förderaktion' des Bundeslandes Oberösterreich wurde bereits im Sommer 1991 gestartet. Die Finanzierung erfolgt aus dem OÖ-Umweltfonds. Von den Anlagenkosten werden 50 % durch diese Förderung abgedeckt (inkl. Eigenleistungen). Mit Stichtag 27. 1. 1994 sind 50 Projekte im Umfang von 85 kWp ausbezahlt worden. Diese Förderaktion wurde im April 1994 weiter verlängert.

Kostensituation

Das deutsche und das schweizerische Dächerprogramm haben zur Produktion einer größeren Anzahl von Solarwechselrichtern geführt. Auf die Preise hat sich dieser Umstand günstig ausgewirkt. Bei den Solarmodulpreisen war allerdings keine eindeutige Preissenkung festzustellen. Für die großen Hersteller in Übersee war der Umfang der europäischen Dächerprogramme wahrscheinlich auch nicht sehr spürbar. Ein weiterer wichtiger Punkt für die Preisentwicklung ist die Montage und Installation der Anlage. Hier stehen wir eher am Beginn einer Lernkurve. Mit wachsender Erfahrung werden sich auch diese Kosten reduzieren lassen.

Der Mittelwert der spezifische Systemkosten liegt heute bei etwa S 183.000.- je kWp installierter Solarmodulleistung. Die Gesamtkosten sinken mit wachsender Anlagengröße etwas ab. Die Schwankungsbreite der spezifischen Gesamtkosten von Anlagen ähnlicher Größe ist noch sehr groß. Für die Kunden der Solarfirmen ist das sicher ein unbefriedigender Umstand. Der Mittelwert der spezifischen Modulkosten liegt beim Breitentest etwa bei S 115.000.- je kWp. Auch bei größeren Anlagen ist keine Reduktion dieses Kostenanteils festzustellen. Um die spezifischen Kosten der Breitentestanlagen besser einordnen zu können, haben wir einen Vergleich mit anderen ausgeführten Photovoltaiksystemen angestellt.

Dabei zeigt sich, daß die Abweichungen der Errichtungskosten in [öS/kWp] eher gering sind (alle Angaben incl. MWSt.):

183.000.- Österreichischer Photovoltaik Breitentest

175.000.- Deutsches 1000-Dächer Programm (3/93)

182.000.- 40 kW Anlage Schallschutzwand Autobahn A1, Seewalchen

216.000.- 30 kW Alpine Anlage Loser/Altaussee

100.000.- SMUD-Solardachprogramm (Sacramento 1993, US $ 8.- je kWp)


Einen gewissen Einfluß auf die Kostenstruktur könnten auch die fallweise erbrachten Eigenleistungen der Anlagenbesitzer haben. Beim Abrechnungsverfahren der oberösterreichischen Photovoltaik - Förderaktion werden auch diese Aufwendungen finanziell bewertet und bezahlt.

Teilnehmerbefragung, erste Analysen

Im Juli 1993 hat das Organisationsteam der Breitentestaktion eine Teilnehmerbefragung durchgeführt. Von den 96 ausgeschickten Fragebögen sind bis jetzt 40 zurückgekommen. Zur besseren Einordnung der Rücklaufquote soll ergänzt werden, daß derzeit 64 PV-Systeme in Betrieb sind. Unser Ziel war es, Näheres über die Zufriedenheit der Breitentestteilnehmer mit der Organisation des Förderprogrammes erfahren. Nach dem Vorbild des Fragebogens der Firma 'Sotech' haben wir uns über die Freundlichkeit, die Schnelligkeit, die Zuverlässigkeit und die Kompetenz erkundigt. Insgesamt wurden alle beteiligten Organisationen und Firmen (Installateure) mit guten Noten bedacht. Nur bei der Schnelligkeit gab es neben der ' 1 ' auch die Noten ' 2 ' und ' 3 ' mit einiger Häufigkeit (Bild 3 und Bild 4). Mit Hilfe des zweiten Fragenbereichs wollten wir mehr darüber erfahren was die Motive waren, die zur Breitentestteilnahme geführt haben.

Als Hauptbeweggründe eine PV-Anlage bauen zu wollen stellten sich der Umweltschutzgedanke, das technische Interesse sowie der Wunsch nach der Demonstration der Machbarkeit heraus. Weitere Fragen ergaben, daß ein Großteil auch andere erneuerbare Energiequellen wie Wärmepumpen und thermische Solarkollektoren nutzt. Auch die bessere Wärmedämmung des Wohnhauses sowie der Einsatz effizienterer Haushaltsgeräte wurde vielfach genannt.

Interessant ist weiters, daß die Betreiber alle älter als 35 Jahre sind. 7 von ihnen sind sogar über 65 Jahre alt. 8 % der Anlagen wurden im Auftrag von Vertreterinnen des weiblichen Geschlechts errichtet. Die Verteilung nach dem Beruf der Anlagenbetreiber wird in Bild 7 dargestellt.

Stromertrag und Energiebilanzen

Die in der letzten Zeit publizierten Betriebsergebnisse verschiedener mitteleuropäischer PV-Anlagen variieren von 538 bis 1.100 [kWh/kWp.a]. Dieser Umstand belegt, daß die Systemkonzepte noch genauer untersucht und verbessert werden müssen. Insbesondere herrscht vielfach noch Unklarheit über den genauen Anteil des Solarstroms, der im eigenen Haus genutzt werden kann.

In der Literatur findet man mindestens 2 Definitionen für den solaren Deckungsgrad. Die eine geht vom Anteil des tatsächlich im Haushalt verbrauchten Solarstroms (WX) aus und bezieht diesen Wert auf den gesamten Haushaltsstrombedarf (Version I). Bei der zweiten Version wird der gesamte erzeugte Solarstrom durch den Haushaltsstrombedarf dividiert. Eine weitere Systemkenngröße ist der Anteil des produzierten Solarstroms, der direkt im eigenen Haushalt verbraucht werden kann. Dieser Wert gibt Auskunft über die Gleichzeitigkeit von Solarstromangebot und Haushaltsstrombedarf. In den meisten Tarifsystemen werden die Betreiber der PV-Anlage versuchen, möglichst viel Solarstrom direkt im eigenen Haushalt zu verbrauchen.

Der Stromertrag von Photovoltaiksystemen ist eines der am meisten diskutierten Themen. Vielfach zitierte Zahlenangaben lassen sich oft schwer vergleichen, weil die Anlagen an verschiedenen Standorten betrieben werden. Ein erster Schritt zur Vergleichbarkeit ist die Angabe der spezifischen Solarstromproduktion in [kWhAC / kWP]. Um die Standorteinflüsse, wie die monatliche Einstrahlungssumme zu eliminieren, wurde die Kennzahl 'Performance Ratio' (PR) definiert. Hier wird der spezifische Solarstromertrag aus Bild 12 (nicht im Internet verfügbar) noch durch die monatliche Einstrahlungssumme dividiert. Auf diese Weise bekommt man einen Anlagenkennwert, der nur noch von den Systemeigenheiten beeinflußt wird. Als Beispiel wird hier der Verlauf des Performance Ratio der österreichischen IEA - SHCP/Task 16 - Demonstrationsanlage W. Weiß / Gleisdorf abgebildet (Bild 13 - nicht im Internet verfügbar). Die Problematik bei der Berechnung des PR liegt darin, daß man die Einstrahlungssumme auf die Modulebene kennen muß. Da die Breitentestanlagen normalerweise nicht mit Pyranometern und Integratoren ausgestattet sind, muß man sich mit den Meßwerten von nahegelegenen Pilotprojekten behelfen (z.B. OKA: Linz, Gmunden, Seewalchen, Loser bzw. Grazer Stadtwerke etc. ). Diese Methode stellt, allein wegen der unterschiedlichen Generatorneigungen, eine Näherung dar. Es wurde daher in der Energieforschungsgemeinschaft des Verbandes der E-Werke Österreichs beschlossen, an 10 Projekten zusätzlich Globalstrahlungsmeßgeräte zu installieren.

Photovoltaik-Einspeisetarife

Die Einspeisetarife für Solarstrom gehören zu den heikelsten Themen. In Diskussionen reicht die Bandbreite der Argumente von der Vergütung der vermiedenen Kosten (Brennstoffkosten) bis zur kostendeckenden Abgeltung aller Aufwendungen bei der PV-Stromproduktion. Im Gegensatz zu anderen Ländern war in Österreich schon immer die Einspeisung von Überschußstrom aus kleinen Wasserkraftwerken erlaubt. Die dort angewendeten Tarife gelten derzeit auch für Photovoltaiksysteme.

Diese Entgeltregeln orientieren sich am Verbundtarif, der für den Strombezug der EVU von der Verbundgesellschaft angewendet wird:

Winter, Hochtarif: 0,700 öS/kWh (excl. MWSt.)

Sommer, Hochtarif: 0,414 öS/kWh

Sommer, Niedertarif: 0,369 öS/kWh

Während der Wintermonate (Oktober bis März) kommt bei PV-Anlagen nur der Hochtarif zum Tragen, weil in der Niedertarifzeit (22.00 bis 6.00 h) keine Einspeisung möglich ist. Im Sommer ist die Niedertarifzeit von Montag bis Freitag von 22.00 - 6.00 h und von Samstag 13.00 bis Montag 6.00 h vereinbart. In den Sommermonaten fallen etwa 20 % der Stromproduktion in den Niedertarifzeitraum. Einige EVU verwenden im Sommer und im Winter den höheren Tarif (Vorteil: kein Doppeltarifzähler / Rundsteuerempfänger nötig). Im Jahr 1992 wurde von den österreichischen E-Werken für den Photovoltaik-Breitentest der sogenannte 'Solarschilling' eingeführt. Hier handelt es sich um eine Vergütung von öS 1.- für jede kWh, die von der PV-Anlage produziert werden kann. Dieser Betrag wird für 10 Jahre im Voraus beim Einschalten des PV-Systems vom E-Werk ausbezahlt (Annahme: PV-Produktion 1.000 kWh /kWP , --> 10.000.- öS / 1 kWP).

Im Dezember 1993 wurde vom Plenum des österreichischen Nationalrats ein Entschließungs- antrag verabschiedet, der für Photovoltaikstromeinspeiser eine Verdoppelung der Tarifansätze aus der obigen Tabelle vorsieht. Die Details dieser Regelung werden derzeit gerade ausgehandelt. Im Gegensatz zum 'Solarschilling' sollen die neuen Tarife aber nur für die tatsächlich ins Netz als Überschuß eingespeiste Elektrizitätsmenge gelten. Für alle Tarifregelungen, die vom 1:1 Modell abweichen, ist es wichtig zu wissen, welcher Anteil des produzierten Solarstromes nun wirklich ins Netz eingespeist wird. Neben dem Jahreswert ist auch der saisonale Verlauf von Interesse, insbesondere wenn der Einspeisetarif von der Jahreszeit abhängt.

Durch Simulation wurde versucht eine erste Antwort zu geben . Das Studium der Zählerauswertungen zeigt jedoch, daß sich das Verhalten der Anlagenbetreiber in diesem Punkt stark voneinander unterscheidet. In Bild 15 (nicht im Internet verfügbar) sind die Kennwerte der Breitentestanlagen im Vergleich zu den durch Simulation erhaltenen Kurven eingetragen. Der Simulation nach Plewnia (KFA-Jülich, No. 415, 1987) liegt ein jährlicher Haushaltsstromverbrauch von 5.760 kWh zugrunde. Bei der OKA-Simulation mit 'PV1.01' wurde von uns eher an einen Solarhaushalt gedacht und ein jährlicher Strombedarf von 2.605 kWh eingesetzt /8/. Den jahreszeitlichen Verlauf des im Haushalt direkt genutzten Solarstroms der Breitentestanlagen haben wir in Bild 16 (nicht im Internet verfügbar) zusammengezeichnet. Auch hier werden die unterschiedlichen Stromverbrauchsgewohnheiten der Breitentestteilnehmer sichtbar.

Aus Zeitgründen haben wir bisher nur die Kategorie der Pensionisten eingezeichnet. Diese Gruppe ist vermutlich auch tagsüber mehr zu Hause, wodurch sich eine bessere Gleichzeitigkeit von Strombedarf und Solarstromangebot ergibt.

Ausblick

Studien aus verschiedenen Ländern schätzen den möglichen Anteil der Photovoltaik an der künftigen Stromversorgung auf 4 bis 8,5 %. Dabei wurden nur die leicht erschließbaren Dach- und Fassadenflächen eingerechnet. Die Akzeptanz der neuen Technik durch die Öffentlichkeit wird auch in großem Ausmaß von einem positiven optischen Erscheinungsbild der Breitentestanlagen abhängen. Nur durch gute Demonstrationsanlagen und konsequente Weiterentwicklung der Systemtechnik kann der Photovoltaik in Österreich eine reale Chance eröffnet werden. Die Entwicklung von effizienten und zuverlässigen Komponenten und deren optimale Abstimmung aufeinander ist für eine weitere positive Entwicklung unbedingt nötig.

Auch wenn die technischen Probleme gelöst sind, wird die Geschwindigkeit der Markteinführung von folgenden Randbedingungen abhängen:

Strom- bzw. Energiepreisniveau

Kostenentwicklung der PV-Komponenten

Umweltvorschriften

Verfügbares Flächenpotential

Akzeptanz

Mit dem österreichischen 200 kW Photovoltaik Breitentest und den PV-Pilotprojekten soll insbesondere im Bereich der technischen Umsetzung ein Beitrag zur weiteren Entwicklung dieser umweltfreundlichen Energieform geleistet werden.

Energieträger Wasserstoff

Wasserstoff gilt als Energieträger der Zukunft. Erzeugt mit Hilfe von Sonnen-, Wasser- und Windenergie könnte er in einigen Jahrzehnten die herkömmlichen Brennstoffe Kohle, Erdöl und Erdgas ersetzen. Sein Vorteil: Er hinterläßt beim Verbrennen kein klimaschädigendes Abgas. Die Autoindustrie experimentiert zur Zeit mit Wasserstoff als Antrieb für Kraftfahrzeuge. Doch auch die Herstellung von Wasserstoff anhand der alternativen, 'sauberen' Energien ist mit hohem technischen Aufwand verbunden. Zudem schafft die Speicherung und der Transport des Gases Probleme. Deshalb stellt sich die Frage: Wie ökologisch und ökonomisch ist diese Gastechnologie tatsächlich? Ausgehend von einem Arikel über das SZ-Forum Umwelt-Wissenschaft-Technik, bei dem im Juni 1996 Experten aus Politik, Forschung und Wirtschaft miteinander diskutierten, können Sie sich hier ausführlich zu diesem Thema informieren. Wasserstoff als Energieträger - bald auf dem Weg um die Welt? Ein Expertengespräch des 'Forums Umwelt-Wissenschaft-Technik' der SZ In den Schaubildern der Werbebroschüren erscheint das System als nahezu perfekter Kreislauf: In der sogenannten Elektrolyse wird Wasserstoff aus Wasser abgespalten. Wird es verbrannt, liefert der Prozeß Kraft oder Strom für Automotoren und andere Maschinen. Doch das Gas selbst ist keine Energiequelle, sondern nur ein Energieträger. Die Elektrolyse ihrerseits frißt Strom. Darum taucht die Vision von der sauberen Energie im Gas immer zusammen mit der von sauberem Strom aus Wasserkraft, Sonne, Wind und Biomasse auf. Das Gas läßt sich bei tiefen Temperaturen verflüssigen. Dann kann es gespeichert, transportiert und verteilt werden. Und so hält sich hartnäckig die Idee einer globalen Wasserstoffwirtschaft, bei der Energie in der einen Ecke der Welt erzeugt und einer anderen verbraucht wird. Unlängst trafen sich in Stuttgart mehr als 700 Fachleute aus aller Welt zu einem internationalen Kongreß.

Zukunftsweisende Technologie

Wenn man den Gedanken an nachhaltiges, zukunftsweisendes Wirtschaften ernst nehme, lande man zwangsläufig bei der 'sauberen' Wasserstoff-Technologie, sagte T. Nejat Veziroglu. 'Damit würde uns die globale Entwicklung nicht aus dem Ruder laufen', schwärmte der Experte von der Universität Miami und Präsident der internationalen Wasserstoff-Vereinigung. Auch Carl-Jochen Winter von der Deutschen Forschungsanstalt für Luft- und Raumfahrt in Stuttgart hält es für 'undenkbar', langfristig ohne den Import von Energie, in Wasserstoff gespeichert, auszukommen. Anders läßt sich aus seiner Sicht der Anteil der fossilen Brennstoffe am Energie-Mix von der derzeit 87 Prozent auf etwa ein Viertel im Jahre 2050 nicht senken, wie es die Klima-Enquête des Bundestages vorgegeben hat. Doch noch steht die Großtechnologie ganz am Anfang; Veziroglu rechnet mit Einführungsspannen 'zwischen 40 und 80 Jahren'. Deshalb gehe es darum, jetzt die Weichen zu stellen. Neunburg vor dem Wald in der Oberpfalz wird die Wasserstoff-Wirtschaft bereits getestet - im Versuchsmaßstab. Dort läuft seit Jahren ein Pilotprojekt, berichtete Peter Hopf, finanziert vom Bayernwerk, Bund und Freistaat. Felder von Solarzellen (Photovoltaik) liefern den Strom für die Gasproduktion. Mit dem Wasserstoff wird testweise in sogenannten Brennstoffzellen Strom erzeugt; ebenso werden Versuchsfahrzeuge damit betankt. Um allerdings zehn Prozent der bundesdeutschen Fahrzeugflotte mit Wasserstoff laufen zu lassen, rechnete Eckhard Lübbert vom Bonner Forschungsministerium beispielsweise hoch, müßten 130 000 herkömmliche Solarzell-Anlagen oder 34 000 Windräder die Energie dafür liefern. Das sei nicht nur 'unendlich teuer', sondern bedeute auch einen gigantischen Flächenverbrauch. Wie also den Wasserstoff bereitstellen? 'Photovoltaik ist nicht der Weg, der sich abzeichnet', sagt auch Hopf. Er hält das Biomasse-Konzept für aussichtsreicher, weil absehbar billiger.

Wasserstoff als Autoantrieb

'Die Autoindustrie', sagte BMW-Vorstand Horst Teltschik, 'nimmt das Thema Wasserstoff sehr ernst'. Sie habe darum 'aus eigenem Antrieb Zukunftsvorsorge getrieben'. Darum sei auch die Entwicklung von Fahrzeugen 'nicht der Engpaß' in der Wasserstoffwirtschaft. Der Münchner Konzern habe als erstes Unternehmen serienmäßig einen erdgasbetriebenen Pkw auf den Markt gebracht; möglicherweise als erste Stufe einer 'technologischen Trittleiter' zum flüssigen Wasserstoff, zumal das Elektroauto wohl kaum mehr eine große Zukunft habe. Eckard Lübbert verwies auf Verluste von 40 Prozent beim Verflüssigen des Gases.

Problem: Tanken

Ohne ein einigermaßen dichtes Netz von Tankstellen hätten wasserstoffbetriebene Fahrzeuge allerdings kaum Aussicht auf breite Käuferschichten. Aufwendig ist zudem der Transport des Alternativtreibstoffes. Um ihn über Land zu bringen, brauche man etwa die dreifache Zahl an Tanklastzügen wie bei Benzin, bilanzierte Rolf Trill von der Linde AG. Und um Wasserstoff zu verschiffen, berichtete Reinhard Krapp vom Germanischen Lloyd, fehle es derzeit noch an leistungsfähiger Technik, um die Ladung zu löschen. Probleme gibt es auch beim Bau entsprechend großer Tanks; sein Unternehmen habe einen mit immerhin 50 000 Kubikmetern entwickelt.

Strategien, um Technologie voranzutreiben

Die Mineralindustrie, sagte Bernd Nierhauve von der Aral, sehe noch 'auf sehr, sehr lange Zeit' die Zukunft in der Verbesserung herkömmlicher Kraftstoffe. Und bevor sie darangehe, ein Verteilernetz für alternative Brennstoffe aufzubauen, müßten sich Politik, Wissenschaft und Wirtschaft erst einmal auf eine gemeinsame Strategie einigen; derzeit nämlich verfolgten die Auto-Konzerne noch höchst unterschiedliche Konzepte, die Politik favorisiere gleichfalls mehrere.

Argumente gegen Wasserstoff

Während der nach eigenen Angaben vormals glühende Verfechter Günter Beckmann als einziger den Ausstieg aus der Wasserstoff-Technologie forderte ('Sie ist unsinnig, teuer und umweltschädlich'), suchten andere Teilnehmer den 'Energiekonsens', wie es Horst Teltschik nannte. Ohne eine solche Allianz werde es in einer vorkommerziellen Phase nicht gehen, sagte Carl-Jochen Winter.

Konkurrenzdenken hemmt die Entwicklung

'Wir müssen heute über das Jahr 2050 reden', verlangte er. Eckhard Lübbert erinnerte daran, daß das Bonner Forschungsministerium beispielsweise bei der Entwicklung von Brennstoffzellen Schwierigkeiten habe, zwei konkurrierende Firmen zusammenzuspannen. Tore Knobloch regte darum den Aufbau einer Fachagentur an. Er sieht es als Aufgabe der Politik, den Strukturwandel in der Energiewirtschaft 'sanft zu organisieren'. Das gehe auch ohne die 'typisch teutonische Endzeitneurose'. Dafür allerdings brauche es nicht nur 'reine' Forschungspolitik. 'Wir müssen das an Demonstrationsprojekten ausprobieren'.

Kompetenzzentrum in Planung

Der Freistaat will darum jetzt in Ottobrunn ein sogenanntes Kompetenzzentrum aufbauen, berichtete Hans Spitzer vom bayerischen Wirtschaftsministerium. Das habe der Ministerrat in der vergangenen Woche beschlossen. Die Einrichtung soll, vom Hause Wiesheu finanziell unterstützt, Forschung und Entwicklung koordinieren und in enger Zusammenarbeit mit der Industrie vorantreiben. Neben der DASA wollen dort auch zahlreiche andere Unternehmen einsteigen. So hätten das Bayernwerk, MAN, Linde, Mannesmann und BMW ihr Interesse bekundet. Obendrein seien zwei Leitprojekte geplant, ergänzte Strobl: eines am Münchner Flughafen sowie die Wasserstoffproduktion mit Energie aus Biomasse in Bad Brückenau.

Die Marktsituation

Denn eines war den Beteiligten aus Industrie, Forschung und Politik klar: Der Markt allein wird's nicht richten. Die Rahmenbedingungen, das machten die Teilnehmer deutlich, begünstigen nicht gerade die Abkehr von konventionellen Brennstoffen: Energie ist konkurrenzlos billig. In den USA beispielsweise, sagte Patrick Takahashi von der Universität von Hawaii, Berater des US-Energieministeriums, 'machen wir uns mit diesen Preisen etwas vor'. Veziroglu kritisierte, die Marktwirtschaft sei zwar 'frei', aber nicht 'fair'. Sie rechne Umweltkosten nicht auf die Energiepreise an. Experten schätzen die globalen öko-Schäden derzeit weltweit auf die stolze Summe von 2,7 Billionen US-Dollar.

Innovationen in anderen Ländern

Innovativ seien dagegen vor allem Länder wie Japan, in denen Energie teuer sei. Dort ist denn auch das derzeit ehrgeizigste Förderpaket verabschiedet worden, berichtete er. Unter der Leitung der Strategen der legendären Technologiebehörde MITI wurde das sogenannte WE-NET eingerichtet. Es ist Teil des großangelegten 'New Sunshine Programm', das in drei Phasen bis zum Jahre 2020 angelegt ist und bislang jährlich mit umgerechnet rund einer halben Milliarde Mark gespeist wird. Es spannt Dutzende japanische Konzerne zusammen, die ihrerseits weltweit kooperieren.

Die amerikanische National Hydrogen Association

Auch die USA wollen ihre Wasserstoff-Forschung aufstocken. Der Kongreß berät derzeit über ein neues Fördergesetz. Der sogenannte Hydrogen Future Act hängt noch im Senat. Was Energiesteuern angeht, ist Tore Knobloch hoffnungsfroh: 'Da wird sich etwas tun'. Man könnte auch 'von einem Innovationspfennig auf jeden Liter Benzin träumen', sagte der Experte aus dem Hause Merkl. Das brächte in der Bundesrepublik jährlich 800 Millionen Mark.


Der Stoff, aus dem die Träume sind

Hohe Kosten und eine komplizierte Speichertechnik machen die Verwendung schwierig Wasser - Stoff, aus dem die Träume sind? Wasser als Kraft- und Brennstoff hat für Generationen von Erfindern nichts von seiner Faszination verloren. Übersehen wird bei solchen euphorischen Betrachtungen jedoch meist die hohe Bindungsenergie von Wasserstoff im Wasser. Er muß also erst einmal aus dem Wasser in verwendbarer Form gewonnen werden - das geschieht durch die Elektrolyse, die ihrerseits wieder Energie verbraucht. Daneben läßt sich Wasserstoff aber auch aus Erdgas, durch

partielle Oxidation von Schwerölen und über die Kohlevergasung herstellen. Wasserstoff ist damit keine Primärenergiequelle, da er nicht direkt nutzbar auf der Erde vorkommt, sondern vielmehr ein Sekundärenergieträger, der allerdings durch eine außerordentlich hohe Verfügbarkeit glänzt.

Umweltfreundlicher Kreislauf

Faszinierend ist der umweltfreundliche Kreislauf. Bei einer CO2-freien Stromquelle zur Wasserstoffherstellung und einer Verbrennung mit reinem Sauerstoff ergibt sich ein völlig schadstofffreies System. In der Praxis wird jedoch nicht reiner Sauerstoff, sondern Luft verbrannt, so daß zwangsläufig Stickoxide entstehen - etwa in der Größenordnung wie bei unseren heutigen schadstoffarmen Ottomotoren.



Hauptproblem ist die Speicherung

Das Hauptproblem stellt nach wie vor die Speicherung dar: gasförmig, flüssig oder gebunden in Legierungen, nämlich Metallhydriden, die den gasförmigen Wasserstoff wie einen Schwamm aufsaugen und bei Bedarf wieder abgeben. Eine Speicherung als Gas in Hochdruckflaschen ist zwar schon seit langem bekannt, die Behälter sind jedoch für unsere Pkw noch viel zu schwer. Gespeichert im flüssigen Zustand liefert Wasserstoff die höchste masse- und volumenbezogene Energiedichte. Allerdings stellt die Handhabung der tiefkalten Flüssigkeit bei minus 253ø C enorme Anforderungen an die Isolation des doppelwandigen, vakuumisolierten Tanks. Metallhydrid-Speicher dagegen haben zwar eine hohe volumenmäßige Kapazität und ermöglichen variable Bauformen, bieten jedoch nur eingeschränkte Verfügbarkeit.

Effizienter Energieträger

Vorteile hat der Wasserstoff allerdings im Vergleich mit dem elektrochemischen Stromspeicher. Er stellt sich selbst im Vergleich zu den neuentwickelten Hochenergiebatterien als wesentlich effizienterer Energieträger dar.

Vorteil in manchen Unfallsituationen

Wasserstoff als farb-, geruch- und geschmackloses sowie ungiftiges Gas birgt generell keine höheren Sicherheitsrisiken als andere gasförmige Energieträger; in bestimmten Unfallsituationen bietet er sogar Vorteile gegenüber konventionellen Kraftstoffen. Durch seine hohe Verbrennungsgeschwindigkeit steigt allerdings die Gefahr von Detonationen, vor allem in geschlossenen Räumen. Deshalb muß eine ausreichende Belüftung sämtlicher Bereiche sichergestellt sein, in denen sich zündfähiges Wasserstoff-/Luftgemisch bilden kann.

Weltweit entwickelte Fahrkonzepte

Fahrzeugkonzepte sowohl mit Druck- und Flüssig-Wasserstoffspeicher als auch solche mit Metallhydrid-Speicherung sind bereits weltweit entwickelt und als Prototypen getestet worden - zum Teil sogar in Kundenhand. Die Gemischbildung erfolgte dabei entweder durch Zuführung in gasförmiger Form oder durch Einspritzung von flüssigem Wasserstoff in den Brennraum. Damit ist der Nachweis geführt, daß Wasserstoff als Energiequelle für den Verbrennungsmotor möglich und handhabbar ist.

Neues Verkehrssystem

Der Wasserstoff bedeutet ein neues Verkehrssystem. Er ist - was Herstellung, Transport, Speicherung, Verteilung und Anwendung im Fahrzeug angeht - erprobt und mit unseren heutigen Sicherheitsstandards technisch nutzbar. Einer kurz- und mittelfristigen Einführung stehen allerdings noch Hindernisse entgegen, wie: Erstens - höhere Herstellkosten gegenüber konventionellen Kraftstoffen, zweitens - Aufbau einer neuen Versorgungsinfrastruktur und drittens - die Notwendigkeit für eine bessere Speichertechnologie, die bezüglich Energiedichte und Kosten mit dem konventionellen

System konkurrieren kann.


Brennstoff aus dem Bakterienreaktor

Forscher entwickeln Konzept, wie Mikroorganismen aus Sonnenlicht Wasserstoff kostengünstig herstellen könnten Irgendwann in der Zukunft, vielleicht im 21. Jahrhundert, könnte ein neues Energiezeitalter eingeläutet werden: Wasserstoff wird dann das Erbe von Kohle, Erdöl und Erdgas antreten. Diese Aussage mag zwar angesichts der niedrigen Preise der fossilen Rohstoffe heute noch wie eine Utopie anmuten, doch die Forschungs- und Entwicklungslabors der großen Firmen bereiten sich längst darauf vor. BMW und Mercedes bauen bereits Autos und Busse mit Wasserstoffmotoren, die Daimler-Benz Aerospace arbeitet mit russischen Partnern an einem wasserstoffgetriebenen Airbus, und im oberpfälzischen Neunburg vorm Wald werden seit zehn Jahren die Komponenten einer Wasserstoff-Wirtschaft getestet: Solarzellen erzeugen dort elektrischen Strom, mit dessen Hilfe dann Elektrolyseanlagen Wasser in Wasserstoff und Sauerstoff spalten. Heizkessel und Brennstoffzellen verwandeln schließlich das Wasserstoffgas wiederum in Wärme und elektrische Energie.

Effiziente Technik

Auch Blockheizkraftwerke und neuartige Fahrzeugantriebe setzen auf wasserstoffabhängige Brennstoffzellen, denn diese Technologie ist effizient und umweltverträglich. Beim Verbrennen, also der Vereinigung von Wasserstoff und dem Sauerstoff der Luft entstehen nämlich neben reinem Wasser kaum Abfallprodukte - in einer Brennstoffzelle noch weniger als in einem Verbrennungsmotor oder Heizkessel.

Suche nach sinnvollem Herstellungsverfahren

Obwohl also Bausteine einer möglichen Wasserstoff-Welt in den letzten Jahren deutlich an Kontur gewannen, blieb ein wesentliches Problem ungelöst: Wie läßt sich der Energieträger Wasserstoff preisgünstig und umweltschonend erzeugen? Der Umweg über den elektrischen Strom aus Solarzellen, der im Neunburger Projekt verfolgt wird, erscheint nämlich wenig sinnvoll. Zum einen ist der Preis für den Kubikmeter Wasserstoffgas (entsprechend dem Heizwert von 0,3 Litern Benzin) mit rund acht Mark sehr hoch. Zum anderen gibt es auch genug direkte Einsatzmöglichkeiten für Solarstrom: Allein ins deutsche Stromnetz könnten nach Schätzung von Experten ohne Schwierigkeiten 25 000 Megawatt eingespeist werden - das 500fache der heutigen Jahres- Weltproduktion an Solarzellen und fast fünf Prozent der deutschen Kraftwerksleistung.

Bakterien als Wasserstoffproduzenten

Auf Kooperationspartner aus der Natur setzen deshalb Biologen und Verfahrenstechniker an deutschen Universitäten und Forschungseinrichtungen: Sie wollen Wasserstoff aus Kleinstlebewesen 'zapfen'. Denn Bakterien und auch Grünalgen produzieren unter bestimmten Bedingungen Wasserstoff. Purpurbakterien der Art Rhodospirillum rubrum beispielsweise können pro Kilogramm Biomasse täglich bis zu drei Kubikmeter Wasserstoff erzeugen. 'Was in manchen Waldseen an die Oberfläche steigt, sind nicht nur Methan-, sondern auch Wasserstoffblasen', sagt Sabine Tramm-Werner,Biotechnologin an der Rheinisch-Westfälischen Hochschule (RWTH) Aachen.

Arbeitsweise der Bakterien

Die Purpurbakterien leben in den tieferen Schichten der Seen und verarbeiten mit Hilfe des Sonnenlichts die organischen Substanzen, die zu ihnen hinunterschweben. 'Wenn sie zuviel Nahrung bekommen und zugleich unter Stickstoffmangel leiden, geben sie Wasserstoff ab, um das Innere ihrer Zellen im sicheren chemischen Gleichgewicht zu halten, erklärt Tramm-Werner.

Förderprogramm des Bundesforschungsministeriums

Zur Erforschung dieser natürlichen Wasserstoffquelle startete das Bundesforschungsministerium im Jahr 1990 das Förderprogramm 'Biologische Wasserstoffgewinnung'. Insbesondere zwei Enzyme der Mikroben standen dabei im Mittelpunkt der Forschungen: Unter Stickstoffmangel kann das eine, die 'Nitrogenase', seine normale Aufgabe, den Luftstickstoff zu Ammoniak zu binden, nicht erfüllen. Statt dessen fördert die Nitrogenase dann die Entstehung von Wasserstoff. Ihr Gegenspieler ist die sogenannte 'hup-Hydrogenase', die die Wasserstoffbildung hemmt. Genetische Mutation Im Rahmen des Forschungsprogramms gelang es dem Freiburger Biologen Jürgen Oelze, durch eine genetische Mutation diese Hydrogenase zu inaktivieren, worauf die Bakterien deutlich mehr Wasserstoff produzierten. Gar einen dreifachen Anstieg des Wasserstoffvolumens berichtete Jobst-Heinrich Klemme von der Universität Bonn nach der Zugabe von EDTA: Dieser chemische Stoff, so Klemme, habe zugleich die Hydrogenase- Aktivität gestoppt und die der Nitrogenase gesteigert.

Mikroorganismen, die Wasser zersetzen

In Cyanobakterien und Grünalgen wirken Hydrogenasen allerdings entgegengesetzt: Hier verhindern sie die Wasserstoffentstehung nicht, sondern fördern sie geradezu. Im Gegensatz zu Purpurbakterien spalten diese Mikroorganismen den Wasserstoff auch nicht aus organischem Material ab, sondern können Wasser in Wasserstoff und Sauerstoff zersetzen - was sie besonders interessant für technische Anwendungen macht.

Verfahrenstechnik weiterentwickeln

Allerdings ist es nicht einfach, ein Verfahren zu entwickeln, das die beiden entstehenden Gase voneinander trennt und so eine mögliche Knallgasreaktion verhindert. Im Förderprogramm zur biologischen Wasserstoffgewinnung konzentrierten sich die Forscher vor allem auf die grundlegenden Fragen der Biologie. Die Verfahrenstechnik kam dabei eindeutig zu kurz - eine Lücke, die Sabine Tramm-Werner nun als Koordinatorin eines neuen, ebenfalls von Bonn geförderten, Projekts zur 'mikrobiellen bisolaren Wasserstoff-Produktion' füllen will. 'Unsere Arbeitsgruppe aus Bio- und Verfahrenstechnikern will binnen eines Jahres im Freilandversuch eine kontinuierliche und energieautarke Wasserstoffproduktion erreichen - und das mit einer Mindestmenge von stündlich zwei Litern Wasserstoff pro Quadratmeter Kollektorfläche' steckt Tramm-Werner das Ziel ab.

Fahndung nach optimalen Mikroben

Die bereits erzielten Laborergebnisse auch unter tatsächlichen Einsatzbedingungen beizubehalten und den Prozeß zu stabilisieren, ist die eigentliche Herausforderung für die Biotechniker. In Hunderten von Gefäßen suchen die Forscher nun den besten Mikrobenstamm und seine optimalen Arbeitsbedingungen. 'Mit Rhodospirillum rubrum sind wir sehr zufrieden', so Tramm-Werner, 'es ist ein gutmütiges, stabil produzierendes Bakterium.'

Vorteil gegenüber Wasserstofferzeugung mit Sonnenenergie

Eine Schweizer Arbeitsgruppe hat damit schon über mehrere Monate hinweg kontinuierlich Wasserstoff erzeugt. Die Ausbeute von zwei Litern Wasserstoff pro Stunde und Quadratmeter entspricht zwar nur einem Sechstel der Energienutzung des Sonnenlichts, die Silizium-Solarzellen erreichen. Sie ist aber durchaus noch steigerungsfähig: Im Labor lieferten Bakterien - auch ohne genetische Veränderung - schon einmal mehr als die doppelte Menge an Wasserstoff, doch bisher nur für wenige Stunden. Ein zusätzlicher Vorteil von Tramm-Werners Konzept gegenüber der Wasserstoff-Erzeugung über Solarzellen: Es sind keinerlei komplizierten und teuren Elektrolyse-Apparaturen nötig. Grundelement 'Sandwich-Reaktor' Das Grundelement ist ein fünf Zentimeter dicker 'Sandwich-Reaktor' mit einer Platte in der Mitte, auf der sich die Purpurbakterien ansiedeln. Diese Zwischenplatte trennt den Reaktor in zwei Bereiche, die oben und unten miteinander verbunden sind. Schräg in die Sonne gestellt, erwärmt sich der vordere lichtdurchlässige Teil des Sandwichs und es entsteht ein 'Thermosiphon'-Effekt: Die Flüssigkeit mit dem Nährmedium für die Bakterien strömt zwischen der vorderen und der mittleren Platte nach oben und auf der im Schatten liegenden Rückseite wieder nach unten. Unterstützt wird dieser Kreislauf von den nach oben sprudelnden Wasserstoffbläschen, die die Bakterien ausstoßen. Auf diese Weise können die Nährstoffe ohne eine von außen angetriebene Pumpe die festsitzenden Mikroben umspülen. 'Das Optimum haben wir dann erreicht', sagt Tramm- Werner, 'wenn die Bakterien genau so viele Nährstoffe bekommen, daß sie sich zumindest für einige Monate selbst erhalten und ansonsten nur Wasserstoff produzieren.'

Symbiose mit Algen

Extreme Helligkeit sowie Hitze und Kälte sind eher schädlich. Bei diffusem Tageslicht und mittleren Temperaturen, wie sie in Mittel- und Südeuropa herrschen, fühlen sich die kleinen Wasserstoff-Fabrikanten am wohlsten. Da Purpurbakterien vor allem den Infrarotteil des Sonnenlichts ausbeuten, kann der Rest des Spektrums zudem anderweitig genutzt werden - etwa durch Solarzellen, die auf die sonnenzugewandte Platte montiert wurden, was die Energieausbeute des Systems weiter erhöht. 'Wir könnten auch wie in den natürlichen Seen die Nährstoffe für die Bakterien durch Algen erzeugen lassen, also eine Mischkultur anlegen, die sich selbst erhält', überlegt Tramm-Werner. Die richtigen Symbiosepartner zu finden, ist allerdings keine leichte Aufgabe.

Molke als Nahrung

Vorerst ernähren sich die Bakterien noch von organischen Stoffen, beispielsweise Laktat aus Molke, dem Nebenprodukt der Käseherstellung. Eine erste große Demonstrationsanlage könnte sich Tramm-Werner deshalb durchaus auf einer Alm vorstellen, 'wo die Molke sowieso anfällt und die Energieversorgung schwierig ist'. 200 Quadratmeter der Sandwichreaktoren könnten täglich mindestens 5000 Liter Wasserstoff liefern. Einmal im Frühjahr sollten die Reaktoren mit Purpurbakterien gefüllt werden, und vor Beginn des Winters würden sie dann gereinigt und stillgelegt.

Anstrengungen Japans

'Für eine derartige Demonstrationsanlage', so Tramm-Werner, 'wünschen wir uns noch einen Industriepartner, der einsteigt, wenn wir die Machbarkeit bewiesen haben.' Denn nicht nur die Einsatzmöglichkeiten von Wasserstoff sollten die Industriefirmen untersuchen, sondern auch, auf welche Weise dieser Energiespeicher gebaut wird. 'Sonst', warnt Tramm-Werner, 'sind es wieder einmal die Japaner, die hier die Nase vorn haben, da sie bereits massiv in diese Technologie investieren.' Auf der letzten Hannovermesse war jedenfalls der einzige hochrangige Industrievertreter, der starkes Interesse an ihren Konzepten zeigte, der Forschungschef eines großen japanischen Unternehmens.


Wasserstoff aus Traubenzucker

Wasserstoff verbrennt zu Wasser, ohne Schadstoffe oder Kohlendioxid freizusetzen, weshalb er als Energieträger der Zukunft gilt. Bislang läßt er sich jedoch nur in teuren Verfahren chemisch oder durch Elektrolyse herstellen. Einen Weg, Wsserstoff in Zukunft billiger aus Traubenzucker zu gewinnen, zeigen Jonathan Woodward und seine Kollegen vom Oak Ridge National Laboratory (New Scientist, Bd. 2037, S. 19, 1996).

Produktion über Enzyme

Der Trick der amerikanischen Wissenschaftler: Sie vereinfachen eine bereits bekannte Methode, Wasserstoff von Bakterien erzeugen zu lassen (SZ, 25.1.1996). So bedienen sie sich nicht mehr der Mikroorganismen, sondern nur noch deren Enzyme. Diese beschleunigen biochemische Reaktionen milliardenfach. Die Forscher nutzen zunächst einen solchen Biokatalysator, um Traubenzucker in Glukonsäure zu überführen. Dabei wird Wasserstoff frei, wonach das Hilfsmolekül erneut Wasserstoff vom Traubenzucker aufnehmen kann.

Archaebakterien aus Kohlehalden

Die Enzyme stammen auch Archaebakterien, die in glimmenden Kohlehalden oder Tiefseevulkanen vorkommen. Sie arbeiten bei 60 Grad Celsius, einer Temperatur, bei der die Reaktionen schnell ablaufen und sich keine schmarotzenden Bakterien in der Traubenzuckerlösung breitmachen. Weiter verbessern wollen die Forscher ihr Verfahren, indem sie ein drittes Enzym mit einbeziehen. Es setzt Traubenzucker aus Zellulose frei, dem Hauptbestandteil von Papier.


Vom Himmel über der Wüste

Solarstrom als Importartikel?

Im Gegensatz zur Photovoltaik über deutschen Dächern erscheint die Solarthemie im großen Maßstab geradezu wie ein exotisches Projekt. Weltweit gibt es bislang nur wenige Pilotanlagen, in Regionen, in denen die Sonne erbarmungslos vom Himmel scheint. Nun sagen Wasserstoff-Visionäre dieser Art der Stromgewinnung eine strahlende Zukunft voraus. Ihr Plan: in den Hitzezonen der Erde Energie zu erzeugen, sie im Wasserstoff zu speichern und so nach Europa zu transportieren.

Kostengünstiger Solarstrom

Carl-Jochen Winter von der Deutschen Forschungsanstalt für Luft- und Raumfahrt hält eine solche Strategie für notwendig, um von fossilen Brennstoffen loszukommen. Doch wie ausgereift ist die Technologie tatsächlich? Seit Jahren beispielsweise arbeitet in der Mojave-Wüste im südlichen Kalifornien ein Solarkraftwerk gigantischen Ausmaßes. Die neun nacheinander mit jeweils verbesserter Technik gebauten Einheiten haben zusammen mittlerweile eine installierte elektrische Leistung von 354 Megawatt. Errichtet wurden sie unter anderem mit deutscher Technik; die BMW AG ist daran beteiligt, mit 'guten Erfahrung', bestätigte BMW-Ingenieur Wolfgang Strobl. Die Anlage, die sich über mehr als 800 Hektar Wüstenland erstreckt, speise Strom in das Netz der Millionen-Metropole Los Angeles, zu Kosten von umgerechnet 30 Pfennig pro Kilowattstunde. In Deutschland erzeugter Photovoltaikstrom kostet indes noch immer ein Mehrfaches.

Funktionsweise der Anlage

Die Solarfarm in der Wüste mit dem Namen SEGS arbeitet nach folgendem Grundmuster: Riesige Spiegelrinnen, geformt wie überdimensionierte Schaufeln, sammeln gleichsam das Sonnenlicht ein. Sie sind in langen parallelen Reihen aufgestellt

und entsprechend dem Tagesgang der Sonne beweglich aufgehängt. Damit wird Öl erwärmt, das mit etwa 400 Grad Celsius in einem Rohrsystem die Spiegel mit einem Kraftwerksblock verbindet. Über einen sogenannten Wärmetauscher gibt das aufgeheizte Öl seine Energie in einen Dampfkreislauf ab, an dem eine konventionelle Turbine hängt.

Weitere Solarkraftwerke

Andere Anlagen wie in Riad (Saudi- Arabien) sammeln das Licht in riesigen Parabolspiegeln, welche die Strahlen auf einen Empfänger reflektieren, der zusammen mit einem Generator im Brennpunkt aufgehängt ist. Testmodule kleineren Zuschnitts laufen bereits. In anderen Demonstrationsanlagen bündeln Hunderte von konzentrisch angeordneten Spiegeln das Licht auf einen Empfänger an der Spitze eines Turmes in der Mitte. Die gesammelte Wärmeenergie wird in eine Turbine gespeist.

Das Wuppertal-Institut prüft

Nun soll das industriekritische Wuppertal-Institut für BMW prüfen, ob die Großtechnologie denn ökologisch korrekt sei. Strobl jedenfalls machte sich schon jetzt dafür stark, den Bau einer Solarthermieanlage in Nordafrika 'anzukurbeln'. Indes hängt von der Wahl des Platzes an der Sonne ab, ob der verlustreiche Umweg über das Speichermedium Wasserstoff überhaupt notwendig wäre. Anlagen, die in der Vergangenheit bereits einmal als Zukunftsprojekt für Südspanien gehandelt wurden, ließen sich an das kontinentale Stromnetz hängen, erinnerte Günter Beckmann von der HÜLS AG.


Der Preis für Wasserstoff

Immer wieder werden in der Öffentlichkeit astronomische Preise für Wasserstoff genannt, so etwa im Artikel 'Brennstoff aus dem Bakterienreaktor' (SZ vom 25. 1.), rund 23 DM für eine Menge Wasserstoff, die dem Energieinhalt eines Liters Benzin entspricht. Der Wasserstoff wird dabei mit Hilfe von Solarstrom aus Wasser gewonnen.

Falsche Preisberechnungen

Unserer Ansicht nach basieren die genannten Kosten auf Kalkulationen mit Kleinserien von Photovoltaikmodulen, Einzelanfertigungen von Elektrolyseuren und dem Betrieb von Forschungsanlagen. Doch dies ist einunlauterer Vergleichsmaßstab: Kein Mensch würde etwa ein Auto kaufen, das aus einzelgefertigten Teilen besteht - es könnte dann nämlich leicht eine Million DM kosten. Kaum hat man aber in die Markteinführung einer erneuerbaren Energiequelle investiert, wie etwa die Windenergie, so wird sie zum Selbstläufer und Deutschland zum weltweit zweitgrößten Anwender und einem der wichtigsten Exporteure. Man kann also im Fall der anderen erneuerbaren Energiequellen sagen: 'Wir haben es noch gar nicht ernsthaft versucht.'

Wasserstoff ist billiges Nebenprodukt

In der chemischen Industrie entsteht gasförmiger Wasserstoff teilweise als Nebenprodukt, das nicht mehr für weitere chemische Produktionsschritte genutzt wird. Dieser Wasserstoff (rund eine Milliarde m3 pro Jahr), der bisher entweder intern thermisch verwertet oder einfach in die Umwelt abgeblasen wird, stünde zu einem Preis von 0,44 bis 0,72 DM pro Liter Benzinäquivalent für energetische Anwendungen wie z. B. gekoppelte Strom- und Wärmeerzeugung mittels Brennstoffzellen zur Verfügung. Für die Anwendung im Automobilverkehr müßte er zusätzlich verdichtet werden und würde dann 0,87 bis 1,59 DM pro Benzinäquivalent kosten.

Günstige Erzeugung mit Wasserkraft und Biomasse

Wird der Flüssigwasserstoff mit kostengünstiger Elektrizität (z. B. aus kanadischen Wasserkraftwerken) erzeugt, so liegt der Preis frei Hafen Hamburg heute bei rund 2,25 DM und soll ab 1998 rund 1,80 DM pro Liter BzAqu. betragen. Tankfertiger Wasserstoff aus Biomasse kann bereits in wenigen Jahren mit Hilfe der Wasserdampfdruckvergasung zwischen 0,87 bis 1,74 DM pro Liter BzAqu. kosten. Besonders für die Land- und Forstwirtschaft kann diese umweltneutrale Erzeugung von Wasserstoff vor Ort mittelfristig sehr interessant werden. Zum Vergleich: Bei der Wasserstoffproduktion aus Algen- und Bakteriensystemen, die im SZ-Artikel diskutiert wird, geht man davon aus, daß langfristig gesehen Wasserstoff für 2,18 DM pro Liter BzAqu. hergestellt werden kann.


Gas gegeben: Saubere Kraft aus Isoliertanks

Die Autoindustrie testet Brennstoffzellen und 'Tiefkühl-Sprit' bereits auf der Straße Hans-Jürgen Drewitz (MAN), Hans-Ulrich Huss (Daimler-Benz AG) und Wolfgang Strobl (BMW AG) erläuterten die neuesten Testfahrzeuge, die mit Wasserstoff nahezu ohne Schadstoff-Ausstoß laufen. Aus dem Auspuff kommen weder krebserregende Substanzen, noch giftiges Kohlenmonoxid oder klimaschädliches Kohlendioxid. Auch die Stickoxid-Emissionen sind 'vernachlässigbar', weit unter geplanten strengen EU-Abgasnormen, im Falle Daimler-Benz gar bei Null. Gasbetriebener Bus in Erlangen

Seit April rollt ein Stadtbus der Firma MAN durch Erlangen, den die Konstrukteure für den Betrieb eines Verbrennungsmotors mit flüssigen Wasserstoff erheblich umgerüstet haben: Drei speziell isolierte und miteinander verbundene Tanks von jeweils knapp 200 Liter Inhalt haben sie unter dem Boden des Busses aufgehängt. Sie speichern den Wasserstoff bei einer Temperatur von minus 253 Grad Celsius und dreieinhalbfachem Überdruck; erst kurz vor dem Einblasen wird er zu Gas erwärmt. Mit den 57 Litern kommt der Bus lediglich 250 Kilometer weit, dann muß er an Spezialzapfsäulen frisch betankt werden. Beim Benzinbetrieb, der mit besserer Höchstleistung ebenfalls möglich ist, liegt die Reichweite bei rund 450 Kilometern.  Minikraftwerk Brennstoffzelle Mitte Mai hat die Daimler-Benz AG ihre Konstruktion 'Necar II' (New Electric Car) vorgestellt. Der Kleinbus läuft mit Strom. An Bord hat er allerdings nicht eine Batterie, sondern eine Art chemisches Minikraftwerk: ein Paket von Brennstoffzellen, in denen Wasserstoff mit dem Sauerstoff der Luft reagiert und daraus Strom liefert. Die Zellen bestehen aus jeweils zwei Metallplatten, den elektrischen Polen, die durch eine Spezialfolie getrennt sind. Durch ihre äußerst feinen Poren passen nur Protonen, Wasserstoffatome, die ihr jeweils eines Elektron gleichsam abgestreift haben, und so nach der Passage durch die ansonsten undurchlässige Membran mit Sauerstoff der zugeblasenen Luft reagieren, die freiwerdende Energie ermöglicht eine Art Umleitung der Elektronen, den Stromfluß. Mit dem Gaspedal steuert der Fahrer die Luftzufuhr und damit letzten Endes die Stromstärke.

Technische Verbesserungen

Die Brennstoffzellen sind heutzutage deutlich leichter als noch vor wenigen Jahren. Die Zellen leisten 50 Kilowatt, der Bus erreicht damit eine Geschwindigkeit von 110 Stundenkilometern. Der Wasserstoff ist beim Necar II in zwei 140-Liter-Tanks auf dem Dach gespeichert, bei einem Überdruck von 240 Atmosphären. Trotzdem kommt der Bus mit dem komprimierten Gas nicht weiter als 300 Kilometer. Denkbar ist darum gleichsam eine zusätzliche Kraftwerksschleife: den Wasserstoff an Bord aus Methanol zu gewinnen. Der könnte wie herkömmlicher Sprit getankt werden. Großtechnisch ließe sich Methylalkohol aus Erdgas oder Biomasse gewinnen.

Benzin neben Wasserstoff

Auch die BMW AG arbeitet nach Firmenangaben bereits an der vierten Generation von Versuchsfahrzeugen. Die Luxuskarosse der Siebener-Reihe, Version 1995, läuft mit einer Flüssigwasserstoff- Tankfüllung 400 Kilometer weit, kann aber ebenso mit Benzin betrieben werden. Das Volumen der Tanks haben die BMW-Konstrukteure deutlich verkleinert, das gesamte Kraftstoffsystem verbessert.


Daimler-Benz: Pkw mit Brennstoffzelle

Das Versuchsfahrzeug Daimer-Benz NECAR II:

Der Brennstoffzellen-Antrieb entwickelt sich immer näher zur Serienreife Aus dem Auspuff strömt nur reiner Wasserdampf Die Ingenieure glauben, schon in einigen Jahren Modelle der A-Klasse mit dem abgasfreien Antrieb ausrüsten zu können

Leise, nahezu geräuschlos, rollt die Großraumlimousine durch denGroßstadtverkehr. Nur ein Surren ist zu hören, wenn der Elektromotor seine Arbeit aufnimmt. Auf einem Display, das oberhalb des Rückspiegels angebracht ist, zucken Meßbalken hin und her. Die übrige Instrumentierung sieht so aus wie in nahezu jedem Minivan - wenn da nicht der große rote Knopf mit der Beschriftung 'Notaus' wäre. Ein Elektroauto, mag sich der kundige Leser nun denken - das ist aber nur die halbe Wahrheit. Tatsächlich wird der NECAR II elektrisch angetrieben, der Strom wird aber nicht aus einer Batterie gezapft. Brennstoffzelle unter der Rückbank

Der NECAR II bezieht seine Antriebsenergie aus einem Brennstoffzellensystem, das in einem Kasten unter der Rückbank untergebracht ist. Hier werden Sauerstoff - der aus der Umluft angesaugt wird - und Wasserstoffgas, das in einem Tank im Hochdach der Großraumlimousine transportiert wird, einer kontrollierten Reaktion zugeführt, bei der Strom entsteht. Als Abgas fällt dabei nur reiner Wasserdampf an, der in diesem Fall anstatt aus dem Kochtopf aus dem Auspuff strömt.

Kooperation

Der NECAR II ist ein Versuchsfahrzeug, das in einer firmeninternen Kooperation von Daimler-Benz und Mercedes- Benz entstanden ist. Am Antrieb mit einer Brennstoffzelle arbeiten die Forscher und Ingenieure schon seit längerem, weil diese alternative Antriebsquelle einen entscheidenden Vorteil hat: Sie ist absolut umweltfreundlichg. Sauerstoff und Wasserstoff stehen im Gegensatz zu den fossilen Energiequellen in wahrscheinlich nie versiegender Menge bereit.

Rasche Entwicklung

'Mobilität und Transport werden vor allem in den Schwellenländern wachsen', sagt Helmut Werner, der Vorstandsvorsitzende von Mercedes-Benz, schränkt aber gleichzeitig ein, daß 'der Verkehr auch für die Umwelt tragbar bleiben muß'. Zwar steckt nach Werners Ansicht im traditionellen Verbrennungsmotor noch ein erhebliches Verbesserungspotential, aber der Brennstoffzellenantrieb als eine Alternative soll bereits in einigen Jahren in die Serienproduktion aufgenommen werden. Die Entwicklung verläuft schneller als erwartet - vor allem mit der Verkleinerung der Bauteile haben sich schneller Fortschritte erzielen lassen, als die Forscher gehofft hatten. Die Entwicklung wird augenfällig, wenn man sich den drei Jahre alten Vorläufer des NECAR II ansieht: Hier waren die Brennstoffzelle, die periphere Technik und der Tank in einen Transporter vom Typ MB 180 gepackt worden, dessen Laderaum damit so vollgepfropft war, daß keinerlei Güter und nur noch zwei Personen befördert werden konnten. Die Daimler-Benz-Ingenieure glauben, binnen zwei, drei Jahren so weit zu sein, daß das Brennstoffzellensystem, das in mehrere kleinere Einheiten unterteilt ist, in die Karosserie der künftigen A-Klasse passen wird.

Zeitpunkt der Serienfertigung unklar

Wann allerdings genau mit der Serienproduktion begonnen werden kann, darauf wollen sich die Ingenieure nicht festlegen. Klar ist für sie nur, daß sich auch Omnibusse für den Einsatz anbieten. Der NECAR II verfügt über eine Reichweite von 250 Kilometern, das Doppelte bis Dreifache von 'konventionellen' Elektromobilen. Ein Problem stellt bislang allerdings das Betanken mit Wasserstoff dar. Kostengünstig können Autos mit Brennstoffzellenantrieb erst betrieben werden, wenn an jeder Tankstelle nicht nur Benzin, sondern auch Wasserstoff getankt werden könnte.

Methanol tanken

Daran ist jedoch - aus Sicherheits- und Kostengründen - nicht zu denken. Also sind die Forscher von Daimler-Benz auf den Trick gekommen, den Wasserstoff sozusagen erst an Bord herzustellen. Dazu muß Methanol in den Tank gefüllt werden, was technisch problemlos machbar wäre: An den Tankstellen müßte nur eine zusätzlicher Schlauch pro Zapfsäule eingerichtet werden. Dann würde das Methanol in einem chemischen Prozeß teilweise zu Wasserstoff umgewandelt werden - und in dem 'teilweise' liegt genau der Haken: Denn dabei fällt Kohlendioxid (CO2) an, was die Umweltverträglichkeit des Brennstoffzellenantriebs natürlich schmälert. Allerdings ist der CO2-Ausstoß nur ungefähr halb so hoch wie der eines vergleichbaren Benzinmotors, betonen die Techniker. Außerdem verursacht der 'Reformer', der für die Umwandlung des Methanols zuständig ist, einen zusätzlichen technischen Aufwand.

Ergebnisse der ersten Probefahrt

Wie sich bei einer ersten kurzen Fahrprobe herausstellte, kann man mit den Fahrleistungen, die der NECAR - was übrigens New Electric Car bedeutet -, durchaus leben, vor allem wenn nicht weite Autobahnstrecken der hauptsächliche Einsatzzweck sind. Die Großraumlimousine erreicht eine Höchstgeschwindigkeit von etwas mehr als 100 km/h, die Reichweite beträgt mit einer Gasfüllung etwa 250 Kilometer. Das Versuchsfahrzeug setzte sich allerdings noch etwas ruckartig und schwäbisch- behäbig in Bewegung - vielleicht darf man aber bei einem Leistungsmaximum von 50 kW (68 PS) nicht mehr erwarten. Offenbar ist auch das Energiemanagement noch verbesserungswürdig: Das Problem ist, daß der Brennstoffzelle immer genau so viel Energie entnommen werden muß, wie zur Fortbewegung oder zur Beschleunigung benötigt wird, da ja eine Zwischenspeicherung in einer Batterie entfällt. Und auch die halbautomatische Zweigang-Schaltungscheint noch nicht der Weisheit letzter Schluß zu sein.

Das Brennstoffzellen-System

Das Brennstoffzellensystem hat Daimler-Benz zusammen mit Spezialisten der kanadischen Firma Ballard Power Systems entwickelt. Das System, das aus zwei sogenannten Stacks besteht, ist in einem koffergroßen Kasten unter den beiden Rücksitzen untergebracht. Es bleibt in der V-Klasse (die im September mit konventionellen Antrieben auf den Markt kommt) sogar noch ein kleiner Kofferraum übrig. Die beiden Hochleistungs-Stacks bestehen aus jeweils 150 einzelnen Brennstoffzellen. Diese wiederum sind aus zwei Elektrodenplatten aufgebaut, die zur Heranführung des Wasser- und Sauerstoffs dienen. Eine weitere Komponente ist eine mit Edelmetall beschichtete Elektrolytfolie, die von den beiden Platten eingeschlossen wird. Durch eine Verringerung des Gewichts und eine Verbesserung der Geometrie des Systems konnten die Daimler-Benz-Ingenieure das Gewicht - gemessen pro Kilowatt Leistung - von 21 auf sechs Kilogramm reduzieren.

Experiment aus der Schulzeit

Wem dies alles zu kompliziert klingt, der möge sich doch an seine Schulzeit erinnern. Im Chemieunterricht war das Experiment mit dem Knallgas besonders beliebt: Dabei ergeben Wasser- und Sauerstoffgas ein Gemisch, das bei der Entzündung mit einem lauten Knall explodiert. So ähnlich funktioniert die Brennstoffzelle, nur daß es hier keine Explosion, sondern eine 'kalte' Reaktion gibt. Dies wird durch die Trennung der beiden Gase mit Hilfe der Elektrolytfolie erreicht. Winzige Öffnungen in der hauchdünnen Folie lassen nur Protonen, also positiv geladene Wasserstoff-Ionen durch, die auf der anderen Seite mit den Sauerstoffteilchen reagieren. Durch den Elektronenüberschuß auf der Wasserstoff-Seite und den Elektronenmangel auf der Sauerstoffseite bilden sich Plus- und Minuspol, an denen elektrische Energie entnommen werdenkann.

Weitere Hightech-Komponenten

Weitere Hightech-Komponenten des NECAR II sind der Druckgasbehälter, das Fahrzeugmanagement, die Energierückgewinnung und die neuen Schalldämpfer. Der Tank besteht nicht mehr wie beim NECAR I aus Aluminium, sondern aus klohlefaserverstärktem Kunststoff, wodurch bei halbem Gewicht doppelt soviel Wasserstoff getankt werden kann. Das Fahrzeug-Management ist jetzt auf einer Platine untergebracht, die nicht größer als eine DIN-A4-Seite ist. Ein Auto, das einen Mercedes-Stern am Kühlergrill trägt, muß natürlich auch den entsprechenden Komfort bieten - das hatten die Mercedes-Oberen ihren Daimler- Kollegen ins Lastenheft geschrieben. Für das gute Klima in dem Sechssitzer sorgt ein Reluktanzmotor in der Lüfteranlage, dessen Vorteil in der leichten Kühlbarkeit liegt: Bewegte Teile erhitzen sich im Vergleich zu einem Elektromotor weniger.

Noch unbestimmt: Der Preis

Noch unbeantwortet läßt Mercedes- Chef Werner allerdings die Frage nach den genauen Preisen künftiger Alltagsautos mit Brennstoffzellenantrieb. Für ihn ist nur klar, daß sie nicht mehr kosten dürfen als ihre konventionellen 'Brüder', da sonst eine Marktakzeptanz nicht erreicht werden kann. Warten wir also auf die Zeiten, in denen wir nahezu geräuschlos und abgasfrei durch die Städte und über Land gleiten werden - vielleicht kommen sie schneller, als wir jetzt glauben. Denn das Automobil wird auch künftig ein entscheidender Faktor der menschlichen Mobilität bleiben.


Erster PKW

Die Daimler-Benz AG, Stuttgart, hat in Berlin den ersten Pkw der Welt mit einer unter Alltagsbedingungen arbeitenden Brennstoffzelle - und damit ohne jeglichen Schadstoffausstoß - vorgestellt. Das Fahrzeug mit dem Namen 'NECAR II'  (New Electric Car) bezieht seine Energie aus der gesteuerten Reaktion von Wasserstoff- und Sauerstoffgas, bei der elektrischer Strom entsteht. Die neue Technik könnte nach Einschätzung des Unternehmens in 10 bis 12 Jahren eine echte und umweltfreundliche Alternative zu Fahrzeugen mit Otto- oder Dieselmotoren werden.

Millionen für die Forschung

Mit der Vorstellung des ersten Pkw mit einer Brennstoffzelle belege Daimler- Benz seinen Anspruch, auch während der kommenden technologischen Epoche die führende Position in der Fahrzeugentwicklung zu behalten, erklärte Helmut Werner, Vorstandsvorsitzender der Mercedes-Benz AG, Stuttgart. So werde Mercedes-Benz für Forschung und Entwicklung allein in den nächsten drei Jahren rund 11 Milliarden DM aufwenden. Das Forschungsfahrzeug 'NECAR II' produziert keinerlei Schadstoffe. Aus dem Auspuff entweicht lediglich chemisch reinster Wasserdampf. Da 'NECAR II' außerdem noch eine erheblich bessere Energie-Effizienz als batteriebetriebene Elektrofahrzeuge aufweise, sei es mit Abstand das umweltfreundlichste Automobil der Welt.

Vorzüge des Fahrzeugs

'NECAR II' könne sechs Personen befördern, fahre mehr als 100 km/h Spitze und beschleunige flott. Seine Reichweite betrage mit einer Gasfüllung über 250 km. Das Fahrzeug sei nicht nur schadstofffrei, sondern im Vergleich zu Autos mit Verbrennungsmotor auch sehr leise. Das vorgestellte Fahrzeug ist nach Angaben von Daimler-Benz auf Basis der neuen V-Klasse von Mercedes Benz entstanden, die ab September verkauft werde.


Wasserstoffbus nimmt Fahrt auf

Goppel sieht 'Fenster in Antriebszukunft des 21. Jahrhunderts' geöffnet Erlangen (SZ/dpa) - Der weltweit erste Linienbus mit Wasserstoffantrieb ist am Freitag in Erlangen in Betrieb genommen worden. Das von der MAN Nutzfahrzeuge AG  (München) entwickelte Fahrzeug soll zwei Jahre lang im öffentlichen Nahverkehr erprobt werden.

Kaum schädliche Abgase

Der Motor arbeitet nach Herstellerangaben nahezu emissionsfrei. Die Abgasrestemissionen betragen für Stickstoffoxide 0,4 Gramm pro Kilowattstunde und für Kohlenwasserstoff 0,04 Gramm pro Kilowattstunde. Diese Emissionen liegen um mehr als den Faktor zehn unter den für das Jahr 2000 erst angestrebten, sehr scharfen Eurogrenzwerten. Andere Emissionen wie Schwefeldioxid, Kohlenmonoxid und Kohlendioxid treten überhaupt nicht auf. Der Wasserstoffantrieb ist damit auch ein Klimaschutzantrieb. Umweltminister Thomas Goppel sagte, der Freistaat wolle Forschung, Entwicklung und Markteinführung von Wasserstofftechnologie forcieren.

Kosten des Projektes

Das Projekt wird vom Land Bayern mit 1,9 Millionen Mark und von der Europäischen Union mit 1,2 Millionen Mark unterstützt. Der Bus fährt zunächst acht Monate in Erlangen, anschließend wird er bei den Verkehrsbetrieben München sowie bei Autobus Oberbayern zwischen Kieferngarten und dem Flughafen München eingesetzt. 'Das Wasserstoffprojekt öffnet das Fenster in die Antriebszukunft des 21. Jahrhunderts', sagte Goppel.

Wasserstoff-Vorhaben in Bayern

Nach seinen Angaben sind derzeit sechs bayerische Wasserstoff-Vorhaben geplant. Dazu zählen die Teilversorgung im Gasnetz eines Münchner Stadtteils, der Einbau eines Wasserstofftriebwerks in ein Regionalflugzeug sowie die Entwicklung der unterfränkischen Kommune Bad Brückenau zur Wasserstoff- Modellstadt'. Bayern insgesamt solle, so Goppel, ein 'Wasserstoff-Technologiezentrum' werden.

Ausrüstung des Busses

Für den Bus wurde nach Herstellerangaben ein Erdgasmotor mit zwölf Liter Hubraum und Viertakt-Otto-Verbrennungsmotor umgerüstet. Drei Tanks zwischen Vorder- und Hinterachse speichern rund 570 Liter flüssigen Wasserstoff, dies reicht für eine Fahrt von etwa 250 Kilometern. In Erlangen soll der Bus täglich rund 200 Kilometer zurücklegen. Er wird im Betriebshof aus einer Flüssiggasanlage betankt.











Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen