Kostenlose Energie für die Zukunft: »Fachwelt« schweigt Lösungen tot
Andreas von Rétyi
Kürzlich veröffentlichten Wissenschaftler der amerikanischen Stanford-Universität eine neue Studie, wie die üblichen fossilen Brennstoffe vollständig durch saubere, erneuerbare Energie ersetzt werden könnten. Der Übergang soll bis zum Jahr 2050 erreicht sein. Das alles klingt recht gut, doch zeichnen sich mittlerweile ganz andere Technologien ab, die alles bislang Dagewesene in den Schatten stellen. Allerdings schweigen sich Medien und Fachwelt darüber im »stillsten Einklang« komplett aus.
Der Anreiz lautet: 100 Prozent erneuerbare Energie. Das gilt natürlich vielen Forschern auf diesem Gebiet als erklärtes Klassenziel. Sie wollen die alten, schmutzigen Energieträger abschaffen und durch saubere Quellen ersetzen, die grundsätzlich in schier unerschöpflicher Menge vorhanden sind – Solarenergie, Wind- und Wasserkraft. Die damit verbundenen Konzepte scheinen realitätsnah, bodenständig und überaus sinnvoll mit Blick auf die Zukunft der Menschheit. Daher wundert sich prinzipiell (fast) niemand, dass die Energie-Diskussion vorwiegend in diese eine Richtung geführt wird.
Technisch umsetzbar sind diese Pläne laut vielzitierter Expertenmeinung gegenwärtig allesamt, und genau das zeichnet sie zunächst einmal ganz besonders aus. Eine neue Studie unter Leitung des US-Bau- und Umweltingenieurs Professor Mark Z. Jacobson von der Stanford-Universität zeigt anhand theoretischer Erwägungen auf, wie sich der große Plan bis zum Jahr 2050 für die gesamten Vereinigten Staaten umsetzen ließe.
Genauer gesagt entwickelte die Forschergruppe hierzu 50 einzelne Pläne, jeweils maßgeschneidert auf einen spezifischen US-Staat, um den unterschiedlichen Bedingungen gerecht zu werden. In jedem Fall verlangen diese Pläne aggressive Veränderungen in der Infrastruktur sowie in der Art und Weise, wie wir heute mit der Energie umgehen. Jacobson sieht die größten Hindernisse nicht nur in Gesellschaft und Politik. Auch die Industrie müsse erst einmal bereit sein, sich auf die massiven Veränderungen einzulassen. Damit hat er gewiss sehr Recht. »Indem man zeigt, dass das alles technisch und ökonomisch machbar ist,« so hofft Jacobson, »könnte diese Studie die Barrieren auf dem Weg zu einer groß angelegten Umwandlung herabsetzen«.
In kurzen Worten ausgedrückt, arbeitete Jacobsons Gruppe zunächst einmal heraus, wie es um die Energiebedürfnisse in den einzelnen US-Staaten bestellt ist und versuchte dazu auch Prognosen für die nächsten Jahrzehnte zu stellen. Die Forscher überprüften jeweils vier große Sektoren: Privathaushalte, Handel, Industrie sowie Transport, um dazu auch die herkömmlichen Energiequellen zu analysieren. Kohle, Öl, Gas und Kernkraft sollen in dem Prozess komplett durch erneuerbare Energien ersetzt, und die Energie in Form von Elektrizität zur Verfügung gestellt werden.
Damit müssten auch sämtliche Fahrzeuge, wie sie heute auf den Straßen unterwegs sind, elektrisch gespeist werden, doch generell – ob nun im kleinen Haushalt oder in der großen Industrie – sei dies durch Integration bereits bestehender Technologie möglich, bei deutlicher Energieersparnis, die in
der neuen Studie mit rund 39 Prozent beziffert wird. Wesentlich wurde für Jacobsons Gruppe dann natürlich auch die individuelle Festlegung der geeignetsten Quellen für das neue elektrische Netz. Also erstellten der Stanford-Professor und seine Kollegen für jeden US-Staat entsprechende Karten mit Informationen über die durchschnittlich eintreffende Sonnenstrahlung, über Windstärken oder auch verfügbare geothermische Energie.
Bis zum Jahr 2030 könnten laut der Studie rund 80 Prozent des Übergangs geschafft sein, zum Jahr 2050 wäre Vollständigkeit erreicht. In einigen Staaten würde die Umstellung wegen der günstigen Bedingungen relativ zügig vonstattengehen, andernorts jedoch mehr Zeit in Anspruch nehmen. So seien Iowa und South Dakota gut gerüstet, da sie bereits jetzt nahezu 30 Prozent ihrer elektrischen Energie aus Windkraft erzeugten. Jacobson betont, dass in jedem Staat nur ein halbes Prozent der Gesamtfläche mit Solarpanelen oder Windturbinen ausgestattet werden müssten, um das Ziel zu erreichen.
Der Professor verweist gerne auf die Vorteile des Wandels – angesichts der steigenden Kosten fossiler Brennstoffe sowie der Auswirkungen auf Klima und Gesundheit. Die Umstellung auf erneuerbare Energien werde hingegen die Kosten konventioneller Systeme halbieren, neue Arbeitsplätze schaffen, die Preise für Brennstoffe stabilisieren, die schädlichen Emissionen der Vereinigten Staaten eliminieren und durch Luftverschmutzung verursachte gesundheitliche Probleme reduzieren. Jedes Jahr sterben laut Jacobson rund 63 000 Menschen wegen entsprechender Atemprobleme.
Doch ganz so glatt dürfte der Umbruch kaum verlaufen, vor allem auch, weil die stets propagierten erneuerbaren Energien kaum mehr als eine Übergangslösung darstellen können. Und dies aus mehreren Gründen. So sauber und perfekt, wie oft und gerne suggeriert, sind die »Erneuerbaren« bei näherem Hinsehen leider nicht. Vielfach gibt es genau dort Probleme, wo zunächst niemand damit gerechnet hätte.
Allein, was die Windkraft angeht, tauchen schnell so manche Schwierigkeiten auf. Schon vor Jahren haben Wissenschaftler des renommierten Massachusetts Institute of Technology (MIT) im Rahmen einer Studie darauf hingewiesen, dass in immer größerer Zahl aufgestellte Windkraftturbinen zu
Veränderungen des Klimas führten. Die Atmosphären-Forscher erklärten: Würden die Windturbinen lediglich zehn Prozent des US-Energiebedarfs abdecken, würde die Temperatur durch die fortwährende Aufnahme von Windenergie über dem Land um rund ein Grad Celsius zunehmen.
Forscher der Aberdeen-Universität brachten im Jahr 2013 noch einen ganz anderen, verblüffenden Aspekt von Windkraftnutzung zur Sprache. Sie stellten ein scheinbares Paradoxon fest: Große Windkraftwerke in Großbritannien setzen genauso viel Kohlendioxid frei wie herkömmliche Brennstoffe. Wie kann das nur (schief)gehen? Die bevorzugt für die Windkraftwerke genutzten Hochland-Torfböden Großbritanniens bilden hervorragende Kohlendioxidspeicher – von mindestens 3,2 Milliarden Tonnen Kohlenstoff ist da die Rede.
Durch das Anlegen von Straßen und die schweren Fundamente für die Windräder ändert sich vieles. Wenn das Land trockengelegt wird, verliert der Boden zusammen mit der Feuchtigkeit auch die Speicherfunktion, Kohlendioxid wird freigesetzt. Die vermeintlich getroffenen Vorsorgemaßnahmen, wie sie von der Industrie angesprochen werden, dürfen laut Auskunft der schottischen Wissenschaftler getrost als blanke Floskeln betrachtet werden. Das Thema ließe sich ausweiten, sowohl hinsichtlich der Windkraft als auch anderer erneuerbarer Energiequellen. Schnell aber wird klar, dass die Nachteile oft verschwiegen werden.
Verschwiegen werden aber auch andere, viel weiterreichende Lösungsansätze. Nicht, dass alle von ihnen schnell umgesetzt werden könnten. Doch sind sie potenziell von einer so gewaltigen Konsequenz, dass auf diesem Sektor bislang von Einzelnen geleistete Pionierarbeit mit aller Kraft gefördert und vorangetrieben werden müsste. Nur, in der Praxis geschieht rein gar nichts, außer, dass führende Köpfe auf dem Gebiet reinrassig revolutionärer Konzepte zu sauberen und unerschöpflichen Energiequellen in ein Kreuzfeuer der Kritik geraten und sogar in ihrer Arbeit
behindert werden. Dabei geht es hier nicht um abgedrehte Fantasten, sondern vielfach um sehr fähige Wissenschaftler und Ingenieure, deren unabhängig erzielte Ergebnisse allerdings ein gewaltiger Dorn im Auge der Industrie sein müssen.
Einige utopisch anmutende Konzepte aber von vornherein nur wegen ihrer »Unglaublichkeit« und »Abstrusität« zu verwerfen, könnte ein fataler Fehler sein. So auch im Fall einer heiß umstrittenen Entdeckung des amerikanischen Arztes, Elektroingenieurs und Erfinders Randell L. Mills, für den sich bereits vor Jahren sogar die US-Raumfahrtbehörde NASA zu interessieren begann. Mills beschreibt einen besonderen Zustand des Wasserstoffatoms, in dem Elektronen sehr wesentlich unter den physikalisch definierten Grundzustand fallen, wodurch Energie frei wird – mehr als bei einer chemischen Wasserstoffverbrennung, aber weniger als bei einer Kernreaktion.
Die winzigen H-Atome, die dabei entstehen, bezeichnet Mills als »Hydrinos«. Wissenschaftler sträuben sich in aller Regel gegen diese Darstellung, da die etablierte Physik nur eine Lösung für den Grundzustand des H-Atoms liefere; insbesondere enthalte sie keine Hydrino-Lösung. Doch einige Fachleute halten das Thema durchaus für diskussionswürdig. Der belgische Physiker Jan Naudts will der Hydrino-Theorie eine Chance geben und glaubt sogar, sie ließe sich in die anerkannten Modelle einbinden. Außerdem hält er die allgemeinen Streitereien für typisch – eine solche Diskussion trete immer dann zutage, wenn eine neue Theorie sich durchsetzen muss.
Bezeichnend ist hierzulande auch die Art und Weise, wie mit den erstaunlichen Ergebnissen des Physik-Professors Claus Turtur verfahren wird. Seine Grundlagenexperimente verweisen klar auf Möglichkeiten, die (auch von der etablierten Physik geforderte) Energie des Vakuums anzuzapfen, jene überall im Universum vorhandene Raumenergie. Doch was nicht sein darf, kann auch nicht sein, und entsprechend durfte der von Professor Turtur präsentierte Raumenergie-Konverter ebenfalls nicht sein. So folgten übersteigerte Forderungen von Fachkollegen, die Versuche unter allen möglichen Extrembedingungen zu wiederholen.
Dies wohl vor allem nur deshalb, um ein unbequemes, nicht wirklich ins Bild passendes Problem vom Tisch zu bekommen. So sollte das Experiment unter Weltraumbedingungen durchgeführt werden, direkt in der Schwerelosigkeit, während gleichfalls empfohlen wurde, weitere Versuche auch in Anwesenheit sehr starker Gravitationsfelder zu wiederholen. Irgendwann einmal vielleicht beim
Riesenplaneten Jupiter. Sicher, am besten in einer sehr fernen Zukunft!
Zu viel steht auf dem Spiel, etablierte Konzepte werden nicht so schnell über den Haufen geworfen. Hinzu kommt auf dem großen Parkett auch noch ein weiterer Faktor: Überall kostenfrei verfügbare Raumenergie ließe die Menschen unabhängig werden, und das dürften ganz bestimmte Kreise gewiss nicht begrüßen.
Die teils dramatischen Vorgänge rund um die Raumenergie erinnern ein wenig an die Geschichte um den unglücklichen Erfinder Johann Bessler, der ein vermeintliches Perpetuum mobile fand, dessen Energiequelle nie gefunden werden konnte. Seine Räder liefen monatelang ununterbrochen, selbst nachdem sie versiegelt und streng kontrolliert worden waren.
Die größten Gelehrten der Zeit waren fasziniert und rätselten, ohne die Lösung zu finden. Der Erfinder nahm sein Geheimnis trotz einiger kryptischer Andeutungen mit ins Grab. Bis heute bleibt der Mechanismus ein Mysterium, das niemand nachweislich aufklären konnte. Bessler, nur ein Scharlatan, alles nur ein Märchen?
Mag sein, dass auch die Experimente mit Hydrino-Energie und Raumenergie-Konvertern für manchen Zeitgenossen kaum anders als ein schönes, modernes Energiemärchen erscheinen, doch wäre dies nicht das erste vermeintliche Märchen, das nur deshalb wahr wird, weil Einzelne fest von der Richtigkeit ihrer gewagten Ideen überzeugt waren, weil kühne Visionen und entbehrungsreiche Pionierarbeit zum unerwarteten Durchbruch führten. Vielleicht wiederholt sich die Geschichte hier nun ein weiteres Mal.
.
Copyright © 2015 Das Copyright dieser Seite liegt, wenn nicht anders vermerkt, beim Kopp Verlag, Rottenburg
Bildnachweis: Sergey Nivens/ Shutterstock
Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Meinung des Verlags oder die Meinung anderer Autoren dieser Seiten wiedergeben.
Keine Kommentare:
Kommentar veröffentlichen