Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz

Follow the Science?

Wie steht es in unserer Gesellschaft um das Vertrauen in wissenschaftliche Forschung? Wissenschaften werden sehr unterschiedlich beurteilt. Das Spektrum reicht von Verschwörungstheorien bis hin zu dem Aufruf „Follow the Science“. In gewisser Weise finden sich die Wissenschaften mitten in den gesellschaftlichen Auseinandersetzungen wieder. Können wir einem offenen wissenschaftlichen Erkenntnisprozess trauen? Gerade auch dann, wenn die Unsicherheit der Erkenntnis betont wird? Welche Wirkung hat die gesellschaftliche Auseinandersetzung um Vertrauen/Misstrauen auf die Wissenschaften und ihre Stellung in der Gesellschaft?

Der wissenschaftsskeptische romantische Ansatz

Nicht wenige gesellschaftliche Stimmen heute lehnen Wissenschaften rundum ab. Die Fundamentalkritik an wissenschaftlicher Erkenntnis ist nicht über Nacht entstanden. Seit vielen Jahrzehnten gibt es gesellschaftliche Strömungen, die wissenschaftliche Erkenntnisse radikal hinterfragen. Wichtige Quellen sind die alternative Medizin, eine weitgehende die Ablehnung der technikdominierten Industriegesellschaft, der Wunsch, zur naturnahen Lebensweise zurückzukehren, die Hochschätzung der Erkenntnisse antiker und indigener Völker. Für all diese Haltungen gibt es gute Argumente, aber bei vielen verhärten sie sich zu einer Weltanschauung, in der das vermeintlich Ursprüngliche den modernen zerstörerischen Entwicklungen gegenübersteht. Populär wurde die Einstellung in den 70er Jahren, für eine längere Zeit war sie eng verbunden mit einem progressiven politischen Ansatz.

Von der Romantik zur Gegenaufklärung

Doch das wandelte sich zusehends. Es entstanden Milieus, die von einem tiefsitzenden Misstrauen gegenüber den Wissenschaften geprägt sind. Das verknüpft sich in der letzten Zeit immer mehr mit der Bereitschaft, alternative Erkenntnisquellen zu trauen, die Tür zu Verschwörungstheorien ist weit offen. Denn alle eint miteinander das Feindbild einer seelenlosen wissenschaftlichen Forschung, die nur Ausdruck der herrschenden Schichten sei. Der politische Ansatz ist nicht mehr progressiv, sondern aufklärungsfeindlich.

Die Gegenbewegung: Follow the Science!

Zugleich entstanden in den letzten Jahren jene Milieus, die sich gegensätzlich orientieren. Es scheint, dass ihre Einstellung sich auch darüber findet, dass sie ein Antipode zu der erstgenannten ist. Hier gilt geradezu die Devise „Follow the science“. Im Zentrum stehen die neuen Bewegungen gegen den Klimawandel. Wird der Wahrheitsgehalt wissenschaftlicher Aussagen von der ersten Gruppe in Frage gestellt, so wird hier ein nahezu unbedingtes Vertrauen gefordert. „Die Wissenschaft“ wird zur Instanz, die über die richtige politische Einstellung entscheidet. Die Wissenschaft ist die Quelle moderner und weltoffener Erkenntnis.

Die Wissenschaft sagt Wahrheit?

Doch auch diese zweite Haltung ist in hohem Maße fragwürdig. Das ist aus mindestens zwei Gründen so. Zum einen ist auch der wissenschaftliche Forschungsprozess korrumpierbar. Das hat sich in der Vergangenheit leider des Öfteren gezeigt. Deshalb muss wissenschaftliche Forschung vor allem eines sein: selbstkritisch. Eine kritiklos angenommene wissenschaftliche Aussage droht ihre Wissenschaftlichkeit zu verlieren. Nach Popper ist es gerade die hohe Würde wissenschaftlicher Aussagen, dass sie widerlegt werden können. Man kann der Wissenschaft nichts Schlimmeres antun, als ihre Aussagen kritiklos zu akzeptieren. „Follow the science“? Verräterisch ist hier schon der Singular: Es gibt die Wissenschaften nicht im Singular. Es gibt „die Wissenschaft“ als Instanz nicht, sie ist eher ein Fetisch. Es gibt sehr wohl wissenschaftlich arbeitende Menschen, Gruppen, Communities. Aber diese ringen, wenn sie wissenschaftlich arbeiten, immer wieder darum, ob ihre Erkenntnisse konsistent, korrekt sind, was noch unbeantwortet, was unverstanden ist.

Wissenschaft nicht im Elfenbeinturm

Es gibt einen weiteren Grund, warum die zweite Haltung fragwürdig ist. Es gibt gute Gründe, den real existierenden Wissenschaften zu misstrauen. Tatsächlich ist jede wissenschaftliche Forschung von Geltungsdrang, Machtfragen, Ressourcengewinnung und so weiter bedroht. Es sind Menschen, die forschen. Es steht immer in Gefahr, dass gesellschaftliche Macht- und Einflussfragen in die Wissenschaft hineingetragen werden: Wer die Forschung bezahlt, will auch an den Ergebnissen partizipieren. Das gilt für Patentierungsverfahren wie für die Erschließung staatlicher Ressourcen.

Im Für und im Wider fehlt das Vertrauen in offene Erkenntnisprozesse

Beide Haltungen haben im Grunde kein Vertrauen in einen offenen und fehleranfälligen wissenschaftlichen Forschungsprozess. Die einen lehnen die Wissenschaft grundsätzlich ab, die anderen machen sie zur Instanz, die sagt, was wahr ist. Der größte Teil der wissenschaftlichen Forschung besteht aus Vermutungen und Hypothesen. Ein aufgeklärter Umgang mit Wissenschaft wird das immer betonen. Doch auch hier zeigt sich eine Variante eines grundlegenden Vertrauensverlustes in unserer Gesellschaft!

Zur Einführung zum Thema Vertrauen und zu weiteren Beiträgen

Energiearmut – was bedeutet das?

Russland hat nun die Gas Pipelines stillgelegt. Welche Folgen hat das für unseren Lebenswandel, für unsere Gesellschaft? Das ist tatsächlich sehr schwer abzuschätzen. Denn wir leben in einer modernen, vielfach vernetzten, hochkomplexen Gesellschaft. Wer die Diskussionen in diesen Tagen verfolgt, spürt die Unsicherheit in der Gesellschaft, eine Unsicherheit nicht nur über die Tagespolitik oder den kommenden Winter, sondern auch über die mittel- und langfristigen Wirkungen.  

Ein Wort zu den Fehlern der Vergangenheit

Vor der Abschätzung der gegenwärtigen Lage ein Wort zu den drastischen Fehlern der Vergangenheit, die uns in die heutige Lage gebracht haben. Der erste Fehler war offenkundig, sehr stark auf einen politisch äußerst schwierigen Energieexporteur Russland zu setzen. Der Reiz der leichten und preiswerten Energieversorgung, die nicht ganz so klimaschädlich ist wie Kohle, war zu groß. Preiswerte Energie ist für ein Hochindustrie- und Exportland von großer Bedeutung, es senkt die Produktionskosten. Der zweite mindestens ebenso große Fehler war, dass der Ausbau der Energiegewinnung der Zukunft, der regenerativen Energien in den 10er Jahren massiv vernachlässigt worden ist. Der Ausbau der Photovoltaik brach zu Beginn des Jahrzehnts ein, der Ausbau der Windenergie in der zweiten Hälfte des Jahrzehnts. Stattdessen wurde auch angesichts der offen aggressiven Politik Russlands Nordstream 2 beschlossen und zügig gebaut.

Unsere aktuelle Situation

Nun also liegt eine Zeit der Energiearmut vor uns, Deutschland muss mit weniger Energie auskommen. Die relative Energiearmut wird auch eine geraume Zeit anhalten. Die Anteile der Energieversorgung aus Russland war noch 2021 erheblich. Die Zufuhr von russischer Kohle und von russischem Öl wurden schon durch die Sanktionen zuvor gedrosselt. Unter den Primärenergieträgern hat Erdgas in etwa den Anteil von einem Viertel der Gesamtversorgung. Davon wiederum die Hälfte war bis zum letzten Jahr Gas aus Russland. Dieser Anteil ist in den letzten Tagen fast auf Null gefallen.

Die Besonderheit der Erdgasversorgung

Wenn eine Energieexporteur wie Russland nicht mehr zur Verfügung steht, ist es natürlich möglich, ihn durch andere zu ersetzen. Das ist bei Kohle und Öl auch recht leicht möglich. Für beide Energieträger gibt es ausgebaute weltweite Handelsstrukturen, es gibt einen Weltmarkt, auf dem weitere Käufe möglich sind. Die Infrastruktur für die Versorgung ist flexibel, Züge und Schiffe transportieren Kohle und Öl an nahezu beliebige Orte. Die Reduktion von russischem Öl und von russischer Kohle wird auch kaum diskutiert. Das ist allerdings bei Erdgas anders. Größere Mengen lassen sich als Flüssiggas transportieren oder durch Röhren senden. Die Umwandlung in Flüssiggas ist kompliziert und erfordert wiederum eine größere Logistik und Infrastruktur. Deutschland hat in der Vergangenheit auf die Versorgung durch Röhren gesetzt. Röhren lassen sich aber nicht schnell verlegen oder neu legen. Insofern ist das System viel starrer als bei Kohle und Öl. Das heißt: Erdgas kann erstens nicht so schnell ersetzt werden nd zweitens wird jeder Ersatz teurer und führt zu einer Verteuerung der Energieversorgung.

Akuter Energiemangel, höhere Preise

Energiearmut kann sich in akutem Energiemangel und in höheren Preisen äußern. Wenn ein eklatanter Energiemangel entsteht, wirkt das unmittelbar auf die hochkomplexen Versorgungssysteme zurück. Reicht die Energie oder fallen bestimmte Teile des Versorgungssystems im Winter aus? Die Bundesnetzagentur berät ja auch über Notfallpläne, um möglichen Schaden zu reduzieren. Eine akute Unterversorgung ist eine reale Gefahr. Dann potenziert sich der Schaden. Die aktuelle Preisentwicklung, die exorbitanten Steigerungen haben vor allem mit Ungewissheit und Spekulation zu tun, ob ein solcher eklatanter Mangel eintritt.

Was tun?

Gegen einen solchen drohenden Versorgungsausfall gibt es zwei Maßnahmen: Energie einsparen und Energie substituieren. Ersteres ist die beste aller Möglichkeiten. Sie hat positive Effekte auf den Klimawandel, sie schafft vielleicht dauerhaft ein verändertes Verhalten im Alltag, sie hilft durch verringerte Nachfrage zu einer Preissenkung. Die zweite Maßnahme verhindert auch einen akuten Ausfall, sie führt aber auch zu deutlich höheren Kosten. Und sie kann nicht so schnell zum Zuge kommen, weil Gas in der Infrastruktur nicht einfach durch Öl oder Kohle zu ersetzen ist.

Trotz aller Maßnahmen ist Energiearmut unausweichlich

Beide Maßnahmen aber können eine Energiearmut nicht verhindern, nur lindern. Wir werden nicht so schnell alternative Energiequellen im ausreichenden Umfang erschließen können. Welche Folgen hat das jenseits der katastrophischen Szenarien? Auf jeden Fall wird die verfügbare Energie auf lange Sicht deutlich teurer, auch mit einer LNG Gas Infrastruktur. Schon das hat erhebliche Auswirkungen auf das Industrie- und Exportland Deutschland. Die Produktion von energieintensiven Gütern wird unter Druck geraten. Die erhöhten Preise werden wirtschaftliche Verwerfungen zur Folge haben. Der einzige langfristige Ausweg daraus ist langfristig nur der radikale Ausbau erneuerbarer Energiequellen. Aber das dauert viele Jahre.

Gegen idealistische Tendenzen: Energie ist auch heute eine existentielle Grundgröße

In dieser Situation zeigt sich, dass Energieversorgung eine elementare Dimension auch einer hochmodernen Gesellschaft darstellt. Die Bundesregierung kann auch mit noch so viel Geld, Energie nicht ersetzen. Energie ist eine existentielle Grundgröße. Energiearmut ist deshalb auch eine bedrohliche Situation. Wir haben das lange unterschätzt. Da gibt es übrigens eine erkennbare Parallele zu unserem Verhältnis zur Landwirtschaft. Wir lebten viele Jahre in einem Energiereichtum, in einer Situation, in der Energie immer in größerem Umfang zur Verfügung stand als wir sie brauchten. Die gesellschaftlichen Diskussionen haben einen idealistischen Zug, sie unterschätzen die materiellen und damit auch energetischen Bedingungen des basalen Lebens (das gilt eigentümlicher Weise auch für die Börsen). Der richtige Wille und der erfinderische Geist machen aber nicht alles möglich. Wir waren zu leichtfertig, glaubten uns geschützt vor einer Energiearmut. Sonst hätten wir sonst den Ausbau regenerativer Energien viel entschlossener vorangetrieben.

Der Weg ist noch weit

Der Krieg in der Ukraine und das unsägliche Leid, die atemberaubende Destruktion sind wie ein Weckruf, der viele aufrüttelt. Wir fragen uns verwundert, warum all das Leid nicht zu verhindern war, welche Frühwarnsignale übersehen worden sind. Die Kraft der Destruktion macht sprachlos. Wir sind zutiefst irritiert: War denn nicht klar, dass der Wohlstand der Welt mit Freiheit, Wissenschaft und moderner, nachhaltiger Technik einher gehen muss?

Die Irritation des nahen Krieges

Uns irritiert das nahe Leid. Doch gab es dieses Leid nicht immer schon, ob im Jemen, ob in Äthiopien? Haben wir es nur besser von uns fernhalten können? Haben wir gedacht, dass ist eben eine andere Weltgegend? Eine Ausnahme in der deutschen Diskussion war Syrien. Hier reagierten viele in unserem Land ähnlich wie heute, mit viel Empathie. Der Krieg in der Ukraine geht aber noch darüber hinaus. Er ergreift uns mehr, weil der Krieg und seine Zerstörung unser Selbstverständnis trifft. Er erreicht uns in unserer Welt, in der wir uns eingerichtet haben

Das etwas träge Auenland Gefühl

Im Grunde haben wir im Deutschland der letzten Jahre ein Gefühl des „Auenlandes“ aufgebaut, eine glückliche Metapher des Psychologen Stephan Grünwald. Wir leben in einer Welt, die in den Grundzügen jetzt schon so ist, wie sie sein soll. Da draußen gibt es sicherlich noch eine andere, eine Rest-Welt. Doch die Zukunft der Welt ist durch unsere Gesellschaft repräsentiert. Sie steht für die modernen Errungenschaften der Menschheit, für Wissenschaft und Technik und auch für den freien Handel, der kontinuierlich Wohlstand erzeugt. Hinzu kommen die Freiheiten der Lebensführung, große kulturelle Ressourcen. Die meisten anderen Länder fallen dagegen ab, mit Bedauern sehen wir die Differenz und zugleich mit der Zuversicht, dass letztlich alles so werden wird wie es bei uns jetzt schon ist. Der Welthandel und der Austausch werden es schon richten.

Die offene Auseinandersetzung der Weltanschauungen

Doch nun der so nahe Krieg: Jetzt ist viel von Zeitenwende die Rede. Es kommt nun mächtig Bewegung in die Deutung der Welt. Solche Diskussionen waren in den letzten Jahren der Selbstgewissheit eher langweilig, irrelevant. Thomas Assheuer hat in DIE ZEIT einen großen Essay über unterschiedliche Weltdeutungen veröffentlicht. Seine Referenzautoren sind: Francis Fukuyama, Alexander Dugin, Zhao Tingyang. Sehr unterschiedliche Autoren: Francis Fukuyama war derjenige, der medienwirksam Anfang der 90er Jahre von einem liberalen Zeitalter, von dem Ende der Geschichte redete (und damit den Beginn des gerade skizzierten Zeitgeistes repräsentierte). Für den Liberalismus kämpft er auch heute: In einer neueren Veröffentlichung zeigt er aber mehr die Gefährdungen des Liberalismus auf, einerseits durch die neoliberale Wirtschaft andererseits durch postmoderne Strömungen. Alexander Dugin ist Vordenker des russischen Präsidenten und verbreitet faschistoide Gedanken mit seinen Reflexionen über die eurasische Kultur und die besondere Rolle Russlands. Zhao Tingyang wiederum gilt als Vordenker der chinesischen Führung. Sein Ansatz wurzelt in der chinesischen Geschichte, er erhebt die vorkaiserliche Zhou Dynastie zu einem leuchtenden Vorbild. Den beiden Letztgenannten ist eigen, dass sie mit den Grundannahmen liberalen Denkens nicht viel anfangen können.

Die Werte des Liberalismus gelten für alle

Warum die Beschäftigung mit den für uns abseitigen Weltanschauungen? Es zeichnet sich ab, dass der liberale Westen nicht einfach der Standard der modernen Welt ist, dass es nur einige bedauerliche periphere Abweichungen gibt. Vielmehr zeigt sich, dass große Teile der Menschheit in Ländern leben, die diese Standards nur wenig berücksichtigen. Und die Geschichte ist kein Selbstläufer hin zu immer mehr Liberalismus und Demokratie! Die nicht-liberalen Staaten repräsentieren immer noch den weitaus größten Teil der Menschheit. Allein in China leben so viele Menschen wie in dem gesamten traditionellen Westen. Übrigens sind bei den obigen Referenzautoren noch nicht die vorherrschenden Strömungen in Indien (Modi) und in muslimischen Ländern wie Pakistan, Indonesien berücksichtigt. Dies würde noch mehr deutlich machen, wie wenig liberale Werte einfach als Standard der Welt angenommen werden können.

Für einen streitbaren Liberalismus

Was heißt das? Wir brauchen weniger einen selbstgefälligen Liberalismus, der sich eh schon auf der Seite der Sieger wähnt, als stärker einen streitenden Liberalismus, einen, der nicht leichtfertig sich zum natürlichen universalen Wahrheit und zum Sieger der Geschichte erklärt, sondern der um die Mühen weiß, die vor uns liegen, damit die liberalen Werte tatsächlich zu einem Standard der meisten Menschen der Welt werden können. Hier braucht es eine echte Auseinandersetzung mit den immer noch sehr starken Alternativen. Wir brauchen eine offene Wahrnehmung der weltanschaulichen Differenzen in der Welt. Viele Beiträge in den Feuilletons dieser Tage wie der von Herrn Assheuer weisen in diese Richtung. Es bleibt noch viel zu tun.

Der Blogbeitrag zu Stephan Grünewald

Zum Artikel von Thomas Assheuer

Zur Hauptseite

Energie – leicht verfügbar!

Der Überfall Russlands auf die Ukraine hat auch die Frage der Energiesicherheit aufgeworfen. Es wird schmerzlich bewusst, wie abhängig Europa, vor allem Deutschland von den Energielieferungen Russlands ist. Wieso ist das nicht früher deutlich geworden, warum haben viele Akteure die Energieabhängigkeit so unterschätzt?

Die These:

Neben einer fatalen Marktorientierung gibt es in unserer Gesellschaft eine kulturell tiefsitzende idealistische Unterschätzung materieller und energetischer Abhängigkeiten.

Der Beitrag der Globalisierung

Die Globalisierung hat die Warenströme stark ansteigen lassen. Dies gilt auch für die Energieträger. Noch vor einigen Jahrzehnten hatten die Länder einen deutlich höheren Autarkiegrad, das heißt, die vornehmlich verwendeten Energieträger wurden in den Ländern selbst gewonnen. Das war in Europa vorrangig Kohle, aber auch Gas. Erst die zunehmende Abhängigkeit von Öl änderte die Situation. Diese Abhängigkeit wurde in der Ölkrise in den 70er Jahren des vergangenen Jahrhunderts schmerzlich bewusst. Doch ließen sich die Konflikte vorerst bereinigen.

Doch nun kehrt eine Energiekrise mit deutlich größerer Wucht zurück. Das liegt daran, dass in den vergangenen 30 Jahren, in der Hochphase der Globalisierung, viele Länder das Streben nach Autarkie aufgegeben haben und Energieträger dort gekauft haben, wo sie am günstigsten waren. Steinkohle zum Beispiel ist in Australien günstig und auch in Russland. Die Förderung von Steinkohle in Deutschland wurde beendet. Der Energieträger Erdgas gewann in den zurückliegenden Jahren für Deutschland massiv an Bedeutung. Der Weltmarkt wurde zu der Referenzgröße, um die Energieversorgung zu gestalten.

Erneuerbare Energien als Alternative

Zu dem globalen Handel von Energieträgern kam die Diskussion um den Ausbau erneuerbarer Energien hinzu. Denn zu der gleichen Zeit, in sich der Weltenergiemarkt ausbaute, wuchs die Einsicht, dass der massenhafte Gebrauch fossiler Energieträger das Weltklima bedroht. In Deutschland ist spätestens Ende der 90er Jahre der Ausbau regenerativer Energien diskutiert worden, ein erster wichtiger Schritt war das Erneuerbare Energien Gesetz (EEG) von 2000. Damit verbunden war die Hoffnung, dass die Energiewende zügig die Abhängigkeit von fossilen Energieträgern beenden kann. Doch dann verlor der Ausbau regenerativer Energien wieder an Dynamik, er wurde in den folgenden Jahren nur halbherzig und vor allem leichtfertig betrieben. Es gab Fortschritte, aber auf den gesamten Energiebedarf gesehen ist der Anteil regenerativer Energiegewinnung nach wie vor klein. Meist wird in der Diskussion der Strommarkt hervorgehoben, an dem die regenerativen Quellen fast 50 % Anteil haben. Doch macht der Strommarkt nur 20% der gesamten Endenergie aus. Der Anteil von Sonne und Wind an der Endenergie beträgt auch 2021 weniger als 10 %.

Energie ist da!

Zu der Frage am Anfang zurück: Wie sind wir also in dies Situation geraten? Zum einen war die Erwartung dem Weltmarkt gegenüber zu naiv. Zum anderen aber gibt es auch eine unheilvolle Unterschätzung der Elementargröße „Energie“ in unserer Gesellschaft. Hier wirkt ein tiefsitzendes kulturelles Deutungsmuster einer idealistischen Zivilisation: Die Unterschätzung der materiellen und energetischen Abhängigkeiten. Viele neigen dazu, mit der Ressource Energie sorglos umzugehen. Die Debattenbeiträge legen eher nah, dass mit gutem Willen und klugem Vernunftgebrauch alle Engpässe beseitigt werden können. Die widrigen Kräfte der Wirklichkeit lassen sich leicht überwinden, Abhängigkeiten und Mängel aushebeln. Man könnte das einen technologischen Optimismus nennen, aber dann müsste es mehr Interesse an den technischen Lösungen geben. Auf die Frage, wie wir der Gasabhängigkeit entfliehen können, heißt es leichthin: Mit regenerativer Energiegewinnung. Das ist prinzipiell richtig, aber die Mühen und die Zeit, bis ein solcher Zustand erreicht wird, werden leichtfertig überspielt. Wer weiß, wie abhängig das eigene Leben von einer ausreichenden Energieversorgung ist, argumentiert vorsichtiger. Die widrigen Kräfte der Wirklichkeit lassen sich nicht allein durch die Absicht allein überwinden.

Die kostbare Ressource Energie

Es gilt heute mehr denn je die Aussage von Ernst-Ulrich von Weizsäcker: Die größte Energiequelle der Zukunft ist das Energiesparen. Doch auch dann muss man Energie ernster nehmen, als kostbare Ressource und kann annehmen, sie sei einfach jederzeit verfügbar. Die meisten Bilder der Automobilunternehmen zu E-Mobility strahlen aber genau das aus: Allein schon der Elektroantrieb macht die Autos nachhaltig, unabhängig von ihrem Verbrauch, als hätten wir beliebige Mengen regenerativer Energien zur Verfügung. Da ist es dann auch nicht verwerflich, nach wie vor große und schwere Karossen zu produzieren. Dagegen gilt: Die Energie der Zukunft ist eine knappe und kostbare Ressource. Die Widerstände einer geringeren Verfügbarkeit werden wir noch lange spüren.  

Zur Hauptseite