KI – großes Mysterium und gesellschaftliche Herausforderung

Zurzeit gibt es eine intensive Debatte um neue Systeme Künstlicher Intelligenz. Diese IT-Systeme bieten in der Tat einen großen Innovationssprung gegenüber ihren Vorgängern, weil sie erstmals über Sprachmodelle verfügen, die so gut sind, dass auch längere Texte von ihnen in wenigen Sekunden generiert werden können. In vielen Medien wird nun diskutiert, was das bedeutet, dass nun so etwas wie ein intelligentes Gegenüber zum Menschen existiert, ein Gegenüber, das selbständig kommunizieren kann und vielleicht auf dem Wege ist, intelligenter als der Mensch zu werden.

Wir stehen tatsächlich vor einem Rätsel, einem Mysterium. Die KI ist unbestreitbar etwas so Großes und führt zu Veränderungen, die wir zurzeit kaum überschauen können. Diese Situation bietet ein Eldorado für Spekulationen und wilde Gerüchte. Wenn dann auch die Entwickler wie Sam Altman von Open AI mit drastischen Warnungen an die Öffentlichkeit gehen, scheint die Gefahr durch die neuen KI Systeme wirklich groß zu sein.

Was ist das Neue an ChatGPT?

Umso wichtiger ist es aber, sich vor weitreichenden Schlüssen zunächst einmal auf das Bekannte und Wahrscheinliche zu beziehen. Aufregung erzeugen diese Systeme, weil ihre Anwendungsmöglichkeiten gegenüber den älteren viel variantenreicher sind. Bisher konnten KI Systeme vor allem optisch vermittelte Muster erkennen und aus den Mustern bestimmte Folgerungen ableiten. Solche Muster waren Konstellationen von Spielsteinen wie bei dem höchstkomplexen Go-Spiel oder Bilder von Computertomographen im medizinischen Bereich oder die Konstellation von Verkehrsteilnehmern für Systeme des autonomen Fahrens. Auch gesprochene Sätze bestehen aus Mustern, aus akustischen Mustern, und können dementsprechend erkannt und übersetzt oder zu einer Sprachsteuerung verwendet werden.

Neu ist nun nach der Veröffentlichung von ChatGPT durch das Unternehmen OpenAI im letzten Herbst, dass Texte nicht nur übersetzt oder für die Maschinensteuerung verwendet werden, sondern von der KI autonom generiert werden können. Diese sind in der Lage, angemessen auf eingegebene Fragen, Aufforderungen oder auf andere Texte zu reagieren. Entscheidend ist, dass die neue Form von KI jetzt über ein leistungsfähiges Sprachmodell verfügt, das ihr hilft, scheinbar souverän mit der Bedeutung von Texten umzugehen.

Eine KI, die Sprache souverän verwendet, wirft Fragen auf

Damit, das ist wahrlich ein dramatischer Entwicklungssprung, sind die KI Maschinen nun in den Sprachraum der Menschen eingedrungen.  Sie produzieren selbständig Texte, die eine sinnvolle Bedeutung haben. Was sind die Folgen? Es zeichnen sich in der aktuellen Diskussion zwei Themenfelder ab, die sehr unterschiedlich zu bewerten sind. In dem ersten steht die große Frage nach einer Intelligenz im Mittelpunkt, die dem Menschen nun gegenübertritt, ja ihn möglicherweise dominieren kann. In dem zweiten konzentriert sich die Diskussion auf den Einfluss der Systeme auf die weitere Entwicklung der Gesellschaft, auf die zwischenmenschliche Kommunikation.

Wird die KI zu einem Gegenüber für den Menschen?

Zum ersten Themenfeld, der KI als menschliches Gegenüber: Sind diese Systeme so etwas wie eine menschlich geschaffene Kreatur, die der Entstehung des Menschen selbst nahekommt? Findet nun der Mensch in diesen Maschinen ein Gegenüber? Wir wissen es nicht. Die KI ist offenkundig ein schwer zu entschlüsselndes Mysterium.

Es gibt aber gute Gründe, die aktuellen Erfolge nicht zu hoch zu bewerten. Denn die Idee, dem Menschen ein maschinelles Gegenüber zu schaffen, stand schon ganz am Anfang der KI Forschung in den 50er Jahren des vergangenen Jahrhunderts. (vgl. den Beitrag zur Leitidee) Hier zeigt sich eine kulturell tiefsitzende Erwartung bzw. Befürchtung, es geht um Möglichkeiten und Grenzen menschlicher Handlungsmacht. Zu Beginn der KI Forschung waren technologische Mittel noch völlig unzureichend, aber die Idee prägte von Beginn an die weitere Entwicklung. Es ging von Anfang an um eine künstliche, aber menschenanaloge Intelligenz. Es ist deshalb nicht sehr überraschend, dass nach diesem Technologiesprung durch die Sprachmodelle erneut die Diskussion um die Menschenähnlichkeit auftaucht.

Was genau ist Intelligenz?

Ich vermute, dass das erste Themenfeld einigermaßen unfruchtbar ist. Das große Problem: Wir wissen nicht einmal genau, was das menschliche Bewusstsein, was menschliche Intelligenz auszeichnet. Es gibt keine allgemein geteilte Definition. Umso schwieriger wird es sein, die neuen KI Systeme einzuschätzen. Das Themenfeld war und ist hochspekulativ, viele suchten schon in der Vergangenheit weite Aufmerksamkeit, wie etwa die Singularitätsthese von Ray Kurzweil. Wahrscheinlich ist, dass sich nach einiger Zeit auch bei den neuen KI Modellen Grenzen zeigen werden, die den Unterschied zwischen Maschine und Mensch wieder deutlicher machen.  

KI verändert menschliche Gesellschaften

Das zweite Themenfeld ist aber schon dramatisch genug. Sprachliche Kommunikation ist für menschliche Gesellschaften von zentraler Bedeutung. Welche Folgen hat es, wenn nun Maschinen mühelos und eigenständig sinnvolle und situationsangemessene Texte schaffen können?

Was ist authentisch?

Ein erstes Problem ist die Frage der Authentizität. Wenn wir bislang einen längeren Text gelesen haben, konnten wir davon ausgehen, dass sie auf einer menschlichen Autorenschaft beruhten. Das ist nun vorbei. Auch noch so sinnvolle, bedeutende und gedanklich weiterführende Texte können das Ergebnis maschineller Algorithmen sein. Die Maschinen sind extrem leistungsfähig, sie produzieren fast zeitgleich Millionen von Texten zu völlig unterschiedlichen Themen. Die Systeme lernen darüber hinaus schnell dazu, sie werden von Textproduktion zu Textproduktion besser. Kurz: Sie erlangen übermenschliche Fähigkeiten in einem Bereich, der bislang allein den Menschen vorbehalten war. Was macht das mit der Autorenschaft, wird sie entwertet?

Was ist Fake, was sind Facts?

Ein zweites Problem ist eng mit dem ersten verwandt. Wir haben in den letzten Jahren viele Diskussionen um Fake News und Facts. Was ist nun, wenn Maschinen hunderttausende unterschiedlicher aber semantisch konsistenter Texte produzieren können, die eine ganz andere Welt vorgaukeln? Wenn sie zugleich in der Lage sind, Bilder zu manipulieren, die die Behauptungen der Texte scheinbar belegen? Was ist dann noch authentisch, was ist Fake? Es entsteht die Diskussion um Deep Fakes, die so präzise und umfassend sind, dass sie für die Endverbraucher kaum noch entschlüsselt werden können.

Wie sollen wir mit Wissen umgehen?

Ein drittes Problem zeigt sich im Bildungsbereich. Die Allverfügbarkeit von Texten und Wissen wertet den Erwerb von Wissen ab. Warum sollte sich irgendjemand die Mühe machen, jahrelang Bücher zu lesen und das Gelesene zu verarbeiten, wenn es eine Abkürzung in jedem Windows Word Programm gibt, in dem per Befehl die KI die gesuchten Inhalte in individuellen Texten ausgibt? Auch hier kann die KI Übermenschliches. Ein Mensch mag in seinem Leben einige tausend Bücher lesen und gedanklich verarbeiten können, eine KI leistet das einhunderttausendfache in kurzer Zeit und ist zugleich präzise, ohne Gedächtnisschwäche. Wie wird zukünftig der Umgang mit Wissen aussehen, wie wird sich die Bildung in den Schulen verändern?

Dies sind nur einige der zentralen gesellschaftlichen Probleme, die nun zu bearbeiten sind. Wie werden die Gesellschaften darauf reagieren? Wir wissen es noch nicht. Auch in ihren gesellschaftlichen Wirkungen ist die KI ein Mysterium. Die Veränderungen sind riesengroß und werden unsere Kultur herausfordern. Wir werden sehr wichtige, ja existentielle Debatten in der Zukunft zu führen haben, damit aufgeklärte, liberale und demokratische Gesellschaften auch in Zukunft bestehen können.

Zur Leitidee der KI

Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz

Follow the Science?

Wie steht es in unserer Gesellschaft um das Vertrauen in wissenschaftliche Forschung? Wissenschaften werden sehr unterschiedlich beurteilt. Das Spektrum reicht von Verschwörungstheorien bis hin zu dem Aufruf „Follow the Science“. In gewisser Weise finden sich die Wissenschaften mitten in den gesellschaftlichen Auseinandersetzungen wieder. Können wir einem offenen wissenschaftlichen Erkenntnisprozess trauen? Gerade auch dann, wenn die Unsicherheit der Erkenntnis betont wird? Welche Wirkung hat die gesellschaftliche Auseinandersetzung um Vertrauen/Misstrauen auf die Wissenschaften und ihre Stellung in der Gesellschaft?

Der wissenschaftsskeptische romantische Ansatz

Nicht wenige gesellschaftliche Stimmen heute lehnen Wissenschaften rundum ab. Die Fundamentalkritik an wissenschaftlicher Erkenntnis ist nicht über Nacht entstanden. Seit vielen Jahrzehnten gibt es gesellschaftliche Strömungen, die wissenschaftliche Erkenntnisse radikal hinterfragen. Wichtige Quellen sind die alternative Medizin, eine weitgehende die Ablehnung der technikdominierten Industriegesellschaft, der Wunsch, zur naturnahen Lebensweise zurückzukehren, die Hochschätzung der Erkenntnisse antiker und indigener Völker. Für all diese Haltungen gibt es gute Argumente, aber bei vielen verhärten sie sich zu einer Weltanschauung, in der das vermeintlich Ursprüngliche den modernen zerstörerischen Entwicklungen gegenübersteht. Populär wurde die Einstellung in den 70er Jahren, für eine längere Zeit war sie eng verbunden mit einem progressiven politischen Ansatz.

Von der Romantik zur Gegenaufklärung

Doch das wandelte sich zusehends. Es entstanden Milieus, die von einem tiefsitzenden Misstrauen gegenüber den Wissenschaften geprägt sind. Das verknüpft sich in der letzten Zeit immer mehr mit der Bereitschaft, alternative Erkenntnisquellen zu trauen, die Tür zu Verschwörungstheorien ist weit offen. Denn alle eint miteinander das Feindbild einer seelenlosen wissenschaftlichen Forschung, die nur Ausdruck der herrschenden Schichten sei. Der politische Ansatz ist nicht mehr progressiv, sondern aufklärungsfeindlich.

Die Gegenbewegung: Follow the Science!

Zugleich entstanden in den letzten Jahren jene Milieus, die sich gegensätzlich orientieren. Es scheint, dass ihre Einstellung sich auch darüber findet, dass sie ein Antipode zu der erstgenannten ist. Hier gilt geradezu die Devise „Follow the science“. Im Zentrum stehen die neuen Bewegungen gegen den Klimawandel. Wird der Wahrheitsgehalt wissenschaftlicher Aussagen von der ersten Gruppe in Frage gestellt, so wird hier ein nahezu unbedingtes Vertrauen gefordert. „Die Wissenschaft“ wird zur Instanz, die über die richtige politische Einstellung entscheidet. Die Wissenschaft ist die Quelle moderner und weltoffener Erkenntnis.

Die Wissenschaft sagt Wahrheit?

Doch auch diese zweite Haltung ist in hohem Maße fragwürdig. Das ist aus mindestens zwei Gründen so. Zum einen ist auch der wissenschaftliche Forschungsprozess korrumpierbar. Das hat sich in der Vergangenheit leider des Öfteren gezeigt. Deshalb muss wissenschaftliche Forschung vor allem eines sein: selbstkritisch. Eine kritiklos angenommene wissenschaftliche Aussage droht ihre Wissenschaftlichkeit zu verlieren. Nach Popper ist es gerade die hohe Würde wissenschaftlicher Aussagen, dass sie widerlegt werden können. Man kann der Wissenschaft nichts Schlimmeres antun, als ihre Aussagen kritiklos zu akzeptieren. „Follow the science“? Verräterisch ist hier schon der Singular: Es gibt die Wissenschaften nicht im Singular. Es gibt „die Wissenschaft“ als Instanz nicht, sie ist eher ein Fetisch. Es gibt sehr wohl wissenschaftlich arbeitende Menschen, Gruppen, Communities. Aber diese ringen, wenn sie wissenschaftlich arbeiten, immer wieder darum, ob ihre Erkenntnisse konsistent, korrekt sind, was noch unbeantwortet, was unverstanden ist.

Wissenschaft nicht im Elfenbeinturm

Es gibt einen weiteren Grund, warum die zweite Haltung fragwürdig ist. Es gibt gute Gründe, den real existierenden Wissenschaften zu misstrauen. Tatsächlich ist jede wissenschaftliche Forschung von Geltungsdrang, Machtfragen, Ressourcengewinnung und so weiter bedroht. Es sind Menschen, die forschen. Es steht immer in Gefahr, dass gesellschaftliche Macht- und Einflussfragen in die Wissenschaft hineingetragen werden: Wer die Forschung bezahlt, will auch an den Ergebnissen partizipieren. Das gilt für Patentierungsverfahren wie für die Erschließung staatlicher Ressourcen.

Im Für und im Wider fehlt das Vertrauen in offene Erkenntnisprozesse

Beide Haltungen haben im Grunde kein Vertrauen in einen offenen und fehleranfälligen wissenschaftlichen Forschungsprozess. Die einen lehnen die Wissenschaft grundsätzlich ab, die anderen machen sie zur Instanz, die sagt, was wahr ist. Der größte Teil der wissenschaftlichen Forschung besteht aus Vermutungen und Hypothesen. Ein aufgeklärter Umgang mit Wissenschaft wird das immer betonen. Doch auch hier zeigt sich eine Variante eines grundlegenden Vertrauensverlustes in unserer Gesellschaft!

Zur Einführung zum Thema Vertrauen und zu weiteren Beiträgen

Energiearmut – was bedeutet das?

Russland hat nun die Gas Pipelines stillgelegt. Welche Folgen hat das für unseren Lebenswandel, für unsere Gesellschaft? Das ist tatsächlich sehr schwer abzuschätzen. Denn wir leben in einer modernen, vielfach vernetzten, hochkomplexen Gesellschaft. Wer die Diskussionen in diesen Tagen verfolgt, spürt die Unsicherheit in der Gesellschaft, eine Unsicherheit nicht nur über die Tagespolitik oder den kommenden Winter, sondern auch über die mittel- und langfristigen Wirkungen.  

Ein Wort zu den Fehlern der Vergangenheit

Vor der Abschätzung der gegenwärtigen Lage ein Wort zu den drastischen Fehlern der Vergangenheit, die uns in die heutige Lage gebracht haben. Der erste Fehler war offenkundig, sehr stark auf einen politisch äußerst schwierigen Energieexporteur Russland zu setzen. Der Reiz der leichten und preiswerten Energieversorgung, die nicht ganz so klimaschädlich ist wie Kohle, war zu groß. Preiswerte Energie ist für ein Hochindustrie- und Exportland von großer Bedeutung, es senkt die Produktionskosten. Der zweite mindestens ebenso große Fehler war, dass der Ausbau der Energiegewinnung der Zukunft, der regenerativen Energien in den 10er Jahren massiv vernachlässigt worden ist. Der Ausbau der Photovoltaik brach zu Beginn des Jahrzehnts ein, der Ausbau der Windenergie in der zweiten Hälfte des Jahrzehnts. Stattdessen wurde auch angesichts der offen aggressiven Politik Russlands Nordstream 2 beschlossen und zügig gebaut.

Unsere aktuelle Situation

Nun also liegt eine Zeit der Energiearmut vor uns, Deutschland muss mit weniger Energie auskommen. Die relative Energiearmut wird auch eine geraume Zeit anhalten. Die Anteile der Energieversorgung aus Russland war noch 2021 erheblich. Die Zufuhr von russischer Kohle und von russischem Öl wurden schon durch die Sanktionen zuvor gedrosselt. Unter den Primärenergieträgern hat Erdgas in etwa den Anteil von einem Viertel der Gesamtversorgung. Davon wiederum die Hälfte war bis zum letzten Jahr Gas aus Russland. Dieser Anteil ist in den letzten Tagen fast auf Null gefallen.

Die Besonderheit der Erdgasversorgung

Wenn eine Energieexporteur wie Russland nicht mehr zur Verfügung steht, ist es natürlich möglich, ihn durch andere zu ersetzen. Das ist bei Kohle und Öl auch recht leicht möglich. Für beide Energieträger gibt es ausgebaute weltweite Handelsstrukturen, es gibt einen Weltmarkt, auf dem weitere Käufe möglich sind. Die Infrastruktur für die Versorgung ist flexibel, Züge und Schiffe transportieren Kohle und Öl an nahezu beliebige Orte. Die Reduktion von russischem Öl und von russischer Kohle wird auch kaum diskutiert. Das ist allerdings bei Erdgas anders. Größere Mengen lassen sich als Flüssiggas transportieren oder durch Röhren senden. Die Umwandlung in Flüssiggas ist kompliziert und erfordert wiederum eine größere Logistik und Infrastruktur. Deutschland hat in der Vergangenheit auf die Versorgung durch Röhren gesetzt. Röhren lassen sich aber nicht schnell verlegen oder neu legen. Insofern ist das System viel starrer als bei Kohle und Öl. Das heißt: Erdgas kann erstens nicht so schnell ersetzt werden nd zweitens wird jeder Ersatz teurer und führt zu einer Verteuerung der Energieversorgung.

Akuter Energiemangel, höhere Preise

Energiearmut kann sich in akutem Energiemangel und in höheren Preisen äußern. Wenn ein eklatanter Energiemangel entsteht, wirkt das unmittelbar auf die hochkomplexen Versorgungssysteme zurück. Reicht die Energie oder fallen bestimmte Teile des Versorgungssystems im Winter aus? Die Bundesnetzagentur berät ja auch über Notfallpläne, um möglichen Schaden zu reduzieren. Eine akute Unterversorgung ist eine reale Gefahr. Dann potenziert sich der Schaden. Die aktuelle Preisentwicklung, die exorbitanten Steigerungen haben vor allem mit Ungewissheit und Spekulation zu tun, ob ein solcher eklatanter Mangel eintritt.

Was tun?

Gegen einen solchen drohenden Versorgungsausfall gibt es zwei Maßnahmen: Energie einsparen und Energie substituieren. Ersteres ist die beste aller Möglichkeiten. Sie hat positive Effekte auf den Klimawandel, sie schafft vielleicht dauerhaft ein verändertes Verhalten im Alltag, sie hilft durch verringerte Nachfrage zu einer Preissenkung. Die zweite Maßnahme verhindert auch einen akuten Ausfall, sie führt aber auch zu deutlich höheren Kosten. Und sie kann nicht so schnell zum Zuge kommen, weil Gas in der Infrastruktur nicht einfach durch Öl oder Kohle zu ersetzen ist.

Trotz aller Maßnahmen ist Energiearmut unausweichlich

Beide Maßnahmen aber können eine Energiearmut nicht verhindern, nur lindern. Wir werden nicht so schnell alternative Energiequellen im ausreichenden Umfang erschließen können. Welche Folgen hat das jenseits der katastrophischen Szenarien? Auf jeden Fall wird die verfügbare Energie auf lange Sicht deutlich teurer, auch mit einer LNG Gas Infrastruktur. Schon das hat erhebliche Auswirkungen auf das Industrie- und Exportland Deutschland. Die Produktion von energieintensiven Gütern wird unter Druck geraten. Die erhöhten Preise werden wirtschaftliche Verwerfungen zur Folge haben. Der einzige langfristige Ausweg daraus ist langfristig nur der radikale Ausbau erneuerbarer Energiequellen. Aber das dauert viele Jahre.

Gegen idealistische Tendenzen: Energie ist auch heute eine existentielle Grundgröße

In dieser Situation zeigt sich, dass Energieversorgung eine elementare Dimension auch einer hochmodernen Gesellschaft darstellt. Die Bundesregierung kann auch mit noch so viel Geld, Energie nicht ersetzen. Energie ist eine existentielle Grundgröße. Energiearmut ist deshalb auch eine bedrohliche Situation. Wir haben das lange unterschätzt. Da gibt es übrigens eine erkennbare Parallele zu unserem Verhältnis zur Landwirtschaft. Wir lebten viele Jahre in einem Energiereichtum, in einer Situation, in der Energie immer in größerem Umfang zur Verfügung stand als wir sie brauchten. Die gesellschaftlichen Diskussionen haben einen idealistischen Zug, sie unterschätzen die materiellen und damit auch energetischen Bedingungen des basalen Lebens (das gilt eigentümlicher Weise auch für die Börsen). Der richtige Wille und der erfinderische Geist machen aber nicht alles möglich. Wir waren zu leichtfertig, glaubten uns geschützt vor einer Energiearmut. Sonst hätten wir sonst den Ausbau regenerativer Energien viel entschlossener vorangetrieben.

Der Weg ist noch weit

Der Krieg in der Ukraine und das unsägliche Leid, die atemberaubende Destruktion sind wie ein Weckruf, der viele aufrüttelt. Wir fragen uns verwundert, warum all das Leid nicht zu verhindern war, welche Frühwarnsignale übersehen worden sind. Die Kraft der Destruktion macht sprachlos. Wir sind zutiefst irritiert: War denn nicht klar, dass der Wohlstand der Welt mit Freiheit, Wissenschaft und moderner, nachhaltiger Technik einher gehen muss?

Die Irritation des nahen Krieges

Uns irritiert das nahe Leid. Doch gab es dieses Leid nicht immer schon, ob im Jemen, ob in Äthiopien? Haben wir es nur besser von uns fernhalten können? Haben wir gedacht, dass ist eben eine andere Weltgegend? Eine Ausnahme in der deutschen Diskussion war Syrien. Hier reagierten viele in unserem Land ähnlich wie heute, mit viel Empathie. Der Krieg in der Ukraine geht aber noch darüber hinaus. Er ergreift uns mehr, weil der Krieg und seine Zerstörung unser Selbstverständnis trifft. Er erreicht uns in unserer Welt, in der wir uns eingerichtet haben

Das etwas träge Auenland Gefühl

Im Grunde haben wir im Deutschland der letzten Jahre ein Gefühl des „Auenlandes“ aufgebaut, eine glückliche Metapher des Psychologen Stephan Grünwald. Wir leben in einer Welt, die in den Grundzügen jetzt schon so ist, wie sie sein soll. Da draußen gibt es sicherlich noch eine andere, eine Rest-Welt. Doch die Zukunft der Welt ist durch unsere Gesellschaft repräsentiert. Sie steht für die modernen Errungenschaften der Menschheit, für Wissenschaft und Technik und auch für den freien Handel, der kontinuierlich Wohlstand erzeugt. Hinzu kommen die Freiheiten der Lebensführung, große kulturelle Ressourcen. Die meisten anderen Länder fallen dagegen ab, mit Bedauern sehen wir die Differenz und zugleich mit der Zuversicht, dass letztlich alles so werden wird wie es bei uns jetzt schon ist. Der Welthandel und der Austausch werden es schon richten.

Die offene Auseinandersetzung der Weltanschauungen

Doch nun der so nahe Krieg: Jetzt ist viel von Zeitenwende die Rede. Es kommt nun mächtig Bewegung in die Deutung der Welt. Solche Diskussionen waren in den letzten Jahren der Selbstgewissheit eher langweilig, irrelevant. Thomas Assheuer hat in DIE ZEIT einen großen Essay über unterschiedliche Weltdeutungen veröffentlicht. Seine Referenzautoren sind: Francis Fukuyama, Alexander Dugin, Zhao Tingyang. Sehr unterschiedliche Autoren: Francis Fukuyama war derjenige, der medienwirksam Anfang der 90er Jahre von einem liberalen Zeitalter, von dem Ende der Geschichte redete (und damit den Beginn des gerade skizzierten Zeitgeistes repräsentierte). Für den Liberalismus kämpft er auch heute: In einer neueren Veröffentlichung zeigt er aber mehr die Gefährdungen des Liberalismus auf, einerseits durch die neoliberale Wirtschaft andererseits durch postmoderne Strömungen. Alexander Dugin ist Vordenker des russischen Präsidenten und verbreitet faschistoide Gedanken mit seinen Reflexionen über die eurasische Kultur und die besondere Rolle Russlands. Zhao Tingyang wiederum gilt als Vordenker der chinesischen Führung. Sein Ansatz wurzelt in der chinesischen Geschichte, er erhebt die vorkaiserliche Zhou Dynastie zu einem leuchtenden Vorbild. Den beiden Letztgenannten ist eigen, dass sie mit den Grundannahmen liberalen Denkens nicht viel anfangen können.

Die Werte des Liberalismus gelten für alle

Warum die Beschäftigung mit den für uns abseitigen Weltanschauungen? Es zeichnet sich ab, dass der liberale Westen nicht einfach der Standard der modernen Welt ist, dass es nur einige bedauerliche periphere Abweichungen gibt. Vielmehr zeigt sich, dass große Teile der Menschheit in Ländern leben, die diese Standards nur wenig berücksichtigen. Und die Geschichte ist kein Selbstläufer hin zu immer mehr Liberalismus und Demokratie! Die nicht-liberalen Staaten repräsentieren immer noch den weitaus größten Teil der Menschheit. Allein in China leben so viele Menschen wie in dem gesamten traditionellen Westen. Übrigens sind bei den obigen Referenzautoren noch nicht die vorherrschenden Strömungen in Indien (Modi) und in muslimischen Ländern wie Pakistan, Indonesien berücksichtigt. Dies würde noch mehr deutlich machen, wie wenig liberale Werte einfach als Standard der Welt angenommen werden können.

Für einen streitbaren Liberalismus

Was heißt das? Wir brauchen weniger einen selbstgefälligen Liberalismus, der sich eh schon auf der Seite der Sieger wähnt, als stärker einen streitenden Liberalismus, einen, der nicht leichtfertig sich zum natürlichen universalen Wahrheit und zum Sieger der Geschichte erklärt, sondern der um die Mühen weiß, die vor uns liegen, damit die liberalen Werte tatsächlich zu einem Standard der meisten Menschen der Welt werden können. Hier braucht es eine echte Auseinandersetzung mit den immer noch sehr starken Alternativen. Wir brauchen eine offene Wahrnehmung der weltanschaulichen Differenzen in der Welt. Viele Beiträge in den Feuilletons dieser Tage wie der von Herrn Assheuer weisen in diese Richtung. Es bleibt noch viel zu tun.

Der Blogbeitrag zu Stephan Grünewald

Zum Artikel von Thomas Assheuer

Zur Hauptseite

%d Bloggern gefällt das: