(0) Konjunkturen der Hoffnung

Die hier beginnende Reihe von Blog-Beiträgen zu den Wegen der Hoffnung möchte ich mit einer eher anekdotischen Beobachtung beginnen: Es gab offensichtlich Zeiten, in denen es einfacher, ja, populärer war, von Hoffnung zu reden. Das waren zum Beispiel die 60er Jahre des letzten Jahrhunderts. Diese Jahre waren geprägt von einem außerordentlichen Zukunftsoptimismus. Es war leicht, von Hoffnung zu reden, Hoffnungsbilder zu entwerfen.

Am wichtigsten war wohl ein Abstand zu den Zerstörungen des Zweiten Weltkrieges und die Erfahrungen eines stetigen Wirtschaftsaufschwungs. Im Rückblick werden die 30 Jahre zwischen dem Ende der 40er und den 70er Jahren in der Ökonomie auch „trente glorieuses“ genannt. Es gab ein kontinuierliches Wachstum in der westlichen Welt, es ging aufwärts, dieser Trend erfasst alle Menschen, die Ärmeren ebenso wie die Reicheren. Eine Metapher, die dieses Phänomen eines kollektiven Aufschwungs zum Ausdruck bringt, ist der „Fahrstuhleffekt“, ein von dem Soziologen Ulrich Beck geprägter Begriff. Die schmerzliche Aufarbeitung der Katastrophe der Shoah wurde dagegen in dieser Zeit weitgehend vermieden. Erst Ende des Jahrzehnts gab es immer mehr Stimmen, die auf das geschehene Unrecht hinwiesen und die eine gesellschaftliche Befassung erzwangen.

Zu dem wirtschaftlichen Aufschwung gesellte sich ein spürbarer technologischer Fortschritt.  Zu Beginn der 60er Jahre rief der amerikanische Präsident John F. Kennedy dazu auf, den Mond zu erreichen, 1969 wurde dies durch den berühmten Schritt des Astronauten Neil Armstrong in die Wirklichkeit umgesetzt. Die Computertechnik wurde vorangetrieben, die Rechenkapazität der Geräte stieg merklich an, auch wenn diese Zahlen für uns heute sehr klein erscheinen. Eine erste Simulation einer Künstlichen Intelligenz wurde durch das Computerprogramm Eliza von Joseph Weizenbaum realisiert. Die Atomspaltung schien eine unerschöpfliche Energiequelle zu verheißen, Proteste gab es in den 60er Jahren nur vereinzelt.

Science Fiction eroberte die Populärkultur. In den USA begeisterten die ersten Ausstrahlungen der neuen Serie „Star Trek“, in Deutschland wurde die Serie „Raumschiff Orion“ produziert. Die Eroberung des Weltalls schien eine logische Konsequenz des technischen Fortschritts auf der Erde.

In dieser Zeit traf das zentrale Werk von Ernst Bloch „Das Prinzip Hoffnung“ auf große Resonanz. Bloch erschließt in dem Werk auf vielschichtige Weise das Thema Hoffnung. Er bot neben einer tiefgreifenden philosophischen Analyse einen umfassenden Überblick über Utopie Entwürfe und „Tagträume“ der europäischen Kulturgeschichte. Das Werk war so umfassend, dass eine Behandlung des Themas Hoffnung ohne Referenz auf Ernst Bloch heute nicht mehr möglich ist.

Eng verbunden mit diesem Ansatz war eine politische Hoffnung, dass es nach der Aufteilung der Welt in zwei Blöcke, in einen kapitalistischen Block und einen sozialistischen, kommunistischen Block, möglich sein könne, auf einem dritten Weg die Vorteile beider miteinander zu kombinieren und einen freiheitlichen Sozialismus zu schaffen. Die politischen Diskussionen der Linken führten schließlich zu der eruptiven Entwicklung des Jahr 1968. Bis heute steht das Jahr als Kennzeichen für eine progressive politische Bewegung, einen politischen und kulturellen Aufbruch, der damals alle Länder des Westens erfasste.

Auch in der Theologie fand das Thema Hoffnung große Aufmerksamkeit. Der Theologe Jürgen Moltmann wurde schnell berühmt durch seinen Entwurf „Theologie der Hoffnung“. Aber auch andere Theologen wie Wolf-Dieter Marsch befassten sich mit einer theologischen Interpretation von Hoffnung.

Kurz, die 60er Jahren waren ofenkundig eine hoffnungsvolle Zeit. Es war leicht, von Hoffnung zu reden. Wäre es da nicht sehr attraktiv, an diese Zeit umstandslos anknüpfen zu können? Doch das ist nicht möglich. Wer heute an die Hoffnung appelliert, ist nicht zu Unrecht vielen kritischen Fragen ausgesetzt. In der Tat, kann der Appell „Seid hoffnungsvoll!“ schnell schal werden. Was unterscheidet eine solche Hoffnung von einem oberflächlichen Optimismus, der der Devise folgt: Besser Optimist sein als Pessimist?!

Der Kontrast der damaligen Zeit zu der unseren heute ist sehr auffällig. Aber was lässt sich daraus ableiten? Gibt es heute keinen Grund zur Hoffnung mehr? Oder war vielleicht der damalige Gebrauch des Wortes fahrlässig? Was meint Hoffnung genau? Hat Ernst Bloch die abschließende Antwort gegeben? Wir können wir heute uns wieder auf Hoffnung ausrichten, ohne einem Zweckoptimismus zu verfallen? Meint der Begriff „Hoffnung“ in jeder Zeit dasselbe oder je etwas anderes? Fragen über Fragen, die Anlass für die folgenden Beiträge in diesem Blog sind. Ob am Ende befriedigende Antworten stehen, muss offenbleiben. Sich mit Hoffnung zu befassen, scheint mir angesichts der gegenwärtigen Situation aber aller Mühe wert.

Zum folgenden Beitrag zum Thema Hoffnung

In welche gesellschaftliche Zukunft führen die KI Systeme?

Die Diskussionen um die Entwicklung neuer Generationen von Künstlicher Intelligenz nehmen immer mehr an Fahrt auf. Der entscheidende Durchbruch war die Entwicklung eines leistungsfähigen Sprachmodells ChatGPT, das die Firma OpenAI im letzten Herbst der staunenden Weltöffentlichkeit präsentierte.

Dynamik der Entwicklung nimmt stark zu

Seitdem sind viele weitere leistungsstarke KI Angebote hinzugekommen, große Firmen wie Google (LaMDA; Bard), Meta (LLaMA) und Microsoft (Azure) präsentieren eigene Varianten großer, leistungsfähiger KI. Hinzu kommen viele Entwickler, die mit Open Source Programmen wie LAION arbeiten. Die Dynamik der KI Entwicklung ist sehr hoch, es ist zu erwarten, dass eine Vielzahl von Anwendungen und Produkten demnächst verfügbar sein werden.

Welche Richtung schlagen die KI Entwicklungen ein?

Doch welche Richtung nimmt diese Entwicklung? Sind die KI Systeme einfach nur eine weitere Stufe der vielen Entwicklungen des Silicon Valley? Reihen sie sich ein in die Produktentwicklungen, die in den vergangenen Jahrzehnten die Welt verändert haben? Natürlich kann es nach dem jetzigen Stand keine eindeutige Antwort geben. Aber es gibt Indizien, die zeigen, dass mit der Entwicklung starker KI eine neue Richtung der Technikentwicklung eingeschlagen wurde, die sich definitiv von der vorigen unterscheidet. Diese Aussage möchte ich mit zwei Beobachtungen unterstützen.

Erste Beobachtung

Die erste Beobachtung betrifft die „Philosophie“, die Wertorientierung, die die Entwicklungen des Silicon Valley bislang getrieben haben. Gleich vorab muss ich einschränken, dass es nicht um die realen gesellschaftlichen Auswirkungen der Technologien geht. Die sind, das ist hinreichend bekannt, zum Teil höchst ambivalent. Es geht vielmehr um die Ideen, die die Entwicklungen getrieben haben.

Freiheit und Individualisierung

Die zentralen Ideen sind die der Freiheit und der Individualisierung und weltweite Vernetzung. Die Technologien des Silicon Valley sollten die freie Verfügbarkeit von Informationen fördern, sie sollten die Kommunikation unter den Menschen erleichtern. Die Menschen sollen frei entscheiden, mit wem sie wann und wo kommunizieren. Die traditionellen Bindungen und der soziale Nahraum sollten nicht mehr die entscheidende Rolle spielen. Zugleich zielten die Entwicklungen auch auf einen leichten Zugang zu Waren. Mit einem Klick soll jede und jeder die gewünschten Waren im Internet bestellen, Reisen buchen, Geld anlegen usw.

Diese Ideen sind in der Entwicklung eines Personal Computers zur individuellen Nutzung, in der Entwicklung des World Wide Web, in der Entwicklung unzähliger Internetseiten und der Suchmaschinen, die sie zugänglicher machen, in der Entwicklung der Social Media und in der Entwicklung des Smartphones und unzähliger Apps angelegt.

KI Systeme aggregieren Daten

Bei der Entwicklung der neuen leistungsstarken Formen der Künstlichen Intelligenz ist das anders. Hier werden im Kern Daten aggregiert, nicht distribuiert. Nun kann man sagen, dass auch die Leistungen der KI wie die Suchmaschinen allen verfügbar gemacht werden können. Doch bleiben die wertvollen Erkenntnisse wenigen vorbehalten.

Eine wichtige Einschränkung des Arguments weist darauf, dass Suchmaschinen wie Google und Plattformen wie Amazon auch in der Vergangenheit von der Aggregation von Daten gelebt haben, die nicht allen zugänglich sind. Das stimmt, hier gibt es eine kontinuierliche Entwicklung von den Plattformen und den Suchmaschinen zur KI. Aber die KI ist die erste Technologie, die von Beginn an darauf ausgerichtet ist.

Zweite Beobachtung

Die zweite Beobachtung, die das Argument stützt, ist die Art und Weise, wie die Entwickler der KI öffentlich kommunizieren.

Große Gefahren durch KI?

Statt in der für der Silicon Valley üblichen Weise Verheißungen für die Menschheit zu verkünden, warnten die Entwickler zunächst einmal im letzten Jahr und forderten den starken und regulierenden Staat, forderten ein Moratorium der Entwicklung.

Weltweites Grundeinkommen durch KI?

Besonders misstrauisch macht nun die Tatsache, dass Sam Altman, der an der Entwicklung von OpenAI zentral beteiligt war und der einen dystopischen Aufruf mit Warnungen vor wenigen Monaten unterschrieb, nun ins Gegenteil verfällt und eine Art Menschheitsbeglückung propagiert. Alle Menschen sollen ihre Identität über das Scannen der Augen sichern und fälschungssicher nachweisen (World ID) und dann ein weltweites Grundeinkommen in einer digitalen Währung (Worldcoin) erhalten. Dazu werden weltweit Millionen Augenscanner aufgestellt.

Neben der grundlegenden Frage, wie das ökonomisch bewertet werden kann, bleibt die Frage, warum die Entwickler von KI so wechselhaft agieren. Es liegt die Vermutung nah, dass sie selbst nicht wissen, wie sie eine Technologie, die definitiv demokratische Entwicklungen und Kulturen der Freiheit NICHT unterstützt, öffentlich vermarkten sollen. So schwanken sie zwischen öffentlichen Warnungen und einer Haltung der Menschheitsbeglückung.

KI als Herausforderung freier und demokratischer Gesellschaften

Fazit: die KI Technologien werden gerade die demokratischen und offenen Gesellschaften erheblich herausfordern. Politische und kulturelle Entwicklungen finden immer in Korrelation mit der technischen Basis einer Gesellschaft statt. Wie wird die Gesellschaft aussehen, in denen KI Systeme allgegenwärtig geworden sind?

Zur Leitidee der Künstlichen Intelligenz

KI als Sprachentwerter

Die Sprache ist ein Medium, aus dem Menschen schon immer ihr Selbstbewusstsein geschöpft haben. Menschen sind vor allem soziale Wesen und ihre Verbundenheit zeichnet sich durch nichts deutlicher aus als durch das gemeinsame Sprachvermögen. Kein Mensch spricht eine „Eigensprache“, die nur ihr oder ihm zugänglich wäre. Es ist konstitutiv für Sprache, dass sie von mehreren Menschen geteilt wird.

Die Bedeutung von Sprache

Sprache verbindet die Menschen miteinander und Sprache ist zugleich das Medium, in dem Menschen ihre Unterschiede deutlich machen können. Auch „Nein“ sagen geschieht in der Sprache. Sprache ist so fundamental, dass sie zugleich die Verbundenheit und Angewiesenheit von Menschen zum Ausdruck bringt, wie auch ihre gegenseitige Abgrenzung.

KI als Sprachmaschine

Sprache ist nicht irgendein menschliches Vermögen, sondern ein sehr zentrales, konstitutiv für jede menschliche Gesellschaft. Mitten in diese Sphäre ist nun sehr erfolgreich mit neuen Sprachmodellen versehene Künstliche Intelligenz gedrungen. Die Dynamik der Entwicklung ist hoch, schnell entwickeln diese Sprachprogramme übermenschliche Fähigkeiten. Sie verarbeiten Texte in unglaublicher Geschwindigkeit, verfügen in kurzer Zeit über ein immenses Wissen, können ohne Zeitverzögerung Sätze und lange Texte formulieren. Das wird erhebliche kulturelle Folgen haben, wie sind sie einzuschätzen?

Computer können rechnen

Wir haben schon so etwas wie eine Vorerfahrung. In den 70er Jahren des letzten Jahrhunderts waren allmählich Taschenrechner allgemein verfügbar, deren Rechenleistung menschliches Vermögen weit überstieg. Das war zunächst erstaunlich, aber schnell trat eine Gewöhnung ein. Computer waren schnell als exzellente Rechenmaschinen anerkannt mit übermenschlichen Fähigkeiten. Kopfrechnen wurde entwertet, niemand rechnet komplexere Rechnungen, die Arithmetik wird ganz dem Computer überlassen. Wird das bei den KI Aggregaten mit Sprachprogrammen wie ChatGPT nicht ganz ähnlich ablaufen?

Wahrscheinlich, jedoch ist der Unterschied zwischen der allgemeinen Verfügbarkeit von Sprache und der Beherrschung arithmetischer Fähigkeiten riesig. Die Arithmetik ist ein leicht eingrenzbarer Bereich menschlicher Fähigkeiten. Sprache ist ein viel stärker generalisiertes Medium ist als die Mathematik, viel stärker mit der Gesellschaft, ihrer Entwicklung und der menschlichen Identität verbunden.

Funktionale Sprache

Wir werden wohl dennoch ebenso alltägliche, routinierte Sprechakte und das Verfassen von Texten immer mehr den KI Aggregaten überlassen. Jede Form telefonischer Beratung kann künftig von Maschinen erledigt werden. Die Maschinen verfügen über ein nahezu ideales Wissen und sind unendlich geduldig und präzise, vielleicht auch bald einfühlsam. Ebenso wird die Abfassung von alltäglichen Texten und Gebrauchstexten künftig einer KI überlassen. Auch hier ist das instantan verfügbare Wissen nahezu perfekt.

Medial vermittelte Sprache wird als soziale Form entwertet

Vor allem medial vermittelte Sprache (Texte, Telefon, digitale Medien, soziale Medien) wird entwertet werden. Mit zunehmendem Gebrauch ist immer unklarer, wer oder was die Quelle der Äußerungen ist. Spricht eine KI mit mir? Antwortet auf meinen Post eine KI? Unterhalte ich mich nur mit Avataren? Hat das Buch ein Mensch geschrieben?

Die Folge: Die medial vermittelte Sprache wird entwertet. Wir werden sie weiterhin nutzen, doch ohne großes Engagement, sie hat keine soziale, eher noch funktionale Bedeutung. Die Folgen für die in unserer Gesellschaft sehr prominenten digitalen Medien werden dann erheblich sein. Wir antworten nur noch auf die Accounts, die wir persönlich kennen und hoffen, dass sie keine KI Avatare beschäftigen.

Der Nahbereich wird wieder bedeutender

Digital vermittelte Kommunikation zur sozialen Vernetzung verliert dadurch massiv an Bedeutung. Viele Menschen werden sich stärker auf den Nahbereich zurückziehen, dorthin, wo sichergestellt ist, dass echte Menschen Urheber der Sprache sind. In dem Nahbereich funktionieren dann auch digitale Medien, aber nicht mehr als weltumspannendes Kommunikationsmittel. Oder irre ich mich da?

Zur Leitidee der Künstlichen Intelligenz

KI – großes Mysterium und gesellschaftliche Herausforderung

KI – großes Mysterium und gesellschaftliche Herausforderung

Zurzeit gibt es eine intensive Debatte um neue Systeme Künstlicher Intelligenz. Diese IT-Systeme bieten in der Tat einen großen Innovationssprung gegenüber ihren Vorgängern, weil sie erstmals über Sprachmodelle verfügen, die so gut sind, dass auch längere Texte von ihnen in wenigen Sekunden generiert werden können. In vielen Medien wird nun diskutiert, was das bedeutet, dass nun so etwas wie ein intelligentes Gegenüber zum Menschen existiert, ein Gegenüber, das selbständig kommunizieren kann und vielleicht auf dem Wege ist, intelligenter als der Mensch zu werden.

Wir stehen tatsächlich vor einem Rätsel, einem Mysterium. Die KI ist unbestreitbar etwas so Großes und führt zu Veränderungen, die wir zurzeit kaum überschauen können. Diese Situation bietet ein Eldorado für Spekulationen und wilde Gerüchte. Wenn dann auch die Entwickler wie Sam Altman von Open AI mit drastischen Warnungen an die Öffentlichkeit gehen, scheint die Gefahr durch die neuen KI Systeme wirklich groß zu sein.

Was ist das Neue an ChatGPT?

Umso wichtiger ist es aber, sich vor weitreichenden Schlüssen zunächst einmal auf das Bekannte und Wahrscheinliche zu beziehen. Aufregung erzeugen diese Systeme, weil ihre Anwendungsmöglichkeiten gegenüber den älteren viel variantenreicher sind. Bisher konnten KI Systeme vor allem optisch vermittelte Muster erkennen und aus den Mustern bestimmte Folgerungen ableiten. Solche Muster waren Konstellationen von Spielsteinen wie bei dem höchstkomplexen Go-Spiel oder Bilder von Computertomographen im medizinischen Bereich oder die Konstellation von Verkehrsteilnehmern für Systeme des autonomen Fahrens. Auch gesprochene Sätze bestehen aus Mustern, aus akustischen Mustern, und können dementsprechend erkannt und übersetzt oder zu einer Sprachsteuerung verwendet werden.

Neu ist nun nach der Veröffentlichung von ChatGPT durch das Unternehmen OpenAI im letzten Herbst, dass Texte nicht nur übersetzt oder für die Maschinensteuerung verwendet werden, sondern von der KI autonom generiert werden können. Diese sind in der Lage, angemessen auf eingegebene Fragen, Aufforderungen oder auf andere Texte zu reagieren. Entscheidend ist, dass die neue Form von KI jetzt über ein leistungsfähiges Sprachmodell verfügt, das ihr hilft, scheinbar souverän mit der Bedeutung von Texten umzugehen.

Eine KI, die Sprache souverän verwendet, wirft Fragen auf

Damit, das ist wahrlich ein dramatischer Entwicklungssprung, sind die KI Maschinen nun in den Sprachraum der Menschen eingedrungen.  Sie produzieren selbständig Texte, die eine sinnvolle Bedeutung haben. Was sind die Folgen? Es zeichnen sich in der aktuellen Diskussion zwei Themenfelder ab, die sehr unterschiedlich zu bewerten sind. In dem ersten steht die große Frage nach einer Intelligenz im Mittelpunkt, die dem Menschen nun gegenübertritt, ja ihn möglicherweise dominieren kann. In dem zweiten konzentriert sich die Diskussion auf den Einfluss der Systeme auf die weitere Entwicklung der Gesellschaft, auf die zwischenmenschliche Kommunikation.

Wird die KI zu einem Gegenüber für den Menschen?

Zum ersten Themenfeld, der KI als menschliches Gegenüber: Sind diese Systeme so etwas wie eine menschlich geschaffene Kreatur, die der Entstehung des Menschen selbst nahekommt? Findet nun der Mensch in diesen Maschinen ein Gegenüber? Wir wissen es nicht. Die KI ist offenkundig ein schwer zu entschlüsselndes Mysterium.

Es gibt aber gute Gründe, die aktuellen Erfolge nicht zu hoch zu bewerten. Denn die Idee, dem Menschen ein maschinelles Gegenüber zu schaffen, stand schon ganz am Anfang der KI Forschung in den 50er Jahren des vergangenen Jahrhunderts. (vgl. den Beitrag zur Leitidee) Hier zeigt sich eine kulturell tiefsitzende Erwartung bzw. Befürchtung, es geht um Möglichkeiten und Grenzen menschlicher Handlungsmacht. Zu Beginn der KI Forschung waren technologische Mittel noch völlig unzureichend, aber die Idee prägte von Beginn an die weitere Entwicklung. Es ging von Anfang an um eine künstliche, aber menschenanaloge Intelligenz. Es ist deshalb nicht sehr überraschend, dass nach diesem Technologiesprung durch die Sprachmodelle erneut die Diskussion um die Menschenähnlichkeit auftaucht.

Was genau ist Intelligenz?

Ich vermute, dass das erste Themenfeld einigermaßen unfruchtbar ist. Das große Problem: Wir wissen nicht einmal genau, was das menschliche Bewusstsein, was menschliche Intelligenz auszeichnet. Es gibt keine allgemein geteilte Definition. Umso schwieriger wird es sein, die neuen KI Systeme einzuschätzen. Das Themenfeld war und ist hochspekulativ, viele suchten schon in der Vergangenheit weite Aufmerksamkeit, wie etwa die Singularitätsthese von Ray Kurzweil. Wahrscheinlich ist, dass sich nach einiger Zeit auch bei den neuen KI Modellen Grenzen zeigen werden, die den Unterschied zwischen Maschine und Mensch wieder deutlicher machen.  

KI verändert menschliche Gesellschaften

Das zweite Themenfeld ist aber schon dramatisch genug. Sprachliche Kommunikation ist für menschliche Gesellschaften von zentraler Bedeutung. Welche Folgen hat es, wenn nun Maschinen mühelos und eigenständig sinnvolle und situationsangemessene Texte schaffen können?

Was ist authentisch?

Ein erstes Problem ist die Frage der Authentizität. Wenn wir bislang einen längeren Text gelesen haben, konnten wir davon ausgehen, dass sie auf einer menschlichen Autorenschaft beruhten. Das ist nun vorbei. Auch noch so sinnvolle, bedeutende und gedanklich weiterführende Texte können das Ergebnis maschineller Algorithmen sein. Die Maschinen sind extrem leistungsfähig, sie produzieren fast zeitgleich Millionen von Texten zu völlig unterschiedlichen Themen. Die Systeme lernen darüber hinaus schnell dazu, sie werden von Textproduktion zu Textproduktion besser. Kurz: Sie erlangen übermenschliche Fähigkeiten in einem Bereich, der bislang allein den Menschen vorbehalten war. Was macht das mit der Autorenschaft, wird sie entwertet?

Was ist Fake, was sind Facts?

Ein zweites Problem ist eng mit dem ersten verwandt. Wir haben in den letzten Jahren viele Diskussionen um Fake News und Facts. Was ist nun, wenn Maschinen hunderttausende unterschiedlicher aber semantisch konsistenter Texte produzieren können, die eine ganz andere Welt vorgaukeln? Wenn sie zugleich in der Lage sind, Bilder zu manipulieren, die die Behauptungen der Texte scheinbar belegen? Was ist dann noch authentisch, was ist Fake? Es entsteht die Diskussion um Deep Fakes, die so präzise und umfassend sind, dass sie für die Endverbraucher kaum noch entschlüsselt werden können.

Wie sollen wir mit Wissen umgehen?

Ein drittes Problem zeigt sich im Bildungsbereich. Die Allverfügbarkeit von Texten und Wissen wertet den Erwerb von Wissen ab. Warum sollte sich irgendjemand die Mühe machen, jahrelang Bücher zu lesen und das Gelesene zu verarbeiten, wenn es eine Abkürzung in jedem Windows Word Programm gibt, in dem per Befehl die KI die gesuchten Inhalte in individuellen Texten ausgibt? Auch hier kann die KI Übermenschliches. Ein Mensch mag in seinem Leben einige tausend Bücher lesen und gedanklich verarbeiten können, eine KI leistet das einhunderttausendfache in kurzer Zeit und ist zugleich präzise, ohne Gedächtnisschwäche. Wie wird zukünftig der Umgang mit Wissen aussehen, wie wird sich die Bildung in den Schulen verändern?

Dies sind nur einige der zentralen gesellschaftlichen Probleme, die nun zu bearbeiten sind. Wie werden die Gesellschaften darauf reagieren? Wir wissen es noch nicht. Auch in ihren gesellschaftlichen Wirkungen ist die KI ein Mysterium. Die Veränderungen sind riesengroß und werden unsere Kultur herausfordern. Wir werden sehr wichtige, ja existentielle Debatten in der Zukunft zu führen haben, damit aufgeklärte, liberale und demokratische Gesellschaften auch in Zukunft bestehen können.

Zur Leitidee der KI

Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz