KI – großes Mysterium und gesellschaftliche Herausforderung

Zurzeit gibt es eine intensive Debatte um neue Systeme Künstlicher Intelligenz. Diese IT-Systeme bieten in der Tat einen großen Innovationssprung gegenüber ihren Vorgängern, weil sie erstmals über Sprachmodelle verfügen, die so gut sind, dass auch längere Texte von ihnen in wenigen Sekunden generiert werden können. In vielen Medien wird nun diskutiert, was das bedeutet, dass nun so etwas wie ein intelligentes Gegenüber zum Menschen existiert, ein Gegenüber, das selbständig kommunizieren kann und vielleicht auf dem Wege ist, intelligenter als der Mensch zu werden.

Wir stehen tatsächlich vor einem Rätsel, einem Mysterium. Die KI ist unbestreitbar etwas so Großes und führt zu Veränderungen, die wir zurzeit kaum überschauen können. Diese Situation bietet ein Eldorado für Spekulationen und wilde Gerüchte. Wenn dann auch die Entwickler wie Sam Altman von Open AI mit drastischen Warnungen an die Öffentlichkeit gehen, scheint die Gefahr durch die neuen KI Systeme wirklich groß zu sein.

Was ist das Neue an ChatGPT?

Umso wichtiger ist es aber, sich vor weitreichenden Schlüssen zunächst einmal auf das Bekannte und Wahrscheinliche zu beziehen. Aufregung erzeugen diese Systeme, weil ihre Anwendungsmöglichkeiten gegenüber den älteren viel variantenreicher sind. Bisher konnten KI Systeme vor allem optisch vermittelte Muster erkennen und aus den Mustern bestimmte Folgerungen ableiten. Solche Muster waren Konstellationen von Spielsteinen wie bei dem höchstkomplexen Go-Spiel oder Bilder von Computertomographen im medizinischen Bereich oder die Konstellation von Verkehrsteilnehmern für Systeme des autonomen Fahrens. Auch gesprochene Sätze bestehen aus Mustern, aus akustischen Mustern, und können dementsprechend erkannt und übersetzt oder zu einer Sprachsteuerung verwendet werden.

Neu ist nun nach der Veröffentlichung von ChatGPT durch das Unternehmen OpenAI im letzten Herbst, dass Texte nicht nur übersetzt oder für die Maschinensteuerung verwendet werden, sondern von der KI autonom generiert werden können. Diese sind in der Lage, angemessen auf eingegebene Fragen, Aufforderungen oder auf andere Texte zu reagieren. Entscheidend ist, dass die neue Form von KI jetzt über ein leistungsfähiges Sprachmodell verfügt, das ihr hilft, scheinbar souverän mit der Bedeutung von Texten umzugehen.

Eine KI, die Sprache souverän verwendet, wirft Fragen auf

Damit, das ist wahrlich ein dramatischer Entwicklungssprung, sind die KI Maschinen nun in den Sprachraum der Menschen eingedrungen.  Sie produzieren selbständig Texte, die eine sinnvolle Bedeutung haben. Was sind die Folgen? Es zeichnen sich in der aktuellen Diskussion zwei Themenfelder ab, die sehr unterschiedlich zu bewerten sind. In dem ersten steht die große Frage nach einer Intelligenz im Mittelpunkt, die dem Menschen nun gegenübertritt, ja ihn möglicherweise dominieren kann. In dem zweiten konzentriert sich die Diskussion auf den Einfluss der Systeme auf die weitere Entwicklung der Gesellschaft, auf die zwischenmenschliche Kommunikation.

Wird die KI zu einem Gegenüber für den Menschen?

Zum ersten Themenfeld, der KI als menschliches Gegenüber: Sind diese Systeme so etwas wie eine menschlich geschaffene Kreatur, die der Entstehung des Menschen selbst nahekommt? Findet nun der Mensch in diesen Maschinen ein Gegenüber? Wir wissen es nicht. Die KI ist offenkundig ein schwer zu entschlüsselndes Mysterium.

Es gibt aber gute Gründe, die aktuellen Erfolge nicht zu hoch zu bewerten. Denn die Idee, dem Menschen ein maschinelles Gegenüber zu schaffen, stand schon ganz am Anfang der KI Forschung in den 50er Jahren des vergangenen Jahrhunderts. (vgl. den Beitrag zur Leitidee) Hier zeigt sich eine kulturell tiefsitzende Erwartung bzw. Befürchtung, es geht um Möglichkeiten und Grenzen menschlicher Handlungsmacht. Zu Beginn der KI Forschung waren technologische Mittel noch völlig unzureichend, aber die Idee prägte von Beginn an die weitere Entwicklung. Es ging von Anfang an um eine künstliche, aber menschenanaloge Intelligenz. Es ist deshalb nicht sehr überraschend, dass nach diesem Technologiesprung durch die Sprachmodelle erneut die Diskussion um die Menschenähnlichkeit auftaucht.

Was genau ist Intelligenz?

Ich vermute, dass das erste Themenfeld einigermaßen unfruchtbar ist. Das große Problem: Wir wissen nicht einmal genau, was das menschliche Bewusstsein, was menschliche Intelligenz auszeichnet. Es gibt keine allgemein geteilte Definition. Umso schwieriger wird es sein, die neuen KI Systeme einzuschätzen. Das Themenfeld war und ist hochspekulativ, viele suchten schon in der Vergangenheit weite Aufmerksamkeit, wie etwa die Singularitätsthese von Ray Kurzweil. Wahrscheinlich ist, dass sich nach einiger Zeit auch bei den neuen KI Modellen Grenzen zeigen werden, die den Unterschied zwischen Maschine und Mensch wieder deutlicher machen.  

KI verändert menschliche Gesellschaften

Das zweite Themenfeld ist aber schon dramatisch genug. Sprachliche Kommunikation ist für menschliche Gesellschaften von zentraler Bedeutung. Welche Folgen hat es, wenn nun Maschinen mühelos und eigenständig sinnvolle und situationsangemessene Texte schaffen können?

Was ist authentisch?

Ein erstes Problem ist die Frage der Authentizität. Wenn wir bislang einen längeren Text gelesen haben, konnten wir davon ausgehen, dass sie auf einer menschlichen Autorenschaft beruhten. Das ist nun vorbei. Auch noch so sinnvolle, bedeutende und gedanklich weiterführende Texte können das Ergebnis maschineller Algorithmen sein. Die Maschinen sind extrem leistungsfähig, sie produzieren fast zeitgleich Millionen von Texten zu völlig unterschiedlichen Themen. Die Systeme lernen darüber hinaus schnell dazu, sie werden von Textproduktion zu Textproduktion besser. Kurz: Sie erlangen übermenschliche Fähigkeiten in einem Bereich, der bislang allein den Menschen vorbehalten war. Was macht das mit der Autorenschaft, wird sie entwertet?

Was ist Fake, was sind Facts?

Ein zweites Problem ist eng mit dem ersten verwandt. Wir haben in den letzten Jahren viele Diskussionen um Fake News und Facts. Was ist nun, wenn Maschinen hunderttausende unterschiedlicher aber semantisch konsistenter Texte produzieren können, die eine ganz andere Welt vorgaukeln? Wenn sie zugleich in der Lage sind, Bilder zu manipulieren, die die Behauptungen der Texte scheinbar belegen? Was ist dann noch authentisch, was ist Fake? Es entsteht die Diskussion um Deep Fakes, die so präzise und umfassend sind, dass sie für die Endverbraucher kaum noch entschlüsselt werden können.

Wie sollen wir mit Wissen umgehen?

Ein drittes Problem zeigt sich im Bildungsbereich. Die Allverfügbarkeit von Texten und Wissen wertet den Erwerb von Wissen ab. Warum sollte sich irgendjemand die Mühe machen, jahrelang Bücher zu lesen und das Gelesene zu verarbeiten, wenn es eine Abkürzung in jedem Windows Word Programm gibt, in dem per Befehl die KI die gesuchten Inhalte in individuellen Texten ausgibt? Auch hier kann die KI Übermenschliches. Ein Mensch mag in seinem Leben einige tausend Bücher lesen und gedanklich verarbeiten können, eine KI leistet das einhunderttausendfache in kurzer Zeit und ist zugleich präzise, ohne Gedächtnisschwäche. Wie wird zukünftig der Umgang mit Wissen aussehen, wie wird sich die Bildung in den Schulen verändern?

Dies sind nur einige der zentralen gesellschaftlichen Probleme, die nun zu bearbeiten sind. Wie werden die Gesellschaften darauf reagieren? Wir wissen es noch nicht. Auch in ihren gesellschaftlichen Wirkungen ist die KI ein Mysterium. Die Veränderungen sind riesengroß und werden unsere Kultur herausfordern. Wir werden sehr wichtige, ja existentielle Debatten in der Zukunft zu führen haben, damit aufgeklärte, liberale und demokratische Gesellschaften auch in Zukunft bestehen können.

Zur Leitidee der KI

Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz