Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz

Autor: Frank Vogelsang

Ingenieur und Theologe, Direktor der Evangelischen Akademie im Rheinland, Themenschwerpunkt: Naturwissenschaften und Theologie

Ein Gedanke zu „Zur Leitidee der Künstlichen Intelligenz“

  1. Lieber Frank Vogelsang,
    nach alter naturwissenschaftlicher Tradition gehe ich empirisch an die Thematik KI heran: ich habe chatGPT ausprobiert, z.B. mit den Themen, ob Physik und Theologie vereinbar seien oder ob der Fußballkult religiöser Art sei. Das Ergebnis: brave Texte, als Schulaufsätze gewiss mit der Note sehr gut bewertet, aber absolut keine neue Idee, kein Anstoß zum Nachdenken, einfach gar nichts. Das hat mich auch nicht überrascht, denn es war zu erwarten.
    Auf diesem Niveau ist KI für Kreativität keine Hilfe, schon überhaupt kein Ersatz. Erschüttert wird aber bestimmt das Lernen in den Schulen. Sollte dort alles Reproduzieren, Üben und sprachliche Formulieren fallen gelassen werden, weil KI das besser kann und auf jedem Smartphone verfügbar ist? Und was sollen wir demnächst in der Schule überhaupt noch lernen?
    Meine Experimente mit KI hatten auch noch eine lustige Seite. Die Aufforderung, ein Gedicht zu verschiedensten Überschriften zu schreiben, brachten unerträglichen Kitsch hervor. Der Höhepunkt war der Auftrag an chatGPT, ein Kochrezept aus Zutaten zu erstellen, die aus einem Kreis von einigen Personen per Zuruf kamen. Das Experiment musste unterbrochen werden, weil die Heiterkeitserfolge unkontrollierbar wurden. Ich hatte gehofft, dass KI wenigstens soviel Intelligenz aufbrächte, uns alle für bescheuert zu erklären, aber nicht einmal das.

    Like

Hinterlasse einen Kommentar