Zur Leitidee der Künstlichen Intelligenz

Vieles, fast alles, was Menschen heute bewegt, hat mit digitalen Technologien zu tun. Der Umgang mit digitalen Daten prägt unseren Alltag: In Navigationssystemen, im Bestellservice und Online Handel, im Gebrauch des Smartphones, in den sozialen Medien, in der Steuerung vieler Endgeräte. Die digitalen Datenströme durchdringen moderne Gesellschaften. Computerprogramme, die diese riesigen Datenmengen verarbeiten, haben immer umfassendere Fähigkeiten, in spezifischen Aufgaben sind sie ohne Zweifel den Menschen weit überlegen. Leistungsfähige Datenverarbeitung ist aber noch keine Künstliche Intelligenz. Wann aber kann diesen Systemen „künstlicher Intelligenz“ zugesprochen werden?

Was genau meint der Begriff „Künstliche Intelligenz“?

Das Problem: In vielen Diskussionen wird der Begriff als ein assoziatives Schlagwort benutzt, um Verheißungen an die Wand zu malen oder vor der Macht der digitalen Technologien zu warnen. Übertrumpfen Systeme mit künstlicher Intelligenz die Menschen eines Tages? Können wir andererseits als computerähnliche, mit Algorithmen arbeitende Systeme verstanden werden, in eine Reihe mit den Systemen künstlicher Intelligenz, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Laufen wir auf eine so genannte Singularität zu, in der viele vernetzte Computer etwas ganz Neues schaffen, vielleicht eine den Menschen überlegene Intelligenz, wie Ray Kurzweil vermutet?

In diesen Überlegungen ist viel Spekulation. Doch auch ohne diese Überhöhung ist der reale Fortschritt spektakulär: Mit dem Begriff „Künstliche Intelligenz“ ist eine konkrete und faszinierende technologische Entwicklung verbunden, die vor wenigen Jahrzehnten so nicht möglich erschien.

Die Anfänge der Forschung in den 50er Jahren des 20. Jahrhunderts

Woher kommt der Begriff? Welche Leitidee folgen die weltweiten Forschungsprozesse der Künstlichen Intelligenz? Die Anfänge künstlicher Intelligenz auf der Basis von digitalen Technologien liegt nun mittlerweile fast 70 Jahre zurück. Viele Autoren lassen die Erzählung der Geschichte der modernen Erforschung der Künstlichen Intelligenz in der Konferenz in Dartmouth College 1956 in den USA beginnen. In einer denkwürdigen Konferenz mit Pionieren wie John Mc Carthy oder Marvin Minsky wurde die Fragestellung debattiert, wie es gelingen kann, dass Maschinen eigenständig eine Sprache nutzen, dass sie eigenständig Probleme lösen. Kurz: Wie also können Maschinen so gebaut werden, dass sie sich verhalten wie Menschen?

Schon in dieser Ausgangsfrage wird deutlich: Der Maßstab der Künstlichen Intelligenz war von Anfang an „der Mensch“. Aufgrund dieser Leitidee, letztlich der Vergleichbarkeit mit dem menschlichen Gehirn, war auch schon Ende der 50er Jahre von neuronalen Netzen die Rede, die Maschinen digital nachbilden sollten, um ein künstliches Gehirn aufzubauen, ohne dass das damals in irgendeiner Weise realisierbar war.

Der alte Traum von der Schaffung eines künstlichen Menschen

Die moderne Forschung knüpfte mit ihrer Leitidee an einem alten Traum an, der Vorstellung, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen. Dieser Traum kam lange vor der Entwicklung moderner Technologien auf. Es gibt die Sage vom Rabbi Löw aus dem Prag des 16. Jahrhunderts, der ein Wesen, ein Golem aus Lehm geschaffen haben soll. Im 18. Jahrhundert gab es in den Salons der Fürsten viel Aufmerksamkeit für eine scheinbar rein mechanische Figur eines schachspielenden Türken. Es stellte sich doch bald heraus, dass ein kleiner Mensch die Maschine bediente. Zu Beginn des 19. Jahrhunderts schuf Mary Shelley die Geschichte von Frankenstein und seinem Monster, das außer Kontrolle geriet. Im 20. Jahrhundert schließlich bevölkern in der Science-Fiction Literatur vielgestaltige künstliche, von Menschen geschaffenen Wesen wie Cyborgs die Zukunftswelten. Die jeweilige Vorstellung verband sich mit der neuesten Technologie: Im 18. Jahrhundert war es die Mechanik, im 19. Jahrhundert die Chemie, im 20. Jahrhundert die Computertechnologien.

Die Leitfrage der Forschung der Künstlichen Intelligenz war und ist also kulturell tief verankert und steht in einer langen Geschichte. Am Rande sei bemerkt, dass diese Geschichten immer auch eine Auseinandersetzung mit den Grenzen des Menschen, mit der menschliche Hybris waren. Menschen wollten etwas Menschenähnliches schaffen und geraten dabei selbst oft in Gefahr. Auch diese Ambivalenz ist Teil der Diskussionen um die künstliche Intelligenz bis heute.

Versuch einer Definition der künstlichen Intelligenz

Was meint nun der Ausdruck„Künstliche Intelligenz“? Nach Marvin Minsky liegt „Künstliche Intelligenz“ dann vor, wenn Maschinen auf eine Weise handeln, die Intelligenz erforderten, wenn sie von Menschen getan würden. Eine andere Definition lautet: Künstliche Intelligenz haben Maschinen, wenn sie auf eine Weise handeln, bei denen zur Zeit Menschen noch(!) besser sind. Diese Definitionen sind wie viele andere nicht sehr präzise, aber immer ist der Mensch der Maßstab jeder Künstlichen Intelligenz

Ein einfaches Beispiel aus der frühen Forschung: Menschen verfügen ohne Zweifel über eine ausdifferenzierte Sprache. Joseph Weizenbaum hat daher schon in den 60er Jahren ein Computerprogramm geschrieben, Eliza, das auf sprachliche Eingaben mit möglichst sinnvollen Sätzen antwortet. In diese Richtung weist auch ein Test, der auf den Mathematiker Alan Turing zurück geht: Eine Maschine ist dann eine Künstliche Intelligenz, wenn ein Mensch mit ihr über ein Ein- und Ausgabesystem kommuniziert und nicht mehr entscheiden kann, ob sich dahinter eine Maschine befindet oder ein weiterer Mensch.

Unscharf ist die Leitidee vor allem deshalb, weil nicht einfach zu definieren ist, was überhaupt menschliche Intelligenz ausmacht. Künstliche Intelligenz kann also nur als eine Annäherung an einen gewünschten Zustand darstellen. Dabei ist der Mensch nicht einfach besser, die Technik kann in spezifischen Anwendungen aber auch schnell übermenschliche Fähigkeiten erlangen. Schon ein billiger Taschenrechner kann bekanntlich große Zahlen schneller multiplizieren als ein Mensch. Unheimlich wird die Entwicklung dann, wenn die Technik mit übermenschlicher Fähigkeit immer allgemeinere Probleme zu lösen in der Lage ist.

Eine wechselvolle Geschichte

Die Leitidee stand schon am Anfang der KI Forschung. Die dann folgende Geschichte der Entwicklung Künstlicher Intelligenz war nicht geradlinig, sondern verlief sehr wechselvoll. Nach einer Phase der Begeisterung in den 60er Jahren kam die Ernüchterung, weil es mit den damaligen Mitteln noch nicht möglich war, sehr komplexen Computersysteme zu bauen. Erst in den 90er Jahren nahm die Forschung wieder Fahrt auf. In den folgenden Jahren gelang es, digitale Systeme zu programmieren, die sich verhielten wie komplexere neuronale Netze und atemberaubende Ergebnisse erzielen.

Forschungsdisziplinen der Künstlichen Intelligenz

An der Umsetzung der Leitidee „Künstliche Intelligenz“ haben sehr unterschiedliche Forschungsbereiche beigetragen:

In einem ersten Bereich geht es um die Struktur von Wissenssystemen. Hierzu gehört die Weiterentwicklung moderner Logiksysteme wie der Prädikatenlogik. Sie muss im Unterschied zur klassischen Aussagenlogik in der Lage sein, komplex strukturierte Mengen zu bearbeiten. Künstliche Intelligenz soll sich ja in der Welt orientieren. Jedoch besteht die Welt aus vielen, ziemlich komplexen Mengen. Beispiel: Vögel können fliegen. Aber dann sind Pinguine keine Vögel? Es gibt in unseren Wissenssystemen über die Welt viele kategoriale Zweideutigkeiten, die sich nicht leicht auflösen lassen.

In einem zweiten Bereich der Forschung geht es um die Zugänglichkeit großer Wissensbestände. Wer sich in der Welt orientieren will, muss große Datenbanken des Wissens aufbauen und sie kontrolliert und sehr schnell bearbeiten. Doch das bedeutet, dass es wichtig ist, riesige Datenmengen zu beherrschen. Hierzu zählen Großrechner wie Deep Blue von IBM, ein Computer, der berühmt wurde, weil auf ihm Programme liefen, die 1997 erstmals den damaligen Schachweltmeister Kasparov schlugen.

In den meisten Diskussionen der letzten Jahre geht es aber weniger um Wissenssysteme als um Mustererkennungen. Hier hat eine Grundidee, die schon in den 50er Jahren diskutiert wurde, die aber erst in den letzten 3 Jahrzehnten mit verbesserten Computern den Durchbruch geschafft: eine Programmierung, die das Gehirn simuliert, das so genannte neuronales Programmieren. In jedem gewöhnlichen Computerprogramm gibt es Routinen, Algorithmen, Rechenvorschriften die immer wieder verwendet werden, um komplexere Aufgaben zu lösen. Ein einfaches Beispiel: Jede Multiplikation kann man in Additionsroutinen auflösen, man muss sie nur häufig genug wiederholen: 3 mal 3 entspricht 3 plus 3 plus 3. Neuronales Programmieren weicht von dem Prinzip der Aufteilung in einfachere Routinen grundlegend ab. Vorbild der Architektur ist das menschliche Gehirn. Auf der untersten Ebene gibt es nach wie vor digitale Routinen, jedoch simulieren diese Neuronen, die ein Netzwerk bilden und in mehreren Schichten angelegt sind. Die Verbindungen zwischen den Neuronen sind unterschiedlich gewichtet. Eingangssignale stoßen eine Kaskade von Erregungen in dem Netzwerk an. Die Fortpflanzung der Erregungsmuster sind bestimmt durch die Art der Verbindungen in dem Netzwerk. Jedes Muster am Eingang erregt bestimmte Neuronen, die ein bestimmtes Ausgangssignal erzeugen. Wie werden diese komplexen Netzwerke programmiert? Nicht dadurch, dass Programmierer präzise Routinen schreiben, sondern dadurch, dass die neuronalen Netze immer wieder mit Daten gefüttert werden und im kontrollierten Modus das Ergebnis mit dem gewünschten Ergebnis abgeglichen wird. Gibt es eine Abweichung zum gewünschten Ergebnis, werden die Verbindungen zwischen den Neuronen neu gewichtet, bis das Ergebnis stimmt. Diese Art der Programmierung wird auch neuronales Programmieren genannt.

Diese künstlichen neuronalen Strukturen sind extrem erfolgreich in der Mustererkennung. Muster, also regelmäßige Strukturen, spielen in unserem Leben eine große Rolle. Sprache etwa besteht aus wiederkehrenden Mustern. Wörter und Sätze ähneln einander und werden immer wieder variiert. Es gibt aber auch optische Muster wie Gesichter. Es gibt hier bei vielen Variationen immer auch strukturelle Ähnlichkeiten. Komplexe Muster entstehen etwa beim Kaufverhalten vieler Menschen oder beim Verhalten im Straßenverkehr. Diese Muster können Computer, die mit der Technik künstlicher neuronaler Netze ausgestattet sind, extrem gut verarbeiten. Größte Aufmerksamkeit fand das Computersystem AlphaGo, als ein solches System 2016 den weltbesten Go Spieler schlug. Das Go Spiel ist gegenüber dem Schach um ein Vielfaches komplexer. Es gibt nun eine atemberaubende Eigenschaft dieser Computersysteme: Ist ein solches erst einmal programmiert, kann es innerhalb sehr kurzer Zeit andere Maschinen auf den gleichen Leistungsstand bringen! Man kann diese Art der Programmierung also sehr effizient immer weiter verbessern. Hier kann schon die Fantasie entstehen, dass Computer eines Tages Computer Dinge lehren, von denen Menschen nichts mehr wissen.

Ein vierter Bereich der Forschung, der allerdings nur indirekt mit der Künstlichen Intelligenz zu tun hat, ist die Robotik. Sofern man die künstliche Intelligenz im oben genannten Sinne der Menschenähnlichkeit definiert, gehören Maschinen, die wie Menschen sind im Raum bewegen können, die gehen, laufen, springen auch zu Formen künstlicher Intelligenz. Hier ist natürlich auch die Nähe zum alten Traum der Menschheit am größten. Auch hier gibt es atemberaubende Fortschritte.

Schließlich soll ein fünfter Forschungsbereich nur kurz erwähnt werden, es ist die Probabilistik, die Berechnung von Wissen, das wahrscheinlich aber nicht sicher sind. Da das Wissen über die Welt immer unvollständig ist, muss das Wissen durch Wahrscheinlichkeitsschlüsse ergänzt werden. Das Beispiel von gerade: Es ist sehr wahrscheinlich, dass Vögel fliegen können, aber eben nicht sicher. Pinguine sind trotzdem Vögel. Wie aber entwickeln digitale Systeme die Fähigkeit, unter Unsicherheit zu schließen? Hierzu werden Routinen entwickelt, die mit Wahrscheinlichkeiten operieren.

Aktueller Stand: KI Syssteme mit Sprachmodellen: ChatGPT

Der bislang letzte Schritt der Entwicklung war die spektakuläre Veröffentlichung eines neuronalen Netzes im letzten Jahr, das über ein Sprachmodell verfügt und eigenständig Texte verfassen kann: ChatGPT. Tatsächlich ist damit ein Quantensprung gelungen. Vieles von dem, was vor 70 Jahren noch technologische Wunschvorstellung war, ist nun realisierbar.

Zur KI als gesellschaftlicher Herausforderung

Video eines einführenden Vortrags zur Künstlichen Intelligenz

Der Idealismus an den Börsen

Die wirtschaftliche Lage verdüstert sich zurzeit stetig. Früher hätte schon eine Botschaft ausgereicht, um erhebliche Turbulenzen auszulösen: die drastische Verteuerung und Verknappung der Energie insbesondere beim Gas, die rasch steigende Inflation, die bald vielleicht in Deutschland zweistellig werden kann, das Wegbrechen von Absatzmärkten in Russland, die Instabilität der Märkte in China, die Inflation in den USA usw. usf. Doch noch vor wenigen Tagen wurde in den Online Zeitungen, die die Börse beobachten, intensiv darüber debattiert, ob nun die Werte wieder stetiger steigen können, ob nicht eine längerfristige Rallye ansteht….

Die Börse als Ort der wahren Realisten?

Das ist komisch, vielleicht aber auch sehr bezeichnend, bezeichnend für eine bestimmte Haltung, einen bestimmten Umgang mit der Wirklichkeit in unserer Zeit. Diese Haltung weist über das Börsengeschehen hinaus, das hier als Indikator gelten soll für eine in der Gesellschaft verbreitete Geisteshaltung. Diese Haltung lässt sich meiner Ansicht nach aus guten Gründen als idealistisch bezeichnen. Das mag auf erstem Blick irritierend sein, weil ja gemeinhin mit Idealismus eine eher gesellschaftlich progressive, wertorientierte Deutung der Wirklichkeit gemeint ist und nicht die „Hyperrealisten“, die an den Märkten handeln.

Idealismus versus Materialismus

Der Idealismus steht klassischerweise, also in seinem Gebrauch im 19. Jahrhundert, in einem Gegenüber zum Materialismus. Was ist gewichtiger: Die materielle Gegebenheit der Wirklichkeit oder die eher (ideelle, kognitive) Kommunikation über sie? Die Phänomenologie nimmt an, dass beide miteinander verschränkt sind und beide berücksichtigt werden müssen. Deshalb kann und muss das eine immer auch als Korrektiv des anderen genutzt werden. Nehmen wir die materiellen Vorgaben der letzten Zeit, vor allem eine drastische Energiekrise, so wären die Börsen, die ja Zukunfts- und Erwartungswerte auf künftige wirtschaftliche Erfolge handeln, längst in einer tiefen Krise. Doch genau diese Parameter scheinen nur am Rande aufzutauchen. Im Zentrum steht dagegen die Kommunikationen über das Börsengeschehen selbst. Die Börsenkurse bewerten also vor allem die Kommunikation der Teilnehmenden am Börsengeschehen. Das lässt sich durchaus idealistisch nennen.

Die Märkte erkennen die Wirklichkeit

Dazu gibt es den ominösen Plural „die Märkte“. Die Regel ist einfach: Wenn die Märkte etwas positiv kommunizieren, dann ist es positiv. Wer sollte denn die Wirklichkeit besser deuten können als „die Märkte“? Ergo: Sind nur genügend viele Marktteilnehmenden optimistisch, so gibt es wirklich Grund für Optimismus. Es geht schlicht darum, Gewinnchancen zu identifizieren. In dieser Haltung konnten die schlechten Nachrichten der letzten Wochen und Monate aus der Realwirtschaft ignoriert werden. Erst in den letzten Tagen scheint sich das Blatt auch an den Börsen zu wenden.

Die Wirklichkeit ist mehr als die Kommunikation über sie

Warum ist die Börsenkommunikation interessant? Vielleicht zeigt sich hier ein Grundzug unserer Zeit: Wir neigen in der gegenwärtigen Gesellschaft dazu, die Kommunikation über etwas für wichtiger zu nehmen als das, worüber kommuniziert wird. Das ist sicherlich auch durch die wachsende Bedeutung der Kommunikation in den digitalen Medien beeinflusst. Allerdings ist der klassische Materialismus dann immer auch ein gutes Korrektiv. Es gibt Größen, die sind eben da oder sie sind nicht da. Sie weisen eine gewisse Widerständigkeit gegen eine beliebige Deutung auf. Zu diesen Größen gehört die Energie. Wenn Energie fehlt, geht vieles nicht mehr, auch die Kommunikation nimmt zwangsläufig ab. Die anstehende Energieknappheit kann uns lehren, dass eine intensivierte Diskussion um die Energie nicht ihre Knappheit beseitigt.

Gut oder böse? Identitätssuche mit dem Holzhammer

Digitale Plattformen, soziale Medien bestimmen heute das öffentliche Bewusstsein in großem Maße. Ihre Wirkung zeigen sie gerade in Zeiten der gesellschaftlicher Unsicherheit, wie jetzt, während der Corona Pandemie. Was ist angesichts der großen Herausforderungen richtiges Handeln? Was sollen wir tun? (Die staatlichen Verordnungen genau beachten? Gegen die staatlichen Verordnungen protestieren?) Aber auch: Wie sollen wir was benennen? Können wir uns darauf einigen, worum es überhaupt geht? (Als was ist die Pandemie zu beschreiben?) Hinter diesen Fragen steht immer auch die Frage: Wer sind wir? Wenn wir uns auf eine bestimmte Form des Handelns einigen und eine bestimmte Form des Sprechens, dann bringen wir damit zugleich zum Ausdruck, wer wir sind.

Digitale Kommunikation

Das ist erst einmal nichts Neues, das gab es immer schon und wird es in menschlichen Gesellschaften immer geben. Neu ist allerdings, dass die Fragen in einem relevanten Umfang in den digitalen Medien ausgehandelt werden. Es ist schon oft beschrieben worden, dass es hier zu starken Polarisierungen kommt. Das hat auch mit Beobachtungen zweiten Grades zu tun. Menschen beobachten nicht nur in den sozialen Medien, was andere tun, sie beobachten auch, wie andere sie beobachten. Nur wer dieses Spiel beherrscht, kann auf Resonanz hoffen. Es gilt in gewisser Weise, vorweg zu nehmen, wie andere auf eine bestimmte Nachricht, auf ein bestimmtes Ereignis reagieren. Die Wirkung dieses Verhaltens lässt sich sehr gut bei dem Kurznachrichten-Netzwerk Twitter nachvollziehen. Eine positive Reaktion läuft hier vor allem über die Funktionen „Like“ und „Retweet“. Wer diese beiden Funktionen nutzt, zeigt einerseits Zustimmung und andererseits, sofern die Zustimmung öfter erfolgt, Zugehörigkeit. Die Zugehörigkeit aber ist dann Teil der eigenen Identität.

Unvermeidlich Polarisierungen

Diese Mechanismen führen in der Praxis zu einer immer wieder neu zu bestätigenden Zweiteilung. Es gibt solche, die für eine bestimmte Position stehen und solche, die dagegen sind. Die Zugehörigkeit ist dann mit eindeutigen Wertungen verbunden. Es geht in gewisser Weise um die Unterscheidung von „gut“ und „böse“. In manchen Debatten ist eine solche Zweiteilung notwendig und triftig. Das gilt vor allem, wenn offene Konflikte ausbrechen und es gilt, die Konflikte zu bestehen. Doch bei weitem nicht alle gesellschaftlichen Debatten sind Ausdruck solchen Konflikte. Und da beginnt dann das Problem.

„Dünne“ und „dichte“ Wertungen

Menschliche Verhältnisse sind in den allermeisten Fällen irgendwo zwischen „gut“ und „böse“ zu verorten. Gesellschaftliche Konflikte sind oft schwer zu durchschauen, eine Position mag auf erstem Blick „gut“ sein, erweist sich aber auf dem zweiten auch in nicht geringen Anteilen als „böse“. In einer Welt, die immer mehr auf die Vermittlung zwischen Kulturen angewiesen ist, ist aber die Fähigkeit zu Zwischentönen von größter Bedeutung. Der Philosoph Kwame Anthony Appiah hat in seinem Buch „Der Kosmopolit. Philosophie des Weltbürgertums“ auf die Unterscheidung von „dichten“ und „dünnen“ Konzepten bzw. Wertungen hingewiesen. Dünn sind Wertungen wie „gut“ und „böse“, weil sie eine starke Wertung signalisieren, aber kaum mit einem festen Inhalt verbunden sind. In der Geschichte wurden schon sehr unterschiedliche Positionen „gut“ oder „böse“ genannt. Im gesellschaftlichen Alltag aber überwiegen „dichte“ Wertungen, wie „mutig“, „unhöflich“ oder „ungeduldig“. Diese Wertungen kann man nur verstehen, wenn man stärker in die Kulturen und die gesellschaftlichen Kontexte eintaucht, in der sie verwendet werden. Sie zeigen an, dass Menschen in ein dichtes Geflecht von Bewertungen eingebunden sind, die eine vielfältige Verbundenheit mit anderen Menschen und zur ihrer kulturellen und natürlichen Umgebung zum Ausdruck bringen. Diese Wertungen spielen in jeder Gesellschaft und Kultur eine erhebliche Rolle für die Bestimmung von Identität.

Kosmopolitische Kulturen brauchen Zwischentöne

Was passiert nun, wenn Identität immer stärker über die polarisierende Rede der digitalen Medien bestimmt wird? Dann gehen die Zwischentöne verloren. Die eigene Identität ergibt sich dann durch die Zugehörigkeit zu der einen oder zu der anderen Gruppe. Eine soziale Kommunikation, die polar strukturiert ist, führt zu einer ausgedünnten Form der Identität. Es ist die Identitätsbestimmung, die mit dem Holzhammer geschieht: Draufhauen oder nicht Draufhauen, das ist dann die Frage. Zwischentöne, aus denen das Leben besteht, gehen verloren. Das ist bedauerlich, aber ist es auch bedrohlich?

Die Zwischentöne sind aber gerade in einer kosmopolitischen Welt, wie Appiah betont, von allergrößter Bedeutung. Die unterschiedlichen kulturellen Ausdrucksformen, die Nuancierungen werden aber in einer polarisierenden Kommunikation immer weniger wichtig. Es sind aber gerade die dichten Konzepte und Wertungen, die unsere Identität in der Gesellschaft stabilisieren. Nur in den seltensten Fällen können wir in der Beschreibung unseres Lebenslaufes zwischen „gut“ und „böse“ unterscheiden. Wir waren und sind mehr oder weniger mutig, aufgeschlossen, tolerant oder auch abweisend, misstrauisch, engstirnig. Das, was für uns als Einzelne gilt, gilt auch für gesellschaftliche Formationen, für Formen der Verbundenheit, in denen wir uns organisieren. Auch die sind in der Regel nicht einfach „gut“ oder „böse“. Und es gilt für gesellschaftliche Ausdrucks- und Umgangsformen. Ein Indikator für solche dichten Wertungen ist zum Beispiel der Ekel. Europäer, so stellt Appiah fest, essen in größeren Mengen Schweinefleisch. Warum nicht auch Katzenfleisch, so fragt er provokativ. Es gibt offenkundig eine Unzahl von kulturell tief verankerten Wertungen, die die eigene Identität beeinflussen und die wir nicht mit einfachen, dünnen Unterscheidungen wie „gut“ und „böse“ erfassen können.

Instabile Identität – Wer sind die Anderen?

Deshalb kann der kulturelle Schaden auf Dauer groß sein, wenn man stets darauf schaut, ob man dafür (gut) oder dagegen (böse) ist. Ein Indikator für diesen Mechanismus sind immer wieder neue Ausdrücke für die „anderen“. Aus der Perspektive meiner Gruppe waren die anderen zunächst Pegida und die Rechten, dann die Hater im Netz, die Fake News Konsumenten, dann die Querdenker und Corona Leugner. Diese Gruppen sind bei weitem nicht identisch. Wer fungiert morgen als „die anderen“? Das führt zu einer Instabilität der Zuordnungen. Gesellschaftliche und kulturelle Äußerungen werden sofort darauf hin geprüft, ob sie dieser Gruppe zuzuordnen sind.

Instabile Identität – ein aktuelles Beispiel

Jüngst geschah das mit der eigenartigen Video Aktion von finanziell gut abgesicherten Schauspielerinnen und Schauspielern (erstaunlich viele Tatort-Mimen). Man muss die Aktion nicht gut finden. Manches war eher komisch pathetisch als treffend ironisch. Manches war völlig daneben („Angstmacher“). Aber sehr eigentümlich ist, dass, nachdem die Aktion von den Beteiligten, allesamt Menschen mit guter Reputation, etliche Wochen vorbereitet worden war, die Videos von etlichen innerhalb von 24 Stunden nach Publikation wieder mit einer öffentlichen Entschuldigung zurückgezogen worden sind. Die vorherrschende Meinung in den sozialen Medien war, in den Videos Hilfestellungen für Querdenker und Corona Leugner zu sehen. Zu allem Überfluss gab es auch noch Applaus von der falschen Seite. Muss es aber nicht auch möglich sein, etwas zu tun, was vielleicht nicht so gelungen ist, ohne damit zugleich die eigene Identität zu riskieren?

Für eine reiche, kulturell verankerte Identität

Eine reiche, gesellschaftlich und kulturell verankerte Identität lässt sich über solche Prozeduren, die sich allein an den „dünnen“ Wertungen wie „gut“ und „böse“ orientiert, nicht gewinnen. Sie ist nur über „dichte“ Wertungen möglich, in denen es ein Mehr und Weniger gibt, Nuancierungen, Urteile immer wieder neu justiert werden. Appiah macht deutlich, dass gerade der kulturelle Wandel in einer kosmopolitischen Welt hier ansetzen muss. Eine Identität, die sich über „dünne“ Wertungen von „gut“ und „böse“ abzusichern versucht, ist arm an Ausdrücken und dauerhaft instabil.

Die USA nach Trump. Zu einem Buch von Ezra Klein

Wie geht es weiter in den USA nach Trump? Biden macht gleich zu Anfang viele Entscheidungen von Trump rückgängig. Aber das Land ändert sich nicht einfach mit einem neuen Präsidenten. Die Probleme bleiben und sie sind gewaltig. Das macht ein neues Buch deutlich, geschrieben von dem US amerikanischen Journalisten und Politikberater Ezra Klein: „Der tiefe Graben. Die Geschichte der gespaltenen Staaten von Amerika.“ Das Buch legt auf eindringliche Weise viele Verwerfungen frei, unter denen die gegenwärtige amerikanische Gesellschaft leidet.

Medien ringen um Aufmerksamkeit

Erst im zweiten Teil des Buches führt Klein die Gründe für die zunehmende Polarisierung der Gesellschaft auf und nennt nacheinander wichtige gesellschaftliche Institutionen. Da sind die Medien, die immer weniger an einem objektiven Journalismus orientiert sind und immer mehr um Aufmerksamkeit kämpfen müssen. Aufmerksam wird man angesichts der großen Zahl von Nachrichtenquellen nur auf solche Nachrichten, die Emotionen wecken oder die extreme Positionen zum Ausdruck bringen. Die vorrangige Emotion aber ist die Empörung über die jeweils gegnerische Seite.

Parteien suchen die Auseinandersetzung

Die Parteien, also die Republikaner und die Demokraten verlieren kontinuierlich an Gestaltungskraft. Es sind insbesondere die Funktionäre, die an Einfluss verlieren. Das mag für die eine oder den anderen sich erst einmal gut anhören. Jedoch sind die Spitzenpolitiker viel unmittelbarer von den Stimmungen der Bevölkerung und ihrer Wählerinnen und Wähler abhängig. Das verringert die Kraft zum Kompromiss, die Fähigkeit zur Sachpolitik. Wenn sich die Wählergruppen auseinander entwickeln, entwickelt die Politik ein immer stärkeres Lagerdenken. Eine sachorientierte, parteiübergreifende Zusammenarbeit wird immer weniger möglich. Klein formuliert pointiert: „Der Niedergang der Parteien und der Aufstieg der Parteianhänger.“ (260)

Die Rechtsprechung gerät in Mitleidenschaft

Das hat auch Folgen für andere staatliche Institutionen und zeigt sich an der Besetzung von Positionen des Supreme Courts. Diese wurden zwar immer schon politisch besetzt. Jedoch in Zeiten, in denen die beiden großen Parteien einander näher standen, führte das nicht zu solche kompromisslosen Kämpfen um die Positionen, wie wir sie jetzt erleben. Ein Beispiel: Der republikanische Mehrheitsführer im Senat, Mitch McConnell, verhinderte kurz vor dem Ende der Präsidentschaft von Obama die Besetzung einer Position des Supreme Courts. (vgl. S. 270) Eben derselbe aber drückte kurz vor Ende der Präsidentschaft von Trump im November eine Neubesetzung durch, was der Autor bei Abfassung des Buches noch nicht wissen konnte.

Der Unterschied zwischen Demokraten und Republikanern

Nun ist Klein selbst nicht neutral, er hat eine steile Karriere als Journalist und Blogger in dem liberalen Lager Washingtons gemacht. So unterscheidet er in einem späten Kapitel auch die beiden Parteien: Während die Republikaner immer mehr zum Extrem neigen, weil ihre Wählerschaft immer homogener wird, haben die Demokraten eher die Aufgabe, sehr diverse Wählergruppen hinter sich zu scharen. Dadurch sind die Demokraten vor einer allzu extremen Polarisierung zunächst einmal geschützt. (vgl. S. 306) Doch ist in einem binären System natürlich die eine Seite abhängig von der anderen. So haben auch die Demokraten an der Polarisierung der Gesellschaft und der Politik einen Anteil.

Zur Geschichte der Parteien im 20. Jahrhundert

Im ersten Teil des Buches zeichnet Klein die Entwicklung der beiden Parteien nach. In Kürze und grob gesagt ist es so, dass beide Parteien in der Mitte des 20. Jahrhunderts eine Rochade durchgeführt haben. Die Demokraten übernahmen Positionen der Republikaner und umgekehrt. Das gilt besonders für die Frage der Bürgerrechte. Die Demokraten der Südstaaten waren seit dem Bürgerkrieg lange Zeit Verfechter der Rassenpolitik dort (Dixiekraten, S. 53). In den 60er Jahren aber wandten sich die nationalen Demokraten vor allem unter Johnson entschieden den Bürgerrechtsbewegungen zu. Die Republikaner wiederum entdeckten die Konservativen im Süden und übernahmen viele ihrer Positionen. In dieser Phase des Übergangs standen sich beide Parteien nicht eindeutig in Lagern gegenüber.

Das immer extremere Lagerdenken

Doch dann setzte in den folgenden Jahren eine kontinuierliche Polarisierung ein. Die Polarisierung setzt vor allem in der Bevölkerung ein. Klein führt eine Vielzahl von Studien an, die zeigen, dass die Menschen in den letzten Jahrzehnten immer stärker ein Lagerdenken ausprägten. In vielfältigen Untersuchungen zeigt sich, wie dieses Gruppendenken funktioniert. Wird eine Aussage als „republikanisch“ beschrieben, findet es Zustimmung bei den Anhängern der Republikaner und Ablehnung bei den Anhängern der Demokraten. Wird dieselbe Aussage als „demokratisch“ beschrieben, ist es umgekehrt. Klein folgert zugespitzt: „Die Leute nutzen ihr Denkvermögen nicht dazu, die richtige Antwort zu finden; sie nutzen es, um die von ihnen erwünschte Antwort zu bekommen.“ (S. 141) Diese politische Entwicklung in den USA fördert Feindbilder, nicht die Suche nach Kompromissen. Klein spricht von einer negativen Parteibindung: Es ist nicht so entscheidend, was die Partei will, die man wählt, es ist entscheidend, dass die andere Partei nicht zum Zuge kommt!

Auflösung von gesellschaftlichen Strukturen

Klein macht deutlich, dass kein Mensch aus einer Identität alleine besteht. Es gibt immer mehrere Identitäten, neben der politischen die des Sportfans, die der Musikliebhaberin usw. Jedoch schmelzen seiner Analyse nach genau diese Identitäten in der amerikanischen Gesellschaft zusammen. Diejenigen, die Demokraten wählen, gehen zu bestimmten Sportveranstaltungen, hören bestimmte Musik, lesen bestimmte Medien usw.

All die Befunde, die Klein anführt, läßt sich gut mit der Aussage verbinden, dass die traditionellen Formen der Verbundenheit schwächer werden („Soziale Verbundenheit). Dadurch entstehen Megaidentitäten für viele. Gewöhnliche Orte, regionale Unterschiede, bestimmte Traditionen und Vereinskulturen verlieren an Gewicht. Die neuen Gruppen in der Gesellschaft sind die Großgruppen „Demokraten“ und „Republikaner“, wobei die nur bedingt mit den Parteien übereinstimmen.

Die demographische Entwicklung, die Frage der Hautfarbe

Erheblicher Sprengstoff zeigt sich in dem mittleren Kapitel des Buches von Klein, in dem er die demographische Entwicklung der USA beschreibt. Zurzeit findet dort ein erheblicher Wandel statt. Die Unterscheidung zwischen den Kategorien „weiß“, „schwarz“, „asiatisch“ und „latino“ ist eine oft durchgeführte Unterscheidung in der US amerikanischen Gesellschaft. Die Dominanz der „weißen“ Bevölkerung schwindet nun unabwendbar. Die „weiße“ Bevölkerung ist  im Schnitt deutlich älter. Nun fügen sich diese Unterscheidungen wiederum mit den eben beschriebenen Großgruppen. Die „Republikaner“ sind vornehmlich „weiß“, die „Demokraten“ sind divers und haben von allen Gruppen Anteile. Wenn man nun bedenkt, wie unversöhnlich sich die Lager gegenüber stehen und dann sieht, dass die Unterscheidungen nach Hautfarbe sich damit überlagert, wird deutlich, wie gefährlich die Risse in der US amerikanischen Gesellschaft sind. Auch Klein kann am Ende des Buches kaum Lösungen bieten. Die Betonung des Kommunalen und Lokalen mag eine Rolle spielen. Nicht alles lässt sich als nationales Problem darstellen. Aber es bleibt offenkundig: Die US amerikanische Gesellschaft wird auf längere Zeit durch eine Phase der Instabilität laufen. Trump war nicht einfach nur ein singulärer Ausreißer.

Künstliche Intelligenz – auf dem Weg zu einem neuen Menschen?

Der Umgang mit digitalen Daten ist heute im Alltag nahezu unausweichlich: Wer ein Auto fährt, nutzt ein Navigationssystem. Wer Informationen zu einem beliebigen Thema erhalten möchte, nutzt die Funktionen der stets zugänglichen Suchmaschinen oder „schlägt“ bei Wikipedia „nach“. Telefonate, Fotografien und Filme, schriftliche Notizen: alles geschieht fast ausschließlich mit Hilfe digitaler Technologien. Durch die alltäglichen Aktivitäten entsteht weltweit eine unglaublich große Menge an Daten.

Wer beherrscht die moderne Datenflut?

Wer kann mit dieser schier unübersehbaren Menge von Daten umgehen? Menschen sind dazu nicht mehr in der Lage. Aber es gibt immer bessere Computerprogramme, die so schnell lernen wie neue Datensätze entstehen. Diese Computerprogramme haben hochspezialisierte Fähigkeiten, in denen sie den Menschen weit überlegen sind. Ist all das der Anfang vom Ende des Menschen? Werden künstliche Intelligenzen irgendwann die Herrschaft übernehmen, beherrschen uns dann Algorithmen, ja sind wir Menschen dann nur noch Algorithmen und vielen anderen, wie etwa der Erfolgsautor Noah Yuval Harari mutmaßt? Entsteht ein neues Wesen, eine künstliche Intelligenz, die für den Menschen selbst eine Bedrohung darstellt oder ihn in ganz neue Zeiten führt?

Der alte Traum vom künstlichen Menschen

Der Traum, dass der Mensch in der Lage sei, menschenähnliche Wesen zu schaffen, ist schon alt: Nach einer Sage soll der bekannte Rabbi Löw im 16. Jahrhundert in Prag mit kabbalistischer Kunst einen Golem, ein menschenähnliches Wesen aus Lehm geschaffen haben. Hier wird dem bekannten Gelehrten also eine gottähnliche Fähigkeit zugesprochen. Das Wesen wird, nachdem es seinen Zweck erfüllt hat, wieder zerstört. Im 18. Jahrhundert macht ein Automat, ein schachspielender Türke Furore. Allein aus mechanischen Elementen soll er menschliche Spieler schlagen. Natürlich war dies ein Betrug, ein versteckter Mensch in der Apparatur musste nachhelfen. Anfang des 19. Jahrhunderts hat Mary Shelley die Geschichte von Frankenstein erfunden, hier ging die Schöpfung schon neben alchemistischen Künsten auch mit den damals bekannten Naturwissenschaften vonstatten. Im 20. Jahrhundert schließlich wächst in der Science Fiction Literatur mit zunehmenden technischen Fähigkeiten auch die Zahl der künstlichen, von Menschen geschaffenen Wesen. So bevölkern Menschen-Maschine Mischwesen, die Cyborgs Romane und Filme. In dem Film „2001 Odyssee im Weltraum“ kämpft der Computer HAL gegen die Astronauten eines intergalaktischen Raumschiffes.

Die rasante technologische Entwicklung der letzten Jahrzehnte

Auch wenn man weltanschauliche Erwartungen oder Befürchtungen relativieren muss, so ist dennoch richtig, dass die Entwicklung der Technik in den letzten Jahren große Fortschritte gemacht hat. Maschinen erwerben eine immer komplexere Intelligenz und Roboter gewinnen immer mehr Freiheitsgrade in der Bewegung. Der Rechner Deep Blue von IBM hat 1997 den Weltmeister Kasparov im Schachspiel geschlagen, das Programm  Watson von IBM hat es 2011 geschafft, ein komplexes Wissensspiel, „Jeopardy“ im Fernsehen gegen gut gebildete Menschen zu gewinnen, das Programm AlphaGo von Google hat es 2016 geschafft, den weltbesten Go Spieler zu schlagen.

Allein diese Erfolge sind schon aufsehenerregend. Fundamental neu ist dabei zudem die Technik, die AlphaGo verwendet. Anders als in den vorigen Maschinen wird nun nicht mehr ein Programm Schritt für Schritt vorgedacht und abgearbeitet, sondern die Maschine „programmiert sich selbst“, indem sie mit immer neuen Daten gefüttert wird, die sie analysiert und daraus weitere Schritte abgeleitet werden. Die Technik, die hier verwendet wird, nennt sich „neuronales Programmieren“. Programmeinheiten des Rechners simulieren Neuronen, die zu einem Gitter verbunden werden. Diese Gitter werden über mehrere Ebenen gestapelt, die „Neuronen“ sind miteinander verkoppelt. Ihre Verbindungen zueinander gestalten sie wie biologische Neuronen durch Rückkoppelungsprozesse, Erfolge stärken bestehende Verbindungen, Misserfolge schwächen bestehende Verbindungen oderstärken alternative Wege. Die Technik, die neuronalen Netze zu gestalten nennt sich Deep Learning, der Begriff des „Lernens“ wird hier vom Menschen auf Maschinen übertragen. Das radikal Neue ist nun, das Maschinen mit solchen Netzwerken, die viele Millionen Mal gegen sich selbst Go oder Schach gespielt haben, was in kurzer Zeit möglich ist, eine Kombinationsfähigkeit besitzen, die auch für Programmierer nicht mehr nachvollziehbar ist. Das unterscheidet sie von Maschinen, die wie die klassischen Computer Rechenoperationen Schritt für Schritt nachvollziehbar abarbeiten. So hat AlphaGo in den Partien Züge gewählt, die alle menschlichen Spieler erstaunten und die doch letztlich zum Erfolg führten. Hier wird der Computer zu einer Blackbox, die in gewisser Weise ein eigenes, unvorhergesehenes Verhalten entwickeln kann, ähnlich wie die Geschöpfe aus dem Science Fiction.

Thesen zur Diskussion: Ist ein Künstlicher Mensch, ein transhumanes Wesen zu erwarten?

Was gilt nun: Reden wir von einem alten Traum unserer Kultur, den man getrost illusionär nennen kann oder stehen wir durch die digitalen Technologien vor der Erfüllung dieses Traums? Hier sind fünf Thesen, die auch die Grundlage für eine Debatte um KI am 17. September 2020 in der Kreuzeskirche in Essen gewesen sind.

(Die Thesen des Gesprächspartners Helmut Fink, Akademie für säkularen Humanismus, finden sich hier)

(Vorbemerkung: Die folgenden Thesen beziehen Intelligenz auf „Maschinen“. Entscheidend für intelligente Fähigkeiten sind natürlich eher die Programme und Programmarchitekturen, die auf Maschinen laufen. Beide können nicht aufeinander reduziert werden. Jedoch ist es immer das Aggregat, also eine Maschine, ein Computers, ein Roboters oder ein Netzwerke dieser Einheiten, auf den und die sich die Zuschreibung von Intelligenz bezieht. Der allgemeinste Begriff ist der der Maschine. So ist ja auch von einer Von-Neumann-Maschine die Rede.)

1. These

Menschen werden sich dauerhaft von Maschinen unterscheiden. Das wichtigste Kriterium: Menschen finden sich immer schon vor, sind Teil einer menschlichen Umgebung und entwickeln sich von dort aus. Maschinen werden von Menschen, nicht von Maschinen gemacht. Ihre Entwicklung wird von ebenso von Menschen, nicht von Maschinen geplant. Theologisch lässt sich das deuten als die Unterscheidung des Schöpfungshandelns Gottes und des Gestaltungshandelns des Menschen. So wie die Menschen nicht die Ebene Gottes erreichen können, so Maschinen nicht die Ebene des Menschen.

2. These

Die Intelligenz von Maschinen ist in allen Realisierungen bislang streng begrenzt und auf bestimmte Leistungen fokussiert. In den begrenzten Spezifikationen haben Maschinen leicht übermenschliche Fähigkeiten. Dies gilt schon für einen konventionellen Taschenrechner, der schneller und exakter multiplizieren kann als jeder Mensch. Den Menschen zeichnet dagegen eine generalisierte Intelligenz aus. Er kann rechnen, Fahrrad fahren, jonglieren, malen, musizieren und in vielfältigster Weise kommunizieren. Die Intelligenz ist sowohl kognitiv wie auch emotional, beide Seiten lassen sich nicht trennen. Damit ist die generalisierte Intelligenz eine Eigenschaft des Leibes. Bislang gibt noch nicht einmal in Ansätzen eine Definition für diese allgemeine Intelligenz.

3. These

Entscheidend für ein Verständnis des Menschen ist, dass er nicht in Einzahl existiert. Es kann also nicht ein Mensch mit einer Maschine verglichen werden, da ansonsten entscheidende Eigenschaften des Menschen aus dem Blick gerieten. Menschen leben in Verbundenheit. Kultur und das, was man traditionell den „Geist“ oder die „Vernunft“ nennt, sind Produkte von Kollektiven. Man kann menschliche Verbundenheit als eine nahezu unendliche Überlagerung von kommunikativen Rückkopplungen beschreiben.

4. These

Der Anthropologe Michael Tomasello beschreibt die menschliche Verbundenheit auch als geteilte Intentionalität: Zwei Menschen können sich auf etwas Drittes beziehen und wissen, dass sie sich beide auf etwas Drittes beziehen. Diese Eigenschaft ist schon bei Menschenaffen in ihrem Verhalten nicht zu entdecken. Diese unscheinbare Fähigkeit ist aber die Wiege der menschlichen Kultur. Sie schweißt die Menschen auf der kognitiven Ebene zusammen, etwas, was sich im Tierreich nicht findet. Noch weniger ist es bei Maschinen zu erwarten: Es ist völlig unklar, was eine Maschine leisten muss, so dass man ihr Intentionalität zuschreiben kann.

5. These

Mit der Intentionalität hängen mehrere grundlegende menschliche Vermögen zusammen. Ein Mensch kann einem anderen vertrauen. Das bedeutet aber auch, dass man sich täuschen kann, dass Vertrauen gebrochen werden kann. Kann eine Maschine Vertrauen brechen oder verhält sie sich nicht einfach nur anders als erwartet? Kann eine Maschine ein Versprechen abgeben? Ist das mehr als eine Prognose?