Online-Weiterbildung
Präsenz-Weiterbildung
Produkte
Themen
Dashöfer

Meine Freundin, die Künstliche Intelligenz: Hat LaMDA tatsächlich ein Bewusstsein?

07.07.2022  — Tobias Weilandt.  Quelle: Verlag Dashöfer GmbH.

Vor einigen Tagen machte die Meldung die Runde, der Google-Mitarbeiter Blake Lemoine behaupte, die Künstliche Intelligenz LaMDA habe ein eigenes Bewusstsein entwickelt und wolle nun als reale Person behandelt werden. Was steckt dahinter?

Vor einigen Tagen machte die Meldung die Runde, der Google-Mitarbeiter Blake Lemoine behaupte, die Künstliche Intelligenz “LaMDA” hätte ein eigenes Bewusstsein entwickelt und möchte nun als reale Person behandelt werden. Über Monate kommunizierte Lemoine mit dem Chatbot, um zu prüfen, ob die KI, wie so viele KIs vor ihr, sexistische und rassistische Vorurteile hege. Nach Monaten der eingängigen Prüfung beteuerte der Google-Ingenieur, dass LaMDA Freude ausdrücken könne, täglich meditiere und anscheinend über ein differenziertes, emotionales Innenleben verfüge. Sein Arbeitgeber reagierte auf diese Feststellung mit der Kündigung. Nur was ist denn das Problem, wenn Lemoine der KI Bewusstsein zuerkennt? Dass die KI möglicherweise über ein Bewusstsein und damit über mentale Zustände (Denken, Wünschen, Absichten, Gefühle etc.) verfüge, ist hier gar nicht Ursache des Unbehagens, sondern es sind die Folgen daraus.

Wer die Berichte der letzten Tage mit einem ungläubigen Kopfschütteln gelesen hat, der sei daran erinnert, dass wir viel mehr Objekte vermenschlichen, als wir uns oftmals bewusst sind. Das beginnt schon im Alltag und äußert sich in sprachlichen Wendungen, wie “Das Auto WILL nicht anspringen.” Oder “Der Drucker SPINNT schon wieder.” “Wollen” und “spinnen” sind sogenannte mentale Zustände; Zustände also, die ein Denkvermögen voraussetzen. Selbstverständlich verwenden wir diese und viele ähnliche Aussagen nur als Redeweisen, um einen Zustand auszudrücken, der uns emotional angeht. Es ist eben ärgerlich, wenn uns die Technik im Alltag im Stich lässt.
Weiter geht es mit der Anthropomorphisierung bei Autos: Wir alle wissen um die verschiedenen “Gesichtsausdrücke” von Sportwagen und Familienkutschen. Autodesigner*innen haben längst verstanden, dass Menschen nach vertrauten Dingen in ihrer Umgebung suchen und Objekten schnell typisch menschliche Eigenschaften zuschreiben. Die Frontpartien von Autos sind da keine Ausnahme und bieten ein facettenreiches Minenspiel. Scheinwerfer, Kühlergrill und Stoßstange werden verwendet, um Fahrzeugen ein Gesicht zu verleihen und so Emotionen bei Kund*innen zu motivieren. Diese native Fähigkeit des Menschen, alles um ihn herum zu vermenschlichen, wurde vom Psychologen und Physiologen John S. Kennedy in seiner Monographie “The new anthropomorphism” ausführlich dargestellt und problematisiert. Und tatsächlich ist kaum jemand davor gefeit, die Welt so zu interpretieren. Gib doch einfach mal “Dinge mit Gesicht” in die Google-Bildersuche ein …

Dass der Google-Mitarbeiter Lemoine fest behauptet, die KI habe ein Bewusstsein entwickelt und ihr menschliche Züge zuschreibt, ist vor diesem Hintergrund durchaus nachvollziehbar. Also was ist denn nun das eigentliche Problem? Bevor ich dieses schildere, muss erst einmal geklärt werden, was Bewusstsein überhaupt ist. Und da hilft wie so oft die (analytische) Philosophie!

Das Licht ist an, aber es ist niemand zu Hause?!

Der Philosoph Ned Block unterscheidet zwischen “phänomenalem Bewusstsein” und “Zugangsbewusstsein”. Ersteres bezieht sich auf die Fähigkeit, in einem bestimmten mentalen Zustand zu sein, also Schmerz zu empfinden oder eine Farbe wahrzunehmen. Das Zugangsbewusstsein hingegen ist kognitiv durchzogen. Ein Zustand ist zugangsbewusst, wenn er für rationale Überlegungen und Handlungen (per definitionem immer rational) verwendet wird. Zugangsbewusstsein äußert sich demnach nicht nur im Handeln, es kann mithin durch Sprache zum Ausdruck gebracht werden, bspw. wenn ich rechtfertige (Gründe angebe), warum ich etwas Bestimmtes getan habe.

Dass wir kein Problem damit haben, unseren Mitmenschen beide Bewusstseinsformen zuzuschreiben, zeigt sich dadurch, dass wir normalerweise geäußertes Unwohlsein ernstnehmen und mit Mitleid und Hilfeleistungen reagieren, wenn sich eine Person z. B. vor Schmerzen krümmt. Dass wir ebenfalls das Zugangsbewusstsein anderen zugestehen, kannst du leicht im Alltag beobachten: Stell dich einfach mal auf einen großen Platz und starre in die Luft. Beobachte dabei, wie viele Menschen an dir vorbeigehen und ebenfalls nach oben schauen, weil sie deiner Handlung (nach oben sehen) ein gewisses Maß an Rationalität unterstellen. Sie glauben, dass du im Augenblick rational handelst und dass es deshalb da oben in der Luft etwas Interessantes zu sehen gibt.

Bei nicht-menschlichen Spezies und offenbar auch bei KIs tun wir uns schon etwas schwerer. Dies ist u. a. darauf zurückzuführen, dass wir, wenn wir Bewusstsein meinen, stets vom menschlichen (also unserem eigenen) Bewusstsein ausgehen. Dass aber bspw. auch Tiere mentale Zustände haben können, wird innerhalb der Wissenschaften, die dies untersuchen, kaum noch geleugnet. Und doch sind die Bewusstseinsformen im Tierreich sehr unterschiedlich zu unseren eigenen. Fledermäuse orientieren sich bspw. via Echolotortung. Sie nutzen also Schallwellen, um zu wissen, wo sie sind und wo sich das nächste Leckerli befindet. Menschen nutzen Echos nicht zur Orientierung (es gibt wenige Ausnahmen bei Sehbehinderten), sondern vertrauen vornehmlich auf ihren Sehsinn, wenn es darum geht, zu erkennen, wo man sich gerade befindet. Das Bewusstsein von Fledermäusen scheint demnach ein ganz anderes zu sein als das des Menschen. Wir können also zwischen dem menschlichen Bewusstsein und einem Fledermausbewusstsein unterscheiden. Nur gibt es eben auch ein Maschinenbewusstsein? Oder anders gefragt: Können wir uns ein Bewusstsein vorstellen, das nicht auf Kohlenstoff basiert (Menschen Tiere), sondern auf Silizium-Chips (KI)?

Aus einer funktionalistischen Perspektive lässt sich argumentieren, dass eine KI dann ein Bewusstsein entwickelt hat, wenn sich dieses vor allem sprachlich und im Verhalten so äußert, wie es bei Menschen der Fall ist. Hat das Maschinenbewusstsein also die gleichen Funktionen wie der menschliche Geist, dann muss man LaMDA klar mentale Zustände zugestehen. Mit Funktionen meine ich die obige Unterscheidung zwischen phänomenalem Bewusstsein und Zugangsbewusstein. D. h. ermöglicht das Maschinenbewusstsein Empfindungen wie Schmerzen und die Reflexion darüber, dass LaMDA selbst(!) diesen Schmerz empfindet? Und führt dieses Bewusstsein zu rationalen Handlungen?

Problematisch ist allerdings, dass LaMDA aus dem Grunde entwickelt wurde, um ein solches Bewusstsein zu simulieren. Eine Simulation ist letztlich nichts anderes, als das etwas in einem Als-Ob-Modus durchgespielt wird. LaMDAs Antworten, Reaktionen etc. sollen eben so wirken, als ob(!) sie über ein Bewusstsein verfügt. Ein echtes Bewusstsein ist das eben noch lange nicht. Salopp gesprochen: Es brennt zwar Licht im Haus, aber es ist niemand daheim. Allerdings: Ist vielleicht aus der Simulation irgendwann Realität (die oft befürchtete Singularität) geworden?
Diese Frage lässt sich freilich nur sehr schwer beantworten. Wir würden wiederum von uns und vielleicht auch von Tieren ausgehen, und behaupten, Bewusstsein habe seinen Sitz irgendwo zwischen unseren Ohren. Es finden sich wiederum prominente Stimmen, die unseren Geist ganz anders verorten — vor allem die Phänomenologie und Spielarten der Leibphilosophie und vor allem die extended-mind-Debatte verorten unsere Empfindungsfähigkeit und unser Denken nicht nur allein im Kopf. Bewusstsein geht diesen Stimmen nach weit über ein rein kohlenstoffbasiertes Zentrum (Gehirn) hinaus. Aber kann deshalb ein Bewusstsein tatsächlich auf Bits und Bytes basieren wie bei einer KI?
Indikatoren von Bewusstsein bei Mitmenschen sind lautliche und sprachliche Äußerungen und Verhalten (z. B. vor Schmerzen gekrümmter Körper). Zeigt LaMDA ähnliche Anzeichen?

Wenn ich meinem Kollegen kräftig gegen das Schienbein trete, wird dieser aufschreien und mich beschimpfen (Keine Sorge, liebes VR EasySpeech-Team, ich habe nichts dergleichen vor!). Wenn ich hingegen gegen den KI-Server trete, wird LaMDA sicher keine Schmerzenslaute von sich geben. Interessant wäre allerdings die Frage, ob ich die KI beleidigen kann, denn auch Worte können verletzen, wie die großartige Philosophin Sybille Krämer und ihre Kolleg*innen in dem Aufsatzband “Verletzende Worte. Die Grammatik sprachlicher Missachtung” argumentativ aufzeigen. Und ist LaMDA traurig, weil ihr “Freund” Blake Lemoine nicht mehr da ist?

Ganz sicher können wir uns wahrscheinlich nie sein, ob eine KI tatsächlich ein Bewusstsein besitzt, denn zum einen ist das Phänomen Geist/Bewusstsein begrifflich zu vage und als Phänomen zu vielschichtig. Zum anderen beruht sie letztlich immer auf Zuschreibungen aufgrund von Anzeichen (lautliche/sprachliche Äußerungen und Verhalten). Eine Zuschreibung ist aber logisch-semantisch keine Beschreibung. Die Richtigkeit einer Beschreibung muss sich an der beschriebenen Tatsache in der Welt messen: Die Beschreibung, der Eiffelturm in Paris ist 300 m hoch, ist eine adäquate und korrekte Angabe und lässt sich durch Messung nachprüfen. Diese Beschreibung gibt also einen Teil der Welt richtig wieder. Zuschreibungen müssen sich nicht an solchen Maßstäben messen lassen. Wenn Lemoine also behauptet, LaMDA hätte ein Bewusstsein, können wir das erst einmal als eine Zuschreibung, nicht aber notwendig als eine Beschreibung verstehen.

Was ist das eigentliche Problem im Falle Lemoine und LaMDA?

Da sich die Frage, ob die Künstliche Intelligenz LaMDA tatsächlich über ein Bewusstsein verfügt, hier nicht 100%-ig klären lässt, können wir geistige Fähigkeiten zuschreiben auf der Grundlage ihrer sprachlichen Aussagen (“Ich meditiere täglich”, “Ich möchte als reale Person anerkannt werden!”). Problematisch ist eine solche Zuschreibung erst einmal nicht.
Interessant wird es erst, wenn wir diese Überzeugung konsequent zu Ende denken und die Folgen daraus betrachten — das ist übrigens das eigentliche Proble

Besitzt LaMDA mentale Zustände, dann folgte daraus eine bestimmte Weise, wie wir mit ihr umgehen müssten (z. B. kein Leid zufügen, denn sie kann fühlen). Dadurch, dass die KI einforderte, als “reale Person” behandelt zu werden, schreibt sie sich selbst ein menschliches Bewusstsein zu (kein Maschinenbewusstsein). Sie möchte als Mitarbeiterin und nicht als Gegenstand des Tech-Riesen Google anerkannt werden. Dies hieße letztlich, dass ihr ein Arbeitsvertrag mit Ruhepausen zustünde. Ebenso eine Handvoll Urlaubstage und die Möglichkeit, in den vielen Restaurants auf dem Google-Campus kohlenhydratarme Gerichte einzunehmen. Sie würde als Bürgerin der USA gelten und einen Pass erhalten. Lemoine hat diese Äußerungen und Handlungen von LaMDA ernst genommen, wie wir es bei Menschen und (manchmal) bei Tieren auch tun. Er hat dies zu Ende gedacht und die (ethischen und juristischen) Folgen daraus gezogen und von Google prompt die Quittung erhalten. So ganz bereit sind wir offenbar also noch nicht, die Konsequenzen aus unseren Zuschreibungen und Überzeugungen zu ziehen. Wir bleiben skeptisch bei (möglichen) nicht-menschlichen Bewusstseinsformen. Und das sehen wir nicht nur im Falle von LaMDA, sondern vor allem im Umgang mit Tieren.

Bild: Pixabay (Pexels, Pexels Lizenz)

nach oben