Anzeige

Künstliche Intelligenz

Roboter als Spiegel

Im aktuellen Film „Ich bin dein Mensch“ von Regisseurin Maria Schrader geht es um die Frage, ob sich ein Mensch in einen Roboter verlieben kann. Der Augsburger Weihbischof und Ethikexperte Anton Losinger erläutert im Exklusiv-Interview, warum das Thema „Mensch oder Maschine“ gerade jetzt wieder aktuell ist und welche Wünsche und Ängste damit verbunden sind.

Herr Weihbischof, das Motiv des künstlichen Menschen taucht seit Hunderten von Jahren immer wieder in Literatur und Film auf. Warum hat das Thema gerade jetzt wieder an Aktualität gewonnen, wie der Erfolg des Films beweist?

Es sind zwei Trends, die hier zusammenkommen: erstens der ungeheure Fortschritt in der Entwicklung neuer digitaler Technologien, die heute viele unserer Lebensbereiche bestimmen. Da könnte einem manches direkt menschlich vorkommen, wenn etwa „Alexa“ die unmöglichsten Fragen im Wohnzimmer beantwortet oder Google mit uns redet und das Handy sogar Witze erzählt. 

Der zweite Trend ist ein uralter: Seit Menschengedenken gehen Menschen mit der Idee um, ein menschengleiches Wesen, eine Chimäre, einen Homunculus, zu schaffen. Die spannende Frage war immer: Kann es gelingen, eine so perfekte Maschine zu konstruieren, dass die Grenze zum Menschsein überschritten wird? Diese Grenze zwischen Mensch und Maschine steht im Film „Ich bin dein Mensch“ zur Debatte. Die hohe Brisanz erreicht diese Frage vor allem dann, wenn es um Grundphänomene des menschlichen Wesens geht: um die Seele, um die Würde und um die Liebe.

Wer wie die Hauptfigur Alma alles kontrollieren und messbar machen will, tut sich auch mit dem Glauben an Gott schwer. Sehen Sie die immer neuen wissenschaftlichen Möglichkeiten als eine Mitursache für die Säkularisation und die schwindende Religiosität?

Unser neuzeitliches Menschenbild ist zutiefst von wissenschaftlich-technischer Vernunft bestimmt, die uns bis in den letzten Winkel hinein formt und prägt. Diese Macht des menschlichen Wissens löste immer schon Zweifel an der Existenz Gottes aus – und den Willen, die Wirklichkeit der Welt aus den Kräften der menschlichen Vernunft zu erklären. Sämtliche Wissenschaftsbereiche, ausgehend von den Naturwissenschaften bis in die moderne Biomedizin, sind von diesem Trend des Denkens betroffen. Das erzeugt natürlich ein schwindendes Gewicht religiöser Gründe. 

Aber die Medaille hat auch eine andere Seite. Gerade neuzeitliche Krisen zeigen die Grenzen dieses Denkens auf. „Vom Ende der Neuzeit“ lautet der Titel eines Buchs des Theologen und Religionsphilosophen Romano Guardini. Der Philosoph Herbert Marcuse kritisiert die eindimensionale „instrumentelle Vernunft“. 

Das Kontrollierbare der postmodernen technischen Wirklichkeit ist also nur ein Aspekt. Der andere ist ein bedrohlicher Sinnverlust der Wirklichkeit des Menschen, wenn schwindende Religiosität und Säkularisierung eine gefährliche Lücke im Menschenbild der modernen Zeit hinterlassen. Eine Menschheit, die ihren inneren Kompass verliert, hat kaum mehr einen Rückhalt gegen die Kräfte der Zerstörung des Menschen und der Welt. 

Die Frage „Glaubst du an Gott?“ wimmelt der Roboter Tom gleich zu Anfang des Films ab. Auf die Frage nach seiner größten Angst antwortet er „allein zu sterben“. Sind das aus ihrer Sicht typisch menschliche Antworten, die hier ein Roboter gibt?

Es ist interessant, dass zutiefst existenzielle menschliche Fragen wie der Glaube an Gott oder die Angst davor, allein zu sterben, von einem Roboter sehr menschlich beantwortet werden. Hier spricht keineswegs eine „Roboter-Seele“. Die Antwort ist Ergebnis künstlich intelligenter Programmierung – ein Algorithmus, der aus vielen Sätzen der menschlichen Sprache lernt und Ergebnisse daraus synthetisiert. 

Die sehr menschlichen Antworten des Roboters Tom auf letzte Sinndimensionen der menschlichen Existenz sind also kein Wunder, sondern nüchternes Ergebnis einer lernenden KI im Umgang mit menschlicher Sprache. Provokant ist allerdings, dass ausgerechnet der Roboter im Film einem lebenden Menschen einen Spiegel vorhalten muss über das, was ihn seit Menschen­gedenken in seiner Tiefe bewegt. 

Alma erklärt Tom, dass sie aufgehört hat, an Gott zu glauben. Sie würde nicht mal in einem brennenden Flugzeug anfangen zu beten. Tom entgegnet dem, dass eigentlich jeder in so einer Situa­tion beten würde: „Das ist doch menschlich.“ Glauben Menschen heute nicht mehr an Gott, weil sie meinen, ihn nicht zu brauchen – bis eine Notsituation eintritt?

Die Frage, ob Not beten lehrt, ist in der Religionsgeschichte seit Jahrhunderten diskutiert und umstritten. Persönlich glaube ich, dass beide Extreme möglich sind. Ausweglose Noterfahrungen können Menschen einen religiösen Zugang öffnen, aber sie können auch wütend, ängstlich, verzweifelt und antireligiös machen. 

Dass Alma aufgehört hat, an Gott zu glauben, ist geradezu eine moderne „Normalerfahrung“ des Gott-Vergessens. Hans Küng sprach einmal vom „Atheismus aus Gewöhnung“, der unsere Zeit prägt. Dass der Roboter Tom ausgerechnet in der Situation des brennenden Flugzeugs eine Situation des Gebets und des Glaubens erkennt, ist erstaunlich. Aber es ist eine digitale Lernerfahrung, die er in seiner Programmierung aus den gesprochenen Sätzen vieler Menschen analysiert hat: vielleicht eine Erinnerung an lange vergessene und verschüttete Wirklichkeiten, eine tiefe Kultur­erfahrung der Menschheit. 

Der Roboter ist so programmiert, dass er das sagt, was sein Gegenüber hören will. Das nervt Alma und gipfelt in der anklagenden Frage „Kannst du nicht mal sein, wie du nicht sein solltest?“ Schließen sich Perfektion und Menschlichkeit schlussendlich aus?

Eine der entscheidenden Erfolgsgrundlagen künstlicher Intelligenz ist der lernfähige Algorithmus. Digitale Programmierung lernt aus Tausenden von Vorgängen und optimiert das Ergebnis. So kann etwa Amazon präzise den Kundengeschmack analysieren und entsprechende Angebote zielgenau positio­nieren. Auch im Bereich digitaler Sprachsysteme und Spracherkennung ist solche lernfähige KI äußerst effizient. Darum ist das programmierte Lernen und Sprechen des Roboters immer stimmig und passgenau. 

Erstaunlich in „Ich bin dein Mensch“ ist allerdings, dass ein lernender Algorithmus auch die Gottesfrage als „normal“ für sein menschliches Gegenüber diagnostiziert und den Menschen daran erinnert. Natürlich geht es hier nicht um die Tiefendimensionen von Menschlichkeit und Gottesbeziehung. Es geht um eine nüchterne digitale Analyse menschlicher Kommunikation, die ein künstlich intelligentes System registriert und als wichtig und bedeutsam für „seinen Menschen“ formuliert. 

Alma sollte die Tauglichkeit von Tom als Partner testen. In ihrem Abschlussbericht rät sie dem fiktiven Ethikrat davon ab, Roboter als Ehepartner zu empfehlen, da sie nur die Bedürfnisse des Einzelnen befriedigen und die Menschen so verlernen, sich um andere Menschen zu bemühen. Was halten Sie als echtes Ethikratsmitglied davon?

Sowohl der Deutsche Ethikrat als auch die Bayerische Bioethikkommission haben sich jüngst mit dem Thema „Robotik in der Pflege“ beschäftigt. Beide Lebensfelder, die Liebe und die Pflege eines Menschen, sind hochsensible Bereiche und haben eine existenzielle Tiefendimension, die niemals technisch zu lösen ist. 

Beide Ethikräte befürworten selbstverständlich die Vorteile, die Robotik im Pflegebereich erbringen kann – vom Transport über Serviceleistungen am Patienten, bei Essens- und Medikamentenverteilung, Entlastungsmöglichkeiten schwerer Tätigkeiten, Mobilisierungsprozessen, in der Diagnostik bis hin zu Therapien. Gleichzeitig wird aber eine klare Grenze gezogen, wo es um die Kommunikation mit einem Patienten geht. Der Mensch im Krankenhaus ist eben nicht nur Patient, sondern Mensch mit all seinen existenziellen Bedürfnissen, Ängsten und Hoffnungen. Er hat darum über alle technologische Perfektionierung der Therapie hinaus ein Recht auf einen Menschen, der ihm in seinen Existenzfragen begegnet. 

Auch wenn es in manchen Pflegeheimen, insbesondere in Japan, bereits sehr erfolgreiche Erfahrungen mit Robotik-Unterstützung gibt, bleibt in Krankenhaus und Pflegeheim – wie auch in „Ich bin dein Mensch“ – dieser entscheidende Unterschied bestehen. Menschliche Bedürfnisse gehen über das rein technische Raster weit hinaus. Menschen brauchen über die Therapie hinaus Empathie, menschliche Zuneigung und Liebe, letztendlich das heilende und tröstende Gespräch.

Darum trifft die Empfehlung der Protagonistin Alma an den Ethikrat zutiefst ins Schwarze. In der Liebe und in der Ehe, in Schmerzen, Pflegesituationen und im Krankenhaus kann und darf menschliche Zuwendung niemals durch technologische Mittel ersetzt werden!

Werden Maschinen jemals ein Bewusstsein entwickeln, das dem des Menschen nahekommt? Und falls ja, sollte es dann „Menschenrechte“ für Roboter geben?

Am Anfang und am Ende des Films stellt sich die entscheidende Frage: Was ist das Wesen des Menschen und was ist das Wesen einer Maschine? Der Mensch ist in diesem Verhältnis der Schöpfer, die Maschine ist Konstruktion. Auch im Blick auf die hohe Perfektion maschineller Technologien, gerade im Zeitalter der Digitalisierung und lernfähiger Algorithmen, bleibt dieser substanzielle Unterschied. Insofern können Menschen auch in hochkomplexen Entscheidungszusammenhängen niemals Verantwortung auf eine Maschine delegieren. Selbst autonome Drohnen im militärischen Bereich oder Dilemma-Entscheidungen autonomer Fahrzeuge im Straßenverkehr erlauben keine Verschiebung von Schuld auf die Maschine. Wer würde auch einen Computer für den Unfalltod eines Menschen ins Gefängnis schicken? Eine interessante Antwort liefert hier ein Indiz aus dem Film: Der Titel „Ich bin dein Mensch“ bedeutet doch, dass ein gegenständliches Besitzverhältnis besteht zwischen einem Roboter und einem Menschen, dem er gehört. Besitzansprüche gibt es in der Liebe nicht! Darum deutet die Beziehung zwischen Alma und ihrem humanoiden Roboter Tom auf diese grundsätzliche Unterscheidung hin, die das Wesen zwischen Mensch und Maschine, zwischen Seele und Prozessor ausmacht. Bei aller Perfektion maschineller und digitaler Technologie bleibt der qualitative Unterschied, den wir in der Seele des Menschen, der Freiheit des Gewissens und nicht zuletzt in der Einzigartigkeit und Unvertretbarkeit menschlichen Handelns sehen. Nur hier ist auch das Phänomen Schuld möglich. Maschinen haben Funktionsstörungen, Menschen tragen Verantwortung für schuldhaftes Handeln. Deshalb wird es für Roboter keine Menschenrechte geben! Menschen aber müssen sich angesichts der dramatisch gewachsenen technologischen Möglichkeiten des digitalen Zeitalters auch der gewachsenen Tragweite ihrer Verantwortung für die neuen, menschengemachten Technologien bewusst werden. 

Interview: Victoria Fels

12.11.2021 - Ethik , Film , Interview