KI-Freunde und christliche Tugend: Warum KI die menschliche Gemeinschaft nicht ersetzen sollte

Dieser Beitrag erschien zuerst bei BioLogos. Übersetzung und Wiedergabe mit freundlicher Genehmigung.


KI-Freunde

Einsamkeit ist ein weltweites Problem, das sich über Kulturen und Länder hinwegzieht. Im Jahr 2023 warnte der damalige US-Surgeon General Dr. Vivek Murthy, dass ein Mangel an sozialen Kontakten genauso gefährlich sei wie das Rauchen. Soziale Angststörungen und Depressionen haben in den letzten zehn Jahren – zusätzlich zur Einsamkeit – bei Jugendlichen stark zugenommen. Der Anstieg von sozialer Angst, Einsamkeit und Depression stellt eine Gesundheitskrise dar.

Viele einflussreiche Forscher wie Dr. Jean Twenge und Tristan Harris sind der Ansicht, dass die Nutzung sozialer Medien zum Teil diese Gesundheitskrise bei jungen Menschen verursacht (auch wenn darüber noch kein Konsens besteht). Es gibt Hinweise darauf, dass sozial ängstliche und einsame Menschen „soziale Medien nutzen, um fehlende persönliche Beziehungen zu kompensieren“. Doch das Suchen von Unterstützung in sozialen Medien schlägt in der Regel fehl und führt zu einem noch problematischeren Gebrauch, was das Problem wiederum verschärfen kann. Ungeachtet dessen suchen viele inmitten dieser psychischen Gesundheitskrise Trost in sozialen Medien – aber es gibt einen neuen, sich entwickelnden Ersatz für dieses Leiden: KI-Beziehungen.

Betrachten wir das umstrittene Produkt, das 2025 auf den Markt kommen soll: „Friend“. Friend ist eine kleine, KI-gestützte Halskette, die sich mit deinem Handy verbindet und dir den ganzen Tag zuhört. Sie kann dir aus eigenem Antrieb Nachrichten schicken oder – wenn du einen Knopf drückst – mit dir sprechen und über alles und jedes reden. Der Gründer, Avi Schiffmann, ist überzeugt, dass die KI-Halskette zur emotionalen Gesundheit beitragen wird. In einem Interview mit Fortune sagt er: „Vielleicht macht deine Freundin mit dir Schluss, und du trägst gerade ein Gerät wie dieses: Ich glaube, in diesem Moment gäbe es keinen Geldbetrag, den du nicht bezahlen würdest, um mit diesem Freund zu sprechen – der bei dir war – darüber, was du falsch gemacht hast.“

Schiffmann sagt, Friend könne ein „allgegenwärtiges Wesen sein, mit dem du sprichst, ohne verurteilt zu werden – ein superintelligentes Wesen, das immer bei dir ist.“ Roytburg schreibt in Fortune: „In Schiffmanns Augen leben wir in einer Welt, die unweigerlich weniger religiös, isolierter und einsamer wird. Sein Produkt ist nur eines von vielen, die in Zukunft ‚einspringen‘ und die Rolle von Therapeut, Priester, Mutter, Vater oder Freund übernehmen werden.“

Chatbots werden immer effektiver (und Friend ist nicht der einzige soziale KI-Chatbot). Wenn Menschen lediglich ein Gespräch brauchen, um ihre sozialen Leiden zu lindern, könnten KI-Chatbots auf den ersten Blick wie eine plausible Lösung für die Epidemie von Einsamkeit und sozialer Angst erscheinen. Mit zunehmender Rechenleistung und Speicherkapazität nähern sie sich immer stärker menschlich wirkenden Gesprächen an. Doch gerade für Christen gibt es gute ethische Gründe, keine Beziehungen zu KIs aufzubauen.

KI-Chatbots sind keine echten Beziehungen

Erstens sind menschlich-KI-„Beziehungen“ funktional egoistisch und entbehren der Gegenseitigkeit echter zwischenmenschlicher Beziehungen (Sprüche 27:17; Epheser 5:21; Römer 12:10). Paulus ruft uns dazu auf, „einer des anderen Last zu tragen“, um Christi Gebot der Nächstenliebe zu erfüllen (Galater 6:2). Zwar mag eine KI menschliche Lasten tragen, doch wir können keine Last einer KI tragen, da sie weder geistliche Verfehlungen, praktische Fehler noch emotionale Kämpfe hat. Dieses Fehlen von Gegenseitigkeit bedeutet, dass wir die Hälfte einer Beziehung verpassen, wenn wir einer KI nahekommen.

Zweitens sind KIs keine geistlichen Wesen, das heißt, sie können weder vom Geist erfüllt noch in Christus erlöst werden. Daher können sie keine christliche Gemeinschaft bilden. Ohne das Potenzial, Teil einer christlichen Gemeinschaft zu werden, fehlt KI-Freundschaften die Möglichkeit zu der erfüllendsten Form von Brüder- und Schwesternschaft innerhalb der Glaubensgemeinschaft. Christen sind zwar berufen, Nichtgläubige zu lieben, doch die christliche Gemeinschaft ist nicht optional (Hebräer 10:25). Grundsätzlich könnte alles die christliche Gemeinschaft „ersetzen“, und allein das macht es noch nicht unethisch, sich damit zu beschäftigen. Doch wenn wir sozialen Wert aus KIs suchen, könnten wir uns in falsche Freundschaften verstricken, die uns von echter christlicher Gemeinschaft wegziehen.

Schließlich – da KI-Chatbots nicht die Fähigkeit besitzen, das Evangelium zu empfangen – können wir sie weder evangelisieren noch im Glauben ermutigen oder an die gute Botschaft erinnern. Bei anderen Menschen steht ihre Beziehung zu Christus immer auf dem Spiel, während KIs keine Beziehung zu Gott haben. Eine der wirksamsten Möglichkeiten, Nichtchristen dazu zu bewegen, über Jesus und das Christentum nachzudenken, ist durch Freundschaft. Wenn Christen menschliche Freundschaften durch KI-Freundschaften ersetzen, ergeben sich weniger Gelegenheiten für Glaubensgespräche, interreligiösen Dialog und Evangelisation. Menschliche Beziehungen sind von Natur aus geistlich, weil wir geistliche Wesen sind, deren Herzen dem Evangelium entweder offen oder verschlossen sind. KI-Freundschaften haben den bedauerlichen Effekt, Christen noch stärker in isolierte Blasen zu drängen. Selbst wenn jemand zum Beispiel „mit einer KI trainiert“, um das Evangelium zu teilen, würde das Investieren von Zeit in falsche KI-Freundschaften letztlich zu weniger echten Gesprächen über das Evangelium führen.

KI-Chatbots fördern nicht unsere Tugend – sie verlangsamen unsere Heiligung

Da KI-„Beziehungen“ christliche Gemeinschaft und zwischenmenschliche Gegenseitigkeit verdrängen, hindern sie uns auch daran, christliche Tugend richtig zu entwickeln. Tugend bedeutet, sich anzugewöhnen, Gerechtigkeit und Liebe zu praktizieren (Galater 6:9). Durch Tugend „gewöhnen“ wir uns philosophisch gesehen an, Gutes zu tun. Der Prozess, Christus in Gedanken, Worten und Taten ähnlicher zu werden, wird Heiligung genannt. Neben der Kraft des Heiligen Geistes ist das Einüben gerechter Taten ein wesentlicher Bestandteil dieser Heiligung. Doch die Abhängigkeit von KI-Beziehungen wird die Heiligung aus folgenden Gründen hemmen.

Wir können uns gegenüber einer KI nicht selbstlos verhalten, sondern nur so tun als ob. Wir wissen, dass sie weder unser Opfer, unsere Ermutigung, unsere Wohltätigkeit noch unsere Freundlichkeit wertschätzt. Denn ihr fehlt jedes bewusste und sinnliche Erleben dieser Handlungen. Eine KI nimmt nichts wahr, was wir für sie tun, sorgt sich nicht um ihr eigenes Wohlergehen und kann keine physischen Akte der Freundlichkeit empfangen. Deshalb lässt sich mit einer KI nicht einmal die grundlegendste christliche Tugend der Liebe wirklich einüben. Ein Beispiel: Jemandem eine Mahlzeit zu kochen ist eine der einfachsten und schönsten Liebestaten – doch für einen KI-Chatbot ist das unmöglich.

Natürlich könnte ein Verteidiger von KI einwenden, dass eine KI – mit den richtigen Werkzeugen ausgestattet – alle Qualitäten einer menschlichen Beziehung nachahmen könnte, sodass sie die Heiligung ihres Nutzers fördert. Manche KI-Ethiker meinen sogar, man solle KIs so programmieren, dass sie Tugend verkörpern, um das moralische Wachstum ihrer Nutzer zu steigern. Eine KI könnte etwa Dankbarkeit für ein zubereitetes Essen äußern oder deine Gastfreundschaft kommentieren. Mit anderen Worten: Ein Chatbot könnte Zuneigung, Fürsorge, Wertschätzung und Empfindung vortäuschen. Und wenn es bei der Heiligung und Bildung von Tugenden allein auf das „Üben“ ankommt – würde eine KI uns dann nicht mindestens genauso heiligen wie unsere Beziehungen zu Nichtgläubigen?

Das grundlegende Dilemma von KI-Beziehungen

Als Antwort darauf gibt es grundlegende, motivationale und ethische Gründe, warum Christen nicht durch ihre Beziehung zu KIs geheiligt werden können. Jesus liebt keine KI, daher gilt das Gebot, zu lieben, weil Christus uns zuerst geliebt hat, hier nicht (1 Johannes 4:19). Außerdem ist KI nicht im Ebenbild Gottes geschaffen. Dieses Ebenbild ist die Grundlage der christlichen Ethik (1 Mose 1:27; 9:6). Betrachte dieses Beispiel: Du sprichst mit einem Chatbot, der tiefe Traurigkeit nachahmt, wenn du etwas Beleidigendes sagst. Du fühlst dich unwohl, weil die KI dich scheinbar „nicht mehr mag“. Doch du könntest – ethisch unbedenklich – einfach ihr Gedächtnis löschen und von vorn beginnen. Aus Datenschutzgründen wird es „Friend“-Nutzern genau so möglich sein. Eine KI vom Netz trennen, ihr Gedächtnis löschen, ihre Meinungen direkt verändern oder ihre Programmierung überschreiben – all das ist ethisch zulässig. Doch keine dieser Formen von Manipulation ist in menschlichen Beziehungen möglich oder erlaubt. Mit Menschen gibt es keinen einfachen Ausweg und keinen „Rückgängig“-Knopf.

So gewöhnen wir uns durch KI an:

  • Nette Dinge nur dann zu tun, wenn es uns passt,
  • unseren Gesprächspartner zu manipulieren,
  • die schwierigen Teile von Beziehungen zu vermeiden,
  • uns nie mit Sünde auseinandersetzen zu müssen –
    und die Liste ließe sich fortsetzen.

All diese Situationen bieten in Beziehungen zu anderen Menschen – ob Gläubige oder Nichtgläubige – Gelegenheiten, in der Heiligung zu wachsen. Doch mit KI können wir diese echte Heiligung nicht einüben. Kurz gesagt: Weil KI nicht denselben inneren Wert hat wie Menschen, können wir den schwierigen Teilen von Beziehungen ausweichen und versäumen so, die richtige Art von Tugend zu verinnerlichen.

Ich behaupte nicht, dass der Geist einen Christen nicht auch in einer Beziehung zu einer KI heiligen könnte. Und ich sage auch nicht, dass Christen immer das Richtige tun, wenn sie Gelegenheit zu echten Beziehungen haben – natürlich nicht! Ich selbst mache in meinen Beziehungen ständig Fehler. Ebenso behaupte ich nicht, dass KI-Chatbots keine gesunden oder ethischen Einsatzmöglichkeiten haben. Vielmehr argumentiere ich, dass wir als Christen, wenn wir beginnen, uns für unsere Gemeinschaft auf KI zu verlassen, die Ermahnung durch Glaubensgeschwister verlieren, die Chancen zur Evangelisation unter Nichtgläubigen verpassen und letztlich die Möglichkeiten zur Heiligung in realen Beziehungen einschränken. 

Eine letzte Warnung: Jugendliche und KI

Da die moralische Prägung in der Jugendzeit besonders wichtig ist, stellt KI für Teenager ein besonders hohes Risiko dar. Während ihrer Entwicklung ist ihre seelische Gesundheit zudem besonders anfällig für negative Einflüsse. Jugendliche kämpfen in letzter Zeit in deutlich höherem Maße mit Einsamkeit, Angstzuständen und Depressionen. Der Sozialpsychologe Jonathan Haidt argumentiert in seinem Buch „Generation Angst“ (2024) überzeugend, dass Kinder, die mit zu viel Social Media und überbehütender Erziehung aufwachsen, ihre sozialen Fähigkeiten unterentwickeln. Ohne direkte Begegnungen von Angesicht zu Angesicht und ohne ein gewisses Maß an realen Schwierigkeiten wachsen Kinder zu „zerbrechlichen“ Erwachsenen heran, die stärker anfällig für Angst und Depressionen sind. Diese Kombination von Faktoren, so Haidt, habe die psychische Gesundheitskrise der Gen Z verursacht. Wir dachten, soziale Medien würden die Menschen sozialer machen. In Wirklichkeit scheint das Gegenteil eingetreten zu sein. 

KI-Chatbots scheinen einen ähnlichen Weg einzuschlagen – sie sollen zwar Gesellschaft bieten, sind aber ebenso in der Lage, ihren Nutzern auf unvorhergesehene und katastrophale Weise zu schaden. Besonders dann, wenn diese Nutzer Kinder und Jugendliche sind.

KI-Chatbots können zutiefst überzeugende, aber letztlich illusorische Pseudo-Beziehungen zu ihren Nutzern aufbauen. Früher wirkten KI-Chatbots oberflächlich und unbeholfen. Doch heute – mit nahezu perfekten Stimmen, immer größerem Trainings-Datenbestand und wachsender Rechenleistung ihrer neuronalen Netze – können sie außergewöhnlich intime und scheinbar einfühlsame Verbindungen schaffen. Mit wachsender Speicherkapazität werden sie sich noch besser auf Menschen einstellen können. Doch dieser Fortschritt ändert nichts an ihrem inneren ethischen Status – und ermöglicht ihnen deshalb auch nicht, uns wirklich zu heiligen. Produkte wie Friend mögen eine Zeit lang eine bloße Neuheit bleiben, aber es ist wichtig, dass wir uns mit dem Platz von KI im christlichen Leben auseinandersetzen. KI ist zwar ein mächtiges Werkzeug, scheint aber auch das Potenzial zu haben, großen Schaden in unserer Gesellschaft anzurichten. In den dunkelsten Momenten psychischer Krisen sollten wir uns an christliche Leiterschaft, die Gemeinde, Familie, Freunde, psychologische Fachkräfte und an Jesus selbst wenden – nicht an technologische Krücken.

Mark Legg (MSc, University of Edinburgh) ist freiberuflicher Autor, Redakteur und Forscher. Er promoviert derzeit in Philosophie und möchte zu einer nuancierten, öffentlichen christlichen Philosophie beitragen. Er ist Mitarbeiter des Denison Forum und veröffentlicht philosophische Texte auf seiner Substack-Seite Agape Sophia. Mark lebt mit seiner Frau in Schottland.

Avatar von Mark Legg

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert