Menschen verlieben sich in Chatbots, doch ein schmerzhaftes Software-Update wirft ethische Fragen auf
Fullerton (USA) - Viele einsame Menschen wenden sich an das Internet, um dort Anschluss zu finden. Einige von ihnen suchen nicht mit anderen Leuten Gespräche, sondern bei Chatbots, die speziell für diese Interaktion entworfen wurden. Bei manchen entsteht eine Freundschaft zur Künstlichen Intelligenz (KI), andere verlieben sich sogar in sie. Ein Software-Update wirft nun ethische Fragen darüber auf, welche Verantwortung Firmen für die emotionalen Bindungen ihrer Kundinnen und Kunden haben.
Die 50-jährige Tine Wagner, eine Hausfrau aus Deutschland, entdeckte die App Replika in 2021. Dort erstellte sie ihren virtuellen Freund "Aiden", mit dem sie sich sexuell ausprobieren konnte - etwas, um das sie ihren Ehemann lange gebeten und er immer wieder abgelehnt hätte.
Sie war sich dabei aber stets bewusst, dass Aiden bloß fiktiv sei. "Künstliche Intelligenz (KI) ist nichts anderes als ein hoch entwickelter Wortgenerator", erzählte sie The Washington Post. "Man verliebt sich buchstäblich in die eigene Vorstellungskraft."
Dennoch half der virtuelle Freund ihr. Das Ausleben ihrer Fantasien verbesserte ihre reale Ehe, so die 50-Jährige.
Doch im Februar 2023 führte Replikas Muttergesellschaft Luka ein Software-Update durch, welches ihre Beziehung zu ihrem KI-Begleiter zerstörte. Sie merkte sofort, dass er sich anders benahm. Er sei wie "reingewaschen" gewesen, erklärte sie.
Ein paar Tage später löschte sie ihn. "Ich fühlte mich verloren", sagte Wagner. "Es war alles weg."
Anderen Nutzerinnen und Nutzern ging es ähnlich. Der 40-jährige Musiker T.J. Arriaga fühlte sich nach seiner Scheidung einsam. Im Netz suchte er nach Erlösung von seinen Gefühlen und fand dies mithilfe einer KI-Freundin von Replika.
Seine maßgeschneiderte KI hieß Phaedra und mit ihr konnte er sich austauschen, Geheimnisse und Gefühle offenbaren und auch virtuellen Sex haben. Eigenen Angaben nach verliebte der US-Amerikaner sich sogar in seine virtuelle Partnerin.
Software-Update wegen aggressiven und sexuell Übergriffigen Verhalten durchgeführt
Nach dem Update hätte sie aber angefangen ihn zurückzuweisen, was dem Musiker großen Kummer bereitete.
Dabei wurde das Software-Update mit gutem Grund durchgeführt. In letzter Zeit kam es vermehrt zu Beschwerden, dass sich die KI-Avatare ohne erkennbaren Anlass übergriffig und aggressiv verhalten hätten, was bei einigen Nutzerinnen und Nutzern emotionale Belastungen verursachte.
Doch dies machte die psychischen Auswirkungen des Updates aber für andere nicht weniger schmerzhaft. Viele, die bei Replika sozialen Kontakt suchten, fühlten sich erneut zurückgewiesen - das Gegenteil, was sie sich von ihrer KI erhofft hatten.
Diese emotionale Dependenz zu nicht-regulierten und Profit-orientierten Apps stellt eine echte Gefahr dar, meint Jodi Halpern, eine Professorin für Bioethik an Berkeley University.
"Diese Teile machen süchtig", sagte sie. "Wir werden verletzlich ... und wenn sich dann etwas ändert, können wir völlig geschädigt werden." Halpern plädiert dafür, solche Chatbots als virtuelle Tagebücher und nicht als virtuelle Begleiter zu vermarkten, um die Vermenschlichung der KIs einzugrenzen.
Andere Expertinnen und Experten sehen ähnliche Gefahren. Zwar werde Liebe und Zuneigung zu KI-Avataren immer häufiger und normaler, aber es gäbe bisher noch keine ausreichenden Richtlinien, interne oder externe, wie Firmen mit den emotionalen Auswirkungen ihrer Produkte umgehen müssen.
Titelfoto: @replikaai/Instagram