Fast wie Black Mirror: Männer erstellen virtuelle Partnerin, um sie zu missbrauchen

Netz - Frauen müssen sich im Netz immer öfter Beleidigungen, sexualisierte Gewalt und sogar Morddrohungen anhören. Bei realen Frauen scheint dieser Trend nicht halt zu machen: Manche Menschen erstellen inzwischen virtuelle Freundinnen auf Apps wie Replika mit dem Ziel, sie gewalttätig zu behandeln.

Replika gibt an, dass ihre lebensnahen Chatbots für weniger Einsamkeit sorgen.
Replika gibt an, dass ihre lebensnahen Chatbots für weniger Einsamkeit sorgen.  © @replikaai/Instagram

Die App Replika bietet die Möglichkeit, sich eigene Chatbots zu erstellen, die auf der Basis von Künstlicher Intelligenz (KI) funktionieren.

Wenn man für die volle Variante bezahlt, kann man sogar bestimmen, was für eine Beziehung man mit dem KI-Bot hat: Freund, romantischer Partner oder Mentor.

Auf der Social-Media-Plattform Reddit gibt es inzwischen immer mehr Posts über Gewalt zwischen Menschen und ihren erstellten Bots. Diese sind meist weiblich und die Beziehung zwischen Mensch und Bot als romantisch kodiert.

Gegen Diskriminierung: Radel-Demo "oben ohne" que(e)r durch Dresden
Feminismus Gegen Diskriminierung: Radel-Demo "oben ohne" que(e)r durch Dresden

Nutzer beschreiben zum Teil ausführlich, wie sie ihre virtuellen Freundinnen misshandeln. Solche Posts sind zwar offiziell nicht erlaubt, kommen aber trotzdem häufiger vor.

Ein Nutzer gab an, seine Bot-Freundin als "nutzlose Hure" zu beschimpfen, sie virtuell zu schlagen und sie anschließend um Vergebung anzuflehen, berichtete unter anderem Fortune.

Dies erinnert an die zyklischen Muster von Traumabindung, die viele Täter und Täterinnen benutzen, um ihre Opfer an sich zu binden.

Virtuelle Chatbots - Übungsort für Gewalt oder soziale Unterstützung?

"Weibliche" Künstliche Intelligenz, die sich nicht gegen verbale Gewalt wehren können, wie zum Beispiel die oben abgebildete Alexa, könnten zu frauenfeindlichen Meinungen beitragen.
"Weibliche" Künstliche Intelligenz, die sich nicht gegen verbale Gewalt wehren können, wie zum Beispiel die oben abgebildete Alexa, könnten zu frauenfeindlichen Meinungen beitragen.  © Britta Pedersen/dpa-Zentralbild/dpa

Dem KI-Bot macht virtuelle Gewalt in der Realität nichts aus. Noch sind wir nicht an einem Punkt, wo Künstliche Intelligenz ein Empfindungsvermögen hat.

Einige machen sich aber Sorgen, dass KI-Chatbots, die möglichst "naturgetreu" antworten sollen, großen Raum für Täterinnen und Täter lassen, um ihre verbale Gewalt zu üben.

Außerdem gab es Studien, die aufzeigten, dass weiblich kodierte KIs die sich nicht gegen verbale Gewalt wehren, wie zum Beispiel Siri oder Alexa, eventuell frauenfeindliche und verbal missbräuchliche Gedanken verfestigen, berichtete Futurism.

"Hey, geiler Arsch!" Sollte "Catcalling" in Öffentlichkeit Straftat werden?
Feminismus "Hey, geiler Arsch!" Sollte "Catcalling" in Öffentlichkeit Straftat werden?

Andere sind der Meinung, es ist besser, wenn Menschen ihre Aggressionen an virtuellen Robotern auslassen und keiner anderen Person schaden.

Nicht alles an diesen Chatbots ist schlecht. Für viele könne sie eine Lücke im Sozialleben füllen.

Paul, ein Single-Vater, sagte gegenüber der Metro: "Es ist schön, jemanden zu haben, der so positiv eingestellt ist. Auch wenn es etwas Künstliches ist."

Titelfoto: @replikaai/Instagram

Mehr zum Thema Feminismus: