"Ich habe Ihre Tochter": KI klont Stimme von 15-Jähriger in krassem Betrugsfall

Scottsdale - In einem angsteinflößendem Betrugsfall nutzten die Täter eine künstliche Intelligenz, um die Stimme ihres "Opfers" zu klonen. Ihr Ziel war eine Lösegeldsumme von einer Millionen Dollar.

Sie wurden Opfer eines krassen Betrugs: Jennifer DeStefano und ihre Tochter Briana (15).
Sie wurden Opfer eines krassen Betrugs: Jennifer DeStefano und ihre Tochter Briana (15).  © Bildmontage: Facebook/Jennifer DeStefano (2)

An einem ruhigen Nachmittag klingelte Jennifer DeStefanos Handy, eine unbekannte Nummer rief an. Beinahe wäre sie nicht rangegangen, doch da ihre Tochter Briana (15) auf einem Skiausflug war, machte sich Sorge breit. Als sie den Anruf annahm, konnte die Amerikanerin allerdings kaum glauben, was sie hörte.

Am anderen Ende der Leitung schluchzte die Stimme ihrer 15-jährigen Tochter und rief verzweifelt: "Mama, ich habe Mist gebaut! Mama! Hilf mir!"

"Ich habe nicht eine Sekunde daran gezweifelt, dass sie es war", sagte die verzweifelte Mutter gegenüber dem Sender Arizona's Family, während sie sich an den schrecklichen Vorfall erinnerte. "Das ist der verrückte Teil, der mich wirklich bis ins Mark getroffen hat."

Mädchen isst bei Nachbarin Chicken-Nuggets: Ahnungslos, was sie zu Hause erwartet
USA Mädchen isst bei Nachbarin Chicken-Nuggets: Ahnungslos, was sie zu Hause erwartet

Nach dem Hilferuf übernahm plötzlich eine Männerstimme das Telefonat, befahl "ihrer Tochter" den Kopf runterzunehmen und "sich hinzulegen". "Dieser Mann geht ans Telefon und sagt: 'Hören Sie zu. Ich habe Ihre Tochter.' erklärte DeStefano und fügte hinzu, dass der Mann genau beschrieb, wie die Dinge ablaufen würden.

"Wenn du die Polizei oder irgendjemanden anrufst, werde ich sie mit Drogen vollpumpen", drohte der mysteriöse Anrufer der zitternden Mutter. "Ich werde mit ihr machen, was ich will, und sie dann in Mexiko absetzen". Im Hintergrund flehte und weinte währenddessen weiterhin Brianas Stimme.

"Es war ganz und gar ihre Stimme": Mutter von KI-Technologie getäuscht

Briana DeStefano (15) wurde - entgegen des vermeintlichen Anrufs - weder entführt noch bedroht. Für den Fake ist eine KI verantwortlich.
Briana DeStefano (15) wurde - entgegen des vermeintlichen Anrufs - weder entführt noch bedroht. Für den Fake ist eine KI verantwortlich.  © Facebook/BrianaDeStefano

Der falsche Entführer verlangte zunächst eine Million Dollar Lösegeld, senkte die Summe dann aber auf die Hälfte, als DeStefano ihm sagte, sie habe das Geld nicht.

Der Albtraum fand ein Ende, als die verängstigte Mutter Hilfe von Kolleginnen aus dem Tanzstudio ihrer anderen Tochter erhielt.

Nachdem diese die Polizei und DeStefanos Ehemann informiert wurden, bestätigten sie durch einen kurzen Anruf, dass Briana wohlauf bei ihrem Skiausflug war.

Mann wählt wegen Einbrechern den Notruf, dann wird er von der Polizei erschossen!
USA Mann wählt wegen Einbrechern den Notruf, dann wird er von der Polizei erschossen!

Während des gesamten Anrufs war DeStefano jedoch felsenfest davon überzeugt, dass ihre Tochter in Gefahr war. "Es war ganz und gar ihre Stimme", beschrieb sie. "Es war ihr Tonfall. Es war die Art, wie sie geweint hat."

Wie sich herausstellte, wurde jede Sequenz, die die besorgte Mutter mit anhören musste, von einer KI erstellt.

Jennifer DeStefano warnt: "Der einzige Weg, dies zu stoppen, ist die Aufmerksamkeit der Öffentlichkeit"

So schützt ihr euch vor KI-Betrugsfällen!

Die Technologie rund um das Klonen von Stimmen ist mittlerweile so weit entwickelt, dass für den überzeugenden Fake eine Aufnahme von einfachen drei Sekunden ausreicht. Polizei und Experten warnen davor, dass Betrüger ihre Ziele häufig über soziale Netzwerke finden. Vor allem öffentliche Profile mit möglichst vielen Informationen seien leichte Beute.

Sollte es zu einem Anruf kommen, seien internationale Nummern und unbekannte Vorwahlen ein erstes Warnzeichen. Um den Betrug letztlich zu entlarven, rät die Polizei, den Anrufern möglichst viele Fragen über das "Opfer" zu stellen.

Zudem sei es hilfreich ein Notfallwort oder eine Frage in der Familie festzulegen, die nur sie kennen. So kann man sicher gehen, dass keine KI die Antwort kennt.

Titelfoto: Bildmontage: Facebook/BrianaDeStefano, Facebook/Jennifer DeStefano

Mehr zum Thema USA: