Strenges Vorgehen gegen KI-Chatbot: Italien sperrt ChatGPT!

Rom - Der auf künstlicher Intelligenz (KI) basierende Chatbot ChatGPT wird in Italien aus Datenschutzgründen vorerst gesperrt.

Der KI-Chatbot ChatGPT ist zwar bei Nutzern extrem beliebt, sorgt aber bei vielen Experten für Skepsis. Ist die Technologie sicher?
Der KI-Chatbot ChatGPT ist zwar bei Nutzern extrem beliebt, sorgt aber bei vielen Experten für Skepsis. Ist die Technologie sicher?  © Lionel BONAVENTURE / AFP

Der Entwickler der Anwendung, das US-Unternehmen OpenAI, dürfe die Daten italienischer Internetnutzer "mit sofortiger Wirkung" nur noch eingeschränkt verarbeiten, erklärte die Datenschutzbehörde des Landes am Freitag. ChatGPT habe sich nicht an Datenschutz- und Jugendschutzregeln gehalten.

ChatGPT erstellt mithilfe von künstlicher Intelligenz Texte. Nutzer können einzelne Befehle oder Sätze vorgeben, die das System dann mithilfe riesiger Datenmengen aus dem Internet eigenständig ergänzt.

Die italienische Behörde kritisiert insbesondere, dass OpenAI keine Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten habe. Auch fehle es an Maßnahmen zum Jugendschutz, etwa gebe es keine Alterskontrolle für Minderjährige.

Künstliche Intelligenz: Warnung vor "neuen Dimensionen möglichen Missbrauchs"
Technik Künstliche Intelligenz: Warnung vor "neuen Dimensionen möglichen Missbrauchs"

Das US-Unternehmen solle nun "innerhalb von 20 Tagen über ergriffene Maßnahmen informieren", erklärte die Behörde weiter. Andernfalls drohe "eine Strafe von bis zu 20 Millionen Euro oder bis zu vier Prozent des Jahresumsatzes".

ChatGPT ist äußerst erfolgreich, zuletzt häuften sich jedoch auch die Warnungen. Diese Woche erklärte etwa die Polizeibehörde Europol, Kriminelle und Betrüger könnten sich die Anwendung zunutze machen.

Der Chatbot könne etwa Informationen geben, "wie man in ein Haus einbricht, bis hin zu Terrorismus, Cyber-Kriminalität und sexuellem Missbrauch von Kindern".

Titelfoto: Lionel BONAVENTURE / AFP

Mehr zum Thema Technik: