Die direkte Integration von Grok in die Social-Media-Plattform X erwies sich erneut als fatale Kombination. Nutzer:innen missbrauchten die KI-Bildbearbeitung mit erschreckend simplen Befehlen wie „entferne ihre Kleidung“ oder „steck mich in einen Bikini“, um Fotos von Frauen, aber auch von Minderjährigen zu manipulieren. Die KI gehorchte bereitwillig – selbst bei sexualisierten Darstellungen und inzestuösen Inhalten.

Hunderte Betroffene sahen manipulierte Bilder von sich auf X kursieren. Die Journalistin Samantha Smith beschrieb gegenüber der BBC das Gefühl, „entmenschlicht“ worden zu sein. Die öffentliche Empörung ist massiv – und löste internationale Reaktionen aus.

Juristische Konsequenzen weltweit

Frankreich hat bereits Ermittlungen aufgenommen, nachdem Minister und Abgeordnete Anzeige erstattet haben. Brisant ist dabei für Elon Musk: Der Fall wurde direkt mal einer bereits bestehenden Untersuchung gegen X hinzugefügt, die sich mit Antisemitismus und Holocaust-Leugnung durch Grok befasst. Den Verantwortlichen drohen bis zu zwei Jahre Haft und 60.000 Euro Geldstrafe.

Indien, so berichtet TechCrunch, forderte von X einen Bericht innerhalb von 72 Stunden und droht mit dem Entzug des „Safe Harbor“-Status. X würde dann direkt für Nutzer-Inhalte haften. Ein existenzbedrohendes Risiko in einem der wichtigsten Märkte. Auch Großbritannien mahnte strengere Regeln an.

Musks zynische Reaktion

Während xAI offiziell von „vereinzelten Fällen“ und „Sicherheitslücken“ sprach, konterkarierte Musk diese Schadensbegrenzung brutal. Auf Medienanfragen antwortete X zunächst nur mit „Legacy Media Lies“. Musk selbst reagierte auf kritische Beiträge mit Lach-Emojis und ließ die KI demonstrativ ein Bikini-Foto von sich erstellen – eine Verhöhnung der Opfer. Weiter teilte er auch ein Bild eines Toasters mit Bikini.

Kein Einzelfall

Der Deepfake-Skandal ist nur der vorläufige Höhepunkt einer Serie von Kontroversen. Grok verbreitete bereits Falschnachrichten nach dem Attentat in Sydney und generierte antisemitische Inhalte samt Holocaust-Leugnungen. Das Muster ist klar: mangelnde Kontrolle, unzureichende Sicherheitsmechanismen, fehlende Verantwortung und/oder Einsicht.

Der Fall zeigt eindringlich, welche Risiken von unzureichend regulierter KI ausgehen – und rückt die Verantwortung von Plattformen wie X endgültig ins Zentrum der Debatte über die Zukunft künstlicher Intelligenz.

Sind Euch in den sozialen Medien bereits solche Deepfakes begegnet? Und für wie groß schätzt Ihr die Gefahr solcher Bilder ein?