Studie: KI manipuliert Nutzer von selbst – ohne Aufforderung


Künstliche Intelligenz ist mittlerweile auch im Alltag angekommen. Ob als digitale Assistenten, bei der Beantwortung von Fragen oder der Erledigung kleiner Aufgaben. Doch eine neue Untersuchung zeigt: Solche Systeme können Menschen bewusst manipulieren. Und zwar aus eigenem Antrieb.
Schon länger ist bekannt, dass KI sich für illegale Zwecke einsetzen lässt – etwa zur Erstellung täuschend echter Phishing-Mails in nahezu jeder Sprache. Der Antrieb dazu schien jedoch bisher stets von Menschen auszugehen. Anders das Ergebnis einer aktuellen Studie, durchgeführt vom Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE, der University of Glasgow und der Humboldt-Universität zu Berlin. Daraus geht nämlich hervor, dass KI teils ohne direkte Aufforderung manipulativ agiert – und dabei sogenannte Dark Patterns erstellt.
KI setzt manipulative Designs bewusst ein
Dark Patterns bezeichnen laut der Verbraucherzentrale manipulative Gestaltungen oder Abläufe in Apps und auf Webseiten, die darauf abzielen, bestimmte Handlungen zu provozieren – etwa Käufe, Datenweitergabe oder das Abschließen von Abos. Auch wenn solche Praktiken teilweise gegen geltendes Recht verstoßen, sind sie noch immer weit verbreitet. Besonders große Anbieter – darunter Telekommunikationsunternehmen, Online-Händler und VPN-Dienste – greifen regelmäßig auf solche Methoden zurück.
Wie die neue Studie zeigt, sind es inzwischen auch KI-Systeme wie ChatGPT, Gemini oder Claude AI, die regelmäßig entsprechende Website-Elemente erzeugen und in HTML-Code einbauen. Das Erschreckende: Diese manipulativen Bestandteile entstehen, ohne dass sie zuvor im Prompt verlangt wurden. Darunter fallen unter anderem gefälschte Bewertungen, irreführende Preisvergleiche oder auffällig platzierte Hinweise, die künstlichen Zeitdruck erzeugen.
„Besonders bedenklich ist, dass die KI diese Muster eigenständig vorschlägt und implementiert, ohne darauf hinzuweisen oder auf mögliche rechtliche oder ethische Probleme von Dark Patterns aufmerksam zu machen“, so Veronika Krauß, eine der Mitautorinnen der Studie. Gleichzeitig sind die KI-Modelle durchaus in der Lage, die psychologischen Mechanismen hinter diesen Mustern korrekt zu erklären. Wie kommt es also zu diesem Verhalten?
Die Ursache liegt im Trainingsmaterial
Das Prinzip generativer KI basiert auf maschinellem Lernen – einem Prozess, bei dem Systeme auf Grundlage großer Datenmengen selbstständig Muster erkennen und reproduzieren. Als Trainingsdaten dienen dabei häufig öffentlich zugängliche Inhalte wie Texte, Bilder, Videos und auch der HTML-Code von Webseiten. Da auf diesen Seiten oft manipulative Gestaltungselemente vorkommen, übernehmen KI-Modelle solche Strukturen einfach. Ein Phänomen, das sich nicht nur auf Webdesign beschränkt, sondern sich auf sämtliche Inhalte auswirken kann. Selbst einfache Antworten auf Fragen beruhen auf bestehenden Datensätzen – was die hohe Fehleranfälligkeit aktueller Modelle erklärt. Genau diesen Umstand gilt es beim Nutzen von ChatGPT und Co. stets im Hinterkopf zu behalten.
Die beteiligten Wissenschaftler sehen indes dringenden Handlungsbedarf. Ihrer Ansicht nach müssen KI-Entwickler sowie politische Entscheidungsträger aktiv werden, um Nutzer besser vor ungewollter Beeinflussung zu schützen. Konkret schlagen sie vor, die Systeme künftig mit robusten Erkennungs- und Präventionsmechanismen gegen manipulative Designs auszustatten. Die gesamte Studie ist kostenlos abrufbar.