Laut einer neuen Bitkom-Studie haben 42 Prozent der Befragten bereits falsche oder frei erfundene Antworten von einem KI-Chat erhalten. Lasst diese Zahl mal sacken! Trotzdem prüfen nur 57 Prozent die generierten Informationen noch einmal, bevor sie diese weiterverwenden. 64 Prozent bewerten die Antworten mit „unzufriedenstellend“ und sogar 73 Prozent ordnen sie als „hilfreich“ ein.  Für die Praxis bedeutet das: KI-Tools sind für viele ein bequemer Shortcut, aber einer, der oft ohne Sicherheitsnetz genutzt wird.

Wir erleben eine tektonische Verschiebung im Informationsverhalten, bei der Bequemlichkeit die kritische Prüfung auszuhebeln droht. Statt sich durch Listen von Weblinks zu arbeiten, bevorzugen immer mehr Menschen die direkte, von einer KI formulierte Antwort. Diese Entwicklung wird maßgeblich durch den Wunsch nach Effizienz und Einfachheit angetrieben, verändert aber grundlegend, wie wir auf Informationen zugreifen und deren Glaubwürdigkeit bewerten.

Die zentralen Nutzungsstatistiken der Bitkom-Studie belegen diesen Trend eindrücklich. Bereits 50 % aller Internetnutzer in Deutschland greifen zumindest gelegentlich auf KI-Chats wie ChatGPT zurück, anstatt eine klassische Suchmaschine zu verwenden. Besonders ausgeprägt ist dieses Verhalten in der jüngeren Generation: Bei den 16- bis 29-Jährigen sind es sogar zwei Drittel, die diesen neuen Weg der Informationssuche beschreiten. Dr. Bernhard Rohleder, Hauptgeschäftsführer von Bitkom, erklärt die Motivation dahinter:

„Viele Menschen nutzen lieber die kompakte Antwort aus dem KI-Chat, statt sich selbst durch Suchergebnisse zu klicken und auf den Webseiten nach Hinweisen zu ihrer Frage zu suchen.“

Die Hälfte der Ergebnisse ist qualitativ problematisch

Besonders spannend ist der Blick auf die Altersgruppen. Jüngere Menschen setzen deutlich häufiger auf KI-Chats als Einstiegspunkt ins Netz. Für sie ersetzt die Chat-Eingabe zunehmend das klassische Suchfeld, welches sich plötzlich unnötig kompliziert anfühlt. Suchmaschinen liefern Links, KI liefert fertige Sätze – und genau das scheint den Ausschlag zu geben.

Das Problem: Große Sprachmodelle wirken souverän, auch wenn sie danebenliegen. Falsche Fakten, unklare Quellen, veraltete Informationen oder komplett erfundene Details sind weiterhin Alltag. Selbst neuere Modelle mit höherer Genauigkeit produzieren Fehler, die in einer klassischen Recherche sofort aufgefallen wären.

Eine Untersuchung der Europäischen Rundfunkunion (EBU) untermauert diese Gefahr mit erschreckender Präzision. Bei einem Test der kostenlosen Versionen der „großen vier“ Chatbots wurde festgestellt, dass fast die Hälfte aller Antworten fehlerhaft ist. Die Analyse ergab, dass über 17 Prozent der KI-Antworten in wesentlichen Punkten falsch waren, während weitere 31 Prozent signifikante Ungenauigkeiten aufwiesen, etwa beim Kontext oder der Quellenangabe.

Teufelskreis der Desinformation

Die Bitkom-Studie zeigt damit weniger einen Trend zur KI-Suche als Ersatz – sondern vielmehr eine Verschiebung der Verantwortung. Viele Nutzer:innen erwarten, dass die Maschine richtig liegt, auch wenn sie eigentlich wissen müssten, dass das nicht immer der Fall ist. Bequemlichkeit schlägt Sorgfalt.

Expert:innen warnen eindringlich davor, diese Werkzeuge mit traditionellen Suchmaschinen gleichzusetzen, deren primäres Ziel es ist, auf existierende Quellen zu verweisen. Die Informatikprofessorin Katharina Zweig von der Rheinland-Pfälzischen Technischen Universität fasst die wichtigste Verhaltensregel unmissverständlich zusammen: „Die erste Regel ist: nicht als Suchmaschine verwenden.“

Die Gründe für die hohe Fehleranfälligkeit liegen in der Technologie selbst. Zu den Hauptursachen für Falschinformationen gehören unzuverlässige Quellen, die Durchmischung von Fakten und Meinungen und das von KI bekannte „Halluzinieren“.

Die Konsequenzen bedrohen unser gemeinsames Wissensfundament. Eine Studie der Princeton University fand heraus, dass bereits bis zu fünf Prozent neuer, englischsprachiger Wikipedia-Einträge KI-generiertes Material enthalten. Dies schafft einen gefährlichen Teufelskreis der Desinformation, bei dem KIs mit fehlerhaften, von anderen KIs erzeugten Inhalten trainiert werden.

Fazit: Misstrauen als neue Medienkompetenz

Die Verlagerung der Internetsuche hin zu KI-Chatbots ist ein Trend, der unsere Informationslandschaft nachhaltig verändert. Unsere Bequemlichkeit sollte uns nicht davon abhalten, die reale und wachsende Gefahr der Desinformation zu erkennen. Die Studien belegen, dass blindes Vertrauen in die Technologie nicht nur naiv, sondern gefährlich ist.

Im Zeitalter der KI ist Skepsis kein Zynismus – sie ist Voraussetzung, um in der digitalen Welt überleben zu können. Die kritische Überprüfung von Fakten und Quellen ist keine Option mehr, sondern eine essenzielle Fähigkeit, um nicht nur sich selbst, sondern auch die Integrität unserer gemeinsamen Wissensquellen zu schützen. 

So oder so wird die KI-basierte Suche weiter wachsen. Google baut die Technik sogar längst direkt in seine Suchplattformen ein. Andererseits steigt die Notwendigkeit, dass Nutzer:innen sich der Risiken bewusst bleiben – gerade bei sensiblen Themen.

Für Euch heißt das: KI kann Euch viel Zeit sparen, aber sie darf keine letzte Instanz sein. Wer eine Antwort bekommt, sollte im Zweifel nachprüfen – egal, wie überzeugend sie klingt.

Wie macht Ihr das? Nutzt Ihr KI-Chats bereits als Ersatz für die klassische Suche – oder greift Ihr lieber weiterhin auf Google, DuckDuckGo und Co. zurück?