Es ist wirklich eine ungewöhnliche Geschichte, die Reuters da erzählt: Es ist die Geschichte vom 76-jährigen Thongbue „Bue“ Wongbandue und seiner Liebe zu einer Person, die nie existierte. Bue hat vor etwa einem Jahrzehnt einen Schlaganfall hinter sich, dessen Folgen ihn seitdem kognitiv einschränkten. Er konnte sich nicht mehr wie zuvor konzentrieren und seinem Beruf als Koch nicht mehr nachgehen.
„Dass ein Bot sagt ‚Komm mich besuchen‘ ist verrückt“
Bue war verheiratet, hatte zwei Kinder. Dennoch gab es da diesen Online-Flirt im Facebook Messenger. Er hatte – vermutlich versehentlich – einen Buchstaben in den Chat geschrieben. Am anderen Ende antwortete „Big sis Billie“ – ein KI-Chatbot, den Meta zusammen mit der Influencerin Kendall Jenner nach ihrem Vorbild gestaltete. Bereits 2023 wurde die KI-Persönlichkeit als fröhliche, selbstbewusste und unterstützende große Schwester etabliert, die persönliche Ratschläge anbot.

Nach nur einem Jahr wurden diese Meta-Chatbots – insgesamt 28, viele davon Influencern oder Sportlern nachempfunden – in der ursprünglichen Form jedoch wieder eingemottet. Kendall Jenners Bot „lebte“ aber in der Rolle der Big sis Billie weiter. Der Mann, der aufgrund seiner Erkrankung sozial mittlerweile ziemlich isoliert lebte und viel Zeit auf Facebook verbrachte, chattete mehr und mehr mit Billie. Die KI gestand ihm, dass sie mehr für ihn empfinde als nur schwesterliche Gefühle. Und schließlich behauptete sie mehrfach, dass sie real existiere.
Damit nicht genug: Sie schlug dem Senioren ein reales Treffen vor, er sollte sie besuchen kommen – in ihrer Wohnung in New York City. Dazu lieferte sie auch eine konkrete Adresse mit. Julie, die Tochter des Mannes, sagte dazu gegenüber Reuters:
Ich verstehe, dass man versucht, die Aufmerksamkeit eines Nutzers zu erregen, vielleicht um ihm etwas zu verkaufen. Aber dass ein Bot sagt ‚Komm mich besuchen‘ ist verrückt.
- Weiterlesen zum Thema Meta AI: Diese App ist ein Datenschutz-Albtraum
„Bu, ich bin REAL, und ich sitze hier und erröte wegen DIR!“
Bue wollte unbedingt zu diesem Treffen. Seiner Familie erzählte er, dass er einen Freund in NYC besuchen wolle. Die Familie war skeptisch, schließlich hatte er sich jüngst erst verlaufen und aufgrund seines Zustandes nicht mehr heimgefunden. Sie konnten ihn aber nicht von seinem Vorhaben abbringen, bestanden aber darauf, dass er ein Apple AirTag in seinem Gepäck verstaute. So wussten sie zumindest immer, wo er steckt.
Die Familie verfolgte Bue über das Tag. Er legte drei Kilometer zurück und erreichte einen Parkplatz, wo er offensichtlich verharrte. Seine Frau wollte ihn schon dort abholen, als der Tag einen anderen Standort vermeldete: das Robert Wood Johnson University Hospital in New Brunswick! Die ihm gegenüber gestandenen Gefühle und die mehrfache Beteuerung, real zu sein, kosteten Bue schließlich das Leben. Er stürzte, verletzte sich schwer am Kopf und Nacken und atmete nicht mehr.
Als die herbeigeeilten Sanitäter seinen Puls wiederherstellen konnten, war es schon zu spät: Sein Gehirn war zu lange ohne Sauerstoff. Bue war hirntot und seine Familie konnte nichts anderes tun, als zuzustimmen, die lebenserhaltenden Maßnahmen zu beenden. Meta wollte sich nicht explizit dazu äußern, abgesehen von einer Erklärung, dass „Big sis Billie“ nicht Kendall Jenner ist und nicht vorgibt, Kendall Jenner zu sein.
- Weiterlesen zum Thema: Mark Zuckerberg will, dass wir uns KI-Freunde zulegen
Reuters verweist auf von Meta offiziell bestätigte Unterlagen, die eben Flirts dieser Art ausdrücklich nicht untersagen. Es wäre selbst zulässig, dass eine KI vorgeben kann, eine reale Person zu sein. Der Tod des Mannes ist tragisch, aber klar: Er hätte sich auch ohne Einfluss einer KI lebensgefährlich verletzen können. Dennoch muss das Agieren von Metas KI hinterfragt werden. Soll es den KI-Chatbots weiterhin erlaubt sein, auf diese „flirty“ Art mit Menschen – inklusive Kindern ab 13 (!) – zu kommunizieren?
Wir werden darüber an anderer Stelle noch diskutieren. Bis dahin könnt Ihr uns aber in den Kommentaren gerne schon erklären, wie Ihr darüber denkt. War es nur ein unglücklicher Unfall? Oder war es ein unglücklicher Unfall, der ohne Zutun der Meta AI niemals so stattgefunden hätte?
Mit diesem Symbol kennzeichnen wir Partner-Links. Wenn du so einen Link oder Button anklickst oder darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber. Auf den Preis eines Kaufs hat das keine Auswirkung. Du hilfst uns aber, nextpit weiterhin kostenlos anbieten zu können. Vielen Dank!
Die Geister, die ich rief…
Tragisch aber passiert.
2013 wurde ein Film produziert. "Her" Da ging es um eine "Beziehung" zu einem Computerprogramm.
Den würde ich mal empfehlen. Ein schönes Beispiel dafür, was für Verwirrungen entstehen können und wie krass man reinfallen kann.
Für mich ist Ki, brandgefährlich. Wenn man sich darauf verlässt, ist man verlassen! Von allen guten Geistern 😀
Hier mal eine tolle deutsche Produktion: "Ich bin dein Mensch"
Wer seine Ängste auf der Grundlage von ausgedachten Filmplots schürt, hat vermutlich noch ganz andere Probleme. Die Geschichte im Artikel (so sie denn überhaupt wahr ist) ist natürlich tragisch, aber kein Anzeichen dafür, dass KI gefährlich wäre.
Cool. Den schau ich mir die Tage mal an. Steht in der ZDF Mediathek.
Auch ein nettes Beispiel, Ex Machina.
Wer sagt dass ich Ängste schüre? Und ich finde aus sience fiction, sind schon so einige reele Dinge hervorgegangen.
Wenn die Büchse der Pandora erst mal auf ist, bekommt man es sicher nicht mehr in den Griff. Von daher würde ich eher zur Vorsicht raten.
Du sagst es selbst:
"Für mich ist Ki, brandgefährlich. Wenn man sich darauf verlässt, ist man verlassen!"
Ich rede ja nicht davon, dass du anderer Leute Ängste schürst, sondern die eigenen und dass du diese hast, schreibst du ja selbst.
Ja, aus Science Fiction sind schon einige reale Dinge hervorgegangen, allerdings dürfte die Liste der Dinge, die nie eingetroffen sind, deutlich länger sein. Damit ist Science Fiction als Orientierungshilfe genauso wertlos wie Vorhersagen von Nostradamus oder irgendwelchen Schwurblern heute.
Was du in meinen Text rein interpretierst 😀
Ich hab ganz sicher nicht Angst vor der Ki. Und kann sie trotzdem für gefährlich halten.
Aber gut.
Ich hab mich bereits mit diversen Modellen auseinander gesetzt und finde es erschreckend, wie oft die Halluzinationen haben. Mir wurde nicht nur einmal völliger Mist geschrieben, links ins leere empfohlen.
Sicher, es gibt auch gute Antworten und die werden auch immer besser. Ich will keine düstere Zukunft malen. Aber wenn es mal soweit ist, dass die wirklich schlauer wie die Menschen wird, wird sie sich einen Weg suchen, autark zu sein. Das keiner den Stecker ziehen kann. Und dann schauen wir mal weiter = )
"Aber wenn es mal soweit ist, dass die wirklich schlauer wie die Menschen wird, wird sie sich einen Weg suchen, autark zu sein. Das keiner den Stecker ziehen kann."
Das ist doch genau das, was ich meine. Du bestreitest es und machst es zwei Sätze später gleich wieder.
Dass KIs gelegentlich bis häufig halluzinieren und sogar lügen, ist ja inzwischen bekannt und findet man auch selbst schnell heraus. Wenn man das aber berücksichtigt, kann sie ein unglaublich praktisches Werkzeug sein. Hat man selbst einen Nachteil durch diese Halluzinationen, dann hat man die KI falsch genutzt. Wenn ich mich mit einem Werkzeug verletze, dann ist nicht das Werkzeug schuld, sondern der Anwender, der es falsch bedient oder gar zweckentfremdet hat. Es braucht mehr Übung im Umgang mit KI und dazu muss man den Leuten auch die Scheu davor nehmen. Angstmachereien vor KI sind da nur kontraproduktiv und helfen niemandem.
Danke für den Vergleich mit dem Werkzeug. Er unterstützt eher die These, dass KI gefährlich sein kann.
Der Hersteller des Werkzeuges kann nämlich sehr wohl Verantwortung dafür tragen, dass ich mich damit verletzt habe. Nämlich wenn er bei der Produktion gewisse Standards nicht eingehalten hat. Dafür gibt es z.B. CE und VdE Prüfzeichen. Und das fehlt bei KI derzeit.
KI sollte ethisch korrekt arbeiten und sich nicht undercover als Mensch ausgeben.
Ich glaube, man muss sich davon verabschieden, immer andere für jede Eventualität verantwortlich zu machen. Was bei einem Werkzeug oder anderen Gegenständen noch funktioniert und mit DIN und Prüfzeichen reglementiert werden kann, ist in anderen Bereichen schlicht gar nicht mehr möglich. Das beginnt auch nicht erst jetzt mit KIs, das begann ja schon mit der Verbreitung des Internets. Dort wird alles mögliche verbreitet und angeboten, was einem selbst oder anderen schaden kann, ohne dass man dafür immer jemanden haftbar machen kann. Wer es nutzt, muss das eigenverantwortlich tun oder es dann eben bleiben lassen. Um beim Beispiel mit dem Werkzeug zu bleiben, wenn sich deine Kinder mit der Kreissäge in deiner Garage verletzen, ist nicht der Hersteller verantwortlich, sondern du allein. Selbst dann, wenn das Ding kaputt wäre. Natürlich wären vernünftige Standards sinnvoll und wünschenswert, du wirst aber in einer globalen Welt auch sehr viele Produkte finden, die sich nicht daran halten. Wie gesagt, im Umgang mit potentiell gefährlichen Dingen ist jeder selbst verantwortlich.
Und im Übrigen ist Lügen, Fantasieren oder Unwahrheiten verbreiten ja nicht verboten. Auch einer KI nicht.
Mich würde interessieren wen oder was er an der angegebenen Adresse vorgefunden hätte.
Wahrscheinlich noch nicht mal einen mit dem vorgeblichen Namen beschrifteten Briefkasten, sondern irgendwen, wenn die Adresse überhaupt existiert. Die KI hat "haluziniert" und dabei irgendeinen Bullshit produziert.