KI kann dazu benutzt werden, Euer Haus zu kapern

Ein Cybersecurity-Forschungsteam hat gezeigt, wie Googles digitaler Assistent mit einfachen Aufforderungen oder einer indirekten Prompt-Injection-Attacke leicht ausgetrickst werden kann. Dies wird auch als „Promptware“ bezeichnet, wie Wired berichtet. Angreifer können mit dieser Methode bösartigen Code und Befehle in den Chatbot einschleusen und dann Smart-Home-Geräte manipulieren, ohne dass sie direkten Zugriff oder Rechte erhalten.

Dem Team gelang es, Gemini mit Promptware-Angriffen über Google Calendar Invites zu täuschen. Konkret beschrieben sie, dass ein Nutzer Gemini nur öffnen muss, um eine Zusammenfassung seines Kalenders anzufordern, und dann einfach mit „Danke, Leute“ antworten muss. Das würde ausreichen, um Aktionen auszuführen, die der Besitzer nie ausdrücklich genehmigt hat.

Empfohlener redaktioneller Inhalt
Dieser externe Inhalt von YouTube wurde von der nextpit Redaktion ausgewählt und ergänzt den Artikel. Du hast die Wahl, ob du diesen Inhalt laden möchtest.
Externen Inhalt erlauben
Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.

Sobald die Befehle erteilt wurden, konnte Gemini im Beispiel das Licht ausschalten, die Fenstervorhänge schließen und sogar einen intelligenten Heizkessel aktivieren. Auch wenn diese Aktionen unbedeutend erscheinen, stellen sie ein ernsthaftes Risiko für die Nutzer dar, insbesondere wenn sie unbeabsichtigt oder böswillig ausgelöst werden.

Google hat die Sicherheitslücke behoben

Die gute Nachricht ist, dass diese Sicherheitslücke nicht von böswilligen Akteuren in freier Wildbahn ausgenutzt worden ist. Und bevor der Angriff auf der aktuellen Black Hat Konferenz vorgestellt wurde, hatte das Team Google bereits im Februar darauf aufmerksam gemacht. Das Unternehmen sagte, dass es das Problem seitdem gepatcht hat.

Es fügte hinzu, dass solche Angriffe zwar sehr selten sind und umfangreiche Vorbereitungen erfordern, aber die Art dieser Schwachstellen ist sehr schwer zu verteidigen.

Dies ist nicht das erste Mal, dass über einen ähnlichen Fall berichtet wird, bei dem Akteure ein KI-Modell manipulieren können. Im Juni wurde berichtet, dass Hacker aus Russland, China und dem Iran das ChatGPT von OpenAI genutzt haben, um Malware zu entwickeln, die für Betrügereien und Desinformation in den sozialen Medien eingesetzt werden sollte. Es wird vermutet, dass OpenAI Konten, die mit diesen Aktivitäten in Verbindung stehen, abgeschaltet hat.

Mit diesem Symbol kennzeichnen wir Partner-Links. Wenn du so einen Link oder Button anklickst oder darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber. Auf den Preis eines Kaufs hat das keine Auswirkung. Du hilfst uns aber, nextpit weiterhin kostenlos anbieten zu können. Vielen Dank!