Topthemen

Weil Zuhören wichtig ist: Alexa und Co. gegen Suizid

voice assistant 01
© Andrey Popov/Shutterstock

Der National Health Service (NHS) in Großbritannien will in Zukunft intelligente Lautsprecher mit Amazon Alexa und dem Google Assistant verwenden, um Risiko- und Selbstmordpatienten zu helfen. Das Modell könnte auch in Deutschland funktionieren.

Im britischen Gesundheitswesen sollen verstärkt neue Technologien wie Künstliche Intelligenz und Robotik eingesetzt werden. Dabei gibt es umfangreiche Pläne, die KI in die psychiatrischen Dienste zu integrieren, um Patienten zu identifizieren, die Gefahr laufen, sich selbst zu verletzen.

Seit Jahren können Patienten bereits online mit NHS-Chatbots sprechen, um allgemeine Gesundheitsprobleme zu identifizieren und Ratschläge zu erhalten. In Zukunft werden Patienten mit psychischen Problemen in der Lage sein, Gespräche mit speziellen Bots über intelligente Lautsprecher zu führen, die Warnzeichen für selbstmörderisches Verhalten erkennen können.

amazon echo 05
Kritiker werden sich davor hüten, immer mehr Mikrofone zu Hause zu haben. / © NextPit

Die Praxis der technologiegestützten Patientenkontrolle wurde schon früher genutzt: Facebook überprüft seit 2017 die Beiträge der Nutzer auf Selbstmordgedanken. Jetzt könnten intelligente Lautsprecher, die bereits in Millionen von Haushalten vorhanden sind, im Wesentlichen dasselbe für gesprochene Unterhaltungen tun.

In einigen Regionen laufen bereits Versuche mit diesen neuen technologischen Dienstleistungen. In Oxford verwenden Patienten mit Höhenangst Virtual-Reality-Headsets, um die Phobie zu überwinden, und ähnliche Studien finden für Patienten statt, die an Angst und posttraumatischer Belastungsstörung leiden.

Technologie im Gesundheitssektor ist unerlässlich

Der Bericht, der vom US-Akademiker Dr. Eric Topol erstellt und vom NHS in Auftrag gegeben wurde, besagt, dass die Einführung digitaler Technologien im nationalen Gesundheitswesen unvermeidlich sei. Es werden auch medizinische KI-Scanner und Formen der Therapie mit Virtual Reality erwähnt. Topol ist der Meinung, dass 90 Prozent aller Jobs in diesem Sektor innerhalb von 20 Jahren "digitale Fähigkeiten" erfordern würden.

Gerade der NHS war nicht immer vorbildlich bei neuen Technologien. Im Jahr 2017, als das Gesundheitswesen Opfer eines groß angelegten Cyberangriffs wurde, tauchten Berichte auf, dass 60 Prozent der NHS-Rechner noch das hoffnungslos veraltete und unsichere Windows XP verwendeten.

Quelle: Telegraph

iPhone-15-Serie ohne und mit Vertrag (24 Monate)

  Direkt kaufen Telekom Vodafone o2 1&1
iPhone 15
ab 949 €
bei Amazon
*
MagentaMobil M*
(20 GB / 5G)
59,95 €/Monat
649,90 € einmalig
GigaMobil S*
(24 GB / 5G)
61,99 €/Monat
229,90 € einmalig
o2 Mobile M*
(25 GB + 5 GB / 5G)
64,99 €/Monat
45,98 € einmalig
Allnet-Flat-M+*
(20 GB / 5G)
56,99 €/Monat
39,90 € einmalig
iPhone 15 Plus
ab 1.099 €
bei Amazon
*
MagentaMobil M*
(20 GB / 5G)
59,95 €/Monat
779,90 € einmalig
GigaMobil S*
(24 GB / 5G)
61,99 €/Monat
379,90 € einmalig
o2 Mobile M*
(25 GB + 5 GB / 5G)
69,99 €/Monat
45,98 € einmalig
Allnet-Flat-M+*
(20 GB / 5G)
62,99 €/Monat
39,90 € einmalig
iPhone 15 Pro
ab 1.199 €
bei Amazon
*
MagentaMobil M*
(20 GB / 5G)
59,95 €/Monat
889,90 € einmalig
GigaMobil S*
(24 GB / 5G)
61,99 €/Monat
479,90 € einmalig
o2 Mobile M*
(25 GB + 5 GB / 5G)
79,99 €/Monat
45,98 € einmalig
Allnet-Flat-M+*
(20 GB / 5G)
66,99 €/Monat
39,90 € einmalig
iPhone 15 Pro Max
ab 1.449 €
bei Amazon
*
MagentaMobil M*
(20 GB / 5G)
59,95 €/Monat
1.129,90 € einmalig
GigaMobil S*
(24 GB / 5G)
61,99 €/Monat
729,90 € einmalig
o2 Mobile M*
(25 GB + 5 GB / 5G)
84,99 €/Monat
45,98 € einmalig
Allnet-Flat-M+*
(20 GB / 5G)
74,99 €/Monat
39,90 € einmalig
iPhone-15-Serie im Vergleich bei nextpit | iPhone-15-Serie mit Vertrag: Die besten Angebote
Zu den Kommentaren (19)
Hat Dir der Artikel gefallen? Jetzt teilen!
Empfohlene Artikel
Neueste Artikel
Push-Benachrichtigungen Nächster Artikel
19 Kommentare
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • 77
    Gelöschter Account 13.02.2019 Link zum Kommentar

    Siri gibt auch Tipps und fragt ob sie die Seelensorge anrufen soll.


  • 23
    Sprint X 12.02.2019 Link zum Kommentar

    Ich stelle mir das folgendermaßen vor :
    Ich hege Selbstmordgedanken und nehme mittels Alexa Kontakt zu diesem Service auf.
    Zukünftig erhalte ich in meiner Browserwerbung Angebote für Seile, Rasierklingen und Abflussreiniger.

    Gelöschter AccountGelöschter Account


    • 77
      Gelöschter Account 13.02.2019 Link zum Kommentar

      Oder eine Anleitung wie man sich die Treppe runter stürzt 😅🔫

      Sprint X


      • 23
        Sprint X 13.02.2019 Link zum Kommentar

        Ja, man hat leicht reden. Aber ernsthaft.
        Ich selbst habe auch Depressionen gehabt die nicht von Pappe waren. Aber den Alexahumbug würde ich nie machen, da mir schon das Vertrauen in dieses Gerät fehlt. Und das ist wichtig, Vertrauen.

        Deswegen alles versuchen um irgendwie noch nen Grinsen zu bewahren.

        Gelöschter Account


      • 77
        Gelöschter Account 13.02.2019 Link zum Kommentar

        Die Alexa kann mir auch nicht bei Epilepsie helfen. Man muss aber bedenken mit, das Alexa und co kein Ersatz für ein Arzt ist.


  • 103
    Tenten 12.02.2019 Link zum Kommentar

    Ich halte das für reines Marketing, denn ich halte es für unmöglich, dass ein Algorithmus treffsicher Selbstmordabsichten diagnostizieren kann. Selbst sehr nahe Angehörige sind hinterher oft extrem betroffen, weil sie nichts bemerkt hatten, obwohl sie den Menschen doch gut kannten. Ich habe mich selbst mal mit einem Mädchen einen ganzen Abend lang unterhalten und am nächsten Tag erfahren müssen, dass sie sich am Mittag vor eine U-Bahn geworfen hatte. Ich hatte nichts bemerkt, dabei bin ich in dieser Hinsicht eigentlich sehr sensibel. Programmcode mag noch so gut angelernt sein, er wird dennoch bei der Erkennung zig Fehlalarme produzieren. Und welche Konsequenzen der Stigmatisierung dies dann für Betroffene hat, kann sich jeder selbst ausmalen.

    Gelöschter AccountGelöschter Account


  • 41
    Gelöschter Account 12.02.2019 Link zum Kommentar

    Menschen, nur Menschen helfen Menschen!

    Gelöschter Account


    • 103
      Tenten 12.02.2019 Link zum Kommentar

      Das ist nicht korrekt, denk mal an Blindenhunde zum Beispiel.

      Gelöschter AccountGelöschter AccountDiDaDo


      • 69
        Michael K. 12.02.2019 Link zum Kommentar

        Oder Herz-Lungen-Maschinen.

        Gelöschter Account


      • 42
        Gelöschter Account 13.02.2019 Link zum Kommentar

        Die reden aber nicht. Wenn du da dran hängst hat schon jemand geholfen.


      • 41
        Gelöschter Account 13.02.2019 Link zum Kommentar

        Der Punkt geht an Dich


  • 90
    Gelöschter Account 12.02.2019 Link zum Kommentar

    Das sind doch nur alles Argumente, um die Verbraucher davon zu überzeugen, wie gut ständiges zuhören und übertragen der Daten an den Betreiber ist. Das ist wie mit dem Kennzeichen scannen. Ein paar wenige Ausnahmen, die jeder gut finden wird, werden dazu verwendet, alle ständig zu überwachen.

    M. A.Gelöschter AccountTenten


    • Maximilian HE 51
      Maximilian HE 12.02.2019 Link zum Kommentar

      Stimmt. Deshalb wurde im Artikel auch explizit von selbstmordgefährdeten - und Risikopatienten gesprochen.
      Sag mal liest Du eigentlich auch die Artikel oder musst Du in jedem Beitrag einfach nur gegen die offensichtliche Meldung bashen?


      • 56
        Gelöschter Account 12.02.2019 Link zum Kommentar

        @Maximilian HE:
        Steter Tropfen hölt den Stein.
        Bald sind es womöglich Menschen mit Selbstmordgefahr, bei denen bspw. Alexa immer zuhört, dann werden es Menschen mit Behinderung, dann Menschen im hohen Alter und am Ende haben wir alle den Salat, wenn man solch ein Gerät nutzt.
        Die Datensammelwut (sorry für das Buzzword) ist ungebrochen und damit lässt sich viel Geld verdienen. Bis alle Daten en detail auswertbar sind, wird nicht viel Zeit vergehen. Im Grunde bin ich hier aber dankbar, dass Deutsche relativ technikfeindlich sind und sich solche Machenschaften, wie im Artikel genannt, hier wohl erst spät durchsetzen werden, wenn man woanders schon Erfahrung gesammelt hat.

        Gelöschter Account


  • 56
    Gelöschter Account 12.02.2019 Link zum Kommentar

    Auch wenn die Absicht dahinter löblich sein mag, aber solche Sachen sind ein schwerer Eingriff in die Persönlichkeitsrechte. Insbesondere "Facebook überprüft seit 2017 die Beiträge der Nutzer auf Selbstmordgedanken" finde ich verstörend. Facebook darf und soll prüfen, ob Beiträge "verboten" sind, z. B.: gewaltverherrlichend, rassistisch usw.

    Außerdem soll Alexa & co doch nur dann zuhören können/dürfen, wenn das Aktivierungswort gesagt wurde. Wie soll ich das Ganze in der Praxis vorstellen? "Alexa, bestell 1 Kilogramm Arsen" oder "Alexa, wie binde ich einen Strick" ?

    Gelöschter Account


    • 61
      René H. 12.02.2019 Link zum Kommentar

      Wenn Du 1 Kilo Arsen bestellst hört Dir nicht nur Alexa zu.... 😉

      Gelöschter Account


    • DiDaDo 98
      DiDaDo 12.02.2019 Link zum Kommentar

      "Außerdem soll Alexa & co doch nur dann zuhören können/dürfen, wenn das Aktivierungswort gesagt wurde."

      Steht ja auch nirgendwo was anderes. Das System kann auch nach dem Hotword die Stimme und Tendenzen darin analysieren. Aber ich glaube dennoch nicht, dass das vernünftig interpretierbar ist.

      Gelöschter Account


    • 69
      Michael K. 12.02.2019 Link zum Kommentar

      Ich vermute, Alexa ist nur die Schnittstelle beim Benutzer, das eigentliche Gespräch führt ein Therapie-Bot, der vermutlich auch die Selbstmordgefährdung feststellen soll. Das Ganze richtet sich wohl eher an Leute, die ohnehin psychische Probleme haben, und z.B. unter Depressionen leiden. Was die bei der Nutzung des Bots sagen, vielleicht Phrasen wie "da kann ich ja gleich einen Strick nehmen", sind dann möglicherweise Indizien für eine Suizidgefährdung, wobei es vermutlich nicht ganz so einfach ist, eine Suizidgefährdung zu diagnostizieren. Alexa hat bei dem Projekt möglicherweise nur die Rolle eines Freisprechtelefons zum Therapiebot.

      Gelöschter Account


  • 61
    René H. 12.02.2019 Link zum Kommentar

    Alexa & Co. sollen bei Suizidgefahr helfen können? Sterbehilfe ist in Deutschland verboten. 😉

    Jetzt mal ernsthaft. So langsam wird es richtig Lebensgefährlich. Auf was hören die Konsumenten denn noch so alles?

    Gelöschter AccountGelöschter Account

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
VG Wort Zählerpixel