Topthemen

Google „Look to Speak“: Wenn Augen das Sprechen lernen

Google Look to Speak
© Google

In anderen Sprachen lesen:

Mit einer neuen Android-App will Google Menschen mit motorischen und sprachlichen Beeinträchtigungen dabei helfen, mit anderen Menschen zu kommunizieren. Der Clou: Hierfür benötigt man nur ein Android-Smartphone ohne Zubehör.

Bedienungshilfen in aktuellen Smartphones oder Tablets machen es vielen Menschen leichter, ihren Alltag zu leben. Im aktuellen Beispiel demonstriert Google mit „Look to Speak“, wie dies bei motorischen und sprachlichen Beeinträchtigungen aussehen könnte.

Richard Cave, Logopäde bei Google, beschreibt in der Mitteilung, wie eine kleine Gruppe des Unternehmens mit den Fähigkeiten aktueller Smartphones experimentiert hat. Die „Look to Speak“ getaufte App erlaubt es Nutzern mit Hilfe ihrer Augen vordefinierte Sätze auszuwählen, die dann vom Handy ausgesprochen werden. Die App steht im Play Store zum Download parat und ist mit Android 9.0 oder neuer kompatibel. Geräte mit Android One sind ebenfalls dabei.

„Look to Speak“: Sprachsteuerung mit dem Auge

Die Sprachsteuerung gelingt dabei allein durch Bewegungen der Augen. Die Oberfläche der App ist in drei Bereiche geteilt. Je nachdem, ob man seine Augen nach links oder rechts bewegt, werden entsprechende Satzgruppen ausgewählt, die nach und nach verfeinert werden, bis man die gewünschte Phrase erreicht hat. Ein Blick nach oben erlaubt den Sprung zum Anfang der Auswahl.

Google erlaubt es dem Nutzer, die Sätze nach Belieben anzupassen, sodass man sie den persönlichen Anforderungen genauer anpassen kann. Diese Personalisierung sowie das Feintuning der Augenerkennung sind jedoch nicht über die eigentliche Augensteuerung erreichbar. Hier nutzt Google weiterhin eine traditionelle Smartphone-Steuerung.

Google experimentiert mit „Start with One“

„Look to Speak“ ist nur ein Teil von Googles „Start with One“-Initiative, welche wiederum zu „Experiments with Google“ gehört. Diese Projekte beginnen – wie der Name schon sagt – damit, dass sie zunächst nur einer Person helfen und erst später einer größeren Zielgruppe zugute kommen könnten. Eine dieser Anwendungen ist die „Teachable Machine“. Diese erlaubt das Trainieren eines Machine-Learning-Modells über ein Web-Interface, ohne dass man Programmieren können muss.

Richard Cave sagte, dass es faszinierend war zu beobachten, wie Look to Speak in Situationen genutzt werden konnte, in der andere bisherige Lösungen nicht verfügbar waren. Als Beispiel nennt er den Einsatz im Freien, im Straßenverkehr, unter der Dusche oder in dringenden Situationen. „Jetzt können Gespräche leichter stattfinden, wenn zuvor Stille herrschte, und ich freue mich darauf, einige davon zu hören“, so Cave.

Weitere Artikel auf NextPit:

Die besten Smartphones bis 1.000 Euro im Vergleich und Test

  Das beste Smartphone bis 1.000 Euro Das beste iPhone Beste Android-Alternative Das beste Kamera-Handy Preis-Leistungs-Verhältnis Das beste Foldable Das günstigste Smartphone
 
Abbildung Samsung Galaxy S24 Product Image Apple iPhone 15 Product Image Xiaomi 13T Pro Product Image Google Pixel 8 Pro Product Image Nothing Phone (2) Product Image Samsung Galaxy Z Flip 5 Product Image Google Pixel 7a Product Image
Zum Test
Zum Test: Samsung Galaxy S24
Zum Test: Apple iPhone 15
Zum Test: Xiaomi 13T Pro
Zum Test: Google Pixel 8 Pro
Zum Test: Nothing Phone (2)
Zum Test: Samsung Galaxy Z Flip 5
Zum Test: Google Pixel 7a
 
Zu den Kommentaren (1)
Hat Dir der Artikel gefallen? Jetzt teilen!
Empfohlene Artikel
Neueste Artikel
Push-Benachrichtigungen Nächster Artikel
1 Kommentar
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • Gianluca Di Maggio 57
    Gianluca Di Maggio 12.12.2020 Link zum Kommentar

    Perfekt für die Nutzung mit Maske, fast so als wäre das geplant gewesen :P

VG Wort Zählerpixel