Um den vollen Funktionsumfang dieser Webseite zu erfahren, benötigen Sie JavaScript. Hier finden Sie die Anleitung wie Sie JavaScript in Ihrem Browser einschalten. Spionage-Abwehr gegen mithörende Alexa & Co. – Team der TU Darmstadt entwickelt Gerät, das nicht autorisierte Aktivitäten erkennt | DarmstadtNews.de

Spionage-Abwehr gegen mithörende Alexa & Co. – Team der TU Darmstadt entwickelt Gerät, das nicht autorisierte Aktivitäten erkennt


4. Juli 2020 - 16:24 | von | Kategorie: Wissenschaft |
  Teilen auf: Twitter | Facebook | AddThis

Ein Forschungsteam an der TU Darmstadt hat mit Partnern aus den USA und Frankreich ein Gerät entwickelt, das die Smart Home-Geräte mit Sprachassistenz erkennen kann, die ohne Zustimmung der Nutzenden aufgezeichnete Audioaufnahmen ins Internet streamen.

Hersteller von sogenannten „Smart Home“ Geräten fügen zunehmend Sprachassistenzfunktionen zu einer breiten Palette von Geräten hinzu, zum Beispiel zu intelligenten Lautsprechern, Fernsehern, Thermostaten, Sicherheitssystemen und Türklingeln. Infolgedessen sind viele dieser Geräte mit Mikrofonen ausgestattet, was erhebliche Bedenken hinsichtlich des Datenschutzes aufwirft: Die Benutzerinnen und Benutzer sind nicht immer darüber informiert, wann Audioaufnahmen in die Cloud gesendet werden oder wer Zugang zu den Aufnahmen erhält.

Das Forschungsteam der TU Darmstadt konnte gemeinsam mit seinen Partnern nachweisen, dass viele Geräte mit integrierter Sprachassistenz unabsichtlich Gespräche mithören können. Typischerweise werden Sprachassistenten mit einem Weckwort, englisch „wake-word“, aktiviert wie Amazons Echo, das üblicherweise mit dem Satzanfang „Alexa, …“ geweckt wird. Das Team hat extensiv Experimente mit Sprachassistenten wie Alexa durchgeführt und zahlreiche englische Wörter identifiziert, die Alexa fälschlicherweise als Weckwort interpretiert. Dadurch wird der Sprachassistent aktiviert, was zu einer unerwarteten Audioübertragung führt. Darunter sind auch alltägliche Wörter wie zum Beispiel „letter“ oder „mixer“. Diese Wörter können sowohl von einer künstlich erzeugten Roboter-Stimme oder einem Menschen gesprochen werden. Die ungewollt von Alexa aufgezeichneten Audio-Daten werden dann in die Cloud hochgeladen und von Amazon analysiert. Um dem entgegenzuwirken, haben die Forscherinnen und Forscher ein Gerät als Gegenmaßname entwickelt und einen funktionstüchtigen Prototypen gebaut.

Das Gerät mit dem Namen „LeakyPick“ kann im Smart Home eines Benutzers platziert werden und in regelmäßigen Abständen die anderen Sprachassistenten in seiner Umgebung mit Audio-Befehlen testen. Der nachfolgende Netzwerkverkehr wird auf statistische Muster hin überwacht, die auf eine Audioübertragung hinweisen. LeakyPick weist dann auf die Geräte hin, die die ungewollte Audioaufzeichnung durchführen.
Das LeakyPick-Gerät könnte auch gegen einen raffinierten Angriff auf den Sprachassistenten Alexa helfen: Dabei werden Weckwörter und Befehle von Angreifern in dem für die Menschen unhörbaren Ultraschall-Bereich gesendet und so zum Beispiel Bestellungen beim Online-Versandhändler Amazon getätigt. Die Ultraschall-Befehle sind nicht hörbar für das menschliche Ohr, werden aber von Alexa verstanden. Wenn das LeakyPick-Gerät also eine Aktivität feststellt, obwohl kein hörbarer Befehl erfolgt ist, könnte das auf einen solchen Angriff hindeuten.
Das Gerät existiert derzeit als Prototyp und ist noch nicht im Handel erhältlich.

Seine Ergebnisse hat das Forschungsteam auf einer Fachkonferenz eingereicht. Der vollständige Bericht ist verfügbar unter
https://arxiv.org/abs/2007.00500

Quelle: TU Darmstadt

Teilen auf: Twitter | Facebook | AddThis

Tags: ,