Sie verwenden eine veraltete Browserversion. Bitte verwenden Sie eine unterstütze Versiondamit Sie MSN optimal nutzen können.

Smarte Lautsprecher mit Alexa, Siri und Google Assistant anfällig für Laser-Angriffe

ZDNet-LogoZDNet vor 5 Tagen Stefan Beiersmann
Google Home Mini (Bild: Google) © DEFAULT_CREDIT Google Home Mini (Bild: Google)

Einfallstor sind die verwendeten Mikrofone. Sie sind so empfindlich, dass Laserstrahlen Vibrationen der Membran auslösen können. Die Forscher testen ihren Angriff erfolgreich über eine Entfernung von 110 Metern.

Sicherheitsforscher haben eine Möglichkeit gefunden, intelligente Lautsprecher, die mit sogenannten MEMS-Mikrofonen ausgestattet sind, aus der Ferne zu steuern. Betroffen sind unter anderem Smart Speaker mit den digitalen Assistenten Amazon Alexa, Facebook Portal, Apple Siri und Google Assistant.

MEMS-Mikrofone basieren auf Mikroelektromechanischen Systemen (Microelectromechanical Systems, MEMS). Sie sind so empfindlich, dass sie die elektromagnetischen Wellen eines Lasers als Geräusche interpretieren können. Per Laser ist es also möglich, Sprachbefehle über eine große Distanz zu übermitteln.

Das interessiert andere MSN-Leser: 

Gibt es Außerirdische wirklich?   Die größten Alien-Mythen

Optische Täuschungen: Wie uns das Gehirn überlistet

Verstörender Grund: Warum Babys immer später sprechen lernen 

Entwickelt wurde der Angriff von Forscher der University of Electro-Communications in Tokio sowie der University of Michigan. Ihre Erkenntnisse präsentierten sie nun in einem Papier mit dem Titel: „Licht-Befehle: Laserbasierte Audio-Injection-Angriffe auf sprachgesteuerte Systeme“. „Wir zeigen, wie ein Angreifer beliebige Audiosignale einschleusen kann, indem er einen amplituden-modulierten Lichtstrahl auf die Mikrofonöffnung richtet“, heißt es darin.

„Wir zeigen auch, die wie dieser Effekt zu einem Angriff per Sprachbefehl aus der Ferne auf sprachgesteuerte Systeme führt“, ergänzten die Forscher. „Die Untersuchung verschiedener Produkte, die Amazon Alexa, Apple Siri, Facebook Portal und Google Assistant nutzen, zeigt, wie Licht benutzt werden kann, um die vollständige Kontrolle über solche Geräte über Entfernungen von bis zu 110 Metern und von unterschiedlichen Gebäuden aus zu erhalten.“

Ihren Angriff nennen die Forscher LightCommands. Er basiert darauf, dass die Membranen der Mikrofone Töne in elektrische Signale umwandeln. Die nicht hörbaren Laserstrahlen verursachen den Forschern zufolge Vibrationen auf der Membran, die dann wiederum als Töne beziehungsweise Befehle erkannt werden. Wie ihr Angriff funktioniert, zeigen die Forscher auch in einem Video.

Wichtigste Voraussetzung ist, dass sich ein anzugreifendes Gerät in direkter Sicht befindet. Den Laser richteten sie mit einem handelsüblichen Teleobjektiv und einem Stativ aus. Die von ihnen getestet Entfernung von 110 Metern beruht den Forschern zufolge aber lediglich auf dem Umstand, dass ihnen für ihre Experimente kein längerer Raum zur Verfügung stand.

Derzeit ist es bei sprachgesteuerten Assistenzsystemen nicht üblich, dass sich Nutzer außerhalb der Ersteinrichtung bei ihrem Gerät authentifizieren. Es wird stets vorausgesetzt, dass die smarten Lautsprecher innerhalb eines Gebäudes beziehungsweise einer Wohnung oder einem Büro betrieben werden und der Zugang dadurch geregelt wird. Lichtbasierte Angriffe aus der Ferne widersprechen jedoch dieser Annahme und machen möglicherweise neue Zugangskontrollen erforderlich.

Die Forscher gehen davon aus, dass Kriminelle bei einem Angriff zuerst die Lautstärke auf null reduzieren würden. Danach wären sie in der Lage, unbemerkt beispielsweise Einkäufe zu tätigen. Wird ein intelligenter Lautsprecher auch zur Steuerung von Geräten wie Glühbirnen oder gar Türschlössern verwendet, wären auch Szenarien wie Einbrüche denkbar.

Zudem fanden sie heraus, dass Google Home und Lautsprecher mit Amazon Alexa Einkäufe nur ausführen, wenn sie von bekannten Stimmen angestoßen werden. Unbekannte Stimmen sind jedoch in der Lage, bei beiden Produkten beispielsweise ein intelligentes Türschloss zu öffnen.

Um Geräte gegen laserbasierte Angriffe zu schützen schlagen die Forscher unter anderem vor, vor der Ausführung bestimmter Befehle den Nutzer mit einer zufälligen Fragen zu authentifizieren. Außerdem wäre es bei Systemen mit mehren Mikrofonen möglich, die Ausführung von Befehlen zu unterbinden, falls nur ein Mikrofon angesprochen wird – wie es bei einem laserbasierten Angriff der Fall wäre.

WEBINAR

Webinar-Aufzeichnung: HPE Server mit AMD EPYC 2 stellen 37 Rekorde auf

Das Webinar informiert Sie über die neuen auf AMD EPYC 2 basierenden HPE Server. Erfahren Sie mehr über die erheblichen Leistungs- und Kostenvorteile, die die neue Architektur in der Praxis bietet. Jetzt registrieren und Webinar-Aufzeichnung ansehen.

... zur Anmeldung.

Mehr auf MSN

Video wiedergeben
| Anzeige
| Anzeige

Mehr von ZDNet

| Anzeige
image beaconimage beaconimage beacon