Digital Life 

Mit versteckten Befehlen können Alexa und Co. leicht gehackt werden

Aufgepasst bei Sprachassistenz-Systemen: Amazon Alexa, Google Home etc. könnten gehackt werden.
Aufgepasst bei Sprachassistenz-Systemen: Amazon Alexa, Google Home etc. könnten gehackt werden.
Foto: Elaine Thompson / AP
Sprachassistenten wie Amazon Alexa, Google Home und andere können durch hochfrequente Töne so manipuliert werden, dass sie alleine einkaufen oder selbstständig Geld überweisen – eine potenzielle Anlaufstelle für Hacker.

Bastler haben es geschafft, sprachgesteuerte Assistenzsoftware mit Befehlen zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet. Diese Signale können in normalen Audiodateien versteckt werden, etwa in YouTube-Videos und anderen Dateien. Wenn Alexa, Cortana, Google Assistant oder Siri die Befehle hören, führen sie die Anweisungen aus.

Diese sogenannte "DolphinAttack" wurde von chinesischen Experten schon im vergangenen Jahr vorgeführt. Damals musste ein Angreifer sich aber nahe am Eingabemikrofon der jeweiligen Systeme befinden. Die New York Times zitiert nun eine Studie von Sicherheitsforschern der UC Berkeley. Darin beschreiben die Forscher, wie sie Mozillas quelloffene "DeepSpeech"-Plattform mit einem für Menschen unhörbaren Signal täuschen konnten, das in einer anderen Audiodatei versteckt war.

DolphinAttack: Wie die versteckten Sprachbefehle in den Sprachassistenten funktionieren
guoming zhang

Taktik für "böswillige Menschen"?

Die Wissenschaftler gehen zudem davon aus, dass auch andere neugierige Nutzer diese Taktik bereits entdeckt haben. "Ich denke, dass böswillige Menschen das bereits nutzen", sagt ein am Projekt beteiligter Spezialist. Die Forscher glauben, dass sie jedes auf dem Markt verfügbare Assistenzsystem mit ihrem Trick überlisten können. Durch versteckte Befehle können solche sprachgesteuerten Programme dazu gebracht werden, Nachrichten zu verschicken, Einkäufe zu tätigen oder Geld zu überweisen.

Das könnte auch interessant sein:

Auch wenn dieser Art von Missbrauch durch die Notwendigkeit von bestätigenden Klicks bei vielen Vorgängen ein Riegel vorgeschoben wird, zeigen die Ergebnisse der Forscher doch, dass im Bereich der Sprachbefehle die Sicherheit bislang mangelhaft ist. Die großen Hersteller haben ihre Produkte auf den Markt gepresst, wenn es um die Gewährleistung der Sicherheit geht, sind sie aber gerne leise.

Zu den Kommentaren

Neueste Videos auf futurezone.de

Beschreibung anzeigen