Bastler haben es geschafft, sprachgesteuerte

Assistenzsoftware

mit

Befehlen

mit

Befehlen

zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet. Diese Signale können in normalen

Audiodateien

zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet. Diese Signale können in normalen

Audiodateien

versteckt werden, etwa in

YouTube-Videos

versteckt werden, etwa in

YouTube-Videos

und anderen Dateien. Wenn Alexa,

Cortana

und anderen Dateien. Wenn Alexa,

Cortana

,

Google

,

Google

Assistant

oder Siri die

Befehle

oder Siri die

Befehle

hören, führen sie die Anweisungen aus.

Diese sogenannte “

hören, führen sie die Anweisungen aus.

Diese sogenannte “

DolphinAttack

“ wurde von chinesischen Experten schon im vergangenen Jahr vorgeführt. Damals musste ein Angreifer sich aber nahe am Eingabemikrofon der jeweiligen Systeme befinden. Die

New York Times

“ wurde von chinesischen Experten schon im vergangenen Jahr vorgeführt. Damals musste ein Angreifer sich aber nahe am Eingabemikrofon der jeweiligen Systeme befinden. Die

New York Times

zitiert nun eine Studie von Sicherheitsforschern der UC Berkeley. Darin beschreiben die Forscher, wie sie Mozillas quelloffene „DeepSpeech“-Plattform mit einem für Menschen unhörbaren Signal täuschen konnten, das in einer anderen

Audiodatei

zitiert nun eine Studie von Sicherheitsforschern der UC Berkeley. Darin beschreiben die Forscher, wie sie Mozillas quelloffene „DeepSpeech“-Plattform mit einem für Menschen unhörbaren Signal täuschen konnten, das in einer anderen

Audiodatei

versteckt war.

Taktik für „böswillige Menschen“?

Die Wissenschaftler gehen zudem davon aus, dass auch andere neugierige Nutzer diese Taktik bereits entdeckt haben. „Ich denke, dass böswillige Menschen das bereits nutzen“, sagt ein am Projekt beteiligter Spezialist. Die Forscher glauben, dass sie jedes auf dem Markt verfügbare

versteckt war.

Taktik für „böswillige Menschen“?

Die Wissenschaftler gehen zudem davon aus, dass auch andere neugierige Nutzer diese Taktik bereits entdeckt haben. „Ich denke, dass böswillige Menschen das bereits nutzen“, sagt ein am Projekt beteiligter Spezialist. Die Forscher glauben, dass sie jedes auf dem Markt verfügbare

Assistenzsystem

mit ihrem Trick überlisten können. Durch versteckte

Befehle

mit ihrem Trick überlisten können. Durch versteckte

Befehle

können solche sprachgesteuerten Programme dazu gebracht werden, Nachrichten zu verschicken, Einkäufe zu tätigen oder Geld zu überweisen.

Das könnte auch interessant sein:

können solche sprachgesteuerten Programme dazu gebracht werden, Nachrichten zu verschicken, Einkäufe zu tätigen oder Geld zu überweisen.

Das könnte auch interessant sein:

Auch wenn dieser Art von Missbrauch durch die Notwendigkeit von bestätigenden Klicks bei vielen Vorgängen ein Riegel vorgeschoben wird, zeigen die Ergebnisse der Forscher doch, dass im Bereich der Sprachbefehle die Sicherheit bislang mangelhaft ist. Die großen Hersteller haben ihre Produkte auf den Markt gepresst, wenn es um die Gewährleistung der Sicherheit geht, sind sie aber gerne leise.

Neueste Videos auf futurezone.de