Ressort
Du befindest dich hier:

Mit dem Laser eingeflüstert: So kann man Alexa & Co aus der Ferne manipulieren

Geräte, die mit Sprachsteuerung funktionieren, können sehr praktisch, aber auch gefährlich für die UserInnen sein. Dies zeigt ein aktuelles Experiment mit Lasern!

von

alexa
© Photo by Jan Kolar / VUI Designer on Unsplash

Sondermeldung, Sondermeldung: Künstliche Intelligenzen werden die Welt übernehmen und alle Menschen ausmerzen! Nein, natürlich wird das nicht passieren. Was aber sein kann, ist, dass Menschen die existierende Technologie ausnutzen, um sich einen Vorteil über andere zu beschaffen.

Zum Beispiel über Geräte, die mit Sprachsteuerung in Betrieb genommen werden. Zum Beispiel Amazons Alexa oder der Google Assistant. Aber auch Smartphones mit eingebauten helfenden Stimmchen sind mitgemeint. Klar, wenn ich als Verbrecher neben einer Alexa stehe, kann ich ihr allerhand befehlen. Aber eine Gruppe von ForscherInnen hat herausgefunden, dass ich das auch aus 100 Metern Entfernung machen kann - und zwar so, dass es die BesitzerInnen gar nicht mitkriegen!

Ganz schön gruselig, vor allem, wenn nicht nur mein Handy von außen gesteuert werden kann, sondern auch mein ganzes Smart Home. Da geht dann plötzlich das Garagentor auf, während ich gemütlich vorm TV sitze. Mitbekommen habe ich den Befehl nicht, da er per Laser meinem Gerät eingeflüstert wurde.

Wie die Physik dahinter funktioniert, wissen die ForscherInnen der Universität von Michigan selbst nicht genau. Doch eins ist klar: Man kann die Mikroelektromechanischen Systeme (MEMS), die für eine hohe Audioqualität bei der Sprachsteuerung sorgen, mit Lichtstrahlen manipulieren. Und gemeinsam mit dem Lichtstrahl werden die geheimen Befehle gleich mitgeschickt.

Man kann sich vorstellen, dass die Hersteller der getesteten (und gehackten) Geräte nicht gerade glücklich über diese Veröffentlichung waren. Gegenüber dem Fachmagazin Ars Technica äußerten Google und Amazon, dass man zuerst mit ihnen über die Ergebnisse hätte sprechen sollen. Doch trotz gruseliger Vorstellung, ist die Sache nicht ganz so schlimm wie sie klingt.

Denn laut dem Forschungsteam ist die Gefahr, Opfer eines solchen Hacker-Angriffs zu werden, sehr gering. Erstens liefern die Hersteller die Behebung der Schwachstellen meistens im Gerät schon mit. Beziehungsweise können Funktionsweisen im Nachhinein verändert werden. Außerdem ist es gar nicht so leicht, einen Laser in direktem Winkel auf ein entsprechendes Gerät zu lenken. Und sowieso sind Alexa, Siri & Co ja nicht gerade die leisesten "Personen". Wenn man sie um etwas bittet, antworten sie hörbar - und spätestens dann ist es um die Geheimniskrämerei geschehen.

Diese Artikel könnten dich auch interessieren:

Thema: Report

WOMAN Community

Deine Meinung ist wichtig! Registriere dich jetzt und beteilige dich an Diskussionen.

Jetzt registrieren!

Schon dabei? .