Apple-Kreditkarte? Cupertino könnte 2019 erstes Finanzprodukt bringenVorherige Artikel
Apfelplausch #41: Randloses iPhone SE 2 geleakt | Was kann das neue Android? | Wann kommt die runde Apple Watch?Nächster Artikel

Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können

Apple, iOS, Software
Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können
Ähnliche Artikel

Die Überschrift klingt verrückt, doch ist es wahr. Wie die New York Times berichtet, ist es Forschern und Studenten der University of California, Berkeley, tatsächlich gelungen, Musikstücke und gesprochene Texte so zu manipulieren, dass alle bekannten Sprachassistenten Befehle darin erkannten, die für Menschen jedoch keineswegs wahrnehmbar waren.

Konkret hat man wohl bestimmte Audiofrequenzen so umgebastelt, dass für den Menschen lediglich eine Art Rauschen zu hören ist. Siri, Alexa und der Google Assistent hingegen haben eindeutige Befehle erkannt und diese ausgeführt. Auf diese Weise könnte man in weiterer Folge alle möglichen Befehle in Audio Samples „verstecken“.

Researchers can now send secret audio instructions undetectable to the human ear to Apple’s Siri, Amazon’s Alexa and Google’s Assistant.

Potential für Hacker

Zum einen ist es spannend, dass so etwas überhaupt erst möglich ist. Doch das Experiment zeigt viel eher, wie gefährlich ständig zuhörende Assistenten letztendlich sein können. Wenn die oben erwähnten Techniken verfeinert werden, ergeben sich unzählige Möglichkeiten, die Leute mit krimineller Energie ausnutzen könnten. Was, wenn jemand in der Nähe ein Lied oder einen Text ablaufen lässt, in dem sich der Befehl „Hey Siri, öffne die Haustüre“ versteckt?

Natürlich müssten einige Voraussetzungen gegeben sein. Die iPhones müssen entsperrt sein, bevor diese Art von Befehlen möglich sind. Zudem ist der Abstand zum Telefon nicht unwichtig. Doch die Gefahren sind da und Apple und Co. kennen sie auch. Der HomePod habe zum Beispiel genau für diese Umstände Schutzmechanismen verbaut, gibt Apple zu. Überdies hat man vermutlich aus Sicherheitsbedenken einige Befehle gänzlich weggelassen. Gut möglich, dass Siri allgemein deshalb an manchen Stellen etwas beschränkt wirkt.

Natürlich müssen wir jetzt nicht alle Siri deaktivieren oder hysterisch werden. Dennoch zeigen Experimente dieser Natur, wie viele Wege „Hacker“ heutzutage haben, irgendwo Schaden anzurichten.

Keine News mehr verpassen! Unsere App für iOS und Android mit praktischer Push-Funktion.

Apple

Sind die KI-Features in iOS 18 anfangs limitiert? Cloud-Anbindung angeblich nicht geplant

Sind die KI-Features in iOS 18 anfangs limitiert? Cloud-Anbindung angeblich nicht geplant   0

Apple plant, in iOS 18 verstärkt auf Künstliche Intelligenz (KI) auf den iPhones zu setzen. Laut aktuellen Berichten von Mark Gurman, der in seinem wöchentlichen Newsletter für Bloomberg berichtet, sollen [...]

0
Would love your thoughts, please comment.x