Apple-Kreditkarte? Cupertino könnte 2019 erstes Finanzprodukt bringenVorherige Artikel
Apfelplausch #41: Randloses iPhone SE 2 geleakt | Was kann das neue Android? | Wann kommt die runde Apple Watch?Nächster Artikel

Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können

Apple, iOS, Software
Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können
Ähnliche Artikel

Die Überschrift klingt verrückt, doch ist es wahr. Wie die New York Times berichtet, ist es Forschern und Studenten der University of California, Berkeley, tatsächlich gelungen, Musikstücke und gesprochene Texte so zu manipulieren, dass alle bekannten Sprachassistenten Befehle darin erkannten, die für Menschen jedoch keineswegs wahrnehmbar waren.

Konkret hat man wohl bestimmte Audiofrequenzen so umgebastelt, dass für den Menschen lediglich eine Art Rauschen zu hören ist. Siri, Alexa und der Google Assistent hingegen haben eindeutige Befehle erkannt und diese ausgeführt. Auf diese Weise könnte man in weiterer Folge alle möglichen Befehle in Audio Samples „verstecken“.

Researchers can now send secret audio instructions undetectable to the human ear to Apple’s Siri, Amazon’s Alexa and Google’s Assistant.

Potential für Hacker

Zum einen ist es spannend, dass so etwas überhaupt erst möglich ist. Doch das Experiment zeigt viel eher, wie gefährlich ständig zuhörende Assistenten letztendlich sein können. Wenn die oben erwähnten Techniken verfeinert werden, ergeben sich unzählige Möglichkeiten, die Leute mit krimineller Energie ausnutzen könnten. Was, wenn jemand in der Nähe ein Lied oder einen Text ablaufen lässt, in dem sich der Befehl „Hey Siri, öffne die Haustüre“ versteckt?

Natürlich müssten einige Voraussetzungen gegeben sein. Die iPhones müssen entsperrt sein, bevor diese Art von Befehlen möglich sind. Zudem ist der Abstand zum Telefon nicht unwichtig. Doch die Gefahren sind da und Apple und Co. kennen sie auch. Der HomePod habe zum Beispiel genau für diese Umstände Schutzmechanismen verbaut, gibt Apple zu. Überdies hat man vermutlich aus Sicherheitsbedenken einige Befehle gänzlich weggelassen. Gut möglich, dass Siri allgemein deshalb an manchen Stellen etwas beschränkt wirkt.

Natürlich müssen wir jetzt nicht alle Siri deaktivieren oder hysterisch werden. Dennoch zeigen Experimente dieser Natur, wie viele Wege „Hacker“ heutzutage haben, irgendwo Schaden anzurichten.

Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können
1.71 (34.15%) 41 Artikel bewerten

Keine News mehr verpassen! Unsere App für iOS und Android mit praktischer Push-Funktion.

Hinterlasse einen Kommentar

1 Kommentar auf "Hackeralarm: Forscher kreieren Befehle für Siri, die Menschen nicht hören können"

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

avatar
  Subscribe  
neuste älteste beste Bewertung
Benachrichtige mich zu:
Harald
Gast

Die Energie die man für den Umgang mit solchen Assistenten benötigt (Erwerb, Einrichtung, sicherer Umgang, Wartung/Aktualisierung, ec..) investiere ich lieber in wirklich wichtige Dinge!

Lade dir jetzt die Apfellike App:

Offizielle Apfellike Partner:

Um uns in Zukunft von Banner-Werbung unabhängig zu machen, möchten wir uns Stück für Stück mit der Hilfe von ausgewählten Partnern refinanzieren.

Unterstützt von

World4You Webhosting