Alexa Cage

Anti-Lausch-Angriff auf Smart Speaker

Alexa Cage: Bildbeispiel
Alexa Cage: Bildbeispiel

Fakt ist: Wir wissen und entscheiden nicht, welche Momente unseres Lebens von Siri, Alexa, Google Home und Co. aufgenommen, gespeichert oder analysiert werden. Ein Datenschutzproblem und technisches Dilemma, das mehr Aufmerksamkeit verdient. Mit dem Experiment „Alexa Cage“ haben wir uns ihm angenommen.

Die Sicherheit unterliegt nicht der Kontrolle des Nutzers und es gibt nicht viel, was du tun kannst.

Bruce Schneier Cybersicherheitsexperte und Dozent

Wir haben uns gefragt: „Wie können wieder wir bestimmen, wann Alexa zuhört und wann nicht?“ Die Idee: Ein schalldichtes Gehäuse, das sich – genau wie Alexa – auf Sprachbefehl öffnet und schließt, aber – anders als Alexa – offline arbeitet und damit unsere Privatsphäre respektiert.

Dabei haben wir völlig unterschätzt, wie gut Alexa hört. Um die acht Mikrofone zeitweise “auszuschalten” haben wir Noise Canceling, Magnetfelder, White Noise und vieles mehr ausprobiert. Nichts hat funktioniert. Nach zahlreichen Versuchen und Prototypen dann die Lösung: Wir verzerren die Tonaufnahmen durch direkte Störgeräusche auf den Mikrofonen und verpacken die motorisierte Einheit in einem Case.

Indem wir Alexa das Gehör nehmen, verschaffen wir es einem Thema, das es dringend benötigt: dem Schutz unserer Daten.