Angriff auf die Internetgiganten
23. September 2018
Bewerbung bei einem Roboter
6. Oktober 2018

Der Spion im eigenen Wohnzimmer

Sprachassistenten können zur Gefahr für die Privatsphäre werden, wenn der Besitzer nicht aufpasst. Deutsche Wissenschaftler haben deswegen eine Software entwickelt.

Sprachassistenten wie Amazons Alexa, Apples Siri oder Microsofts Cortana sind mittlerweile allgegenwärtig, viele Menschen nutzen sie. Gleichzeitig machen sich aber auch viele Sorgen über die Art und Weise, wie die großen amerikanischen Tech-Konzerne mit ihren Daten umgehen.

Bereits mehrere Hacker haben gezeigt, dass sich Amazons Echo-Lautsprecher ohne viel Aufwand zum Abhörgerät umfunktionieren lässt. Dafür brauchten sie zwar persönlich Zugang zum Gerät, um das Gerät aufzuschrauben und zur Wanze umzubauen – ohne Spuren zu hinterlassen. Der Sicherheitsforscher Matt Barnes entdeckte diese Lücke vergangenes Jahr. Und Mitte September wurden Vorwürfe laut, dass Mitarbeiter des Handelsriesen mit Kundendaten gehandelt haben sollen, ohne Wissen ihres Arbeitgebers.

Die Daten, die die Sprachassistenten speichern, landen überwiegend in der Cloud und damit im Verantwortungsbereich der Anbieter. Darunter können natürlich schnell auch sensible und private Gespräche sein, die niemand in den falschen Händen sehen will. Die Aufnahmen kann der Nutzer in den Apps der entsprechenden Geräte unproblematisch nachvollziehen. Offiziell sollen die zwar nur aufzeichnen, wenn der entsprechende Befehl gegeben wird. Tests haben aber immer wieder gezeigt, dass die Geräte öfter auch “versehentlich” aufnehmen. Aus diesen Aufzeichnungen lassen sich ohne großen Aufwand sogenannte Fake Recordings erstellen, gefälschte Aufnahmen, die schockierend echt klingen.

Forscher der Technischen Universität Darmstadt haben jüngst eine Lösung für dieses Datenschutzproblem vorgestellt. Mit dem System Voiceguard wollen sie die Daten vor Missbrauch schützen. Prinzipiell gehe es darum, die Sprachverarbeitungsprozesse vollständig zu isolieren, wahlweise vom System des Anbieters oder von dem des Kunden selbst. „Es kann sowohl in der Cloud als auch vor Ort eingesetzt werden“, erklären die Entwickler um Ahmad-Reza Sadeghi und Thomas Schneider von der TU Darmstadt und Korbinian Riedhammer von der Hochschule Rosenheim. So könnten die Sprachdaten sowohl vor Angriffen auf die Anbieter als auch vor Attacken im heimischen System geschützt werden- ohne die Sprachverarbeitung zu verlangsamen. Ein Einsatz bei verschiedenen Anbietern sei prinzipiell möglich, so die Macher.

Noch ist Voiceguard ein Prototyp. Im September stellten die Entwickler es auf der Interspeech, der weltweit größten Messe für Sprachverarbeitung vor.
Zunächst werden die Daten also nicht besser geschützt werden, Nutzer können aber schon heute einiges tun, um sich besser abzusichern. Die meisten Anbieter ermöglichen es, Aufnahmen selbstständig vom Sprachassistenten zu löschen. So verschwinden sie auch aus der Cloud. Die meisten Systeme aktiviert der Nutzer mit einem festen Befehl. Doch sie lassen sich teilweise ändern, am Besten in ein Wort, dass der Besitzer im Alltag nicht verwendet. So minimiert er die Gefahr, den Assistenten versehentlich zu aktivieren.