1. oekotest.de
  2. News
  3. Alexa kennt keine Privatsphäre: Amazon-Mitarbeiter hören mit

Alexa kennt keine Privatsphäre: Amazon-Mitarbeiter hören mit

Autor: Brigitte Rohm | Kategorie: Freizeit und Technik | 12.04.2019

Alexa kennt keine Privatsphäre: Amazon-Mitarbeiter hören mit
(Foto: Foto: CC0 Public Domain / Unsplash - Jan Antonin Kolar)

Wer sich Alexa ins Haus holt, rechnet nicht damit, dass Unbekannte bei Privatgesprächen mithören. Doch genau das passiert – Amazon-Mitarbeiter sollen damit die Spracherkennung verbessern.

Sprachassistenten wie Alexa sollen unseren Alltag erleichtern – Musik oder Nachrichten abspielen, auf Kommando das Licht dimmen, Einkaufslisten abspeichern oder uns daran erinnern, wann die Nudeln gar sind. Dass sie uns dabei ausspionieren, gehört sicherlich nicht zu den gewünschten Aktivitäten.

Aber wie "Bloomberg" berichtet – und sich dabei auf die Schilderungen mehrerer Beschäftigter von Amazon stützt – geschieht das tatsächlich in großem Stil. Ohne dass die betroffenen Nutzer davon wissen, hören Mitarbeiter Sprachaufnahmen der Assistenzsoftware Alexa ab – mit dem Ziel, die Spracherkennung zu optimieren.

So läuft die Bearbeitung der Alexa-Aufnahmen ab

Der Konzern selbst streitet diese Vorgehensweise nicht ab und bestätigt: "Wir versehen nur eine sehr geringe Auswahl an Alexa-Sprachaufnahmen mit Kommentaren, um das Kundenerlebnis zu verbessern. Beschäftigte haben keinen direkten Zugang zu Informationen, durch die eine Person oder ein Account bei diesem Verfahren identifiziert werden können."

Konkret bedeutet das laut dem Bericht von "Bloomberg", dass Mitarbeiter an verschiedenen Standorten wie Boston, Costa Rica, Rumänien und Indien Sprachaufnahmen verschriftlichen, kommentieren und erneut ins System einspielen. So soll Alexa lernen, Befehle besser zu verstehen. Während einerNeun-Stunden-Schicht soll ein Beschäftiger pro Minute etwa zwei Mitschnitte bearbeiten, insgesamt 1000 Aufzeichnungen an einem Arbeitstag. Durchschnittlich hundert davon seien aufgenommen worden, ohne dass der Nutzer das Aktivierungswort gesprochen hätte.

Mitarbeiter teilen Aufnahmen zur persönlichen Belustigung

Die Arbeit sei dabei größtenteils banal. Ein Mitarbeiter berichtet zum Beispiel, er habe Aufnahmen analysiert, in denen das Wort "Taylor Swift" vorkam, um dann anzumerken, die Nutzer hätten sich auf die Sängerin bezogen. Problematisch ist, dass die Beschäftigten ihre Dateien in Chatrooms miteinander austauschen – etwa, wenn sie Wörter nicht verstehen oder einen Mitschnitt besonders amüsant finden. Vom schlechten Gesang unter der Dusche bis zum Geschrei eines Babys gelangen so Dinge in fremde Hände und Ohren, die die Nutzer mit Sicherheit als "privat" empfinden würden. 

Zwar erklärt der Konzern, dass diese Informationen streng vertraulich behandelt würden. Doch der Bericht verweist auf einem Screenshot zu einem solchen Transkriptions-Auftrag, der mit einer Account-Nummer, dem Vornamen des Nutzers sowie der Seriennummer des Geräts gekennzeichnet gewesen sei. Hätten die Mitarbeiter vertrauliche Informationen wie Namen oder Bankkonto-Informationen gehört, seien sie angehalten worden, einen Haken bei "kritische Daten" setzen und mit der nächsten Aufnahme fortzufahren.

Wir denken, die Maschinen lernen auf magische Weise automatisch

Florian Schaub, Professor an der Universität von Michigan, der sich mit der Privatsphäre von smarten Lautsprechern beschäftigt, äußerte sich dazu mit folgenden Worten: "Man denkt nicht daran, dass ein anderer Mensch dabei zuhört, was man zu seinem smarten Lautsprecher in der Intimität seines Zuhauses sagt. Ich denke, wir sind auf die Annahme konditioniert worden, dass diese Maschinen auf magische Weise automatisch lernen. Aber Fakt ist, dass immer noch manuelle Entwicklung durch Menschen Teil des Prozesses ist."

Dass die Verbesserungsarbeiten kein rein automatisierter Vorgang sind, wird den Kunden nicht ausreichend kommuniziert. Die Nutzungsbedingungen von Amazon weisen nicht explizit darauf hin, dass Mitarbeiter die Kommunikation mit Alexa nachträglich mithören und diese Aufnahmen bearbeiten können. 

So können Sie Ihre Privatsphäre schützen

Trotz allem gibt es einige Möglichkeiten, die eigenen Daten zu schützen und zu verhindern, dass die Alexa-Aufnahmen zur Weiterentwicklung genutzt werden. 

  • Auf der Amazon-Website gibt es Optionen, um der Verwendung der Mitschnitte zu widersprechen. Loggen Sie sich dazu bei Amazon ein und gehen Sie oben rechts auf Mein Konto. Klicken Sie unter Digitale Inhalte und Geräte anschließend auf Inhalte und Geräte. Dort finden Sie oben die Option Alexa-Datenschutz. Auf der nun folgenden Seite können sie wählen "Legen Sie fest, wie Ihre Daten Alexa verbessern sollen" und die entsprechenden Optionen aktivieren oder deaktivieren.
  • Auch in den Alexa-Apps für iOS und Android können Sie im Menü unter Einstellungen/Alexa-Konto/Alexa Datenschutz diese Änderung vornehmen. 
  • Überprüfen Sie regelmäßig Ihre Einstellungen, wenn Sie sich unsicher sind. 
  • Achten Sie auf den blauen Leuchtring Ihres Lautsprechers: Wandern die Lichtpunkte im Kreis, werden Daten übertragen.
  • Möchten Sie jedes Risiko ausschließen, ziehen Sie den Stromstecker, wenn Sie das Gerät nicht verwenden. Und verbinden Sie es nur gezielt nur, wenn Sie es wirklich nutzen. Dieses Vorgehen verhindert allerdings die spontane Nutzung und ist mit Zeitaufwand verbunden.

Weiterlesen auf oekotest.de: