Auch Apples Siri-Sprachaufzeichnungen werden angehört …

Auch Nutzer von Apples Siri-Sprachassistentin sollten sich vergegenwärtigen, dass Gesprochenes von Apple-Mitarbeitern oder Dienstleistern angehört und ausgewertet werden. Diese bekommen mitunter sehr Persönliches zu hören, wobei die Sprecher klar zu identifizieren sind.


Anzeige

Als Sonntagsthema kann ich nun das Triple voll machen. Ich hatte mich ja bereits über Amazons Alexa-Aufzeichnungen ausgelassen und auch damit befasst, dass Google-Sprachassistenten jedes Wort aufzeichnen und Menschen das auswerten (siehe Links am Artikelende). Nun ist Apple mit der Sprachassistentin Siri dran.

Hintergrundwissen zu Sprachassistenten

Grundsätzlich ist es so, dass die Funktionen zur Sprachassistenz in smarten Geräten wie Lautsprechern, Tablet PCs oder Smartphones ziemlich dumm sind. Die Funktionen versuchen lediglich einen Sprachbefehl, der zur Aktivierung der Spracherkennung vereinbart wurde, zu erkennen. Bei Amazon ist das 'Hey Alexa', bei Google 'OK Google' und bei Apple 'Hey Siri' oder ähnlich.

Nach der Aktivierung zeichnet die Funktion des Sprachassistenten die vom Mikrofon empfangenen Signale auf und überträgt diese zur Auswertung an den Hersteller. Dieser analysiert das Gesprochene und versucht eine sinnvolle Antwort zu liefern. Gleichzeitig werden die so empfangenen Sprachkommandos gespeichert und teilweise von Menschen zur Verbesserung der Spracherkennung angehört, transkribiert und ausgewertet. Im Klartext: Egal, was da gesagt wird, die Auswerter bekommen das zu hören.

Bei Google hatte ich bereits im Artikel DSGVO: Google hat Sprachaufzeichnungen weiter gegeben darauf hingewiesen, dass die Auswerter beim Anhören der Aufzeichnungen teilweise in sehr schwierige emotionale Konflikte geraten (z.B. Menschen in Notlagen, die der Sprachassistent aufzeichnet, und wo es keine Regeln der Firmen gibt, wie mit so etwas zu verfahren ist).

Und es gibt das Problem, dass die Aufzeichnung der Spracheingabe startet, obwohl das betreffende Kommando definitiv nicht gegeben wurde. Dabei handelt es sich um Fehlfunktionen der Spracherkennungssoftware. Im Artikel DSGVO: Google hat Sprachaufzeichnungen weiter gegeben hatte ich darauf hingewiesen, dass Geräte mit Sprachassistenz in allen Bereichen, wo Vertraulichkeit gewahrt werden muss, tabu sind. Auch die Verbraucherschützer warnen vor Sprachassistenten (siehe Warnung der Verbraucherzentrale vor Amazons Alexa).

Apple-Kontraktoren hören Siri-Aufzeichnungen mit

Das britische Medium The Guardian hat in diesem Artikel kürzlich öffentlich gemacht, was bei Apples Siri so abgeht. Whistleblower unter Auftragnehmern von Apple, die für die Auswertung von Siri-Sprachaufzeichnungen zuständig sind, hatten geplaudert. Herausgekommen ist, dass die Mitarbeiter dieser Firmen bei der Auswertung der Sprachaufzeichnungen regelmäßig auf sehr private Dinge stoßen.

Da hören die Apple Vertragspartner vertrauliche medizinische Informationen, die bei einem Arzt-Patientengespräch gesagt werden – und ein Siri-Sprachassistent im iPhone oder Apple Watch mithört. Oder Drogendealer leisten sich ein iPhone, oder Apple Watch bzw. iPad und Siri zeichnet fleißig die getätigten Drogengeschäfte auf. Der Mitarbeiter, der die Sprachaufzeichnung auswertet, bekommt das mit. Selbst Aufzeichnungen von Paaren, die Sex haben, kommen den Apple Vertragspartnern als Teil ihrer Arbeit auf den Tisch.

Die Auswertung erfolgt zur Qualitätskontrolle oder "Benotung" der Leistung des Apple Siri-Sprachassistenten. Natürlich wird nicht jede Sprachaufzeichnung durch Menschen ausgewertet. Aber obwohl Apple das in seiner Datenschutzdokumentation nicht ausdrücklich offen legt, wird ein kleiner Teil der Siri-Aufnahmen an Auftragnehmer weitergegeben. Diese Auftragnehmer arbeiten weltweit für Apple. Die Auswerter haben die Aufgabe, Antworten auf eine Vielzahl von Faktoren zu liefern. So soll bewertet werden, ob die Aktivierung des Siri-Sprachassistenten absichtlich oder zufällig erfolgte. Es wird auch kontrolliert, eine Abfrage des Benutzer an Siri diesem helfen konnte und ob die Antwort von Siri angemessen war.


Anzeige

Apple bestätigte dem Guardian, dass die Daten "verwendet werden, um Siri und die Sprachaufzeichnung zu verbessern […] um besser zu verstehen und zu erkennen, was Benutzer sagen". Das Unternehmen erklärt jedoch nicht ausdrücklich, dass diese Arbeit von Menschen geleistet wird, die die pseudonymisierten Aufnahmen anhören. Es würde ja nur ein kleiner Teil der Aufzeichnungen (1 % und oft nur wenigen Sekunden lang) an Auftragnehmer weiter gegeben und diese seien nicht mit der Benutzer-ID des Apple-Geräts verknüpft. Zudem würden die  Siri-Antworten in sicheren Einrichtungen analysiert. Alle Prüfer sind verpflichtet, die strengen Vertraulichkeitsanforderungen von Apple einzuhalten.

Allerdings hatte ich in den nachfolgend verlinkten Beiträgen bereits ausgeführt, dass diese Aussagen Schall und Rauch sind. Wenn in einem Gespräch persönliche Daten wie Telefonnummern, Adressen oder andere Identifizierungsmerkmale genannt werden, kann Apple noch so viel pseudonymisieren – die Leute sind dann identifizierbar. Zudem berichten die Auswerter, dass sie regelmäßig bei der Auswertung in schwierige und belastende Situationen geraten.

Ein für das Unternehmen tätiger Informant des Guardian, der aus Angst um seinen Arbeitsplatz darum bat, anonym zu bleiben, äußerte Bedenken über diese fehlende Offenlegung dieser Auswertung durch Apple. Dies gelte insbesondere angesichts der Häufigkeit, mit der unbeabsichtigte Siri-Aktivierungen äußerst sensible personenbezogene Daten erfassen. Laut einem Informanten reicht das Geräusch eines Reißverschlusses bereits zur Aktivierung der Spracherkennung und alles wird aufgezeichnet.

Der Informant sagte dem Guardian: "Es gab unzählige Fälle von Aufnahmen mit privaten Gesprächen zwischen Ärzten und Patienten, Geschäftsabschlüssen, scheinbar kriminellen Geschäften, sexuellen Begegnungen und so weiter. Diese Aufzeichnungen werden von Benutzerdaten mit Standort, Kontaktdaten und App-Daten begleitet."

Diese Begleitinformationen können vom Auftragnehmer verwendet werden, um zu überprüfen, ob eine Siri-Anfrage erfolgreich bearbeitet wurde. In seinen Datenschutzdokumenten sagt Apple, dass die Siri-Daten "nicht mit anderen Daten verknüpft sind, die Apple möglicherweise durch Ihre Nutzung anderer Apple-Dienste erhält". Es gibt keinen bestimmten Namen oder Identifikator, der an einen Datensatz angehängt ist, und keine einzelne Aufnahme kann einfach mit anderen Aufnahmen verknüpft werden.

Aber versehentliche Aktivierungen führen regelmäßig dazu, dass sensibelste Daten an die Auswerter gehen. Obwohl Siri von den meisten Apple-Geräten unterstützt wird, nennen die Informanten die Apple Watch und den HomePod Smart Speaker des Unternehmens als die häufigsten Quellen für fehlerhafte Aufnahmen. "Die Regelmäßigkeit der zufälligen Aktivierung der Apple-Watch ist unglaublich hoch", so ein Insider.

Ein Auftragnehmer sagte, dass die Mitarbeiter ermutigt wurden, versehentliche Aktivierungen "aber nur als technisches Problem" zu melden. Es gibt keine speziellen Verfahren zur Behandlung sensibler Aufzeichnungen. "Wir werden ermutigt, Ziele zu erreichen und die Arbeit so schnell wie möglich zu erledigen. Die einzige Funktion, um zu melden, was Sie hören, scheint bei technischen Problemen zu liegen. Es gibt nichts, um sensitive Inhalte als Problem zu melden." Platt ausgedrückt: Auf diesem Auge ist Apple blind und auf dem betreffenden Ohr gänzlich taub.

Neben dem Unbehagen, das die Auswerter beim Hören solcher privater Informationen empfanden, sagte der Auftragnehmer, dass sie aus einem weiteren Grund motiviert seien, über ihre Tätigkeit an die Öffentlichkeit zu gehen. Denn sie befürchteten, dass solche Informationen missbraucht werden könnten. "Es gibt nicht viele Überprüfungen der Mitarbeiter, die dort arbeiten, und die Menge der Daten, die wir durchsuchen können, scheint ziemlich groß zu sein. Es wäre nicht schwer, die Person zu identifizieren, die Sie hören, besonders mit zufälligen Auslösern – Adressen, Namen und so weiter.", so ein Informant. Und weiter: "Apple vergibt Unteraufträge, es gibt einen hohen Umsatz. Es ist nicht so, dass die Menschen ermutigt werden, Rücksicht auf die Privatsphäre der Menschen zu nehmen oder sie sogar zu berücksichtigen." Wer es also auf einen Missbrauch anlegt, dem wird das alles leicht gemacht.

Dieses Problem haben alle Firmen, die Spracherkennungs-Assistenten trainieren, von Amazon über Google und Microsoft bis hin zu Apple. Apple unterscheidet sich von diesen Unternehmen jedoch in gewisser Weise. Amazon und Google erlauben den Nutzern, einige Nutzungsarten ihrer Aufnahmen abzulehnen. Apple Apple bietet keine andere Wahl, als Siri vollständig zu deaktivieren. Laut Counterpoint Research hält Apple 35% des Smartwatch-Marktes, und ist damit sehr verbreitet.

Nutzern sollte klar sein, dass sie sich eine Wanze in ihre Umgebung holen, die nicht unter ihrer Kontrolle geht. Ein Arzt, oder ein Manager, der eine Apple Watch trägt, und vertrauliche Gespräche führt, handelt grob fahrlässig. Und auch die netten iPhones müssen in dieser Kategorie gesehen werden. Details lassen sich bei The Guardian nachlesen. Heise hat diesen deutschsprachigen Artikel zum Thema veröffentlicht.

Ähnliche Artikel:
DSGVO: Google hat Sprachaufzeichnungen weiter gegeben
Amazons Alexa-Aufzeichnungen werden nicht gelöscht
Amazon verschickt unkontrolliert Alexa-Sprachaufzeichnungen
Warnung der Verbraucherzentrale vor Amazons Alexa


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Sicherheit, Software abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

3 Antworten zu Auch Apples Siri-Sprachaufzeichnungen werden angehört …

  1. Uwe sagt:

    Danke für die Infos – die mich nicht wundern! Wer so etwas nutzt, muss immer damit rechnen, dass jede Information im Hörbereich derartiger Geräte prinzipiell öffentlich sind.

  2. Micha45 sagt:

    Ich frage mich bei diesem Thema immer, wie das Mithören bzw. Auswerten von Sprachnachrichten durch Mitarbeiter in der Praxis vonstatten gehen soll.
    Ich meine hiermit nicht die technische Umsetzung, das dürfte kein Problem sein.
    Ich meine vielmehr die Masse der Daten, die da mitgehört und dann ausgewertet werden sollen.
    Bei hunderten Millionen von Nutzern ist das nur sehr schwer vorstellbar.

    Wie dem auch sei, ich nutze keinen dieser Sprachassistenten. Weder auf dem PC, noch auf dem Smartphone. An und für sich eine tolle Idee, allerdings ist die Gefahr des Missbrauchs hierbei immer allgegenwärtig. Und solange das so ist, sollte man diese KI-Labertanten meiden.

    • woodpeaker sagt:

      Im Grunde steckt da eine simple Logik dahinter.
      Die gehen über Schlüsselwörter.
      Du brauchst aber nicht meinen, dass da zig Leute in einem Großraumbüro sitzen und jeder Kopfhörer aufhat.
      Bei prägnanten Wörtern wird das Gespräch aufgezeichnet und dann noch mal durch Filter gejagt. Danach wandert das ganze an die NSA oder andere Stellen und die verwerten das weiter.
      Das sind alles Erfüllungsgehilfen für stattliche Organe.
      Vergess auch ganz schnell die Verschlüsselung – wer den Schlüssel anbietet, weiß auch wie er geht ;-)
      Aber so lange das Stimmvieh so blöd ist und selbst zur Schlachtbank geht, so lange haben diese Leute ein leichtes Spiel.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.