Gabriele Fischl
Apple Sprachassisten
Wie Amazon und Google lässt auch Apple Aufnahmen seines Sprachassistenten Siri von Mitarbeitern auswerten. Dabei hören diese teils intime Details.
© Apple
Apple-Mitarbeiter sollen von Siri aufgezeichnete Gespräche mithören können.
Mitarbeiter von Apple-Dienstleistern sollen von Siri aufgezeichnete Audioaufnahmen abhören und auswerten. Das berichtet der Guardian unter Berufung auf einen Insider, der selbst anonym bleiben möchte. Wie Amazon und Google, die bereits ähnliche Praktiken zugeben mussten, hat auch Apple die Aufnahmen eingeräumt. Der Konzern nennt dafür den gleichen Grund wie die Konkurrenten: Der Sprachassistent soll dadurch trainiert werden, um künftig Befehle besser verstehen zu können.
Wie Apple gegenüber dem Guardian bestätigte, werde ein kleiner Teil der Siri-Anfragen analysiert, um Siri und die Diktierfunktion zu verbessern. Bei den Auswertungen gehe es darum zu beurteilen, ob die Aktivierung von Siri bewusst oder unabsichtlich erfolgte, ob Siri in der Lage sein müsste, die Anfrage zu beantworten und ob die gegebene Antwort angemessen war.
Dabei handele es sich um weniger als ein Prozent der täglichen Siri-Aktivierungen. Die Aufzeichnungen seien in der Regel nur wenige Sekunden lang und werden nicht mit der Apple-ID des Nutzers verknüpft. Apple betonte außerdem, dass die Gutachter den Vertraulichkeitsanforderungen von Apple unterlägen.
Apple-Mitarbeiter hören sehr intime Details
Der Insider, der vom Guardian zitiert wird, gibt aber zu bedenken, dass die Mitarbeiter zusammen mit der Tonaufnahme auch Informationen wie den Ort, Kontaktdaten und Daten aus Apps sehen können. Diese sollen wohl dazu dienen, die Antwort von Siri zu bewerten. Allerdings sei es anhand der Informationen nicht besonders schwer, Rückschlüsse auf die Person zu ziehen, auch wenn die Aufnahmen relativ kurz seien.
Dies sei auch deshalb problematisch, da bei unbeabsichtigten Aktivierungen teils sehr intime Gespräche aufgezeichnet werden. So könnten die Mitarbeiter etwa mithören, wenn Arzt und Patient über medizinische Details reden, im Hintergrund Drogendeals ablaufen oder Personen Sex hätten. Falsche Aktivierungen von Siri entstehen demnach nicht nur durch Worte, die dem Kommando „Hey Siri“ ähnlich sind, sondern etwa auch durch das Öffnen eines Reißverschlusses. Auf der Apple Watch könne Siri auch aktiviert werden, wenn die Uhr angehoben und in der Nähe gesprochen werde. So gehen die meisten fehlerhaften Aktivierungen auf Apple Watch und HomePod zurück.
Während es für Apple wohl hauptsächlich um den technischen Aspekt gehe, um Probleme bei der Nutzung von Siri zu erkennen, sei für die Mitarbeiter nicht klar, wie sie mit den Inhalten umgehen sollen. Viele empfänden es als unangenehm, solche intimen Gespräche zu hören. Außerdem sei es möglich, die Informationen zu missbrauchen, wenn zufällig private Details aufgezeichnet werden. In den Firmen, die die Auswertungen vornehmen, gäbe es eine hohe Fluktuation und die Mitarbeiter werden nicht intensiv geprüft, so der Insider.
Ein Opt-out ist nicht möglich
Der Guardian kritisiert auch, dass aus den Nutzungsbedingungen von Apple nicht hervorgehe, dass derartige Auswertungen durch Menschen erfolgen. Im Gegensatz zu Amazon oder Google biete Apple den Nutzern außerdem keine Möglichkeit, bestimmten Aufnahmen oder Auswertungen gezielt zu widersprechen. Man könne Siri höchstens komplett abschalten. Das Thema ist auch deshalb brisant, weil Apple großen Wert auf Datensicherheit legt und immer wieder den Schutz der Nutzerdaten betont.
29.7.2019 Gabriele Fischl
Quelle: connect.de
Apple Sprachassisten
Wie Amazon und Google lässt auch Apple Aufnahmen seines Sprachassistenten Siri von Mitarbeitern auswerten. Dabei hören diese teils intime Details.
© Apple
Apple-Mitarbeiter sollen von Siri aufgezeichnete Gespräche mithören können.
Mitarbeiter von Apple-Dienstleistern sollen von Siri aufgezeichnete Audioaufnahmen abhören und auswerten. Das berichtet der Guardian unter Berufung auf einen Insider, der selbst anonym bleiben möchte. Wie Amazon und Google, die bereits ähnliche Praktiken zugeben mussten, hat auch Apple die Aufnahmen eingeräumt. Der Konzern nennt dafür den gleichen Grund wie die Konkurrenten: Der Sprachassistent soll dadurch trainiert werden, um künftig Befehle besser verstehen zu können.
Wie Apple gegenüber dem Guardian bestätigte, werde ein kleiner Teil der Siri-Anfragen analysiert, um Siri und die Diktierfunktion zu verbessern. Bei den Auswertungen gehe es darum zu beurteilen, ob die Aktivierung von Siri bewusst oder unabsichtlich erfolgte, ob Siri in der Lage sein müsste, die Anfrage zu beantworten und ob die gegebene Antwort angemessen war.
Dabei handele es sich um weniger als ein Prozent der täglichen Siri-Aktivierungen. Die Aufzeichnungen seien in der Regel nur wenige Sekunden lang und werden nicht mit der Apple-ID des Nutzers verknüpft. Apple betonte außerdem, dass die Gutachter den Vertraulichkeitsanforderungen von Apple unterlägen.
Apple-Mitarbeiter hören sehr intime Details
Der Insider, der vom Guardian zitiert wird, gibt aber zu bedenken, dass die Mitarbeiter zusammen mit der Tonaufnahme auch Informationen wie den Ort, Kontaktdaten und Daten aus Apps sehen können. Diese sollen wohl dazu dienen, die Antwort von Siri zu bewerten. Allerdings sei es anhand der Informationen nicht besonders schwer, Rückschlüsse auf die Person zu ziehen, auch wenn die Aufnahmen relativ kurz seien.
Dies sei auch deshalb problematisch, da bei unbeabsichtigten Aktivierungen teils sehr intime Gespräche aufgezeichnet werden. So könnten die Mitarbeiter etwa mithören, wenn Arzt und Patient über medizinische Details reden, im Hintergrund Drogendeals ablaufen oder Personen Sex hätten. Falsche Aktivierungen von Siri entstehen demnach nicht nur durch Worte, die dem Kommando „Hey Siri“ ähnlich sind, sondern etwa auch durch das Öffnen eines Reißverschlusses. Auf der Apple Watch könne Siri auch aktiviert werden, wenn die Uhr angehoben und in der Nähe gesprochen werde. So gehen die meisten fehlerhaften Aktivierungen auf Apple Watch und HomePod zurück.
Während es für Apple wohl hauptsächlich um den technischen Aspekt gehe, um Probleme bei der Nutzung von Siri zu erkennen, sei für die Mitarbeiter nicht klar, wie sie mit den Inhalten umgehen sollen. Viele empfänden es als unangenehm, solche intimen Gespräche zu hören. Außerdem sei es möglich, die Informationen zu missbrauchen, wenn zufällig private Details aufgezeichnet werden. In den Firmen, die die Auswertungen vornehmen, gäbe es eine hohe Fluktuation und die Mitarbeiter werden nicht intensiv geprüft, so der Insider.
Ein Opt-out ist nicht möglich
Der Guardian kritisiert auch, dass aus den Nutzungsbedingungen von Apple nicht hervorgehe, dass derartige Auswertungen durch Menschen erfolgen. Im Gegensatz zu Amazon oder Google biete Apple den Nutzern außerdem keine Möglichkeit, bestimmten Aufnahmen oder Auswertungen gezielt zu widersprechen. Man könne Siri höchstens komplett abschalten. Das Thema ist auch deshalb brisant, weil Apple großen Wert auf Datensicherheit legt und immer wieder den Schutz der Nutzerdaten betont.
29.7.2019 Gabriele Fischl
Quelle: connect.de