Die Erkenntnis, dass Aufnahmen von Sprachassistenten zum Teil von Menschen abgetippt werden, um die Spracherkennung zu verbessern, schockierte viele Nutzer. Apple will künftig ausdrücklich die Erlaubnis dazu einholen. Bis dahin wurde die Praxis gestoppt.
Apple hat als erster Anbieter von Sprachassistenten angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der iPhone-Konzern dem Tech-Blog "TechCrunch" in der Nacht zum Freitag mit. Bis dahin werde die Praxis weltweit gestoppt und auf den Prüfstand gestellt.
Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, wo die Sprachassistenten versagten, falsche Erkennung von Aktivierungswörtern oder neue Sprachen und Dialekte. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert werden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.
Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch "eine geringe Anzahl von Transkriptionen" für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings suchen - und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen.
In
einem Bericht der Zeitung "Guardian" vergangene Woche erzählte der
Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil
sehr private Details zu hören. So schnappe Siri auch Fragmente von
Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche
kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die
Weckworte "Hey, Siri" gehört zu haben, sind dabei ein besonderes
Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet
werden, die nicht an die Sprachassistentin gerichtet waren. Beim
nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte
oder Geräusche die versehentliche Aktivierung auslösten, um die
Software entsprechend anzupassen.
Nach früheren Angaben von Apple wurde weniger als ein Prozent der
Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen
ausgewertet.
Erst am Donnerstag war bekannt geworden, dass Google
nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli
das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat.
Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger
Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein
Verwaltungsverfahren gegen den Internet-Konzern ein, um das Anhören der
Mitschnitte durch Google-Mitarbeiter oder Dienstleister zu untersagen.
Quelle: DF
Apple hat als erster Anbieter von Sprachassistenten angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der iPhone-Konzern dem Tech-Blog "TechCrunch" in der Nacht zum Freitag mit. Bis dahin werde die Praxis weltweit gestoppt und auf den Prüfstand gestellt.
Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, wo die Sprachassistenten versagten, falsche Erkennung von Aktivierungswörtern oder neue Sprachen und Dialekte. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert werden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.
Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch "eine geringe Anzahl von Transkriptionen" für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings suchen - und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen.
In
einem Bericht der Zeitung "Guardian" vergangene Woche erzählte der
Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil
sehr private Details zu hören. So schnappe Siri auch Fragmente von
Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche
kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die
Weckworte "Hey, Siri" gehört zu haben, sind dabei ein besonderes
Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet
werden, die nicht an die Sprachassistentin gerichtet waren. Beim
nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte
oder Geräusche die versehentliche Aktivierung auslösten, um die
Software entsprechend anzupassen.
Nach früheren Angaben von Apple wurde weniger als ein Prozent der
Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen
ausgewertet.
Erst am Donnerstag war bekannt geworden, dass Google
nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli
das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat.
Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger
Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein
Verwaltungsverfahren gegen den Internet-Konzern ein, um das Anhören der
Mitschnitte durch Google-Mitarbeiter oder Dienstleister zu untersagen.
Quelle: DF
Mia san Mia und Mia san Tripel