Schrift:
Ansicht Home:
Netzwelt

Software-Update angekündigt

Apple stoppt Auswertung von Siri-Sprachaufnahmen

Nach Google setzt nun auch Apple die Auswertung von Audioaufnahmen seines Sprachassistenten aus. Für den Datenschutz ist das gut. Für die Sprachsteuerung nicht.

Daniel Reinhardt/dpa

Eine junge Frau versucht mit Siri in norddeutschen Dialekt zu sprechen. Solche Fähigkeiten sollen durch die Überprüfung von Sprachaufzeichnungen verbessert werden

Freitag, 02.08.2019   13:59 Uhr

Apple will von Siri angefertigte Sprachaufnahmen seiner Nutzer vorerst nicht mehr von Auftragnehmern auswerten lassen. Das US-Unternehmen reagiert damit auf einen Zeitungsbericht von vergangener Woche, in dem es unter anderem hieß, bei diesem Prozess würden "zahllose Aufnahmen von privaten Unterhaltungen zwischen Ärzten und Patienten, Geschäftsverhandlungen, offenbar kriminellen Vorgängen und sexuellen Begebenheiten" angehört.

Der Konzern kündigte an, seine Nutzer künftig ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu bitten. Wer dem nicht zustimme, müsse demnach auch nicht fürchten, dass private Gespräche von Fremden angehört würden.

Eine entsprechende Funktion solle mit einem späteren Softwareupdate eingeführt werden, teilte der iPhone-Konzern dem Tech-Blog "TechCrunch" in der Nacht zum Freitag mit. Bis dahin werde die Praxis weltweit gestoppt. Zudem wolle man den "Grading" genannten Prozess, bei dem Auftragnehmer beurteilen, wie gut und akkurat Siri auf Sprachbefehle reagiert hat, überprüfen.

Alle tun es

Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten versagten, etwa durch eine falsche Erkennung von Aktivierungswörtern, aber auch um neue Sprachen und Dialekte.

Die Anbieter betonen, dass die Aufnahmen vor derartigen Analysen anonymisiert werden. Vielen Nutzern war diese Praxis allerdings offensichtlich nicht bewusst, bis vor einigen Monaten erste Medienberichte zu diesem Thema auftauchten.

Fotostrecke

Die besten Siri-Sprüche: "Miezekatze, Miezekatze, Miezekatze"

Schwer auffindbare Hinweise

Apple verwies in einem Sicherheitsdokument schon länger darauf, dass auch "eine geringe Anzahl von Transkriptionen" zur Verbesserung des Dienstes eingesetzt werden könne. Nach dem im geschlossenen Bereich für Softwareentwickler hinterlegten Dokument musste man allerdings gezielt suchen. Normale Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf die Möglichkeit hingewiesen, dass ihre Spracheingaben analysiert werden.

In einem Bericht der Zeitung "Guardian" von vergangener Woche erzählte ein Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen auf, in denen es um medizinische oder geschäftliche Inhalte oder gar mögliche kriminelle Aktivitäten gehe, sagte er. Ebenso würden Nutzer mitunter versehentlich beim Sex aufgenommen.

Ein paar Monate Pause

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte "Hey, Siri" gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten. Mit diesem Wissen soll die Software entsprechend angepasst werden, um Fehlauslösungen künftig zu verhindern. Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet.

Die 20 besten Alexa-Sprüche

Zitate starten: Klicken Sie auf den Pfeil

Bereits am Donnerstag war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant schon Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat. Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein Verwaltungsverfahren gegen den Internetkonzern ein, um das Anhören der Mitschnitte durch Google-Mitarbeiter oder -Dienstleister zu untersagen.

Ohne Menschen geht das nicht

Das aus Datenschutzsicht sinnvolle Verfahren dürfte allerdings Auswirkungen auf die qualitative Verbesserung von Sprachassistenten haben. Vor einigen Monaten erklärte der Medieninformatiker Florian Gallwitz von der Technischen Hochschule Nürnberg dem SPIEGEL, dass man so etwas wie Alexa, den Google Assistant oder Apples Siri nicht am Reißbrett entwerfen könne. "Damit das System funktioniert, müssen die Entwickler möglichst genau vorhersehen, wie Nutzer damit interagieren werden. Das funktioniert nur, indem man sie mit dem System reden lässt und ihre Eingaben dann zur Weiterentwicklung nutzt."

Sprachassistenten seien keine selbstlernenden Systeme, sagte Gallwitz überdies. Die korrekte Transkription der Aufzeichnungen sei "Handarbeit". Demnach kann diese Aufgabe nur von Menschen erledigt werden, deren Auswertungen dann die maschinelle Spracherkennung verbessern.

Um künftig besser verhindern zu können, dass Sprachassistenten versehentlich mithören und private Gespräche mithören, muss man also offenbar erst einmal ebensolche Aufzeichnungen auswerten. Auch künstliche Intelligenzen lernen aus ihren Fehlern. Und wenn sie die nicht selbst erkennen, muss ihnen der Mensch dabei helfen.

mak/dpa

insgesamt 3 Beiträge
m_s@me.com 02.08.2019
1. Amazon hat's versaut
Das Lernen solcher Dienste wie Siri funktioniert nur "attended", reinforcement/unattended Learning geht hier nicht. Apple hat im Gegensatz zu Amazon und Google immer sehr transparent gemacht, dass Sprach-Snippets zur [...]
Das Lernen solcher Dienste wie Siri funktioniert nur "attended", reinforcement/unattended Learning geht hier nicht. Apple hat im Gegensatz zu Amazon und Google immer sehr transparent gemacht, dass Sprach-Snippets zur Verbesserung angehört werden, und nur Apple traue ich auch weiterhin zu, dass sie mit diesen Daten verantwortungsvoll umgehen. Es ist schade, dass das nun nicht mehr statt finden kann. Amazon hat's versaut.
muskat51 02.08.2019
2. letztlich müssen wir feststellen,
dass künstliche Intelligenz zwar künstlich ist, aber nicht intelligent. Vielleicht erinnert sich noch jemand daran, dass das US-amerikanische "intelligence" mit "Intelligenz" etwa so viel zu tun hat wie [...]
dass künstliche Intelligenz zwar künstlich ist, aber nicht intelligent. Vielleicht erinnert sich noch jemand daran, dass das US-amerikanische "intelligence" mit "Intelligenz" etwa so viel zu tun hat wie "become" mit "bekommen" oder wie "freedom" mit "Frieden".... Googelt mal "false friends".
Erika.Mustermann@spon.de 04.08.2019
3.
Ich gehe zu Ihren Gunsten einmal davon aus, dass Sie den Artikel nicht, oder nicht ganz gelesen haben. Denn sonst würde ein solcher Kommentar sicher nicht hier zu finden sein. Wie hier zu lesen ist, besonders aber auch im [...]
Zitat von m_s@me.comDas Lernen solcher Dienste wie Siri funktioniert nur "attended", reinforcement/unattended Learning geht hier nicht. Apple hat im Gegensatz zu Amazon und Google immer sehr transparent gemacht, dass Sprach-Snippets zur Verbesserung angehört werden, und nur Apple traue ich auch weiterhin zu, dass sie mit diesen Daten verantwortungsvoll umgehen. Es ist schade, dass das nun nicht mehr statt finden kann. Amazon hat's versaut.
Ich gehe zu Ihren Gunsten einmal davon aus, dass Sie den Artikel nicht, oder nicht ganz gelesen haben. Denn sonst würde ein solcher Kommentar sicher nicht hier zu finden sein. Wie hier zu lesen ist, besonders aber auch im Original-Artikel des Guardian, waren vom Nutzer nicht beabsichtigte Sprachaufzeichnungen vorgenommen und analysiert worden! In einfacher Sprache: Die Nutzer wurden abgehört! Laut Guardian auch beim Arztbesuch oder bei anderen, sehr intimen, Aktivitäten. Diesen massiven Missbrauch der Daten, ermöglicht durch fehlerhafte Software (ggf. auch Hardware), nun durch ein geradezu kindliches "die-Anderen-haben-aber-auch" relativieren zu wollen ist grotesk. Gerade die Firma Apple hat gebetsmühlenartig wiederholt sich sehr um die Sicherheit der Daten der Kunden zu kümmern - und hat nun auf ganzer Linie versagt! Oder gar bewusst betrogen, wer kann es noch sicher sagen? Bei der von Amazon genutzten Technik ist es jedem kritischen Bürger möglich die Technik nicht zu nutzen. Bei der Abhörung durch Apple nicht - wenn man nicht jeden Mitmenschen im näheren Umkreis kontrolliert und sein iPhone ausschaltet. Fazit: Niemand war vor Apple sicher. Potentiell wurde in jeder denkbaren Situation abgehört.

Artikel

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung
TOP