Sehr viel mehr als von dir.

Das meine ich nicht despektierlich, sondern nur als Ansage, dass ich auf diesem Niveau, nämlich mittels Leerformeln und provokanter Fragen, mit dir nicht weiter diskutiere. Du willst die Thematik ja offensichtlich nicht sachlich und neutral betrachten. Dann ist dann ja auch ok.
Nicht sachlich und neutral? Ich bin zumindest irritiert.
Du hattest insofern neben Mutmaßungen, Hinweisen auf den Ruf von Anbietern und nicht näher substantiierte Kenntnisse aus deiner beruflichen Tätigkeit zur Sache bisher lediglich
drei Links zu Alexa und Amazon mitgeteilt. Davon führt
- einer zu einem offensichtlich vereinzelt gebliebenen Vorwurf, der sich - wenn er nicht ohnehin getürkt war - nur bei der von Amazon dargestellten Verkettung unglücklicher Umstände als wahr erweisen kann (Alexa hat genau das getan was ihr gesagt wurde),
- einer zu einem Award, der beispielhaft für alle absichtlichen Mithörfunktionen à la Alexa, Google Home, aber auch Siri, Bixby und Google Assistant stehen kann
- und einer zu einem Artikel, der gleichermaßen die Gefahren dauerhaft mithörender Systeme beschreibt, aber inhaltlich ebenso übertragbar ist auf Assitenzsysteme mit Mithörfunktion auf Mobiltelefonen.
Gleichwohl kommst du mit diesen Tatsachen und der Tätigkeit von Amazon als Händler zu dem Ergebnis, dass
dedizierte Geräte kritischer seien als Sprachtechniken auf Smartphones und nicht nur Alexa, sondern insgesamt
gerade Amazon das "herausragende Beispiel" für negative Big Data-Nutzung sei.
Zunächst konkret zurück zum Thema Mithören durch Assistenzsysteme:
Wo nun der negative Unterschied liegen soll, ob sich eine Mithöreinrichtung zur Gewährleistung bestimmter, gewünschter Funktionen in einem dedizierten Gerät statt in einem Smartphone befindet, das noch 1000 andere Sachen kann, ist daher nicht ganz klar. Wie
@alfabasti technisch richtig beschrieben hatte, ist die Gefahr für Datenschutz und Datensicherheit bei komplexen Systemen mit multiplen Funktionen gegenüber dedizierten Systemen im Gegenteil eher größer als kleiner. Daten und Funktionen die schon vorhanden sind, können eben eher vom Verantwortlichen oder von Nichtberechtigten missbraucht werden, als nichtvorhandene, was sich auch in den rechtlichen Rahmenbedingungen niederschlägt, wie du ja weißt. Nachdem dem Smartphone selbst im Zweifel noch deutlich mehr Daten (inkl. aller über das Smartphone angesehenen Internetseiten, aller E-Mails etc.), mehr Sensoren und auch mehr Einfallstore für unberechtigte Dritte anvertraut sind, sehe ich hier das Smartphone bei Spracheingabediensten im Nachteil.
Was die rechtlichen Voraussetzungen angeht, "meine ich mich zu erinnern", dass alle Anbieter, die das so beabsichtigen, auch eine optionale Einwilligung, jedenfalls Belehrung für die werbliche Nutzung etwa von Produktsuchen vorgesehen haben, dazu eine Möglichkeit, diese Personalisierung abzustellen. Dauerhaftes Mitschneiden schließen ohnehin alle Anbieter aus (Google musste allerdings erst einmal nachrüsten...).
Aus Sicht des Verantwortlichen (oder eines nichtberechtigten Hackers) ist es i.Ü. auch völlig egal, wo bei einem Assistenzsystem die Sprachdaten erhoben werden, solange die Anfrage in Sprachform oder auch als Transkript einem Endgerät, einem Konto, einem Cookie, einer IP-Adresse oder wie auch immer sonst einem mutmaßlichen Betroffenen zugeordnet werden kann. Für den Verantwortlichen oder einen Dritten sind die Missbrauchs- bzw. Angriffsmöglichkeiten immer die gleichen (Endgerät beginnend von Eingabe über Verarbeitung, Speicherung, ggf. Übertragungsweg, ggf. Server).
Ob die Verarbeitung ausschließlich lokal bzw. ob und zu welchem Zeitpunkt und an welchem Ort eine Anonymisierung stattfindet - wenn gewünscht bzw. behauptet -, ob die Daten wirklich nur für die vom Anbieter angegebenen Zwecke genutzt werden und ob nicht mehr benötigte Daten lokal und auf dem Server wirklich gelöscht werden, kann man als Externer nur mit enormem Aufwand nachprüfen, wenn überhaupt. Das ist bei allen Anbietern gleich, man muss ihnen die eigenen Behauptungen halt glauben.
Ich bleibe daher bei meiner Annahme, dass es bei einem Assistenzsystem für die Datensicherheit eher schlechter als besser ist, wenn es auf einem Smartphone statt auf einem dedizierten Endgerät untergebracht ist.
Und noch zur Differenzierung der Anbieter:
Ja richtig, Google ist kein gutes Beispiel für einen Klassenprimus bei Datenschutz und Datensicherheit. Die Tracking-Technologien kannst du bei mir als bekannt voraussetzen, ebenso die "Maßnahmen" zur Umsetzung der DSGVO, die sich nur im Vordergrund abspielen, die Datenbasis auf US-Servern aber unberührt lassen. Allerdings geht der Vorwurf gegen Google insofern relativ weg vom Thema, dem allgemeinen Vorwurf des zwangsläufigen Mithörens und der Missbrauchsgefahr bei Sprachassistenzsystemen.
Apple lebt dagegen möglicherweise in erster Linie von den eigenen PR-Offensiven zur angeblichen Datensicherheit, da sich Apple durch die geschlossene Architektur und die Intransparenz der verschlüsselt übertragenen Daten nicht so leicht in die Karten sehen lässt. Experten sehen das bereits allgemein durchaus
differenzierter. Spannend ist konkret zum Thema, dass Apple behauptet, Siri würde sich exklusiv lokal im Endgerät abspielen. Die Existenz und Funktion des "Siri-Servers", den es in
Apple-Schulungsunterlagen durchaus gibt, kann das allerdings nicht mehr erklären, zumal jedes Sprachassistenzsystem lernen muss. "May abandon" wirkt in diesem Zusammenhang nicht besonders vertrauenserweckend, eher wie eine unverbindliche Absichtserklärung. Sollte ich mir hier nicht ebenso zumindest angeschwindelt vorkommen wie bei einem Anbieter, der mir eine Einwilligung verklausuliert untermogelt?
Zugeben muss ich allerdings, dass durch das "Datenmanagement by obscurity" bei Apple eben weniger echte oder vermeintliche Skandale an die Oberfläche kommen und ich schon deshalb mein beruflich genutztes Iphone für gefühlt sicherer halte, als den privaten Androiden. Gefühlt eben.