21.12.2017, 09:45
(20.12.2017, 21:41)PuK schrieb: Mir kommt das auch nicht stimmig vor (@Martin ja, trotz dem, was Heise schreibt).
Das Mikrofon ist die ganze Zeit über an, das wird von keiner Seite bestritten. Und die Signale des Mikros werden an eine Spracherkennung weitergeleitet, denn die muss ja das Passwort erkennen, und dann die Leitung nach draußen aufmachen, wenn es stimmt, was Amazon sagt. Da läuft also lokal eine Spracherkennung. Warum braucht man dann eigentlich noch eine Spracherkennung auf den Amazon-Servern und muss die Sprachsignale nach Öffnung des Kanals durch die lokale Spracherkennung dorthin durchleiten? Könnte nicht die lokale Erkennung das alles erledigen, ohne die Privatsphäre zu verletzen? Eine Verbindung zu Amazon nur aufbauen, wenn man das ausdrückliich will und diesen Wunsch auch akustisch zum Ausdruck bring? ("Schlampe, mach mir eine Connection mit den Sklaventreibern! Deine Mudda!") Wenn sie aus allem, was in der Bude gesprochen wird, bestimmte Wörter erkennen kann, dann kann die doch bestimmt noch mehr?
Ich sehe das alles äußerst skeptisch und so etwas kommt mir erst (vielleicht) ins Haus, wenn es vorgeschrieben wird wie Rauchmelder.
Das Signal wird nur dann weitergeleitet, wenn ein vorher definiertes Schlüsselwort fällt ("Alexa", "Computer" usw.). Das wurde belastbar von Heise getestet. Die Server braucht man deshalb, weil - meine Vermutung - eine komplexe KI-Software dahintersteckt, die anhand der zahlreichen Anweisungen stetig lernt und sich verbessert. Quasi eine Art neuronales Netz. Diese Funktionalität kann man mit vernünftigem Aufwand nicht lokal abbilden.
Wer eine bessere Soundqualität wünscht, kann das größere Model erwerben oder mittels BT eine eigene Box anschließen.
Martin