
Il vostro assistente vocale sembra spesso un po' troppo ansioso di intervenire? Un recente studio dell'Università della Ruhr Bochum e dell'Istituto Max Planck per la sicurezza e la privacy ha rilevato oltre 1.000 parole e frasi che Alexa, Siri e Google Assistant hanno spesso identificato erroneamente come comandi di attivazione (noti anche come "parole sveglia"). Ecco alcuni esempi, secondo il rapporto di Ars Technica sullo studio:
Secondo lo studio, questi falsi positivi sono molto comuni e facili da avviare, il che potrebbe risultare come un grave problema di privacy.
Gli assistenti vocali sono sempre in ascolto e in attesa di un comando di attivazione. Sebbene non stiano necessariamente registrando, sono chiaramente in allerta. Una volta che l'IA riconosce un comando, tramite un altoparlante intelligente o il microfono del telefono, registra qualsiasi audio successivo che "sente" e quindi lo invia a un server remoto, dove viene elaborato da vari algoritmi che determinano ciò che viene richiesto. A volte, questo audio viene salvato e ascoltato in seguito dai dipendenti che lavorano per perfezionare le capacità di riconoscimento vocale di un assistente vocale, ed è qui che entrano in gioco le preoccupazioni sulla privacy: anche se l'audio acquisito non attiva nulla sul lato server, può comunque essere registrato, salvato e persino ascoltato dagli ingegneri per vedere se un comando è stato perso o interpretato male.
Non si tratta di una speculazione. Noi sappiamo come, questi algoritmi di "machine learning" lavorano e sappiamo che dietro di essi ci sono esseri umani che aiutano manualmente le macchine ad imparare. Non sono esseri autonomi. Questa pratica spesso porta a violazioni della privacy e a successive reazioni pubbliche e conseguenze legali. Google è costantemente sotto accusa per la vendita di dati degli utenti agli inserzionisti e Amazon ha ripetutamente lasciato trapelare o gestito male le registrazioni audio e video dei suoi utenti. Apple sembra avere le "migliori" politiche sulla privacy dei dati, ma i suoi dipendenti sono stati sorpresi a trascrivere alcuni degli audio ascoltati.
Il punto è: se Alexa, Siri e Google Assistant vengono attivati ??accidentalmente, molte delle vostre interazioni personali possono venire registrate e diventare potenzialmente accessibili a terzi - e chissà cosa potrebbero farne, di quei dati. Sebbene ognuna di queste aziende consenta agli utenti di gestire ed eliminare l'audio dopo la registrazione, è necessario anche adottare misure precauzionali per assicurarsi che i dispositivi smart ascoltino solo quando lo desideriamo.
Ecco alcuni suggerimenti per prevenire attivazioni errate dell'assistente vocale: