Google Home, Amazon Echo, Apple HomePod: parallelamente all’entusiasmo di chi vede il sogno della smart home tramutarsi in realtà, si diffonde lo scetticismo di coloro che urlano all’allarme privacy.
Già oggetto di controversie quando erano confinati nei nostri smartphone, ora che gli assistenti vocali ci semplificano anche la vita domestica i dubbi nei loro confronti sono addirittura aumentati. Per due motivi principali.
Sempre in ascolto
Il primo risiede nella natura stessa dei dispositivi, che sono software dotati di intelligenza artificiale e quindi in grado di elaborare e incrociare enormi quantità di dati per “imparare” e rendere il proprio utilizzo da parte nostra sempre più fluido.
La parola chiave qui è enormi quantità di dati. Quali dati? La risposta è molto semplice: i nostri. Per essere sempre più funzionali e predittivi, gli assistenti vocali domestici immagazzinano tutte le nostre conversazioni con loro per poi elaborarle usandole per capire i nostri gusti, le nostre abitudini e le nostre esigenze. In questo modo esaudiscono molto più rapidamente le nostre richieste standard e si fanno anche un’idea di quali potrebbero essere quelle future.
Vantaggio competitivo di Amazon nei confronti degli avversari, ad esempio, è la possibilità di vedersi suggerire delle cosiddette routine: pattern di comandi e azioni collegati tra loro che Alexa (la voce di Amazon Echo) memorizza e può ripetere ogni giorno.
Un esempio? È possibile attivare una routine che faccia alzare le tapparelle, accendere la tv, disattivare il sistema d’allarme e avviare la macchinetta del caffè semplicemente dicendo “buongiorno”. Molto comodo, ma per alcuni non vale il prezzo di sentirsi costantemente sotto osservazione.
Diciamo costantemente perché, per immagazzinare più dati possibili (e per essere sempre pronti ad attivarsi quando viene pronunciato il loro nome), gli assistenti vocali sono dotati di una funzione detta passive listening, ossia ascolto passivo. Non vengono quindi messi in ascolto solo al comando prestabilito, ma registrano ed elaborano dati potenzialmente in qualsiasi momento.
Possibili soluzioni
La prima soluzione per tutelare la nostra privacy è ovviamente quella di sospendere il passive listening, al prezzo però di dover avviare manualmente il dispositivo ogni volta che ci serve, rinunciando a parte della comodità che ci offre.
Un’alternativa proviene dalla Germania, un early adopter di questi software (quando da noi iniziavano a diffondersi, per i tedeschi costituivano già un mercato da quasi due miliardi di euro), e consiste in un utilizzo innovativo dei generatori di rumore bianco.
Nati come un aiuto per chi voleva dormire meglio, questi apparecchi funzionano come “parassiti” dell’assistente vocale a cui vengono collegati: emettendo un suono costante, simile a un fruscio o a un soffio, gli impediscono di registrare cos’altro succede nella stanza. In questo modo, l’assistente vocale è sempre acceso ma non è in grado di registrare dati utili mentre non lo stiamo usando.
Non appena ci serve, è sufficiente attivare (sempre vocalmente) il generatore di rumore bianco, sospenderne l’attività e poi rivolgersi all’assistente vocale. Anche i generatori di white noise sono dotati di assistente virtuale, ma una volta programmati funzionano offline nel pieno rispetto della nostra privacy.
L’intervento umano
Il secondo grande punto critico degli assistenti vocali domestici sta nella destinazione dei dati raccolti con il passive listening: molto spesso, e almeno in una prima fase, è l’intervento umano di terze parti ad analizzarli ed elaborarli per renderli utili all’”apprendimento” dei dispositivi.
Più di una volta, quindi, conversazioni private sono state ascoltate (seppur, almeno ufficialmente, senza sapere da quale profilo provenissero e quindi coperte dall’anonimato) ed elaborate. Questo ha fatto nascere una seconda ondata di critiche, ancora più aspre, e la richiesta di dichiarare confidenziale tutto quanto detto agli assistenti smart.
Ciò non è stato possibile, ma è stato comunque trovato il modo per tutelare gli utenti.
Soluzione
A partire dalla metà del 2019, chi possiede un assistente vocale è libero di scegliere se partecipare o meno al miglioramento del servizio. Nelle impostazioni del dispositivo, sarà sufficiente cercare l’opzione “Aiuta a migliorare il servizio e a sviluppare nuove funzionalità per te” e disattivarla.
Nel frattempo, Google e Amazon (ma non Apple) hanno aperto agli utenti anche la possibilità di cancellare tutte le conversazioni vecchie (avvisando anche, però, che questo significa fare un passo indietro nel perfezionamento del proprio dispositivo, perdendo alcune delle preferenze elaborate fino a quel momento).
Per concludere, è chiaro che secondo molti la diffusione a macchia d’olio (alcune centinaia di milioni di esemplari venduti in pochissimi anni) degli assistenti vocali non dimostra la loro adeguatezza al mercato del grande pubblico, a cui rimane come scelta quella di aspettare i prossimi perfezionamenti.