Tutti abbiamo quell’amico. Ti invita a cena e ha voglia di musica, troppa voglia. Dice una frase a mezza bocca e subito trasforma la stanza in un auditorium. Si gira e ti guarda con un misto di malizia e commiserazione, come andassi ancora a cavallo nell’era del motore a scoppio. È solo quando, emozionato, comincia a tesserne le lodi, che lo noti: un oggetto cilindrico, di medie dimensioni, poggiato su una mensola. È lui (lei?) il dj.
Gli assistenti vocali (ma i più fortunati avranno un amico che li chiama smart speaker) hanno conquistato spazio anche in Italia, paese più indietro di altri nell’alfabetizzazione digitale (un quarto delle famiglie, dati Istat alla mano, non ha nemmeno internet). Secondo le stime, infatti, il 13% degli italiani ne ha uno in casa. Negli Stati Uniti, comunque, il fenomeno è molto più diffuso, e qualcuno ne ha già approfittato. I primi sono stati i creativi di Burger King, nel 2017. Nel bel mezzo di un loro spot, una voce chiedeva Ok Google, cos’è un Whopper burger? A quel punto, dall’altro lato dello schermo, tutti gli assistenti vocali del marchio ne recitavano gli ingredienti. La stessa cosa è successa quando una bimba di sei anni ha convinto l’Amazon Echo di famiglia a comprarle una casa per le bambole. Infatti, la buffa storia è stata rilanciata dalla CNN, con un effetto collaterale: far ordinare il giocattolo anche a tutti gli assistenti vocali che ascoltavano il telegiornale.
Sono vicende divertenti, ma che rivelano un problema da non sottovalutare: la sicurezza di questi strumenti da attacchi esterni. Di solito, si parla dei rischi in materia di dati personali, alternando preoccupazioni giustificate (ricordiamo tutti la vicenda Cambridge Analytica) a complottismo della peggior specie (a chi interessa davvero ascoltare il nostro amico vantarsi del suo smart speaker?). Diversi studi, però, stanno mettendo in luce la loro vulnerabilità anche da altri punti di vista. Il nodo centrale è che normalmente gli smart speaker permettono l’attivazione da parte di qualunque voce pronunci la parola chiave. Le case produttrici sperimentano forme di riconoscimento vocale che limitino l’accesso ai soli proprietari ma, come indica un recente studio delle università di Michigan e Taiwan, l’idea ha dei limiti. Infatti, la voce cambia molto durante la vita di una persona, anche per cause futili come un raffreddore. Inoltre, è replicabile e manipolabile, semplicemente rielaborando delle registrazioni. E chi di noi non invia almeno un paio di messaggi vocali al giorno?
È facile immaginare scenari alla Black mirror: e se una voce ordinasse all’assistente di eseguire un pagamento milionario, o aprire le serrature di una smart house? Sono ipotesi ancora improbabili (rimane difficile introdurre uno stimolo sonoro in casa altrui) ma che, di fronte alla crescita esponenziale dell’Internet of things, vanno tenute in considerazione. A maggior ragione dopo che un team di esperti americani e giapponesi, in un altro studio, ha dimostrato che è possibile attaccare gli assistenti vocali con dei laser, sfruttando l’effetto fotoacustico. I ricercatori hanno attivato gli strumenti da 110 metri di distanza, riuscendo ad aprire e chiudere serrature, fare acquisti online e accendere una smart car.
Oggi può sembrare fantascienza, ma probabilmente è solo un assaggio della criminalità del futuro: del resto, c’è stato un tempo in cui anche clonare una carta di credito sembrava inverosimile…
mercoledì 30 Ottobre 2024
Twitter:
mercoledì 30 Ottobre 2024