animal-cute-dolphins-225869

I “digital assistant” possono ricevere comandi non udibili agli esseri umani

Ancora un nuovo allarme privacy lanciato dal NY Times: i personal digital assistant possono ricevere comandi vocali non udibili dall’orecchio umano.

Ricerche svolte nel corso degli ultimi due anni in America e Cina hanno messo in luce come i comodi e per certi versi avveniristici “maggiordomi digitali” che compagnie come Google, Amazon e Apple hanno cominciato a infilare in appliance per la casa e nei nostri smartphone, siano però capaci di ascoltare e comprendere comandi vocali in un range di frequenze non udibili dall’orecchio umano, esponendo così l’utente a potenziali pericoli di controllo involontario da parte di terzi, che potrebbero non avere poi intenzioni tanto benevole…

Già una prima avvisaglia dei potenziali “fastidi” legati al riconoscimento dei comandi vocali capitò con uno spot di Burger King dove una frase dello spot inviava un comando diretto per  il Google Assistant affinchè aprisse navigasse su Wikipedia per leggere gli ingredienti del nuovo panino appena lanciato, ma ora l’allarme è più vasto e riguarda tutti i sistemi di riconoscimento vocale.

 

gadget-google-google-wifi-1054554
Un esempio di vocal digital assistant da casa

Ora però c’è un’escalation del problema, visto che si tratta di comandi che l’utente non è in grado di sentire e quindi di averne coscienza.  I sistemi di riconoscimento vocale infatti sono in grado di recepire i comandi anche fuori dallo spettro udibile umano, fattore che ha portato a battezzare questo tipo di potenziali attacchi come “dolphin attack”, in considerazione del fatto che quella parte dello spettro sonoro utilizzabile a questo scopo è uguale a quello usato dai delfini per comunicare tra loro.

Infine un’altra ricerca ha dimostrato come sia possibile aggiungere frasi di comando vocale non udibili in filmati e audio file, condivisibili anche su piattaforme come Youtube, senza alternarne l’ascolto da parte degli utenti, che quindi sarebbero esposti a questi potenziali attacchi in modo inconsapevole.

I ricercatori cinesi che hanno svolto varie prove in merito hanno riportato come l’attacco a ultrasuoni in questione abbia un’efficacia fino a circa 7-8 metri, non sono in grado di superare ostacoli solidi come i muri, ma potrebbero ad esempio sfruttare una porta aperta per inviare un comando ad un sistema di controllo domotico casalingo: potenzialmente sarebbe possibile quindi aprire una porta di casa da fuori da parte di un ladro “smart”. Altre prove hanno dimostrato come fosse possibile comandare degli smartphone ad effettuare telefonate, inviare SMS e messaggi su app social, tutto tramite questi comandi “silenziosi” per le orecchie dei ricercatori.

Al momento resta da vedere come le compagnie creatrici degli assistenti vocali tirati in ballo da queste ricerche risponderanno al problema e con quali contromisure.

Fonte: NY Times

 

Condividi su:
Torna in alto