Dei ricercatori universitari hanno ideato un nuovo exploit funzionante che prende possesso degli assistenti vocali Amazon Echo e li costringe a sbloccare porte, fare telefonate, acquisti non autorizzati, controllare forni, televisioni ed altri elettrodomestici intelligenti.
L’attacco funziona utilizzando l’altoparlante del dispositivo per impartire comandi vocali. Finché il discorso contiene la parola d’ordine del dispositivo (di solito “Alexa” o “Echo“) seguita da un comando ammissibile, l’Echo lo eseguirà. Questo l’hanno scoperto dei ricercatori italiani della Royal Holloway University di Londra e dell’Università di Catania. Anche quando i dispositivi richiedono una conferma verbale prima di eseguire comandi sensibili, è banale aggirare la misura aggiungendo la parola “sì” circa sei secondi dopo aver emesso il comando. Gli attaccanti possono anche sfruttare quello che i ricercatori chiamano “FVV” o Full Voice Vulnerability, che permette agli Echo di fare comandi auto-emessi senza ridurre temporaneamente il volume del dispositivo.
“Alexa, bucati da sola”
Poiché l’hack utilizza la funzionalità Alexa per forzare i dispositivi a fare comandi auto-emessi, i ricercatori lo hanno soprannominato “AvA”, abbreviazione di Alexa versus Alexa. Richiede solo pochi secondi di vicinanza a un dispositivo vulnerabile mentre è acceso in modo che un attaccante possa pronunciare un comando vocale che lo istruisca ad accoppiarsi con un dispositivo Bluetooth dell’attaccante. Finché il dispositivo rimane all’interno della portata radio di Echo, l’attaccante sarà in grado di impartire comandi.
L’attacco “è il primo a sfruttare la vulnerabilità dell’auto-emissione di comandi arbitrari sui dispositivi Echo, permettendo ad un attaccante di controllarli per un periodo di tempo prolungato“, hanno scritto i ricercatori in un paper. “Con questo lavoro, rimuoviamo la necessità di avere un altoparlante esterno vicino al dispositivo di destinazione, aumentando la probabilità complessiva dell’attacco”.
Una variante dell’attacco utilizza una stazione radio malevola per generare i comandi auto-emessi. Quell’attacco non è più possibile nel modo mostrato nel documento in seguito alle patch di sicurezza che il produttore di Echo Amazon ha rilasciato in risposta alla ricerca. I ricercatori hanno confermato che gli attacchi funzionano contro i dispositivi Echo Dot di terza e quarta generazione.

AvA inizia quando un dispositivo Echo vulnerabile si connette via Bluetooth al dispositivo dell’attaccante (e per gli Echo senza patch, quando riproducono la stazione radio dannosa). Da quel momento in poi, l’attaccante può utilizzare un’app text-to-speech o altri mezzi per trasmettere comandi vocali. Ecco un video di AvA in azione.
I ricercatori hanno scoperto che potrebbero usare AvA per forzare i dispositivi ad eseguire una serie di comandi, molti con gravi conseguenze per la privacy o la sicurezza. Le possibili azioni dannose includono:
- Controllo di altri elettrodomestici intelligenti, come spegnere le luci, accendere un forno a microonde intelligente, impostare il riscaldamento a una temperatura non sicura, o sbloccare le serrature delle porte intelligenti. Come notato in precedenza, quando Echos richiede una conferma, l’avversario deve solo aggiungere un “sì” al comando circa sei secondi dopo la richiesta.
- Chiama qualsiasi numero di telefono, compreso uno controllato dall’attaccante, in modo che sia possibile origliare i suoni vicini. Mentre gli Echo usano una luce per indicare che stanno facendo una chiamata, i dispositivi non sono sempre visibili agli utenti, e gli utenti meno esperti potrebbero non sapere cosa significa la luce.
- Fare acquisti non autorizzati utilizzando l’account Amazon della vittima. Anche se Amazon invierà un’email per avvisare la vittima dell’acquisto, l’email può essere persa o l’utente può perdere la fiducia in Amazon. In alternativa, gli aggressori possono anche cancellare gli articoli già presenti nel carrello dell’account.
- Manomettere il calendario di un utente precedentemente collegato per aggiungere, spostare, eliminare o modificare gli eventi.
- Impersonare abilità o avviare qualsiasi abilità a scelta dell’attaccante. Questo, a sua volta, potrebbe consentire agli attaccanti di ottenere password e dati personali.
- Recuperare tutti gli enunciati fatti dalla vittima. Utilizzando quello che i ricercatori chiamano un “attacco con maschera”, un avversario può intercettare i comandi e memorizzarli in un database. Questo potrebbe consentire all’avversario di estrarre dati privati, raccogliere informazioni sulle competenze utilizzate e dedurre le abitudini dell’utente.
Alexa sempre in ascolto
La ricerca è l’ultima a sottolineare i rischi posti dagli altoparlanti intelligenti. Nel 2019, i ricercatori hanno dimostrato come otto app dannose che hanno sviluppato – quattro competenze che hanno superato il processo di controllo di Amazon e quattro azioni che hanno superato il controllo di Google – hanno intercettato surrettiziamente gli utenti e hanno rubato le loro password. Le competenze o azioni maligne – che erano ospitate rispettivamente da Amazon e Google – si presentavano come semplici applicazioni per il controllo dell’oroscopo, con l’eccezione di una, che si mascherava come un generatore di numeri casuali.
Lo stesso anno, un diverso team di ricercatori ha mostrato come Siri, Alexa e Google Assistant erano vulnerabili agli attacchi che utilizzavano laser a bassa potenza per iniettare comandi impercettibili – e talvolta invisibili – nei dispositivi e indurli surrettiziamente a sbloccare porte, visitare siti web e individuare, sbloccare e avviare veicoli. I laser potrebbero essere lontani fino a 360 piedi da un dispositivo vulnerabile. I comandi basati sulla luce potrebbero anche essere inviati da un edificio all’altro e penetrare il vetro quando un dispositivo vulnerabile si trova vicino a una finestra chiusa.
I ricercatori dietro AvA sono Sergio Esposito e Daniele Sgandurra della Royal Holloway University e Giampaolo Bella dell’Università di Catania. Come contromisura per rendere gli attacchi meno probabili, raccomandano agli utenti di Echo di disattivare i loro microfoni ogni volta che non stanno usando attivamente il loro dispositivo.
“Questo rende impossibile l’auto-emissione di qualsiasi comando”, hanno scritto i ricercatori su un sito web informativo. “Inoltre, se il microfono è disattivato solo quando si è vicino a Echo, si sarà in grado di sentire i comandi auto-emessi, quindi essere in grado di reagire tempestivamente ad essi (spegnere Echo, annullare un ordine che l’attaccante ha effettuato con il tuo account Amazon, ad esempio)”.
Le persone possono sempre uscire da una skill dicendo: “Alexa, esci” o “Alexa, annulla”. Gli utenti possono anche abilitare un indicatore acustico che viene riprodotto dopo che il dispositivo Echo rileva la parola di risveglio.
Amazon ha classificato la minaccia posta da AvA come di gravità “media”. Il requisito di avere una breve vicinanza al dispositivo per l’accoppiamento Bluetooth significa che gli exploit AvA non funzionano su Internet, e anche quando un avversario accoppia con successo l’Echo con un dispositivo Bluetooth, quest’ultimo dispositivo deve rimanere all’interno della portata radio. L’attacco può comunque essere fattibile per gli abusatori del partner domestico, gli insider malintenzionati o altre persone che hanno accesso fugace a un Echo vulnerabile.