Cosa sapere su DolphinAttack, la vulnerabilità che usa il Google Assistant per rubare denaro e dati personali

Iscriviti per ricevere una notifica ogni volta che pubblichiamo un articolo che non puoi davvero perderti! Disturbiamo poco, informiamo molto.

Il Google I/O 2018, la più grande manifestazione di potenza e tecnologia sul mondo Android e Google in generale, ha dimostrato quanto la casa di Mountain View punti sulle intelligenze artificiali per vincere la sfida della supremazia tecnologica nel nuovo mercato delle smart home.  Il Google Assistant è in grado di effettuare chiamate in autonomia, di prenotare un tavolo al proprio ristorante preferito e di effettuare mille altre banali mansioni che un giorno ci appariranno estremamente tediose da svolgere in autonomia e senza l’ausilio di un cervellone elettronico tascabile. Ma la vulnerabilità DolphinAttack è qui per ricordarci che non è tutto oro quel che luccica, o sa rispondere a tono.

Due ricercatori dell’Università della California, Berlkeley – Nicholas Carlini e David Wagner – hanno infatti dimostrato la concretezza di un attacco informatico condotto tramite un semplice file audio, che assume le proporzioni di un gigantesco cavallo di Troia pronto a passare dalla porta spalancata del proprio assistente personale.

Siete pronti per conoscere le proporzioni di questa minaccia?

Che cos'è DolphinAttack

Le origini della vulnerabilità denominata ufficiosamente DolphinAttack sono in realtà più antiche del paper pubblicato da Carlini e Wagner nei giorni passati. Nei fatti, il primo a rendersi conto della fattibilità di una simile strategia d’attacco informatico è stato un gruppo congiunto di ricercatori dell’Università di Princeton che ne 2016, in collaborazione con i propri omologhi dell’Università di Zheijang, in Cina, hanno poi attribuito il nome “DolphinAttack” alla vulnerabilità.

Nel video dimostrativo dell’allora inedita scoperta, si può notare come sia sufficiente utilizzare una serie di frequenze inaudibili per l’essere umano, ma completamente percettibili dal sistema di riconoscimento sonoro degli smart speaker e degli smartphone per manipolare l’assistente vocale ai propri scopi – per esempio, settando il profilo audio del device su “Non Disturbare” per evitare che l’utente si renda conto dell’attacco in corso.

Questo paper è stato il frutto di una ricerca approfondita, nata sempre nel 2016 dagli sforzi congiunti dell’Università della California, Berkeley e dell’Università di Georgetown. Gli iniziali risultati evidenziarono la facilità con cui un assistente vocale poteva facilmente essere ingannato nascondendo all’interno di un video su YouTube una frequenza sonora che l’IA avrebbe riconosciuto come un comando dell’utente, accedendo così a siti web o modificando le impostazioni di sistema dello smartphone. Con evidenti ripercussioni negative sull’integrità del sistema.

Come DolphinAttack attacca gli smartphone degli utenti

Come anticipato nel precedente paragrafo, la strategia che un hacker o qualunque criminale informatico può attuare per sfruttare la vulnerabilità passa attraverso i messaggi audio subliminali inseriti all’interno di qualsiasi contenuto multimediale.

Il sistema di riconoscimento vocale integrato all’interno degli assistenti intelligenti di Google, Amazon o Apple traduce lettera-per-lettera ogni suono udito dal sensore; con piccole correzioni è possibile modificare il file audio d’origine affinché venga interpretato e trascritto dal sistema diversamente da quanto previsto, senza che però l’utente se ne accorga. Questo porta la macchina che riceve il comando ad avviare azioni impreviste come la navigazione su Internet, l’alterazione delle impostazioni dello smartphone, e così via.

Podcast, video su YouTube, file audio inviati tramite le app di messaggistica sono tutti veicoli di questi comandi subliminali. Non solo: stando ai risultati di uno studio condotto da alcuni ricercatori statunitensi e cinesi, simili imput possono essere inseriti all’interno di brani musicali pubblicati su piattaforme online o trasmessi da stazioni radio, e ancora non essere percepiti dall’utente.

dolphinattack vulnerabilità
Un esempio di attacco a distanza, il quale naturalmente può assumere proporzioni ben peggiori di un allarme impostato in autonomia – Crediti: Symantec

Ancora, inizialmente la distanza ideale dalla quale condurre l’attacco sembrava non superare i pochi centimetri, rendendolo virtualmente impossibile – ma anche questa speranza era stata poi infranta da un’altra ricerca effettuata dall’Università dell’Illinois a Urbana-Champaign, che aveva stabilito a 25 metri la portata massima di questi attacchi. Nonostante i segnali inviati anche via ultrasonica non possano superare le pareti degli edifici, possono comunque penetrare le difese di un’abitazione tramite le sue finestre aperte, “hackerando” così un eventuale dispositivo smart presente al suo interno. Questo a sua volta può essere utilizzato per prendere il controllo dei sensori interni all’edificio, come per esempio una serratura elettronica.

Nessun dispositivo o algoritmo di sintesi vocale sembra essere esente da queste tattiche: sempre il team di Carlini è stato in grado di ingannare il software di traduzione da voce a testo di Mozilla, DeepSpeech, spingendolo ad eseguire il comando “O.K. Google, browse to evil.com” partendo da una frase ben più banale e innocua, “Without the data set, the article is useless“.

Come difendersi da DolphinAttack

Di base, l’utente non può erigere alcuna difesa contro simili attacchi – a parte la disattivazione delle modalità di “ascolto continuato degli assistenti personali, una strategia che non può essere attuata nel caso di smart assistant e altri dispositivi nati e progettati per essere sempre in ascolto degli ordini dell’utente.

Tutto è posto nelle mani degli stessi sviluppatori di assistenti personali come Google e Amazon: interrogati sulla vicenda, le due società rassicurato utenti e sviluppatori che maggiori sforzi verranno concentrati nell’implementazione di algoritmi per la mitigazione di attacchi simili. Che sono comunque lontani dal diventare inefficaci, visto lo stato di iniziale sviluppo in cui versa tutto il comparto dei sistemi di riconoscimento vocali. Google, interrogata dal sito di informazione tecnologica CNET, si è detta sicura del suo sistema di analisi vocale Voice Match, mentre Amazon ha ricordato la possibilità di inserire un PIN per la conferma dei propri acquisti, evitando così inopportune sorprese nel conto corrente. Ma queste difese basteranno?

DolphinAttack
Dopo Google e Amazon, anche Facebook progetta di lanciarsi nel mercato degli smart speaker

Più rassicurante è stata Apple, che si è dimostrata scettica sull’effettività di un attacco tramite DolphinAttack: l’Apple HomePod, lo smart speaker della casa di Cupertino, non è autorizzato ad interagire con i sistemi di home security come casseforti elettroniche o lucchetti a comando remoto, mentre qualsiasi azione che richieda l’accesso a dati sensibili su iPhone o iPad necessita comunque di una conferma manuale da parte dell’utente. Una notizia confortante, se non fosse che l’Apple HomePod è rimasto praticamente invenduto.

Si stima che entro il 2020 metà dei cittadini statunitensi possiederà uno smart speaker: vulnerabilità come DolphinAttack sono solamente una possibile anteprima dei pericoli che si annidano dietro le nuove tecnologie.

Hai paura che un malware possa entrare nel tuo smartphone? Scopri QUI tutti i modi per difenderti!

Vorresti scrivere per AppElmo? Mettiti in gioco: stiamo cercando collaboratori! Scrivi a [email protected], e dai un’occhiata QUI per le modalità di contatto. Non essere timido!

Se non volete perdervi nè le prossime News sulla sicurezza nè gli altri articoli di AppElmo (e sappiamo che non volete), allora potete iscrivervi alla nostra newsletter inserendo il vostro indirizzo email nel form qui in basso (tranquilli, vi assicuriamo che non vi invieremo spazzatura o spam; in caso contrario, vi saremmo immensamente grati se ci segnalaste il problema).

Oppure potete seguirci sulla nostra pagina Facebook, sul nostro account Twitter, sulla nostra pagina Google Plus, sulla nostra rivista Flipboard e sul nostro canale Telegram oppure, in alternativa, potete sempre scaricare la nostra app da Google Play, cliccando QUI o sull’immagine nella sidebar! Grazie mille!

Fonte The New York Times
Commenti
//