Apple scansionerà le foto dei suoi utenti: addio privacy? | #Applefun

Iscriviti per ricevere una notifica ogni volta che pubblichiamo un articolo che non puoi davvero perderti! Disturbiamo poco, informiamo molto.

Apple scansionerà i dispositivi iOS e iPadOS alla ricerca di immagini pedopornografiche. La notizia, inizialmente trapelata su Twitter e solo successivamente confermata da Apple, ha ovviamente suscitato enormi polemiche e scatenato un dibattito all’interno della comunità degli sviluppatori iOS, nonché dei suoi utenti. La sacralità delle foto su iCloud viene messa in discussione, per quanto in nome di una causa nobile.

Siete pronti per scoprire come e perché Apple scansionerà le foto dei suoi utenti?

CONTRO LA PEDOPORNOGRAFIA, CONTRO LA PRIVACY?

La notizia è trapelata per la prima volta su Twitter mercoledì scorso. All’interno di un lungo e dettagliato thread il professore di crittografia dell’Università Johns Hopkins, Matthew Green, ha spiegato quanto aveva appreso da svariate fonti – ossia, che Apple ha intenzione di applicare una tecnologia di scansione delle immagini, a partire dalla versione 15 di iOS e iPadOS.

Gli algoritmi di Apple andranno alla ricerca di CSAM (“Child Sexual Abuse Material”) presenti negli smartphone dei loro utenti

La notizia ha incontrato lo scetticismo degli attivisti della privacy, abituati da Apple a una particolare attenzione nei confronti del tema della protezione dei dati; un report successivo del Financial Times, confermato da altri due ricercatori sulla sicurezza informatica che avevano partecipato a un incontro tra alcuni accademici e manager di Apple, ha tuttavia costretto l’azienda a venire allo scoperto.

Una sorpresa che forse avrebbe dovuto aspettare il prossimo aggiornamento di iOS, che vedrà parte delle novità incentrate sulla lotta alla pedopornografia e all’abuso di minori online. Insieme infatti alla tecnologia di scansione delle immagini, Apple implementerà un algoritmo di machine learning che offuscherà automaticamente le immagini sessualmente esplicite inviate a un minore su iMessage; questi sarà poi in grado di visualizzare comunque la fotografia, ma verrà inviata una notifica ai suoi genitori – e la stessa cosa accadrà se sarà il minore a inviare un’immagine del genere. Siri e Search saranno invece aggiornati per fornire ai genitori in difficoltà le informazioni necessarie per affrontare situazioni non sicure per i propri figli, nonché sulle modalità per presentare una denuncia.

La funzionalità però più controversa è la modalità di scansione delle immagini. La feature prevede che una serie di algoritmi setaccino le immagini caricate sia in locale nei dispositivi iPhone e iPad, sia sugli account iCloud alla ricerca di corrispondenze tra le fotografie degli utenti e un database di 200.000 immagini fornito dal National Center for Missing and Exploited Children (NCMEC) e da altre associazioni per la protezione dei minori. Queste fotografie pedopornografiche non vengono però confrontate in chiaro ma tramite un algoritmo definito NeuralHash, che traduce ogni immagine in una stringa di caratteri (“hash digest”) formando un database che viene scaricato sul dispositivo; lo stesso trattamento viene riservato anche alle foto sul device.

Così facendo l’algoritmo confronta i codici del database con quelli all’interno del dispositivo; qualora il sistema riscontri un match positivo tra i codici, verrà registrato un “safety voucher”, ossia un ticket virtuale che sarà applicato all’immagine. Nonostante il riscontro positivo, Apple non effettuerà alcuna segnalazione – almeno fino a che l’algoritmo non riscontrerà un numero di match positivi superiore a una certa soglia. Una seconda scansione viene poi effettuata quanto le fotografie vengono caricate su iCloud. Qualora la soglia venga superata, Apple invierà le immagini segnalate a un team di revisori umani che verificherà che le foto siano effettivamente di carattere pedopornografico – e, qualora lo siano, verranno inviate al NCMEC. L’account dell’utente sarà invece chiuso – ma potrà comunque effettuare un reclamo per richiedere il ripristino dell’account.

LA POLEMICA MONTA

Ovviamente la scelta non poteva non suscitare dubbi, domande e polemiche. Sono state molte le voci contrarie che si sono sollevate nei confronti della tecnologia: tra le più note contiamo sicuramente Will Cathcart. Quest’ultimo, amministratore di WhatsApp, ha pubblicato una lunga serie di tweet in cui spiega per quale motivo la tecnologia di Apple non verrà mai implementata sull’app di chat che invece usa un sistema di identificazione che si basa in parte sulle segnalazioni degli utenti. Secondo Carhcart, questo metodo permette di combattere la pedopornografia senza inficiare la sicurezza delle comunicazioni – solo nel 2020 WhatsApp ha segnalato 400.000 casi di abusi su minori al NCMEC.

Cathcart è stata forse la voce più critica e pungente, riprendendo sia precedenti affermazioni del CEO di Apple Tim Cook in apparente contraddizione con la nuova tecnologia di Apple (come una lettera del 2016 contro la possibilità di implementare una backdoor su iOS), sia dichiarazioni di altri esponenti del fronte “anti-Apple”. Come Tim Sweeney, CEO di Epic Games e attento detrattore di Apple da almeno un anno, ossia da quando le due aziende sono entrate in contrasto nelle aule dei tribunali di New York in merito alle strategie di distribuzione delle app su iOS. All’interno di un tweet ripreso da Cathcart, Sweeney ha definito la tecnologia alla stregua di uno “spyware governativo, basato sul “presupposto della colpevolezza“.

Sweeney riprende poi un celebre discorso di Edward Snowden, il cosiddetto “nothing to hide argument” che critica il ragionamento per cui “se non hai nulla da nascondere, non dovresti preoccuparti“. Non per nulla lo stesso Snowden si è espresso contro la scelta di Apple, e così anche la Electronic Frontier Foundation, nota fondazione da anni impegnata in battaglie per la protezione dei dati personali, e altri 6.000 tra programmatori e utenti della piattaforma Github che hanno firmato una petizione collettiva per chiedere ad Apple di ritirare la funzionalità.

Ci sono però alcune opinioni che vanno controcorrente: è il caso di Ashton Cutcher, attivista e avvocato che dal 2011 si occupa di combattere la pedopornografia, che ha definito la tecnologia di Apple “un grande passo avanti” contro il fenomeno dell’abuso su minori, e così anche l’organizzazione internazionale per la protezione dei minori Thorn.

È probabile che il confronto proseguirà nei prossimi mesi, quando la funzionalità verrà estesa ad altri Paesi (per ora è limitata agli USA) e ad altre applicazioni, dato che Apple sembra intenzionata ad aprire all’uso della tecnologia anche ad applicazioni di terze parti.

Vorresti scrivere per AppElmo? Mettiti in gioco: stiamo cercando collaboratori! Scrivi a [email protected], e dai un’occhiata QUI per le modalità di contatto. Non essere timido!

Se non volete perdervi nè le prossime News nè gli altri articoli di AppElmo (e sappiamo che non volete), allora potete iscrivervi alla nostra newsletter inserendo il vostro indirizzo email nel form qui in basso (tranquilli, vi assicuriamo che non vi invieremo spazzatura o spam; in caso contrario, vi saremmo immensamente grati se ci segnalaste il problema).

Oppure potete seguirci sulla nostra pagina Facebook, sul nostro account Twitter e sul nostro canale Telegram! Grazie mille!

Fonte Tech Crunch DDay.it The Verge
Commenti

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. AcceptRead More

//