Tecnología

Questa azienda ‘segreta’ di riconoscimento facciale ha delle mie foto e non so perché

clearview

Lo scorso gennaio il New York Times ha rivelato l’esistenza di Clearview AI, un’app di riconoscimento facciale che ha raccolto oltre 3 miliardi di foto di ignari cittadini da internet, per offrire alle forze dell’ordine un comodo motore di ricerca per immagini. Il NYT l’ha descritta come “l’azienda segreta che potrebbe porre fine alla privacy.”

Una sensazione che ho provato sulla mia pelle quando ho ricevuto risposta alla mia richiesta di accesso ai dati inviata all’azienda: hanno trovato foto su di me che neppure sapevo fossero online, caricate da altri miei amici.

Videos by VICE

Clearview AI ha creato una sorta di versione potenziata ed estesa della ricerca Google per immagini: lo ha fatto raccogliendo fotografie da qualunque social media e sito web disponibile, e ha impacchettato il tutto con un algoritmo di riconoscimento facciale di cui non sappiamo nulla. Il prodotto finale viene offerto in versione prova o venduto direttamente alle forze dell’ordine, secondo quanto dichiarato dall’azienda—ma anche a enti e aziende private come emerso da diverse inchieste giornalistiche. Per espandersi, l’azienda era disposta persino a mentire: ha affermato di aver aiutato a risolvere un sospetto caso di terrorismo quando invece la polizia di New York ha negato che ciò sia avvenuto.

Potenzialmente, le foto che hai caricato sui social potrebbero essere in quel database, ma anche quelle che hanno scattato i tuoi amici, o persino quelle che ti sono state scattate a tua insaputa in questi giorni in cui il coronavirus ci costringe a fare la fila a distanza di un metro di fronte ai supermercati.

Incuriosito (e terrorizzato) dal database di Clearview AI, il 27 gennaio ho deciso di inviare una richiesta ai sensi del Regolamento generale per la protezione dei dati personali (GDPR) all’azienda. Ho scaricato e tradotto il modulo dalla pagina del Garante per la privacy, ho allegato una copia del mio documento di identità e una mia fotografia recente. Allo scadere dei 30 giorni previsti dalla legge non avevo ancora ricevuto risposta, e solo dopo un sollecito vengo rassicurato: a breve mi invieranno tutto, “come può immaginare, stiamo elaborando migliaia di richieste,” ha scritto nella mail un portavoce dell’azienda.

Il 13 marzo ricevo finalmente la loro risposta: un PDF con tutte le fotografie che il loro algoritmo pensa ritraggano proprio me. Sorprendentemente, il documento contiene solo tre mie foto.

In parte è possibile che il numero contenuto sia giustificato dalle stringenti impostazioni sulla privacy che ho inserito su diversi miei profili social e dal fatto che, generalmente, non posto molte immagini del mio volto su Instagram. Spesso, però, scelte personali come la mia potrebbero non bastare, come sottolineano alcuni casi riportati da VICE US. Lì le immagini erano state raccolte da siti alquanto loschi che fanno a loro volta scraping di immagini dai profili Instagram, ad esempio.

Malgrado le mie poche fotografie, sono rimasto comunque sconvolto dai risultati. Le foto che sono state individuate hanno tutte angolazioni e attributi diversi rispetto a quella che ho inviato originariamente. In tutte indosso gli occhiali, anche di colori diversi, e sono state scattate a distanza di anni.

1585051818115-IMAGE1-1
Immagini dell’autore presenti nel database di Clearview AI.

Una di queste foto è presa dal mio profilo del sito del Centro Hermes, associazioni italiana di diritti digitali di cui faccio parte; un’altra è stata presa dal sito del Festival Internazionale del Giornalismo ma, stranamente, non riconduce al mio profilo di relatore bensì alla pagina di un’altra giornalista con cui ho partecipato ad un panel—e tra le varie fotografie dell’evento c’era infatti anche la mia.

Le foto caricate sul Festival Internazionale del Giornalismo sono liberamente riutilizzabili, anche per scopi commerciali, ha commentato Arianna Ciccone, fondatrice del festival, ma “d’altro canto, si può iniziare la discussione se l’utilizzo di tali immagini per il training di una AI—o più generalmente per la costruzione di un database—costituisca un’opera derivativa o meno.”

“Siamo ovviamente preoccupati dalle pratiche di Clearview,” ha commentato Ciccone. L’attività di scraping dell’azienda dovrebbe seguire le norme previste dal GDPR, ma il Festival non ha l’autorità necessaria per stabilire se tali pratiche siano corrette, né per poter richiedere alcunché direttamente a Clearview AI: “questa possibilità rimane in capo agli interessati al trattamento e, ovviamente, a una eventuale investigazione dell’Autorità indipendente.”

La terza foto, invece, è la più preoccupante. Si tratta dell’immagine profilo di una mia amica caricata sul sito Couchsurfing. Nella foto, al suo fianco, ci sono anche io e non sapevo assolutamente che l’avesse caricata lì.

“Penso che questo esempio evidenzi perfettamente il motivo per cui dobbiamo pensare alla privacy in un contesto sociale più ampio,” ha dichiarato Ioannis Kouvakas, avvocato che si occupa di riconoscimento facciale per Privacy International. “L’uso del riconoscimento facciale o persino di partnership tra il pubblico e il privato come quelle che si basano sul riconoscimento facciale sono molto allarmanti: sono uno sforzo della polizia per metterci sotto una sorveglianza costante, inutile e sproporzionata.”

Questo particolare caso prova quindi per l’ennesima volta che la privacy è una questione collettiva: la foto scattata dalla mia amica finisce per rivelare ulteriori informazioni su di me tenendomi però all’oscuro del fatto. Chiunque usi l’app di Clearview può scoprire che io e la mia amica siamo stati in contatto, abbiamo interagito, ci conosciamo. E questo non mette in potenziale pericolo solo me ma anche lei.

1585051873411-IMAGE2
Fonti originali delle foto prelevate da Clearview AI.

Se continuiamo a considerare la privacy alla stregua della proprietà privata siamo spacciati. Se pensiamo che solo la nostra privacy sia importante allora non ci faremo problemi a calpestare quella degli altri, a scattare foto in pubblico a ignari passanti per farci beffe di loro sui social.

Nella mail di risposta, Clearview rimanda alla propria informativa privacy in cui spiega che non vengono raccolti dati riguardo il nome, indirizzi email, o altri dettagli che non siano esclusivamente la foto e i link di origine delle stesse. Paradossalmente, però, quei link possono rivelare già dati personali, come ad esempio il nome delle persone se si tratta di profili personali—come successo nel caso del profilo della mia amica.

Dopo le prime rivelazioni di una slide che mostrava gli stati al di fuori dell’America del Nord in cui l’azienda aveva intenzione di espandersi, tra cui era inclusa anche l’Italia, il CEO di Clearview AI, Hoan Ton-That, ha risposto alle domande inviate da VICE sottolineando come Clearview AI sia disponibile solamente per le forze dell’ordine di Stati Uniti e Canada e che, pur avendo ricevuto richieste da parte delle forze dell’ordine di tutto il mondo, non sono stati avviati contratti. Quelle slide, dunque, rifletterebbero solamente previsioni di espansione future.

Successivamente a queste dichiarazioni, però, qualcuno è riuscito a sottrarre dai server dell’azienda la lista dei clienti, che è poi stata fornita ai giornalisti di Buzzfeed. I documenti mostrano che Clearview AI lavorerebbe con oltre 2200 corpi di forze dell’ordine, aziende e individui privati in tutto il mondo. Tra questi, risulta presente anche l’Italia.

VICE ha inviato delle richieste FOIA per ottenere email e materiali scambiati tra Clearview AI e le nostre forze dell’ordine: sia la Direzione Centrale Anticrimine della Polizia di Stato che il Ministero dell’Interno hanno dichiarato di non avere contatti con l’azienda. Finché Clearview AI non pubblicherà ufficialmente la lista dei propri clienti non sarà quindi possibile scoprire chi sta utilizzando questa tecnologia. Il CEO di Clearview AI non ha risposto ad ulteriori richieste di VICE.

“Quando si tratta di aziende private che possono utilizzare questa tecnologia, abbiamo una serie di problemi significativi,” ha concluso Kouvakas, “si forniscono alla polizia nuove opportunità di spiarci e si aumentano gli incentivi per le aziende a lavorare con la polizia a fini di sorveglianza.”

E pensare che, prima di diventare uno strumento per la polizia, Clearview AI era un giocattolino segreto per i ricchi da usare alle feste.