Due anni fa—un tempo che, lo so, sembra lontanissimo—il mondo è stato capovolto da uno scandalo senza precedenti nella storia delle tecnologie digitali. Un’azienda di analisi dati di Londra, che aveva lavorato per la prima campagna presidenziale di Donald Trump, aveva prelevato i dati Facebook di decine di milioni di utenti tramite un’app di terze parti, con lo scopo di profilarli e bersagliarli con pubblicità politiche fatte su misura.
Non si era trattato di un ‘breach’ di dati in senso proprio—ma dello sfruttamento sapiente dei termini di servizio e dell’API di Facebook disponibile all’epoca, che ha permesso una raccolta a catena di informazioni senza il reale consenso della stragrande maggioranza dei soggetti interessati. L’utilizzo per scopi politici di queste informazioni è oggi definito un’arma di “guerra psicologica”—e le conseguenze di quegli eventi, tra fake news, responsabilità dei social network, manipolazione sociale, e polarizzazione politica non sono ancora superate, anzi.
Videos by VICE
L’azienda, ricorderete, si chiamava Cambridge Analytica, e il whistleblower che ha fornito le informazioni fondamentali all’indagine rivelatoria condotta da New York Times, Guardian e Observer si chiama Christopher Wylie, ex data scientist dell’azienda che ha contribuito a creare l’arma più inquietante dell’era digitale. Nel suo libro Il mercato del consenso — Come ho creato e poi distrutto Cambridge Analytica, pubblicato in Italia da Longanesi, Wylie ripercorre gli eventi personali e professionali che l’hanno portato a lavorare per Cambridge Analytica e—poi—a rivelare alla stampa la verità.
Di recente, Wylie è anche stato ospite al festival del libro PORDENONELEGGE 2020, in occasione del quale VICE l’ha raggiunto telefonicamente, per parlare di cosa aspettarci e cosa pretendere dal prossimo futuro.
VICE: Ciao Chris, innanzitutto: posso registrare questa telefonata?
Christopher Wylie: Certo, anzi grazie per avermelo chiesto! La maggior parte dei giornalisti non lo fa.
Neanche la maggior parte delle agenzie.
Ahah, già.
Come stai? Come è stato il lockdown per te?
Oh, sai, abbastanza una merda, come penso un po’ per tutti. È arrivato così in fretta e nessuno sapeva quanto sarebbe durato, ma immagino che sia stata l’esperienza di tanti.
La pandemia cambiato la tua percezione degli ultimi due anni?
Sì, penso che ci siamo resi conto tutti che la disinformazione online può avere un impatto enorme non solo in un contesto politico, ma anche in un contesto di sanità pubblica—basta guardare al fatto che i pareri dei medici e l’esistenza stessa del virus sono ora oggetto di dibattito. Pensa che fuori dal mio appartamento ci sono graffiti che dicono che le mascherine servono solo a farti stare zitto e che la pandemia è tutta una montatura.
Il punto però è sempre lo stesso: i social media sono uno strumento molto potente, attraverso cui le persone oggi scoprono il mondo, ma che ha eroso la voce degli esperti. Le teorie del complotto si diffondono rapidamente—guarda cosa sta succedendo negli Stati Uniti proprio adesso—e il risultato è che le persone stanno morendo.
Certo, non è la prima volta che le persone muoiono in conseguenza ad azioni di propaganda online—se pensi a ciò che è successo in Myanmar, persino le Nazioni Unite hanno detto che la disinformazione su Facebook stava contribuendo alla ‘pulizia’ etnica che è stata condotta nel paese. La disinformazione può fare danni concreti e tangibili—e penso che la pandemia sia solo un altro esempio di questa cosa.
Ciò che hai fatto tu rivelando le azioni di Cambridge Analytica, ma anche quello che ha fatto Edward Snowden con l’NSA, o Chelsea Manning con la CIA, sono tutti casi in cui una verità molto seria è stata rivelata al pubblico. O pensi ci sia una differenza?
C’è una differenza fondamentale ed è che per la sorveglianza governativa, almeno in teoria, tu non sei l’obbiettivo primario—magari sei tra i danni collaterali, nel senso che la CIA dice “non mi interessa la mamma che vive in periferia e guida un minivan, mi interessa il potenziale criminale che vive dall’altra parte della strada, e se per coincidenza ascolto anche lei, beh pazienza, è il prezzo da pagare”.
Il problema con Cambridge Analytica, e in senso più ampio Facebook, è che quella mamma di periferia che guida un minivan è l’obiettivo. La sorveglianza in un contesto privato, anziché governativo, diventa quasi più potente. Se dovessi descriverti un’entità che ha accesso a tutte le informazioni su di te, ti ascolta, guarda tutti i tuoi messaggi, tutte le tue foto, e tiene traccia di tutto ciò che fai—sto descrivendo l’NSA, o sto descrivendo Facebook? Sto descrivendo Facebook.
Già, decisamente.
Facebook è uno strumento di sorveglianza che l’NSA può solo sognarsi. Perché? Perché l’NSA, tecnicamente, non ha il permesso di monitorare i suoi cittadini, mentre il modello economico di Facebook è precisamente quello, è la sorveglianza.
Una sorveglianza a cui diamo il permesso, acconsentendo a termini e condizioni di utilizzo, no?
Be’, è un permesso strano: la nozione stessa di termini e condizioni di utilizzo è basata sull’idea che Facebook o altre piattaforme, sono un servizio. Se guardi ai titoli delle posizioni lavorative dentro Facebook o Amazon e via dicendo, però, non sono cose tipo “manager delle relazioni”, ma sono tutte “ingegnere” o “architetto”.
Immagina per un attimo se Mark Zuckerberg fosse un vero architetto, che deve progettare un edificio—come sarebbe? Gli permetteremmo di fare i lavori di costruzione? Gli permetteremmo di affiggere un cartello alla porta con scritto “dai il consenso a tutti i termini e le condizioni di utilizzo del mio edificio in quanto servizio, e una volta che entri la porta si chiude a chiave e non puoi andartene,” come in un manicomio? No. Il problema, quando si usa il linguaggio del consenso, è che le persone non hanno veramente scelta.
Non chiediamo il consenso delle persone in altri settori tecnici. Quando sali su un aereo, non devi dare il tuo consenso alla progettazione ingegneristica dell’aereo; quando vai dal dottore, acconsenti, certo, all’uso di un determinato farmaco, ma non dai il consenso allo standard farmaceutico di creazione di quel farmaco—perché esiste un ente pubblico che si occupa già di determinarne la sicurezza.
Quello che succede con internet e con le piattaforme digitali è che non esiste alcun ente pubblico o codice di edilizia o insieme di normative equivalente che dice cosa è sicuro e cosa no. E continuano a dire che le persone hanno dato il loro consenso, quindi va tutto bene, non hanno bisogno di niente del genere. Ma è come dire che le persone non sono obbligate a usare l’elettricità, quindi chissenefrega se l’edificio che ho costruito fulmina gli inquilini, tanto hanno aperto la porta e consentito ai termini di utilizzo.
A questo proposito, si è parlato tanto nelle ultime settimane del film The Social Dilemma, uscito di recente su Netflix. Non so se l’hai già visto…
È buffo, tutti continuano a farmi domande su quel film, io non l’ho ancora visto! Ma è sulla mia lista… È divertente perché conosco di persona la maggior parte della gente intervistata.
Immagino. La cosa che mi ha disturbata del film—tralasciando la realtà che descrive, di come queste piattaforme funzionano—è il suo messaggio positivista, per cui basta solo “aggiustarle”. Pensi che sia davvero una questione di migliorie da apportare, o dovremmo “dare fuoco” a tutto e basta?
Dunque, se guardi alla storia delle normative, e so che suona come una cosa noiosissima…
Oh, no, io sono una grande fan.
…ecco, uno dei primi codici di edilizia moderni è stato creato dopo il grande incendio di Londra. Prima il concetto era “questa è la mia proprietà, costruisco quello mi pare” e all’improvviso un incendio ha distrutto metà della città e si è iniziato a parlare degli interessi che il pubblico detiene in come viene costruita anche una proprietà privata.
Oggi dipendiamo dai codici di edilizia per vivere in modo sicuro e dubito che qualcuno si opporrebbe, dicendo che avere sistemi elettrici sicuri interferisce con interessi privati. Quando consideri lo sviluppo di qualsiasi industria che sia scientifica o tecnologica, è lo stesso. Nell’industria farmaceutica, fino agli anni Cinquanta, non c’erano praticamente regole su cosa un’azienda potesse mettere sul mercato. E usavano più o meno gli stessi argomenti che le aziende tech usano oggi: “bisogna dare spazio all’innovazione”, e “ovviamente non vogliamo che le persone si facciano del male, perché è un danno per gli affari, quindi fidatevi di noi”.
Ma è successo che certi farmaci facessero del male alle persone e il pubblico ha iniziato a far valere i propri interessi: abbiamo bisogno di queste innovazioni, ma proprio perché ci facciamo affidamento vogliamo essere certi che siano sicure. Penso che internet e le piattaforme digitali siano ora a un punto di maturazione per cui dobbiamo parlare di standard ingegneristici, standard di sicurezza e standard tecnici per la progettazione dei prodotti digitali. E questo richiede un nuovo tipo di regolamentazione—che non è il GDPR e non sono semplicemente le leggi di protezione dei dati e della privacy; servono nuovi tipi di leggi che capiscano davvero come funziona internet e cosa significa davvero sicurezza digitale e che aspetto deve avere un codice “di edilizia” o di sicurezza per le piattaforme digitali.
Questo costringerebbe le aziende a pensare alla sicurezza all’inizio del processo di progettazione. Questa è la più grande differenza tra Facebook, la Silicon Valley, e qualsiasi altra grande industria. Se progetti un nuovo farmaco, una nuova automobile, un nuovo aereo e via dicendo, devi mettere sul piatto la sicurezza del design e pensare a quali problemi potrebbero emergere prima di creare il prodotto. E devi dimostrare a un legislatore o un ente preposto che hai fatto la tua parte. Non facciamo niente di tutto ciò con le piattaforme digitali. Per cui per tornare alla tua domanda se dovremmo “dare fuoco” a tutto o no… Non penso, esattamente come mi piace usare l’elettricità anche se può essere pericolosa. Ma abbiamo bisogno di trattare Silicon Valley come trattiamo qualsiasi altro settore.
Già. Qual è la domanda importante che nessuno ti sta ponendo?
Che aspetto avrebbe, in pratica, una normativa efficace. Uno dei problemi è dove siamo al momento nel discorso e nella consapevolezza pubblica riguardo le grandi aziende tech; ora come ora si parla tanto di A) questo è il problema, B) queste sono le ragioni del problema. Penso che ci sia un vuoto nel discorso pubblico su che aspetto avrebbero in pratica delle regole e sul coinvolgimento di persone che sono ingegneri ed esperti di dati per contribuire alla progettazione di framework legislativi.
Il problema che vedo quando vado al Congresso—be’, quando ci andavo prima della pandemia—o alla Commissione Europea, è che un sacco di persone hanno un’idea di come funziona la tecnologia che è magari corretta in linea generale, ma non lo è nello specifico. E quando progetti delle leggi i dettagli sono molto importanti. Dove sono le voci dei tecnici nel cercare di creare regole che funzionino per questo problema? Non penso che saranno avvocati e politici a risolvere il problema, serve un gruppo di esperti tecnici. Di nuovo, come facciamo nel resto dei grandi settori.
Pensi che sia fattibile, che siamo ancora in tempo per salvare le democrazie mondiali? Qual è lo scenario peggiore a cui dovremmo prepararci?
Be’, lo scenario peggiore è piuttosto terrificante, ma anziché pensare a quello, dobbiamo ragionare sul fatto che le democrazie sono in uno stato precario da tempo, è facile per i popoli sbilanciarsi verso sistemi autoritaristici, ed è già successo ovunque nel mondo. Quindi dobbiamo guardare con attenzione a come è successo, e progettare nuove regole con questa consapevolezza. Ma non penso che sia impossibile. Perché la società si adatta continuamente a cambiamenti, e per quanto internet sia un cambiamento radicale per la società, così è stata l’elettricità, il telefono, gli aerei, la radio… Non può essere una missione impossibile, perché se lo è, allora siamo tutti fottuti.