FYI.

This story is over 5 years old.

Tecnologia

Leggi artificiali per intelligenze artificiali

Che si tratti di software o di hardware, l'arrivo dei robot nelle nostre vite darà una scossa al sistema legislativo.
Riccardo Coluccini
Macerata, IT
Immagine: Shutterstock

Questo post fa parte di Formula, la serie di Motherboard in collaborazione con Audi in cui esploriamo le meraviglie dell'intelligenza artificiale, la tecnologia più importante del 21esimo secolo.

L’adozione di algoritmi di intelligenza artificiale all’interno delle nostre attività quotidiane si troverà necessariamente a dover fare i conti con l’infrastruttura normativa e legale che regola le nostre vite.

Pubblicità

Spesso l’impianto legale e la regolamentazione della tecnologia sono visti come dei veri e propri ostacoli per l’innovazione, considerati come un gigantesco pachiderma che rallenta lo sviluppo.

La diffusione di applicazioni di AI ci costringe però a dover volgere lo sguardo alla legislazione, poiché ci stiamo già rendendo conto che le intelligenze artificiali avranno effetti dirompenti sia dal punto di vista etico che dal punto di vista legale. Abbiamo necessariamente bisogno quindi di sviluppare un modello di governance funzionale per affrontare le sfide dell’AI.

I giornali segnalano già alcuni casi in cui i pregiudizi dei programmatori hanno portato dei software a prendere delle decisioni dannose per una particolare categoria di cittadini, introducendo così nel discorso pubblico il concetto di bias. Allo stesso modo, la necessità di raccogliere ed archiviare una gigantesca mole di dati per addestrare gli algoritmi di deep learning introduce nuove preoccupazioni per la sicurezza delle informazioni racchiuse in questi database e per la privacy degli utenti.

Non possiamo prevedere un’unica legge che regoli l’impiego delle macchine intelligenti proprio perché il concetto di AI stessa racchiude in sé diversi algoritmi che si applicano in contesti differenti.

Per questi motivi, quindi, è necessario iniziare a valutare un adeguamento e, qualora necessario, una vera e propria riscrittura delle leggi attualmente in vigore in modo da fornire un aiuto concreto per lo sviluppo delle AI e non bloccare la ricerca.

Pubblicità

Uno dei concetti primari che i legislatori dovrebbero considerare è la natura multiforme degli algoritmi di intelligenza artificiale: non possiamo prevedere un’unica legge che regoli l’impiego delle macchine intelligenti proprio perché il concetto di AI stessa racchiude in sé diversi algoritmi che si applicano in contesti differenti.

Al momento non esiste un’unica definizione di intelligenza artificiale ma esistono innumerevoli scenari in cui degli algoritmi che rientrano nel grosso calderone dell’AI vengono applicati: c’è ad esempio il riconoscimento facciale utilizzato per individuare dei sospettati, algoritmi che supportano le decisioni dei giudici, e persino sistemi che valutano l’affidabilità di un creditore.

In questi casi è necessario che i legislatori valutino ogni specifico dettaglio dei contesti di utilizzo degli algoritmi di AI, producendo di conseguenza delle norme che non siano eccessivamente generiche e che evitino di produrre danni inaspettati.

Allo stesso tempo, però, per poter garantire l’introduzione di norme efficaci è necessario tenere in considerazione anche l’asimmetria informativa che investe l’analisi delle intelligenze artificiali.

Come suggerito in un articolo dell’Harvard Law Review Forum, spesso, di fronte alle nuove tecnologie, la legislazione si muove per reazione, applicando dapprima le norme preesistenti e riformando le leggi in un secondo momento, se necessario. Questo ad esempio è l’approccio utilizzato dalla Germania con la recente regolamentazione delle auto a guida autonoma, introdotta come un emendamento alla legge già esistente sul traffico stradale.

Allo stesso tempo, però, per poter garantire l’introduzione di norme efficaci è necessario tenere in considerazione anche l’asimmetria informativa che investe l’analisi delle intelligenze artificiali.

Spesso, solamente gli ingegneri che lavorano direttamente agli algoritmi possono avere un certo livello di comprensione dei loro effetti — pur riconoscendo che molti algoritmi sono incomprensibili persino ai loro creatori, soffrendo del cosiddetto effetto della scatola nera — mentre invece i legislatori si trovano a dover fare i conti, oltre che con queste complessità ed incertezze, anche con la dinamica economica che premia chiunque introduca per primo un prodotto sul mercato, con il rischio di creare una corsa forsennata per la nuova applicazione dell’AI.

Vista la natura innovativa e potenzialmente rivoluzionaria delle intelligenze artificiali, quindi, è necessario pensare alla legiferazione con un approccio più reattivo e flessibile, cercando di definire chiaramente quali saranno le sfide più importanti per il futuro, riconoscendo il ruolo che l’autonomia di questi sistemi giocherà nei processi decisionali, e prevedendo così un adeguamento delle leggi per un mondo in cui la vita degli esseri umani è direttamente toccata dall’AI.

Seguici su Facebook e Twitter.