FYI.

This story is over 5 years old.

Știință și tehnologie

De ce cred unii că inteligența artificială ar putea fi folosită în scopuri malefice

26 de cercetători au contribuit la un raport despre pericolele inteligenței artificiale supraumane.
Imagine: Shutterstock

Când ne gândim la inteligență artificială, ne gândim de obicei la Siri sau Alexa, dar adevărul e că inteligența artificială e peste tot în jurul nostru. Și arată foarte diferit de cea pe care și-au imaginat-o filmele hollywoodiene precum Deus Ex Machina sau Her. De fapt, inteligența artificială de azi este, în marea ei majoritate, destul de proastă în comparație cu creierul uman – un algoritm poate să depășească un om la un joc de Go, dar, în același timp, e posibil să dea greș la o sarcină mai simplă. De exemplu, e posibil să nu poată face diferența între o broască țestoasă și o armă.

Publicitate

Totuși, un grup de 26 de cercetători experți în IA s-au întâlnit în Oxford ca să discute cum ar putea fi folosită inteligența artificială supraumană în scopuri malefice în viitor. Rezultatul acestei conferințe de două zile a fost un raport de o sută de pagini despre riscurile cazurilor în care inteligența artificială cade pe mâini greșite și strategiile de reducere a acestor riscuri.

Una dintre cele patru recomandări importante făcute de grupul de lucru a fost ca „inginerii și cercetătorii din câmpul inteligenței artificiale să ia foarte în serios natura duală a muncii lor și să prevină utilizarea creațiilor lor în scopuri malefice.”

Această recomandare e relevantă în special în lumina fenomenului „deepfakes”, o aplicație care e folosită, în ultimul timp, pentru a pune fețele actrițelor de la Hollywood pe corpuri de actrițe porno în scene din filme pornografice. Aceste deepfakes, despre care a scris prima oară Sam Cole de la Motherboard, au ajuns să fie posibile prin adaptarea unei librării de învățare automatizată numită TensorFlow, dezvoltată inițial de inginerii Google. Deepfakes subliniază natura duală a instrumentelor de învățare automatizată și ridică întrebări despre persoanele care ar trebui să aibă acces la aceste instrumente.

Cercetătorii accentuează în raport și utilizarea unor tehnici similare pentru a manipula videoclipuri cu lideri mondiali ca pe o amenințare pentru securitatea politică, unul dintre cele trei domenii principale amenințate de inteligența artificială. Cred că îți poți imagina ce dezastru ar ieși dacă în Coreea de Nord ar fi distribuit un videoclip fals cu Trump care îi declară război Coreei. În plus, cercetătorii au avertizat că IA poate fi folosită pentru supraveghere în masă și convingerea maselor prin propagandă politică.

Publicitate

Celelalte două zone de risc major pentru IA malițioasă sunt securitatea digitală și fizică. În domeniul securității digitale, IA ar putea fi folosită pentru comiterea unor atacuri cibernetice precum phishing-ul sau utilizarea sintezei de vorbire pentru impersonarea unei victime.

Cât despre amenințările IA pentru securitatea fizică, oamenii de știință au analizat cât de mult a început să se bazeze lumea fizică pe sistemele automatizate. Pe măsură ce apar tot mai multe case inteligente și mașini cu pilot automat, IA ar putea fi folosită pentru virusarea acestor sisteme, ceea ce poate cauza daune catastrofice. Apoi mai există și amenințarea sistemelor de IA intenționat malițioase, precum armele autonome sau roiurile de micro-drone.

Unele dintre aceste scenarii, precum roiurile de micro-drone, par cam exagerate, pe când altele, precum atacurile cibernetice la scară mare, armele autonome sau manipularea video cauzează deja probleme. Ca să combatem aceste amenințări și să ne asigurăm că IA e utilizată în beneficiul umanității, cercetătorii recomandă dezvoltarea de politici noi și explorarea mai multor modele de distribuire opensource pentru a reduce riscurile IA. De exemplu, cercetătorii sugerează că niște modele de centralizare a licențelor ar putea împiedica tehnologiile IA să cadă în mâinile greșite.

„În prezent, se încurajează accesul tuturor oamenilor la cele mai noi tehnologii. Dar dacă acest trend va continua în următorii cinci ani, și capacitatea atacatorilor de a face rău prin sistemele digitale și robotice va crește semnificativ”, au scris autorii studiului.

Pe de altă parte, cercetătorii recunosc că proliferarea tehnologiilor IA open-source va atrage tot mai mult atenția legislatorilor, care vor impune limitări acestor tehnologii. Cât despre formele specifice pe care le vor lua aceste politici, acestea vor fi stabilite la nivel local, național și internațional.

„Sunt multe dezacorduri între co-autorii acestui raport și între comunitățile de experți din toată lumea”, concluzionează raportul. Multe dintre acestea nu se vor rezolva decât după ce vom obține mai multe informații pe măsură ce aceste amenințări prind formă, dar această nesiguranță și neînțelegerile dintre experți nu trebuie să ne împiedice să luăm măsuri preventive încă de azi.”