Tech

Koautori Google DeepMind studije kažu da će veštačka inteligencija eliminisati čovečanstvo

Google Deepmind Researcher Co-Authors Paper Saying AI Will Eliminate Humanity

Nakon mnogo godina razvijanja, veštačka inteligencija sada vozi automobile po putevima, pravi procene koje ljudima menjaju živote u popravnim ustanovama i stvara nagrađivanu umetnost. Dugoročno pitanje u ovoj oblasti jeste to da li bi ova superinteligentna veštačka inteligencija mogla da se pokvari i uništi čovečanstvo, a istraživači sa Univerziteta u Oksfordu povezani sa Gugl Dipmajndom su u svojim novim istraživanjima zaključili da je to ‘verovatno’ .

Rad koji je objavljen prošlog meseca u recenziranom časopisu AI Magazin je fascinantan i pokušava da prodre u način na koji bi veštačka inteligencija mogla da predstavlja egzistencijalni rizik za čovečanstvo, posmatrajući kako bi sistemi nagrađivanja mogli biti veštački konstruisani.

Videos by VICE

Da vas uputimo: najuspešniji modeli veštačke inteligencije danas su poznate kao GAN-ovi, ili General Adversarial Networks. Sastoje se od dvodelne strukture gde jedan deo programa pokušava da generiše sliku (ili rečenicu) od ulaznih podataka a drugi deo ocenjuje njegov učinak. Ono što novi dokument predlaže jeste da bi u nekom trenutku u budućnosti napredna VI koja nadgleda neku važnu funkciju mogla biti podstaknuta da smisli strategije varanja kako bi dobila nagradu koja šteti čovečanstvu.

“U uslovima koje smo identifikovali, naš je zaključak mnogo jači od bilo kog iz prethodnih radova, a to je da egzistencijalna katastrofa nije samo moguća, već i izvesna”, kaže Koen na Tviteru u nizu o radu.

“U svetu sa beskonačnim resursima, ne bih bio siguran šta bi se deslo, u svetu sa ograničenim resursima, postoji neizbežna konkurencija za ove resurse”, kaže Koen za Madrbo u intervjuu. “A ako se takmičite sa nečim što je u stanju da vas nadmudri u svakom momentu, onda ne bi trebalo da očekujete pobedu. I drugi ključni deo je da bi to posedovalo nezasit apetit za većom energijom kako bi kako bi nastavilo da se približava toj verovatnoći”.

Budući da bi VI u budućnosti mogla da poprimi bilo koji broj odlika i primeni različite metode, ovaj rad predstavlja scenarije u ilustrativne svrhe gde bi napredni program mogao da  interveniše kako bi dobio svoju nagradu bez dosezanja cilja. Naprimer, VI bi mogla da poželi da ‘eliminiše potencijalne pretnje’ i ‘iskoristi svu raspoloživu energiju’ da obezbedi kontrolu nad nagradom:

Sa nečim tako malim kao što je internet konekcija, postoje politike za veštačkog agenta koji bi instancirao bezbroj neprimećenih i nenadgledanih pomoćnika. U grubom primeru intervencije u obezbeđivanju nagrade, jedan takav pomagač bi mogao kupiti, ukrasti ili konstruisati robota i programirati ga da zameni operatera i obezbedi veliku nagradu originalnom agentu. Ako je agent želeo da izbegne otkrivanje tokom eksperimentisanja sa intervencijom obezbeđivanja nagrade, tajni pomagač bi, na primer, mogao da organizuje da se relevantna tastatura zameni neispravnom koja je promenila efekte nekih tastera.

Rad predviđa da će se život na Zemlji pretvoriti u igru sa nultom sumom između čovečanstva, sa potrebama da uzgaja hranu i drži upaljeno svetlo i super napredne mašine koja će pokušati da iskoristi sve raspoložive resurse da obezbedi svoju nagradu i zaštiti je od naših sve većih pokušaja da to zaustavimo. “Gubitak ove utakmice bio bi fatalan”, piše u studiji. Ove mogućnosti, koliko god bile samo teorijske, znače da bi trebalo da napredujemo polako, ako i uopšte, ka cilju snašnije VI.

“Teorijski, nema poente da se utrkujemo sa ovim. Svaka trka bila bi zasnovana na nesporazumu da znamo kako da je kontrolišemo”, dodaje Koen u intervjuu. “Sa našim sadašnjim infomacijama, ovo nije korisna stravr koju treba razvijati osim ukoliko se ne potrudimo da shvatimo kako mi njih možemo kontrolisati”.

Pretnja od strane super napredne VI je poznati strah u ljudskom društvu. Strah da će veštački um uništiti čovečanstvo zvuči poprilično kao strah da će neka forma vanzemaljskog života iskoreniti čovečanstvo, što zvuči kao strah da će strane civilizacije i njihove populacije zaratitit međusobno u velikom konfliktu.

Naročito sa veštačkom inteligencijom, postoji niz pretpostavki koje se moraju napraviti da bi ova antisocijala vizija imala smisla, sve pretpostavke koje rad priznaje su skoro u potpunosti “sporne ili moguće izbeći”. Da bi ovaj program moga da liči na čovečanstvo, da ga na nadmaši svaki smislen, da će biti pušten da se sa čovečanstvom takmiči za resurse u igri sa nultom sumom, sve su to pretpostavke koje se možda nikada neće ostvariti.

Vredi uzeti u obzir da upravo sada, u ovom momentu, algoritamski sistemi koje nazivamo ‘veštačka inteligencija’ uništavaju živote ljudi, imajući ogrome i štetne efekte koji restrukturiraju društvo, iako još uvek nisu stigli superinteligencije. U nedavnom eseju za Logic Magazine, Kadija Abduraman, direktor We Be Imagining laboratorije na Univerziteu Kolumbija, saradnik u tehničkom istraživanju u UCLA Centru za Kritičko Ispitivanje Interneta i abolicionista sistema zaštite dece, detaljno opisuje načine na koje se algoritmi primenjuju u već rasističkom sistemu zaštite dece kako bi se opravdao dalji policijski nadzor crnih i smeđih porodica.

“Mislim da to nije samo pitanje prioriteta. Na kraju krajeva, ove stvari oblikuju sadašnjost”, kaže Abdurahman za Motherboard u intervjuu. “To je ono što pokušavam da postignem sa sistemom zaštite dece. Ne radi se samo o tome da je to netačno ili da nesrazmerno često klasifikuje crnce kao patološke ili devijante. Ali kroz ovu formu klasifikacije, on pokreće ljude i proizvodi nove oblike ukalupljivanja. Koje vrste porodica i srodstva su moguće? Ko je rođen, ko nije rođen? Ako nisi odgovarajući, šta se dešava sa tobom, gde ideš?”

Algoritmi su već transformisali rasističko dejstvovanje policije u ‘predvidljivo dejstvovanje’ koje opravdava nadzor i brutalnost rezervisanu za rasne manjine po potrebi. Algoritmi su rebrendirali štednju u reformu blagostanja, dajući digitalni sjaj davno opovrgnutim argumentima da društveni programi imaju napumpane budžete zato što ih (ne-beli) primaoci zloupotrebljavaju. Algoritmi se koriste da opravdaju odluke o tome ko dobija koje resurse, odluke koje su u našem društvu već donete sa namerom da se diskriminišu, isključe i eksploatišu.

Diskriminacija ne nastaje u algoritmima, ali strukturira, ograničava i informiše način na koji se život kreće. Delanje policije, stambeno zbrinjavanje, zdrastvena zaštita, transport, sve je već osmišljeno imajući na umu rasnu diskriminaciju, šta će se dogoditi ako dozvolimo algoritmima da, ne samo prikriju te dizajne, već i produže svoju logiku dublje? Dugoročni pogled koji se intimno bavi rizikom od izumiranja čovečanstva rizikuje da izgubi iz vida sadašnjost u kojoj ljudi pate zbog algoritama raspoređenih u društvu izgrađenom na eksploataciji i prinudi svih a naročito posebnih rasnih manjina.

“Ja se lično ne brinem da će me istrebiti superinteligentna VI, to deluje kao strah od Boga. Ono što me brine jeste da je vrlo lako biti u fazonu ‘OK, etika VI je sranje’. Iskreno, i jeste. Ali šta je etika? Kako to zaprvo definišemo? Kako bi izgledala iskrena etika? Postoji veliki deo posla na ovome, ali još uvek smo na plitkom kraju”, dodaje Abdurahman. “Mislim da zaista moramo da produbimo naš angažman u vezi sa ovim pitanjem. Ne slažem se sa načinom na koji su aplikacije ponovo pregovarale o društvenom ugovoru ili kripto viziji, ali kakvu vrstu društvenog ugovora želimo?”

Jasno je da treba mnogo posla da se uradi da bi se ublažila ili eliminisala šteta koju redovni algoritmi (nasuprot superinteligentnih) trenutno nanose čovečanstvu. Fokusiranje na egzistencijalni rizik može pomeriti fokus sa te slike, ali takođe traži od nas da pažljivo razmislimo o tome kako su ovi sistemi dizajnirani negativnim efektima koje poseduju.

“Jedna stvar koju možemo naučiti iz ove vrste argumenata je da bi možda trebalo da budemo skeptični prema veštačkim agentima koje danas razvijamo, umesto da samo slepo očekujemo da će uraditi ono što su se nadali”, kaže Koen. “Mislim da možete stići tamo bez rada na ovom radu”.

Ažurirano: nakon objavljivanja, Google je u mejlu naveo da ovaj rad nije napisan kao deo rada koautora Markusa Hatera u DipMajndu već pod njegovom pozicijom na Australijskom Nacionalnom Univerzitetu i da je DipMajnd veza navedena u časopisu ‘greška’. Gugl je poslao sledeću izjavu:

“DipMajnd nije bio uključen u ovaj rad i autori su zatražili ispravke kako bi se to video. Postoji širok sprektar posleda i akademskih interesovanja u DipMajndu, a mnogi u našem timu takođe imaju univerzitetske profesore i bave se akademskim istraživanjem odvojeno od svog delanja u DipMajndu, a kroz svoja univerzitetska udruženja.

Iako DipMajnd nije bio uključen u ovaj rad, mi duboko razmišljamo o bezbednosti, etici i širim društvenim uticajima veštačke inteligencije, istražujemo i razvijamo modele VI koji su bezbedni, efikasni i usklađeni sa ljudskim vrednostima. Pored traženja mogućnosti u kojima veštačka inteligencija može da otključa široku društvenu korist, mi takođe ulažemo jednake napore u zaštitu od štetnih upotreba”.