Rat budućnosti: Teroristi će imati robote ubojice
Vodeći istraživači umjetne inteligencije bojkotirali su južno korejsko sveučilište nakon njihove suradnje s kompanijom u kreiranju "robota ubojica" za vojne svrhe. Otvoreno pismo poslano korejskom naprednom institutu za znanost i tehnologiju s 57 potpisa iz 30 država pokazuje kako istraživačka zajednica ne želi više surađivati s ovim sveučilištem dok na institutu razvijaju autonomno oružje.
"Žalosno je kako jedan tako prestižan institut želi ubrzati utrku u naoružanju kreiranjem takvog oružja. Ono ima potencijal da postane oružje terora. Teroristi i nasilnici ih mogu upotrijebiti protiv nedužnih ljudi, populacije, bez ikakvih etičkih ograničenja. Ovu Pandorinu kutiju bit će teško zatvoriti, ako se jednom otvori", stoji u spomenutom pismu.
Razmjere ove prijetnje neki sigurnosni stručnjaci usporedili su s onom Skyneta, izmišljenog sustava umjetne inteligencije koji se prvi put pojavio u filmu Terminator iz 1984. godine. Nakon što je postao svjestan samog sebe, Skynet je krenuo na put uništenja čovječanstva pomoću militariziranih robota, dronova i ratnih strojeva.
"Ako kombiniramo snažnu i rastuću umjetnu inteligenciju s nesigurnom robotskom tehnologijom, scenarij iz poznatog filma o Terminatoru ne čini se tako dalekim kao što je nekad bio", rekao je Lucas Apa, viši sigurnosni savjetnik tvrtke IOActive za Independent.
Apa je naglasio kako robotima prijeti mogućnost napada hakera ali i neispravnog rada, navodeći za primjer slučaj iz američke tvornice iz 2016. godine u kojem je jedan radnik smrtno stradao.
"Slično kao i u drugim tehnologijama, znamo kako je robotska tehnologija nesigurna po nizu segmenata. Zabrinjavajuće je što već razvijamo njihove vojne mogućnosti kada je zapravo sigurnost ovih sistema na klimavim nogama. Ako njihov sistem nastavi biti osjetljiv, ranjiv i tako podložan hakerskim napadima, roboti bi nas uskoro, umjesto pomaganja, mogli početi ozljeđivati", naglašava Apa.
Predsjednik spomenutog instituta Sung-Chul Shin oštro je odbacio optužbe i naglasio kako sveučilište "nema namjeru" razvoja smrtonosnog autonomnog oružja.
"Još jednom naglašavam kako sveučilište neće provoditi nikakve istraživačke aktivnosti koje su suprotne ljudskom dostojanstvu uključujući i rad na razvoju autonomnog oružja bez ljudske kontrole", naglasio je.
Nije to prvi put kako su akademici koji se bave umjetnom inteligencijom upozorili na opasnosti koja dolazi od naoružanih robota, pa su tako slično pismo poslali i kanadskom premijeru Justinu Trudeau prošle godine. Znanstvenici poput fizičara Stephena Hawkinga išli su tako daleko te naglašavali kako umjetna inteligencija ima potencijal uništenja civilizacije.
"Računala mogu, u teoriji, oponašati ljudsku inteligenciju i nadići ju. Umjetna inteligencija mogla bi biti najgori događaj u povijesti naše civilizacije. Donosi opasnost, poput snažnih autonomnih oružja i zapravo je novi način koji omogućava nekolicini da ugnjetava mnoge", rekao je Hawking prošle godine.