Ratovi budućnosti: Države već stvaraju robote ubojice
Bio je hladan, snježni dan na granici Estonije i Rusije. Vojnici provode rutinsku patrolu s jedne i druge strane, uz autonomne sisteme naoružanja. Prati ih robot naoružan strojnicom i optičkim sistemom koji može identificirati prijetnju, ljude ili vozila. I dok se patrole približavaju neravnom terenu, estonski vojnik spotaknuo se i slučajno opalio svojom borbenom puškom. Ruski robot snimio je pucnjeve i u trenutku donio odluku reakcije na ono što je doživio kao napad. Za manje od sekunde, i ruski i estonski robot, kojima zapovijedaju algoritmi, okrenuli su oružja na ljudske mete i otvorili vatru. Kada je pucnjava prestala, deseci mrtvih ili ranjenih vojnika, ležali su oko njihovih kolega vojnika, ratnika robota. Dvije strane ostale su stajati, robotske strane, kako bi razmišljali ili okrivljavali jedni druge za napad.
Iako se ovaj hipotetski scenariji čini kao scena iz nekog SF filma, takvi ratni, vojni roboti već postoje, u svojoj najranijoj formi. Milrem Robotics, kompanija bazirana u Estoniji, razvila je robota nazvanog THeMIS (Tracked Hybrid Modular Infantry System). Ovaj se robotski vojnik sastoji od mobilnog tijela na malom tanku, sa kupolom na vrhu, za upravljanje na daljinu sa oružjem manjeg ili većeg kalibra.
Uključuje i kamere i softvere za praćenje meta, kako bi ta 'kupola' mogla pratiti ljude ili objekte, kako je i programirana. Zasada ovim sistemom upravljaju ljudi, a u slučaju Milrema, njegovi kreatori inzistiraju da to i ostane tako. No komponente su namijenjene robotu koji može interpretirati što vidi, identificirat moguće vojnike i naciljati ih. I to sve samostalno.
"Mogućnost upotrebe THeMIS-a je bezgranična", stoji na stranici njihovih proizvođača.
Napredak u razvoju tehnologije, posebno umjetne tehnologije, doveo je i obrambene snage diljem svijeta pred vrata nove budućnosti na ratištu, one u kojoj će glavnu ulogu imati vojnici roboti, koji će ljude ubijati bez ikakve potrebe za ljuskom uputom. Tako bi se mogla izmijeniti ona odluka o upotrebi ili izbjegavanju upotrebe smrtonosnog oružja u borbi, koju su dosada najčešće donosili ljudi.
Rusija, Kina i SAD rade na autonomnim platformama koje bi trebale upariti oružje sa senzorima i kompjuterima. Velika Britanija i Izrael već koriste oružja koja imaju autonomne karakteristike, rakete i dronove koji mogu pronaći i napasti protivničke radare, vozila ili brodove, bez potrebe za ljudskom odlukom, naredbom za otvaranje paljbe, piše The New York Times.
Upravo to moralno dvojbeno pitanje, mogu li i trebaju li vojne snage odluku o oduzimanju života prepustiti rukama robota, i dalje ostaje predmet dogovora između niza organizacija za zaštitu ljudskih prava, vojnih dužnosnika, analitičara. Tehnologija koja bi trebala i mogla identificirati i osvojiti, sasvim nezavisno, određene ciljeve, postoji u svojoj temeljnoj formi već desetljećima. 80-ih i 90-ih godina prošlog stoljeća u SAD-u se eksperimentiralo sa projektilima Harpoon i Tomahawk koji su mogli nezavisno identificirati mete, a koje se koriste i danas, ipak uz ljudski nadzor.
Najnaprednije američko oružje fokusiralo se na obrambenu aplikaciju, primjenu. Za vrijeme napada u Iraku 2003. godine, američka vojska razvila je Counter-Rocket, Artillery and Mortar system (C-RAM) 20mm top koji može identificirati zračnu prijetnju, upozoriti ljudskog upravljača i uz jedan pritisak gumba, pronaći i uništiti prijetnju napadom specijalne municije koja se uništava u zraku kako bi umanjila štetu prijateljskom osoblju ili civilima ispod.
Takvo oružje bazira se na pomorskom sustavu pištolja Phalanx, koji se smatra posljednjom linijom obrane protiv protubrodskih raketa. Posebno primjenu imale su za vrijeme napetosti koja je vlada tijekom Hladnog rata.
"Kada je došlo do velikih plotuna, nije bilo moguće reći samo OK, morate najprije skinuti ovaj projektil. S tim se ljudi u borbenom informacijskom centru nisu mogli nositi", rekao je Robert Work, iz centra za New American Security u Washingtonu.
Zato je kreiran Phalanx i Aegis borbeni sistem, koji uz pomoć senzora na brodovima i letjelicama mogu identificirati prijetnju i automatski napasti. Programirani su, kako kaže Work "kako bi imali automatske postavke, i čovjeka koji samo pritišće gumb nakon što je stroj donio odluku".
Njihova funkcionalnost ovisi zapravo o njihovoj autonomnosti, posebno smrtonosni su oni sistemi koji bi bila nezavisni i sami odlučivala koga i što uništiti. Kao zamjenik ministra obrane Work je od 2014. do 2017. godine provodio jednu o strategija Pentagona koja je trebala američkoj vojsci osigurati veliku prednost na bojištu uz pomoć inovativnih tehnologija, tog temelja razvoja američke vojske. Third Offset Strategy trebala je utjecati na umjetnu inteligenciju i autonomiju strojeva i kreirati pametniju, bržu mrežu integriranih ljudi i strojeva.
Trebali su oni i promatrati kako ostale države, ali i neki drugi pojedinci, razvijaju svoje autonomne mogućnosti, od niza vozila, tenkova ili raketnih baterija.
Agencija Ministarstva obrane SAD-a DARPA odgovorna je za razvoj novih tehnologija za vojsku SAD-a i kroz program nazvan CODE, koji bi trebao omogućiti grupi dronova da rade u bliskim zajedničkim timovima, čak i na mjestima gdje GPS, i ostala komunikacija ne funkcionira.
"Njemu nije cilj stvoriti autonomno oružje već se zapravo prilagoditi svijetu u kojem ćemo imati grupe robota koji funkcioniraju zajedno i djeluju pd nadzorom jedne osobe, supervizora. Usporedili su to sa čoporom vukova koji kreću u potragu za hranom", smatra Paul Scharre, autor Army of None: Autonomous Weapons and the Future of War.
Dronovi svoju samostalnost pokazuju time što su programirani za improvizaciju i prilagodbu dok su u potrazi za ostvarenjem ciljeva svoje misije.
"Nije to poput programa Tomahawk u koje se unesete koordinate i pošaljete projektil. Dronovi moraju biti u mogućnosti sami pretraživati područje i pronalaziti ciljeve dok su u pokretu", naglašava Scharre.
Ta tzv. 'lunjajući municija', dron koji može samostalno letjeti u potrazi za nekim signalima prije nego pronađe metu i u nju se zabije, uništi ju u eksploziji. Takav je Harpy, izraelsko oružje, dizajniran da pronađe i uništi neprijateljske radarske stanice. Postao je to i veliki problem u odnosima sa SAD-om kada su krajem 90-ih neki primjerci prodani u Kinu. Sličnu municiju proizveli su u nekoliko zemalja, uključujući i Slovačku i SAD.
Što bi moglo ići u prilog smrtonosnog i neovisnog oružja?
U ratnim stanjima, kada im je ugrožen život, ljudi su skloni učiniti pogrešku. Autonomna oružja u puno manjoj mjeri. Roboti u milisekundi mogu pregledati količinu informacija koju mi možda nećemo vidjeti cijelog života i donijeti odluku kako reagirati, što napraviti kako bi umanjili broj kolateralnih žrtava.
Slično je i sa autonomnim vozilima pa tako i moderno oružje i vozilo bez vozača navigiraju kompleksnim okruženjem bez umora, distrakcija i ostalih ljudskih karakteristika koje mogu dovesti do kobnih pogrešaka. No kako se pokazalo u primjerima autonomnih vozila inteligentni strojevi svijet će interpretirati i doživjeti drugačije od ljudi.
Smrtnih slučajeva prilikom testiranja takvih modela bilo je niz, a među posljednjim je onaj slučaj Uberovog autonomnog vozila koji je usmrtio pješakinju, jer ju nije prepoznao, nije doživio čovjekom kojeg treba sačuvati. I oni koji su njihovi obožavatelji i zagovornici kažu kako nitko zapravo ne može predvidjeti kako će se roboti ponašati, i da to mogu biti dosada neviđeni načini. I da naravno može doći do pogrešaka.
Ta mogućnost i opasnost koju smrtonosni strojevi mogu donijeti u već krvave sukobe zahtijevat će kooperativne mjere između nacija naoružanih robotom. UN je već započeo razgovore o ovm pitanju, tj. o mogućnosti i potrebi regulacije smrtonosnih autonomnih sistema. Postavljeni su temeljni principi po kojima je čovjek odgovoran za svako oružje tijekom njegovog 'životnog vijeka'. Ovoga mjeseca UN bi trebao izdati finalno izvješće sa preporukama za buduće akcije.
Osim predstavnika država sastancima su prisustvovali i aktivisti, a među njima i Mary Wareham iz Human Rights Watch, globalna koordinatorica kampanje Stop Killer Robots pokrenute 2013. godine.
"Fokusirali smo se na dvije stvari koje želimo da ostanu pod potrebnom i važnom ljudskom kontrolom. A to su identifikacija i selekcija meta i upotreba sile, smrtonosne ili bilo koje druge", naglašava. Mnogi tako smatraju da u tim slučajevima jedino ljudska prosuda, procjena, može donijeti odluku i tu ključnu razliku između neprijatelja i civila.
"Način na koji pristupamo ratovanju pokazuje naš način na koji donosimo odluke koje su moralne ili nemoralne", kaže Pauline Shanks Kaurin, sa U.S. Naval War College.
2015. godine Steve Wozniak i Elon Musk, uz Stephena Hawkinga i više od 1000 ostalih stručnjaka i znanstvenika potpisali su otvoreno pismo kojim su upozorili kako će "autonomna oružja postati Kalašnjikovi budućnosti, idealni za ispunjavanje zadataka atentata, destabilizacije, i selektivnog ubojstva pojedine etničke grupe".
Među potpisnicima su i neki istraživači na polju umjetne inteligencije iz Googlea koji su i ove godine izdali svoje izjavu u kojoj naglašavaju kako odbijaju razvijati "oružje ili ostale tehnologije čiji će cilj postojanja ili implementacije uzrokovati ili izravno dovesti od ozljeđivanja ljudi".
Work tako smatra da će pitanje morala u slučaju SAD zapravo oblikovati njihovi protivnici, a možda će u budućnosti upravo oni biti manje opterećeni moralom, i tom smrtonosnom upravljačkom silom.
"No do toga imamo još puno vremena, i puno vremena za razmišljanje i da poduzmemo neku akciju, udemo sigurni da kontroliramo sva oružja", naglašava.