Crni svijet
175 prikaza

Umjetna inteligencija koje se Pentagon užasava: Tko je osnivač Anthropica?

1/4
REUTERS/PIXSELL
Dario Amodei stvorio je AI model koji, kaže, počiva na etičkim pretpostavkama. Tragična smrt oca odigrala je veliku ulogu u tome

Tvrtka za razvoj umjetne inteligencije (AI) Anthropic izjavila je da odbacuje ultimatum američkog ministarstva obrane o ukidanju ograničenja na njegovo korištenje Claude AI modela. Šef Anthropica Dario Amodei u četvrtak je izjavio da njegov startup za umjetnu inteligenciju "ne može mirne savjesti" popustiti ultimatumu Pentagona o ukidanju zaštitnih mjera na korištenje svojim AI sustavom za masovni domaći nadzor i potpuno autonomno oružje.

Pentagon "je izjavio da će ugovore sklapati samo s tvrtkama za umjetnu inteligenciju koje pristanu da se njihov alat koristi na 'sve zakonite načine' i koje ukinu zaštitne mjere u tom slučaju", rekao je Amodei u opširnoj objavi na blogu.

"Prijete da nas uklone iz svojih sustava ako zadržimo ove zaštitne mjere; također su zaprijetili da će nas proglasiti 'rizikom za lanac opskrbe'... i da će se pozvati na Zakon o obrambenoj proizvodnji kako bi nas prisilili na uklanjanje zaštitnih mjera", dodao je.

„Te posljednje dvije prijetnje su u srži suprotne jedna drugoj: jedna nas označava kao sigurnosni rizik; druga označava Claude kao ključan za nacionalnu sigurnost.“

Anthropic, startup koji su podržali Google i Amazon, 2025. je godine potpisao ugovor vrijedan 200 milijuna dolara s Pentagonom za „razvoj prototipa novih sposobnosti umjetne inteligencije za rješavanje kritičnih izazova nacionalne sigurnosti u područjima ratovanja i poslovanja.“ Glasnogovornik Pentagona obrane Sean Parnell ranije je u četvrtak rekao da ministarstvo „nema interesa koristiti umjetnu inteligenciju za provođenje masovnog nadzora Amerikanaca (što je ilegalno), niti želi koristiti umjetnu inteligenciju za razvoj autonomnog oružja koje djeluje bez ljudskog sudjelovanja.“

Parnell je rekao da Pentagon traži da mu se dopusti „korištenje Anthropicovog modela u sve zakonite svrhe“. Glasnogovornik kaže da tvrtka ima rok do 17:01 po lokalnom vremenu u petak da se uskladi s time. „U suprotnom ćemo prekinuti naše partnerstvo s Anthropicom i smatrati ih rizikom za lanac opskrbe.“

Američki novinski portal Axios citirao je Anthropic da je novi ugovorni tekst koji je poslao Pentagon usred pregovora "bio uparen s pravnim jezikom koji omogućuje da se te zaštitne mjere po volji zanemare", dodajući da su "mjesecima te uske zaštitne mjere bile srž naših pregovora". Pentagon nije zasad odgovorio na zahtjev za komentar, prenosi Axios.

Illustration shows Open AI and Anthropic logos | Author: DADO RUVIC/REUTERS DADO RUVIC/REUTERS

Kako je nastao Anthropic?

U svijetu umjetne inteligencije, gdje se divovi poput OpenAI-ja i Googlea bore za prevlast, Anthropic je tvrtka koja ne igra po istim pravilima. U veljači ove godine njena vrijednost dosegla je nevjerojatnih 380 milijardi dolara, čime je postala jedan od najvrjednijih startupa u povijesti. Ipak, ono što Anthropic izdvaja nisu samo milijarde na računu, već duboko ukorijenjena filozofija o sigurnosti i etici, filozofija koja je njihovog osnivača i direktora, Darija Amodeija, dovela u izravan sukob s Pentagonom.

Anthropic je službeno osnovan 2021. godine, no njegovi korijeni sežu dublje u srce same AI revolucije. Osnovali su ga brat i sestra, Dario i Daniela Amodei, zajedno s još nekolicinom ključnih istraživača koji su napustili OpenAI. Razlog? Duboko neslaganje oko smjera u kojem se OpenAI kretao nakon goleme investicije Microsofta. Dario Amodei, koji je u OpenAI-ju bio potpredsjednik za istraživanje i vodio razvoj revolucionarnih modela GPT-2 i GPT-3, postajao je sve zabrinutiji. Smatrao je da je fokus na brzu komercijalizaciju i "sjajne proizvode" gurnuo sigurnost i etička pitanja u drugi plan. Bojao se da se stvara tehnologija čije se posljedice ne mogu predvidjeti, a kamoli kontrolirati.

Grupa koja je otišla s Amodeijem dijelila je tu viziju. Umjesto klasične korporacije, osnovali su Anthropic kao Public Benefit Corporation (PBC), odnosno tvrtku za javnu dobrobit. Taj pravni status zakonski ih obvezuje da, uz ostvarivanje profita, prioritet daju dobrobiti za čovječanstvo. Unutar tvrtke osnovali su i neovisno tijelo,  koje ima ovlasti nadzirati upravni odbor i osigurati da tvrtka nikada ne skrene sa svoje misije, čak i pod pritiskom investitora. A investitori su brzo stigli.

Rođen u San Franciscu, Amodei je bio znanstveno čudo, doktorirao je biofiziku na Princetonu. No, ključni događaj koji ga je definirao bila je smrt njegovog oca. Riccardu Amodeiju, kako je pisao Business Insider,  dijagnosticirana je rijetka bolest, a preminuo je samo nekoliko godina prije nego što je znanstveni napredak omogućio lijek koji danas tu bolest čini izlječivom u 95 posto slučajeva. 

56th annual World Economic Forum (WEF) meeting in Davos | Author: DENIS BALIBOUSE/REUTERS Dario Amodei DENIS BALIBOUSE/REUTERS

Upravo zbog te osobne povijesti Amodei burno reagira na optužbe da je "katastrofičar" koji želi zaustaviti razvoj AI-ja. U jednom intervjuu, vidno uzrujan, objasnio je svoju poziciju.

​- Ljutim se kad mi netko kaže: 'Ovaj tip je katastrofičar. Želi usporiti stvari.' Čuli ste što sam rekao, otac mi je umro zbog lijekova koji su se mogli pojaviti nekoliko godina ranije. Razumijem prednosti ove tehnologije - rekao je.

Njegov stav je da želi stići do budućnosti u kojoj AI liječi bolesti i rješava najveće svjetske probleme, ali želi osigurati da na tom putu slučajno ne stvorimo nešto što će se okrenuti protiv nas. Ta filozofija ugrađena je u samu srž njihovog ključnog proizvoda, jezičnog modela Claude.

Što je to Claude i kakav je njegov "ustav"?

Claude je Anthropicov odgovor na ChatGPT i Gemini, obitelj jezičnih modela koja dolazi u tri verzije: Haiku (najbrži), Sonnet (uravnotežen) i Opus (najmoćniji). Ono što Claudea čini fundamentalno drugačijim nije samo njegova snaga, već način na koji je treniran. Dok se većina modela oslanja na metodu učenja kroz ljudske povratne informacije, Anthropic je razvio proces koji nazivaju "Constitutional AI" ili "Ustavna umjetna inteligencija".

Two covers of Time magazine's 2025 Person of the Year issue | Author: TIME/TIME Person of the Year/REU Amodei na naslovnici Timea s ostalim liderima tech revolucije TIME/TIME Person of the Year/REU

Umjesto da deseci tisuća ljudi ručno ocjenjuju odgovore modela, Claude je treniran prema "ustavu" – skupu etičkih načela izvedenih iz dokumenata poput Opće deklaracije o ljudskim pravima UN-a i drugih etičkih tekstova. Jedan primjerak Claudea generira odgovor, dok ga drugi primjerak kritizira na temelju tog ustava. Na taj način, AI uči sam sebe ispravljati kako bi njegovi odgovori uvijek bili korisni, iskreni i bezopasni. To proces čini transparentnijim i skalabilnijim, smanjujući rizik od ljudskih predrasuda.

Fokus na poslovne korisnike, posebno kroz alate Claude Code i Claude Cowork, pokazao se kao pun pogodak. Prihodi Anthropica su eksplodirali. No, upravo je taj uspjeh privukao pozornost američkog Ministarstva obrane.

Komentiraj, znaš da želiš!

Za komentiranje je potrebno prijaviti se. Nemaš korisnički račun? Registracija je brza i jednostavna, registriraj se i uključi se u raspravu.