Vojska protiv same sebe: Pentagonov potez protiv Anthropica ide loše

Vojska protiv same sebe: Pentagonov potez protiv Anthropica ide loše📷 © Tech&Space
- ★Sudac blokirao Pentagonovo klasificiranje
- ★Anthropicov AI ostaju u uporabi
- ★Prvi amandman ugrožen
Sudac Rita Lin dalekosežno je blokirala Pentagonovo nastojanje da označi Anthropic kao rizik za opskrbni lanac, i čitavom je presudom izložila proceduralne slabosti američke vojske. Svoju je 43-stranu odluku objavila bez oklijevanja, navodeći kako je Pentagon previše otišao u klasifikaciju bez dokaza, pa čak ni vlada nije mogla pronaći nikakav 'kill switch' u Anthropicovim modelima.
S druge strane, vojska je uporno tvrdila kako je takva odluka nužna zbog navodnih sigurnosnih rupa — iako nikakvi konkretni dokazi nisu priloženi. Bitno je naglasiti kako je vojska koristila Anthropicov Claude AI još 2025. godine bez ikakvih pritužbi, sve dok nije došlo do prijedloga za izravno ugovaranje.
Tada je ministar obrane Pete Hegseth bez oklijevanja zaprijetio klasifikacijom, unatoč činjenici da Zakonom naređene procedure nisu ni započete. Sudac Lin je čak naglasila kako je ovakva odluka mogla ugroziti prava tvrtke prema Prvom amandmanu, što bi u tech industriji moglo postaviti opasan presedan.
Anthropicova stvarna snaga leži u tome što su njihovi modeli već integrirani u brojne američke vladine sustave, unatoč Pentagonovim pokušajima da ih marginaliziraju. Jared Kaplan, koosnivač tvrtke, oštro je kritizirao vojsku zbog pokušaja masovnog nadzora Amerikanaca i razvoja smrtonosnih autonomnih oružja, što bi kompaniju moglo učiniti nepoželjnim partnerom za buduće državne projekte.

Pogrešno klasificiranje kao tehnika kulturne kontrole📷 © Tech&Space
Pogrešno klasificiranje kao tehnika kulturne kontrole
Iako je privremena blokada samo prvi udarac Pentagonovoj strategiji, ustanovljeno je kako vojska nije imala nikakvih tehničkih argumenata za svoje tvrdnje. Sedam dana koliko imaju za žalbu više nisu ništa drugo doli brojač do sljedeće bitke — Anthropic ima drugi slučaj protiv klasifikacije, koji bi mogao biti presudan za sudsku praksu u AI industriji.
Kakva god bila odluka žalbenog suda, očito je da je vojska otišla previše daleko u pokušaju kontrole nad tech industrijom. Za hrvatsku AI scenu ovo nije tek neki daleki američki problem, već signal da i ovdje moramo biti oprezni.
Donošenje odluka o AI tehnologiji na temelju ideoloških ili političkih ciljeva, umjesto tehničkih dokaza, može ugroziti konkurentnost naših kompanija. Ako vojska može tako neodgovorno postupati s partnerima poput Anthropica, što će onda biti s manjim actorima koji nisu u stanju podnijeti sudske tužbe?
Anthropicovo preživljavanje u ovom sukobu moglo bi postati test za većinu AI kompanija: hoće li tehnologija biti odgovorna zbog svog potencijala, ili će politički pritisci nadjačati stručnost?