Claudeova zbrka: Pentagon ili sudovi – tko će odlučiti?

Claudeova zbrka: Pentagon ili sudovi – tko će odlučiti?📷 © Tech&Space
- ★Anthropic u legalnoj limbu
- ★Dva suda, dvije presude
- ★AI za vojsku pod znakom pitanja
Anthropic, startup koji stoji iza AI modela Claude, pronašao se u pravnoj no man’s land između dvije suprotne presude američkih sudova. U srijedu apelacijski sud u Washingtonu potvrdio je Pentagonovu odluku da Claude predstavlja „rizik za opskrbni lanac“, sukobljavajući se s presudom niže instance iz San Francisca koja je naredila ukidanje te oznake. Sudac iz Kalifornije ocijenio je da je Ministarstvo obrane djelovalo „u lošoj vjeri“, ali apelacijski sud nije se složio.
Rezultat? Claudeovi alati vraćeni su u upotrebu federalne vlasti nakon odluke iz San Francisca, ali samo privremeno – dok DC sud nije donio konačnu presudu. Za sada, tvrtka je praktički u pravnoj sivoj zoni, a najvažnije pitanje ostaje: može li američka vojska uopće koristiti ovaj AI model u sredini „značajnog vojnog sukoba“, kako navode tužitelji?
Pentagonova argumentacija nije tehnička – već strateška. „Prisiljavanje vojnih snaga da nastave suradnju s neželjenim dobavljačem kritičnih AI usluga“ značilo bi rizik za operativnu spremnost, naveo je predstavnik Ministarstva. No koliko je Claude zapravo nezamjenjiv? Wired navodi da se radi o jednom od rijetkih modela dovoljno robustnih za vojne svrhe, ali konkretni slučajevi upotrebe ostaju pod velom tajnosti.

Sudski sukob otvara pitanje tko zapravo kontrolira budućnost vojne AI📷 © Tech&Space
Sudski sukob otvara pitanje tko zapravo kontrolira budućnost vojne AI
Ovo nije samo pravna zbrka – već ogledalo šireg sukoba između regulatorne moći države i tehnoloških tvrtki. Anthropic je prva američka kompanija sankcionirana na temelju zakona koji se inače primjenjuju na strane opskrbne lance, što otvara pitanje jesu li ovakve mjere opravdane ili pretjerano restriktivne. Dok sudovi razrješavaju sukob, tvrtka gubi vrijeme i potencijalne ugovore, a konkurencija poput OpenAI-a ili Googleovog Geminija već nudi alternative.
Tehnička zajednica reagira suzdržano. Na GitHubu i forumima poput Hugging Facea, developeri ističu da Claudeove performanse u benchmarkovima ne podrazumijevaju automatsku superiornost u realnim scenarijima – pogotovo kad su u pitanju osjetljivi vojni scenariji. „Benchmark ≠ deployment“, napisao je jedan korisnik, podsjećajući da su mnogi AI alati optimizirani za laboratorijske uvjete, a ne bojišnicu.
Iako je pravni spor fokusiran isključivo na Claudea, industrijski promatrači već nagađaju hoće li ovaj presedan utjecati i na druge AI modele koji surađuju s vladinim institucijama. Ako apelacijski sud potvrdi Pentagonovu odluku, mogli bismo svjedočiti novom valu restrikcija nad domaćim AI tvrtkama – s neizvjesnim posljedicama za cijeli sektor. DoD Statement sugerira da se radi o prvom koraku u širem okviru kontrole nad „kritičnim tehnologijama“.
Za svu buku oko „kritične AI infrastrukture“, pravi pobjednici možda su oni koji su od početka radili na manje glamuroznim, ali pouzdanijim riješenjima. Ili, alternativno, oni koji su imali dovoljno utjecaja da izbjegnu sudske sale u potpunosti.