Kalifornija piše vlastita AI pravila – i ignorira Washington

Kalifornija piše vlastita AI pravila – i ignorira Washington📷 © Tech&Space
- ★Watermarking AI generiranog sadržaja postaje obavezan
- ★120 dana za nove AI certifikate državnih dobavljača
- ★Kalifornija preispituje federalne rizike u lancu opskrbe
Gavin Newsom je potpisao izvršnu naredbu koja ne samo da od državnih dobavljača zahtijeva garancije protiv zloupotrebe AI-ja, nego i uvodi obavezno watermarkiranje generiranih slika i videa. Ovaj korak federalna administracija do sada nije napravila, što Kaliforniju ističe kao pionira u regulaciji. Dok Pentagon označava Anthropic kao rizik u lancu opskrbe, Kalifornija najavljuje vlastitu procjenu takvih odluka.
To otvara pitanje: tko će imati posljednju riječ kad se radi o AI regulaciji? Problem je u tome što naredba, iako konkretna u zahtjevima poput zabrane generiranja ilegalnog sadržaja ili pojačavanja štetnih pristranosti, ostavlja ključne detalje na 120 dana. Do tada će državne agencije za nabavu i tehnologiju morati izraditi smjernice za AI certifikate.
To je dovoljno vremena da se iz 'strogih pravila' naprave birokratske formalnosti. Čak i watermarking, koji zvuči kao tehnički rješenje problema deepfake-ova, u praksi ovisi o tome tko će provjeravati podrijetlo sadržaja i koje će kazne biti za nepoštovanje. Za razliku od EU AI Acta, koji se muči s kompromisima između država članica, Kalifornija ovdje igra solo partiju.
I to s jasnom porukom: federalna politika je presporija od lokalnih potreba. No, kao i uvijek, đavo je u detaljima. Ako se certifikati pretvore u checkbox compliance bez stvarnih audita, ova naredba može postaviti lažni osjećaj sigurnosti umjesto stvarne zaštite.

Demo nasuprot deploymentu: tko će provjeravati provjeravatelje📷 © Tech&Space
Demo nasuprot deploymentu: tko će provjeravati provjeravatelje
Industrija već reagira podijeljeno na novu izvršnu naredbu. Startupi koji rade s državnim ugovorima primjećuju kako će novi zahtjevi povećati troškove ulaska na tržište. Veliki igrači poput Googlea ili Microsofta, koji već imaju compliance timove, mogu iskoristiti regulaciju kao barijeru za manju konkurenciju.
To nije slučajno: Kalifornija je dom 40% svih AI startupa u SAD-u, pa ima interesa držati kontrolu nad ekosustavom koji sama hrani. Zanimljivije od samih pravila je što nije uključeno. Nema jasnih kazni za nepoštovanje, nema detalja o tome kako će se provjeravati bias u modelima, a ni riječi o otvorenim modelima koji čine značajan dio AI infrastrukture.
Umjesto toga, fokus je na državne dobavljače – što znači da privatni sektor, osim ako ne radi s vladom, može nastaviti kao dosad. Drugim riječima, ova naredba je više politički gest nego potpun okvir. Pravi signal ovdje je u dinamici između savezne i državne razine.
Ako Kalifornija uspije nametnuti svoje standarde, druge savezne države će možda slijediti. To bi stvorilo mozaik regulacija umjesto jedinstvenog pristupa. Za developere to znači više posla s lokalizacijom modela, za korisnike potencijalno više zaštite, a za lobiste – novo igralište.
Ako se pokaže uspješnom, Kalifornijin pristup mogao bi postati model za druge države. Međutim, rizik je u tome što bi se regulacija mogla pretvoriti u praznu formalnost bez stvarne provedbe.