Umjetna inteligencijadb#2393

Kalifornija piše vlastita AI pravila – i ignorira Washington

(2d ago)
Sacramento, Kalifornija, SAD
the-decoder.com
Kalifornija piše vlastita AI pravila – i ignorira Washington

Kalifornija piše vlastita AI pravila – i ignorira Washington📷 © Tech&Space

  • Watermarking AI generiranog sadržaja postaje obavezan
  • 120 dana za nove AI certifikate državnih dobavljača
  • Kalifornija preispituje federalne rizike u lancu opskrbe

Gavin Newsom je potpisao izvršnu naredbu koja ne samo da od državnih dobavljača zahtijeva garancije protiv zloupotrebe AI-ja, nego i uvodi obavezno watermarkiranje generiranih slika i videa. Ovaj korak federalna administracija do sada nije napravila, što Kaliforniju ističe kao pionira u regulaciji. Dok Pentagon označava Anthropic kao rizik u lancu opskrbe, Kalifornija najavljuje vlastitu procjenu takvih odluka.

To otvara pitanje: tko će imati posljednju riječ kad se radi o AI regulaciji? Problem je u tome što naredba, iako konkretna u zahtjevima poput zabrane generiranja ilegalnog sadržaja ili pojačavanja štetnih pristranosti, ostavlja ključne detalje na 120 dana. Do tada će državne agencije za nabavu i tehnologiju morati izraditi smjernice za AI certifikate.

To je dovoljno vremena da se iz 'strogih pravila' naprave birokratske formalnosti. Čak i watermarking, koji zvuči kao tehnički rješenje problema deepfake-ova, u praksi ovisi o tome tko će provjeravati podrijetlo sadržaja i koje će kazne biti za nepoštovanje. Za razliku od EU AI Acta, koji se muči s kompromisima između država članica, Kalifornija ovdje igra solo partiju.

I to s jasnom porukom: federalna politika je presporija od lokalnih potreba. No, kao i uvijek, đavo je u detaljima. Ako se certifikati pretvore u checkbox compliance bez stvarnih audita, ova naredba može postaviti lažni osjećaj sigurnosti umjesto stvarne zaštite.

Demo nasuprot deploymentu: tko će provjeravati provjeravatelje

Demo nasuprot deploymentu: tko će provjeravati provjeravatelje📷 © Tech&Space

Demo nasuprot deploymentu: tko će provjeravati provjeravatelje

Industrija već reagira podijeljeno na novu izvršnu naredbu. Startupi koji rade s državnim ugovorima primjećuju kako će novi zahtjevi povećati troškove ulaska na tržište. Veliki igrači poput Googlea ili Microsofta, koji već imaju compliance timove, mogu iskoristiti regulaciju kao barijeru za manju konkurenciju.

To nije slučajno: Kalifornija je dom 40% svih AI startupa u SAD-u, pa ima interesa držati kontrolu nad ekosustavom koji sama hrani. Zanimljivije od samih pravila je što nije uključeno. Nema jasnih kazni za nepoštovanje, nema detalja o tome kako će se provjeravati bias u modelima, a ni riječi o otvorenim modelima koji čine značajan dio AI infrastrukture.

Umjesto toga, fokus je na državne dobavljače – što znači da privatni sektor, osim ako ne radi s vladom, može nastaviti kao dosad. Drugim riječima, ova naredba je više politički gest nego potpun okvir. Pravi signal ovdje je u dinamici između savezne i državne razine.

Ako Kalifornija uspije nametnuti svoje standarde, druge savezne države će možda slijediti. To bi stvorilo mozaik regulacija umjesto jedinstvenog pristupa. Za developere to znači više posla s lokalizacijom modela, za korisnike potencijalno više zaštite, a za lobiste – novo igralište.

Ako se pokaže uspješnom, Kalifornijin pristup mogao bi postati model za druge države. Međutim, rizik je u tome što bi se regulacija mogla pretvoriti u praznu formalnost bez stvarne provedbe.

CaliforniaAI RegulationDeployment

//Comments

RoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIDisney’s $1B AI bet collapses before the first frameMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskAIMistral’s tiny speech model fits on a watch—so what?MedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realityAIPorn’s AI Clones Aren’t Immortal—Just Better PackagedMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveAIGitHub’s Copilot data grab: opt-out or be trainedMedicineRNA Sequencing UnifiesAIAI’s dirty little secret: secure by default is a mythSpaceEarth Formed From Inner Solar SystemAI$70M for AI code verification—because shipping works, not just generating itSpaceYouTube’s AI cloning tool exposes a deeper problemAIAI traffic now outpaces humans—but who’s really winning?SpaceSmile Mission to X-Ray Earth’s Magnetic ShieldAIGemini Live’s voice downgrade: AI progress or collateral damage?SpaceGamma Cas’s X-Ray Mystery Solved After 40 YearsGamingNvidia’s AI art war: Why players are sharpening the pitchforksSpaceUK’s AI probe into Microsoft isn’t just about Windows—it’s about controlTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIDisney’s $1B AI bet collapses before the first frameMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskAIMistral’s tiny speech model fits on a watch—so what?MedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realityAIPorn’s AI Clones Aren’t Immortal—Just Better PackagedMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveAIGitHub’s Copilot data grab: opt-out or be trainedMedicineRNA Sequencing UnifiesAIAI’s dirty little secret: secure by default is a mythSpaceEarth Formed From Inner Solar SystemAI$70M for AI code verification—because shipping works, not just generating itSpaceYouTube’s AI cloning tool exposes a deeper problemAIAI traffic now outpaces humans—but who’s really winning?SpaceSmile Mission to X-Ray Earth’s Magnetic ShieldAIGemini Live’s voice downgrade: AI progress or collateral damage?SpaceGamma Cas’s X-Ray Mystery Solved After 40 YearsGamingNvidia’s AI art war: Why players are sharpening the pitchforksSpaceUK’s AI probe into Microsoft isn’t just about Windows—it’s about controlTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spot
⊞ Foto Review