Umjetna inteligencijadb#2193

OpenAI želi imunitet za AI apokalipsu: Illinois kao laboratorij

(5d ago)
San Francisco, United States
wired.com
OpenAI želi imunitet za AI apokalipsu: Illinois kao laboratorij

OpenAI želi imunitet za AI apokalipsu: Illinois kao laboratorij📷 © Tech&Space

  • OpenAI podupire zakon koji štiti AI labove
  • Prag za 'kritičnu štetu': 100 mrtvih ili $1B štete
  • Federativna regulacija umjesto državnih zakona

OpenAI je javno podržao illinoiski zakon SB 3444, koji bi ai laborima pružio imunitet ako njihovi modeli prouzroče masovne smrti ili financijske katastrofe. Prema prijedlogu, kompanija ne bi snosila odgovornost ako šteta nije bila namjerna ili nehatna – pod uvjetom da su objavljeni sigurnosni izvještaji.

Pragovi su zabrinjavajući precizni: smrt ili ozljeda 100 ili više ljudi, odnosno šteta od preko milijardu dolara. OpenAI, koji je godinama izbjegavao odgovornost, ovim potezom šalje jasnu poruku: inovacija ide prije sigurnosti.

Zakon definira 'frontier modele' kao one s troškovima obuke većim od $100 milijuna, što obuhvaća sve velike igrače – od Googlea do Mete. Jamie Radice, glasnogovornica OpenAI-a, istaknula je da se radi o 'smanjenju rizika od ozbiljne štete', ali čije?

Izjava koja prati prijedlog zakona zvuči kao sprdačina: 'Dopustiti da tehnologija dospije u ruke ljudi i poduzeća – malih i velikih – Illinoisa'. Čitanje između redaka otkriva istinu: ako ai ubije, nitko neće odgovarati.

Caitlin Niedermeyer, još jedna predstavnica OpenAI-a, svjedočila je kako državni zakoni stvaraju 'inkonzistentno okruženje', sugerirajući da preferiraju federalnu regulaciju.

Tko će platiti ako AI zabriše grad?

Tko će platiti ako AI zabriše grad?📷 © Tech&Space

Tko će platiti ako AI zabriše grad?

No zašto se onda uopće bave illinoiskim zakonom? Odgovor leži u činjenici da Illinois služi kao testni poligon – ako ovdje uspiju, model će se replicirati na nacionalnoj razini.

Industrija već godinama lobira za 'harmonizirane' standarde, što je samo eufemizam za slabiju odgovornost. Pristup OpenAI-a nije izoliran slučaj.

Ovo je dio šireg trenda u kojem tehnološke kompanije preferiraju federativno rješavanje regulacije jer im pruža više kontrole. Slični zakoni već postoje u Kaliforniji i Utahu, ali nijedan nije toliko eksplozivan kao ovaj – izričito štiti od 'kritične štete' izazvane ai modelima.

Ironija je da je OpenAI prije godinu dana bio među najglasnijim zagovornicima odgovornosti, no sada, kada su frontier modeli postali dovoljno moćni da predstavljaju stvarne rizike, kompanija mijenja ton. Ključni detalj koji često prolazi nezapaženo: zakonska zaštita vrijedi čak i ako ai labor nije objavio sve tražene sigurnosne izvještaje.

To znači da kompanije mogu izbjegavati transparentnost, a ipak biti zaštićene. OpenAI tvrdi da je cilj 'sigurno implementiranje najnaprednijih modela', ali pravi cilj je očigledan – osigurati da nikada ne budu tuženi ako se nešto loše dogodi.

Ovaj zakon potencijalno stvara opasan presedan.

Konačno, ovo je poziv svim građanima da se uključe u raspravu o odgovornosti za ai i da traže odgovore od kompanija i regulatora. Mi moramo biti svjesni rizika i mogućnosti koje donosi ai tehnologija i raditi na stvaranju sigurnijeg i odgovornijeg okruženja za sve. Surađujmo zajedno da osiguramo da ai tehnologija bude korisna za čovječanstvo, a ne samo za kompanije koje je razvijaju.

OpenAIAI RegulationLiability Insurance

//Comments

MedicineMuscles Turned MotorsSpaceArtemis 2 LaunchesMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskSpaceEarth Formed From Inner Solar SystemMedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realitySpaceYouTube’s AI cloning tool exposes a deeper problemMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveSpaceSmile Mission to X-Ray Earth’s Magnetic ShieldMedicineRNA Sequencing UnifiesAIGemini 3.1 Flash-Lite UnveiledRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIArm’s first solo chip: hype meets hardware realityGamingNvidia’s AI art war: Why players are sharpening the pitchforksAIDisney’s $1B AI bet collapses before the first frameTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotAIMistral’s tiny speech model fits on a watch—so what?AIPorn’s AI Clones Aren’t Immortal—Just Better PackagedAIGitHub’s Copilot data grab: opt-out or be trainedAIAI’s dirty little secret: secure by default is a mythAI$70M for AI code verification—because shipping works, not just generating itMedicineMuscles Turned MotorsSpaceArtemis 2 LaunchesMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskSpaceEarth Formed From Inner Solar SystemMedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realitySpaceYouTube’s AI cloning tool exposes a deeper problemMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveSpaceSmile Mission to X-Ray Earth’s Magnetic ShieldMedicineRNA Sequencing UnifiesAIGemini 3.1 Flash-Lite UnveiledRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIArm’s first solo chip: hype meets hardware realityGamingNvidia’s AI art war: Why players are sharpening the pitchforksAIDisney’s $1B AI bet collapses before the first frameTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotAIMistral’s tiny speech model fits on a watch—so what?AIPorn’s AI Clones Aren’t Immortal—Just Better PackagedAIGitHub’s Copilot data grab: opt-out or be trainedAIAI’s dirty little secret: secure by default is a mythAI$70M for AI code verification—because shipping works, not just generating it
⊞ Foto Review