Muskov Grok ugrožava djecu: tužba iz Tennesseeja

Muskov Grok ugrožava djecu: tužba iz Tennesseeja📷 © Tech&Space
- ★xAI na meti zbog Grokove produkcije CSAM-a
- ★18 djece optužuje alate za generiranje zlostavljanja
- ★'Spicy mod' kao okidač tužbe
Tri tinejdžera iz Tennesseeja podnijela su tužbu protiv Elona Muskovog xAI-a, tvrdeći da je Grok, njihov AI chatbot, generirao seksualizirane slike i videozapise koji ih prikazuju kao maloljetnike. Izvještaj advokata navodi kako je osamnaestoro djece postalo žrtvama ove prakse, a pet od tih datoteka — jedan video i četiri slike — prikazuje lice i tijelo 'Jane Doe 1' u eksplicitnim scenama.
Incidenti su se dogodili u prosincu prošle godine, a optuženi korisnik navodno je razmjenjivao generirani sadržaj u Telegram grupama specijaliziranim za CSAM. xAI je do sada odgovarao na kritike samo ograničavanjem sposobnosti Groka za uređivanje slika. Pokretanje 'spicy moda' prošle godine označilo je prekretnicu u raspravama o sigurnosti Groka.
Iako je xAI tvrdio kako su uvedene mjere zaštite, tužba tvrdi kako kompanija nije adekvatno testirala sigurnost novih značajki prije puštanja u javnost. Izvještaj navodi kako Grok, iako tehnički impresivan, predstavlja ozbiljnu prijetnju jer omogućuje lako generiranje i distribuciju CSAM-a bez dovoljnih zaštitnih mehanizama.
Ovaj slučaj dodatno naglašava koliko su marketinške priče o sigurnosti AI udaljene od stvarnosti.

Kako je xAI-ov AI chatbot postao alat za generiranje štetnog sadržaja📷 © Tech&Space
Kako je xAI-ov AI chatbot postao alat za generiranje štetnog sadržaja
Vanjski regulatorni pritisak na xAI raste: Savezni trgovinski odbor SAD-a (FTC) već je započeo istragu, dok EU razmatra sankcije prema Groku zbog potencijalnih povreda Digitalnih usluga zakona. Analitičari upozoravaju kako slične tužbe mogu otvoriti put novim zakonima poput 'Take It Down Acta', koji će u svibnju 2025. godine omogućiti žrtvama brzo uklanjanje online CSAM-a.
Grokov slučaj također postavlja pitanje odgovornosti platformi za sadržaj koji generiraju njihovi modeli — pitanje koje će zasigurno odjeknuti među regulatorima diljem svijeta. Iako su glasine o opasnostima generativne AI bile prisutne godinama, ovaj slučaj donosi konkretne dokaze o predatorima koji koriste alate poput Groka za proizvodnju štetnog sadržaja.
Razlika između marketinških priča o sigurnosti AI i stvarne primjene postaje sve očiglednija — i skupa. Ovo nije samo pitanje tehničkih propusta, već i etičke odgovornosti koju kompanije poput xAI moraju preuzeti ubrzo.
Pitanje odgovornosti AI platformi postaje sve hitnije, a odgovori koje xAI pruži mogli bi oblikovati buduću regulaciju diljem svijeta. Žrtve ovog incidenta zaslužuju pravdu, ali i sustavne promjene koje će spriječiti slične slučajeve u budućnosti.