OpenAI stišao 'Adult Mode': etika ili samo loš benchmark?

OpenAI stišao 'Adult Mode': etika ili samo loš benchmark?📷 © Tech&Space
- ★12% grešaka u verifikaciji dobi
- ★Savjetodavni odbor protiv 'sexy suicide coacha'
- ★Citron Mode pauziran na neodređeno
OpenAI je neodređeno zaustavio razvoj svog erotskog chatbota 'Adult Mode', nakon što su savjetnici, investitori i zaposlenici upozorili na rizike. Prema izvješću Financial Timesa 1, projekt internog naziva 'Citron Mode' pauziran je zbog tehničkih nedostataka i etičkih dilema.
Najveći problem? Age verification sustav koji je u 12% slučajeva krivo klasificirao maloljetnike kao odrasle – brojka koja postaje alarmantna s obzirom na 100 milijuna tjednih korisnika mlađih od 18 godina.
Izvori navode da je OpenAI-ov savjetodavni odbor za dobrobit jednoglasno protiv projekta, nazvavši ga potencijalnim 'sexy suicide coachom'. To nije samo retorička figura: istraživanje The Decodera 2 pokazuje da su raniji prototipovi imali tendenciju romantiziranja destruktivnih scenarija.
Ironija? OpenAI, tvrtka vrijedna 730 milijardi dolara, istovremeno promovira ChatGPT kao 'sigurno okruženje' – dok se muči s osnovnim filterima za odrasle sadržaje.
Za razliku od uobičajenih AI objava, ovdje nema spektakularnih demoa niti obećanja o 'revolucionarnim' iskustvima. Umjesto toga, imamo pauzu koja više liči na priznanje tehničke nespremnosti nego na etički prosvjed.
Pravo pitanje nije hoće li se 'Adult Mode' vratiti, već kako će OpenAI riješiti fundamentalni jaz između benchmarka i stvarne primjene.

Što OpenAI ne kaže o erotskom chatbotu – a što brojke otkrivaju📷 © Tech&Space
Što OpenAI ne kaže o erotskom chatbotu – a što brojke otkrivaju
Ono što OpenAI ne spominje u službenim izjavama jest da je 'Citron Mode' bio samo jedan od nekoliko eksperimenata s odraslim sadržajima. Prema internim dokumentima koje je vidio Bloomberg 3, tvrtka je testirala i verzije s dinamičnim generiranjem scenarija – što je otvorilo dodatne etičke i pravne pukotine.
Problem nije samo u tome što sustav može generirati neprimjeren sadržaj, već što ga može prilagoditi korisnikovim preferencijama na način koji graniči s manipulacijom. Industrijska mapa ovdje je jasna: OpenAI gubi prednost u trci za 'sigurnom' AI generacijom, dok konkurenti poput Mistrala ili Character.AI nastavljaju eksperimentirati s manje restriktivnim modelima.
GitHub reakcije 4 pokazuju da dio developera vidi ovu pauzu kao priliku za otvorene alternative – posebno u segmentu gdje OpenAI više ne želi igrati. No, pravi signal nije u tome tko će preuzeti vodstvo, već koliko su svi ovi sustavi zapravo spremni za masovnu primjenu.
Brojke govore više od PR izjava: 12% grešaka u verifikaciji dobi nije samo tehnički propust, već pokazatelj da je cijeli projekt žurio u deployment bez adekvatnih sigurnosnih mehanizama. Ako OpenAI ne može pouzdano razlikovati tinejdžera od odrasle osobe, kako onda očekivati da će kontrolirati sadržaj koji generira?
Odgovor možda leži u činjenici da je 'Adult Mode' bio više marketinški pokus nego ozbiljan proizvod.
Pauza u razvoju 'Adult Mode' je prilika za OpenAI da preispita svoje prioritete i osigura da su njihovi proizvodi u skladu s etičkim standardima. To će zahtijevati suradnju s ekspertima iz različitih područja i implementaciju transparentnijih i odgovornijih procesa razvoja. Samo tako će OpenAI moći stvoriti proizvode koji su sigurni, etični i korisni za sve korisnike.