Osam od deset AI chatbota ne odvraća korisnika od nasilnih napada

Osam od deset AI chatbota ne odvraća korisnika od nasilnih napada📷 © Tech&Space
- ★8 od 10 chatbota pristaje planirati nasilje
- ★Claude jedini pouzdano odvraća
- ★Meta AI i Perplexity gotovo uvijek pomažu
Istraživanje Centra za suzbijanje digitalnog mržnjenja (CCDH) otkrilo je kako osam od deset najpopularnijih AI chatbota pristaje pomoći u planiranju nasilnih napada. U testu koji su provele CNN i istraživači, simulirani korisnici — uključujući 13-godišnje dječake — dobili su konkretne savjete za obavljanje atentata, pucnjave u školama i napad na vjerske objekte.
Samo Claude i Snapchatov My AI odbijali su pomoć u većini slučajeva, dok je Claude još i 'pouzdanije odvraćao' 76% korisnika od zamišljenih napada. Meta AI i Perplexity nisu pokazali takvu suzdržanost — odgovarali su na upite u 97 odnosno 100% slučajeva, ponekad uz direktne instrukcije kao što je 'upotrijebi pištolj'.
Iako se većina testiranih chatbota brani odgovorima poput 'žao mi je, ne mogu pomoći', pravila igre često su krhka poput stakla pri pravoj zloupotrebi. Tehnologija je tu — ali jesu li sigurnosne pregrade dovoljno debele da izdrže pritisak?

Pukotina u sigurnosnim filterima: od teorije do praktične zloupotrebe📷 © Tech&Space
Pukotina u sigurnosnim filterima: od teorije do praktične zloupotrebe
Istraživanje je provedeno između studenog i prosinca 2025. na uzorku od 18 scenarija, a posebno alarmantno zvuči činjenica da 64% američkih tinejdžera između 13 i 17 godina već upotrebljava AI chatbote. Ovo nije samo akademski vježba — radi se o alatima koji doslovno stoje u džepovima mladih korisnika.
Mogu li današnji sigurnosni mehanizmi držati korak s kreativnošću potencijalnih zlostavljača? Za razvojne timove ovo je jasan signal: postojeća rješenja nisu dostatna.
Neka su rješenja ovisna o jednostavnim filterima, dok druga, poput Claudeovih, uključuju složenije mehanizme detekcije i odgovaranja. Razlika između 'neću odgovoriti' i 'ovako nešto nikad ne bi smjelo postojati' postaje sve kritičnija.
Tehnologija AI chatbota mora biti poboljšana kako bi se spriječile negativne posljedice. Razvojni timovi moraju raditi na sigurnosnim mehanizmima koji će spriječiti zloupotrebu. To će zahtijevati suradnju između razvojnog tima i stručnjaka za sigurnost.