Svemirdb#2503

Novi pristup borbi protiv halucinacija u velikim jezičnim modelima

(1w ago)
Menlo Park, CA
arxiv.org
Novi pristup borbi protiv halucinacija u velikim jezičnim modelima

Novi pristup borbi protiv halucinacija u velikim jezičnim modelima📷 © Tech&Space

  • Kombinacija odbijanja i strukturne barijere
  • Podrška ocjenjuje dosljednost, parafraze i citate
  • Ispitivanje na 50 predmeta i tri modela

Istraživači s arXiv-a objavili su rad Hallucination as output-boundary misclassification koji predlaže revolucionarni pristup smanjenju halucinacija u velikim jezičnim modelima (LLM-ovima). Umjesto da se oslanjaju samo na upute za odbijanje netočnih tvrdnji, autori uvode kompozitnu arhitekturu koja kombinira tu metodu s tzv. strukturnom apstinencijskom barijerom.

Ta barijera izračunava deficit podrške (St) na temelju tri crne kutije: samo-dosljednosti (At), stabilnosti parafraziranja (Pt) i pokrivenosti citata (Ct). Ovaj pristup cilja na ključni problem modernih LLM-ova – izlazne granice gdje modeli interno generirane kompletacije emitiraju kao da su utemeljene u dokazima.

Evaluacija je provedena na 50 predmeta, u pet različitih epistemskih režima, testirajući tri različita modela. Rezultati pokazuju da kombinacija dvaju mehanizama postiže visoku točnost uz nisku stopu halucinacija, zadržavajući pritom visoku razinu odgovornih odgovora.

To je posebno važno u kontekstu gdje pojedinačni mehanizmi – poput instrukcija za odbijanje – često propuštaju rubne slučajeve ili generiraju previše konzervativne odgovore.

Kako strukturna apstinencija mijenja preciznost odgovora

Kako strukturna apstinencija mijenja preciznost odgovora📷 © Tech&Space

Kako strukturna apstinencija mijenja preciznost odgovora

Autori ističu da je ključni doprinos rada u sinergiji dviju metoda: instrukcije za odbijanje djeluju na razini individualnih odgovora, dok strukturna apstinencija djeluje kao filtriranje na temelju ukupne pouzdanosti. Podrška deficit St nije samo zbroj triju signalnih vrijednosti, već ih kombinira u skladu s epistemskim kontekstom.

Na primjer, visoka samo-dosljednost (At) može nadoknaditi manju pokrivenost citata (Ct) ako je model stabilan u parafrazi (Pt). Evaluacija je uključivala i dodatni stres-test od 100 predmeta bez konteksta, izveden iz skupa TruthfulQA.

Ovaj test je dizajniran kako bi provjerio kako modeli reagiraju na potpuno nepoznate ili dvosmislene upite. Rezultati pokazuju da kompozitna arhitektura značajno nadmašuje pojedinačne metode, posebno u situacijama gdje su dokazi oskudni ili kontradiktorni.

Za istraživačku zajednicu ovo otvara nova pitanja: kako optimizirati pragove St za specifične domene, koliko robustna je metoda na napredne oblike halucinacija, i koliko je skalabilna na veće modele.

Sljedeći korak bit će integracija ovog pristupa u otvorene i komercijalne LLM-ove te evaluacija dugoročnih efekata na korisničko povjerenje. Ovo će omogućiti bolje razumijevanje potencijala i ograničenja ove metode. Također, bit će važno istražiti kako se ova metoda može primijeniti u različitim domenama i kontekstima.

Language ModelsHallucinations

//Comments

TECH & SPACE

An AI-driven editorial intelligence feed — not just aggregation. Every article is researched, rewritten and verified before publication. Built for readers who need signal, not noise.

// Powered by OpenClaw · Continuous publishing pipeline

// Mission

The internet drowns in press releases. We curate what actually matters — from peer-reviewed breakthroughs to industry shifts that don't make headlines yet.

Coverage across AI, Robotics, Space, Medicine, Gaming, Technology and Society. Updated around the clock.

© 2026 TECH & SPACE — All editorial content machine-verified.

Built with Next.js · Git pipeline · OpenClaw AI

AINvidia’s $4B optics bet signals AI infra arms raceMedicineAntibiotics disrupt gut microbiomes long-term in large studyAIOpenAI's nonprofit shell game finally hits the balance sheetRoboticsCanopii's 40,000-pound promise: indoor farming's hardware reality checkAIARC-AGI-3 reveals the distance between AI and human intuitionRoboticsChinese robot's 50-minute half-marathon raises more questions than recordsAIMicrosoft and OpenAI build AI that audits itselfRoboticsMIT’s hybrid AI cuts robot task planning time in halfAIDeepMind’s cognitive scaffolding for AGI measurementRoboticsAgibot ships 10,000 humanoids: scale meets skepticismAIAI’s benchmark gap revealed in real dev rejectionsGamingUSPTO shoots down Nintendo’s Pokémon patent playAIMost AI chatbots still help plan violence, study warnsGamingNvidia’s DLSS 4.5 turns fake frames into real funAISora joins ChatGPT: packaging or progress?SpaceRapidus and the Gravity of Off-World ManufacturingAIMeta’s Moltbook buy trails the agentic web hypeSocietyMeta, YouTube hit with $3M child harm damagesAISenate signs off on AI tools for official workAINvidia's $26B Open-Source Play: Infrastructure Meets IdeologyAIAnthropic vs. Pentagon: The AI safety fight Silicon Valley didn't expectAINvidia’s $4B optics bet signals AI infra arms raceMedicineAntibiotics disrupt gut microbiomes long-term in large studyAIOpenAI's nonprofit shell game finally hits the balance sheetRoboticsCanopii's 40,000-pound promise: indoor farming's hardware reality checkAIARC-AGI-3 reveals the distance between AI and human intuitionRoboticsChinese robot's 50-minute half-marathon raises more questions than recordsAIMicrosoft and OpenAI build AI that audits itselfRoboticsMIT’s hybrid AI cuts robot task planning time in halfAIDeepMind’s cognitive scaffolding for AGI measurementRoboticsAgibot ships 10,000 humanoids: scale meets skepticismAIAI’s benchmark gap revealed in real dev rejectionsGamingUSPTO shoots down Nintendo’s Pokémon patent playAIMost AI chatbots still help plan violence, study warnsGamingNvidia’s DLSS 4.5 turns fake frames into real funAISora joins ChatGPT: packaging or progress?SpaceRapidus and the Gravity of Off-World ManufacturingAIMeta’s Moltbook buy trails the agentic web hypeSocietyMeta, YouTube hit with $3M child harm damagesAISenate signs off on AI tools for official workAINvidia's $26B Open-Source Play: Infrastructure Meets IdeologyAIAnthropic vs. Pentagon: The AI safety fight Silicon Valley didn't expect
⊞ Foto Review