MIT-ov 'skromni' AI: Kad stroj priznaje da ne zna

MIT-ov 'skromni' AI: Kad stroj priznaje da ne zna📷 © Tech&Space
- ★MIT predvodi okvir za 'skromniji' medicinski AI
- ★Preventivna mjera protiv AI-ove lažne samouvjerenosti
- ★Ljudski faktor ostaje ključan u dijagnostici
MIT-ov međunarodni tim znanstvenika objavio je okvir za razvoj 'skromnih' medicinskih AI sustava – koncept koji bi trebao spriječiti da umjetna inteligencija pogrešno usmjerava liječnike zbog prekomjernog samopouzdanja. Riječ je o reakciji na dugogodišnji problem: AI alati u zdravstvu često daju pogrešne preporuke s visokom razinom sigurnosti, što može dovesti do ozbiljnih dijagnostičkih grešaka.
Okvir koji su predložili ne fokusira se na poboljšanje točnosti AI modela, već na njihovu sposobnost da priznaju nesigurnost. Umjesto da AI djeluje kao 'proročište' koje donosi konačne odluke, cilj je da postane 'kopilot' koji postavlja pitanja, ističe nedostatke u podacima i traži dodatne informacije od liječnika.
Jedan od autora, u izjavi za MedicalXpress, naglašava: 'Želimo da AI bude kočnica, a ne gas'. Problem nije teoretski.
Studije pokazuju da liječnici, suočeni s AI preporukama koje izgledaju uvjerljivo, često podcjenjuju vlastitu stručnost. U jednom eksperimentu, 12% liječnika promijenilo je ispravnu dijagnozu nakon što im je AI predložio pogrešnu – čak i kad su imali pristup cijeloj medicinskoj povijesti pacijenta.
MIT-ov pristup uključuje tehnike objašnjivog AI (XAI) i probabilističke intervale pouzdanosti, koji bi trebali signalizirati kada je AI-ov odgovor zasnovan na nedovoljnim ili nejasnim podacima. To je korak dalje od tradicionalnih 'crnih kutija' koje daju konačne odgovore bez objašnjenja.

Demo nasuprot deploymenta: tko će zapravo koristiti ovu 'skromnost'📷 © Tech&Space
Demo nasuprot deploymenta: tko će zapravo koristiti ovu 'skromnost'
No, postoji jaz između teorije i prakse. Dok okvir zvuči obećavajuće, ostaje pitanje koliko će ga medicinske ustanove i AI razvijatelji zapravo implementirati. Većina komercijalnih AI alata u zdravstvu danas optimizirana je za brzinu i jednostavnost korištenja, a ne za transparentnost ili 'skromnost'.
Primjerice, IBM-ov Watson for Oncology, jedan od najpoznatijih medicinskih AI sustava, povučen je iz upotrebe 2022. godine nakon niza kontroverzi oko preporuka koje su bile ili previše agresivne ili klinički neprimjenjive. Drugi izazov je ljudski faktor. Istraživanja pokazuju da liječnici često previše vjeruju AI sustavima, posebno ako su oni dizajnirani da izgledaju samopouzdano.
MIT-ov okvir pokušava riješiti ovaj problem tako što će AI sustave učiniti 'znatiželjnijima' – da postavljaju pitanja umjesto da daju odgovore. To bi moglo promijeniti dinamiku suradnje, ali samo ako liječnici budu spremni prihvatiti AI kao partnera, a ne kao zamjenu. Na GitHubu već postoje rani prototipovi koji implementiraju dijelove MIT-ovog okvira, ali reakcije developer zajednice su podijeljene.
Neki hvale pristup kao korak u pravom smjeru, dok drugi upozoravaju da 'skromnost' AI-ja može postati samo još jedan marketinški trik – posebno ako se ne prati jasnim regulatornim standardima. Prava vrijednost ovog okvira možda nije u tehnologiji, već u promjeni kulture. Ako AI sustavi budu dizajnirani da priznaju svoje granice, to bi moglo potaknuti liječnike da budu kritičniji prema vlastitim odlukama – a to je rezultat koji nijedan benchmark ne može izmjeriti.
U konačnici, uspjeh ovog pristupa ovisi o sposobnosti liječnika i AI razvijatelja da surađuju i stvore sustave koji su i pouzdani i transparentni. To će zahtijevati promjene u kulturi i praksi, ali rezultati bi mogli biti vrijedni truda. Kako se tehnologija nastavlja razvijati, važno je da se ne zaboravi ljudski faktor i potreba za transparentnošću i odgovornošću.