Umjetna inteligencija - Jezični modeli otkrivaju pogreške drugih jezičnih modela

Istraživači u računalstvu i lingvistici osmislili su novi način otkrivanja pogrešaka u velikim jezičnim modelima (large language model, LLM)

M.W. petak, 19. srpnja 2024. u 06:00

U članku objavljenom u časopisu Nature, Sveučilište Oxford, istraživač DeepMinda Sebastian Farquhar i kolege predložili su metodu za kvantificiranje stupnja halucinacija koje generira LLM, uz prikaz koliko bi generirani sadržaj mogao biti točan. Studija je nastojala riješiti podskup halucinacija poznatih kao konfabulacije, odgovor koji može biti netočan i proizvoljan, za koji istraživači kažu da se svodi na nedostatak znanja.

Članak dostupan pretplatnicima

Kako bi mogao pročitati cijeli članak, moraš biti prijavljen na Bug.hr sa svojim podacima te imati status pretplatnika.

Mreza 8-9 / 2024 kolovoz-rujan 2024.