Umjetna inteligencija - Jezični modeli otkrivaju pogreške drugih jezičnih modela
Istraživači u računalstvu i lingvistici osmislili su novi način otkrivanja pogrešaka u velikim jezičnim modelima (large language model, LLM)
U članku objavljenom u časopisu Nature, Sveučilište Oxford, istraživač DeepMinda Sebastian Farquhar i kolege predložili su metodu za kvantificiranje stupnja halucinacija koje generira LLM, uz prikaz koliko bi generirani sadržaj mogao biti točan. Studija je nastojala riješiti podskup halucinacija poznatih kao konfabulacije, odgovor koji može biti netočan i proizvoljan, za koji istraživači kažu da se svodi na nedostatak znanja.