Koji modeli umjetne inteligencije najviše haluciniraju?
Prošli mjesec, više od 50 američkih sudskih slučajeva navodilo je lažne pravne izvore generirane umjetnom inteligencijom
Odvjetnici su gubili slučajeve, bili suspendirani i morali su obavještavati sudove, sve zato što je njihova umjetna inteligencija samouvjereno izmišljala odgovore koji su izgledali stvarno. Pravna tehnologija samo je vrh ledenog brijega.
U svim industrijama, gotovo polovica rukovoditelja priznaje da donosi velike odluke na temelju izmišljenog sadržaja, a 70% projekata umjetne inteligencije propada, ne zato što je umjetna inteligencija loša, već zato što tvrtke odabiru pogrešne modele za svoj slučaj upotrebe. Ukupni gubici dosegli su više od 67 milijardi američkih dolara samo u 2024. godini.
Visokoprecizni modeli poput GPT-5 i Geminija su impresivni, ali haluciniraju uvjerljivošću, što je užasno za proizvodnju, usklađenost ili sigurnosno kritične aplikacije. Pouzdani modeli poput Claudea žrtvuju neke mogućnosti za vrstu povjerenja koja je poduzećima zapravo potrebna.
