Google je u razvoj Geminija uveo potencijalno zabrinjavajuće pravilo
Nove Googleove interne smjernice za Gemini daju naslutiti kako bi taj model umjetne inteligencije mogao postati skloniji izbacivanju netočnih informacija o vrlo osjetljivim temama.
U tvrtkama poput Googlea, OpenAI-ja i drugih iza razvoja sustava generativne umjetne inteligencije stoje vojske zaposlenika koji ocjenjuju točnost rezultata koje daju roboti za brbljanje.
Nove interne smjernice koje je Google poslao izvođačima koji rade na Geminiju daju naslutiti kako bi taj model umjetne inteligencije mogao postati skloniji izbacivanju netočnih informacija o vrlo osjetljivim temama, poput zdravstvene zaštite.
Kako bi poboljšali Gemini, od izvođača koji rade s GlobalLogic, tvrtkom za vanjske usluge u vlasništvu Hitachija, rutinski se traži procjena odgovora generiranih umjetnom inteligencijom prema faktorima poput "istinitosti".
Ti su izvođači donedavno mogli preskočiti određene upite i tako se isključiti iz ocjenjivanja različitih odgovora na te upite koje je napisala umjetna inteligencija, ako je upit bio daleko izvan njihove stručnosti.
Ali, došlo je do promjene. Preskakanje više nije dozvoljeno, bez obzira na razinu stručnosti i upućenosti. Izvođači trebaju ocijeniti dijelove upita koje razumiju i dodati napomenu kako za ostalo nisu dovoljno stručni.
Sad smiju preskočiti upite samo u dva slučaja: ako im potpuno nedostaju informacije poput cjelovitog upita ili odgovora, ili ako sadrže štetan sadržaj za koji su potrebni posebni obrasci pristanka za procjenu.