Sony napravio alat za testiranje pravednosti umjetne inteligencije

Modeli umjetne inteligencije prečesto su pristrani. U Sonyju su osmislili benchmark koji bi trebao pomoći u suzbijanju tih tendencija.

Miroslav Wranka petak, 7. studenog 2025. u 11:40
📷 Ion Fet (Unsplash)
Ion Fet (Unsplash)

Sony AI je objavio novi skup podataka za testiranje pravednosti modela računalnog vida, za koji njegovi tvorci tvrde kako je sastavljen na pošten i etičan način. Fair Human-Centric Image Benchmark (FHIBE ili Fee-bee) prvi je javno dostupan, konsenzualno prikupljen i globalno raznolik skup podataka za procjenu pravednosti za širok raspon zadataka računalnog vida usmjerenih na čovjeka, tvrde u Sony AI-ju.

FHIBE se sastoji od 10.318 slika 1.981 jedinstvenog subjekta dobivenih konsenzualnim putem, svaka s opsežnim i preciznim bilješkama. Slike su prikupljene iz više od 81 države i regije. Cilj projekta je potaknuti etičnije i odgovornije prakse prikupljanja, korištenja i upravljanja podacima.

Europski Zakon o umjetnoj inteligenciji i pojedini propisi o umjetnoj inteligenciji u američkim saveznim državama potiču ili zahtijevaju procjene pristranosti u određenim područjima visokog rizika. Poslovne jedinice Sonyja angažirale su FHIBE u procjenama pravednosti kao dio svojih širih procesa etičkog pregleda umjetne inteligencije, u skladu sa Smjernicama za etiku umjetne inteligencije Sony Grupe.