Ocjene sigurnosti umjetne inteligencije vodećih tvrtki

Sustavi umjetne inteligencije prelaze iz novosti u infrastrukturu. Pišu, kodiraju, pretražuju i sve više djeluju umjesto ljudi

Mreža utorak, 3. veljače 2026. u 01:33

Takav razvoj donosi ključno pitanje: koliko ozbiljno tvrtke koje se bave umjetnom inteligencijom upravljaju rizicima koji dolaze s njom?

Institut za budućnost života (Future of Life Institute) ocjenjuje tvrtke tvorce modela generativne umjetne inteligencije prema šest ključnih metrika. Na temelju rezultata u šest ključnih metrika sigurnosti umjetne inteligencije, Anthropic, tvorci Claudea, postigao je najvišu ukupnu ocjenu C+.

Anthropic je bila jedina tvrtka koja je dobila ocjenu "A" u dvije kategorije, s ocjenom A- i u upravljanju i u odgovornosti, te u dijeljenju informacija.

Anthropic (tvorci Claudea) postigao je najvišu ukupnu ocjenu (C+), ističući se po tome što ne provodi obuku na korisničkim podacima, prednjači u istraživanju usklađenosti i strukturira se kao korporacija za javnu dobrobit posvećena sigurnosti.

Samo tri tvrtke - Anthropic, OpenAI i DeepMind - izvještavaju o bilo kakvom testiranju visokorizičnih sposobnosti poput bio- ili kibernetičkog terorizma, a čak i tim naporima često nedostaje jasno obrazloženje ili rigorozni standardi.

Nakon Anthropica slijedio je OpenAI, kreatori ChatGPT-a, koji je dobio ukupnu ocjenu C. Jedina kategorija u kojoj je dobio višu ocjenu od Anthropica bila je u kategoriji trenutne štete, dijelom zahvaljujući činjenici da je OpenAI bio jedina tvrtka s objavljenom politikom o zviždačima u vrijeme objave izvješća.

Kineske tvrtke Zhipu.AI i DeepSeek dobile su ukupne ocjene loše, iako se u izvješću navodi da stroži kineski nacionalni propisi o umjetnoj inteligenciji mogu objasniti njihove slabije rezultate u mjerilima samouprave i transparentnosti usklađenima sa Zapadom.