Microsoft: AI nikad neće biti potpuno sigurna
Štete nastale uz pomoć umjetne inteligencije bit će teže kvantificirati nego softverske. Automatizacija može pomoći u smanjenju rizika, ali ljudski čimbenik i dalje je ključan.
Microsoftovih 26 istraživača ispitalo je sigurnost više od 100 proizvoda generativne umjetne inteligencije te tvrtke. Njihov zaključak? Modeli pojačavaju postojeće sigurnosne rizike i stvaraju nove. Posao osiguranja sustava umjetne inteligencije nikad neće biti dovršen.
U dokumentu Lessons from red-teaming 100 generative AI products istaknuli su kako stručnjake za sigurnost čeka puno posla.
Najprije će biti nužno razumjeti što sustav može učiniti i gdje se primjenjuje, pri čemu treba uzeti u obzir kako se modeli različito ponašaju ovisno o dizajnu, primjeni i kontekstu, kao i mogućnost da će slijediti zlonamjerne upute.
Također, za razbijanje sustava umjetne inteligencije nije nužno izračunavati gradijente, iako bi takvi napadi mogli biti skupi, pa je izvjesnije kako će napadači posegnuti za nečim jednostavnijim.
Štete nastale uz pomoć umjetne inteligencije bit će teže kvantificirati nego softverske. Red teaming ne treba uzeti kao mjerilo sigurnosti. Automatizacija može pomoći u smanjenju rizika, ali ljudski čimbenik i dalje je ključan.
Istraživači također upozoravaju kako organizacije moraju preuzeti brigu o mentalnom zdravlju članova crvenog tima jer oni "mogu biti izloženi neproporcionalnim količinama uznemirujućeg i uznemirujućeg sadržaja generiranog umjetnom inteligencijom".