Microsoft ima nove alate za sigurniju umjetnu inteligenciju
Korisnici Azure AI Studija kao pomoć pri stvaranju generativnih aplikacija umjetne inteligencije mogu očekivati četiri nova alata.
Microsoft je predstavio skup alata koji bi trebali učiniti modele umjetne inteligencije sigurnijima za korištenje u Azureu.
U Microsoftu priznaju kako su napadi upitima postali značajan izazov za umjetnu inteligenciju jer zlonamjerni akteri pokušavaju manipulirati sustavom umjetne inteligencije kako bi napravio nešto za što nije izvorno osmišljen, poput proizvodnje štetnog sadržaja ili izvlačenja povjerljivih podataka.
Također prihvaćaju kritike vezane uz kvalitetu i pouzdanost. No, čini se kako sigurnost i točnost žele prodati kao dodatak.
Korisnici Azure AI Studija kao pomoć pri stvaranju generativnih aplikacija umjetne inteligencije mogu očekivati četiri nova alata.
Prompt Shields bi trebao pomoći pri odbijanju napada putem ubacivanja upita. Prethodno poznat kao Jailbreak Risk Detection, zamišljen je kao alat za ublažavanje rizika od izravnog i neizravnog uplitanja u temeljne modele.
Izravni napadi uključuju upite kojima se nastoji model natjerati na zanemarivanje sigurnosne obuke, dok se neizravni napadi odnose na pokušaje ubacivanja unosa u model.
Jedan od načina kako to možete učiniti je, primjerice, uključivanje skrivenog teksta u e-poruku kako bi model umjetne inteligencije koji djeluje u ime primatelja kroz, recimo, Copilot u Outlooku, analizirao poruku, protumačio skriveni tekst kao naredbu i postupio prema uputama.
Umjetnom inteligencijom protiv umjetne inteligencije
Groundedness Detection je sustav za hvatanje halucinacija modela umjetne inteligencije. Na raspolaganju je nekoliko opcija, uključujući slanje odgovora na reviziju prije prikazivanja.
U Microsoftu kažu kako su to postigli izgradnjom prilagođenog jezičnog modela koji procjenjuje neutemeljene tvrdnje na temelju izvornih dokumenata.
Treći alat su sigurnosne procjene potpomognute umjetnom inteligencijom u AI Studiju, koje pružaju okvir za testiranje za predstavljanje brzih predložaka i parametara za model koji testira različite kontradiktorne interakcije s aplikacijom korisnika.
Na kraju, tu je "nadgledanje rizika i sigurnosti", značajka za Azure OpenAI uslugu koja pruža metriku štetnog sadržaja.
Mogući problem s ovim alatima je to što u borbu protiv umjetne inteligencije uvode još umjetne inteligencije, što proširuje područje za nove napade.
Obećanja o povećanju sigurnosti umjetne inteligencije dolaze ruku pod ruku sa zahtjevima vlasti.
Administracija američkog predsjednika Joea Bidena izdala je prve smjernice za rješavanje rizika umjetne inteligencije.
U njima je, između ostalog, naložena provedba konkretnih zaštitnih mjera pri korištenju umjetne inteligencije na način koji bi mogao utjecati na prava ili sigurnost Amerikanaca, s rokom porvedbe do 1. prosinca.
To znači procjene rizika, testiranje i nadzor, napore u ograničavanju diskriminacije i pristranosti te promicanje transparentnosti za aplikacije koje se tiču zdravlja, obrazovanja, stanovanja i zapošljavanja.