Microsoft je angažirao bivšeg glavnog državnog tužitelja Sjedinjenih Američkih Država, sada odvjetnika u tvrtki Covington & Burling Erica Holdera da provjeri je li izraelska tvrtka za razvoj rješenja za prepoznavanje lica uz pomoć umjetne inteligencije AnyVision prekršila Microsoftova etička načela o načinu korištenja biometrijske tehnologije nadzora.

Razlog Holderova angažiranja je što je Microsoft u lipnju u AnyVision investirao 74 millijuna američkih dolara, a prema uvjetima investiranja Microsoft je zahtjevao da AnyVision treba poštivati šest etičkih načela kod rada na prepoznavanju lica: pravičnost, transparentnost, odgovornost, nediskriminacija, pristanak osoba čija se lica prepoznaju te zakonit nadzor. Microsoftova etička načela u korištenju tehnologije prepoznavanja lica svode se na zaštitne mjere demokratskih sloboda ljudi, odnosno nekorištenje tehniologije prepoznavanja lica u slučajevima kada se ugrožava sloboda i demokratsko pravo ljudi.

AnyVision prodaje napredni softverski sustav Better Tomorrow koji omogućuje kupcima da identificiraju pojedince i predmete u bilo kojem feedu kamere uživo, kao što je sigurnosna kamera ili pametni telefon, a zatim prate ciljeve dok se kreću između različitih feedova.

NBC News je u listopadu ove godine objavio, pozivajući se na neimenovane izvore, da je AnyVision pokrenuo projekt za Izraelsku vojsku kojim prati Palestince na Zapadnoj obali. Projekt se navodno pokazao toliko učinkovit da je AnyVision u 2018. godini donio najviše priznanje Izraela za sprečavanje stotina terorističkih napada. Potvrda optužbi iz NBC Newsa došla je i iz Haaretza.

Aktivisti za ljudska prava optužili su AnyVisiona za nezakonito nadgledanje Palestince na Zapadnoj obali, odnosno da njegove takve aktivnosti nisu u skladu s njegovim javnim izjavama o etičkim standardima primjene tehnologije prepoznavanja lica. Iz AnyVisiona su opovrgli navode NBC Newsa tvrdeći kako ne bi dozvolili da se njihova tehnologija za nadzor Palestinaca na Zapadnoj obali ili na području Gaze, naglasivši kako tehnologiju prepoznavanja lica koriste poput Global Entrya u SAD za kontrolu putnika i to ne u Izraelu.

Iz Microsofta su ustvrdili da ukoliko se navodi NBC Newsa pokažu točnim da će prekinuti suradnju s AnyVision.

Izraelska vojska potvrdila je u veljači ove godine da koristi tehnologijubza prepoznavanje lica na najmanje 27 kontrolnih točaka između Izraela i Zapadne obale s 1.700 nadzornih kamera u nastojanju sprječavanja terorističkih napada.

Izraelski Zakon o privatnosti iz 2018. godine nadopunjen je odredbama o zaštiti privatnosti izraelskih građana prema kojima se nadzor može vršiti isključivo uz njihov pristanak uz iznimku prijetnje nacionalnoj sigurnosti. Na taj način izraelski zakon je stroži čak i od zakona u Europskoj uniji, no problem je što Palestinci koji žive na Zapadnoj obali nemaju izraelsko državljanstvo, odnosno nemaju nikakvo državljanstvo, i zakon se na njih ne primjenjuje. Procjena je da je na popisima izraelskih službi preko 250 tisuća Palestinaca kojima je zabranjen prolaz kroz kontrolne točke i taj broj se stalno povećava.

Tehnologiju prepoznavanja lica Izrael je počeo primjenjivati još krajem prve decenije ovog stoljeća a koriste i druge tehnologije masovnog nadzora digitalnih komunikacija poput platformi društvenih mreža pomoću, na primjer, ključnih riječi. Takve tehnologije koriste se masovno i drugdje u svijetu, a možda najpoznatiji primjer kršenja ljudskih prava na taj način događa se u nadzoru ujgurske manjine u Xinjiangu (ujgurskoj autonomnoj regiji Uygur Autonomous Region), a kineska vlada ga opravdava zbog suzbijanja terorizma. U zadnje vrijeme u prvi plan došao je masovni nadzor prosvjednika u Hong Kongu…

Direktor Projekta tehnologije i slobode pri Američkoj uniji građanskih sloboda Shankar Narayan ustvrdio je kako ga nije iznenadilo Microsoftovo ulaganje u izraelski AnyVision dodavši kako postoji velika razlika između proklairanih opredjeljenja za demokartske principe i prakse kod velikih tehnoloških kompanija.

Tehnologija prepoznavanja lica do sada nije razvijena da ne može napraviti i pogreške što može imati ozbiljne loše posljedice za osobe koje budu lažno identificirane bilo da su kriminalci ili zanimljive institucijama represije na drugi sigurnosni način. Usto, sve su glasnije i optužbe da se tehnologija prepoznavanja lica testira na najsiromašnijim i najugroženijim u društvu, etničkim manjinama, migrantima i djeci.

Podijeli:

Vezane objave