Zakon o algoritamskoj odgovornosti, koji su u travnju uveli senator Cory Booker, senator Ron Wyden i zastupnica Yvette Clark, usmjerili bi Saveznu trgovinsku komisiju (Federal Trade Commission FTC) na izradu propisa koji će od velikih tehnoloških tvrtki zahtijevati procjene učinka za njihove postojeće kao i nove „visoko rizične automatizirane sustave odlučivanja“.

Definicija visoko rizičnog automatiziranog sustava odlučivanja je široka i uključuje mnogo različitih vrsta automatiziranih sustava, uključujući one koji predstavljaju „značajan rizik“ za privatnost ili sigurnost pojedinih podataka ili rezultiraju pristranim ili nepoštenim odlučivanjem; one koje donose odluke koje značajno utječu na potrošače koristeći podatke o “osjetljivim aspektima”, kao što su radni učinak i zdravlje; one koji uključuju osobne podatke kao što su rasa, politička i vjerska uvjerenja, rodni identitet i seksualna orijentacija te genetske informacije; ili one koji nadziru veliki javni prostor.

Te procjene učinka vrednovale bi način dizajniranja i korištenja automatiziranog sustava, rizike koje predstavljaju zbog privatnosti ili sigurnosti i razne druge učinke i posljedice. Velike tehnološke kompanije, tvrtke s više od 50 milijuna američkih dolara prihoda ili u posjedu podataka o oko milijun potrošača ili potrošačkih uređaja, bi se trebalo razumno odnositi prema problemima tih procjena, ali ih nebi imali obvezu javno iznositi. Međutim, nevrednovanje rizičnih sustava automatskog odlučivanja bi se, prema zakonu Federalne komisije za trgovinu (Algorithmic Accountability Act of 2019), smatralo nepoštenom ili prevarantskom poslovnom praksom činom i stoga bi bilo podložno regulatornim mjerama.

Zakon je pripreman mjesecima kako bi se reguliralo ono što se naziva algoritamsko odlučivanje, odnosno kako bi se regulirala sustave automatskog odlučivanja koji su druga sfera od ljudskog odlučivanja a također imaju svoje učinke i posljedice. Kritičari usvojene verzije najviše mu zamjeraju što cilja samo na „automatizirano odlučivanje visokog rizika“ i na velike tehnološke kompanije, a ne i na manje koje, kako smatraju, imaju jednaki potencijal nanijeti štetu ljudima i društvu svojim algoritmima. Zamjerke su i da zakon, jer se donosio na brzinu, nema nikakvih predostrožnih mjera u području koje je složeno, vrlo brzo se razvija i ima sve značajniji utjecaj u svim sferama života i poslovanja.

Držanje algoritamskih odluka na višem standardu od ljudskih odluka podrazumijeva da su automatizirane odluke u osnovi manje pouzdane ili opasnije od ljudskih, što nije slučaj jer u suštini algoritamske odluke kreiraju ljudi, smatraju kritičari zakona.

Kritičari zakona zamjeraju mu i što ne zahtijeva javno ocjenjivanje utjecaja procjena automatskog odlučivanja iz poštovanja važnosti zaštite vlasničkih podataka. „Zaštita vlasničkih podataka važna je, no bilo bi bolje zahtijevati da ove procjene učinka budu javno dostupne, tako da tvrtka objavljuje opće podatke o tome što je učinila i uređuje sve privatne podatke. Na ovaj način bi se potrošači svjesniji svih potencijalnih rizika povezivanja s određenim algoritamskim sustavom i stvorio konkurentski pritisak za kompanije da smanje taj rizik“, smatraju kritičari.

Podijeli:

Vezane objave