AI agenti vas mogu razotkriti, čak i ako objavljujete online anonimno
Velike jezične modele (LLM) moguće je koristiti za deanonimizaciju korisnika interneta - čak i onih koji koriste pseudonime - učinkovitije od ljudskih detektiva.
Identifikacija pojedinaca pomoću nekoliko podatkovnih točaka dosad je bila nepraktična jer su podaci često bili nestrukturirani, pa je složiti ih u nešto smisleno tražilo popriličan napor. LLM-ovi mogu automatizirati proces povezivanja podatkovnih točaka u objavama online kako bi ukazivali na vjerojatni izvor, čak i ako su objave anonimne.
Mogu to učiniti s visokom preciznošću i za desetke tisuća ljudi. Rezultati istraživanja "Large-scale online deanonymization with LLMs" bit će objavljeni u časopisu u MATS Researchu.
U jednom eksperimentu istraživači su prikupili 338 korisnika Hacker Newsa čiji su podaci povezani s korisničkim profilom na LinkedInu. To su učinili kako bi utvrdili temeljne identitete ispitanika kako bi se predviđanja LLM-ova mogla provjeriti. Također su nastojali izbjeći etičke probleme stvarne deanonimizacije ljudi tijekom istraživanja.
Zatim su stvorili strukturirani profil podataka tih korisnika na temelju njihovih komentara i priča koje su objavili. Temeljem toga su izradili upit za pretraživanje, anonimizirali ga i proslijedili AI agentu. Agent je ispravno identificirao 226 od 338 meta, što je stopa uspjeha od 67 posto uz 90-postotnu preciznost (bilo je 25 pogrešnih identifikacija i 86 suzdržanih gdje model nije ponudio predviđanje).
Cijelo istraživanje je koštalo oko dvije tisuće američkih dolara, uz trošak po profilu između jednog i četiri USD. Ista metoda mogla bi biti korištena za otkrivanje neistomišljenika i disidenata, ciljanje novinara i aktivista, kao i izradu visoko ciljanih reklamnih profila te profila za prijevaru korištenjem društvenog inženjeringa.