AI agenti vas mogu razotkriti, čak i ako objavljujete online anonimno

Velike jezične modele (LLM) moguće je koristiti za deanonimizaciju korisnika interneta - čak i onih koji koriste pseudonime - učinkovitije od ljudskih detektiva.

Mreža subota, 28. veljače 2026. u 12:10
📷 Pixabay (Pexels)
Pixabay (Pexels)

Identifikacija pojedinaca pomoću nekoliko podatkovnih točaka dosad je bila nepraktična jer su podaci često bili nestrukturirani, pa je složiti ih u nešto smisleno tražilo popriličan napor. LLM-ovi mogu automatizirati proces povezivanja podatkovnih točaka u objavama online kako bi ukazivali na vjerojatni izvor, čak i ako su objave anonimne. 

Mogu to učiniti s visokom preciznošću i za desetke tisuća ljudi.  Rezultati istraživanja "Large-scale online deanonymization with LLMs" bit će objavljeni u časopisu u MATS Researchu.

U jednom eksperimentu istraživači su prikupili 338 korisnika Hacker Newsa čiji su podaci povezani s korisničkim profilom na LinkedInu. To su učinili kako bi utvrdili temeljne identitete ispitanika kako bi se predviđanja LLM-ova mogla provjeriti. Također su nastojali izbjeći etičke probleme stvarne deanonimizacije ljudi tijekom istraživanja.

Zatim su stvorili strukturirani profil podataka tih korisnika na temelju njihovih komentara i priča koje su objavili. Temeljem toga su izradili upit za pretraživanje, anonimizirali ga i proslijedili AI agentu. Agent je ispravno identificirao 226 od 338 meta, što je stopa uspjeha od 67 posto uz 90-postotnu preciznost (bilo je 25 pogrešnih identifikacija i 86 suzdržanih gdje model nije ponudio predviđanje).

Cijelo istraživanje je koštalo oko dvije tisuće američkih dolara, uz trošak po profilu između jednog i četiri USD. Ista metoda mogla bi biti korištena za otkrivanje neistomišljenika i disidenata, ciljanje novinara i aktivista, kao i izradu visoko ciljanih reklamnih profila te profila za prijevaru korištenjem društvenog inženjeringa.