Una nuova ricerca che coinvolge scienziati di Anthropic e dell’ETH di Zurigo suggerisce che i moderni sistemi di intelligenza artificiale possono identificare identità del mondo reale dietro i cosiddetti account Internet anonimi. Lo studio pubblicato come Prestampa su arXivmostra che i modelli linguistici di grandi dimensioni (LLM) possono avere la capacità di analizzare l’attività online e collegare profili pseudonimi a individui reali su larga scala.

La ricerca, intitolata Anonimizzazione online su larga scala con un master, esplora come gli agenti di intelligenza artificiale possono automatizzare il processo di anonimizzazione (l’atto di collegare account online anonimi o pseudonimi a identità reali). Tradizionalmente, questo processo richiedeva una significativa ricerca manuale da parte degli analisti che esaminavano post, stili di scrittura e indizi sparsi online. Ma i ricercatori dimostrano che i moderni modelli di intelligenza artificiale possono eseguire automaticamente molti di questi passaggi.

Nello studio, il sistema di intelligenza artificiale ha analizzato il testo disponibile pubblicamente su piattaforme online e ha estratto segnali relativi all’identità come interessi personali, indizi demografici, stile di scrittura e dettagli incidentali rivelati nei post. L’intelligenza artificiale ha quindi cercato profili corrispondenti sul Web e ha valutato se gli indizi corrispondevano a individui conosciuti.

Per testare il metodo, i ricercatori hanno creato diversi set di dati con ID di verità precisi e noti.

In un esperimento, ha tentato di abbinare gli utenti di Hacker News ai loro profili LinkedIn anche dopo aver rimosso identificatori ovvi come nomi e nomi utente. Un altro set di dati prevedeva il collegamento di account Reddit pseudonimi in diverse comunità. Un terzo set di dati ha diviso la cronologia di condivisione di un singolo utente in due profili separati per vedere se l’intelligenza artificiale poteva rilevare se quegli utenti appartenevano alla stessa persona.

I risultati hanno mostrato che i sistemi basati su Masters hanno significativamente sovraperformato le tradizionali tecniche di anonimizzazione. In alcuni casi, i modelli hanno ottenuto richiami fino al 68% con una precisione di circa il 90%; Ciò significa che l’intelligenza artificiale identifica correttamente molti account mantenendo tassi di errore relativamente bassi. Negli stessi esperimenti, i metodi tradizionali hanno ottenuto un successo vicino allo zero.

I ricercatori affermano che i risultati evidenziano come l’intelligenza artificiale può replicare compiti che una volta richiedevano ore di lavoro da parte dei ricercatori umani. Un sistema di intelligenza artificiale può estrarre automaticamente le caratteristiche relative all’identità dal testo, cercare potenziali corrispondenze tra migliaia di profili e determinare perché quale candidato è molto probabilmente quello giusto.

Questo sviluppo è importante perché l’anonimato è da tempo considerato una protezione essenziale per molti utenti di Internet.

Gli account falsi sono ampiamente utilizzati da giornalisti, informatori, attivisti e individui comuni che vogliono discutere argomenti delicati senza rivelare la loro vera identità.

Lo studio suggerisce che questo livello di protezione, a volte chiamato “incertezza pratica”, potrebbe indebolirsi man mano che i sistemi di intelligenza artificiale migliorano nel collegare segnali digitali tra piattaforme. Se gli strumenti automatizzati potessero svolgere questo compito in modo rapido ed economico, la barriera all’identificazione degli utenti anonimi potrebbe essere notevolmente ridotta.

I ricercatori stimano che il costo per identificare un account online utilizzando la pipeline sperimentale possa essere compreso tra 1 e 4 dollari per profilo, il che significa che studi su larga scala possono essere condotti in modo relativamente economico.

Tuttavia, gli autori notano anche che la ricerca è stata condotta in ambienti controllati utilizzando dati disponibili al pubblico. Il documento non è stato ancora sottoposto a revisione paritaria e i ricercatori hanno deliberatamente omesso alcuni dettagli tecnici per ridurre il rischio di uso improprio.

Anche così, i risultati hanno già acceso il dibattito tra esperti e tecnologi della privacy.

Lo studio suggerisce che le persone potrebbero dover riconsiderare la quantità di informazioni personali che rivelano online, anche in spazi apparentemente anonimi. Guardando al futuro, i ricercatori affermano che è necessario ulteriore lavoro per comprendere sia i rischi che le possibili difese contro l’anonimizzazione assistita dall’intelligenza artificiale. Le potenziali soluzioni potrebbero includere strumenti migliorati per la privacy, protezioni più forti delle piattaforme o sistemi di intelligenza artificiale progettati per rendere anonimi i dati sensibili prima che vengano resi pubblici.

Man mano che l’intelligenza artificiale diventa sempre più capace di analizzare enormi volumi di contenuti online, lo studio evidenzia una sfida crescente: bilanciare il potere della scoperta guidata dall’intelligenza artificiale con la necessità di proteggere la privacy personale nell’era digitale.


Link alla fonte: www.digitaltrends.com