Gli agenti IA possono eseguire attività per conto dell’utente e ciò spesso include il controllo del browser Web, l’ordinamento della posta elettronica e l’interazione con Internet in generale. E poiché ci sono molti posti online in cui la tua identità può essere rubata o danneggiata in altro modo, è importante che questi agenti sappiano cosa stanno facendo.
Pertanto, man mano che gli utenti passano dai browser Web e dalla ricerca Google a browser e agenti basati sull’intelligenza artificiale, le società di intelligenza artificiale come OpenAI devono assicurarsi che questi strumenti non cadano direttamente in un tentativo di phishing o facciano clic su collegamenti dannosi.
Nel nuovo articolo del blogOpenAI spiega esattamente come i suoi agenti AI proteggono gli utenti.
Una possibile soluzione a questo problema sarebbe che OpenAI creasse semplicemente un elenco di siti Web attendibili a cui i suoi agenti possono accedere. Tuttavia, come ha spiegato la società in un post sul blog, ciò sarà probabilmente troppo limitante e danneggerà l’esperienza dell’utente. OpenAI utilizza invece quello che chiama un indice web indipendente, che registra gli URL pubblici di cui è già nota l’esistenza su Internet, indipendentemente dai dati dell’utente.
Velocità della luce mashable
In questo modo, se l’URL è presente nell’indice, l’agente AI potrà aprirlo senza alcun problema. Altrimenti, l’utente vedrà un avviso che chiede il permesso di andare avanti.
Puoi vederlo se un agente tenta di accedere a qualcosa a cui non dovrebbe.
1 credito
OpenAI lancia la previsione dell’età per la sicurezza degli adolescenti
Come spiega OpenAI in un post sul blog: “Ciò sposta la domanda di sicurezza da “Ci fidiamo di questo sito?” a ‘È lì? indirizzo specifico appare pubblicamente sul web aperto in un modo che non si basa sui dati degli utenti?
Una spiegazione più tecnica può essere trovata più avanti lavoro di ricerca OpenAI è stato pubblicato l’anno scorso, ma la cosa principale da sapere è che le pagine web possono manipolare gli agenti IA facendogli fare cose che non dovrebbero fare. Una forma comune di questo è l’iniezione rapida, che fornisce istruzioni segrete a un modello di intelligenza artificiale chiedendogli di ottenere dati sensibili o di compromettere in altro modo la sicurezza informatica.
Per essere chiari: come afferma OpenAI nel suo blog, questo è solo un livello di sicurezza e non garantisce necessariamente che ciò su cui stai per fare clic sia completamente sicuro. I siti Web possono contenere tecniche di ingegneria sociale o altri progetti sleali che un agente di intelligenza artificiale potrebbe non necessariamente notare.
Divulgazione: Ziff Davis, la società madre di Mashable, ha intentato una causa contro OpenAI nell’aprile 2025, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.
Link alla fonte: mashable.com










