Microsoft afferma che il tuo agente AI potrebbe essere un doppio agente

Microsoft avverte che la fretta di implementare agenti IA sul posto di lavoro potrebbe creare un nuovo tipo di minaccia interna, il doppio agente AI. in esso Rapporto Cyber ​​PulseDice che gli aggressori possono modificare l’accesso di un assistente o fornire input non attendibili e quindi utilizzare tale accesso per causare danni all’interno di un’organizzazione.

Il problema non è che l’intelligenza artificiale sia nuova. Questo è uno squilibrio di controllo. Microsoft afferma che gli intermediari sono diffusi in tutti i settori, mentre alcune implementazioni possono superare il controllo IT e i team di sicurezza perdono di vista ciò che è in esecuzione e ciò che possono toccare.

Questo punto cieco diventa più rischioso quando un agente può ricordare e agire. Microsoft fa riferimento a una recente campagna di frode indagata dal team Defender che utilizzava l’avvelenamento della memoria per manomettere il contenuto archiviato dell’assistente AI e reindirizzare l’output futuro.

Gli agenti ombra espandono il raggio dell’esplosione

Microsoft attribuisce il rischio del doppio agente alla velocità. Quando l’implementazione lascia indietro la sicurezza e la conformità, emerge rapidamente l’intelligenza artificiale ombra e gli aggressori hanno maggiori possibilità di impossessarsi di uno strumento che dispone già di un accesso legittimo. Questo è lo scenario da incubo.

Il rapporto inquadra questo problema tanto come un problema di accesso quanto come un problema di intelligenza artificiale. Concedere a un agente ampi privilegi; Un singolo flusso di lavoro ingannato può accedere a dati e sistemi che non dovrebbe mai toccare. Microsoft promuove l’osservabilità e la gestione centralizzata in modo che i team di sicurezza possano vedere ogni agente connesso al lavoro, inclusi gli strumenti che appaiono al di fuori dei canali approvati.

La diffusione è già in atto. Microsoft rileva che il suo sondaggio ha rilevato che il 29% dei dipendenti utilizza agenti IA non approvati per attività lavorative; Si tratta di un tipo di espansione silenziosa che rende difficile rilevare tempestivamente eventuali manomissioni.

Non si tratta solo di reindirizzamenti errati

Questo non si limita a qualcuno che digita la richiesta sbagliata. Microsoft sottolinea che l’avvelenamento della memoria è un attacco persistente; Si tratta di un attacco che può creare cambiamenti che influenzano le risposte successive e minano la fiducia nel tempo.

L’AI Red Team ha inoltre scoperto che gli agenti venivano ingannati da elementi ingannevoli dell’interfaccia, comprese istruzioni dannose nascoste nei contenuti quotidiani e nelle strutture delle attività che manipolavano abilmente il giudizio. Può sembrare normale. Questo è ciò che conta.

Cosa fare dopo

La raccomandazione di Microsoft è di trattare gli agenti AI come una nuova classe di identità digitali, non come un semplice componente aggiuntivo. Il rapporto raccomanda una postura Zero Trust per gli agenti, verifica l’identità, mantieni le autorizzazioni strette e monitora costantemente il comportamento per evidenziare attività insolite.

Anche il governo centrale è importante per lo stesso motivo. Se i team di sicurezza riuscissero a fare l’inventario degli agenti, a capire a cosa possono accedere e a implementare controlli coerenti, il problema dei doppi agenti sarà ridotto.

Prima di distribuire più agenti, mappare ciò a cui ciascuno può accedere, applicare i privilegi minimi e impostare un monitoraggio in grado di segnalare la manomissione delle istruzioni. Se non riesci ancora a rispondere a queste nozioni di base, rallenta e risolvi prima il problema.


Link alla fonte: www.digitaltrends.com

Lascia un commento