Dimentica il paraurti. Il vero pericolo per le auto senza conducente potrebbe essere un hacker che dorme nell’intelligenza artificiale del veicolo, aspettando il momento giusto per attaccare. Tecnologia della Georgia I ricercatori hanno scoperto una nuova vulnerabilità chiamata VillainNet, che espone un punto cieco critico nei sistemi autonomi.

La backdoor rimane disabilitata finché determinate condizioni non la risvegliano. Quindi funziona il 99% delle volte. Un criminale può programmare il grilletto per quasi tutto; ad esempio, un taxi senza conducente che risponde alla pioggia. Gli attuali strumenti di sicurezza non sono in grado di rilevare questa minaccia. La sicurezza della tua auto potrebbe essere compromessa e non lo saprai mai finché non sarà troppo tardi.

Come si nasconde VillainNet in bella vista?

Il difetto risiede nell’architettura della moderna intelligenza artificiale. Le auto a guida autonoma si basano su enormi sistemi che i ricercatori chiamano superreti, che attivano e disattivano moduli più piccoli a seconda dell’attività. Consideralo come una cassetta degli attrezzi digitale con miliardi di strumenti personalizzati.

Il ricercatore principale David Oygenblik, Ph.D. Uno studente della Georgia Tech ha detto che un aggressore aveva solo bisogno di avvelenare un piccolo strumento nella scatola. Il codice dannoso rimane invisibile in numerose configurazioni normali finché lo strumento non richiama il modulo in questione. Successivamente viene attivato. Il campo di ricerca è sorprendente. Oygenblik lo ha paragonato a trovare un singolo ago in un pagliaio con 10 quintilioni di cannucce.

Lo scenario degli ostaggi è reale

Questo non è un lavoro teorico. Il team evidenzia una possibilità spaventosa. Un hacker potrebbe programmare un taxi autonomo in modo che aspetti la pioggia, per poi prendere il controllo una volta che il veicolo si abitua alle strade bagnate.

Una volta dentro, possono tenere in ostaggio i passeggeri ed esigere il pagamento minacciando di provocare un incidente. Il metodo funziona. Nei test di laboratorio, VillainNet ha avuto un successo del 99% quando attivato, altrimenti non ha lasciato traccia.

Perché questa soluzione è quasi impossibile

La ricerca è stata rivelata in un’importante conferenza sulla sicurezza tenutasi nell’ottobre 2025. Il messaggio alle case automobilistiche è forte e chiaro. Il rilevamento di una backdoor VillainNet richiederebbe una potenza di calcolo 66 volte maggiore di quella consentita dai metodi attuali.

Questa ricerca oggi è impraticabile. Il team definisce il proprio lavoro un campanello d’allarme, spingendo per nuove difese prima che questi attacchi si spostino dai laboratori alle strade pubbliche.


Link alla fonte: www.digitaltrends.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *