Un nuovo movimento online che invita gli utenti a cancellare i propri abbonamenti a ChatGPT è diventato rapidamente mainstream e tutto affonda le sue radici in una nuova controversa partnership tra OpenAI e il Dipartimento della Difesa degli Stati Uniti. L’accordo consente ai modelli OpenAI di essere implementati in reti governative segrete, una mossa che ha suscitato reazioni negative nei social media e nelle comunità tecnologiche.

Stasera abbiamo raggiunto un accordo con il Dipartimento della Guerra per inserire i nostri modelli nella loro rete segreta.

In tutte le nostre interazioni, DoW ha dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per ottenere il miglior risultato possibile.

Sicurezza dell’intelligenza artificiale e ampia distribuzione…

— Sam Altman (@sama) 28 febbraio 2026

Il dibattito si è ulteriormente intensificato quando la società rivale di intelligenza artificiale Anthropic ha rifiutato di accettare termini simili da parte del Pentagono, citando preoccupazioni sulla sorveglianza di massa e sulle armi autonome. Invece di allentare le misure di sicurezza, la società ha rischiato di perdere un importante contratto governativo e ha ricevuto elogi dai critici dell’intelligenza artificiale militare.

Questa opposizione ha rapidamente alimentato la tendenza “Annulla ChatGPT”. Alcuni utenti affermano di aver annullato gli abbonamenti per protesta, accusando OpenAI di compromettere l’etica collaborando con i militari.

Il vero dibattito riguarda l’intelligenza artificiale militare, non un’azienda

La reazione negativa non riguarda solo un contratto. Riflette una tensione più ampia e crescente su come l’intelligenza artificiale dovrebbe essere utilizzata nella difesa, nell’intelligence e nella sorveglianza. OpenAI afferma che l’accordo del Pentagono include misure di sicurezza che vietano la sorveglianza di massa interna, le armi autonome e le decisioni automatizzate ad alto rischio; Sam Altman sostiene che la collaborazione con i governi aiuta a definire un uso responsabile dell’intelligenza artificiale.

Ma i critici rimangono cauti, sottolineando che leggi come il Patriot Act potrebbero consentire ai programmi di sorveglianza di espandersi nel tempo. Il dibattito si è diffuso anche nel settore tecnologico. Come riportato da assiPiù di 200 dipendenti di Google e OpenAI hanno firmato una lettera aperta chiedendo limiti più forti all’uso militare dell’IA, dimostrando quanto siano divisi sulla questione anche gli addetti ai lavori dell’IA.

OpenAI ha firmato un nuovo accordo con il Pentagono.

Antropik ha detto NO.

OpenAI ha detto SÌ.

Ora #AnnullaChatGPT di tendenza e Claude è diventato il numero 1 sull’App Store.

Il mercato vota con i piedi.

Principi > Profitto

— Motore di crescita (@allenxmarketing) 1 marzo 2026

Per gli utenti comuni, questo momento segna un punto di svolta nel modo in cui vengono viste le società di intelligenza artificiale, poiché le preoccupazioni etiche si spostano dai dibattiti astratti alle partnership governative nel mondo reale e alla sicurezza nazionale. Sia che il movimento “Cancel ChatGPT” continui o finisca, la conversazione sull’intelligenza artificiale si sta chiaramente spostando da ciò che questi strumenti possono fare a dove dovrebbero trovarsi i loro limiti.


Link alla fonte: www.digitaltrends.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *