Tendiamo a pensare all’App Store di Apple e al Google Play Store come a “giardini recintati” digitali, spazi sicuri e appositamente curati in cui i contenuti pericolosi o di scarsa qualità vengono filtrati molto prima che raggiungano i nostri schermi. Ma un’analisi nuova e brutale Progetto di trasparenza tecnologica (TTP) Ciò dimostra che ci sono gravi crepe nei muri. Il rapporto rivela una verità inquietante: le vetrine di entrambi i grandi magazzini sono ora piene di dozzine di app di “nudificazione” basate sull’intelligenza artificiale. Questi non sono strumenti oscuri nascosti nel dark web; Consentono a chiunque di scattare una foto innocente di una persona e di rimuoverne digitalmente i vestiti senza il suo consenso.
All’inizio di quest’anno, la controversia sulla tecnologia è arrivata al culmine quando l’intelligenza artificiale di Elon Musk, Grok, è stata sorpresa a produrre immagini sessuali simili sulla piattaforma X. Ma mentre Grok è diventato un parafulmine per la rabbia pubblica, la ricerca del TTP mostra che questa è solo la punta dell’iceberg. Una semplice ricerca negli app store di termini come “spogliarsi” o “nudo” rivela un elenco di software appositamente progettati per creare pornografia deepfake non consensuale.
Le dimensioni di questo settore sono francamente sconcertanti
Non stiamo parlando di alcuni sviluppatori disonesti che riescono a sfuggire al gioco. Secondo i dati, queste applicazioni hanno raggiunto complessivamente oltre 700 milioni di download. Hanno generato entrate stimate per 117 milioni di dollari. Ed ecco la scomoda verità: poiché Apple e Google spesso guadagnano commissioni da acquisti e abbonamenti in-app, traggono effettivamente profitto dalla creazione di immagini sessuali non consensuali. Quando qualcuno paga per “raschiare” la foto di un compagno di classe, di un collega o di uno sconosciuto, i giganti della tecnologia ottengono la loro parte.
Il costo umano di questa tecnologia non può essere sopravvalutato. Questi strumenti trasformano in armi le foto ordinarie. Un selfie su Instagram o una foto dell’annuario possono essere trasformati in materiale esplicito per molestare, umiliare o ricattare le vittime. I gruppi di difesa lo gridano da anni, avvertendo che il “napping dell’intelligenza artificiale” è una forma di violenza sessuale che prende di mira in modo sproporzionato le donne e, soprattutto, i minori.
Allora perché sono ancora lì?
Sia Apple che Google hanno politiche rigorose sulla carta che vietano i contenuti pornografici e di sfruttamento. Il problema è nell’applicazione. È diventato il gioco digitale di Whac-A-Mole. Quando esce un rapporto di alto profilo, le aziende possono vietare alcune app specifiche, ma gli sviluppatori spesso modificano il logo, cambiano leggermente il nome e ricaricano lo stesso codice una settimana dopo. I sistemi di revisione automatizzata sembrano del tutto incapaci di tenere il passo con il rapido sviluppo dell’intelligenza artificiale generativa.
Per i genitori e gli utenti occasionali, questo è un campanello d’allarme. Non possiamo più presumere che un’app sia sicura o etica solo perché si trova nello store “ufficiale”. Man mano che gli strumenti di intelligenza artificiale diventano più potenti e di più facile accesso, le misure di sicurezza su cui facevamo affidamento in passato stanno fallendo. Fino a quando le autorità di regolamentazione non interverranno o Apple e Google non decideranno di dare priorità alla sicurezza rispetto alle commissioni, le nostre controparti digitali rimarranno preoccupantemente vulnerabili.
Link alla fonte: www.digitaltrends.com










