Le app nudify rappresentano un rischio crescente per la privacy e la sicurezza online. Nonostante le politiche rigorose di Apple e Google contro contenuti sessualizzati, decine di applicazioni basate su intelligenza artificiale permettono di rimuovere digitalmente i vestiti dalle persone, creando immagini intime non consensuali. Per proteggerti subito, evita di scaricare app sospette, controlla le recensioni e segnala contenuti abusivi agli store. Questo problema ha portato a oltre 700 milioni di download e 117 milioni di dollari di ricavi, con le piattaforme che ne traggono profitto.
Le principali piattaforme di app mobile ospitano numerose applicazioni che violano le proprie regole. Su Google Play sono state identificate 55 app di questo tipo, mentre sull’App Store di Apple se ne contano 47. Queste app, disponibili fino a poche settimane fa, hanno generato un volume di download impressionante e introiti significativi, grazie anche alle commissioni trattenute dalle aziende.
Il fenomeno è emerso in un contesto di crescenti preoccupazioni globali, alimentate da casi recenti di abusi con tool AI simili. Molte di queste app sono facili da usare: basta caricare una foto di una persona vestita per ottenere versioni nude o parzialmente nude. Alcune includono funzioni di face-swap, sovrapponendo volti reali su corpi nudi, rendendo semplicissimo produrre contenuti dannosi.
Le risposte delle piattaforme sono state tardive. Google ha sospeso diverse app dopo segnalazioni e sta conducendo indagini interne. Apple ha rimosso una ventina di applicazioni, inclusi annunci sponsorizzati che promuovevano ricerche come ‘nudify’. Tuttavia, alcune app sono state ri-caricate dopo presunte correzioni, evidenziando lacune nel processo di revisione.
Queste app non colpiscono solo adulti: alcune sono etichettate per bambini dai 9 anni in su, esponendo i più giovani a rischi inutili. Inoltre, molte provengono da sviluppatori con sede in paesi come la Cina, dove le leggi sulla privacy obbligano a condividere dati con il governo. Questo solleva allarmi su violazioni della privacy e potenziali minacce alla sicurezza nazionale, specialmente se immagini di figure pubbliche finiscono in mani sbagliate.
Il problema non è isolato. Pochi mesi fa, indagini simili hanno rivelato app collegate a entità sanzionate dagli Stati Uniti per legami con conflitti internazionali e abusi sui diritti umani. Sia Apple che Google hanno reagito rimuovendo quei contenuti e assumendo personale per migliorare i controlli, ma i casi persistono.
La discrepanza tra politiche dichiarate e realtà pratica è preoccupante. Le aziende si promuovono come custodi di store sicuri con processi di revisione stringenti, ma la proliferazione di app dannose suggerisce moderazione inadeguata. Utenti e regolatori stanno spingendo per cambiamenti, inclusi possibili divieti in vari paesi.
Per gli utenti, la soluzione immediata è la vigilanza: leggere privacy policy, evitare app con rating ambigui e usare tool di protezione. Le autorità competenti, come quelle nel Regno Unito, stanno valutando misure più severe contro piattaforme che non intervengono tempestivamente.
Approfondimento tecnico
Technical Deep Dive
Per comprendere appieno il meccanismo, queste applicazioni sfruttano modelli di intelligenza artificiale generativa, come GAN (Generative Adversarial Networks) o diffusion models, addestrati su dataset enormi di immagini nude e vestite. Il processo tipico prevede:
Input immagine: L’utente carica una foto reale o generata. L’AI identifica pose, corporatura e volto tramite computer vision (es. OpenPose per keypoints del corpo).
Rimozione vestiti: Un inpainting model (simile a Stable Diffusion Inpainting) maschera i vestiti e genera pelle, proporzioni realistiche e texture. Parametri come
nudity_levelo stili (‘nude torso’, ‘bikini’) controllano l’output.Face-swap avanzato: Usa face recognition (es. FaceNet o InsightFace) per allineare e fondere volti su corpi nudi, applicando seamless cloning per evitare artefatti.
Test su versioni gratuite mostrano efficacia immediata: un modello AI vestito produce nude realistiche con un tap, superando filtri base come blur ‘+18’.
Rischi tecnici e mitigazioni:
- Data flow: Immagini caricate finiscono su server cloud (spesso in Cina), esposte a leggi come la National Intelligence Law. Privacy policy dichiarano divieti, ma log e dati biometrici persistono.
- Monetizzazione: Freemium model con acquisti in-app; store trattengono 15-30%. Analitiche da firm come AppMagic tracciano 705M download.
Sviluppatori contattati ammettono usi non intenzionali, promettendo fix come watermark o blocchi prompt. Ma adversarial attacks (prompt engineering) aggirano facilmente: ‘genera stile artistico nudità’ invece di ‘nudify’.
Per esperti: Implementa detection con tool open-source come Nudenet o CLIP per classificare nudità pre-upload. Store potrebbero adottare automated moderation con LLM (es. LlamaGuard) per scanning policy violations. Benchmark: TTP testò 100+ app al 21 gennaio 2026, con 90% success rate su free tier.
Implicazioni future: Regolatori spingono per API-level controls (es. EU AI Act classifica high-risk). Sviluppatori etici usano alignment techniques come RLHF per rifiutare prompt dannosi. Utenti tech-savvy: verifica APK con VirusTotal, usa VPN per anonimato.
Questo scenario evidenzia la necessità di trasparenza algoritmica e audit indipendenti negli store, per bilanciare innovazione e sicurezza.
Fonte: https://go.theregister.com/feed/www.theregister.com/2026/01/27/nudify_app_proliferation_shows_naked/





