Hai mai usato un’app di chat con intelligenza artificiale come Chat & Ask AI? Se sì, i tuoi messaggi privati potrebbero essere stati esposti online lo scorso mese. La soluzione rapida: evita di condividere dati sensibili con chatbot AI e verifica le impostazioni di privacy delle app che usi.
Questa vulnerabilità ha colpito milioni di utenti, rivelando conversazioni su temi delicati come uso di droghe, suicidio e attività illegali. L’app, disponibile su App Store e Google Play, conta oltre 50 milioni di download e funge da intermediario per modelli AI come ChatGPT, Claude e Gemini.
Il problema spiegato semplicemente
Un ricercatore indipendente ha scoperto un database non protetto contenente 300 milioni di messaggi da oltre 25 milioni di utenti. Bastava un semplice trucco per accedere come utente autenticato e leggere chat complete, inclusi file utente, impostazioni e cronologia. Analizzando un campione di 60.000 messaggi, ha confermato la gravità: richieste di aiuto per suicidio, istruzioni per droghe sintetiche e consigli su hacking.
L’app non sviluppa l’AI internamente, ma rivende accesso a modelli di grandi aziende. Il punto debole era una configurazione errata di Google Firebase, una piattaforma comune per app mobile che, se mal impostata, rende i dati pubblici.
Buone notizie: il problema è stato risolto rapidamente dopo la segnalazione, e non ci sono prove di diffusione dei dati sul web. Tuttavia, questo incidente sottolinea i rischi di app “wrapper” che gestiscono i tuoi dati senza la stessa sicurezza dei fornitori originali.
Perché succede e come evitarlo
Le conversazioni con AI non sono mai del tutto private. I sistemi salvano i tuoi prompt per migliorare i servizi, ma una falla può esporre tutto. Ecco consigli pratici:
- Usa solo app ufficiali dei produttori AI (es. app di OpenAI).
- Non condividere informazioni personali, mediche o illegali.
- Controlla le policy privacy prima di usare un’app.
- Abilita autenticazione a due fattori dove possibile.
- Cancella chat regolarmente se l’app lo permette.
Questo caso non è isolato: molti sviluppatori trascurano le regole di sicurezza di Firebase, lasciando bucket di storage aperti.
Approfondimento tecnico
Per utenti esperti, ecco i dettagli sulla vulnerabilità.
Cos’è Google Firebase e la misconfigurazione
Firebase è un Backend-as-a-Service (BaaS) di Google per app mobile e web. Offre database Realtime, Cloud Storage e autenticazione. Il problema comune è impostare Security Rules su “public” o null, permettendo accesso anonimo.
Esempio di regola insicura (Firestore):
rules_version = '2';
service cloud.firestore {
match /databases/{database}/documents {
match /{document=**} {
allow read, write: if true; // PERICOLOSO!
}
}
}
Questa permette a chiunque con l’URL del progetto di leggere/scrivere.
Il ricercatore si è autenticato fingendosi utente, accedendo a:
- Chat log con timestamp, modello AI usato, nomi chatbot personalizzati.
- Dati di altre app dello stesso sviluppatore (Codeway, Turchia).
Statistiche allarmanti
Scansionando 200 app iOS, il ricercatore ha trovato 103 vulnerabili, esponendo milioni di file. Ha creato uno strumento automatico, “Firehound”, per rilevare queste falle su store app.
Mitigazioni per sviluppatori
- Imposta regole Firebase restrittive:
allow read, write: if request.auth != null;. - Usa Firebase Authentication obbligatoria.
- Monitora con Firebase Console e tool come Firebasectl.
- Testa con scanner open-source (es. Firebase Scanner su GitHub).
- Adotta principi zero-trust: mai accesso pubblico.
Impatto su privacy e GDPR
L’app vantava compliance GDPR e ISO, ma la falla esponeva dati sensibili, violando potenzialmente regolamenti UE. Utenti EU potrebbero avere basi per reclami.
Alternative sicure
- ChatGPT ufficiale: Crittografia end-to-end opzionale, policy chiare.
- Claude.ai: Focus su privacy, no training su prompt utente.
- Gemini: Integrazione Google con controlli enterprise.
Evita wrapper app per usi sensibili; opta per API dirette se sviluppi.
Evoluzione delle minacce AI
Con 50 milioni di utenti, app come questa amplificano rischi. Il 48% dei dipendenti carica dati sensibili in AI, secondo survey. Futuro: regolamenti più stringenti su BaaS e AI privacy.
In sintesi, proteggi te stesso limitando dati condivisi e scegliendo app affidabili. Per dev, priorita sicurezza Firebase.
Approfondimento tecnico
Analisi vulnerabilità Firebase
Firebase usa tre componenti chiave:
- Realtime Database: JSON tree, regole su nodi.
- Cloud Firestore: Documenti NoSQL, regole expressive.
- Cloud Storage: Bucket per file.
Misconfigurazione tipica: regole di default permissive durante sviluppo non cambiate in produzione.
Esempio exploit:
- Trova project ID dall’app (decompilando APK/IPA).
- Accedi a
https://<project>.firebaseio.com/.json?auth=<token>. - Se rules permissive, dump dati.
Tool di rilevamento:
- Firebase Scanner: CLI open-source.
- AppKnox, Mobile Security Framework (MobSF).
Dati esposti in dettaglio
- 300M messaggi: Testi completi, ~1M analizzati.
- 25M utenti: Profili parziali, non password ma chat identificabili.
- Contenuti: Suicidi (“come morire senza dolore”), droghe (“sintesi metanfetamine”), hacking (“crack app”).
Patch e risposta
Segnalato 20 gennaio 2026, fixato ore dopo su tutte app Codeway. No leak noto, ma dati sensibili restano rischio.
Best practices avanzate
- Integra Firebase App Check per attestazione device.
- Usa Cloud Armor per WAF.
- Audit con Firebase Security Rules Simulator.
- Migra a soluzioni self-hosted se dati critici (es. Supabase con Postgres).
Per esperti: studia repo GitHub “firebase-hack” per PoC. Resta aggiornato su CVE Firebase (nessuna specifica qui, ma monitora).
Questo incidente evidenzia: AI wrapper = rischio doppio. Priorita audit sicurezza app.
Fonte: https://lifehacker.com/tech/ai-chat-app-exposed-300-million-private-messages?utm_medium=RSS





