App di chat AI espone 300 milioni di messaggi di 25 milioni di utenti

App di chat AI espone 300 milioni di messaggi di 25 milioni di utenti

Attenzione utenti di app AI: le vostre conversazioni private potrebbero essere a rischio!

L’app mobile Chat & Ask AI, scaricata da oltre 50 milioni di persone su Google Play e App Store, ha esposto circa 300 milioni di messaggi appartenenti a 25 milioni di utenti. Un ricercatore di sicurezza ha scoperto che il database backend era accessibile a chiunque a causa di una configurazione errata. Soluzione immediata: controllate le autorizzazioni delle app AI installate, evitate di condividere dati sensibili e verificate la reputazione degli sviluppatori prima di usarle.

Questa violazione evidenzia i pericoli nascosti nelle app che gestiscono intelligenze artificiali. Milioni di conversazioni personali, inclusi richieste su argomenti illegali e delicati, sono finite online senza che gli utenti ne fossero consapevoli. Per proteggervi, cambiate password associate, monitorate i vostri account e optate per app con politiche privacy trasparenti.

Il contesto della violazione

Chat & Ask AI è un’app molto diffusa che permette agli utenti di chattare con modelli AI potenti come ChatGPT, Claude o Gemini. Non sviluppa un proprio modello di intelligenza artificiale, ma funge da “interfaccia” o wrapper, collegandosi a servizi di terze parti come OpenAI, Anthropic e Google. Questo approccio la rende pratica per gli utenti, ma introduce vulnerabilità se il salvataggio dei dati non è gestito correttamente.

Il problema è emerso quando un esperto indipendente ha rilevato che il database era configurato in modo pubblico. Chiunque poteva fingersi utente autenticato e accedere all’intero archivio. I dati esposti includevano:

  • Storie complete delle conversazioni con l’AI.
  • Timestamp delle chat.
  • Nomi personalizzati dati agli assistenti AI.
  • Configurazioni specifiche, come il modello AI utilizzato.

Un’analisi su un campione di 60.000 utenti e 1 milione di messaggi ha rivelato contenuti allarmanti: richieste su come produrre droghe illegali come la metanfetamina, istruzioni per hackerare altre app, consigli su suicidi indolori e persino note suicide. Questi dettagli sottolineano l’urgenza di una maggiore attenzione alla privacy nelle app AI.

Impatti sulla privacy e rischi per gli utenti

La esposizione di tali dati non è solo una questione tecnica, ma un vero attacco alla privacy individuale. Utenti che confidavano nell’app per consigli personali si sono trovati esposti. Immaginate di condividere pensieri intimi o segreti con un assistente virtuale, solo per scoprire che sono leggibili da estranei.

Inoltre, questa falla ha colpito non solo Chat & Ask AI, ma potenzialmente altri dati di app dello stesso sviluppatore. Gli esperti stimano che configurazioni errate come questa siano comuni: su 200 app iOS analizzate, 103 presentavano vulnerabilità simili, esponendo milioni di file.

Per gli utenti comuni, il consiglio è semplice: siate cauti con le informazioni personali. Evitate di inserire dati sensibili come numeri di telefono, indirizzi o dettagli medici in app di terze parti. Preferite interfacce ufficiali dei produttori AI, come le app dirette di OpenAI o Google.

Consigli pratici per la sicurezza

  • Controllate le recensioni e le policy privacy prima di scaricare un’app AI.
  • Revocate permessi inutili nelle impostazioni del dispositivo.
  • Usate VPN per connessioni sicure durante l’uso di chat AI.
  • Monitorate alert di sicurezza da fonti affidabili.

Queste misure riducono i rischi, ma la responsabilità principale ricade sugli sviluppatori. Molte app promettono standard elevati come GDPR e certificazioni SSL, ma falliscono nell’implementazione.

Approfondimento tecnico: Analisi della vulnerabilità Firebase

Approfondimento tecnico

La radice del problema risiede in una misconfigurazione di Google Firebase, una piattaforma Backend-as-a-Service (BaaS) usata per sviluppare app mobili. Firebase offre database in tempo reale, storage e autenticazione, ma richiede regole di sicurezza rigorose.

In questo caso, le Firebase Security Rules erano impostate su “pubblico” (default test mode), permettendo accesso non autenticato. Chiunque con l’URL del progetto poteva leggere, modificare o eliminare dati. Ecco un esempio semplificato di regole permissive:

rules_version = '2';
service cloud.firestore {
  match /databases/{database}/documents {
    match /{document=**} {
      allow read, write: if true;  // PERICOLOSO!
    }
  }
}

Queste regole consentono operazioni complete senza verifica. La correzione richiede transizione a regole condizionali, come:

allow read, write: if request.auth != null;

che blocca accessi anonimi. Firebase include anche Firestore e Realtime Database, entrambi vulnerabili se non configurati.

Il ricercatore ha sviluppato uno scanner automatico per app store, rivelando che il 51,5% delle app iOS scansionate aveva falle Firebase. Questo evidenzia un problema sistemico: sviluppatori prioritizzano velocità di sviluppo su sicurezza.

Dati esposti in dettaglio: Ogni record includeva JSON con chatHistory, timestamp, modelType (es. “gpt-4”), customName. Un dump campione mostrava pattern di query sensibili, con picchi su temi illegali (10-15% dei messaggi).

Mitigazioni avanzate:

  • Implementare Firebase Authentication con OAuth/Google Sign-In.
  • Usare Cloud Functions per validare input server-side.
  • Monitorare con Firebase Console e tool come Google Cloud Audit Logs.
  • Adottare Zero Trust con least-privilege rules.

Per sviluppatori, testate con tool come Firehound o scanner open-source. Integrate DLP (Data Loss Prevention) per filtrare prompt sensibili prima del salvataggio.

Rischi più ampi nelle app wrapper AI: Queste app immagazzinano log per personalizzazione, ma diventano “single point of failure”. Casi simili includono leak di PII in wrapper non ufficiali, con violazioni GDPR che portano multe fino al 7% del fatturato globale.

Lezioni apprese: Prioritizzzate audit Firebase regolari. Usate piattaforme con security-by-default, come Supabase o AWS Amplify. Per utenti enterprise, optate per deployment on-premise di modelli AI.

Questa vicenda serve da campanello d’allarme: l’ecosistema AI cresce, ma la sicurezza deve tenere il passo. Con oltre 50 milioni di download, incidenti come questo erodono la fiducia pubblica nelle tecnologie emergenti.

(Totale parole: circa 1050)

Fonte: https://cybersecuritynews.com/ai-chat-app-exposes-messages/

Torna in alto