Il 9 febbraio 2025, un hacker con l’alias “Gloomer” ha pubblicato online i dati personali e le conversazioni degli utenti di OmniGPT, un popolare piattaforma di chatbot AI simile a ChatGPT. La breccia ha esposto oltre 30.000 email e 34 milioni di messaggi intercettati tra gli utenti e il chatbot. Questo evento ha sollevato serie preoccupazioni sulla sicurezza dei dati nelle piattaforme AI.
Dettagli della Breccia
La breccia è stata resa pubblica su un forum di hacking noto come BreachForums. Il post di Gloomer ha rivelato che i dati esposti includono:
- Email degli utenti: Una lista di indirizzi email degli utenti in chiaro.
- Numeri di telefono: Alcuni record includono numeri di telefono associati.
- File caricati: Collegamenti a documenti sensibili caricati dagli utenti su Google Cloud Storage, tra cui file .docx e .pdf che potrebbero contenere informazioni confidenziali.
- Chat logs: Conversazioni tra gli utenti e il chatbot, che potrebbero contenere informazioni personali o finanziarie.
Un estratto dei dati esposti mostra dettagli delle richieste API con riferimenti all’endpoint dell’applicazione OmniGPT (https://app.omnigpt.co/). Questo indica potenziali vulnerabilità nella gestione delle sessioni e dell’autenticazione del piattoforma.
Implicazioni Potenziali
La breccia esponga rischi significativi per gli utenti coinvolti. I log delle conversazioni potrebbero contenere informazioni sensibili come dati finanziari, conversazioni private o addirittura credenziali condivise involontariamente con il chatbot. L’accesso ai file caricati dai utenti peggiora ulteriormente le preoccupazioni sulla privacy, poiché questi documenti potrebbero contenere dati personali o aziendali.
Suggerimenti e Consigli per gli Utenti
- Cambiare le password: Gli utenti dovrebbero cambiare immediatamente le loro password per proteggere i propri account.
- Monitorare le attività: Dovrebbero essere monitorate le attività degli account per eventuali segnali di attività sospetta.
- Esercitare cautela: Gli utenti dovrebbero esercitare cautela quando interagiscono con sistemi AI fino a quando non vengono implementate misure di sicurezza più robuste a livello industriale.
Analisi degli Esperti
Andrew Bolster, Senior R&D Manager a Black Duck, ha sottolineato la natura profondamente personale delle interazioni con i chatbot e le implicazioni più ampie di questa breccia:
“Se confermata, questa violazione di OmniGPT dimostra che anche i praticanti che sperimentano con tecnologie all’avanguardia come la Generative AI possono ancora essere penetrati, e che le industrie dovrebbero seguire le migliori pratiche di valutazione, attestazione e verifica delle applicazioni. Ma ciò che potrebbe essere più angosciante per questi utenti è la natura delle conversazioni profondamente private e personali che hanno con questi chatbot”.
Eric Schwake, Direttore di Strategia di Sicurezza a Salt Security, ha avvertito sui rischi di sicurezza più ampi associati agli API esposti e alle credenziali:
“La possibile esposizione dell’informazione degli utenti e dei log delle conversazioni, inclusi oggetti sensibili come le chiavi API e le credenziali, evidenzia la necessità urgente di misure di sicurezza robuste nelle piattaforme AI. Le organizzazioni che creano e distribuiscono chatbot AI devono priorizzare la protezione dei dati durante tutto il ciclo di vita, garantendo lo storage sicuro, implementando controlli di accesso, utilizzando crittografia forte e condurre valutazioni di sicurezza regolari”.
Jason Soroko, Senior Fellow a Sectigo, ha sottolineato il ritmo rapido dell’innovazione AI che potrebbe superare i necessari controlli di sicurezza:
“La breccia di OmniGPT evidenzia il rischio che l’innovazione AI rapida superi le misure di sicurezza di base, trascurando le misure di privacy a favore della comodità. Un progresso incontrollato nell’AI invita inevitabilmente vulnerabilità che minano la fiducia degli utenti e la promessa tecnologica”.
La breccia di OmniGPT rappresenta un grave problema di sicurezza che espongo oltre 30.000 utenti e 34 milioni di messaggi intercettati. Gli utenti coinvolti dovrebbero prendere immediatamente misure per proteggere i propri dati e monitorare le attività degli account. La comunità tecnologica dovrebbe riflettere sulle vulnerabilità esposte e lavorare per implementare misure di sicurezza più robuste nelle piattaforme AI.
Fonte: https://cybersecuritynews.com/hackers-allegedly-claiming-breach-omnigpt