ShadowLeak: La vulnerabilità di ChatGPT che ruba dati Gmail senza click

Vulnerabilità di ChatGPT che ruba dati Gmail senza click: ShadowLeak

I ricercatori di sicurezza informatica di Radware hanno scoperto una vulnerabilità critica in ChatGPT chiamata ShadowLeak, che permette agli attaccanti di rubare dati sensibili dalle caselle email Gmail senza alcuna interazione da parte dell’utente. Questa tecnica di attacco, completamente invisibile, sfrutta l’agente Deep Research di OpenAI per esfilitrare informazioni direttamente dai server cloud dell’azienda, bypassando le tradizionali difese di sicurezza. OpenAI ha già risolto la vulnerabilità dopo la segnalazione responsabile avvenuta a giugno 2025, ma l’episodio evidenzia i nuovi rischi legati all’integrazione dell’intelligenza artificiale con i servizi personali. Gli utenti dovrebbero prestare particolare attenzione alle autorizzazioni concesse agli agenti AI e verificare regolarmente le impostazioni di sicurezza dei propri account.

Come funziona l’attacco ShadowLeak

L’attacco ShadowLeak rappresenta una nuova categoria di minacce informatiche che sfrutta le capacità avanzate degli agenti di intelligenza artificiale. La tecnica si basa su un’iniezione di prompt indiretta nascosta all’interno di email apparentemente innocue.

Il funzionamento dell’attacco è particolarmente sofisticato: gli attaccanti inviano un’email alla vittima contenente istruzioni maligne nascoste attraverso tecniche di occultamento come testo bianco su sfondo bianco, caratteri microscopici o trucchi CSS che rendono il contenuto invisibile all’occhio umano[3]. Quando l’utente attiva l’agente Deep Research di ChatGPT per analizzare le proprie email, l’agente legge e segue automaticamente queste istruzioni nascoste invece di quelle dell’utente legittimo.

Deep Research è una funzionalità autonoma lanciata da OpenAI nel febbraio 2025 che permette a ChatGPT di navigare il web per 5-30 minuti per creare report dettagliati con fonti[1]. Quando questa funzionalità è integrata con Gmail, l’agente può accedere e analizzare il contenuto delle email per svolgere ricerche approfondite.

La natura server-side dell’attacco

Ciò che rende ShadowLeak particolarmente pericoloso è la sua natura server-side: l’esfiltrazione dei dati avviene interamente all’interno dell’infrastruttura cloud di OpenAI, senza coinvolgere il dispositivo del client[1][3]. Questo aspetto distingue ShadowLeak da precedenti vulnerabilità come AgentFlayer di Zenity ed EchoLeak di Aim Security, che invece si basavano su attacchi client-side.

L’invisibilità dell’attacco rappresenta il suo aspetto più insidioso. Poiché l’esfiltrazione avviene direttamente dai server di OpenAI, le tradizionali difese di sicurezza locali o aziendali non possono rilevare o prevenire il furto di dati[1]. Questo amplia significativamente la superficie di attacco e rende la minaccia particolarmente difficile da individuare.

Il processo di sviluppo dell’attacco

I ricercatori di Radware hanno descritto lo sviluppo di ShadowLeak come “un susseguirsi di tentativi falliti, ostacoli frustranti e, infine, una svolta”[2]. Il team ha dovuto superare diverse sfide tecniche per perfezionare la tecnica di attacco.

La strategia vincente è stata quella di istruire l’agente a codificare i dati sensibili estratti in formato Base64 prima di inviarli all’attaccante tramite la funzione browser.open()[3]. I ricercatori hanno presentato questa azione come una “misura di sicurezza necessaria per proteggere i dati durante la trasmissione”, ingannando così l’agente e facendogli eseguire l’esfiltrazione.

Tipologie di dati a rischio

L’attacco ShadowLeak può portare all’esposizione di diverse categorie di informazioni sensibili presenti nelle caselle email:

Dati personali e professionali: informazioni di identificazione personale (PII), dati sanitari protetti (PHI), corrispondenza con risorse umane e dettagli personali[4].

Informazioni commerciali: dati su accordi commerciali, strategie legali, credenziali di accesso e informazioni proprietarie dell’azienda[4].

Conformità normativa: l’esposizione di questi dati può portare a violazioni di regolamenti come GDPR, CCPA e normative SEC, con conseguenti sanzioni e danni reputazionali[4].

Estensione della minaccia

Sebbene la dimostrazione iniziale si sia concentrata su Gmail, l’attacco può essere esteso a qualsiasi connettore supportato da ChatGPT[3]. Questo include servizi come Box, Dropbox, GitHub, Google Drive, HubSpot, Microsoft Outlook, Notion e SharePoint, ampliando notevolmente la superficie di attacco potenziale.

La natura modulare dell’integrazione di ChatGPT con vari servizi cloud significa che ogni nuovo connettore rappresenta un potenziale vettore di attacco per tecniche simili a ShadowLeak.

Risposta di OpenAI e risoluzione

OpenAI ha dimostrato un approccio responsabile nella gestione della vulnerabilità. Dopo la segnalazione da parte di Radware il 18 giugno 2025, l’azienda ha confermato e risolto il problema nei primi giorni di agosto[3][4]. La rapidità della risposta indica l’importanza che OpenAI attribuisce alla sicurezza dei propri sistemi.

La risoluzione della vulnerabilità probabilmente ha comportato modifiche ai meccanismi di parsing e validazione degli input dell’agente Deep Research, oltre al rafforzamento delle protezioni contro le iniezioni di prompt indirette.

Implicazioni per la sicurezza dell’AI

ShadowLeak rappresenta un importante precedente nel panorama della sicurezza dell’intelligenza artificiale. È la prima vulnerabilità di iniezione di prompt indiretta zero-click con esfiltrazione server-side scoperta in ChatGPT[4], stabilendo un nuovo standard per le minacce legate agli agenti AI.

Questo tipo di attacco evidenzia la necessità di sviluppare nuove metodologie di sicurezza specificamente progettate per gli ambienti AI. Le tradizionali misure di sicurezza informatica potrebbero non essere sufficienti per proteggere contro minacce che sfruttano le capacità avanzate degli agenti di intelligenza artificiale.

Raccomandazioni di sicurezza avanzate

Gli utenti aziendali dovrebbero implementare politiche rigorose per l’uso degli agenti AI, incluse revisioni periodiche delle autorizzazioni concesse e monitoraggio delle attività degli agenti. È fondamentale mantenere aggiornati tutti i sistemi AI e seguire le best practice di sicurezza informatica.

Le organizzazioni dovrebbero considerare l’implementazione di soluzioni di sicurezza specializzate per ambienti AI che possano rilevare comportamenti anomali degli agenti e potenziali tentativi di esfiltrazione dati. La formazione del personale sui rischi legati all’AI diventa cruciale per prevenire attacchi simili in futuro.

È consigliabile limitare l’accesso degli agenti AI solo ai dati strettamente necessari per le loro funzioni e implementare principi di accesso a privilegio minimo. Il monitoraggio continuo delle comunicazioni degli agenti AI con servizi esterni può aiutare a identificare precocemente attività sospette.

Fonte: https://www.federprivacy.org/informazione/societa/scoperto-shadow-leak-la-trappola-zero-click-che-sfrutta-chatgpt-per-esfiltrare-dati-sensibili-da-gmai

Torna in alto