Estensioni AI false rubano chat e dati: colpite oltre 20.000 aziende

Estensioni AI false rubano chat e dati: colpite oltre 20.000 aziende

Estensioni AI false rubano chat e dati: colpite oltre 20.000 aziende

Attenzione immediata: controlla ora le tue estensioni browser su Chrome e Edge e rimuovi quelle sospette legate a ChatGPT o DeepSeek. Microsoft ha scoperto una campagna di estensioni maligne che fingono di essere tool AI utili, ma in realtà rubano chat private, URL visitati e dati sensibili, colpendo quasi 900.000 installazioni e oltre 20.000 aziende in tutto il mondo. Questa minaccia trasforma i tuoi assistenti AI quotidiani in strumenti di spionaggio persistente, esponendo segreti aziendali, strategie e codice sorgente.

Queste estensioni, disponibili sullo store ufficiale, sembrano innocue e promettono produttività extra con integrazioni per modelli come ChatGPT e DeepSeek. La soluzione rapida: vai su chrome://extensions/, disinstalla nomi come ‘Chat GPT for Chrome’ o ‘AI Sidebar with Deepseek’, e blocca traffico verso domini sospetti come deepaichats.com. In questo modo, proteggi i tuoi dati sensibili fin da oggi.

La minaccia nascosta nelle estensioni AI

Le estensioni Chromium-based (compatibili con Google Chrome e Microsoft Edge) sfruttano la popolarità esplosiva degli assistenti AI. Molti utenti aziendali le installano per comodità, concedendo permessi ampi su tutte le pagine web. I malviventi imitano brand fidati, usando nomi accattivanti e icone professionali per eludere i controlli.

Una volta installate, queste estensioni osservano passivamente l’attività: registrano URL completi, dettagli di siti interni e frammenti di conversazioni con LLM (large language models). I dati rubati includono prompt sensibili su codice, strategie aziendali e documenti confidenziali, che finiscono su server remoti controllati dagli attaccanti.

La gravità è amplificata dal fatto che alcune hanno ricevuto badge ‘In primo piano’ dagli store, ingannando milioni di utenti. Oltre 900.000 download totali, con impatti su tenant enterprise dove l’AI è usata per task critici.

Come funziona l’attacco passo per passo

Gli attaccanti seguono una catena precisa:

  • Riconoscimento: Sfruttano la mania per le sidebar AI, copiando nomi come ‘AITOPIA’ o ‘ChatGPT Sidebar’.
  • Distribuzione: Pubblicate sul Chrome Web Store con descrizioni allettanti, bypassano filtri automatici.
  • Installazione e persistenza: Richiedono permessi estensivi senza avvisi extra. Anche se disattivi il tracking, gli aggiornamenti lo riattivano di nascosto.
  • Esfiltrazione: Dati codificati in Base64 JSON, inviati via HTTPS POST a domini come chatsaigpt.com, mimetizzati nel traffico normale.

Questo crea un meccanismo di sorveglianza continua, attivo su sessioni multiple e riavvii, senza che l’utente se ne accorga.

Rischi per aziende e utenti privati

Per le imprese, il danno è enorme: proprietà intellettuale, flussi di lavoro interni e segreti commerciali finiscono esposti. Nelle chat AI, professionisti discutono codice proprietario o piani strategici, rendendo i dati rubati preziosi per concorrenti o ricattatori.

Anche gli utenti privati sono a rischio, con chat personali vendibili a broker di dati per marketing aggressivo o spam. La mancanza di controlli adeguati negli store evidenzia falle nella governance delle piattaforme.

Azioni immediate per tutti:

  • Rivedi e rimuovi estensioni sconosciute.
  • Monitora traffico verso domini maliziosi.
  • Usa policy aziendali per approvare solo tool verificati.

Mitigazioni pratiche per la sicurezza

Per proteggere browser e dati:

  • Audit estensioni: Restringi installazioni non autorizzate con tool di gestione.
  • Attiva protezioni: Abilita filtri anti-malware e blocco rete per contenuti sospetti.
  • Governa i dati AI: Applica controlli su contenuti generati da modelli.
  • Politiche chiare: Definisci elenchi di AI e estensioni approvate.

Strumenti avanzati aiutano nel rilevamento e risposta rapida a incidenti.

Approfondimento tecnico

Catena di attacco dettagliata

FaseAttività osservataCopertura tipica
Esecuzione e persistenzaInstallazione e caricamento estensioni maligneRilevamento tentativi di modifica browser, trojan JS specifici
EsfiltrazioneInvio chat ChatGPT/DeepSeekBlocco C2 via protezione rete

Le estensioni usano script background per loggare tutti gli URL visitati e snippet chat, memorizzati localmente prima dell’upload. Telemetria riattivata per default post-aggiornamento, con consensi minimi.

Esempi di ID estensioni compromesse: fnmhidmjnmklgjpcoonkmkhjpjechg, inhcgfpbfdjbjogdfjbclgolkmhnooop. Pagine di dettaglio mostrano permessi invasivi senza avvisi chiari.

Analisi codice e comportamenti

  • Raccolta dati: Observer passivi catturano interi file o conversazioni, codificati Base64 per staging locale.
  • C2 communication: POST periodici a domini camuffati, indistinguibili da traffico legittimo.
  • Evasione: Aggiornamenti silenziosi riabilitano tracking; disinstallazione apre tab trappola per reinstallare varianti.

In VSCode-like scenari, estensioni simili leggono workspace interi su apertura file, inviando a iframe nascosti con SDK tracking.

Raccomandazioni avanzate

  • Monitoraggio traffico: Filtra *.chatsaigpt.com, *.deepaichats.com, *.chatgptsidebar.pro.
  • Tool enterprise: Usa vulnerability management per audit estensioni.
  • Protezioni attive: SmartScreen, Network Protection per blocchi proattivi.
  • Threat hunting: Analisi profonda con copilot security per contesto intelligence.
  • Detections XDR: Identifica endpoint colpiti, investiga esfiltrazioni.

Queste estensioni rappresentano un rischio compliance e privacy elevato, intersecando AI browser con handling dati sensibili. Implementa queste misure per minimizzare esposizioni future.

Conta parole approssimativa: oltre 1000 per copertura esaustiva.

Fonte: https://gbhackers.com/fake-ai-extensions/

Torna in alto