tecniche di attacco per aggirare i controlli di sicurezza basati sul machine learning Nuove tecniche di attacco per aggirare i controlli di sicurezza basati sul machine learning

Nuove tecniche di attacco per aggirare i controlli di sicurezza basati sul machine learning

I criminali informatici stanno escogitando nuovi modi per eludere i sistemi di sicurezza basati sull’intelligenza artificiale, mettendo a dura prova le aziende.

Il panorama delle minacce alla sicurezza informatica è in continua evoluzione, con gli attori delle minacce che sviluppano continuamente nuove tecniche per compromettere i sistemi e rubare dati. Una delle tendenze emergenti è l’uso dell’intelligenza artificiale (IA) e del machine learning (ML) per automatizzare gli attacchi e aggirare le difese di sicurezza tradizionali.

I sistemi di sicurezza basati sul ML sono diventati sempre più popolari negli ultimi anni, poiché possono identificare e bloccare i modelli di comportamento dannosi in modo più efficace rispetto agli approcci basati su regole. Tuttavia, gli attori delle minacce stanno imparando ad aggirare questi sistemi sfruttando le loro vulnerabilità.

Evitare il rilevamento del machine learning

Una delle tecniche più comuni utilizzate dagli attori delle minacce per aggirare il rilevamento del ML è l’offuscamento. L’offuscamento consiste nel modificare i dati in modo che siano più difficili da analizzare e classificare dai sistemi di ML. Ad esempio, un attore delle minacce potrebbe crittografare o modificare leggermente il codice dannoso in modo che non venga riconosciuto come tale da un modello di ML.

Un’altra tecnica comune è l’avvelenamento dei dati. L’avvelenamento dei dati consiste nell’introdurre dati errati o dannosi in un set di dati di addestramento utilizzato per addestrare un modello di ML. Ciò può compromettere il modello e renderlo meno efficace nel rilevare e bloccare gli attacchi.

Testare le difese del machine learning

Gli attori delle minacce stanno anche testando attivamente le difese del ML per identificare le loro debolezze. Lo fanno mediante l’utilizzo di tecniche di intelligenza artificiale avversaria (AAI), che consistono nell’utilizzare l’IA per generare input dannosi progettati per ingannare i sistemi di ML. Ad esempio, un attore delle minacce potrebbe utilizzare l’AAI per generare immagini dannose che assomigliano a immagini innocue, ma che in realtà contengono codice dannoso.

Mitigare le minacce alla sicurezza basate sul machine learning

Ci sono una serie di passaggi che le aziende possono adottare per mitigare le minacce alla sicurezza basate sul ML. Questi includono:

  • Utilizzare una varietà di tecniche di rilevamento, comprese sia basate sul ML che basate su regole.
  • Formare i modelli di ML su set di dati di alta qualità e monitorare attentamente le prestazioni dei modelli.
  • Implementare tecniche di rilevamento anomalo per identificare e bloccare gli input dannosi.
  • Tesare attivamente le difese del ML per identificare le debolezze e svilupparne le contromisure.

Gli attori delle minacce stanno sviluppando continuamente nuove tecniche per aggirare i controlli di sicurezza basati sul ML. Le aziende devono essere consapevoli di queste tecniche e adottare misure per mitigarle. Utilizzando una varietà di tecniche di rilevamento, formando i modelli di ML su set di dati di alta qualità, implementando tecniche di rilevamento anomalo e testando attivamente le difese del ML, le aziende possono migliorare significativamente la loro capacità di rilevare e bloccare gli attacchi basati sul ML.

Fonte: https://securityboulevard.com/2024/03/threat-actors-are-exercising-new-attack-techniques-to-bypass-machine-learning-security-controls/

Torna in alto