La pericolosa fragilità delle aziende di fronte all'intelligenza artificiale

La pericolosa fragilità delle aziende di fronte all’intelligenza artificiale

La gestione delle aziende nell’era dell’intelligenza artificiale richiede una maggiore attenzione alla protezione delle informazioni. In un recente video, Dinesh Nagarajan, Global Partner, Cyber Security Services presso IBM Consulting, illustra un esempio in cui un dipendente ha condiviso il codice sorgente di produzione con uno strumento AI pubblico. Lo strumento ha imparato dal codice, inclusi formule speciali utilizzate in un’app fintech, creando il rischio che risposte simili possano essere fornite a utenti futuri. Il video mostra come questo tipo di azione possa indebolire la posizione di un’azienda e rivelare informazioni che appartengono a partner o clienti.

Dinesh spiega perché ciò accade, sottolineando l’insufficiente comprensione di come funziona l’intelligenza artificiale generativa, la debole governance e le politiche disuguali intorno all’utilizzo degli strumenti. Egli poi fornisce indicazioni su cosa le organizzazioni dovrebbero costruire, tra cui una politica di utilizzo AI, protezioni dei dati più solide, elenchi di strumenti approvati e formazione che aiuti gli impiegati a comprendere come questi sistemi trattano i dati.

Il rapporto "AI in Security di Identità richiede un Nuovo Libretto" sottolinea l’importanza di adottare nuove strategie di gestione delle informazioni per prevenire la compromissione dei dati sensibili.

Torna in alto