La decisione della Marina americana di vietare l’uso di DeepSeek, un modello di intelligenza artificiale (IA) cinese, ha sollevato molte preoccupazioni riguardo alla sicurezza e alla geopolitica. Questo articolo esplora le ragioni dietro tale divieto e discute perché l’Europa dovrebbe essere cauta nell’affidarsi a OpenAI e altre big tech statunitensi.
Il Divieto di DeepSeek
Il 30 gennaio 2025, la Marina americana ha emesso una lettera ufficiale ai suoi dipendenti, vietando loro di utilizzare DeepSeek in qualsiasi forma. Questo divieto è stato motivato da “potenziali rischi per la sicurezza e preoccupazioni etiche” legate all’utilizzo di un modello AI cinese[1]. La Marina americana ha specificato che l’uso di DeepSeek è inaccettabile sia per scopi aziendali che personali.
Il Successo di DeepSeek
DeepSeek ha recentemente introdotto un nuovo modello R1, che ha rapidamente superato la classifica dei download più scaricati nell’App Store, superando anche ChatGPT di OpenAI. Questo successo è stato possibile grazie a un investimento di meno di 6 milioni di dollari e due mesi di sviluppo, rendendo DeepSeek significativamente più economica rispetto alle sue controparti occidentali[1].
Implicazioni Geopolitiche
La reazione del mercato azionario è stata rapida: le azioni di Nvidia e Broadcom sono scese del 17%, e il Nasdaq ha perso il 3,1%. Questo ha costato ai giganti della tecnologia circa…[1]. La decisione della Marina americana è stata vista come un chiaro segnale geopolitico, dove gli Stati Uniti riconoscono i rischi legati all’intelligenza artificiale cinese e ne temono le implicazioni sulla sicurezza nazionale.
La Guerra dell’Intelligenza Artificiale
Il presidente Donald Trump ha definito il successo di DeepSeek un “campanello d’allarme” per le aziende americane. La sua amministrazione ha già annunciato il lancio del progetto Stargate, una joint venture tra OpenAI, Oracle e SoftBank, volta a sviluppare un’infrastruttura AI nazionale[1]. Questo indica una crescente competizione geopolitica nell’ambito dell’intelligenza artificiale.
Lobbying di OpenAI in Europa
Nel frattempo, OpenAI ha lobbato per ridurre il carico regolatorio dell’AI Act europeo. La società ha proposto modifiche che sono state incorporate nel testo finale della legge, riducendo le esigenze regolatorie per i sistemi AI general purpose, come GPT-3 e Dall-E 2[2]. Questo ha sollevato preoccupazioni riguardo alla trasparenza e alla sovranità dei dati in Europa.
Risposta di OpenAI all’AI Act
OpenAI ha dichiarato di essere impegnata a rispettare la nuova legge europea sull’intelligenza artificiale, sottolineando che l’obiettivo della legge è in linea con la sua missione di sviluppare e distribuire un’intelligenza artificiale sicura a beneficio di tutta l’umanità[3]. Tuttavia, la società ha anche espresso critiche riguardo alla legge, affermando di poter cessare le operazioni in Europa se non fosse in grado di conformarsi alle norme regolatorie.
Suggerimenti e Consigli per l’Europa
L’Europa dovrebbe essere cauta nell’affidarsi a OpenAI e altre big tech statunitensi per diversi motivi:
- Sovranità dei Dati: L’Europa ha già espresso preoccupazioni riguardo alla trasparenza e alla sovranità dei dati. La dipendenza da soluzioni americane potrebbe compromettere la capacità dell’Europa di controllare i propri dati e garantire la loro sicurezza.
- Rischi Geopolitici: La competizione geopolitica nell’ambito dell’intelligenza artificiale è in aumento. L’Europa dovrebbe considerare lo sviluppo di alternative indipendenti per non dipendere dalle tecnologie straniere.
- Regolamentazione: L’Europa dovrebbe continuare a sviluppare regolamentazioni robuste per l’intelligenza artificiale, garantendo che le aziende siano trasparenti e responsabili nell’utilizzo dei dati.
- Sviluppo di Alternative: L’Europa dovrebbe investire nel sviluppo di alternative indipendenti all’intelligenza artificiale, garantendo la sicurezza e la sovranità tecnologica.
- Collaborazione Internazionale: L’Europa dovrebbe collaborare con altre nazioni per sviluppare standard e regolamentazioni comuni per l’intelligenza artificiale, riducendo le barriere commerciali e garantendo la sicurezza globale.
La decisione della Marina americana di vietare l’uso di DeepSeek è un chiaro segnale geopolitico che solleva preoccupazioni riguardo alla sicurezza e alla sovranità dei dati. L’Europa dovrebbe essere cauta nell’affidarsi a OpenAI e altre big tech statunitensi, investendo invece nel sviluppo di alternative indipendenti e nella regolamentazione robusta dell’intelligenza artificiale.