LinkedIn, la piattaforma di networking professionale di proprietà di Microsoft, è stata sottoposta a una class action negli Stati Uniti per aver condiviso messaggi privati dei clienti senza il loro consenso per l’addestramento dei modelli AI. Questa accusa si basa su una serie di azioni che la piattaforma ha intrapreso nel 2024, introducendo un nuovo setting di privacy che, però, era abilitato per impostazione predefinita, costringendo gli utenti a disabilitarlo manualmente per evitare la condivisione dei dati.
Contesto
Nel 2024, LinkedIn ha introdotto un nuovo setting di privacy che consentiva agli utenti di scegliere se condividere i loro dati per migliorare la piattaforma. Tuttavia, questo setting era abilitato per impostazione predefinita, il che significa che gli utenti dovevano disabilitarlo manualmente per evitare la condivisione dei dati. Inoltre, la piattaforma ha aggiornato la sua politica di privacy nel settembre 2024 per includere una clausola che spiegava come i dati degli utenti potessero essere utilizzati per l’addestramento dei modelli AI.
Azioni Accusate
La class action accusa LinkedIn di aver violato diversi regolamenti federali e statali sulla privacy. In particolare, si sostiene che la piattaforma abbia violato la Stored Communications Act (SCA), che proibisce i provider di servizi di comunicazione di divulgere consapevolmente i contenuti delle comunicazioni archiviate sui loro server senza il consenso degli utenti.
Implicazioni per la Privacy
Questo caso mette in luce una questione più ampia riguardante l’esposizione dei dati degli utenti all’interno delle piattaforme di Microsoft, come Microsoft 365, Teams e Word. La condivisione dei dati senza il consenso degli utenti aumenta il rischio di violazioni della privacy, profilazione non intenzionale e potenziale abuso in contesti come le trattative lavorative e commerciali.
Reazioni di LinkedIn e Microsoft
LinkedIn ha risposto alle accuse dichiarando che “queste sono false affermazioni senza merito”. Microsoft non ha rilasciato alcuna dichiarazione ufficiale sul caso. Tuttavia, la piattaforma ha aggiornato la sua politica di privacy per includere una clausola che spiegava come i dati degli utenti potessero essere utilizzati per l’addestramento dei modelli AI, anche se gli utenti avessero disabilitato la condivisione dei dati.
Implicazioni per l’Industria Tecnologica
Questo caso potrebbe avere implicazioni significative per l’industria tecnologica, in particolare per le piattaforme che utilizzano i dati degli utenti per addestrare i modelli AI. La necessità di ottenere il consenso esplicito degli utenti e di fornire trasparenza sui processi di addestramento dei modelli AI diventa sempre più cruciale per mantenere la fiducia degli utenti e evitare le violazioni della privacy.
Suggerimenti e Consigli per gli Utenti
- Controllare i Settamenti di Privacy: Gli utenti devono controllare regolarmente i loro settementi di privacy per assicurarsi che non siano abilitati per impostazione predefinita.
- Disabilitare la Condivisione dei Dati: Se gli utenti non vogliono che i loro dati siano condivisi, devono disabilitare esplicitamente la condivisione dei dati.
- Leggere le Politiche di Privacy: Gli utenti dovrebbero leggere attentamente le politiche di privacy delle piattaforme che utilizzano per comprendere come i loro dati potrebbero essere utilizzati.
- Esprimere la Propria Opinione: Gli utenti possono esprimere la propria opinione sui cambiamenti delle politiche di privacy e chiedere maggiore trasparenza e controllo sui propri dati.
- Risorse per la Protezione della Privacy: Gli utenti possono utilizzare risorse come le guide sulla protezione della privacy per comprendere meglio come proteggere i propri dati online.
Il caso di LinkedIn mette in luce la necessità di una maggiore trasparenza e controllo sui dati degli utenti all’interno delle piattaforme tecnologiche. Gli utenti devono essere consapevoli delle azioni che le piattaforme intraprendono per utilizzare i loro dati e devono esprimere la propria opinione per chiedere maggiore protezione della privacy. Questo potrebbe essere un punto di svolta importante per l’industria tecnologica, imponendo una maggiore attenzione alla protezione dei dati degli utenti e alla trasparenza nei processi di addestramento dei modelli AI.





