Apple è stato criticato per non solo non identificare i materiali di abuso su minori (CSAM) condivisi e memorizzati sui suoi servizi, ma anche per non segnalare tutti i CSAM identificati. La Società per la Prevenzione dell’Abuso Infantile (NSPCC) nel Regno Unito ha fornito dati a The Guardian, indicando che Apple sottovaluta significativamente la frequenza di CSAM scoperto su suoi servizi in tutto il mondo. La NSPCC ha rilevato che le agenzie di polizia in Inghilterra e Galles hanno indagato su più casi di CSAM nel 2023 rispetto a quanto comunicato da Apple. Tuttavia, Apple ha comunicato solo 267 casi di CSAM al National Missing & Exploited Children (NCC) nel 2023, che dovrebbe rappresentare il totale di CSAM su tutte le sue piattaforme mondiali, come riportato da The Guardian.
Inoltre, Apple ha sottovalutato i casi di CSAM rispetto ai suoi concorrenti tecnologici, come Meta e Google, che hanno segnalato milioni di casi di CSAM, secondo le scoperte dell’NCMEC. Gli esperti hanno espresso preoccupazioni riguardo alla sottovalutazione di Apple, sottolineando che il suo sistema di sicurezza per i bambini non è adeguato. Richard Collard, che guida la politica di sicurezza online presso la NSPCC, ha dichiarato che Apple deve migliorare significativamente le sue misure di sicurezza per i bambini. “C’è un divario preoccupante tra il numero di crimini di abuso su minori che si verificano su piattaforme Apple nel Regno Unito e l’ammontare quasi nullo di rapporti globali di contenuto abusivo che Apple invia alle autorità”, ha dichiarato Collard.
Altri watchdogs hanno espresso simili preoccupazioni. Sarah Gardner, CEO dell’Heat Initiative, una organizzazione di protezione dei bambini con sede a Los Angeles, ha descritto le piattaforme Apple come un “buco nero” per i materiali di abuso sessuale su minori. Ha espresso preoccupazioni che le avanzate funzionalità di AI di Apple possano esacerbare il problema, potenzialmente facilitando la distribuzione di CSAM generato da AI in un ambiente in cui i predatori sessuali potrebbero aspettarsi una ridotta applicazione delle leggi.
“Apple non effettivamente individua i CSAM su quasi tutte le sue piattaforme a scala”, ha dichiarato Gardner. “Non ha allocato risorse per i team di sicurezza e fiducia capaci di gestire questo problema, mentre sta rapidamente implementando funzionalità avanzate di AI sui suoi servizi”.
Come previsto, Apple non ha fornito una risposta alle scoperte della NSPCC. Ultimamente, Apple ha risposto alle richieste della Heat Initiative di migliorare la detezione dei CSAM, affermando che invece di concentrarsi sulla scansione del contenuto illegale, la sua priorità è connettere gli utenti vulnerabili o vittimizzati con risorse locali e forze dell’ordine che possano supportarli nella loro comunità.
Suggerimenti e Best Practice
- Implementare un sistema di reporting rapido e trasparente: Apple dovrebbe migliorare il suo sistema di reporting per garantire che tutti i casi di CSAM siano segnalati correttamente.
- Investire in tecnologie avanzate di AI: Apple dovrebbe investire in tecnologie avanzate di AI per migliorare la detezione dei CSAM.
- Collaborare con le autorità e le organizzazioni di sicurezza: Apple dovrebbe collaborare con le autorità e le organizzazioni di sicurezza per migliorare la sicurezza dei suoi servizi.
- Educazione e consapevolezza: Apple dovrebbe educare i suoi utenti sulla sicurezza online e sui rischi associati ai materiali di abuso sessuale su minori.
- Implementare un sistema di sicurezza a due livelli: Apple dovrebbe implementare un sistema di sicurezza a due livelli per garantire che i materiali di abuso sessuale su minori siano identificati e segnalati correttamente.
Soluzioni e Consigli
- Utilizzare strumenti di sicurezza avanzati: Apple dovrebbe utilizzare strumenti di sicurezza avanzati per migliorare la detezione dei CSAM.
- Formare i team di sicurezza: Apple dovrebbe formare i suoi team di sicurezza per garantire che siano in grado di gestire i casi di CSAM.
- Collaborare con le organizzazioni di sicurezza: Apple dovrebbe collaborare con le organizzazioni di sicurezza per migliorare la sicurezza dei suoi servizi.
Consigli per i Utenti
- Segnalare i casi di CSAM: Gli utenti dovrebbero segnalare i casi di CSAM che trovano sui servizi di Apple.
- Utilizzare strumenti di sicurezza: Gli utenti dovrebbero utilizzare strumenti di sicurezza per proteggere i loro dati personali.
- Educazione e consapevolezza: Gli utenti dovrebbero essere educati sulla sicurezza online e sui rischi associati ai materiali di abuso sessuale su minori.
Apple deve migliorare significativamente le sue misure di sicurezza per i bambini e collaborare con le autorità e le organizzazioni di sicurezza per garantire che i materiali di abuso sessuale su minori siano identificati e segnalati correttamente. Gli utenti dovrebbero essere educati sulla sicurezza online e sui rischi associati ai materiali di abuso su minori.