Hacker Noon — Medium (Apple)

Ex avvocato di Donald Trump ha utilizzato un’intelligenza artificiale per creare un documenti legali

Michael Cohen, l’ex avvocato di Donald Trump, ha utilizzato contenuti generati da IA per creare un documento legale inviato a un giudice federale.

L’IA impiegata, Bard di Google (ora ribattezzato Gemini), ha inventato casi legali falsi.

Ma questo non è l’unico incidente. Due avvocati di New York hanno quasi compromesso la loro carriera per aver presentato un documento legale pieno di “allucinazioni” generate da ChatGPT. Questi errori legali rappresentano solo una parte di un problema molto più grande: siamo sommerse da una marea di contenuti generati dall’IA e le conseguenze sono ben più gravi di pochi avvocati imbarazzati.

Immaginate, per esempio: cosa succederebbe se il saggio che ha fatto ottenere a uno studente l’ammissione alla facoltà di medicina fosse stato in realtà scritto da GPT-4? O se l’analisi che ha permesso a qualcuno di ottenere un lavoro in uno studio legale d’élite fosse stata creata da Claude? Potremmo trovarci di fronte a un futuro in cui i nostri medici, avvocati, e addirittura i piloti d’aereo, superano esami cruciali con l’aiuto di un assistente IA.

Sebbene le istituzioni esistenti non siano perfette, anche nelle migliori scuole di medicina si segnala che molti studenti mancano di conoscenze di base. Tuttavia, l’IA potrebbe aggravare questa crisi di competenza. Non si tratta più solo di integrità accademica: è una questione di sicurezza pubblica e delle fondamenta della competenza professionale.

Ma non finisce qui. Il giornalismo, già sotto attacco per accuse di fake news, affronta una minaccia esistenziale. Come possiamo fidarci delle notizie in tempo reale quando l’IA può generare articoli convincenti più rapidamente di qualsiasi reporter umano? I social media diventano ancora più torbidi, con i bot dotati di modelli linguistici che possono inondare le piattaforme di post inquietantemente simili a quelli umani.

I metodi attuali di rilevamento sono inadeguati

Il problema è lampante: abbiamo disperatamente bisogno di un modo per distinguere i contenuti generati dall’IA da quelli reali. Ma qui sorge un problema: mentre l’IA diventa più intelligente, i metodi di rilevamento tradizionali stanno peggiorando.

I metodi attuali di identificazione dei testi generati dall’IA spesso si basano sull’analisi dei modelli di scrittura, sull’uso del vocabolario o su sottili indicatori linguistici. Tuttavia, man mano che i modelli linguistici diventano più sofisticati, imparano a imitare le idiosincrasie umane con una straordinaria precisione. Possono generare testi con strutture di frase varie, introdurre colloquialismi e persino commettere errori tipografici occasionali – il tutto per suonare più umani.

Il problema principale è il costo. Se desideri rilevare contenuti generati da un modello IA altamente preciso, avrai bisogno di un modello altrettanto preciso per il rilevamento. Tuttavia, i modelli all’avanguardia richiedono solitamente risorse computazionali troppo elevate per essere gestiti su larga scala. Le piattaforme di social media come X stanno già faticando a raggiungere il pareggio.

Quanto costerebbe rilevare contenuti generati dall’IA tra 600 milioni di utenti attivi? A quella scala, usare modelli di grandi dimensioni semplicemente non è fattibile.

Danube-3: Un piccolo rilevatore di IA

Entra in gioco Danube-3, un nuovo modello di intelligenza artificiale sviluppato da H2O.ai. Mentre giganti come OpenAI stanno costruendo enormi modelli di IA che richiedono massive risorse computazionali, H2O.ai ha adottato un approccio diverso. Hanno creato un modello così piccolo che può funzionare sul tuo smartphone, ma abbastanza potente da competere con modelli molto più grandi nei compiti linguistici.

Questa innovazione è fondamentale. Addestrato su un impressionante numero di 6 trilioni di token, Danube-3 raggiunge livelli di prestazioni che possono competere con modelli significativamente più grandi. Nella valutazione HellaSwag a 10 colpi – un test di ragionamento comune – Danube-3 supera l’OpenELM-3B-Instruct di Apple e si confronta direttamente con Phi3 4B di Microsoft. Questo è un traguardo significativo per un modello progettato per funzionare in modo efficiente su dispositivi a bassa potenza.

Danube-3 arriva in un momento cruciale. Con l’aumento dei contenuti generati dall’IA nei nostri spazi digitali, questo modello compatto offre una contromisura pratica. La sua capacità di funzionare sui telefoni cellulari porta il rilevamento dell’IA fuori dai data center e nei dispositivi di uso quotidiano.

Il settore educativo sicuramente beneficerà. Con l’aumento dei tentativi di frode assistiti dall’IA, i professori potrebbero utilizzare Danube-3 per esaminare una grande quantità di documenti, individuando quelli che richiedono un’analisi più approfondita.

Tuttavia, va detto che Danube-3 non rappresenta una soluzione definitiva. Con il miglioramento dei metodi di rilevamento, anche i modelli di IA che generano contenuti si evolvono. Stiamo assistendo a una lotta tecnologica in corso, in cui ciascuna parte si adatta costantemente per superare l’altra. Pur non risolvendo da solo la crisi dei contenuti generati dall’IA, Danube-3 rappresenta un passo verso un futuro in cui possiamo coesistere con l’IA alle nostre condizioni.

È fondamentale quindi adottare una mentalità proattiva e informarsi sui rischi delle tecnologie emergenti. Formare una rete di supporto tra istituzioni ed esperti di tecnologia può contribuire a stabilire stili di vita favorevoli all’integrità e alla fiducia nel mondo professionale. Data la rapidità con cui si sviluppano queste tecnologie, è essenziale rimanere aggiornati e preparati ad affrontare le sfide che ci attendono.

Inoltre, è importante promuovere l’alfabetizzazione digitale tra gli studenti e le nuove generazioni. Comprendere come funzionano le tecnologie di IA e quali sono i loro limiti diventa cruciale per garantire che vengano utilizzate in modo responsabile e etico. Solo così potremo affrontare le sfide poste dall’IA e garantire un futuro in cui queste tecnologie possano coesistere in armonia con i valori umani fondamentali.

Fonte: https://hackernoon.com/spotting-ai-fakes-just-got-easier-thanks-to-danube3?source=rss

Torna in alto