Che cosa sono le “allucinazioni” nei LLM?
Le allucinazioni delle AI si verificano quando i modelli generano risposte non basate su fatti reali. Ad esempio, Google AI Overview ha suggerito la colla come ingrediente per la pizza, mentre agli scienziati di UC Berkeley è stato consigliato di consumare almeno una piccola roccia al giorno. Questi errori sono dovuti al fatto che i LLM sono concepiti per prevedere le parole successive in un testo fornito, non per generare risposte veritiere.
Perché si verificano le “allucinazioni”?
Le “allucinazioni” sono il risultato di una complessa interazione di fattori, tra cui la quantità di dati utilizzati per l’addestramento e la difficoltà nel determinare distribuzioni di probabilità all’interno di vasti corpi di testo. Più dati vengono utilizzati per l’addestramento, più è probabile che vengano create corrispondenze all’interno dei dati, ma allo stesso tempo, aumenta la quantità di “spazzatura” che galleggia nel pool di dati.
LLM e la ricerca di informazioni
L’uso di LLM nelle piattaforme di ricerca presenta sfide uniche. Sebbene i LLM possano essere creativi, non sono necessariamente il metodo migliore per ottenere informazioni accurate. I motori di ricerca stanno adottando un approccio ibrido, combinando i vantaggi dei LLM con le capacità di ricerca e contestualizzazione delle piattaforme di ricerca esistenti.
Suggerimenti, soluzioni e best practice
Per mitigare il problema delle “allucinazioni” nei LLM, è necessario adottare un approccio olistico che tenga conto dei seguenti aspetti:
- Limitare la quantità di dati utilizzati per l’addestramento: Più dati vengono utilizzati, maggiore è la probabilità di “allucinazioni”. Limitare la quantità di dati può aiutare a ridurre il rischio di errori.
- Implementare controlli e vincoli durante l’addestramento: I controlli e i vincoli possono essere utilizzati per limitare la generazione di risposte non veritiere.
- Grounding dei LLM nelle piattaforme di ricerca: I LLM dovrebbero essere integrati nelle piattaforme di ricerca in modo che le risposte generate possano essere contestualizzate e verificate.
- Utilizzo di fonti attendibili: Le piattaforme di ricerca dovrebbero dare priorità alle fonti attendibili e verificabili per ridurre il rischio di diffondere informazioni inaccurate.
- Continuo miglioramento e aggiornamento: I LLM dovrebbero essere costantemente aggiornati e migliorati per ridurre il rischio di “allucinazioni” e per adattarsi alle esigenze degli utenti.
In conclusione, le “allucinazioni” nei LLM sono un problema noto e complesso che deve essere affrontato con un approccio olistico che tenga conto di diversi aspetti, tra cui la quantità di dati utilizzati per l’addestramento, l’implementazione di controlli e vincoli, il grounding nei motori di ricerca, l’utilizzo di fonti attendibili e il continuo miglioramento e aggiornamento dei modelli.
Fonte: https://cyberneticforests.substack.com/p/a-hallucinogenic-compendium





