Il concetto di “allucinazioni delle intelligenze artificiali” si riferisce a situazioni in cui i modelli di intelligenza artificiale, come i sistemi di apprendimento automatico e i modelli di deep learning, generano risposte, output o interpretazioni errate o non corrispondenti alla realtà. Questo fenomeno può verificarsi in vari contesti, da sistemi di visione artificiale a generatori di testo come i modelli di linguaggio.
Perché si verificano le allucinazioni AI
Le allucinazioni AI possono essere causate da diversi fattori:
- Dati di addestramento scorretti o incompleti: Se un modello è addestrato su dati che non sono rappresentativi o che contengono errori, può imparare pattern errati e quindi generare output sbagliati.
- Overfitting: Quando un modello è troppo complesso rispetto alla quantità e alla varietà dei dati di addestramento, potrebbe “imparare a memoria” i dati piuttosto che generalizzare da essi, portando a risposte inesatte quando incontra nuove situazioni.
- Ambiguità nel task o nei dati: Alcuni compiti possono essere intrinsecamente ambigui o i dati possono contenere contraddizioni che confondono il modello.
- Bias nei dati: Se i dati di addestramento sono distorti o prevenuti, il modello potrebbe sviluppare bias che si riflettono negli output, che possono sembrare non sensati o inappropriate.
Esempi di allucinazioni AI
- In un sistema di visione artificiale, l’AI potrebbe “vedere” un oggetto in un’immagine che non esiste effettivamente.
- Nei modelli di linguaggio, l’AI potrebbe generare testi che includono fatti falsi, interpretazioni errate o connessioni inesistenti tra concetti.
- Esempi pratici e noti: errori biografici (Hillary Clinton sarebbe la prima presidente donna degli USA), scientifici (che hanno causato il precoce spegnimento di Galactica, il chatbot scientifico di Meta), politici e di altro tipo.
Secondo una ricerca condotta da Vectara a fine del 2023 queste solo le percentuali di allucinazioni dei modelli principali di AI:
- GPT-4 che alimenta un modello avanzato di ChatGPT, soffre di allucinazioni nel 3% dei casi;
- GPT3.5 arriva al 3,5% di allucinazioni;
- Llama 2 supera il 5%;
- Cohere arriva all’8,5%;
- Claude 2 di Anthropic arriva all’8,5%;
Ovvio che si tratta di vecchie versioni, Claude ad esempio ha fatto un grosso passo in avanti con l’ultima versione. Questo per dire che dobbiamo fare attenzione alle risposte e verificare per bene prima di prendere un risposta AI per “oro colato”.
Gestione delle allucinazioni AI
Gli sviluppatori e i ricercatori adottano diverse strategie per mitigare il problema delle allucinazioni AI, come l’uso di set di dati più ampi e vari, l’applicazione di tecniche di regolarizzazione per prevenire l’overfitting, e la conduzione di test approfonditi per identificare e correggere gli errori prima che i modelli vengano messi in produzione. Inoltre, l’interpretazione e la spiegazione dei modelli AI possono aiutare a comprendere meglio quando e perché si verificano queste allucinazioni, permettendo di intervenire in modo più mirato.