allucinazione intelligenza artificiale allucinazione intelligenza artificiale

Intelligenza Artificiale: cosa sono le allucinazioni

Cosa sono le allucinazioni delle intelligenze artificiali: perché si verificano, alcuni esempi e come vengono gestite nei vari modelli di AI.

Il concetto di “allucinazioni delle intelligenze artificiali” si riferisce a situazioni in cui i modelli di intelligenza artificiale, come i sistemi di apprendimento automatico e i modelli di deep learning, generano risposte, output o interpretazioni errate o non corrispondenti alla realtà. Questo fenomeno può verificarsi in vari contesti, da sistemi di visione artificiale a generatori di testo come i modelli di linguaggio.

Perché si verificano le allucinazioni AI

Le allucinazioni AI possono essere causate da diversi fattori:

  1. Dati di addestramento scorretti o incompleti: Se un modello è addestrato su dati che non sono rappresentativi o che contengono errori, può imparare pattern errati e quindi generare output sbagliati.
  2. Overfitting: Quando un modello è troppo complesso rispetto alla quantità e alla varietà dei dati di addestramento, potrebbe “imparare a memoria” i dati piuttosto che generalizzare da essi, portando a risposte inesatte quando incontra nuove situazioni.
  3. Ambiguità nel task o nei dati: Alcuni compiti possono essere intrinsecamente ambigui o i dati possono contenere contraddizioni che confondono il modello.
  4. Bias nei dati: Se i dati di addestramento sono distorti o prevenuti, il modello potrebbe sviluppare bias che si riflettono negli output, che possono sembrare non sensati o inappropriate.

Esempi di allucinazioni AI

  • In un sistema di visione artificiale, l’AI potrebbe “vedere” un oggetto in un’immagine che non esiste effettivamente.
  • Nei modelli di linguaggio, l’AI potrebbe generare testi che includono fatti falsi, interpretazioni errate o connessioni inesistenti tra concetti.
  • Esempi pratici e noti: errori biografici (Hillary Clinton sarebbe la prima presidente donna degli USA), scientifici (che hanno causato il precoce spegnimento di Galactica, il chatbot scientifico di Meta), politici e di altro tipo.

Secondo una ricerca condotta da Vectara a fine del 2023 queste solo le percentuali di allucinazioni dei modelli principali di AI:

  • GPT-4 che alimenta un modello avanzato di ChatGPT, soffre di allucinazioni nel 3% dei casi;
  • GPT3.5 arriva al 3,5% di allucinazioni;
  • Llama 2 supera il 5%;
  • Cohere arriva all’8,5%;
  • Claude 2 di Anthropic arriva all’8,5%;

Ovvio che si tratta di vecchie versioni, Claude ad esempio ha fatto un grosso passo in avanti con l’ultima versione. Questo per dire che dobbiamo fare attenzione alle risposte e verificare per bene prima di prendere un risposta AI per “oro colato”.

Gestione delle allucinazioni AI

Gli sviluppatori e i ricercatori adottano diverse strategie per mitigare il problema delle allucinazioni AI, come l’uso di set di dati più ampi e vari, l’applicazione di tecniche di regolarizzazione per prevenire l’overfitting, e la conduzione di test approfonditi per identificare e correggere gli errori prima che i modelli vengano messi in produzione. Inoltre, l’interpretazione e la spiegazione dei modelli AI possono aiutare a comprendere meglio quando e perché si verificano queste allucinazioni, permettendo di intervenire in modo più mirato.

Iscriviti al Canale Telegram MaxMania

Lascia un commento