ASCOLTA L’ARTICOLO
Cosa sono le allucinazioni dell’Intelligenza Artificiale Generativa?
Nel mondo digitale di oggi, i modelli di Intelligenza Artificiale Generativa (GenAI), come GPT, stanno trasformando il nostro modo di interagire con la tecnologia. Tuttavia, questi modelli, per quanto avanzati, possono generare contenuti non veritieri o incoerenti. Questo fenomeno prende il nome di allucinazione. Questo problema non riguarda solo i modelli di linguaggio, ma si estende anche a tutte le GenAI, come la generazione di immagini, video e suoni.
Perché i modelli GPT allucinano?
I modelli GPT sono addestrati su vasti dataset che includono l’intero contenuto di internet. Il compito su cui sono stati addestrati è prevedere la parola successiva, una sorta di gioco che svolgono con grande precisione. Tuttavia, questo processo non è infallibile. Ad esempio, se si chiede a un modello GPT di completare una frase come “Il Real Madrid ha vinto la Champions League 2024 disputata allo stadio…”, potrebbe rispondere “Bernabeu”, lo stadio di casa del Real Madrid. Ma se la finale si fosse svolta altrove, non avendo un contesto aggiornato, il modello cadrebbe in errore. Proprio questa mancanza di contesto è la causa di molte allucinazioni AI.
Un altro esempio concreto viene da Air Canada, che ha sperimentato un customer service basato su GPT-4. Questo assistente ha promesso a un cliente un rimborso a cui non aveva diritto, creando problemi legali per la compagnia e scatenando le richieste di altri clienti. Per prevenire tali errori si evidenza la necessità di implementare sistemi di controllo, detti guardrail, che approfondiremo più avanti.
Diversità ed errori di trascrizione: Altre forme di allucinazione AI
L’intelligenza artificiale è spesso addestrata per essere inclusiva, rappresentando diverse etnie e generi nelle immagini generate. Tuttavia, questo può portare a risultati storicamente o logisticamente improbabili. Ad esempio, un modello AI potrebbe generare l’immagine di un vichingo di origine africana o di un Papa donna, figure impossibili dal punto di vista storico. Queste allucinazioni derivano dal tentativo di rappresentare un mondo ideale, ma possono creare confusione.
Gli errori di trascrizione sono un altro esempio di allucinazione AI. I modelli di speech-to-text spesso lottano con l’ortografia e la segmentazione fonetica, producendo errori come il “tartagliamento”. Questo si verifica quando un sistema di trascrizione ripete una parola come “no” più volte, creando una frase come “no, no, no” invece di un singolo “no”.
Come ridurre le allucinazioni AI: Tecniche avanzate
Per mitigare il problema delle allucinazioni AI, vengono utilizzate tecniche avanzate come il Retrieval Augmented Generation (RAG) e il prompting.
Il RAG arricchisce i modelli AI con informazioni contestuali aggiornate, migliorando la precisione delle risposte. Ad esempio, fornendo al modello dati recenti sulla Champions League, esso potrà rispondere correttamente alla domanda su dove si è svolta la finale, evitando errori dovuti alla mancanza di informazioni aggiornate.
I guardrail, citati sopra, sono un’altra soluzione efficace. Si tratta di algoritmi che filtrano e controllano le risposte dell’AI per evitare che contenuti inappropriati o errati vengano mostrati agli utenti. OpenAI, ad esempio, ha integrato funzionalità come la ricerca su Bing per fornire informazioni più recenti e affidabili, oltre alla possibilità di eseguire codice Python per evitare errori nei calcoli.
L’importanza dello “human in the loop”
Nonostante i progressi nell’Intelligenza Artificiale, le allucinazioni rimangono uno scoglio da superare e proprio per questo, è necessario utilizzare questi strumenti con consapevolezza, riconoscendo i loro limiti.
In particolare, è essenziale mantenere uno human in the loop, ovvero un supervisore umano, che possa controllare e validare le decisioni prese dall’AI. Solo così possiamo garantire che le informazioni generate siano accurate e affidabili, evitando che errori o allucinazioni compromettano la qualità del servizio offerto.
Ti interessa l’argomento?
Guarda la registrazione del nostro Webinar Paura delle allucinazioni? Come far lavorare la GenAI al nostro posto