Cosa sono le “allucinazioni” nell’intelligenza artificiale | Aulab

Cosa sono le “allucinazioni” nell’intelligenza artificiale

02 luglio 2024

Enza Neri

AULAB

Vuoi avviare una nuova carriera o fare un upgrade?

Trova il corso Digital & Tech più adatto a te nel nostro catalogo!

L’intelligenza artificiale (AI) sta rivoluzionando numerosi settori, dal riconoscimento vocale e facciale, alla guida automatica, alla produzione di contenuti, agevolando la vita come il lavoro di moltissime persone.

Tuttavia, l’intelligenza artificiale non è infallibile. Uno dei fenomeni più curiosi in questo contesto è quello delle “allucinazioni” dell’AI. In questo articolo esploreremo il concetto di allucinazioni nell’AI, emerso soltanto recentemente nel vocabolario collettivo, identificando il loro impatto e alcuni esempi di intelligenza artificiale generativa che possono essere soggetti a questo fenomeno.

 

Che cos’è l’intelligenza artificiale (ai)?

Prima di poter esplorare il fenomeno delle “allucinazioni”, è fondamentale comprendere che cos’è l’intelligenza artificiale. L’AI è un ramo dell’informatica estremamente vasto, che è in rapida diffusione da una decina di anni. Mira a creare sistemi in grado di svolgere compiti che normalmente richiederebbero l’intelligenza umana, emulandola, oppure strutturando algoritmi e modelli in grado di prendere decisioni autonomamente. Questi compiti includono riconoscimento del linguaggio naturale, computer vision, generazione di testo automatico e molto altro ancora.

 

Sei indeciso sul percorso? 💭

Parliamone! Scrivici su Whatsapp e risponderemo a tutte le tue domande per capire quale dei nostri corsi è il più adatto alle tue esigenze.

Oppure chiamaci al 800 128 626

Definizione di allucinazioni nell’Intelligenza artificiale

Nel contesto dell’AI, le “allucinazioni” si riferiscono a situazioni in cui un modello di intelligenza artificiale genera informazioni non basate sui dati reali, creando i cosiddetti “deep fake”, ovvero un output che non è basato su verità oggettive. Questo fenomeno è particolarmente frequente nei modelli di intelligenza artificiale generativa, come quelli utilizzati per la generazione di testo, immagini o altri contenuti. I sistemi più “vulnerabili” a queste allucinazioni sono gli LLM (Large Language Model) o quelli basati su deep learning.

 

Esempi di intelligenza artificiale e allucinazioni

 

  1. Generazione di Testo: modelli di AI come GPT-3 possono generare testo fluente e convincente, ma a volte includono dettagli inventati o inesatti. Ad esempio, un modello potrebbe alludere ad un evento storico che in realtà non è mai accaduto. Inoltre, questo tipo di modello, se “convinto” di qualcosa che in realtà non è reale anche tramite input forniti dall’utente, confermerà la tesi falsa portandola avanti per l’intera conversazione. Un altro esempio potrebbe essere relativo a fatti scientifici sbagliati: un modello di IA potrebbe rispondere a una domanda scientifica con informazioni che sembrano corrette ma che in realtà sono basate su fonti non affidabili.
  2. Computer vision: nei modelli di riconoscimento delle immagini, le allucinazioni possono manifestarsi quando il sistema identifica oggetti o caratteristiche che non esistono nell’immagine originale. Molti esempi che hanno generato clamore nella storia recente riguardano le immagini estremamente realistiche raffiguranti personalità di spicco della politica attuale, le quali sono molto difficili da distinguere se false o reali.
  3. Traduzione automatica: i modelli di traduzione possono generare frasi che sembrano grammaticalmente corrette ma che non hanno senso nel contesto della conversazione.

 

Cause delle Allucinazioni nell’AI

Perchè avvengono le allucinazioni? Le allucinazioni nell’AI possono essere causate da diversi fattori:

 

  • Addestramento su dati non perfetti: se i dati con cui l’intelligenza artificiale è stata addestrata contengono errori o informazioni incomplete, il modello può imparare a riprodurre queste imperfezioni. I modelli imparano anche dagli input dati dagli utenti: se l’utente fornisce input errati, il modello si convincerà che siano veri tanto da constatare una verità non oggettiva. Per questo motivo è importante sviluppare modelli che abbiano la capacità di scartare informazioni “false”.
  • Bias nei dati: se i dati di addestramento sono sbilanciati o contengono pregiudizi, il modello può riflettere questi bias nelle sue risposte.
  • Modelli complessi: modelli di AI molto complessi, come quelli di deep learning, possono sviluppare rappresentazioni interne che non sono perfettamente allineate con la realtà, portando alla generazione di contenuti inesatti. Questo è un caso particolare di “allucinazione”, poiché, per esempio, i modelli di generazione delle immagini hanno di proposito lo scopo di creare immagini che rispecchino gli input forniti dagli utenti per soddisfare la loro richiesta (che potrebbero, dunque, essere volutamente non realistici).
  • Mancanza di verifica interna: i modelli di linguaggio generativi non hanno meccanismi intrinseci per verificare l’accuratezza delle informazioni che producono. A differenza di un sistema basato su regole o database strutturati, un modello generativo può creare risposte che suonano plausibili senza una verifica diretta della loro veridicità.
  • Ambiguità dei prompt: domande o prompt ambigui possono indurre il modello a fare supposizioni che risultano in risposte inesatte o inventate: per questo, è importantissimo comprendere come scrivere un prompt efficace.

 

Rischi dell’intelligenza artificiale e delle sue allucinazioni

 

  • Disinformazione: il rischio più grande nell’utilizzo dell’intelligenza artificiale risiede proprio in questo. L’AI che genera informazioni inesatte può diffondere disinformazione, influenzando negativamente le decisioni degli utenti, in un contesto storico dove rifuggire le fake news è già estremamente difficile per moltissimi utenti.
  • Decisioni errate: in settori come la medicina o la finanza, le allucinazioni possono portare a diagnosi errate o decisioni finanziarie sbagliate. Per fortuna, siamo ancora lontani dal produrre modelli che possano sostituirsi, a livello decisionale, in modo così critico. Eppure, in settori meno di impatto, questo potrebbe verificarsi.
  • Perdita di fiducia: se gli utenti percepiscono che l’AI non è affidabile, potrebbero perdere fiducia nella tecnologia, limitando il suo utilizzo e i suoi benefici potenziali.

 

Come mitigare le Allucinazioni nell’AI?

Per mitigare le allucinazioni nell’AI, gli sviluppatori, i ricercatori ma anche gli utenti che ne usufruiscono, possono adottare diverse strategie:

 

  • Migliorare i dati di addestramento: sviluppatori e ricercatori potrebbero utilizzare set di dati più accurati e rappresentativi, il che può aiutare a ridurre gli errori.
  • Migliorare il prompt fornito: un prompt accurato e dettagliato, affinato magari di volta in volta, limita la possibilità che si verifichino allucinazioni.

  • Validazione e verifica: la validazione e la verifica dell’output dell’AI sono essenziali. L’AI non può mai essere lasciata a sé stessa. Quanto generato dall’intelligenza artificiale deve essere sempre sottoposto a verifiche accurate e non ci si deve mai affidare ciecamente al loro output. Questo rende l’intervento umano ancora essenziale e cruciale in questa fase di grande crescita dell’AI nella vita di tutti i giorni.

 

Le allucinazioni nell’intelligenza artificiale rappresentano una sfida significativa, ancora troppo acerba per essere gestita totalmente dal modello stesso. Con una continua ricerca e l’adozione di best practice, è possibile mitigare i rischi associati alle allucinazioni e sfruttare il potenziale delle tecnologie AI in modo più efficace e sicuro.

Se il mondo dell’intelligenza artificiale generativa ti affascina e vuoi imparare come fornire i giusti prompt all’AI, iscriviti alla nostra masterclass sull’intelligenza artificiale!