Le allucinazioni dei modelli di linguaggio avanzati in ambito AI

Analisi delle allucinazioni generate dai modelli di linguaggio avanzati e le loro cause. A neural network with abstract colorful connections generating text with glitches

I modelli di linguaggio avanzati non sono motori di ricerca. Tuttavia, aziende come Google, Meta e Bing stanno trasformando le loro funzioni di ricerca in piattaforme per la generazione algoritmica di informazioni. Questa settimana sono emersi alcuni esempi, come l’AI di Google che suggerisce la colla come ingrediente per la pizza o che consiglia di mangiare almeno una piccola roccia al giorno secondo scienziati di UC Berkeley. Alla base di queste cosiddette allucinazioni c’è la sfida iniziale di determinare distribuzioni di probabilità all’interno di immense raccolte di testi, utilizzando un modello di linguaggio puro, progettato per predire le parole successive. Gli output dei modelli di linguaggio avanzati non sono progettati per essere veri, ma per essere probabilmente corretti. Le allucinazioni stesse non hanno una causa unica, ma sono il risultato di una congiunzione di fattori che consentono ai modelli di linguaggio di funzionare. Qui esploreremo alcune delle cause principali delle allucinazioni nei testi generati.

Potrebbe interessarti anche...