Individuazione delle confabulazioni nei modelli linguistici

Ricerca di Oxford identifica metodo per rilevare risposte false nei LLM. Researchers analyzing a large language model with highlighted sections of text indicating confabulations.

I ricercatori dell’Università di Oxford hanno scoperto un metodo per individuare le confabulazioni nei modelli linguistici di grandi dimensioni (LLM). Questo metodo funziona su tutti i modelli popolari e su una vasta gamma di argomenti. Le confabulazioni sono risposte fluenti che risultano sia errate che arbitrarie, sensibili a dettagli irrilevanti come il seme casuale. I LLM non vengono addestrati per l’accuratezza, ma per produrre frasi che suonano umane. Se nei dati di addestramento ci sono poche o contrastanti informazioni, il modello può generare risposte plausibili ma sbagliate. Riconoscere queste false risposte è cruciale per chi utilizza questi modelli in compiti critici come saggi universitari e candidature di lavoro.

Potrebbe interessarti anche...