Individuazione delle confabulazioni nei modelli linguistici
![Researchers analyzing a large language model with highlighted sections of text indicating confabulations.](/images/00061b71e85481e1_hu344f3f8e23df59cd8984350d8bfbe95a_1940782_fca13a66f5be468c6299382cff63f0be.webp)
I ricercatori dell’Università di Oxford hanno scoperto un metodo per individuare le confabulazioni nei modelli linguistici di grandi dimensioni (LLM). Questo metodo funziona su tutti i modelli popolari e su una vasta gamma di argomenti. Le confabulazioni sono risposte fluenti che risultano sia errate che arbitrarie, sensibili a dettagli irrilevanti come il seme casuale. I LLM non vengono addestrati per l’accuratezza, ma per produrre frasi che suonano umane. Se nei dati di addestramento ci sono poche o contrastanti informazioni, il modello può generare risposte plausibili ma sbagliate. Riconoscere queste false risposte è cruciale per chi utilizza questi modelli in compiti critici come saggi universitari e candidature di lavoro.