Il nuovo approccio per ridurre le allucinazioni dell’AI
Se hai mai utilizzato uno strumento di intelligenza artificiale generativa, probabilmente ti ha detto qualche bugia. Queste ricorrenti fabricazioni sono spesso chiamate allucinazioni dell’AI, e gli sviluppatori stanno lavorando alacremente per rendere gli strumenti di intelligenza artificiale generativa più affidabili. Uno degli approcci più promettenti è il retrieval augmented generation (RAG). Il processo di RAG arricchisce i tuoi prompt raccogliendo informazioni da un database personalizzato, e il modello di linguaggio genera una risposta basata su tali dati. Ad esempio, un’azienda potrebbe caricare tutte le sue politiche HR in un database RAG e l’AI risponderebbe solo in base a quel materiale. Sebbene gli errori siano ancora possibili, le probabilità di fabbricazione si ridurrebbero notevolmente.