Problemi con il nuovo AI di Google: anomalie e ripercussioni
Google ha ammesso giovedì una serie di errori nei risultati di ricerca del suo nuovo strumento di AI generativa, che includevano consigli pericolosi come mangiare sassi o mettere la colla sulla pizza. Questo episodio mette in luce i limiti delle attuali tecnologie AI e i rischi dell’uso aggressivo di modelli di linguaggio generativi.
L’AI Overviews di Google utilizza Gemini, un modello di linguaggio simile a ChatGPT, per generare risposte testuali riassumendo informazioni online. Tuttavia, le fonti online possono essere contraddittorie o inaffidabili, rendendo necessaria una gestione accurata degli output dell’AI. Google ha promesso cambiamenti per migliorare il sistema, riducendo la dipendenza da contenuti generati dagli utenti e rilevando meglio le query “senza senso”.