Problemi con il nuovo AI di Google: anomalie e ripercussioni
![A complex network of AI algorithms interacting, with some nodes displaying error signs in a digital landscape.](/images/000619c5de2b8ebc_hu344f3f8e23df59cd8984350d8bfbe95a_3162696_6684fa814a49f75e5ffcf5b832456288.webp)
Google ha ammesso giovedì una serie di errori nei risultati di ricerca del suo nuovo strumento di AI generativa, che includevano consigli pericolosi come mangiare sassi o mettere la colla sulla pizza. Questo episodio mette in luce i limiti delle attuali tecnologie AI e i rischi dell’uso aggressivo di modelli di linguaggio generativi.
L’AI Overviews di Google utilizza Gemini, un modello di linguaggio simile a ChatGPT, per generare risposte testuali riassumendo informazioni online. Tuttavia, le fonti online possono essere contraddittorie o inaffidabili, rendendo necessaria una gestione accurata degli output dell’AI. Google ha promesso cambiamenti per migliorare il sistema, riducendo la dipendenza da contenuti generati dagli utenti e rilevando meglio le query “senza senso”.