Google ha recentemente lanciato una serie di aggiornamenti nell’ambito dell’intelligenza artificiale (IA) per competere con aziende più piccole come OpenAI. Tra le novità introdotte, spicca la possibilità per gli utenti, inizialmente negli Stati Uniti, di visualizzare panorami generali sull’argomento cercato direttamente nei risultati di ricerca, anziché una lista di siti web. Puoi trovare ulteriori dettagli su questa funzionalità nella documentazione ufficiale di AI Overviews and Your Website | Google Search Central.
Questa nuova funzionalità ha generato alcune polemiche, non tanto per timori legati a IA ribelli o all’intelligenza artificiale generale (AGI), ma per motivi simili a quelli che hanno portato a proteste contro i grandi modelli di linguaggio e le IA generatrici di immagini. In passato, quando si cercava qualcosa su Google, si otteneva un elenco di pagine web selezionate dagli algoritmi, scritte da esseri umani e che permettevano loro di guadagnare attraverso entrate pubblicitarie o modelli di abbonamento.
Ora, con i panorami di IA, si potrebbe trovarsi di fronte a un riassunto dell’argomento creato tramite addestramento sul lavoro altrui. Questi panorami includono collegamenti a risorse che approfondiscono l’argomento, consentendo alle persone di esplorare una vasta gamma di contenuti da diverse fonti. Tuttavia, c’è il rischio che gli utenti si limitino a leggere il riassunto senza approfondire, interrompendo una fonte di reddito per coloro che producono contenuti su quegli argomenti. Per ulteriori informazioni su come disattivare questa funzionalità, puoi consultare l’articolo di Mashable.
Alcuni esperti mettono in guardia sul fatto che i modelli di IA, basati su testi creati dall’uomo per l’addestramento, potrebbero risentire di una mancanza di dati reali freschi, portando a una diminuzione della qualità e della diversità nel tempo. Questo fenomeno è stato definito Disturbo dell’Autofagia del Modello (MAD) e potrebbe compromettere l’efficacia dei modelli generativi. Per approfondire questo argomento, puoi leggere il documento accademico disponibile su [2307.01850] Self-Consuming Generative Models Go MAD.
Gli utenti hanno segnalato errori nei riassunti di IA di Google, come fraintendimenti di citazioni letterarie e informazioni errate su argomenti scientifici. Attualmente non esiste un modo per disattivare completamente l’assistente IA di Google, ma è possibile selezionare la scheda web per visualizzare solo i risultati provenienti da fonti umane. Puoi seguire gli aggiornamenti su questo tema anche su Twitter, come riportato in questo tweet.
Questa funzionalità è attualmente in fase di implementazione negli Stati Uniti, con progetti di espansione in altre parti del mondo nei prossimi mesi.