Un recente studio ha messo in discussione la capacità di ChatGPT e altri grandi modelli linguistici (LLM) di apprendere autonomamente o acquisire nuove abilità senza l’intervento umano, mettendo in dubbio l’idea che possano rappresentare rischi esistenziali per l’umanità.
I LLM sono versioni avanzate dei modelli linguistici preaddestrati (PLM), addestrati su enormi quantità di dati web. Questo accesso a una vasta mole di dati li rende in grado di comprendere e generare linguaggio naturale e altri contenuti utili per svariati compiti. Tuttavia, possono anche manifestare abilità emergenti, ovvero capacità non addestrate esplicitamente, come ad esempio la comprensione di situazioni sociali.
Alcuni esperti ritengono che queste abilità emergenti potrebbero includere capacità potenzialmente pericolose, come il ragionamento e la pianificazione, che potrebbero costituire una minaccia per l’umanità. Tuttavia, un nuovo studio ha dimostrato che i LLM hanno una capacità limitata di seguire istruzioni e di eccellere nella competenza linguistica, ma non possiedono il potenziale per acquisire nuove abilità senza istruzioni esplicite.
Il dottor Harish Tayyar Madabushi, informatico presso l’Università di Bath, ha sottolineato che i LLM sono prevedibili, sicuri e controllabili, nonostante possano essere utilizzati impropriamente. Mentre continuano a essere potenziati, è probabile che diventino più precisi di fronte a prompt dettagliati ed espliciti, ma è improbabile che sviluppino un ragionamento complesso.
Un team di ricercatori guidato dalla professoressa Iryna Gurevych dell’Università Tecnica di Darmstadt in Germania ha condotto esperimenti per valutare la propensione dei LLM a generare abilità emergenti. Attraverso oltre 1.000 esperimenti, il team ha dimostrato che la capacità dei LLM di seguire istruzioni, la loro memoria e la competenza linguistica possono spiegare le loro abilità e i loro limiti.
Il timore che i modelli più grandi possano acquisire abilità pericolose, come il ragionamento e la pianificazione, è stato oggetto di discussioni, ma il nuovo studio ha dimostrato che i LLM non manifestano abilità emergenti di ragionamento complesso. Le preoccupazioni sulle minacce esistenziali poste da questi modelli non sono supportate dai test condotti.
Il professor Gurevych ha sottolineato che, sebbene sia importante affrontare il potenziale abuso dell’IA, sarebbe prematuro introdurre regolamenti basati su presunte minacce esistenziali. Gli utenti dovrebbero indicare esplicitamente ciò che si richiede ai modelli di fare e fornire esempi, quando possibile, per evitare errori.
Il team ha evidenziato che i risultati dello studio non escludono tutte le minacce legate all’IA e ha suggerito che le ricerche future dovrebbero concentrarsi su altri rischi, come la generazione di notizie false tramite l’utilizzo dei modelli linguistici.
Lo studio è stato pubblicato negli Atti della 62a Riunione Annuale dell’Associazione di Linguistica Computazionale.
Links: