Per decenni il concetto di singolarità, il momento in cui le macchine superano l’intelligenza umana, è stato oggetto di dibattito. Tuttavia, con lo sviluppo degli algoritmi di apprendimento automatico che hanno portato alla creazione di software in grado di superare il test di Turing, la questione è diventata più urgente.
L’attuale intelligenza artificiale (AI) si basa principalmente su grandi modelli linguistici (LLM). Questi modelli non pensano realmente a una risposta o conducono ricerche, ma operano basandosi su probabilità e statistiche. Utilizzando dati di addestramento, elaborano quale sia la parola più probabile da generare dopo una precedente. Questo approccio può produrre risultati ragionevoli ma anche errati e potenzialmente pericolosi, con risposte occasionalmente divertenti che un essere umano non darebbe mai.
È importante sottolineare che le intelligenze artificiali basate sul testo sono specializzate in un compito specifico che richiede dati di addestramento specifici. Tuttavia, nel settore si discute dell’avvento delle intelligenze artificiali generali (AGI), capaci di svolgere molteplici attività e di farlo al pari degli esseri umani.
Alcuni esperti ritengono che siamo prossimi a questo traguardo. Ben Goertzel, fondatore di SingularityNET, ha previsto che entro il 2029 o il 2030 un singolo computer potrà avere approssimativamente la potenza di calcolo di un cervello umano. Inoltre, entro altri 10-15 anni, un computer potrebbe raggiungere la potenza di calcolo di tutta la società umana.
Da queste prospettive emergono due domande cruciali. La prima riguarda la correttezza di queste valutazioni. Alcuni critici dell’AI attuale sostengono che annunciare l’imminente arrivo delle AGI sia un modo per esaltare le attuali intelligenze artificiali e gonfiare la bolla dell’AI. Geoffrey Hinton, premio Nobel e pioniere dell’AI, stima che l’AGI potrebbe essere a meno di 20 anni di distanza, mentre Yoshua Bengio, vincitore del Turing Award, ritiene che sia difficile fare previsioni precise.
La seconda domanda riguarda i potenziali pericoli legati all’AI. Hinton ha espresso preoccupazioni sui rischi associati all’intelligenza artificiale, mentre un terzo dei ricercatori nel settore teme che l’AI possa portare a esiti catastrofici. Tuttavia, non dovremmo necessariamente immaginare un futuro alla “Terminator” con macchine assassine. I pericoli potrebbero essere più sottili e diffusi.
Ad esempio, attualmente le intelligenze artificiali sono state accusate di essere state addestrate utilizzando opere d’arte rubate. Inoltre, l’uso intensivo di risorse idriche e l’impronta di carbonio delle AI attuali sollevano preoccupazioni ambientali. L’abuso dell’AI per la creazione di materiale falso e la diffusione di disinformazione rappresentano un’altra minaccia significativa.
Nonostante le preoccupazioni attuali, alcuni studi suggeriscono che l’eccessiva preoccupazione potrebbe non essere giustificata. L’idea è che più cattivi output di AI circolano, più saranno utilizzati per addestrare nuove AI, creando un ciclo che potrebbe portare alla creazione di materiale sempre peggiore. Questo scenario potrebbe indicare che non siamo così vicini alla creazione di una vera intelligenza artificiale, ma potremmo essere prossimi alla creazione di “stupidità artificiale”.
Links: