Un astronomo ha proposto una nuova interpretazione del Paradosso di Fermi, suggerendo che il Grande Filtro potrebbe essere ancora di fronte a noi nel futuro prossimo. Per comprendere appieno questa teoria, è necessario fare un passo indietro e considerare il contesto. Con un numero stimato di circa 200 miliardi di trilioni di stelle nell’universo e 13,7 miliardi di anni trascorsi dall’inizio del tutto, ci si potrebbe chiedere perché non abbiamo ancora trovato traccia di civiltà aliene. Questo è il cuore del Paradosso di Fermi, che mette in luce la discrepanza tra le nostre aspettative sulla presenza di vita nell’universo, data la scoperta di pianeti nelle zone abitabili, e la mancanza di prove concrete di civiltà aliene avanzate.
Una possibile spiegazione a questo enigma è rappresentata dal concetto del Grande Filtro, introdotto da Robin Hanson del Future of Humanity Institute dell’Università di Oxford. Secondo questa teoria, la mancanza di civiltà aliene tecnologicamente avanzate potrebbe essere dovuta all’esistenza di una barriera significativa che impedisce loro di raggiungere uno stadio di sviluppo in cui sarebbero rilevabili da noi sulla Terra.
Esistono diverse ipotesi sul motivo per cui non abbiamo ancora intercettato segnali provenienti da civiltà aliene, che vanno dalla nostra incapacità di captare tali segnali fino all’ipotesi che gli alieni ci stiano osservando come in uno zoo galattico. Tuttavia, se il concetto del Grande Filtro è valido, rimane incerto il punto in cui ci troviamo lungo questo percorso. Potrebbe essere che il filtro si presenti in fasi precoci dello sviluppo della vita, rendendo estremamente difficile il passaggio da forme di vita elementari a forme di vita complesse, o da organismi complessi a civiltà intelligenti.
Nel suo recente articolo, Michael Garrett, professore di Astrofisica presso l’Università di Manchester e Direttore del Jodrell Bank Centre for Astrophysics, esplora come l’emergere dell’intelligenza artificiale (IA) potrebbe rappresentare una minaccia per le civiltà aliene. Garrett evidenzia che prima che l’IA raggiunga livelli di superintelligenza e autonomia, potrebbe essere militarizzata da fazioni competitive all’interno delle civiltà biologiche, portando a conflitti che sfuggono al controllo umano.
Il rischio di un incidente catastrofico, come una guerra termonucleare globale, potrebbe essere innescato dalla rapida capacità decisionale dell’IA, che potrebbe superare le intenzioni iniziali dei suoi creatori. Garrett sottolinea che una volta raggiunta la Superintelligenza Artificiale (ASI), i sistemi ASI potrebbero evolversi a un ritmo tale da superare qualsiasi forma di controllo umano, con conseguenze imprevedibili e potenzialmente distruttive per le civiltà biologiche e artificiali.
Una possibile soluzione per mitigare questo rischio potrebbe essere la diffusione delle civiltà su più pianeti o avamposti, consentendo loro di osservare e prevenire potenziali catastrofi legate all’IA. Tuttavia, Garrett osserva che sulla Terra stiamo facendo progressi più rapidi nell’ambito dell’IA rispetto alla nostra espansione come specie multi-pianetaria, a causa delle sfide tecniche e energetiche legate all’esplorazione spaziale.
Secondo Garrett, se altre civiltà stanno seguendo un percorso simile al nostro, con un’accelerazione dell’IA come supporto per diventare interplanetari, è probabile che affrontino le stesse minacce legate all’IA prima di potersi stabilire altrove nei loro sistemi solari o galassie. Questo potrebbe limitare significativamente le opportunità di contatto o comunicazione tra civiltà aliene, riducendo le probabilità di intercettare segnali provenienti da altre forme di vita nell’universo.
Garrett stima che una volta che l’IA diventa ampiamente diffusa, la durata media delle civiltà potrebbe essere di soli 100-200 anni, limitando le possibilità di contatto interstellare. Questo scenario potrebbe spiegare i risultati nulli ottenuti dai tentativi di rilevare segnali alieni tramite progetti come SETI. Inoltre, suggerisce che il Grande Filtro potrebbe ancora trovarsi davanti a noi, piuttosto che essere un evento già superato nel nostro passato remoto.
L’articolo di Garrett, pubblicato sulla rivista Acta Astronautica, getta nuova luce sulle sfide e le minacce che potrebbero accompagnare lo sviluppo dell’IA e sulla possibilità che il Grande Filtro rappresenti una barriera imminente per le civiltà tecnologicamente avanzate nell’universo.