Un caccia controllato dall’intelligenza artificiale (IA) è stato messo alla prova contro un caccia pilotato da un essere umano in uno scenario di combattimento aereo simulato per la prima volta. L’evento rivoluzionario si è svolto a settembre 2023, ma le immagini sono state rese pubbliche solo il mese scorso dal programma Air Combat Evolution della DARPA.
Nel video, i due aerei – uno pilotato dall’uomo e l’altro dall’IA – volano insieme a una velocità di 1.931 chilometri all’ora, completando diverse manovre di combattimento dinamiche, inclusi momenti di combattimento ravvicinato. L’aereo guidato dall’IA è un modello unico sviluppato da Lockheed Martin Skunk Works in collaborazione con la Calspan Corporation per la Scuola di Pilotaggio di Prova dell’Aeronautica Militare degli Stati Uniti.
Conosciuto come X-62A o VISTA (Variable In-flight Simulator Test Aircraft), il progetto è stato inizialmente concepito come un programma di simulazione per l’addestramento dei piloti. Il software iniziale coinvolgeva l’IA, ma era limitato al mondo virtuale, simile a un videogioco estremamente realistico. Tutto è cambiato nel dicembre 2022 quando gli agenti dell’IA sono stati integrati in un aereo fisico nel mondo reale, permettendogli di volare autonomamente seguendo un percorso di volo.
Da allora, l’aereo ha completato ore di voli di prova reali e simulati, preparandosi per il suo compito finale: affrontare scenari di combattimento a corto raggio, noto anche come combattimento ravvicinato. Il colonnello James Valpiani, comandante della Scuola di Pilotaggio di Prova dell’Aeronautica Militare, ha sottolineato che il combattimento aereo è un ambiente estremamente pericoloso, rendendolo una sfida ideale per l’applicazione del machine learning.
In un’altra dimostrazione dei progressi del programma, il Segretario dell’Aeronautica degli Stati Uniti Frank Kendall ha volato a bordo del jet X-62A in un volo guidato dall’IA il 2 maggio 2024. Kendall ha sottolineato l’importanza di integrare l’IA nell’aviazione militare per migliorare la precisione delle armi e ridurre i danni collaterali, le vittime civili e il fuoco amico.
Tuttavia, l’uso di armi assistite dall’IA solleva una serie di questioni umanitarie, legali, etiche e di sicurezza. Una delle principali preoccupazioni riguarda la possibilità di affidare decisioni cruciali a sensori e software, con poca supervisione umana. Inoltre, sorge il dilemma sulla responsabilità dei sistemi di IA in caso di errori o incidenti.
Alcuni esperti hanno sottolineato la necessità di regolamentare rigorosamente l’uso dell’IA militare per evitare conseguenze indesiderate. Tuttavia, c’è chi ritiene che la corsa agli armamenti basati sull’IA sia già in corso, senza segni di rallentamento.
Links: