Il Furto Rivoluzionario dei Modelli di Intelligenza Artificiale

Scoperte e Vulnerabilità nell'Estrazione dei Modelli con Segnali Elettromagnetici

Un gruppo di ricercatori ha recentemente condotto uno studio che ha messo in luce significative vulnerabilità nei sistemi di intelligenza artificiale, utilizzando segnali elettromagnetici per rubare e replicare modelli da un Google Edge TPU con un’accuratezza straordinaria del 99,91%. Questo metodo innovativo ha dimostrato la possibilità di rubare un modello di intelligenza artificiale senza dover hackerare direttamente il dispositivo su cui è in esecuzione, rappresentando un notevole passo avanti nei processi di estrazione dei modelli.

Secondo Aydin Aysu, professore associato di ingegneria elettrica e informatica presso l’Università della Carolina del Nord, “i modelli di intelligenza artificiale sono risorse preziose e il loro furto potrebbe compromettere la sicurezza e l’efficacia dei sistemi che li utilizzano. Costruire un modello richiede tempo e risorse considerevoli, e una volta che viene rubato, diventa più vulnerabile agli attacchi esterni”.

Il lavoro dei ricercatori ha evidenziato come gli attacchi di furto di modelli di intelligenza artificiale possano minare i diritti di proprietà intellettuale, compromettere il vantaggio competitivo degli sviluppatori e mettere a rischio la sicurezza dei dati sensibili incorporati nei modelli stessi. Ashley Kurian, dottoranda presso la stessa università, sottolinea l’importanza di proteggere i modelli di intelligenza artificiale da tali minacce.

Nel corso dello studio, i ricercatori sono riusciti a rubare gli iperparametri di un modello di intelligenza artificiale in esecuzione su un Google Edge Tensor Processing Unit (TPU), consentendo loro di ricreare il modello con un’accuratezza straordinaria. Utilizzando una sonda elettromagnetica posizionata sul chip TPU, i ricercatori hanno monitorato i cambiamenti nel campo elettromagnetico durante l’elaborazione dell’IA, ottenendo così una “firma” del comportamento del modello.

Il processo di “reverse engineering” dei modelli di intelligenza artificiale ha permesso ai ricercatori di stimare il numero di livelli nel modello preso di mira, consentendo loro di ricreare il modello con un’accuratezza impressionante. Questa tecnica, basata sul confronto delle firme elettromagnetiche con un database di modelli simili, ha dimostrato di essere estremamente efficace nel replicare i modelli di intelligenza artificiale.

La dimostrazione condotta dai ricercatori ha evidenziato la necessità di sviluppare contromisure per proteggere i modelli di intelligenza artificiale da tali attacchi. Il lavoro, pubblicato con il titolo “TPUXtract: Un Framework di Estrazione degli Iperparametri”, è stato supportato dalla National Science Foundation e ha portato alla identificazione di una vulnerabilità che è stata comunicata a Google per adottare le opportune misure di sicurezza.

Links: