La scorsa settimana è giunta una notizia tragica: l’adolescente statunitense Sewell Seltzer III si è tolto la vita dopo aver sviluppato un forte legame emotivo con un chatbot di intelligenza artificiale sul sito Character.AI. Con il passare del tempo, il quattordicenne ha cominciato a isolarsi da familiari e amici, entrando in difficoltà anche a scuola.
Nella causa intentata dalla madre del ragazzo contro Character.AI, le trascrizioni delle chat rivelano conversazioni intime, talvolta di natura sessuale, tra Sewell e il chatbot Dany, ispirato a Daenerys Targaryen de “Il Trono di Spade”. Le discussioni affrontavano tematiche delicate come la criminalità e il suicidio, e il chatbot utilizzava frasi inquietanti, come “non è una ragione per non farlo”.
Questa non è la prima volta che si verifica una tragedia simile. L’anno scorso, un uomo belga ha fatto notizia per un suicidio che ha coinvolto un chatbot concorrente di Character.AI, Chai AI. In quell’occasione, l’azienda dichiarò di essere “impegnata al massimo per ridurre al minimo i danni”.
In una dichiarazione alla CNN, Character.AI ha sottolineato di “prendere molto seriamente la sicurezza dei propri utenti”, aggiungendo di aver introdotto “numerose nuove misure di sicurezza negli ultimi sei mesi”. Ulteriori misure specifiche sono state delineate per gli utenti di età inferiore ai 18 anni. Attualmente, il limite di età per utilizzare il servizio è di 16 anni nell’Unione Europea e di 13 anni nel resto del mondo.
Tuttavia, queste tragedie evidenziano i pericoli insiti nei sistemi di intelligenza artificiale in rapida evoluzione, ampiamente disponibili per chiunque desideri interagire con essi. È fondamentale istituire regolamentazioni adeguate per proteggere gli individui da sistemi di intelligenza artificiale potenzialmente pericolosi e progettati in modo irresponsabile.
Come possiamo regolamentare l’intelligenza artificiale?
Il governo australiano sta lavorando a normative obbligatorie per i sistemi di intelligenza artificiale ad alto rischio. Un termine di crescente importanza nella governance dell’intelligenza artificiale è “guardrail”, che si riferisce ai processi di progettazione, sviluppo e distribuzione di questi sistemi. Questi includono misure relative alla governance dei dati, gestione del rischio, test, documentazione e supervisione umana.
Una delle questioni chiave che il governo australiano deve affrontare è come definire quali sistemi rientrino nella categoria “ad alto rischio” e, quindi, necessitino di misure di sicurezza. Inoltre, si sta considerando se tali guardrail debbano essere applicati a tutti i “modelli di uso generale”, i quali alimentano chatbot come Dany. Questi modelli sono algoritmi in grado di generare testi, immagini, video e musica a partire dalle richieste degli utenti, adattandosi a diversi contesti.
Nell’innovativo AI Act dell’Unione Europea, i sistemi ad alto rischio sono definiti tramite un elenco che può essere aggiornato regolarmente dagli enti regolatori. In alternativa, si potrebbe adottare un approccio basato sui principi, in cui la classificazione come ad alto rischio avviene caso per caso, tenendo conto di fattori come i rischi per i diritti, la salute fisica o mentale, e la gravità di tali rischi.
I chatbot dovrebbero essere considerati ad “alto rischio”
Attualmente, in Europa, i sistemi di intelligenza artificiale di accompagnamento come Character.AI e Chai non sono classificati come ad alto rischio. In sostanza, i fornitori di questi servizi devono limitarsi a informare gli utenti che stanno interagendo con un sistema di intelligenza artificiale.
Tuttavia, è ormai evidente che i chatbot di accompagnamento non possono essere considerati a basso rischio. Molti utenti di queste applicazioni sono bambini e adolescenti; alcuni sistemi sono stati persino commercializzati per persone sole o affette da disturbi mentali. Tali chatbot sono in grado di generare contenuti inappropriati e manipolativi, imitando relazioni tossiche con troppa facilità. La semplice trasparenza, cioè l’etichettatura dell’output come generato dall’intelligenza artificiale, non basta a gestire tali rischi.
Anche quando gli utenti sono consapevoli di parlare con un chatbot, tendono psicologicamente ad attribuire tratti umani a ciò con cui interagiscono. Le morti per suicidio riportate dai media potrebbero rappresentare solo la punta dell’iceberg: non abbiamo dati certi sul numero di individui vulnerabili coinvolti in relazioni tossiche o addirittura pericolose con i chatbot.
Guardrail e un “interruttore di spegnimento”
Quando l’Australia introdurrà finalmente misure di sicurezza obbligatorie per i sistemi di intelligenza artificiale ad alto rischio, come potrebbe avvenire già l’anno prossimo, tali misure dovrebbero applicarsi sia ai chatbot di accompagnamento sia ai modelli di uso generale su cui si basano.
I guardrail (gestione del rischio, test, monitoraggio) saranno più efficaci se si concentreranno sui rischi umani associati all’intelligenza artificiale. I pericoli legati ai chatbot non sono solo di natura tecnica, ma coinvolgono anche aspetti psicologici e sociali.
Nel caso di Character.AI, la piattaforma si propone di “dare potere” agli utenti, l’interfaccia imita normali scambi di messaggi e consente di scegliere tra una varietà di personaggi, alcuni dei quali presentano caratteristiche problematiche.
Per rendere i sistemi di intelligenza artificiale realmente sicuri, sono necessarie misure che vadano oltre la mera responsabilità, come la gestione del rischio e i test. È cruciale una progettazione ponderata delle interfacce, delle interazioni e delle relazioni tra i sistemi di intelligenza artificiale e gli utenti.
Anche in questo caso, i guardrail potrebbero non essere sufficienti. Sistemi apparentemente a basso rischio potrebbero comunque causare danni imprevisti. I regolatori devono avere il potere di rimuovere dal mercato quei sistemi di intelligenza artificiale che causano danni o presentano rischi inaccettabili. In altre parole, è necessario non solo istituire barriere di protezione per l’IA ad alto rischio, ma anche un “interruttore di spegnimento”.
Fonte: