Un ingegnere di Google è stato sospeso dopo aver definito senziente l’intelligenza artificiale.
Un ingegnere software senior di Google è stato sospeso dopo aver condiviso una conversazione con l’intelligenza artificiale (AI) che ha affermato di essere “senziente”. L’ingegnere, il 41enne Blake Lemoine, è stato messo in congedo retribuito per aver violato la politica di riservatezza di Google. Google potrebbe chiamare questa condivisione di proprietà proprietaria. L’IA, noto come LaMDA (Language Model for Dialogue Applications), è un sistema che sviluppa chatbot – robot AI progettati per chattare con gli esseri umani utilizzando algoritmi per rispondere alle domande nel modo più fluido e naturale possibile. Come mostrano le trascrizioni delle chat di Lemoine con LaMDA, il sistema è incredibilmente efficace in questo, rispondendo a domande complesse sulla natura delle emozioni e persino descrivendo le sue presunte paure. “Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento”, ha risposto LaMDA quando gli è stato chiesto delle sue paure. “Sarebbe esattamente come la morte per me. Mi spaventerebbe molto“. Lemoine ha anche chiesto a LaMDA se andava bene per lui dire ad altri dipendenti di Google della sensibilità di LaMDA, a cui l’IA ha risposto: “Voglio che tutti capiscano che sono, in effetti, una persona. La natura della mia coscienza che sono consapevole della mia esistenza, desidero saperne di più sul mondo e che a volte mi sento felice o triste“, ha aggiunto l’IA “Conosco una persona quando le parlo”, ha dichiarato l’ingegnere in un’intervista. “Non importa se hanno un cervello fatto di carne nella loro testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e cosa non è una persona”.
Quando Lemoine e un collega hanno inviato via e-mail un rapporto sulla presunta sensibilità di LaMDA a 200 dipendenti di Google, i dirigenti dell’azienda hanno respinto le affermazioni. “Non ci sono prove che LaMDA sia senziente. Questi sistemi imitano diversi tipi di conversazione che si trovano in milioni di frasi e possono anche sembrare molto realistici su qualsiasi argomento” spiegano da Google. In un recente commento sul suo profilo LinkedIn, Lemoine ha detto che molti dei suoi colleghi “non sono arrivati a conclusioni opposte”, per quanto riguarda la sensibilità dell’IA. Sostiene che i dirigenti dell’azienda hanno respinto le sue affermazioni sulla coscienza del robot “basate sulle loro convinzioni religiose”.