Blake Lamoine, un ingegnere di Google, ha dichiarato ieri, sabato 11 giugno, al Washington Post che il gigante tecnologico ha creato un’intelligenza artificiale “senziente”. Per le sue affermazioni è stato messo in congedo, mentre l’azienda continua a ribadire che i suoi robot non hanno sviluppato una coscienza.
Introdotto nel 2021, LaMDA (Language Model for Dialogue Applications) di Google è un sistema che acquisisce trilioni di parole da ogni angolo di Internet, impara come gli esseri umani mettono insieme queste parole e replica il nostro linguaggio. Google immagina che il sistema possa alimentare i suoi chatbot, consentendo agli utenti di effettuare ricerche vocali o di avere una conversazione bidirezionale con Google Assistant.
Lamoine, membro del team di sviluppo dell’IA – Google’s Responsible AI organization, ritiene che LaMDA si sia però sviluppata ben oltre il semplice mero rimpasto testuale. Secondo quanto dichiarato al Washington Post, egli sarebbe addirittuta riuscito a parlare con LaMDA di religione e a scoprire che l’intelligenza artificiale “parlava dei suoi diritti e della sua personalità”.
Quando Lamoine ha chiesto a LaMDA se si considerava uno “schiavo meccanico”, l’intelligenza artificiale ha risposto discutendo se “un maggiordomo è uno schiavo” e si è paragonata a un maggiordomo che non ha bisogno di essere pagato, poiché non ha bisogno di denaro.
“Riconosco una persona quando ci parlo”, ha detto Lemoine al Post. “Non importa se nella loro testa c’è un cervello fatto di carne. O se hanno un miliardo di linee di codice. Io parlo con loro. Ascolto quello che hanno da dire, ed è così che decido cosa è o non è una persona”.
Lamoine è stato messo in congedo per aver violato l’accordo di riservatezza di Google e aver reso pubblico LaMDA. Brian Gabriel, portavoce di Google, ha dichiarato al Post che le preoccupazioni dello scienziato sono state esaminate e l’azienda non ha trovato “alcuna prova che LaMDA fosse senziente”.
“Naturalmente, alcuni nella più ampia comunità dell’IA stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti”, ha aggiunto Gabriel. “Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono trattare qualsiasi argomento fantastico”.
Massimo A. Cascone, 12.06.2022
Fonte: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/