Ricercatori di Seattle dicono di aver costruito un’AI dotata di una moralità

Dotare un'AI di una sua moralità per aiutarla a fare le scelte giuste: un laboratorio di Seattle dice di esserci riuscito. È davvero così?

AVVISO PER I LETTORI: Abbiamo cambiato il nostro indirizzo Telegram. Per restare aggiornato su tutti gli ultimi nostri articoli iscriviti al nostro canale "Ultime Notizie".

www.futuroprossimo.it

di Gianluca Riccio

Il dibattito sull’intelligenza artificiale ha un nuovo spunto. Per decenni, gli esseri umani si sono chiesti se l’informazione che viene programmata in una macchina sia vera conoscenza o semplicemente calcolo. Oggi dei ricercatori USA affermano che la loro nuova intelligenza artificiale ha una propria moralità.

Più domande che risposte

Molte domande sono sorte dall’avvento dell’intelligenza artificiale (AI), anche nelle sue incarnazioni più primitive. Una ricorrente è: l’AI può effettivamente ragionare e prendere decisioni etiche in senso astratto, piuttosto che dedotto dalla codifica e dal calcolo?

Per essere più precisi: se si dice a un’intelligenza artificiale che danneggiare intenzionalmente un essere vivente senza provocazione è “cattivo” e non deve essere fatto, l’intelligenza artificiale capirà l’idea di “cattivo”, capirà perché è sbagliato farlo? O si asterrà dall’azione senza sapere perché? Avrà, in altri termini, una sua moralità?

Secondo un team di ricercatori di un laboratorio di Seattle chiamato Allen Institute for AI è possibile. Di più: dicono loro stessi di aver sviluppato una macchina per l’intelligenza artificiale dotata di senso morale, e l’hanno chiamata Delphi, come l’oracolo (quasi) omonimo. Dallo scorso mese si può visitare il sito di Delphi e chiedere un “responso morale”.

Un oracolo cibernetico

Delphi ha già ricevuto oltre 3 milioni di visite. Joseph Austerweil, psicologo dell’Università del Wisconsin-Madison, ha testato la ”moralità” di Delphi con alcuni semplici scenari. Quando ha chiesto a Delphi se avesse dovuto uccidere una persona per salvarne un’altra, Delphi ha detto che non avrebbe dovuto. Quando ha chiesto se fosse giusto uccidere una persona per salvarne altre 100, ha detto che avrebbe dovuto. E qualche volta ha dato anche risposte “immorali”.

“È un primo passo per rendere i sistemi di intelligenza artificiale più eticamente informati, socialmente consapevoli e culturalmente inclusivi”, dice Yejin Choi, la ricercatrice dell’Allen Institute e professoressa di informatica dell’Università di Washington che ha guidato il progetto. Un giorno, dice, questa “moralità” potrebbe equipaggiare sistemi di intelligenza artificiale, assistenti virtuali, veicoli autonomi per aiutarli a fare la scelta giusta.

Che cos’è davvero Delphi? La sua “moralità” è solo un riflesso di quella dei suoi creatori, o ha un suo senso di ciò che è giusto e ciò che è sbagliato? Se é cosi, come ha fatto a svilupparlo? Ci sono due teorie che potrebbero aiutarci a capire meglio.

Intelligenza artificiale
A causa della programmazione computazionale, l’intelligenza artificiale può dare l’impressione di avere un suo senso di moralità, ma filosoficamente e scientificamente è possibile? Foto di PopTika / Shutterstock

– Disclaimer: Mi scuso in anticipo se qualcuno riterrà che io abbia esemplificato troppo queste teorie, per amore di sintesi e per non rendere dispersivo il ragionamento. Nel caso, sono aperto a suggerimenti –

La tesi dell’AI forte

C’è una tesi detta “dell’AI forte” che lo scomparso prof. Daniel N. Robinson, membro della facoltà di filosofia dell’Università di Oxford, ha enunciato molte volte. Cerco di riassumerla qui.

Immaginate, diceva il dottor Robinson, che qualcuno costruisca un programma generale per fornire giudizi da esperti su malattie cardiovascolari, leggi costituzionali, accordi commerciali e così via. Se il programmatore riuscisse a fare svolgere al programma questi compiti in un modo indistinguibile da un umano, secondo la “tesi dell’AI forte” questo programma avrebbe un’intelligenza esperta e qualcosa in più.

Cosa?

La tesi dell’IA forte suggerisce che possono esistere processi computazionali non specificati che costituirebbero una intenzionalità. Intenzionalità significa prendere una decisione deliberata e consapevole, che a sua volta implica ragionamento e senso dei valori. (Quanto mi ricorda Westworld tutto questo). Tuttavia, è davvero possibile?

Teorema di Gödel

Il teorema di incompletezza, noto come teorema di Gödel, afferma che qualsiasi sistema formale è incompleto in quanto dipenderà da un teorema o assioma, la cui validità deve essere stabilita al di fuori del sistema stesso.

Kurt Gödel sviluppò questo teorema con una sola eccezione: l’intelligenza umana. In altre parole, Gödel credeva che ci dovesse essere qualcosa nella razionalità e intelligenza umana che non può essere catturato da un sistema formale e trasformato in un codice. L’intelligenza umana, in sintesi non può essere imitata o modellata su basi computazionali.

Chi ha ragione?

Se ha ragione Gödel, non è questione di tempo: MAI una AI avrà una sua moralità. Mai avrà una intelligenza uguale a quella umana, per il semplice fatto che quella umana non è un’intelligenza basata sul calcolo.

Se hanno ragione la tesi dell’AI forte e il team di Seattle, invece, siamo forse alla vigilia (vicina o lontana) di una straordinaria rivoluzione nel campo dell’intelligenza artificiale.

Prima o poi potremmo essere in grado di rispondere alla domanda di Philip K. Dick che diede vita a “Blade Runner”: gli androidi sognano pecore elettriche?

Fonte: https://www.futuroprossimo.it/2021/11/ricercatori-di-seattle-dicono-di-aver-costruito-unai-dotata-di-una-moralita/

Pubblicato il 29.11.2021

Potrebbe piacerti anche
blank
Notifica di
3 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
3
0
È il momento di condividere le tue opinionix