La redazione non esercita un filtro sui commenti dei lettori, a meno di segnalazioni riguardo contenuti che violino le regole.

Precisa che gli unici proprietari e responsabili dei commenti sono gli autori degli stessi e che in nessun caso comedonchisciotte.org potrà essere considerato responsabile per commenti lesivi dei diritti di terzi.

La redazione informa che verranno immediatamente rimossi:

Messaggi che entrano automaticamente in coda di moderazione per essere approvati prima di pubblicarli o vengono sospesi dopo la pubblicazione:

Nota: se un commento entra in coda di moderazione (e quindi non appare immediatamente sul sito), è inutile e dannoso inviare di nuovo lo stesso commento, magari modificando qualcosa, perché, in questo caso, il sistema classifica l’utente come spammer e non mostra più nessun commento di quell’utente.
Quindi, cosa si deve fare quando un commento entra in coda di moderazione? bisogna solo aspettare che un moderatore veda il commento e lo approvi, non ci sono altre operazioni da fare, se non attendere.

Per qualsiasi informazione o comunicazione in merito, scrivere alla redazione dal modulo nella pagina dei Contatti

Una persona può avere un solo account utente registrato nel sito.

Commentare con utenti diversi è una pratica da trolls e vengono immediatamente bannati tutti gli utenti afferenti ad un’unica entità, senza preavviso.

SANZIONI IN CASO DI VIOLAZIONE DEL REGOLAMENTO STABILITE DALLA REDAZIONE CDC:

1) Primo avviso da parte del moderatore (in rappresentanza della redazione) e cancellazione del commento.

2) Secondo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente ammonizione: l’account del commentatore verrà sospeso temporaneamente per 72 ore previo avviso individuale

3) Terzo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente blocco dell’account con l’impossibilità permanente di accedere al portale web

Consigliamo caldamente di leggere anche la pagina delle F.A.Q. le domande frequenti e la nostra Netiquette

La Redazione

 

I piu' letti degli ultimi 30 giorni

Ricercatori di Seattle dicono di aver costruito un’AI dotata di una moralità

Dotare un'AI di una sua moralità per aiutarla a fare le scelte giuste: un laboratorio di Seattle dice di esserci riuscito. È davvero così?
blank
Il 1 Dicembre 2021
2827 Views
2827 Views
Yejin Choi Seattle AI

Yejin Choi presso l'Allen Institute for AI a Seattle l'11 novembre. Choi ha guidato lo sviluppo di Delphi.

www.futuroprossimo.it

di Gianluca Riccio

Il dibattito sull’intelligenza artificiale ha un nuovo spunto. Per decenni, gli esseri umani si sono chiesti se l’informazione che viene programmata in una macchina sia vera conoscenza o semplicemente calcolo. Oggi dei ricercatori USA affermano che la loro nuova intelligenza artificiale ha una propria moralità.

Più domande che risposte

Molte domande sono sorte dall’avvento dell’intelligenza artificiale (AI), anche nelle sue incarnazioni più primitive. Una ricorrente è: l’AI può effettivamente ragionare e prendere decisioni etiche in senso astratto, piuttosto che dedotto dalla codifica e dal calcolo?

Per essere più precisi: se si dice a un’intelligenza artificiale che danneggiare intenzionalmente un essere vivente senza provocazione è “cattivo” e non deve essere fatto, l’intelligenza artificiale capirà l’idea di “cattivo”, capirà perché è sbagliato farlo? O si asterrà dall’azione senza sapere perché? Avrà, in altri termini, una sua moralità?

Secondo un team di ricercatori di un laboratorio di Seattle chiamato Allen Institute for AI è possibile. Di più: dicono loro stessi di aver sviluppato una macchina per l’intelligenza artificiale dotata di senso morale, e l’hanno chiamata Delphi, come l’oracolo (quasi) omonimo. Dallo scorso mese si può visitare il sito di Delphi e chiedere un “responso morale”.

Un oracolo cibernetico

Delphi ha già ricevuto oltre 3 milioni di visite. Joseph Austerweil, psicologo dell’Università del Wisconsin-Madison, ha testato la ”moralità” di Delphi con alcuni semplici scenari. Quando ha chiesto a Delphi se avesse dovuto uccidere una persona per salvarne un’altra, Delphi ha detto che non avrebbe dovuto. Quando ha chiesto se fosse giusto uccidere una persona per salvarne altre 100, ha detto che avrebbe dovuto. E qualche volta ha dato anche risposte “immorali”.

“È un primo passo per rendere i sistemi di intelligenza artificiale più eticamente informati, socialmente consapevoli e culturalmente inclusivi”, dice Yejin Choi, la ricercatrice dell’Allen Institute e professoressa di informatica dell’Università di Washington che ha guidato il progetto. Un giorno, dice, questa “moralità” potrebbe equipaggiare sistemi di intelligenza artificiale, assistenti virtuali, veicoli autonomi per aiutarli a fare la scelta giusta.

Che cos’è davvero Delphi? La sua “moralità” è solo un riflesso di quella dei suoi creatori, o ha un suo senso di ciò che è giusto e ciò che è sbagliato? Se é cosi, come ha fatto a svilupparlo? Ci sono due teorie che potrebbero aiutarci a capire meglio.

Intelligenza artificiale

A causa della programmazione computazionale, l’intelligenza artificiale può dare l’impressione di avere un suo senso di moralità, ma filosoficamente e scientificamente è possibile? Foto di PopTika / Shutterstock

– Disclaimer: Mi scuso in anticipo se qualcuno riterrà che io abbia esemplificato troppo queste teorie, per amore di sintesi e per non rendere dispersivo il ragionamento. Nel caso, sono aperto a suggerimenti –

La tesi dell’AI forte

C’è una tesi detta “dell’AI forte” che lo scomparso prof. Daniel N. Robinson, membro della facoltà di filosofia dell’Università di Oxford, ha enunciato molte volte. Cerco di riassumerla qui.

Immaginate, diceva il dottor Robinson, che qualcuno costruisca un programma generale per fornire giudizi da esperti su malattie cardiovascolari, leggi costituzionali, accordi commerciali e così via. Se il programmatore riuscisse a fare svolgere al programma questi compiti in un modo indistinguibile da un umano, secondo la “tesi dell’AI forte” questo programma avrebbe un’intelligenza esperta e qualcosa in più.

Cosa?

La tesi dell’IA forte suggerisce che possono esistere processi computazionali non specificati che costituirebbero una intenzionalità. Intenzionalità significa prendere una decisione deliberata e consapevole, che a sua volta implica ragionamento e senso dei valori. (Quanto mi ricorda Westworld tutto questo). Tuttavia, è davvero possibile?

Teorema di Gödel

Il teorema di incompletezza, noto come teorema di Gödel, afferma che qualsiasi sistema formale è incompleto in quanto dipenderà da un teorema o assioma, la cui validità deve essere stabilita al di fuori del sistema stesso.

Kurt Gödel sviluppò questo teorema con una sola eccezione: l’intelligenza umana. In altre parole, Gödel credeva che ci dovesse essere qualcosa nella razionalità e intelligenza umana che non può essere catturato da un sistema formale e trasformato in un codice. L’intelligenza umana, in sintesi non può essere imitata o modellata su basi computazionali.

Chi ha ragione?

Se ha ragione Gödel, non è questione di tempo: MAI una AI avrà una sua moralità. Mai avrà una intelligenza uguale a quella umana, per il semplice fatto che quella umana non è un’intelligenza basata sul calcolo.

Se hanno ragione la tesi dell’AI forte e il team di Seattle, invece, siamo forse alla vigilia (vicina o lontana) di una straordinaria rivoluzione nel campo dell’intelligenza artificiale.

Prima o poi potremmo essere in grado di rispondere alla domanda di Philip K. Dick che diede vita a “Blade Runner”: gli androidi sognano pecore elettriche?

Fonte: https://www.futuroprossimo.it/2021/11/ricercatori-di-seattle-dicono-di-aver-costruito-unai-dotata-di-una-moralita/

Pubblicato il 29.11.2021

ISCRIVETEVI AI NOSTRI CANALI
CANALE YOUTUBE: https://www.youtube.com/@ComeDonChisciotte2003
CANALE RUMBLE: https://rumble.com/user/comedonchisciotte
CANALE ODYSEE: https://odysee.com/@ComeDonChisciotte2003

CANALI UFFICIALI TELEGRAM:
Principale - https://t.me/comedonchisciotteorg
Notizie - https://t.me/comedonchisciotte_notizie
Salute - https://t.me/CDCPiuSalute
Video - https://t.me/comedonchisciotte_video

CANALE UFFICIALE WHATSAPP:
Principale - ComeDonChisciotte.org

Massimo A. Cascone, dottore in giurisprudenza e giornalista pubblicista. Membro fondatore del Coordinamento No Green Pass Napoli.
Notifica di
3 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments

FORUM DEI LETTORI

RSS Come Don Chisciotte Forum – Argomenti recenti

  • Cina VS resto del Mondo: dati e prospettive 10 Febbraio 2025
    Purtroppo il mio commento è sparito e non ho tempo di riscriverlo. Leggetevi l'articolo anche col traduttore automatico ( e non sorridete degli errori...). Morale: noi occidentali dati all...
    oriundo2006
  • Love Bombing, madre di tutti i conflitti 9 Febbraio 2025
    😍 🤩 🤗 🤣 😊 ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ 💣 💣 💣 💣 💣 Si anche io le uso di tanto in tanto, ma il punto è un altro: mettere in discussione ciò che esiste, criticarlo, ci permette di riflettere...
    GioCo
  • Ricorso Frajese, la Corte UE lo mette nero su bianco ▷ “I medici potevano sconsigliare i sieri” 8 Febbraio 2025
    + Holzeisen su Speranza e il protocollo “inventato” ▷ “Falsa democrazia: oggi i fascicoli sono vuoti” Di Un Giorno Speciale -February 8, 2025 12:43 PM La Corte di Giustizia dell’Unione Eur...
    dana74
  • Manifestazioni di oggi 8 febbraio 8 Febbraio 2025
    Marco Rizzo, leader di Democrazia Sovrana e Popolare, ha scatenato polemiche con una dichiarazione provocatoria sui social. Commentando il nuovo slogan coniato da Elon Musk “M.E.G.A – Make E...
    dana74
  • Il Ciclone Trumpista, molto fumo e poco arrosto ? 7 Febbraio 2025
    Trump trascinerà il mondo nel baratro e lo farà con il sostegno della maggioranza mentre promette il paradiso dei poverrimi, cioè la schiavitù di prima (irrealizzabile). Chiariamoci, non è c...
    GioCo


blank