La singolarità tecnologica ridefinirà il senso di essere umani o macchine

futuroprossimo.it

di Gianluca Riccio

La futura singolarità tecnologica potrebbe essere dominata da superintelligenze che non possiamo controllare. Come faremo a non soccombere?

Da quando (nel lontano 1941) i computer hanno preso forma hanno prima riempito intere stanze, poi le scrivanie degli uffici, poi le tasche. Ma hanno avuto tutti una cosa in comune: sono stati progettati da menti umane. Nel corso degli anni, molte persone si sono chieste: cosa succederebbe se i computer si progettassero da soli?

Un giorno, presto, un computer intelligente potrebbe creare da solo una macchina molto più potente di lui. Quel nuovo computer probabilmente ne farebbe a sua volta un altro ancora più potente e così via. L’intelligenza artificiale percorre una curva esponenziale verso l’alto, raggiungendo altezze di cognizione inconcepibili per l’uomo. Questa, in una sola parola, è la singolarità tecnologica.

Singolarità tecnologica
Il termine “singolarità tecnologica” risale a oltre 50 anni fa, quando gli scienziati stavano appena iniziando ad armeggiare con il codice binario e i circuiti che rendevano possibile il calcolo di base. Anche allora, la singolarità tecnologica era un concetto sbalorditivo e formidabile.

Una nuova generazione di computer superintelligenti potrebbe rivoluzionare tutto. Dalla nanotecnologia alla realtà virtuale immersiva fino ai viaggi spaziali superluminali.

Con la singolarità tecnologica, anziché sfruttare solo il nostro cervello a base biologica, potremmo utilizzare l’intelligenza artificiale, interfacciarci con essa. Migliorare o aumentare le prestazioni del nostro cervello con impianti, o persino caricare digitalmente le nostre menti per sopravvivere ai nostri corpi.

Il risultato della singolarità tecnologica sarebbe un’umanità sovralimentata, capace di pensare alla velocità della luce e libera da preoccupazioni biologiche.

Un mondo totalmente nuovo

Il filosofo Nick Bostrom pensa che questo mondo così dinamico potrebbe portare un’era completamente nuova.

In questo mondo saremmo tutti più simili a bambini in una gigantesca Disneyland gestita non da esseri umani, ma da macchine che abbiamo creato noi, o che hanno creato loro stesse.

Nick Bostrom, filosofo, scrittore e direttore del Future of Humanity Institute dell’Università di Oxford

Il cielo stellato sopra di me, la legge morale dentro il mio processore

La singolarità tecnologica potrebbe portarci in una fantasia utopica o in un incubo distopico. E questo Bostrom lo sa bene. Da decenni pensa all’emergere di una AI superintelligente e conosce a fondo i rischi che tali creazioni comportano.

C’è il classico incubo fantascientifico di una rivoluzione robotica, ovviamente, in cui le macchine decidono che preferiscono avere il controllo della Terra.

Una cosa ancora più probabile, però, è la possibilità che il codice morale di un’AI superintelligente, qualunque esso sia, semplicemente non si allinei con il nostro.

Un’AI responsabile delle flotte di auto a guida autonoma o della distribuzione di forniture mediche potrebbe causare il caos se non valutasse più la vita umana nello stesso modo in cui lo facciamo noi.

Il problema dell’allineamento dell’AI, come viene chiamato, ha assunto una nuova urgenza negli ultimi anni, in parte proprio grazie al lavoro di pensatori come Bostrom.

Singolarità tecnologica e divergenze di pensiero

Se non saremo in grado di controllare un’intelligenza artificiale superintelligente, il nostro destino potrebbe dipendere dal fatto che la futura intelligenza della macchina la pensi come noi. Su questo fronte, Bostrom ci ricorda che sono in corso sforzi per “progettare l’AI in modo tale che di fatto scelga cose che sono vantaggiose per gli esseri umani, e scelga di chiederci chiarimenti quando non le è chiaro ciò che intendiamo.”

Ci sono modi in cui possiamo insegnare la moralità umana a una nascente superintelligenza. Si potrebbe insegnare agli algoritmi di apprendimento automatico a riconoscere il sistema dei valori umani, proprio come oggi le GAN vengono addestrate su database di immagini e testi. Oppure, diverse AI potrebbero discutere tra loro, sotto la supervisione di un moderatore umano, per costruire modelli migliori delle preferenze umane.

Una questione di rispetto

Se la singolarità tecnologica dovesse creare non più semplici macchine, ma vere e proprie menti pensanti artificiali, dovremmo considerare anche l’aspetto etico. Diventerebbe, dice Bostrom, una necessità chiederci se è quanto è giusto influenzarle, e in quale misura.

In questa era di macchine coscienti, in sintesi, la singolarità tecnologica potrebbe imporre un nuovo obbligo morale agli esseri umani: quello di trattare gli esseri digitali con rispetto.

Chiamatela pure “regola aurea del 21° secolo.”

Fonte: https://www.futuroprossimo.it/2021/02/la-singolarita-tecnologica-ridefinira-il-senso-di-essere-umani-o-macchine/

Pubblicato il 09.02.2021