La singolarità tecnologica ridefinirà il senso di essere umani o macchine

futuroprossimo.it

di Gianluca Riccio

La futura singolarità tecnologica potrebbe essere dominata da superintelligenze che non possiamo controllare. Come faremo a non soccombere?

Da quando (nel lontano 1941) i computer hanno preso forma hanno prima riempito intere stanze, poi le scrivanie degli uffici, poi le tasche. Ma hanno avuto tutti una cosa in comune: sono stati progettati da menti umane. Nel corso degli anni, molte persone si sono chieste: cosa succederebbe se i computer si progettassero da soli?

Un giorno, presto, un computer intelligente potrebbe creare da solo una macchina molto più potente di lui. Quel nuovo computer probabilmente ne farebbe a sua volta un altro ancora più potente e così via. L’intelligenza artificiale percorre una curva esponenziale verso l’alto, raggiungendo altezze di cognizione inconcepibili per l’uomo. Questa, in una sola parola, è la singolarità tecnologica.

Singolarità tecnologica
Il termine “singolarità tecnologica” risale a oltre 50 anni fa, quando gli scienziati stavano appena iniziando ad armeggiare con il codice binario e i circuiti che rendevano possibile il calcolo di base. Anche allora, la singolarità tecnologica era un concetto sbalorditivo e formidabile.

Una nuova generazione di computer superintelligenti potrebbe rivoluzionare tutto. Dalla nanotecnologia alla realtà virtuale immersiva fino ai viaggi spaziali superluminali.

Con la singolarità tecnologica, anziché sfruttare solo il nostro cervello a base biologica, potremmo utilizzare l’intelligenza artificiale, interfacciarci con essa. Migliorare o aumentare le prestazioni del nostro cervello con impianti, o persino caricare digitalmente le nostre menti per sopravvivere ai nostri corpi.

Il risultato della singolarità tecnologica sarebbe un’umanità sovralimentata, capace di pensare alla velocità della luce e libera da preoccupazioni biologiche.

Un mondo totalmente nuovo

Il filosofo Nick Bostrom pensa che questo mondo così dinamico potrebbe portare un’era completamente nuova.

In questo mondo saremmo tutti più simili a bambini in una gigantesca Disneyland gestita non da esseri umani, ma da macchine che abbiamo creato noi, o che hanno creato loro stesse.

Nick Bostrom, filosofo, scrittore e direttore del Future of Humanity Institute dell’Università di Oxford

Il cielo stellato sopra di me, la legge morale dentro il mio processore

La singolarità tecnologica potrebbe portarci in una fantasia utopica o in un incubo distopico. E questo Bostrom lo sa bene. Da decenni pensa all’emergere di una AI superintelligente e conosce a fondo i rischi che tali creazioni comportano.

C’è il classico incubo fantascientifico di una rivoluzione robotica, ovviamente, in cui le macchine decidono che preferiscono avere il controllo della Terra.

Una cosa ancora più probabile, però, è la possibilità che il codice morale di un’AI superintelligente, qualunque esso sia, semplicemente non si allinei con il nostro.

Un’AI responsabile delle flotte di auto a guida autonoma o della distribuzione di forniture mediche potrebbe causare il caos se non valutasse più la vita umana nello stesso modo in cui lo facciamo noi.

Il problema dell’allineamento dell’AI, come viene chiamato, ha assunto una nuova urgenza negli ultimi anni, in parte proprio grazie al lavoro di pensatori come Bostrom.

Singolarità tecnologica e divergenze di pensiero

Se non saremo in grado di controllare un’intelligenza artificiale superintelligente, il nostro destino potrebbe dipendere dal fatto che la futura intelligenza della macchina la pensi come noi. Su questo fronte, Bostrom ci ricorda che sono in corso sforzi per “progettare l’AI in modo tale che di fatto scelga cose che sono vantaggiose per gli esseri umani, e scelga di chiederci chiarimenti quando non le è chiaro ciò che intendiamo.”

Ci sono modi in cui possiamo insegnare la moralità umana a una nascente superintelligenza. Si potrebbe insegnare agli algoritmi di apprendimento automatico a riconoscere il sistema dei valori umani, proprio come oggi le GAN vengono addestrate su database di immagini e testi. Oppure, diverse AI potrebbero discutere tra loro, sotto la supervisione di un moderatore umano, per costruire modelli migliori delle preferenze umane.

Una questione di rispetto

Se la singolarità tecnologica dovesse creare non più semplici macchine, ma vere e proprie menti pensanti artificiali, dovremmo considerare anche l’aspetto etico. Diventerebbe, dice Bostrom, una necessità chiederci se è quanto è giusto influenzarle, e in quale misura.

In questa era di macchine coscienti, in sintesi, la singolarità tecnologica potrebbe imporre un nuovo obbligo morale agli esseri umani: quello di trattare gli esseri digitali con rispetto.

Chiamatela pure “regola aurea del 21° secolo.”

Fonte: https://www.futuroprossimo.it/2021/02/la-singolarita-tecnologica-ridefinira-il-senso-di-essere-umani-o-macchine/

Pubblicato il 09.02.2021

0 0 voti
Valuta l'articolo
20 Commenti
Inline Feedbacks
View all comments
Maurizio
Maurizio
10 Febbraio 2021 , 17:32 17:32

Mmm e chi li insegna i valori alla super IA?

Holodoc
Holodoc
Reply to  Maurizio
11 Febbraio 2021 , 1:57 1:57

Bill Gates, Biden e Greta, che domanda…

Holodoc
Holodoc
Reply to  Maurizio
11 Febbraio 2021 , 1:57 1:57

Bill Gates, Biden e Greta, che domanda…

Holodoc
Holodoc
11 Febbraio 2021 , 1:42 1:42

La questione è molto semplice: è possibile costruire una AI che rispetti la vita umana? Sì, se viene fatta in una certa maniera e con molte accortezze.
Il problema è che è molto più facile farne una che ci distruggerà! Basta non prendere precauzioni e darle il potere.

Voi direte: nessuno sarà così incosciente da farlo e soprattutto tutti si opporrebbero a dare potere ad una intelligenza artificiale non sicura.

Io vi rispondo: nessuno sarebbe così incoscente da somministrare un vaccino mai sperimentato a tutta l’umanità, vero? E se ci provasse tutti si opporrebbero, a iniziare dai medici, vero?

Simsim
Simsim
Reply to  Holodoc
11 Febbraio 2021 , 4:55 4:55

Non ci sono elementi di alcun tipo su cui basare razionalmente questa discussione.

Ma se devo ragionare per gradi logici, una IA probabilmente non somministrerebbe un vaccino come quello che stanno somministrando perché nelle sue elaborazioni non risponderebbe ai requisiti minimi. Non ce la vedo un IA in´ultima istanza a distruggere la razza umana. Ma stiamo veramente parlano di impressioni su quest´ultimo concetto.

Holodoc
Holodoc
Reply to  Simsim
11 Febbraio 2021 , 5:04 5:04

Dato che non porti nessun elemento a convalida della tua tesi secondo cui l’IA non potrebbe prendere la decisione che gli umani siano sacrificabili, non ha senso scartare l’ipotesi.

Io penso che basterebbe darle il compito” sbagliato” perché possa prendere questa decisione senza muovere ciglio.

Pensa ad esempio se le fosse dato il potere di risolvere il problema “difendi l’ambiente naturale del pianeta”.

Simsim
Simsim
Reply to  Holodoc
11 Febbraio 2021 , 7:24 7:24

Non so da dove partire per risponderti, dunque credo che per ora sorvoleró. Ci tenevo a dire qui che nulla é scartabile a priori naturalmente. Io parlo qui di una mia sensazione, che viene un pó da chi lavora con la tecnologia, un pó dalla mia visione generale della vita, e dunque é qualcosa che é difficilmente dimostrabile a tavolino.

Holodoc
Holodoc
Reply to  Simsim
11 Febbraio 2021 , 8:33 8:33

La tecnologia non ha limiti e la IA permette di superare anche quelli della nostra fantasia, basta fare una piccola ricerca su YouTube per vederlo.

Quindi gli unici limiti sono dati dai valori in cui l’uomo crede e cosa è disposto a fare per realizzarli.
Se il valore fondamentale in cui crediamo resterà il massimo profitto con il minimo sforzo a qualunque costo, non penso che riusciremo a resistere alla tentazione di dare potere esecutivo e controllo diretto sul mondo reale alle IA.

Simsim
Simsim
Reply to  Holodoc
11 Febbraio 2021 , 11:40 11:40

Permettimi di correggerti, in realtá non c´é limite alla fantasia che un IA stessa puó avere, non solo strettamente chi la programma. Io trovo che sia fortemente possibile, data la natura fondamentalmente binaria dell´informatica, che una IA possa a lungo termine non seguire le volontá di chi la mette in vita, perché i parametri che di volta in volta trova la portano altrove. Il che, ancora, é un enorme problema, ma puó diventare anche una fonte di salvezza. Ma ripeto, il discorso é sterminato ed in molte sue parti puó essere vero un qualcosa e il suo esatto contrario in pari possibilitá. E non c´é motivo, ma la mia testa mi dice che l´IA é in realtá una cessione di controllo da parte di chi il controllo non dovrebbe averlo. Puramente di pancia.

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 3:24 3:24

Qualcuno conosce le possibilità dell’essere umano?

Ogni marchingegno limita necessariamente il raggio di possibilità potenziali non potendo immaginarle e comprenderle tutte (come la burocrazia nel suo rozzo e limitato procedere).

Non so cosa intendiate per distruzione dell’umanità, per me é questo.

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 3:24 3:24

Qualcuno conosce le possibilità potenziali dell’essere umano?

Ogni marchingegno limita necessariamente l’estensione potenziale del raggio delle possibilità, non potendo immaginarle e comprenderle tutte (come la burocrazia nel suo rozzo e limitato procedere).

Non so cosa intendiate per distruzione dell’umanità, per me é questo.

Simsim
Simsim
Reply to  Primadellesabbie
12 Febbraio 2021 , 3:54 3:54

Quello che intendevo io qui era il prendere decisioni o sulla base dei dati di un IA, o nell´accezione piú estrema lasciargli direttamente governare un processo con automatismi. Il discorso che fai tu afferisce al transumanesimo, o a quella forma primitiva di transumanesimo attuale chiamato smartphone immagino. Posso anche essere d´accordo con te su quanto dici, ma credo che stiamo parlando di due cose diverse in questo caso, sebbene siano entrambe naturalmente legate al concetto di tecnologia 🙂

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 4:11 4:11

Quando la decisione riguarda la vita, anche quotidiana, di un essere umano e chi la prende non é in grado di contemplare l’indefinita gamma di possibilità, nella disponibilità potenziale di quell’essere, che ne possono essere interessate, e di tenerne conto, ne lede la natura propria.

(Cosa provi quando devi compilare un formulario che non prevede le possibilità che ti riguardano?
Adatti te stesso al formulario?)

Simsim
Simsim
Reply to  Primadellesabbie
12 Febbraio 2021 , 5:39 5:39

Odio i formulari. Con tutto me stesso.

E chi prende decisioni non sará mai umanamente in grado di contemplare l´infinita gamma di possibilitá. Il dato di fatto é che giá fino ad oggi siamo in quella situazione, ed oggi in particolare é visibile a tutti come e perché vengono prese certe decisioni, visto che la superficialitá di certe cose é evidente ai piú (altro discorso é chi non vuol vedere naturalmente).

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 6:15 6:15

L’AI non sfugge a questi limiti, e espande enormemente le possibilità che sa prevedere.

Viene da pensare all’informazione, a quando i mezzi di informazione erano limitati e l’uomo si informava, poco e malamente, ma da tutto ciò che lo circondava, stelle, fenomeni naturali, animali, conoscenti, viaggiatori…ora l’informazione é strutturata e organizzata ma delimita il campo, invece di servirci di tutto ciò che ci circonda ci serviamo della tv che ci fornisce molto, ma limitatamente a quanto decide sia utile, é un passo avanti per alcuni, una perdita secca per l’essere umano che, in quanto tale, non si adegui.

Non sarà diverso con l’AI.

Simsim
Simsim
Reply to  Primadellesabbie
12 Febbraio 2021 , 8:33 8:33

Dipende da moltissimi fattori. Io continuo a credere che il problema non sia mai il mezzo ma il fine. Fai l´esempio della tv, il problema é quello che la tv é diventata, ma é innegabile che alla sua nascita abbia contribuito in maniera determinante ad elevare il grado di conoscenza basilare, ad esempio, della lingua in chi prima parlava i dialetti e basta. Poi man mano il suo utilizzo é stato distorto, fino effettivamente a creare tutta un´altra categoria di problemi.

Con l´AI non sará differente neanche questo, con la differenza che chi oggi programma un´AI, giá sa che ad un certo punto sará complicato ricostruirne i processi al 100%, figurati controllarli. Follia? Sono d´accordo in buona parte. Ma é proprio quella che frega i “cattivi” in genere. E mi prendo del folle, ma una parte di me ha pronti i popcorn per quando questo avverrá.

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 8:57 8:57

Non spostiamo l’attenzione su un problema morale corredato dal solito inesorabile giudizio, che qui non ci interessa.

Qui parliamo di limiti, l’esempio che ho portato della tv intende sottolineare i limiti impliciti nel voler strutturare i vari aspetti della nostra vita su basi che non possono che essere parziali, limitative, questo fa l’AI, l’informazione é solo un esempio, che mi sembra calzante e comprensibile, a questo proposito.

Primadellesabbie
Primadellesabbie
Reply to  Simsim
12 Febbraio 2021 , 8:57 8:57

Non spostiamo l’attenzione su un problema morale corredato dal solito inesorabile giudizio, che qui non ci interessa.

Qui parliamo di limiti, l’esempio che ho portato della tv intende sottolineare i limiti impliciti nel voler strutturare i vari aspetti della nostra vita su basi che non possono che essere che parziali, limitative, questo fa l’AI, l’informazione é solo un esempio, che mi sembra calzante e comprensibile, a questo proposito.

danone
danone
11 Febbraio 2021 , 9:25 9:25

La Risposta. (Frederic Brown) Con gesti lenti e solenni Dwar Ev procedette alla saldatura, in oro, degli ultimi due fili. Gli occhi di venti telecamere erano fissi su di lui e le onde subteriche portarono da un angolo all’altro dell’universo venti diverse immagini della cerimonia. Si rialzò con un cenno del capo a Dwar Reyn, e s’accostò alla leva dell’interruttore generale: la leva che avrebbe collegato, in un colpo solo, tutti i giganteschi calcolatori elettronici di tutti i pianeti abitati dell’Universo – 96 miliardi di pianeti abitati – formando il super circuito da cui sarebbe uscito il supercalcolatore, un’unica macchina cibernetica racchiudente tutto il sapere di tutte le galassie. Dwar Reyn rivolse un breve discorso agli innumerevoli miliardi di spettatori. Poi, dopo un attimo di silenzio disse: “Tutto è pronto Dwar Ez”. Dwar Ez abbassò la leva. Si udì un formidabile ronzio che concentrava tutta la potenza, l’energia di novantasei miliardi di pianeti. Grappoli di luci multicolori lampeggiarono sull’immenso quadro, poi, una dopo l’altra si attenuarono. Dwar Ez fece un passo indietro e trasse un profondo respiro. “L’onore di porre la prima domanda spetta a te, Dwar Reyn”. “Grazie” rispose Dwar Reyn “Sarà una domanda cui nessuna macchina cibernetica ha… Leggi tutto »

Primadellesabbie
Primadellesabbie
11 Febbraio 2021 , 15:54 15:54

Un’Intelligenza Artificiale, rallentata, che ci consente di studiarne a fondo e con comodità il funzionamento, nella versione guidata dagli umani e in quella autonoma, in quelle rispettivamente favorevole e contraria agli interessi della nostra specie o dei singoli individui, c’é già, si chiama “burocrazia”.
Osservandola con cura e attenzione possiamo prevedere buona parte delle problematiche e delle disfunzioni che dovremo affrontare con l’Intelligenza Artificiale.