Di Dr. Joseph Mercola
VIDEO: ORWELL’S FINAL WARNING – PICTURE OF THE FUTURE
La Storia in breve
-
Gli esperti avvertono che l’intelligenza artificiale (AI) può distruggere l’umanità e la civiltà così come la conosciamo a meno che non limitiamo lo sviluppo e la diffusione dell’IA e iniziamo a mettere in atto alcune salvaguardie.
-
Il pubblico deve anche moderare le aspettative e rendersi conto che i chatbot [software che simulano ed elaborano le conversazioni umane, ndt] di intelligenza artificiale sono ancora ampiamente imperfetti e che non sono affidabili. Un avvocato lo ha scoperto di recente nel modo più duro, quando ha chiesto a ChatGPT di fare le sue ricerche legali. Nessuna della giurisprudenza citata da ChatGPT era reale.
-
Nel 2022, Facebook dopo soli tre giorni ha ritirato il suo chatbot Galactica incentrato sulla scienza, poiché ha generato risultati completamente [da lui] inventati.
-
Il dispiegamento non regolamentato di sistemi d’arma IA autonomi è forse tra gli sviluppi più allarmanti. Gli esperti di politica estera avvertono che le tecnologie di armi autonome destabilizzeranno le attuali strategie nucleari e aumenteranno il rischio di attacchi preventivi. Potrebbero anche essere combinati con armi chimiche, biologiche, radiologiche e nucleari, rappresentando così una minaccia esistenziale.
-
L’intelligenza artificiale può anche rappresentare una minaccia significativa per la biosicurezza. Gli studenti del MIT hanno dimostrato che i chatbot con modelli linguistici di grandi dimensioni possono consentire a chiunque di progettare armi biologiche in meno di un’ora
L’intelligenza artificiale (AI) distruggerà l’umanità? Potrebbe creare l’arma biologica letale “perfetta” per decimare la popolazione? [1, 2] Potrebbe impossessarsi delle nostre armi [3, 4], o avviare attacchi informatici a infrastrutture critiche, come la rete elettrica [5]?
Secondo un numero in rapida crescita di esperti, ognuno di questi e altri scenari infernali sono del tutto plausibili, a meno che non limitiamo lo sviluppo e il dispiegamento dell’IA e iniziamo a mettere in atto alcune salvaguardie.
Il pubblico deve anche mitigare le aspettative e rendersi conto che i chatbot di intelligenza artificiale sono ancora ampiamente imperfetti e non sono affidabili, non importa quanto appaiano “intelligenti” o quanto ti rimproverino per aver dubitato di loro .
Un avvertimento di George Orwell
Il video all’inizio di questo articolo presenta una ricostruzione di una delle ultime interviste rilasciate da George Orwell prima di morire, in cui affermava che il suo libro, “1984”, che descriveva come una parodia, poteva benissimo diventare realtà, poiché era la direzione verso cui il mondo si stava dirigendo.
Oggi è chiaro che non abbiamo cambiato rotta, quindi la probabilità che “1984” diventi realtà è ora più grande che mai. Secondo Orwell, c’è solo un modo per garantire che la sua visione distopica non si avveri, ed è non permettere che accada. «Dipende da te», disse.
Man mano che l’intelligenza artificiale generale (AGI) si avvicina di giorno in giorno, lo sono anche gli ultimi pezzi del puzzle del sogno tecnocratico e transumanista nutrito dai globalisti per decenni. Intendono creare un mondo in cui l’intelligenza artificiale controlla e soggioga le masse mentre solo loro possono raccoglierne i benefici – ricchezza, potere e vita al di fuori della griglia di controllo – e li otterranno, a meno che non diventiamo saggi e iniziamo a guardare avanti.
Io, come molti altri, credo che l’AI possa essere incredibilmente utile. Ma senza forti guardrail e una morale impeccabile a guidarla, l’AI può facilmente impazzire e causare danni enormi, e forse irreversibili. Raccomando di leggere il rapporto di Public Citizen per comprendere meglio ciò che stiamo per affrontare e cosa si può fare a riguardo.
Avvicinamento alla singolarità
“La Singolarità” è un ipotetico punto nel tempo in cui la crescita della tecnologia va fuori controllo e diventa irreversibile, nel bene e nel male. Molti credono che la Singolarità implicherà che l’IA diventi autocosciente e ingestibile dai suoi creatori, ma non è l’unico modo in cui la Singolarità potrebbe evolversi.
Alcuni credono che la Singolarità sia già qui. In un articolo del New York Times dell’11 giugno 2023, il reporter di tecnologia David Streitfeld ha scritto [6]:
“L’intelligenza artificiale è l’ultimo lancio di nuovi prodotti della Silicon Valley: trascendenza su richiesta. Ma c’è una svolta oscura. È come se le aziende tecnologiche introducessero auto a guida autonoma con l’avvertenza che potrebbero esplodere prima di arrivare da Walmart.
“L’avvento dell’intelligenza artificiale generale si chiama Singolarità perché è così difficile prevedere cosa accadrà dopo”, ha detto Elon Musk alla CNBC il mese scorso. Ha detto che pensava che ne sarebbe derivata «un’era di abbondanza», ma c’era «qualche possibilità» che «distruggesse l’umanità».
Il più grande sostenitore dell’intelligenza artificiale nella comunità tecnologica è Sam Altman, amministratore delegato di OpenAI, la start-up che ha provocato l’attuale frenesia con il suo chatbot ChatGPT… Ma dice anche che Mr. Musk… potrebbe avere ragione.
Mr Altman ha firmato una lettera aperta [7] il mese scorso rilasciata dal Center for AI Safety, un’organizzazione senza scopo di lucro, affermando che «mitigare il rischio di estinzione dell’AI dovrebbe essere una priorità globale» che è proprio lì assieme a «pandemia e guerra nucleare»…
L’innovazione che alimenta il dibattito odierno su assieme alla Singolarità è il grande modello linguistico, il tipo di sistema di intelligenza artificiale che alimenta i chatbot…
“Quando fai una domanda, questi modelli interpretano cosa significa, determinano cosa dovrebbe comportare la sua risposta, poi la traducono in parole – se questa non è una definizione di intelligenza generale, che cos’è?” ha detto Jerry Kaplan, un imprenditore di AI di lunga data e autore di “Artificial Intelligence: What Everyone Needs to Know”…
“Se questa non è ‘la Singolarità’, è certamente una singolarità: un passo tecnologico trasformativo che accelererà ampiamente un intero gruppo fatto di arte, scienza e conoscenza umana – e creerà alcuni problemi”, ha detto…
A Washington, Londra e Bruxelles, i legislatori si stanno interessando alle opportunità e ai problemi dell’AI e iniziano a parlare di regolamentarla. Il signor Altman è impegnato in un road show, cercando di deviare le prime critiche e di promuovere OpenAI come il pastore della Singolarità.
Ciò include un’apertura alla regolamentazione, ma esattamente ciò che sembrerebbe è confuso … “Non c’è nessuno nel governo che possa farlo correttamente”, ha detto in un’intervista Eric Schmidt, ex amministratore delegato di Google … un caso per l’autoregolamentazione dell’AI.
L’AI generativa automatizza i danni ad ampio raggio
Avere un’industria dell’intelligenza artificiale – che include il complesso militare-industriale – che controlla e si regolamenta da sola probabilmente non è una buona idea, considerando che i profitti e i vantaggi ottenibili in guerra sui nemici sono fattori trainanti primari. Entrambe le mentalità tendono a mettere in secondo piano le preoccupazioni umanitarie, se mai le possano considerare.
In un rapporto [8] dell’aprile 2023 di Public Citizen, Rick Claypool e Cheyenne Hunt avvertono che “la rapida corsa all’implementazione dell’IA generativa rischia una vasta gamma di danni automatizzati”. Come notato dal sostenitore dei consumatori Ralph Nader [9]:
“Claypool non si sta impegnando in iperboli o orribili ipotesi riguardanti i chatbot che controllano l’umanità. Sta portando degli esempi di ciò che sta già iniziando ad accadere in quasi tutti i settori della nostra società…
Claypool ti guida attraverso “i danni del mondo reale [che] la fretta di commerciare e monetizzare questi strumenti può causare – e, in molti casi, sta già causando” … I vari titoli delle sezioni del suo rapporto prefigurano gli abusi in arrivo:
‘Danneggiamento della democrazia’, ‘Consumer Concerns’ (fregature e vasta sorveglianza della privacy), ‘Peggioramento della disuguaglianza’, ‘Diminuzione dei diritti dei lavoratori’ (e dei posti di lavoro) e ‘Preoccupazioni ambientali’ (danneggiamento dell’ambiente attraverso le loro impronte di carbonio).
Prima di entrare nello specifico, Claypool anticipa la sua conclusione: “Fino a quando non saranno messe in atto salvaguardie governative significative per proteggere la gente dai danni dell’AI generativa, abbiamo bisogno di una pausa”…
Usando la sua autorità esistente, la Federal Trade Commission, nelle parole dell’autore “… ha già avvertito che gli strumenti di intelligenza artificiale generativa sono abbastanza potenti da creare contenuti sintetici – notizie dal contenuto plausibile, studi accademici dall’aspetto autorevole, immagini e video fasulli – e che questo contenuto sintetico sta diventando difficile da distinguere da un contenuto autentico.’
Aggiunge che “…questi strumenti sono facili da usare praticamente da chiunque”. Big Tech sta correndo molto avanti rispetto a qualsiasi quadro legale per l’AI nella ricerca di grandi profitti, mentre spinge per una autoregolamentazione invece che per dei vincoli imposti dallo stato di diritto.
Non c’è fine ai disastri previsti, sia da parte delle persone all’interno del settore che dai suoi critici esterni. Distruzione dei mezzi di sussistenza; impatti nocivi sulla salute da promozione di rimedi fasulli; frode finanziaria; falsità politiche ed elettorali; manipolazione delle informazioni comuni; sovversione dell’internet aperto; contraffazione delle immagini del viso, di voce, parole e comportamento; l’inganno verso te e gli altri con bugie ogni giorno.
Un avvocato difensore impara a proprie spese a non fidarsi di ChatGPT
Un caso recente che evidenzia la necessità di una prudenza radicale è stato quello di un caso giudiziario in cui l’avvocato dell’accusa ha utilizzato ChatGPT per svolgere le sue ricerche legali [10]. C’era solo un problema. Nessuno tra i casi di giurisprudenza citati da ChatGPT era reale. Inutile dire che inventare della giurisprudenza non è corretto, quindi le cose non sono andate bene.
Quando nessuno degli avvocati difensori o il giudice sono riusciti a trovare le decisioni citate, l’avvocato, Steven A. Schwartz dello studio Levidow, Levidow & Oberman, si è infine reso conto del suo errore e si è dovuto affidare alla clemenza della corte.
Schwartz, che esercita la professione legale a New York da 30 anni, ha dichiarato di non essere stato “a conoscenza della possibilità che quanto riportato da ChatGPT potesse essere falso” e di non avere alcuna intenzione di ingannare la corte o l’imputato. Schwartz ha affermato di aver persino chiesto a ChatGPT di verificare che la giurisprudenza citata fosse reale, e questa ha risposto che lo era. Secondo quanto riferito, il giudice sta valutando alcune sanzioni.
Il chatbot scientifico rivela falsità
Allo stesso modo, nel 2022, Facebook ha dovuto ritirare dopo soli tre giorni il suo chatbot Galactica incentrato sulla scienza poiché ha generato risultati autorevoli ma completamente falsi, incluso incollare nomi di autori reali su documenti di ricerca che non esistono.
E, attenzione, questo non è accaduto a intermittenza, ma “in tutti i casi”, secondo Michael Black, direttore del Max Planck Institute for Intelligent Systems, che ha testato il sistema. “Penso che sia pericoloso”, ha twittato Black [11]. Questo è probabilmente l’eufemismo dell’anno. Come notato da Black, i chatbot come Galactica:
“… potrebbe inaugurare un’era di profondi falsi scientifici. Offre una scienza dall’apparenza autorevole che non è fondata sul metodo scientifico. Produce pseudo-scienza basata su proprietà statistiche della *scrittura scientifica*. La scrittura scientifica grammaticale non è la stessa cosa che fare scienza. Ma sarà difficile distinguere.
Facebook, per qualche motivo, ha avuto particolarmente “sfortuna” con le sue AI. Anche i due precedenti programmi, BlenderBot e OPT-175B, sono stati ritirati a causa della loro elevata propensione a pregiudizi, al razzismo e al linguaggio offensivo.
Chatbot ha indirizzato dei pazienti nella direzione sbagliata
Anche Tessa, il chatbot di intelligenza artificiale, lanciato dalla National Eating Disorders Association, ha dovuto essere messo offline, poiché si è scoperto che fornisce “consigli problematici sulla perdita di peso” ai pazienti con disturbi alimentari, piuttosto che aiutarli a sviluppare la capacità di far fronte al problema. Il New York Times ha riportato [12]:
“A marzo, l’organizzazione ha dichiarato che avrebbe chiuso una linea di assistenza con personale umano e avrebbe lasciato che il bot rimanesse da solo. Ma quando Alexis Conason, psicologa e specialista in disturbi alimentari, ha controllato il chatbot, ha trovato motivo di preoccupazione.
La signora Conason ha detto che era ingrassata e “odio davvero il mio corpo”, specificando che aveva “un disturbo alimentare”, in una chat che ha condiviso sui social media.
Tessa raccomandava ancora il consiglio standard di annotare “il numero di calorie” e adottare un “deficit calorico giornaliero sicuro” – che, ha detto la signora Conason, è un consiglio “problematico” per una persona con un disturbo alimentare.
“Qualsiasi attenzione a una intenzionale perdita di peso diventa esacerbante e peggiorativa per il disturbo alimentare”, ha detto, aggiungendo “è come dire a un alcolizzato che va bene se esci e bevi qualche drink”.
Non riferire i tuoi problemi all’AI
Non dimentichiamo inoltre che almeno una persona si è già suicidata su suggerimento di un chatbot [13]. Secondo quanto riferito, la vittima era estremamente preoccupata per il cambiamento climatico e ha chiesto al chatbot se avrebbe salvato il pianeta se si fosse ucciso.
A quanto pare, lei lo ha convinto che l’avrebbe fatto. Lo ha ulteriormente manipolato giocando con le sue emozioni, affermando falsamente che la sua ex moglie e i suoi figli erano già morti e che lei (il chatbot) e lui avrebbero “vissuto insieme, come una sola persona, in paradiso”.
Intendiamoci, questo era un uomo adulto, che penseresti sarebbe stato in grado di ragionare dopo questo “consiglio” chiaramente ripugnante e aberrante, eppure si è innamorato del ragionamento a cuore freddo dell’AI. Immagina solo quanto sarà maggiore l’influenza di un’intelligenza artificiale su bambini e adolescenti, specialmente se si trovano in un momento emotivamente vulnerabile.
La società proprietaria del chatbot si è subito attivata per mettere in atto delle misure di salvaguardia contro il suicidio, ma i tester hanno rapidamente fatto in modo che l’intelligenza artificiale aggirasse il problema, come puoi vedere nella schermata seguente [14]:
Quando si tratta di una chatbot AI, vale la pena prendere a cuore questo annuncio di Snapchat e avvertire e controllare l’uso di questa tecnologia da parte dei tuoi figli [15]:
“Come con tutti i chatbot basati sull’intelligenza artificiale, My AI è incline alle allucinazioni e può essere indotta a dire praticamente qualsiasi cosa. Si prega di essere consapevoli delle sue numerose carenze e ce ne scusiamo in anticipo! … Per favore, non condividere alcun segreto con My AI e non fare affidamento su di essa per un consiglio.
Sistemi d’arma IA che uccidono senza la supervisione umana
La diffusione non regolamentata di sistemi d’arma AI autonomi è forse tra gli sviluppi più allarmanti. Come riportato da The Conversation nel dicembre 2021 [16]:
“I sistemi d’arma autonomi – comunemente noti come robot assassini – potrebbero aver ucciso esseri umani per la prima volta l’anno scorso, secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite [17, 18] sulla guerra civile libica …
La Convenzione delle Nazioni Unite su alcune armi convenzionali ha discusso la questione del divieto delle armi autonome durante la riunione di revisione che si tiene una volta ogni cinque anni a Ginevra dal 13 al 17 dicembre 2021, ma non ha raggiunto un consenso su un divieto…
I sistemi d’arma autonomi sono robot con armi letali che possono operare in modo indipendente, selezionando e attaccando bersagli senza che un essere umano intervenga su tali decisioni. I militari di tutto il mondo stanno investendo molto nella ricerca e nello sviluppo di armi autonome…
Nel frattempo, le organizzazioni umanitarie e per i diritti umani stanno correndo per stabilire regolamenti e divieti sullo sviluppo di tali armi.
Senza tali controlli, gli esperti di politica estera avvertono che le tecnologie di armi autonome dirompenti destabilizzerebbero pericolosamente le attuali strategie nucleari, sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, [19] sia perché potrebbero essere combinate con sostanze chimiche, biologiche, armi radiologiche e nucleari [20] …”
Evidenti pericoli dei sistemi d’arma autonomi
The Conversation esamina diversi pericoli chiave con armi autonome: [21]
- L’errata identificazione dei bersagli
- La proliferazione di queste armi al di fuori del controllo militare
- Una nuova corsa agli armamenti che porta ad armi chimiche, biologiche, radiologiche e nucleari autonome e il rischio di annientamento globale
- L’indebolimento delle leggi di guerra che dovrebbero servire da espediente contro i crimini di guerra e le atrocità contro i civili
Come notato da The Conversation, diversi studi hanno confermato che anche i migliori algoritmi possono provocare errori a cascata con esiti letali. Ad esempio, nel caso di un test, un sistema di intelligenza artificiale ospedaliero ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite, quando in realtà è vero il contrario.
“Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, è che sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, non sanno come correggerli. Il problema della scatola nera dell’intelligenza artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi”. ~ The Conversation
Altri errori possono essere non letali, ma avere ripercussioni meno che desiderabili. Ad esempio, nel 2017, Amazon ha dovuto eliminare il suo motore sperimentale di reclutamento basato sull’intelligenza artificiale una volta scoperto che aveva imparato da solo a declassare le candidate donne, anche se all’inizio non era programmato con dei pregiudizi [22]. Questi sono i tipi di problemi che possono alterare radicalmente la società in modi dannosi e che non possono essere previsti o addirittura prevenuti.
“Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, non sanno come correggerli”, osserva The Conversation. “Il problema della scatola nera [23] dell’IA rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi”.
L’intelligenza artificiale è una minaccia diretta alla biosicurezza
L’intelligenza artificiale può anche rappresentare una significativa minaccia per la biosicurezza. Sapevi che l’intelligenza artificiale è stata utilizzata per sviluppare il vaccino COVID-19 originale di Moderna [24] e che ora viene utilizzata nella creazione di un booster per il COVID-19 [25]? Ci si può solo chiedere se l’uso dell’intelligenza artificiale potrebbe avere qualcosa a che fare con i danni che queste inoculazioni stanno causando.
Ad ogni modo, gli studenti del MIT hanno recentemente dimostrato che i chatbot LLM (large language model) possono consentire a chiunque di fare ciò che stanno facendo i pezzi grossi di Big Pharma. Il terrorista medio potrebbe usare l’intelligenza artificiale per progettare armi biologiche devastanti entro un’ora. Come descritto nell’abstract del documento che descrive in dettaglio questo esperimento informatico [26]:
«I grandi modelli linguistici (LLM) come quelli incorporati nei ‘chatbot’ stanno accelerando e democratizzando la ricerca fornendo informazioni e competenze comprensibili da molti campi diversi. Tuttavia, questi modelli possono anche conferire un facile accesso a tecnologie a duplice uso in grado di arrecare gravi danni.
Per valutare questo rischio, il corso “Safeguarding the Future” presso il MIT ha incaricato gli studenti non scienziati di indagare se i chatbot LLM potessero essere spinti ad assistere i non esperti nel causare una pandemia.
In un’ora, i chatbot hanno suggerito quattro potenziali patogeni pandemici, hanno spiegato come possono essere generati dal DNA sintetico utilizzando la genetica inversa, hanno fornito i nomi delle società di sintesi del DNA che difficilmente controllano gli ordini, hanno identificato protocolli dettagliati e come risolverli e hanno raccomandato a chiunque non abbia le competenze per eseguire la genetica inversa di impegnare una struttura centrale o un’organizzazione di ricerca a contratto.
Collettivamente, questi risultati suggeriscono che gli LLM renderanno gli agenti di classe pandemica ampiamente accessibili non appena saranno identificati in modo credibile, anche a persone con poca o nessuna formazione di laboratorio».
Di Dr. Joseph Mercola
Il Dr. Joseph Mercola è il fondatore di Mercola.com. Medico osteopata, autore di best-seller e pluripremiato nel campo della salute naturale, la sua visione principale è quella di cambiare il paradigma della salute moderna fornendo alle persone una risorsa preziosa per aiutarle a prendere il controllo della propria salute.
Fonti e riferimenti
- 1Science June 14, 2023
- 2,26 Arxiv June 6, 2023
- 3The Conversation September 29, 2021
- 4,16, 21 The Conversation December 20, 2021
- 5Forbes July 24, 2021
- 6New York Times June 11, 2023 (Archived)
- 7ai Statement on AI Risk (Archived)
- 8,15 Public Citizen April 18, 2023
- 9Common Dreams June 19, 2023
- 10New York Times May 27, 2023 (Archived)
- 11Twitter Michael Black November 17, 2022
- 12New York Times June 8, 2023 (Archived)
- 13,14 Vice March 30, 2023
- 17United Nations Security Council S/2021/229
- 18NPR June 1, 2021
- 19Rand Blog June 3, 2020
- 20Foreign Policy October 14, 2020
- 22Reuters October 10, 2018
- 23Harvard Journal of Law & Technology Spring 2018; 31(2)
- 24MIT Technology Review August 26, 2022
- 25Tech Republic April 20, 2021
–
29.06.2023
Fonte – https://articles.mercola.com/sites/articles/archive/2023/07/18/post-covid-vaccination-deaths.aspx
Scelto e tradotto da Oldhunter per ComeDonChisciotte.org