La redazione non esercita un filtro sui commenti dei lettori, a meno di segnalazioni riguardo contenuti che violino le regole.

Precisa che gli unici proprietari e responsabili dei commenti sono gli autori degli stessi e che in nessun caso comedonchisciotte.org potrà essere considerato responsabile per commenti lesivi dei diritti di terzi.

La redazione informa che verranno immediatamente rimossi:

Messaggi che entrano automaticamente in coda di moderazione per essere approvati prima di pubblicarli o vengono sospesi dopo la pubblicazione:

Nota: se un commento entra in coda di moderazione (e quindi non appare immediatamente sul sito), è inutile e dannoso inviare di nuovo lo stesso commento, magari modificando qualcosa, perché, in questo caso, il sistema classifica l’utente come spammer e non mostra più nessun commento di quell’utente.
Quindi, cosa si deve fare quando un commento entra in coda di moderazione? bisogna solo aspettare che un moderatore veda il commento e lo approvi, non ci sono altre operazioni da fare, se non attendere.

Per qualsiasi informazione o comunicazione in merito, scrivere alla redazione dal modulo nella pagina dei Contatti

Una persona può avere un solo account utente registrato nel sito.

Commentare con utenti diversi è una pratica da trolls e vengono immediatamente bannati tutti gli utenti afferenti ad un’unica entità, senza preavviso.

SANZIONI IN CASO DI VIOLAZIONE DEL REGOLAMENTO STABILITE DALLA REDAZIONE CDC:

1) Primo avviso da parte del moderatore (in rappresentanza della redazione) e cancellazione del commento.

2) Secondo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente ammonizione: l’account del commentatore verrà sospeso temporaneamente per 72 ore previo avviso individuale

3) Terzo avviso da parte del moderatore (in rappresentanza della redazione) e conseguente blocco dell’account con l’impossibilità permanente di accedere al portale web

Consigliamo caldamente di leggere anche la pagina delle F.A.Q. le domande frequenti e la nostra Netiquette

La Redazione

 

1 / 142 Pagine

Al Vertice di Parigi il vicepresidente Vance rifiuta l’IA “sicura”

blank
A cura di Markus
Il 16 Febbraio 2025
8885 Views

Mike Whitney
unz.com

Sempre più persone iniziano a rendersi conto che l’intelligenza artificiale è una tecnologia ad alto rischio che potrebbe portare allo sterminio della specie. Può sembrare un’esagerazione, ma, se si seguono da vicino gli sviluppi dell’IA, ci si rende conto che si tratta di una valutazione accurata. L’IA è una tecnologia potenzialmente letale che può essere usata a beneficio dell’umanità o aprire la strada a morte e distruzioni inimmaginabili. Guardate questo estratto da un articolo di Scientific American:

Un sondaggio condotto nel 2023 tra gli esperti di IA ha rilevato che il 36% teme che lo sviluppo dell’IA possa portare ad una “catastrofe di livello nucleare”. Quasi 28.000 persone hanno sottoscritto una lettera aperta scritta dal Future of Life Institute, tra cui Steve Wozniak, Elon Musk, gli amministratori delegati di diverse aziende di IA e molti altri tecnologi di spicco, chiedendo una pausa di sei mesi o una moratoria sullo sviluppo di nuove IA avanzate….

Perché siamo tutti così preoccupati? In breve: lo sviluppo dell’IA sta procedendo troppo velocemente. Here’s Why AI May Be Extremely Dangerous—Whether It’s Conscious or Not, Scientific American

Elon Musk ha usato la sua piattaforma di X per amplificare le sue preoccupazioni sull’IA e per sottolineare la necessità di procedere con cautela per minimizzare i rischi. Purtroppo, le preoccupazioni di Musk non sono state colte dall’amministrazione Trump, che vede nell’IA l’arma necessaria per mantenere la posizione dominante dell’America nell’ordine mondiale. Il conflitto che sta nascendo tra Trump e Musk su questo tema chiave non è ancora esploso pubblicamente, ma possiamo essere ragionevolmente certi che lo scontro avverrà nel prossimo futuro. Se consideriamo, ad esempio, l’allarmante discorso del Vicepresidente JD Vance al Vertice sull’intelligenza artificiale tenutosi in Francia questa settimana, in cui il Vicepresidente ha respinto categoricamente la spinta verso una regolamentazione prudente o una supervisione governativa, definendo le persone che prendono sul serio tali preoccupazioni come “troppo coscienti di sé e troppo poco propense al rischio”, non c’è bisogno di chiedersi quale sarà l’approccio dell’amministrazione. In effetti, Vance ha riassunto la situazione per il suo pubblico in una frase scioccante: “Il futuro dell’IA non si vincerà torcendosi le mani e pensando alla sicurezza…”.

Quindi, adottare misure ragionevoli per evitare un evento che scatenerebbe un’estinzione di massa è “torcersi le mani”?

Naturalmente, non siamo d’accordo con questo punto di vista. E, come abbiamo notato in precedenza, più di 28.000 persone hanno già firmato una lettera per chiedere una moratoria di sei mesi sullo sviluppo di IA avanzate. Dobbiamo forse ritenere che queste 28.000 persone – tutte con un’esperienza sul tema dell’intelligenza artificiale superiore a quella di Vance – siano solo degli eterni apprensivi che si spaventano inutilmente e le cui opinioni non sono fondate su una conoscenza approfondita dell’argomento e della minaccia che esso rappresenta per l’umanità?

blank

E quali sarebbero esattamente queste minacce? Possono essere riassunte? Ecco un altro estratto dall’articolo di Scientific American:

Gli algoritmi di intelligenza artificiale raggiungeranno presto un punto di rapido auto-miglioramento che minaccia la nostra capacità di controllarli e pone un grande rischio potenziale per l’umanità…. Una volta che l’intelligenza artificiale sarà in grado di migliorarsi da sola, cosa che potrebbe avvenire tra non più di qualche anno, e che, in realtà, potrebbe già essere attuale, non avremo modo di sapere cosa farà l’intelligenza artificiale o come sarà possibile controllarla. Questo perché un’IA superintelligente … sarà in grado di aggirare i programmatori e qualsiasi altro essere umano manipolando gli esseri umani in modo che facciano la sua volontà. Avrà anche la capacità di agire nel mondo virtuale attraverso le sue connessioni elettroniche e di agire nel mondo fisico attraverso corpi robotici… Here’s Why AI May Be Extremely Dangerous—Whether It’s Conscious or Not, Scientific American

Le preoccupazioni di Musk sono ancora più esplicite. Ecco un breve riassunto fornito dalla sua entità di IA chiamata Grok: (nota – in risposta alla domanda: “Che cosa preoccupa di più Musk riguardo all’IA?“)

C’è una notevole preoccupazione su come l’IA, in particolare forme potenti come l’AGI (Artificial General Intelligence), debba essere sviluppata e controllata. Musk ha espresso sfiducia nei confronti della leadership di OpenAI, in particolare di Sam Altman, per quanto riguarda la gestione di questa tecnologia. Ha dichiarato che preferirebbe che OpenAI ritornasse alle sue radici open-source e incentrate sulla sicurezza, che, a suo avviso, si allineerebbero meglio con il più ampio interesse pubblico piuttosto che con motivazioni incentrate sul profitto delle aziende…..

Rischio esistenziale per l’umanità:

Musk ha avvertito che l’IA potrebbe eliminare o limitare la crescita dell’umanità, sottolineando il rischio che l’IA diventi “enormemente più intelligente dell’uomo” e che possa portare a scenari in cui l’IA potrebbe decidere di eliminare l’umanità o di porla sotto stretto controllo. Questa preoccupazione è stata paragonata da Musk ai pericoli della fisica nucleare, dove l’energia atomica può essere usata per risultati sia benefici che catastrofici….

Musk ha sostenuto la necessità di una regolamentazione governativa dell’IA, asserendo di sentirsi preoccupato per l’avanzamento della tecnologia in assenza di un adeguato quadro normativo. Teme che l’IA possa portare alla “distruzione della civiltà” se non verrà gestita in modo adeguato e propone la creazione di un “comitato di approfondimento” che supervisioni lo sviluppo dell’IA (fonte: risultati web di cnn.com, foxbusiness.com e reuters.com).

La possibilità che l’IA possa superare gli esseri umani:

Musk ha ripetutamente menzionato il rischio che l’IA superi l’intelligenza umana, portando a scenari in cui l’IA potrebbe non allinearsi con i valori o gli interessi umani. Musk ha citato questo come uno dei maggiori rischi per la civiltà, paragonandolo all’evocazione di un demone…

Musk ha anche espresso preoccupazione per l’utilizzo dell’IA per… la proliferazione di sistemi d’arma autonomi, che potrebbero portare a un’escalation involontaria dei conflitti.

Sicurezza ed etica:

Musk sostiene uno sviluppo attento dell’IA, suggerendo di stabilire protocolli di sicurezza prima di passare a sistemi di IA più potenti. Ha chiesto un quadro normativo simile a quello dell’aviazione civile o dei prodotti farmaceutici per garantire la sicurezza dell’IA. (Grok)

blank

Le preoccupazioni di Musk, che emergono dalla sua vasta esperienza tecnologica, sono chiaramente in contrasto con quelle di JD Vance e dell’amministrazione Trump, che considerano la regolamentazione una forma di strangolamento burocratico che soffoca l’innovazione. Ecco una parte di ciò che Vance ha detto martedì al Summit sull’IA di Parigi:

Quando conferenze come questa si riuniscono per discutere di una tecnologia all’avanguardia, spesso penso che la nostra reazione sia quella di essere troppo insicuri, troppo avversi al rischio. Ma non mi sono mai imbattuto in un’innovazione tecnologica che ci abbia indotto a fare esattamente il contrario. La nostra amministrazione, l’amministrazione Trump, crede che l’IA avrà innumerevoli applicazioni rivoluzionarie… E limitarne lo sviluppo ora non solo avvantaggerebbe ingiustamente gli operatori tradizionali del settore, ma significherebbe paralizzare una delle tecnologie più promettenti che abbiamo visto da generazioni.

Questa amministrazione farà in modo che la tecnologia americana dell’IA continui a essere il gold standard a livello mondiale e che noi saremo il partner di riferimento per gli altri, per i Paesi stranieri e certamente per le imprese che vorranno espandere il loro uso dell’IA. In secondo luogo, riteniamo che un’eccessiva regolamentazione del settore dell’IA possa uccidere un’industria trasformativa proprio nel momento in cui sta decollando, e faremo ogni sforzo per incoraggiare le politiche a favore dell’IA. E sono contento di vedere che il clima di deregolamentazione si fa strada in molte delle conversazioni di questa conferenza. Terzo: siamo convinti che l’IA debba rimanere libera da pregiudizi ideologici e che l’IA americana non venga cooptata come strumento di censura autoritaria. …

Gli Stati Uniti d’America sono leader nell’IA e la nostra amministrazione intende mantenere questo stato di cose. Gli Stati Uniti possiedono tutti i componenti dell’intera filiera dell’IA, tra cui la progettazione di semiconduttori avanzati, gli algoritmi di frontiera e, naturalmente, le applicazioni trasformative…. Per salvaguardare il vantaggio dell’America, l’amministrazione Trump farà in modo che i sistemi di IA più potenti siano costruiti negli Stati Uniti con chip progettati e prodotti in America. (L’America deve dominare l’IA perché l’IA fornisce i mezzi per il dominio).

L’America vuole collaborare con tutti voi e vuole intraprendere la rivoluzione dell’IA con spirito di apertura e collaborazione. Ma, per creare questo tipo di fiducia, abbiamo bisogno di regimi normativi internazionali che favoriscano la creazione della tecnologia dell’IA anziché bloccarla. E abbiamo bisogno che i nostri amici europei, in particolare, guardino a questa nuova frontiera con ottimismo piuttosto che con trepidazione. (Nota: ignorate i rischi, o la va o la spacca)…

Con il recente ordine esecutivo del Presidente sull’IA, stiamo sviluppando un piano d’azione per l’IA che eviti un regime normativo eccessivamente cautelativo, assicurando al contempo che tutti gli americani beneficino della tecnologia e del suo potenziale di trasformazione…..

Preoccupazioni per le normative internazionali

Gli innovatori statunitensi di ogni tipo sanno già cosa significhi avere a che fare con onerose norme internazionali…..

Signore e signori…. Il futuro dell’intelligenza artificiale non si conquisterà con le preoccupazioni sulla sicurezza….

In questo momento ci troviamo di fronte alla straordinaria prospettiva di una nuova rivoluzione industriale, pari all’invenzione della macchina a vapore o dell’acciaio Bessemer, ma non si realizzerà mai se l’eccesso di regolamentazione dissuaderà gli innovatori dall’assumersi i rischi necessari per far progredire il progetto… TRANSCRIPT: VP JD Vance’s Speech at Paris AI Summit 2025, Singju Post

L’intera presentazione di Vance è stata poco più di un’arringa anti-regolamentazione volta a sminuire chiunque non aderisse alla sua filosofia “O la va o la spacca, avanti tutta”. Ciò che il discorso dimostra è che il team di Trump ritiene che chiunque esprima il minimo sostegno a una modesta supervisione (di questa tecnologia potenzialmente letale) sia una pappamolla che cerca di bloccare la strada verso il futuro. Ma ciò che sorprende dell’analisi di Vance è che sembra essere l’esatto contrario di quella di Musk. Musk non ha espresso alcuna opposizione alla regolamentazione o alla supervisione; al contrario. Come abbiamo già dimostrato, Musk è convinto che sia necessario raggiungere un consenso internazionale sulle modalità di regolamentazione dell’IA per evitare che la situazione sfugga di mano.

blank

Vale la pena notare che la scorsa settimana Elon Musk ha presentato un’offerta da 97,4 miliardi di dollari per riacquistare OpenAI dal suo attuale proprietario, Sam Altman, affermando che quest’ultimo aveva abbandonato la missione originaria, quella di mantenere il sistema open source e senza scopo di lucro. Attualmente, OpenAI è una “società a sorgente chiusa e di massimo profitto, controllata di fatto da Microsoft”, un’inversione completa della visione di Musk di uno strumento di apprendimento trasparente e orientato alla comunità, che potrebbe essere utilizzato a beneficio dell’umanità. L’offerta da quasi 100 miliardi di dollari sottolinea l’importanza che Musk attribuisce allo sviluppo dell’intelligenza artificiale, visti i rischi che comporta per l’umanità. In altre parole, vuole riacquistare OpenAI perché non considera il suo attuale proprietario “affidabile”.

Elon Musk ha dichiarato a Tucker Carlson: “Non mi fido di Sam Altman e non credo che sia nostro desiderio che l’IA più potente del mondo sia controllata da qualcuno che non è affidabile”.

Vale anche la pena di notare che sempre più esperti si sono allontanati da OpenAI, lamentando che l’azienda non sta prendendo provvedimenti per affrontare le loro preoccupazioni sulla sicurezza. Tra questi Daniel Kokotajlo, William Saunders, Ilya Sutskever, Jan Leike, Gretchen Krueger, Leopold Aschenbrenner, Pavel Izmailov, Cullen O’Keefe, Miles Brundage e Rosie Campbell.

Perché tanti professionisti ben pagati stanno fuggendo dall’OpenAI e mettono in guardia sui problemi di sicurezza?

Perché – come ha candidamente dichiarato l’ex ricercatore di IA Steve Adler – “I laboratori OpenAI stanno facendo una ‘scommessa molto rischiosa’ con l’umanità nella corsa verso l’intelligenza artificiale“.

Detto in poche parole, queste persone credono semplicemente che sia immorale per loro partecipare a un progetto che mette a rischio la specie. Ecco un’altra notizia dalla BBC:

Il Regno Unito e gli Stati Uniti non hanno firmato un accordo internazionale sull’intelligenza artificiale (IA) in occasione di un vertice globale di Parigi. La dichiarazione, firmata da decine di Paesi tra cui Francia, Cina e India, promette un approccio “aperto”, “inclusivo” ed “etico” allo sviluppo di questa tecnologia…..

La dichiarazione firmata da 60 Paesi ha l’ambizione di ridurre i divari digitali promuovendo l’accessibilità dell’IA e assicurando che lo sviluppo di questa tecnologia sia “trasparente”, “sicuro” nonché “protetto e affidabile”.…

…. Il vicepresidente degli Stati Uniti JD Vance ha dichiarato ai delegati a Parigi che un’eccessiva regolamentazione dell’intelligenza artificiale (IA) potrebbe “uccidere un’industria trasformativa proprio al momento del decollo”. Vance ha detto ai leader mondiali che l’IA è “un’opportunità che l’amministrazione Trump non sprecherà” e ha affermato che “le politiche favorevoli alla crescita dell’IA” dovrebbero essere prioritarie rispetto alla sicurezza…..

L’UKAI – un organismo di categoria che rappresenta le imprese del settore in tutto il Paese – ha affermato che si tratta della decisione giusta. “Sebbene l’UKAI sia d’accordo sull’importanza della responsabilità ambientale, ci chiediamo come bilanciare questa responsabilità con le crescenti esigenze dell’industria dell’IA in termini di energia”, ha dichiarato il suo amministratore delegato Tim Flagg.

L’UKAI è moderatamente d’accordo con il rifiuto del governo [inglese] di firmare questa dichiarazione e lo ritiene un’indicazione che esplorerà le soluzioni più pragmatiche che l’UKAI ha richiesto, mantenendo le opportunità di lavorare a stretto contatto con i nostri partner statunitensi”, ha aggiunto Flagg. UK and US refuse to sign international AI declaration, BBC

A giudicare dal loro sito web, l’UKAI sembra essere un gruppo industriale/lobbistico che potrebbe aver influenzato la decisione di Vance di rifiutare la Dichiarazione di Parigi sull’IA. Ecco un frammento della loro pagina web:

L’UKAI rappresenta aziende di tutte le dimensioni interessate all’IA, dalle startup ai leader del settore, e si assicura che le loro voci siano ascoltate nella definizione delle politiche. Lavorando a stretto contatto con il governo e le autorità di regolamentazione del Regno Unito, l’UKAI garantisce che le politiche sull’IA promuovano l’innovazione e la crescita delle imprese senza soffocare il progresso. L’UKAI è il ponte tra i politici e la comunità dell’IA offrendo una piattaforma per il feedback su leggi, programmi e iniziative. L’UKAI crede nel ruolo trasformativo che l’IA può svolgere nello sviluppo sociale ed economico del Regno Unito. UKAI

Quindi, questo gruppo industriale britannico ha influenzato la posizione dell’amministrazione Trump sulla Dichiarazione? È questo che sta succedendo? E, se così fosse, che ruolo hanno avuto i giganti tecnologici della Silicon Valley? Abbiamo posto a Grok proprio questa domanda: “Sono state le Big Tech ad indurre JD Vance a opporsi alla Dichiarazione di Parigi sull’intelligenza artificiale?”

Risposta – Il background di Vance nella Silicon Valley e i suoi finanziamenti da parte di miliardari del settore tecnologico come Peter Thiel suggeriscono che ha forti legami con i leader del settore. Questi legami potrebbero influenzare le sue prospettive politiche, ma non è stato dichiarato esplicitamente alcun legame diretto con le Big Tech e sul fatto che avrebbero esercitato pressioni su di lui riguardo alle sue dichiarazione sull’intelligenza artificiale (NPR)….. Sebbene le posizioni di Vance sembrino allinearsi con gli interessi delle Big Tech nell’evitare regolamentazioni severe, le informazioni disponibili non confermano esplicitamente che queste aziende abbiano influenzato direttamente la sua decisione in merito alla dichiarazione sull’IA. Le sue azioni potrebbero essere viste come parte di una posizione politica più ampia sulla regolamentazione tecnologica, influenzata dalle sue convinzioni politiche, dal suo ruolo nell’amministrazione Trump e dalle sue precedenti interazioni con l’industria tecnologica, piuttosto che da una spinta specifica da parte delle aziende Big Tech. Tuttavia, data la sua critica all'”eccessiva regolamentazione”, è ragionevole dedurre che il suo punto di vista sia perlomeno solidale con la posizione generale delle Big Tech in materia di regolamentazione. Grok

In breve, non possiamo ancora verificare che il rifiuto della Dichiarazione di Parigi sull’intelligenza artificiale da parte dell’amministrazione sia stata una risposta agli sforzi di lobbying dei giganti della Silicon Valley. Tuttavia, riteniamo molto probabile che queste società siano state almeno consultate sulla questione prima di prendere la decisione.

In ogni caso, il Vertice sull’IA di Parigi è stato in gran parte uno spettacolo di pubbliche relazioni, fallito miseramente a causa dello scioccante rifiuto di Vance di firmare la Dichiarazione. Si tenga presente che la Dichiarazione non contiene regolamenti onerosi o obblighi vincolanti. Si tratta semplicemente di un’espressione di sostegno ad alcuni principi generali studiati per creare fiducia nell’opinione pubblica. Invece di mostrare la volontà di collaborare con gli altri leader mondiali su una questione di sicurezza globale, l’amministrazione Trump ha deciso di mettere il dito nella piaga comunicando l’intenzione di sviluppare l’IA in qualsiasi modo ritenga opportuno. Il fatto è che Trump e i suoi luogotenenti vedono l’IA come uno strumento per il dominio globale, necessario per mantenere la posizione privilegiata dell’America nell’ordine mondiale. E per questo sono disposti a rischiare tutto.

blank

Mike Whitney

Fonte: unz.com
Link: https://www.unz.com/mwhitney/v-p-vance-rejects-safe-a-i-at-paris-summit/
14.02.2025
Scelto e tradotto da Markus per comedonchisciotte.org

ISCRIVETEVI AI NOSTRI CANALI
CANALE YOUTUBE: https://www.youtube.com/@ComeDonChisciotte2003
CANALE RUMBLE: https://rumble.com/user/comedonchisciotte
CANALE ODYSEE: https://odysee.com/@ComeDonChisciotte2003

CANALI UFFICIALI TELEGRAM:
Principale - https://t.me/comedonchisciotteorg
Notizie - https://t.me/comedonchisciotte_notizie
Salute - https://t.me/CDCPiuSalute
Video - https://t.me/comedonchisciotte_video

CANALE UFFICIALE WHATSAPP:
Principale - ComeDonChisciotte.org

"Life is too short to be working for someone else's dream"
Notifica di
6 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments

FORUM DEI LETTORI

RSS Come Don Chisciotte Forum – Argomenti recenti

  • LEGISLAZIONE SUI CIELI PULITI – INTRODOTTA NEL 31° STATO DEGLI USA 15 Marzo 2025
    Aggiornamento di Jolie Dane d E’ stato introdotto lo Stato n. 31! North Carolina H.B. 362 – Vietata la geoingegneria “Clean Skies Scrive Jolie: È molto importante che la legislazione sui...
    dana74
  • NESSUNO CHIEDERA’ SCUSA 14 Marzo 2025
    Nessuno dei capataz politici che all’epoca del COVID governavano sgovernando e sgovernando decretarono l’emarginazione sociale e l’isolamento individuale, CHIEDERA’ SCUSA.
    mystes
  • Lettera aperta ai soliti noti 12 Marzo 2025
    Oggi il mio demone è tornato a "bussare" e chiedere di mandare un messaggio, una lettera aperta, ai soliti noti. Non che non ne ricevano, ultimanete poi si sono resi degni di ben più lodevo...
    GioCo
  • ancora provocazioni contro la Serbia 12 Marzo 2025
    prima via giudiziaria. Bosnia, emessi mandati d’arresto per capi della Repubblica Srpska 12 Marzo 2025 - 18:20 La Procura di Stato della Bosnia ed Erzegovina ha emesso...
    dana74
  • Il Parlamento Europeo ha approvato il piano “Rearm Europe” 12 Marzo 2025
    12 Marzo 2025 - 13:39 Con una maggioranza solida, l’Europarlamento ha sancito il suo appoggio al piano “ReArm Europe”, il progetto promosso dalla presidente de...
    dana74


blank