VN Alexander
off-guardian.org
I titoli dei giornali urlano:
“È arrivata l’intelligenza artificiale che legge nel pensiero!”.
“Neuralink permette all’uomo di controllare il computer con il pensiero!
“Gli impianti AI dei soldati cinesi migliorano le capacità e i tempi di reazione”.
Ogni impianto neurale, sia esso realizzato dall’azienda di Elon Musk o da altri istituti di ricerca, è in grado di captare impulsi elettrici per il controllo motorio. Questi dispositivi non decodificano i pensieri.
I pensieri riguardanti oggetti, ricordi, convinzioni e intenzioni sono relazioni complesse e riverberanti tra più processi simultanei in più regioni del cervello. Il pensiero non è un “codice” – una sequenza lineare di blip – localizzato in un’area specifica del cervello.
Nel gennaio di quest’anno, i ricercatori di Neuralink hanno impiantato un dispositivo simile a un Fitbit nel cervello del primo soggetto sperimentale umano. Il dispositivo è dotato di 64 fili che arrivano in profondità nel tessuto della corteccia motoria, con circa 3.000 elettrodi che captano le scariche elettriche che si verificano quando una persona cerca di muovere il proprio corpo. La decisione di muoversi, la volontà di muoversi e la motivazione a muoversi sono processi più complessi che si verificano prima dell’eccitazione dei neuroni motori.
I ricercatori che esaltano i dispositivi per la “lettura della mente” potrebbero avere una formazione così ristretta nei loro specifici campi di ricerca meccanicistici da non rendersi conto che il dispositivo non legge la mente e non lo farà mai – o forse lo capiscono, ma vogliono essere in grado di controllare gli impulsi motori delle persone con la corrente elettrica.
Come le rane morte di Galvani.
In questo saggio descrivo tre diversi impianti neurali che vengono sperimentati su persone paralizzate, anche se sono disponibili dispositivi di comunicazione più sicuri che potrebbero funzionare altrettanto bene, se non meglio. I pazienti stessi sembrano capire che i dispositivi impiantati hanno delle limitazioni, ma sperano che il loro sacrificio possa un giorno consentire grandi progressi nella tecnologia a beneficio di altri.
Dopo aver descritto il funzionamento degli impianti per questi soggetti, cercherò di capire perché la nostra cultura è così fissata nell’idea che una macchina possa ad un certo punto rilevare ciò che pensiamo. Potrebbe essere, come aveva notato Iain McGilchrist nel suo libro del 2009, The Master and His Emissary: The Divided Brain and the Making of the Western World, che l’emisfero sinistro del nostro cervello, che pensa che le persone siano macchine, abbia preso il sopravvento.
PAZIENTE 1: ANN
Nel 2023, Ann ha subito l’impianto di un dispositivo di interfaccia cervello-computer (BCI) presso il Weill Institute for Neurosciences della University of California a San Francisco. Ann ha braccia e gambe paralizzate e non è in grado di parlare. Ma è in grado di muovere i muscoli della faccia. Quando muove la bocca come se stesse parlando, l’impianto è in grado di captare gli impulsi della corteccia motoria che vanno ai muscoli facciali.
Gli impulsi rilevati dall’impianto neurale vengono inviati ad un computer, una cosiddetta rete “neurale”, che categorizza e identifica gli impulsi associati a specifici movimenti facciali per diversi fonemi. Per addestrare l’intelligenza artificiale Ann ha dovuto ripetere diversi suoni per settimane, finché il computer non ha riconosciuto i modelli di attività cerebrale associati a tutti i suoni di base del parlato. I ricercatori sostengono che il computer ha dovuto imparare solo 39 fonemi (combinazioni di vocali e consonanti) per essere in grado di identificare qualsiasi parola in inglese. Ora la donna dispone di un vocabolario di 1.024 parole che può utilizzare con questo dispositivo.
Un avatar AI sullo schermo che assomiglia ad Ann e che parla attraverso un sintetizzatore vocale, pronuncia le parole che Ann pronuncia.
Mi chiedo perché Ann non utilizzi il sofisticato software di intelligenza artificiale che è stato sviluppato per la lettura labiale, dal momento che è in grado di pronunciare le parole. Con il programma di lettura labiale e una telecamera puntata sul suo viso invece di un impianto nel cervello, probabilmente si potrebbe facilmente arrivare ad un vocabolario di oltre 1.024 parole.
PAZIENTE 2: BRAVO1
Il secondo paziente, sulla quarantina, è noto come Bravo1. Non può muovere i muscoli facciali come Ann. La lettura labiale assistita dall’intelligenza artificiale è impossibile. Nel 2021, i ricercatori della UC San Francisco avevano impiantato un dispositivo che rileva gli impulsi inviati alle corde vocali. Il sistema è in grado di rilevare fino a 18 parole al minuto con un’accuratezza del 75-93%, quando attiva una funzione di “correzione automatica”. Poiché i vari modelli di attivazione delle corde vocali sono difficili da distinguere anche per i software di riconoscimento dei modelli dell’intelligenza artificiale, il sistema, insieme al testo predittivo, fornisce circa 50 parole su cui lavorare.
Va sottolineato che l’intelligenza artificiale utilizzata dai sistemi di Ann e Bravo1 non è in grado di mettere in relazione gli schemi elettrici con quelli vocali, senza una formazione approfondita e la collaborazione del paziente.
Questi impianti non saranno mai dispositivi pronti all’uso in grado di decifrare gli impulsi inviati alle corde vocali o ai muscoli facciali e determinare quali parole dovrebbero essere pronunciate. La persona di cui si misura l’attività cerebrale deve essere in grado di addestrare l’intelligenza artificiale.
Ad esempio, Bravo1 ha dovuto provare a pronunciare più volte la parola “acqua”, mentre l’intelligenza artificiale registrava la sequenza e ne creava un modello generalizzato, ogni volta leggermente diverso. Ha dovuto fare questo con ognuna delle 50 parole che il programma è ora in grado di identificare.
Noto che quest’uomo può battere le palpebre. Mi sembra che potrebbe imparare il codice Morse. Anche in questo caso si potrebbe puntare una telecamera sul suo volto e, con l’aiuto dell’intelligenza artificiale per prevedere la lettera e la parola successiva, sarebbe in grado di comunicare in codice morse in modo molto più efficiente e sicuro, senza subire un intervento chirurgico al cervello e senza dover tollerare un dispositivo che, ad un certo punto, potrebbe causare pericolose infiammazioni.
PAZIENTE 3: NOLAN
Il primo soggetto sperimentale di Neuralink era stato il ventinovenne Nolan, che aveva ricevuto un impianto che, a differenza di quelli impiantati in Ann e Bravo1, non può essere completamente rimosso. I fili dei rilevatori dei segnali motori sono così sottili che si insinuano nel tessuto cerebrale.
A differenza di Ann e Bravo1, Nolan può parlare. Può anche muovere la testa e le spalle. Aveva la possibilità di usare un computer ad attivazione vocale. Avrebbe anche potuto ottenere un dispositivo che gli permettesse di muovere la testa come un joy stick per controllare un cursore.
Stephen Hawking digitava su una tastiera contraendo i muscoli delle guance; non aveva un impianto.
Come per gli altri pazienti, l’impianto di Nolan rileva gli impulsi neurali che controllano il movimento. Nolan deve cercare di muovere la mano, come farebbe per controllare il mouse di un computer, e questi impulsi vengono rilevati dall’impianto e inviati in modalità wireless ad un computer che li classifica e, dopo l’addestramento, muove il mouse di conseguenza.
L’ingegnere Neuralink nel video, il cui nome è Bliss, scherza sul fatto che Nolan abbia poteri telecinetici. La maggior parte dei commenti che seguono il video ripetono tali affermazioni.
Non so se Nolan sia in grado di muovere il mouse senza uno sforzo consapevole. Come camminare, muovere il mouse è una di quelle abilità che si vorrebbe poter fare inconsciamente.
Nella prossima fase della ricerca, il team di Neuralink intende impiantare un secondo dispositivo per stimolare i muscoli, in modo che i due dispositivi fungano da ponte sull’area danneggiata del midollo spinale di Nolan. Questa tecnologia, unita forse ad un esoscheletro, potrebbe davvero migliorare la qualità della vita di Nolan. Spero che un giorno cammini grazie a questo esperimento. Non vorrei però che i suoi pensieri vengano mai letti da un computer.
Quando Bliss aveva chiesto a Nolan cosa era riuscito a fare con i suoi nuovi poteri, Nolan aveva risposto che era riuscito a giocare ai videogiochi fino alle 6 del mattino.
Penso che Nolan potrebbe usare uno dei robot ad attivazione vocale di Telsa come assistente personale. Forse si può convincere Musk ad inserirlo nel piano terapeutico di Nolan.
È solo l’inizio per la tecnologia di lettura mentale dell’intelligenza artificiale? O abbiamo già capito che non è questo il punto di arrivo, perché nessuno di questi impianti capta veramente i pensieri? Rilevano solo gli impulsi motori.
La chirurgia cerebrale potrebbe aiutarvi a usare il mouse e a strisciare il dito sullo schermo più velocemente
Elon Musks sostiene che, nel prossimo futuro, le persone normodotate vorranno un impianto Neuralink per poter interagire direttamente con un computer, con Internet e persino con l’intelligenza artificiale.
Aspettate un attimo. Cosa sta dicendo in realtà? Che le persone dotate di neurolink si fonderanno con l’IA e comprenderanno tutti i dati sui server di Google con l’occhio della mente, come suggerisce questa illustrazione?
In realtà, Musk ipotizza che le persone dotate di Neuralink saranno in grado di usare il mouse e strisciare il dito sullo schermo più velocemente
L’intelligenza artificiale non verrà iniettata nel DNA neuronale. Le persone con Neuralink continueranno ad utilizzare computer e schermi esterni.
Chi si procura un Neuralink non fa altro che sostituire la propria mano – uno strumento di interfaccia perfezionato da miliardi di anni di evoluzione – con una connessione bluetooth ad un dispositivo simile a un Fitbit che potrebbe anche non funzionare altrettanto bene.
Chi lo vorrebbe? I giocatori di videogiochi professionisti?
Il cervello sinistro come manipolatore di simboli contro il cervello destro come pensatore
Nel suo lavoro sul funzionamento e l’interazione degli emisferi cerebrali destro e sinistro, Iain McGilchrist non cerca di descrivere la complicatissima chimica alla base dell’attività delle onde cerebrali. Infatti, per capire come funziona il cervello, i ricercatori come McGilchrist si basano principalmente sull’osservazione del comportamento delle persone danneggiate. Se c’è un danno ad uno degli emisferi, ne derivano deficit neurologici prevedibili.
Ma, in generale, ciò che diventa chiaro leggendo McGilchrist è la misura in cui il pensare e il fare, il credere e il ricordare sono processi enormemente complessi distribuiti nelle varie regioni del cervello, che dipendono l’uno dall’altro per creare un qualcosa di significativo.
Conduco un webinar mensile intitolato “Non siamo macchine“, in cui critico coloro che pensano che l’intelligenza artificiale sia, in realtà, intelligente e in cui cerco di mostrare come i processi biologici siano molto più complessi di quelli informatici. Potrei anche dire ai miei studenti di ascoltare McGilchrist e di smettere di seguire il webinar. Egli dice chiaramente che è illusorio pensare che i pensieri possano essere decodificati inserendo qualche migliaio di sonde nel cervello di qualcuno.
Secondo McGilchrist, l’emisfero sinistro è meccanicistico. È coinvolto nell’uso degli strumenti e tratta gli oggetti del mondo come inanimati e decontestualizzati. Si occupa di produrre il linguaggio come si manipola uno strumento, utilizzando procedure predefinite con risultati prevedibili.
L’emisfero destro fornisce la contestualizzazione delle parole, cioè il loro significato.
Diversi tipi di segni: simboli, icone e indici
Nel mio campo, la biosemiotica, direi che l’emisfero destro sembra essere più coinvolto in ciò che chiamiamo segni fondati, icone e indici. Pensare e agire in modo intelligente è qualcosa che tutti gli esseri viventi, compresi i microbi e le singole cellule, possono fare. E sembra che siano in grado di farlo utilizzando segni fondati.
L’icona, in quanto segno, associa qualcosa a qualche altra cosa in virtù di una somiglianza fisica. Per esempio, se voglio rappresentare un gatto, potrei imitarne uno, dicendo “miao, miao”, e voi capireste ciò che voglio dire perché il mio miagolio è simile al suono che farebbe un gatto. All’interno delle cellule di un corpo, un segno iconico può essere una molecola che si inserisce in un recettore grazie alla sua forma complementare. La somiglianza fisica crea un’associazione. È così che le cose possono diventare segni di altre cose (o risultati), grazie a relazioni contestualizzate.
Un indice associa qualcosa a qualche altra cosa (o risultato) in virtù di un vettore fisico. Un neonato può comunicare i suoi desideri indicando con l’indice. Si vede che il neonato è interessato all’oggetto. Per fare un esempio biologico, possiamo considerare come la muffa di melma inizi a pulsare rapidamente in una direzione specifica, che la porta a muoversi verso una fonte conosciuta di cibo.
Questo tipo di segnali traggono il loro significato dal contesto e non devono essere appresi.
Al contrario, un altro tipo di segno, chiamato simbolo o codice, deve essere appreso perché non è basato su relazioni fisiche. Per esempio, la parola “gatto” si riferisce arbitrariamente all’animale che fa “miao”.
Per rifarmi quindi all’argomentazione di McGilchrist, direi che il cosiddetto “linguaggio” dell’emisfero sinistro non utilizza icone o indici, i cui significati sono fondati sul contesto. L’emisfero sinistro sembra utilizzare esclusivamente la manipolazione dei simboli.
Come si è detto, un simbolo, in quanto tipo di segno, rappresenta qualcosa per convenzione, cioè un segno, un suono o un motivo associato arbitrariamente a qualche altra cosa. Per esempio, nel codice Morse i trattini e i punti significano arbitrariamente lettere o numeri.
I progettisti di computer non hanno alcun concetto di icone o di indici o di qualsiasi tipo di segni fondati. Per questo motivo i computer devono essere programmati, direttamente da un programmatore o indirettamente attraverso un addestramento per tentativi ed errori.
I computer non usano segni di icone e indici. Come l’emisfero sinistro, i computer sono strettamente coinvolti nella manipolazione di simboli. Gli 1 e gli 0 sono simboli che formano schemi che rappresentano altri tipi di simboli, parole e numeri.
Nella misura in cui l’intelligenza artificiale può imitare l’intelligenza umana, sembra in grado di imitare solo l’emisfero sinistro del cervello, la parte che, in realtà, non si occupa di pensare.
L’emisfero sinistro può avere allucinazioni
Sebbene in un computer non vi siano segni contestualizzati, come avviene per le icone e gli indici negli organismi viventi, i computer sono in grado di rilevare le somiglianze statistiche nei modelli di 1 e 0. È così che un computer sembra generalizzare in base alle somiglianze, ad esempio per il controllo ortografico. I computer sono anche in grado di rilevare la frequenza con cui modelli diversi appaiono insieme, ed è così che sono in grado di prevedere che la parola “pollo” seguirà più facilmente “grigliata” rispetto a “gatto”. Ma questo tipo di finta contestualizzazione deve basarsi su enormi quantità di dati che forniscono le probabilità guida. Questo sistema funziona come una roulette truccata.
Un’intelligenza artificiale a grande modello linguistico (LLM), come Chat-GPT o Gemini o Bard, può affermare che A e B sono associati l’uno all’altro, sulla base di un’errata identificazione di somiglianze o di accoppiamenti frequenti. Questa deve essere la causa della cosiddetta tendenza della LLM ad “avere allucinazioni”.
Anche i pazienti con danni cerebrali, in cui domina l’emisfero sinistro, sono soggetti ad allucinazioni.
Vogliamo che sia l’emisfero sinistro a comandare?
McGilchrist ha notato che le risposte generate dal computer imitano la produzione vocale del cervello sinistro. Ha anche sostenuto che, sempre di più, la nostra società sembra essere gestita da coloro il cui emisfero sinistro è più dominante rispetto alle persone il cui emisfero destro è più influente nei loro processi di pensiero.
Il cervello sinistro è burocratico, meccanicistico. È prigioniero della routine e dipende dal cervello destro che lo aiuta a cambiare rotta. Le persone con lesioni all’emisfero destro e che quindi dipendono esclusivamente dal sinistro, si attengono ad un percorso, anche se è palesemente sbagliato.
L’emisfero sinistro positivista agisce come se avesse già tutte le risposte corrette per risolvere ogni tipo di problema. La dominanza dell’emisfero sinistro porta le persone a riporre fiducia nei leader istituzionali affinché attuino programmi standardizzati che si spera funzionino. McGilchrist sostiene che, quando le cose non funzionano come ci si aspettava, l’emisfero sinistro non prende in considerazione la possibilità che la sua soluzione possa essere semplicemente sbagliata, ma presume di dover fare ancora più cose dello stesso tipo. Raddoppiare la posta.
Vi suona familiare?
VN Alexander
Fonte: off-guardian.org
Link: 10
07.04.2024
Scelto e tradotto da Markus per comedonchisciotte.org
VN Alexander PhD è un filosofo della scienza e un romanziere, e ha appena completato un nuovo romanzo satirico, C0VlD-1984, The Musical.