Usate il cervello, non le dita!

AVVISO PER I LETTORI: Abbiamo cambiato il nostro indirizzo Telegram. Per restare aggiornato su tutti gli ultimi nostri articoli iscriviti al nostro canale ufficiale Telegram .

Di Franco Maloberti per ComeDonChisciotte.org

Fino a pochi secoli fa, l’uomo usava le braccia per ogni necessità. In realtà, l’uomo era aiutato dagli animali addomesticati, ma l’uso della forza muscolare e la fatica erano comunque significativi. Il cervello era usato da pochi: da una élite che dominava il lavoro delle braccia, e da pensatori che cercavano di spiegare le ragioni della nostra esistenza, o volevano capire le leggi che governano la natura.

Poi vennero le macchine e, sfruttando l’energia, la fatica fisica venne ridotta costantemente. L’invenzione delle macchine e, in particolare, quelle che usano l’energia per le operazioni che fino ad allora erano fatte manualmente, fu favorita dall’uso del cervello di numerosi scienziati che nel periodo del Rinascimento Scientifico scoprirono leggi e consentirono agli ingegneri di costruire gli oggetti di meccanizzazione. Nel settore dell’elettricità ci furono strabilianti scoperte a partire da Alessandro Volta che nel 1800 mostrò a Napoleone la pila elettrica di sua invenzione. Dopo di lui ci furono Ampere, Faraday, Maxwell, Tesla, Marconi, e tanti altri che con il solo ingegno scoprirono leggi fondamentali. Non esistevano a quei tempi strumenti di calcolo e i risultati ottenuti si basavano solamente sul cervello e su verifiche sperimentali.

A quei tempi i conti erano fatti a mente. Una qualsiasi bottegaia faceva rapidamente il conto della spesa e si aiutava con matita e un pezzo di carta solo nel caso di molti oggetti venduti. Gli studenti erano capaci di fare moltiplicazioni e divisioni e, per gli anni avanzati della scuola, anche le radici quadrate. Poi venne la calcolatrice, e si ritenne che consumare la mente per banali operazioni matematiche non era produttivo e, man mano, invece di usare il cervello si cominciò a pigiare le dita sulla tastiera della calcolatrice. La cosa non era così negativa, dato che l’uso del cervello era più opportuno riservarlo a cose complicate.

Nel 1941 venne del calcolatore. La prima implementazione era una macchina a relais con modeste capacità elaborative, ma già nel 1966 l’IBM costruì e commercializzò il suo 360 con buone capacità di calcolo ma con difficoltà per comunicare i codici da processare. Si usavano schede perforate che con due perforazioni per colonna rappresentavano un carattere alfanumerico. A quel tempo, chi usava il calcolatore aveva molto tempo a disposizione tra la consegna del pacco di schede perforate e l’uscita dei risultati. Quell’intervallo di tempo serviva per immaginare la risposta ottenuta e, eventualmente, scoprire in anticipo un errore commesso. Ovvero, quel tempo serviva ad usare il cervello per una analisi critica della propria attività tecnica o scientifica. Poi, il programma del calcolatore era scritto direttamente da chi lo utilizzava e, per questo, pur con un codice non ottimizzato, la persona sapeva bene cosa facesse quella macchina miracolosa.

I fantastici sviluppi della microelettronica hanno poi portato a circuiti sempre più veloci che hanno permesso una elevatissima capacità elaborativa. I programmi sono stati scritti da esperti software per una maggiore efficienza e facilità d’uso. Il tutto, ovviamente, ha comportato enormi vantaggi, ma anche svantaggi.

L’estrema velocità della risposta del calcolatore uccide la curiosità.

Sempre più le persone e, in particolare, le giovani generazioni, non si chiedono perché una cosa succeda: hanno una risposta immediata (talvolta parziale o casuale) senza avere il tempo di chiedersi “per quale ragione quello accade”. Come noto la curiosità è la madre dell’innovazione, essendo l’ingrediente che stimola la creatività. Invece di cercare di capire perché un evento è successo, ora è più semplice e meno faticoso, fare a caso una ricerca e avere un qualche risultato. Se non soddisfa, si ripetere la ricerca, alla cieca. Questo è quello che sempre più accade agli studenti che usano programmi di simulazione. Cambiano parametri di progetto, se va bene uno solo alla volta, e inseguono un ottimo che spesso è relativo o falso. La soluzione ottimale è spesso da un’altra parte. Il tutto non comporta alcuna attività cerebrale: è il semplice uso delle dita che, velocissimamente, pigiano su una tastiera.

I programmi usati sono sempre più sofisticati, con algoritmi complessi per risolvere le equazioni, specie se non lineari. Chi li scrive segue regole da “informatico” e sceglie le strade che ottimizzano la velocità di esecuzione. Chi li usa non sa cosa facciano in dettaglio e spesso non ha l’accesso (e non ne sente nemmeno la necessità) a quei risultati reconditi che fanno capire meglio. Si ritiene sempre più che il “calcolatore ha sempre ragione” e non lo si contesta mai. È lui il “padrone” mentre l’utilizzatore è semplicemente un “dipendente”.

Il calcolatore crea un falso senso di sicurezza. È come la coperta di Linus. L’ignoranza e l’ansia generata quando si affrontano problemi complessi vengono anestetizzati dal calcolatore che è, in pratica, un placebo usato per curare la non conoscenza. Non si fa lo sforzo mentale richiesto per colmare le lacune conoscitive. Si dovrebbero percorrere i cinque stadi del processo conoscitivo:

immagazzinare l’informazione, usarla per aumentare il proprio bagaglio di nozioni, trasformare l’informazione in metodologia, farne una sintesi personale, e acquisire la capacità di spiegare i fatti reinterpretando la conoscenza.

Al massimo con il calcolatore ci si ferma al secondo, forse al terzo stadio, dato che per quelli successivi serve tempo e ponderazione. Una eccessiva velocità operativa favorisce, appunto, l’ignoranza. Per imparare, e fare esperienza, serve anche commettere errori, e il calcolatore li evita. Come ha detto Albert Einstein. “Una persona che non ha mai fatto un errore non ha mai tentato qualcosa di nuovo“.

Nel 1969 nacque Internet. Una cosa fantastica che consentì la comunicazione di computer in località diverse, anche lontane migliaia di chilometri. L’accessibilità a tutti i data-base raggiungibili con Internet mette a disposizione una quantità enorme di informazioni. Quello che si faceva andando in biblioteca a sfogliare per ore libri alla ricerca di quanto serviva, è ormai un lontano ricordo. I motori di ricerca indirizzano immediatamente verso la notizia desiderata. Questo è eccezionale, se non per il fatto che i criteri di ricerca sono interpretati e decisi dal software, e questo non è il massimo della “intelligenza”.

L’umano raramente contesta i risultati ma accetta quanto viene fornito in pochi secondi. Ancora una volta la rete di calcolatori e Internet sono il “padrone” mentre l’utilizzatore è banalmente il “dipendente”.

Se si vuole essere cattivi, si può dire che l’utente è il barboncino di internet: vien portato dove lo indirizza il guinzaglio informatico, senza opporre resistenza alcuna.

Le notizie che si trovano su internet non sono più passate attraverso quei “filtri” che si usavano un tempo. I risultati possono essere corretti, ma possono anche essere (e questo accade spesso) delle sciocchezze. Ma è la velocità di risposta e la facilità d’accesso quello che li rende tutti credibili e assolutamente accurati. Troppo comodo avere qualcosa che pensa per te. E se c’è qualcuno che resiste, viene deriso e indicato come antimoderno.

Infine, arrivò il telefono cellulare, o telefonino. Quella sì che è una innovazione di cui non si può fare a meno! Con una roba di cento grammi si è connessi con tutto il mondo, si può messaggiare, spedire e ricevere posta elettronica, leggere e cercare notizie, ascoltare musica, trovare la strada di casa, e molto di più. Ormai tutti lo hanno e, alcuni, ne tengono in tasca più di uno. Agli inizi era necessario usarlo in modo noioso, pigiando la tastiera numerica diverse volte per scrivere una lettera, ma ora è tutto più semplice: c’è una mini-tastiera con tutti i caratteri e i numeri. La velocità d’uso denota l’età dell’utente. I giovani usano i due pollici e sostengono il dispositivo con le palme delle mani, in un modo che sembra magico agli anzianotti. Quelli, invece, tengono il telefonino con una mano e usano l’indice dell’altra per pigiare i tasti virtuali. Spesso, guardano con invidia i giovani che surclassano le dattilografe di un tempo in battiture al minuto, e, poi, … con i soli due pollici!

Il punto è che, come le dattilografe di un tempo, l’uso del cervello è praticamente limitato al coordinamento delle dita per trovare i caratteri da battere, senza lasciare al cervello quel tempo necessario per capire quanto si scrive. Se si vede un errore, si cancella vorticosamente e si ribatte.

E sì, il cervello è una cosa poco efficiente. Ha bisogno di tempo per fare considerazioni calme, razionali, profondamente ponderate, per arrivare poi a conclusioni che, spesso, gli strumenti informatici moderni ottengono in un tempo infinitamente inferiore. Si dimentica però che per trovare la soluzione a un problema, spesso chiamata invenzione, serve preparazione e, molto importante, serve incubazione; ovvero, una elaborazione “in background” del problema senza averne coscienza. Può durare anche giorni, e si conclude nella accensione della lampadina che illumina la risposta. E il calcolatore non ha una lampadina, ma un numero infinito di led.

Non parliamo poi delle antiche lungaggini nel descrivere le cose. I testi classici sono centinaia di pagine che, pur armoniose e profonde, richiedono decine di giorni per essere lette. Ora c’è Twitter che mette a disposizione 280 battute a messaggio. Questo numero di battute è, spesso, molto di più di quelle usate dalla maggioranza degli utenti. Quattro parole, casomai abbreviate, e via! Sono spesso considerazioni banali, con una spruzzatina di maleducazione o isteria, forse basata sul ciclo lunare. La fatica cerebrale è ridotta al minimo, quasi sempre limitata da luoghi comuni o dal credo di appartenenza a una qualche tribù.

Il dialogo è una cosa del tempo passato.

Si comunica in remoto e per monosillabi, come i preistorici. Quello che c’è di bello è che i messaggini svaniscono. Mica rimangono come la Stele di Rosetta. Finiscono su un server per essere analizzati da un software “intelligente”, e dopo un po’ spariscono, come i dati su EPROM. I tempi attuali, infatti, non lasciano il segno: sono come scritte sulla sabbia prima dell’alta marea. E questo è giusto. Solo quello che richiede fatica, merita di essere ricordato.

Usate il cervello, non le dita!

Cosa ci aspetta tra poco?

L’intelligenza artificiale, perbacco. Nuovi sistemi hardware e programmi software forniranno (e cominciano a fornire) prestazioni che sono state fino ad ora di pertinenza dell’intelligenza umana. Quindi la prospettiva è che il ragionamento “artificiale” si affiancherà a quello naturale …, ma di certo lo supererà. Quale sarà il ruolo delle dita non è ancora chiaro, anche se eliminare il loro ruolo è uno degli obiettivi primari dell’interazione uomo-macchina.

Dopo tutta questa successione di “meraviglie tecnologiche” fermiamoci un momento a pensare. Cosa difficile, ma ancora possibile.

Le “meraviglie tecnologiche” hanno controindicazioni?

Quando si prende una medicina si ha il bugiardino che, a scanso di equivoci, ci informa che il mirabolante medicamento ci può anche ammazzare. Ebbene, come una medicina, le “meraviglie tecnologiche” ci possono anche ammazzare.

Quale è la caratteristica degli umani che li distingue dagli animali? È la capacità di capire i processi mentali degli altri.

Quella che genera antipatia e simpatia, che permette di capire osservazioni scherzose e di rendersi conto se gli altri ci stanno ingannando, di viaggiare nel tempo con l’immaginazione, di avere interazioni sociali. Secondo le neuroscienze gli esseri umani hanno una capacità “insita”, chiamata “teoria della mente” (ToM), che li fa comprendere che i loro simili possiedono menti che generano desideri, intuizioni, credenze e stati mentali diversi, che fa comprendere i comportamenti altrui anche quando derivano da credenze diverse dalle proprie. Caratteristica peculiare è anche la spiccata capacità di comunicare attraverso la postura del corpo, lo sguardo, la mimica del volto; tramite, quindi, una serie di indicatori che rivelano stati affettivi e convinzioni che possono anche rivelare possibili inganni.

Quale è il ruolo delle “meraviglie tecnologiche” nello sviluppo in positivo o in negativo delle caratteristiche sopra indicate? Le risposte sono difficili, ma, penso che, dopo un periodo di tendenza positiva, siamo andando verso un rapido declino. La capacità elaborativa del cervello è relegata a funzioni secondarie, con un ruolo di decrescente capacità decisionale. Le interazioni sociali sono ormai “wireless“, con forme relazionali scarne, primitive e, spesso, conflittuali, con scarsa considerazione per il prossimo (che quasi non esiste). La velocità tipica delle “meraviglie tecnologiche” rende meno attenti e più facile preda degli inganni.

Lo si vede da quanto la gente sia credulona. Le informazioni del cosiddetto “mainstream” sono sempre più invenzioni, anche grossolane. Eppure, la gente ci crede e non sente la necessità pur minima di verificare.

Il punto è che cervello ha una velocità di reazione che è enormemente inferiore a quella delle macchine. L’uso del cervello è allora annebbiato da risposte preconfezionate che sono determinate da chi controlla e programma le macchine. Quindi, in realtà, non sono le macchine quelle tendono al “comando del mondo”, ma chi quelle macchine programma e gestisce.

Lo stato attuale è anche dovuto alla rapidità della evoluzione tecnologica che non è accompagnata da una corrispondente evoluzione sociale e morale (se possibile). Questo aspetto lo descrissi alcuni anni fa in una presentazione intitolata “La disfida del 21° secolo: uomo contro robot“. In aggiunta ai grandi meriti delle tecnologie moderne, elencai quattro rischi fondamentali:

1. L’uso della tecnologia è troppo semplice (i sistemi moderni non richiedono attività e fatica intellettuale).

2. L’evoluzione tecnologica è troppo rapida (è più veloce del tempo di adeguamento dei costumi).

3. La tecnologia è eccessiva protezione (non ispira coraggio e creatività).

4. La tecnologia fa credere di essere invincibili (fa presumere che sia possibile battere – o modificare – la natura e, più in generale, favorisce quella presunzione fatale che porta alla schiavitù).

In conclusione, avendo ben presente il quarto rischio, ben vale la raccomandazione del titolo: usate il cervello, non le dita!

Di Franco Maloberti per ComeDonChisciotte.org

26.12.2022

Franco Maloberti  Professore Emerito presso il Dipartimento di Ingegneria Elettrica, Informatica e Biomedica dell’Università di Pavia; è Professore Onorario all’Università di Macao, Cina.

Pubblicato da Jacopo Brogi per ComeDonChisciotte.org

 

Potrebbe piacerti anche
Notifica di
36 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
36
0
È il momento di condividere le tue opinionix