Le capre e le volpi amano l’intelligenza artificiale

Un'allettante lusinga che mira a una nuova egemonia dei soliti noti.

Di Franco Maloberti per ComeDonChisciotte.org

Si fa un gran parlare dell’intelligenza artificiale, altrimenti detta AI. Tanto per chiarire subito il mio pensiero, dico che è un’allettante lusinga che mira a una nuova egemonia dei soliti noti. Le componenti della lusinga sono due: le promesse di grandi benefici, come quelle fatte dal gatto e la volpe a Pinocchio, e la paura che fa credere che questa AI sia molto pericolosa.

In sintesi, l’AI è “apprendere sulla base di conoscenze passate e agire di conseguenza”. Ovvero, l’AI è banalmente “fare esperienza”, più o meno quella che fanno i bambini nei primi anni di vita. Con l’AI si esaminano parecchie migliaia o anche milioni di casi e si cerca di trovare un comune denominatore e, da questo, la strada da seguire. L’AI acquisisce informazione ma la elabora in modo primordiale. Il complesso meccanismo dell’apprendimento riguarda cinque livelli: la memorizzazione dell’informazione e il suo uso senza sostanziali cambiamenti, l’accumulo della conoscenza, l’acquisizione e la pratica di metodologie, l’ottenimento di un senso di astrazione e, infine, la capacità di reinterpretare la conoscenza. I primi tre livelli sono facili da percorrere e questo è quanto fanno le macchine, ma gli ultimi due che non sono intelligenza, ma una sua indispensabile premessa, non sono ottenibili con processi di logica lineare e usando solo dati “pertinenti”. Poi, per il passo successivo: il processo decisionale, gli umani usano molte informazioni “a latere”, alcune variabili rapidamente nel tempo; tra queste, i sogni, la simpatia o l’antipatia, la luce, il clima, le sensazioni dovute all’ambiente in cui si opera, la lingua, la religione, la cultura e gli usi.

La denominazione “intelligenza” è certamente impropria, si dovrebbe invece usare, apprendimento o conoscenza. La qualificazione intelligenza è solo una etichetta pubblicitaria che serve a imbellettare i relativi prodotti. Quello che sarebbe necessario è sì raccogliere ed elaborare l’informazione, ma questa deve poi essere messa al servizio dell’intelligenza naturale per aumentarne l’efficienza.

Un aspetto importante è che i “dati in ingresso” acquisiti da un bambino sono molto più ricchi di quanto usa l’AI. Sono i cinque sensi e, in aggiunta, i sentimenti: affetto, tutela, protezione, amore, paura, ostilità, avversione. Il bambino ha inizialmente mamma e papà che lo guidano nella direzione iniziale d’apprendimento. Poi, c’è un numero grandissimo di “istruttori” che lo guidano in modo sia palese che impercettibile. Gli “ingressi” sono istruzioni ben definite o atteggiamenti di approvazione o biasimo che servono a comprendere gli errori di svariati tentativi. I dati di ingresso dell’AI sono tipicamente aridi e mono-sensoriali, guidati da finalità specifiche. I tentativi e gli errori non esistono. L’istruttore è spesso uno solo, è poco esperto ed ha una mente “polarizzata” da una definita cultura e obiettivi.

L’AI è una enorme sottovalutazione della realtà, dato che affronta la complessità dei meccanismi cerebrali con modelli assolutamente semplificati e cerca di compensare le approssimazioni con un incremento frenetico dei passi di approssimazione (gli strati delle reti neuronali) e una estrema velocità di esecuzione. È plausibile che il cervello usi anche lui procedure di frammentazione e semplificazione, ma quali siano gli elementi usati e quale sia la loro elaborazione è impenetrabile.

Bisogna precisare che le risultanze dell’AI si basano su tante costose ricerche. I prodotti del cosiddetto “deep learning” (apprendimento profondo, appunto), l’ultima novità degli studi, sono promettenti, anche con discreti risultati. Le applicazioni possibili riguardano la guida senza conducente, il controllo dei droni, il riconoscimento vocale e facciale, ma anche cose un po’ leziose, tipo aggiungere il colore o il suono a immagini o filmati. C’è poi la traduzione simultanea, la generazione di risposte a domande ordinarie e il riconoscimento automatico dei segnali stradali. Tutte applicazioni affascinanti, specie il riconoscimento facciale e vocale che è utile ai governanti: così controllano meglio la popolazione. Le altre, boh, forse lasciarle agli umani non è così grave. Di una certa utilità sono la traduzione simultanea e l’elaborazione di immagini cliniche, che consentirebbe una più veloce diagnosi di malattie comuni. Altre possibilità sono l’uso dell’AI per surrogare gli operatori dei call center o per rimpiazzare gli impiegati che fanno contabilità. Ovvero, la classica eliminazione di posti di lavoro a basso contenuto conoscitivo. Globalmente, escludendo poche eccezioni, c’è molta aria fritta, che deve essere cucinata in grossi data-center situati oltre oceano.

Il punto chiave (o, se si vuole, dove il metodo traballa) è che per addestrare e per ottenere le risposte dei sistemi intelligenti serve una grossa mole di dati e una ancor maggiore potenza computazionale. L’elaborazione dei dati utilizza processori dedicati costruiti con le più avanzate tecnologie, come la 3 nm, possedute solo da Taiwan (TSMC) e Corea (Samsung). Una singola fabbrica costa circa quaranta miliardi di euro. Il pre-addestramento di un modello di intelligenza artificiale usa un numero enorme di campioni. Con algoritmi semplici il minimo è almeno mille campioni per categoria. I modelli complessi usano parametri che vengono regolati durante l’addestramento per avere risposte “accurate”. I recenti “modelli giganti” usano un numero enorme di parametri. Si può arrivare a miliardi o addirittura triliardi (migliaia di miliardi) di parametri. Il numero di campioni necessario è pari al numero dei parametri moltiplicato per un coefficiente che normalmente è compreso tra un centesimo e dieci. Risulta allora che per il training possano servire miliardi di campioni. Il costo computazionale (addizioni, sottrazioni, moltiplicazioni o divisioni di due numeri decimali) è da uno a parecchi milioni di milioni di operazioni per parametro. Il tutto è per una “intelligenza” interessante, ma non così eccezionale.

Much ado, about nothing“, scriveva Shakespeare. Più o meno …

Le potenzialità dell’AI sono accompagnate da promesse (o minacce) di funzioni umanoidi e capacità sovrannaturali. Si dice che l’uomo potrà essere sostituito da apparati artificiali con robot, nanotecnologie, l’AI e quant’altro. Buontemponi, come un tizio che è in auge al forum di Davos – è quell’omino buffo che si definisce transumanista -, spaventano la gente comune dicendo che con l’AI una parte dell’umanità sarà inutile e che, invece di andarsene al creatore loro stessi, suggeriscono una sforbiciata alla popolazione del mondo. In realtà, un tentativo per ridurre l’affollamento del pianeta c’è stato: parlo della recente pandemia e, forse, ci si deve aspettare un nuovo tentativo. Ma, “per fortuna”, per parare i rischi, alcuni volponi che con l’AI ci fanno i soldi, chiedono di mettere in pausa per sei mesi lo sviluppo di sistemi potenti di “intelligenza”. Boh! A me sembra che questa richiesta sia una volpata per far credere della importanza e indispensabilità della novità, e non proteggere noi, poveri umani. Mia opinione, forse sbagliata.

Quanto sopra non tiene conto di un ulteriore piccolo particolare: il consumo di energia. Il cervello umano apprende ed elabora le informazioni usando pochissima potenza. In stato di veglia usa dai 10 ai 23 watt. Una farfalla, che non è così stupida, consuma molto, ma molto meno. Un supercomputer per AI, ad esempio fatto da un cluster con 22.000 GPU H100, richiede circa 31 MW (milioni di watt) esclusa la potenza necessaria per ulteriori esigenze infrastrutturali, come il raffreddamento; cioè, più di un milione di volte il consumo del cervello umano. Ovviamente, il supercomputer può servire molti utenti, ma il confronto energetico rimane estremamente sfavorevole per l’artificiale. Un’altra valutazione utile è l’energia richiesta per dare una risposta con chatGTP-4. Per rispondere a una domanda del tipo “Quante zampe ha un gatto?” servono circa 3600 Joule, che è l’energia che usa il cervello in quattro minuti (se consuma 15W). E non si conta nel calcolo quanto serva per la trasmissione dati. Il programma chatGTP-4 fa anche cose più complicate del rispondere a semplici domande, ma il consumo di potenza aumenta più che proporzionalmente. La mia opinione è che, finché l’AI non consumerà meno di dieci cervelli (ovvero mai, a meno di funzioni veramente semplici), sarà per lo più una presa in giro, anche ambientale.

Un qualsiasi servizio di AI comporta uno spropositato uso di denaro e di energia. La sua accettazione deve scaturire da una attenta analisi dei costi e benefici (economici, energetici e, soprattutto, strategici e sociali).

Per avere un’idea dei costi, OpenAI, quella che offre gratuitamente l’accesso a chatGPT, deve sborsare, solo per mantenere operativa l’infrastruttura, 700 mila dollari al giorno. E la stima non tiene nemmeno conto dell’ammortamento dell’hardware; poi, quel costo riguarda la versione precedente del modello di AI (chatGPT-3, quello che usa 130 miliardi di parametri). Allora, solo chi ha l’accesso a tanto denaro, casomai stampato di fresco e usato per arruffare la mentre dei gonzi, si può permettere di operare in questo settore. Le aziende dominanti che offrono servizi di AI sono prevalentemente USA. Le più grosse sono Google Cloud AI, Microsoft Azure AI, IBM Watson, Amazon Web Service AI, DataRobot, OpenAI, ClartiFI, BigML e RapidMiner. In realtà, ci sono nel resto del mondo numerose iniziative e start-up che sviluppano software con i linguaggi per l’AI, ma quello che fanno è, in pratica, lavorare “per il nemico”. Se vanno a gambe all’aria son fatti loro. Nel caso in cui producono qualcosa di buono, vengono acquisite, mettendo in tasca dei fondatori un po’ di soldi (fiat), ma evitano a chi le compra gli investimenti e i rischi dell’innovazione.

Ci si chiede per quale motivo ci sia tutto questo interesse nell’AI e perché aziende, tipo OpenAI, diano gratuitamente le risposte a milioni di domande usando un sistema che costa quasi un milione di dollari al giorno. Specchietto per le allodole? Una risposta a “per cosa lo fanno” la si trova guardando le previsioni economiche. Nel 2023 la dimensione del mercato globale dell’intelligenza artificiale era 150 miliardi di dollari (una cifra spropositata, per molta aria fritta, ma tant’è) e si prevede che nel 2030 raggiunga i 1.345 miliardi di dollari. Una cifra senza dubbio esagerata, se si considera che si prevede la stessa cifra per il mercato dei semiconduttori, cosa più solida e sostanziosa. Un altro parametro riguarda le prestazioni di aziende primarie del settore. Prendiamo Nvidia (USA) e TSMC (Taiwan) che costruiscono microprocessori dedicati. Per la prima, la capitalizzazione 2023 è 1210 miliardi di dollari, per la seconda è quasi 15 mila miliardi. Il fatturato per entrambe è stato circa un trenta-quarantesimo la capitalizzazione. Cosa significa questo grande rapporto prezzo-vendite (P/S ratio)? Il mio parere, che non ne capisco nulla, è che una valutazione esagerata rispetto alle vendite non significa speranza di brillanti prestazioni, ma che l’azienda ha un valore strategico da difendere (caso TSMC) o che è funzionale ad una strategia (Nvidia).

Per capire la strategia bisogna “seguire il denaro”. Andiamo indietro negli anni e troviamo che nel settembre 2018 DARPA, l’agenzia USA per progetti avanzati della difesa, ha lanciato un programma da 2 miliardi di dollari americani per “ricerche finalizzate allo sviluppo di prototipi rivoluzionari, basati sulla AI, per la sicurezza nazionale degli Stati Uniti”. Le aree chiave della campagna includono l’automazione dei processi aziendali critici del Dipartimento della Difesa, la robustezza, l’affidabilità, la sicurezza e resilienza delle tecnologie di apprendimento automatico e di intelligenza artificiale. Con quei soldi sono state finanziate molte ricerche, che poi hanno fatto fiorire, in campo civile, quelle iniziative che ora stabiliscono la supremazia USA. Non è che disapprovi gli americani, che, solite volpi, fanno (o facevano) bene il mestiere dell’egemone, la mia critica, fortissima, va alle volpi travestite da capra di Bruxelles che continuano a farci fregare.

Un ridotto uso del cervello causa una sua ridotta capacità e agilità di pensiero. Avere popolazioni culturalmente e mentalmente subalterne, essendo un vantaggio strategico e militare, è essenziale per assicurarsi l’egemonia. Pertanto, l’AI è un pericolo per alcuni e un vantaggio per altri. Il punto, importante, è che per i governanti il denaro non conta un granché, mentre per il popolo è di fondamentale importanza.

Superati i problemi tecnologici, abbiamo tre criticità. La necessità di elaborazione in data-center di grosse dimensioni, il consumo di potenza e il costo. La prima è favorevole alla egemonia, dato che tenere i clienti lontani dai propri dati sensibili e metterli nelle mani dei gestori dell’AI è un bel vantaggio. La questione potenza la si può rimandare a quando le risorse di petrolio sotto controllo americano diventeranno scarse. Il problema primario rimane il costo. Questo deve essere scaricato su un numero grandissimo di utilizzatori che devono avere un discreto reddito e vivere abbastanza lontano: gli Europei e, forse, gli Australiani.

Esiste un ulteriore problema. Cosa rimarrà tra poco di quest’orgia di promesse? Ci saranno senz’altro benefici per i militari e i governanti, ma per la gente comune, passato il momento di euforia, ci saranno sì un po’ di vantaggi, alcuni importanti, ma il resto non sarà quel granché. Il mondo fantascientifico Hollywoodiano cambierà solo “casa”, da uno schermo a tubi catodici si trasferirà in una proiezione 3D di un meta-mondo che non esiste. Allora, fino a quando durerà questa illusione? Bisogna fare in fretta! Se i cittadini comuni devono pagare, si devono creare nuove necessità, sostituire rapidamente servizi e cancellarne le consolidate soluzioni. Così, a parte i rinsecchiti vecchietti che diranno: “ai miei tempi”, ci sarà assuefazione alle nuove costose (e inefficienti?) “novità”.

L’obiettivo è creare un mercato intelligente e artificiale e, allo stesso tempo, diventarne egemoni.

Per raggiungere l’obiettivo, bisogna primariamente convincere la gente che l’AI è una cosa mirabolante e che produce benefici da farsi leccare le dita. La tecnica usata è la solita della pubblicità ingannevole o, se volete, è quella del gatto e la volpe ai quali Pinocchio mostrò le monete d’oro. Se le sotterri nel paese dei Barbagianni, crescerà un albero pieno di zecchini d’oro. Dai a noi le tue monete e diventerai ancora più ricco. Per far credere a queste lusinghe le volpi arrivano a frotte e parlano alle capre e caprette governative che, addomesticate, affermano con fare autorevole che questa AI è bella da bestia. Le capre comuni, ben rincuorate, sono affascinate dalle lusinghe dei volponi e anche irretite dagli suadenti miagolii dei gatti dell’informazione. Stabilito il dominio, una seconda fase dell’operazione potrebbe essere la delocalizzazione tenendo ben stretti i segreti. Così si risparmiano soldi ed energia e, chissà, l’amica Europa darà una mano: sospende la strategia di rimbecillimento di massa, facendo dibattiti su dove tenere le “circenses” olimpiadi, sia estive che invernali o discettando sulla lunghezza dei pesciolini ammessi alla pesca, “ambisce” all’autonomia “intelligente” e paga lei i data center.

Riassumendo, questa AI, inclusa quella generativa, è una evoluzione tecnologica che usando vagonate di soldi ottiene un qualche risultato appetibile. Non si deve ovviamente “gettare il bambino con l’acqua sporca”, ma è difficile selezionare il poco che c’è di fondamentale e prezioso. Il clamore, fatto ad arte, confonde le menti indifese. È però vitale vincere quella disfida che descrissi più di dieci anni fa in una presentazione che intitolai “La disfida del XXI secolo: uomo contro robot”. Il robot, in questo caso, è rappresentato dalle applicazioni AI. Se non saremo in grado di dominarle, contrastando l’annebbiamento dei primi tre livelli dell’apprendimento e impedendo il conseguente impoverimento dell’intelligenza umana, saremo soggiogati da una schiacciante egemonia economica e, soprattutto, culturale.

Ci sono tante informazioni sul Web, tra queste:

https://ourworldindata.org/grapher/artificial-intelligence-parameter-count

https://www.linkedin.com/pulse/how-much-minimum-data-do-we-need-akshay-ugalmogale/

Di Franco Maloberti per ComeDonChisciotte.org

23.01.2024

Franco MalobertiProfessore Emerito presso il Dipartimento di Ingegneria Elettrica, Informatica e Biomedica dell’Università di Pavia; è Professore Onorario all’Università di Macao, Cina, dove è stato insignito della Laurea Honoris Causa 2023.

ISCRIVETEVI AI NOSTRI CANALI
CANALE YOUTUBE: https://www.youtube.com/@ComeDonChisciotte2003
CANALE RUMBLE: https://rumble.com/user/comedonchisciotte
CANALE ODYSEE: https://odysee.com/@ComeDonChisciotte2003

CANALI UFFICIALI TELEGRAM:
Principale - https://t.me/comedonchisciotteorg
Notizie - https://t.me/comedonchisciotte_notizie
Salute - https://t.me/CDCPiuSalute
Video - https://t.me/comedonchisciotte_video

CANALE UFFICIALE WHATSAPP:
Principale - ComeDonChisciotte.org

Potrebbe piacerti anche
Notifica di
23 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
23
0
È il momento di condividere le tue opinionix