Il Metodo Scientifico e il Cambiamento Climatico

AVVISO PER I LETTORI: Abbiamo cambiato il nostro indirizzo Telegram. Per restare aggiornato su tutti gli ultimi nostri articoli iscriviti al nostro canale ufficiale Telegram .

Di Franco Maloberti per ComeDonChisciotte.org

Il clima sta cambiando, è evidente, e il passato indica che cambia da sempre. Ricordo le giornate di freddo polare di circa sessanta anni fa quando nella mite pianura padana si andò a meno 17 gradi centigradi. Tutto era gelato e il respiro diventava ghiaccio appena usciva di bocca. Ricordo anche la grande siccità di circa cinquant’anni fa che colpì la Somalia. A quel tempo ero coordinatore di ingegneria dell’Università somala e quel semestre venne annullato perché gli studenti vennero mandati in boscaglia per il salvataggio dei nomadi e per costruire villaggi. Erano per trasformare in stanziali i pastori nomadi ormai senza pecore e cammelli, morti di sete. Il loro governo organizzò per coordinatori, loro politici e ambasciatori due viaggi in elicottero e un traballante aereo, entrambi russi. E vidi la disperazione e la speranza.

Quello che intendo con questo scritto non è certo confutare gli effetti di grande sofferenza dell’umanità causati da repentini cambiamenti climatici o, forse, dall’epica lotta per l’energia, ma il metodo usato per spiegare le cause (e non per descrivere i fenomeni) e le medicine suggerite. Non dico che le cure non siano efficaci, dato che, forse, erano efficaci le danze della pioggia degli antichi stregoni. Dico questo, e lo dico con una certa rudezza, perché sono da sempre un fanatico del metodo scientifico, quello usato da Galileo Galilei.

Il metodo scientifico utilizza prove e sperimentazioni per stabilire i fatti in modo oggettivo. I passaggi base sono l’osservazione, l’ipotesi, la previsione, la sperimentazione, e l’analisi dei risultati. La richiesta chiave è di fare esperimenti con diversi valori in ingresso e diverse condizioni al contorno. I risultati debbono poi verificare l’ipotesi. Ovviamente, è possibile utilizzare il metodo scientifico solo per fenomeni verificabili.

In passato molti filosofi hanno dibattuto sulla scienza. All’inizio abbiamo avuto i filosofi greci. Platone si interessò del mondo razionale. Socrate analizzò la conoscenza usando la maieutica, Aristotele utilizzò logica e metafisica. Successivamente, durante il Rinascimento, Francis Bacon si concentrò sul ragionamento induttivo; Isaac Newton ha utilizzato sia il ragionamento induttivo che quello deduttivo; Galileo Galilei ha sottolineato la necessità di avere ripetibilità dei risultati.

Pamela Irvin Lazorko, nel suo articolo “Science and non-Science” [1] spiega

Il metodo scientifico procede dai dati raccolti osservando i fenomeni. Sulla base delle osservazioni, il ricercatore formula un’ipotesi, un’idea che spera di spiegare le osservazioni. Idealmente, un esperimento scientifico per verificare un’ipotesi cerca di controllare le variabili che si pensa influiscano sull’esito dell’esperimento, variando solo un singolo elemento alla volta della situazione sperimentale in modo che l’effetto di questa singola variabile sui risultati possa essere misurato o osservato. L’analisi dei risultati sperimentali potrebbe quindi mostrare che l’ipotesi originale è sbagliata, nel qual caso viene scartata, e viene sviluppata e verificata un’ipotesi alternativa. Nel caso in cui un’ipotesi non sia smentita dai risultati sperimentali, potrebbe costituire la base per una teoria che spieghi il fenomeno. La scienza attribuisce importanza anche alla pubblicazione di esperimenti, in modo che possano essere ricreati da altri ricercatori, dimostrando la coerenza delle osservazioni dichiarate e in modo che possano eventualmente perfezionare ulteriormente il processo.

Si noti che la descrizione raccomanda il cambiamento di una sola variabile e la verifica che i risultati sperimentali corrispondano alle equazioni o al modello. Gli esperimenti debbono essere poi ripetuti per una verifica fatta da altri.

Lo stesso articolo descrive la non-scienza o la pseudo-scienza come:

“Non-scienza” significa più di ciò che è antitetico alla scienza. In quanto fonti della conoscenza umana, gli approcci non scientifici come la filosofia, la teologia e l’arte hanno utilmente guidato visioni del “perché” della nostra esistenza, delle nostre interazioni reciproche o della moralità/etica definita. Al contrario, l’etichetta “pseudo-scienza” comprende i tentativi di rivendicare un mantello di verità con sforzi che, sebbene ai profani possano sembrare scientifici, mancano di verificabilità e della vigorosa revisione tra pari inerente al processo scientifico. L’astrologia, ad esempio, ha un insieme di regole e concetti sottostanti che non possono essere testati. La vaghezza delle sue previsioni evita la falsificazione proprio perché ambigue.

Con la mente intontita dalle suddette definizioni, forse perché sono un po’ antiquato, ho classificato molti degli studi climatici come pseudo-scienza. Le ragioni: le grandezze in ingresso non possono essere modificate per verificare le ipotesi. Il sole non è, ad esempio, così gentile da cambiare il flusso energetico a richiesta. Le condizioni al contorno sono misurate con grande approssimazione. Gli esperimenti non possono essere ripetuti e verificati. Per comprovare la mia singolare opinione consideriamo i computer la cui enorme potenza di calcolo è di grandissimo aiuto. Le equazioni fondamentali della fisica e di altre discipline scientifiche si applicano solo per determinate condizioni “ideali”. Inoltre, le leggi fisiche comprendono svariati parametri (le costanti fisiche – o variabili) che debbono essere misurati con esperimenti. Quando il sistema si complica, devono essere fatte deroghe alle leggi fondamentali usando equazioni correttive basate su parametri che, però, non hanno significato fisico e il loro valore deve essere trovato con altri esperimenti. Questo è ciò che accade, ad esempio, per modellizzare un transistor. Il modello iniziale basato su leggi fisiche è stato “aggiustato” con parametri il cui valore viene stabilito da centinaia o migliaia di misure sperimentali di fitting. Usare parametri sbagliati o semplicemente inaccurati porta a descrizioni bizzarre con risultati fantasiosi. L’avere computer potenti non aiuta se si usano modelli inadatti; spesso il “miglioramento” aggiunge complessità. Il risultato è che si capisce ancora meno cosa succeda.

È appunto questo è quello che, ritengo, è successo in climatologia. La presentazione di Susan Solomon Co-Chair del WG I – IPCC fatta alla Royal Society di Londra nel marzo 2007 mostra i risultati di 23 modelli con andamenti simili e con tante belle zigrinature temporali e predizioni di variazioni di temperatura al centesimo di grado (accuratezza non raggiungibile con misure reali). Dato che gli esperimenti li fa la natura (uno solo, in realtà) e le grandezze di ingresso sono un tantino imprecise (tipo l’energia che arriva dal sole o dal sottosuolo), mi sono chiesto: dato che i 23 modelli usano risoluzioni diverse e introducono parametri diversi, almeno due a testa, come si fa ad ottenere 46 valori dai pochi esperimenti che ci regalano il sole, le nuvole e, forse, la luna? E le zigrinature temporali chi le ha fatte? Come si fa ad ottenere risultati tutti concordanti (o concordati)? Nella presentazione di Susan Solomon c’è anche il famoso e controverso grafico “mazza di Hockey” “inventato” da Michael Mann della Penn State University, che prevedeva un incremento esagerato delle temperature. La vicenda ha avuto strascichi legali, perché un altro climatologo Tim Ball lo aveva offeso. La cosa si è risolta con una archiviazione, ma Mann ha dovuto pagare le spese di giudizio dato che si era rifiutato di fornire i dati che avevano generato il suo grafico (negata verificabilità). Una cosa interessante nella presentazione di Susan Solomon è la foto di un orso stanco appoggiato su un blocco di ghiaccio. Forse il messaggio era che il poverino sentiva i cambiamenti e, casomai, non sapeva nuotare? In compenso c’era una bella interpolazione lineare su un periodo di venti anni, e altri grafici su intervalli di trenta quarant’anni, quando si parla di tempistiche di diverse centinaia o migliaia di anni.

Incuriosito ho fatto anche un po’ di ricerca sul Web e mi sono imbattuto in un corposo articolo che descriveva i modelli 11 e 12 dell’IPCC 2007. Scritto da 42 autori (primo autore T. L. Delworth) di 8 diverse istituzioni sparse per il mondo, spedito alla rivista “Journal of Climate” l’8 dicembre 2004, fulmineamente revisionato e rivisto in forma finale il 18 marzo 2005. L’articolo, il primo di una serie di quattro, illustra le “migliorie” introdotte rispetto al precedente modello LM2.0, dice, tra l’altro:

 In secondo luogo, il Mar Caspio è ora trattato come un tipo speciale di superficie terrestre. Ciò è necessario poiché il Mar Caspio non è incluso come parte del modello oceanico e non esiste un modello lacustre all’interno di LM2.0. Il Mar Caspio è mantenuto come una superficie satura; se l’acqua per qualsiasi griglia nel Mar Caspio supera la saturazione, l’acqua in eccesso è trattata come deflusso e viene indirizzata verso il punto oceanico corrispondente alla foce del fiume Indo. Al contrario, se l’acqua in qualsiasi punto della griglia nel Mar Caspio è inferiore alla saturazione, si sposta sufficiente acqua dolce istantaneamente dall’oceano alla foce del fiume Indo al Mar Caspio per mantenere la saturazione. Così, il modello atmosferico vede il Mar Caspio come una superficie satura, mentre viene mantenuta la conservazione globale dell’acqua

Specifica anche:

In terzo luogo, il modello del terreno è stato modificato per sopprimere l’evaporazione dal terreno quando il suolo è ghiacciato a una profondità di circa 30 cm. Ciò ha un impatto significativo sul riscaldamento riducendo l’evaporazione, e quindi la nuvolosità, a latitudini più elevate dell’emisfero settentrionale durante la tarda primavera e l’estate, con conseguente aumento della radiazione a onde corte in superficie e temperatura dell’aria vicino alla superficie più calda. Tuttavia, questo cambiamento contribuisce anche a un assottigliamento del ghiaccio marino artico, che amplifica una tendenza esistente verso il ghiaccio marino artico sottile (descritto di seguito).

E i parametri?

“Ciò è stato ottenuto attraverso un aumento del 45% (da 4,7 × 10−6 s−1 a 6,8 × 10−6 s−1) nello schema cloud del parametro che controlla il tasso di erosione delle nubi in condizioni convettive.”

” il valore della soglia del raggio di caduta delle nuvole per l’inizio della formazione delle gocce di pioggia è stato ridotto da 10,6 μm in AM2.0 a 8 μm in AM2.1″

“il parametro che controlla il tasso di erosione delle nuvole in condizioni convettive è stato aumentato del 18% (da 6,8 × 10−6 s−1 in AM2.0 a 8 × 10−6 s−1 in AM2.1).”

Passi prendere acqua dal mar Caspio e farla volare per 2500 kilometri fino all’oceano Indiano (o viceversa), ma cambiare un parametro del 45% mi sembra una esagerazione.

Consideriamo ora gli aspetti del suolo studiati anche nel modello 13, che, in base a quanto dice il capitolo 8 del rapporto IPCC 2007 Climate Models and their Evaluation” [3] usa l’articolo “Improved Ground Hydrology Calculations for Global Climate Models Soil Water Movement and Evapotranspiration” di F. Abramopoulis, C- Rozenweiz, B. Choudhuri, Journal of Climate, 2008 [4]. È uno studio dettagliato con tante equazioni. Suppone che la legge di Darcy sia valida su tutto il sottosuolo (perché?), e lo modellizza in strati con diversa permeabilità che cambiano a gradino. Suppone poi che a certa profondità sia impermeabile (?). Per la soluzione delle equazioni nel tempo usa un metodo implicito che garantisce stabilità, ma, come noto, non è molto preciso. L’articolo usa poi un fitting logaritmico al (solo) secondo ordine usando dati di comunicazioni personali. Dice poi, anche se la matric potential e la hydraulic conductivity mostrano isteresi, l’effetto è trascurato per semplicità.

In aggiunta ai due articoli ho esaminato anche altri tratti dai riferimenti del capitolo 8 del rapporto IPCC-WG1 2007. La maggioranza usa tante equazioni ma le soluzioni usano approssimazioni e parametri anche forniti da altri. Le costanti fisiche usate non sono accurate. Ad esempio [5] usa per la densità del ghiaccio 917 kg/m-3, ma, a quanto pare il valore non è così preciso; secondo [6], se si parla di giaccio marino si va da 720 a 940 kg/m-3. Nello stesso articolo [5], di grande complessità matematica, si legge tra le altre cose:

They are therefore approximated with forward or backward differences, rather than centered three-time level forms (pag. 9). Sono allora approssimate con …

Rain has no effect on sea ice or snow in the model (pag. 173). La pioggia non ha alcun effetto sul giaccio salino o la neve salina …

However, it is critical that the sum of the fractions never exceeds one, otherwise ice formation might become unstable (pag. 179). … altrimenti la formazione di ghiaccio potrebbe diventare instabile

For simplicity no shortwave radiation is allowed to penetrate through snow and all of the near-infrared radiation and 30% of the visible radiation is assumed to be absorbed at the surface of sea ice (pag.181). Per semplicità radiazioni a corta lunghezza d’onda non penetrano nella neve e si assume che la radiazione visibile e il 30% della radiazione infrarossa sia assorbita sulla superficie del ghiaccio marino.

Un’altra caratteristica dei modelli è che affrontano aspetti diversi separatamente e poi i vari risultati vengono collegati per un risultato supposto coordinato. Come noto, per sistemi non lineari non vale la regola della sovrapposizione degli effetti.

Mi sono concentrato su quanto esisteva nel 2007, perché fin d’allora si diceva che

“Il riscaldamento è inequivocabile e la maggior parte del riscaldamento degli ultimi 50 anni è molto probabilmente (90%) dovuto all’aumento dei gas serra” (slide 30 della presentazione Solomon).

Quanto sopra è un piccolo spaccato della attuale situazione. Ci sono tutti gli aspetti della natura umana e, in particolare, quello che gli psicologi chiamano la sindrome di Icaro: quel desiderio di andare sempre più in alto, inseguendo il mito che risponde a un interrogativo di cruciale importanza per l’umanità: “spiegare perché qualcosa esista o accada”. La ricerca della spiegazione, però, esula dagli insegnamenti del metodo scientifico ed è sostituita da una risposta surrogata creata dal computer e da verifiche ipotetiche. Si è creato un meta-modello, una sorta di icona religiosa, che potrebbe anche corrispondere al vero (e questo lo sapremo tra diversi decenni o secoli), ma che sfugge alle regole imposte dal metodo scientifico.

Il tutto è stato poi spinto da ingentissimi finanziamenti che hanno prodotto decine di migliaia di articoli impossibili da districare. Tutti quei soldi sono motivati, probabilmente, da obiettivi politico-strategici, primo tra questi, il controllo dell’energia. Non credo che siano stati gli studi sul clima quelli che hanno guidato le decisioni dei policy maker, ma che siano stati certi policy maker che hanno chiesto di fare studi per “convincerli” a prendere certe decisioni. Per questo hanno erogato copiosi finanziamenti per strumenti, sempre più sofisticati, che sembrano le piume e la cera delle ali costruite da Dedalo per il figlio Icaro.

Di Franco Maloberti per ComeDonChisciotte.org

25.11.2022

Franco Maloberti ha conseguito la Laurea in Fisica (con lode) presso l’Università di Parma, Italia, nel 1968, e il Dottorato Honoris Causa in Elettronica da Inaoe, Puebla, Messico, nel 1996. È stato Professore di Microelettronica presso l’Università di Pavia, è stato il TI/J. Kilby Analog Engineering Chair Professor presso la Texas A&M University e Distinguished Microelectronic Chair Professor presso l’Università del Texas a Dallas. Attualmente è Professore Emerito presso l’Università di Pavia, e Professore Onorario all’Università di Macao, Cina SAR. Ha più di 600 pubblicazioni scientifiche, ha pubblicato dieci libri ed è titolare di 40 brevetti. È il Direttore della Divisione I dell’IEEE, è stato Presidente dell’IEEE CASS e dell’IEEE Sensor Council. Ha anche servito l’IEEE in numerose posizioni di responsabilità. Nel 1999 ha ricevuto l’IEEE CAS Society Meritorious Service Award, la CAS Society Golden Jubilee Medal nel 2000 e la IEEE Millenium Medal. Ha ricevuto l’IEE Fleming Premium nel 1996, l’ESSCIRC 2007 Best Paper Award e l’IEEJ Workshop 2007 e 2010 Best Paper Award. Ha ricevuto il premio Mac Van Valkenburg della IEEE CAS Society 2013. È Life Fellow di IEEE.

NOTE BIBLIOGRAFICHE

[1] https://philosophynow.org/issues/96/Science_and_Non-Science

[2] T. L. Delworth er al. “GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics” Journal of Climate, Vol. 19, N. 5 (March 2006), pp. 643-674.

[3] IPCC Climate Change 2007 – Chapter 8 Climate Models and their Evaluation.

[4] Abramopoulos et al. “Improved Ground Hydrology Calculations for Global Climate Models (GCMs): Soil Water Movement and Evapotranspiration”, Journal of Climate

Vol. 1, No. 9 (September 1988), pp. 921-941.

[5] Description of the NCAR Community Atmosphere Model (CAM 3.0) https://www.cesm.ucar.edu/models/atm-cam/docs/description/description.pdf

[6] G. W. Timco, R. M.W. Frederking “A review of sea ice density”, Cold Region Science and Technology”, Elsevier, 1996.

Potrebbe piacerti anche
Notifica di
54 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
54
0
È il momento di condividere le tue opinionix