RINFORZA LE NOSTRE CONVINZIONI…ERRATE
DI JOE KEOHANE
Boston Globe
I ricercatori scoprono una stupefacente minaccia alla democrazia: i nostri cervelli e il loro modo di funzionare.
Il fatto che una cittadinanza informata sia preferibile a una incolta è uno dei pilastri fondanti alla base della moderno concetto di democrazia.
“Ogni volta che la gente si dimostra al corrente di fatti e notizie succede che essi siano anche degni di fiducia da parte del loro governo” scriveva Thomas Jefferson nel 1789. Quest’idea, portata avanti negli anni, costituisce il fondamento di tutto ciò che va dai più umili pamphlet politici ai dibattiti per le presidenziali fino al reale concetto di libera stampa.
Il genere umano può essere un legno storto, come amava dire Kant, predisposto solo all’ignoranza e alla disinformazione, ma rimane un dogma di fede che la conoscenza sia il miglior rimedio a questa condizione. Se alla gente si forniscono i fatti, essi diventeranno lucidi ragionatori e, in definitiva, cittadini migliori. Se affogano nell’ignoranza, i fatti li illumineranno [si intendono, nell’articolo, i fatti come dati di fatto, realtà oggettiva, quintessenza della verità ovvero un concetto cui i mezzi di informazione dovrebbero aderire come a un ideale fondante N.d.T.]. Se gli uomini sbagliano, i fatti li rimetteranno sulla retta via.
Alla fine, la verità verrà a galla. Non è vero?
Forse no. Di recente, studiosi di scienze politiche hanno cominciato ad occuparsi di una tendenza dell’uomo in grado di scoraggiare alla radice la fede nel potere dell’informazione.
In altre parole: non necessariamente i fatti, la realtà oggettiva hanno la capacità di farci cambiare opinione.
Approfondendo la questione, si scopre come sia vero proprio il contrario. Durante una serie di studi tra il 2005 e il 2006, i ricercatori dell’Università del Michigan scoprirono che quando persone male informate, in particolare attivisti politici, venivano esposte alla verità dei fatti, assai di rado riuscivano a cambiare opinione. A ben guardare, la cosa li rendeva ancora più radicati nelle proprie convinzioni iniziali, ancorché errate. Gli scienziati verificarono come il contatto con la realtà oggettiva dei fatti non rappresentasse affatto una cura alla disinformazione. Comportandosi in analogia a un antibiotico di potere insufficiente, i fatti potrebbero, in realtà rinforzare ulteriormente [le convinzioni e i pregiudizi generati da] la cattiva informazione.
Tutto ciò fa vaticinare sventure per la democrazia, in quanto la maggior parte degli elettori – in definitiva la gente che prende decisioni su come la nazione vada governata [1] – non sono proprio lavagne immacolate. Il popolo delle urne risulta dotato di convinzioni proprie e di insiemi di dati di fatto ben radicati nella propria mente. Il problema è che, a volte, le cose che pensano di sapere sono false in modo oggettivo e dimostrabile. Anche se messi di fronte delle informazioni corrette, tali persone reagiscono in un modo completamente differente da quanto fanno le persone che sono semplicemente ignoranti. Al posto cambiare idea per riflettere le informazioni corrette, essi si trincerano ancor di più nelle proprie convinzioni originarie.
“L’idea generale è che ammettere di aver sbagliato sia avvertito come una minaccia in termini assoluti” afferma lo studioso di scienze politiche Brendan Nyhan, a capo del gruppo di ricerca nello studio condotto dall’Università del Michigan. Il fenomeno – conosciuto come “ritorno di fiamma” – è “un meccanismo inconscio di difesa che tende a evitare la dissonanza cognitiva” [2].
Queste scoperte allargano l’annosa discussione sull’ignoranza in campo politico dei cittadini statunitensi fino ad arrivare a interrogativi di più ampio respiro sull’interazione tra la natura dell’intelligenza umana e i nostri ideali democratici. Alla maggioranza di noi piace credere che le proprie opinioni si siano distillate col tempo attraverso un esame razionale e ponderato di fatti e idee e che, di conseguenza, le decisioni basate su quelle stesse opinioni non possano che avere il sigillo della correttezza e dell’intelligenza. In realtà, più spesso di quanto siamo disposti ad ammetterlo, ci accade di basare le nostre opinioni sulle nostre convinzioni, che a loro volta possono avere una connessione esile e tormentata con i dati di fatto oggettivi. Al posto di avere i fatti che guidano le convinzioni, si assiste, da parte di queste ultime, alla selezione dei fatti che si scelgono di accettare. Le convinzioni personali possono farci distorcere i fatti in modo che essi si adattino al meglio alle nostre nozioni preconcette o ai nostri pregiudizi. L’effetto peggiore è che le convinzioni possono portarci ad accettare senza alcuno spirito critico la cattiva informazione, solo in quanto quest’ultima le avvalora. Ciò da un lato ci rende ancora più sicuri di avere la verità in tasca e dall’altro diminuisce ulteriormente la probabilità di prestare ascolto a nuove fonti di informazione. È a questo punto che si va a votare.
L’eccesso viene solo amplificato dall’eccesso di informazioni, che offre – fianco a fianco con una quantità senza precedenti di ottima informazione – pettegolezzi incessanti, disinformazione e versioni discutibili della verità. In altre parole, sbagliare non è mai stato più facile, avendo al contempo la fortissima convinzione di essere nel giusto.
“Uomo del posto si professa appassionato difensore di ciò che egli immagina sia la costituzione” recita un recente titolo di testa di Onion. Come la migliore satira, questa maligna, piccola gemma riesce a strappare una risata, subito smorzata dal sentimento nauseato dell’identificazione. Gli ultimi cinquant’anni di studi politologici hanno dimostrato in modo definitivo come alla maggior parte dei cittadini americani difetti persino la conoscenza di base dei meccanismi alla base del funzionamento della nazione [meccanismi intesi in senso economico, politico, energetico N.d.T]. Nel 1996 Larry M. Bartels, dell’Università di Princeton, sostenne come “l’ignoranza politica dell’elettore americano fosse uno dei dati meglio documentati nel campo della scienza politica.”
Questo dato di fatto potrebbe non essere un problema, se isolato dal contesto: la gente non al corrente dei fatti potrebbe semplicemente scegliere di non votare. Ciò che pare succedere, al contrario, è che è proprio la gente male informata (o completamente disinformata) ad avere spesso le convinzioni politiche più salde. Di recente, un esempio lampante di quanto detto è stato rappresentato da uno studio effettuato nel 2000, condotto da James Kuklinski dell’Università dell’Illinois alla Urbana-Campaign [3]. James condusse un importante esperimento in cui a più di 1.000 residenti dell’Illinois furono fatte domande sul welfare – la percentuale del budget federale spesa per i programmi sul welfare, il numero di persone impegnate nel programma, la percentuale di afroamericani beneficiari di tali programmi e il versamento medio. Più della metà degli intervistati indicarono di essere sicuri di aver risposto correttamente. In effetti, solo il 3% dei soggetti aveva risposto correttamente a oltre la metà delle domande. Cosa ancor più sconvolgente, coloro che erano maggiormente sicuri di aver risposto correttamente, erano di gran lunga quelli che meno conoscevano l’argomento (la maggior parte di questi partecipanti espressero punti di vista che suggerivano forti pregiudizi anti-welfare).
Studi di altri ricercatori hanno osservato fenomeni analoghi con riferimento ai settori di istruzione, riforma sanitaria, immigrazione, azioni di promozione delle minoranze, controllo delle armi e altri argomenti che tendono a radicalizzare le opinioni in un tipico scenario bianco o nero. Kuklinski chiama questo tipo di risposta la sindrome del “Sapere di aver ragione” e la considera un “problema potenzialmente terribile” in un sistema democratico. Secondo lo studioso “Ciò implica non solo che la maggioranza della gente opporrà resistenza alla correzione delle proprie convinzioni, ma anche che proprio coloro che avrebbero maggior bisogno di correggerle saranno quelli che avranno meno probabilità di farlo sul serio.”
Cosa sta succedendo? Come è possibile avere opinioni così errate e, al contempo, essere così sicuri di essere nel giusto? Una parte della risposta si trova nel modo in cui il nostro cervello risulta connesso. In generale, la gente tende a cercare la coerenza. C’è un ricco corpus di studi psicologici che dimostra come le persone tendano a interpretare le informazioni prestando contemporaneamente attenzione a rinsaldare i propri punti di vista preesistenti. Se si crede alla verità di una cosa, è più probabile accettare in modo passivo la verità di qualcosa che confermi le nostre convinzioni, proprio mentre si accantonano in modo attivo tutte le informazioni che non vi si conformano. Questo comportamento è noto come “argomentazione stimolata” [“motivated reasoning” nel testo N.d.T.]. Indipendentemente dall’esattezza delle informazioni coerenti [con le nostre convinzioni N.d.T.], le si potrebbero accettare come fatti, conferme alle proprie convinzioni. Ciò ci rende ancora più saldi nelle suddette convinzioni, e rende ancora meno probabile il semplice prendere in considerazioni fatti che le contraddicano.
Una nuova ricerca, pubblicata lo scorso mese sulla rivista Political Behavior, suggerisce come una volta che questi dati di fatto siano stati interiorizzati, diventi estremamente arduo rimuoverli. Nel 2005, nella massa di richieste energiche di mezzi di informazione migliori nell’ambito delle verifiche dei fatti, uno strascico del comportamento dei media durante la guerra in Iraq, Nyhan e un collega escogitarono un esperimento in cui ai partecipanti venivano dati pezzi che scimmiottavano vere notizie, ciascuno dei quali conteneva un’affermazione, falsa al di là del bene e del male eppure assai diffusa, fatta da una figura politica: che in Iraq fossero state trovate armi di distruzione di massa [WMD acronimo di “Weapons of Mass Destruction” nell’originale N.d.T] (in realtà non ce ne erano), che il taglio delle tasse voluto da Bush avesse aumentato le entrate governative (esse in effetti calarono) e che l’amministrazione Bush avesse imposto il bando totale della ricerca sulle cellule staminali (solo alcuni fondi federali furono limitati). Nyhan inserì una rettifica chiara e diretta dopo ogni articolo rimaneggiato, misurando il numero di volte in cui i partecipanti si ricredevano, ovvero il numero di volte in cui una rettifica aderente alla verità aveva presa, funzionava.
Per la maggior parte dei soggetti, la rettifica non sortiva effetto. Coloro che si identificavano come conservatori prestarono fede alla disinformazione sulle armi di distruzione di massa e a quella sulle tasse ancor più fermamente, una volta esposti alla rettifica. Quanto più fortemente i soggetti avevano a cuore l’argomento – un fattore noto come rilievo – più forte era l’effetto di rinforzo [“backfire”, ovvero ritorno di fiamma nell’originale N.d.T.].
Con coloro che si identificavano come liberali, l’effetto fu leggermente diverso: nel leggere l’articolo rettificato sulle cellule staminali, la rettifica non ebbe l’effetto di rinforzo, ma i lettori continuarono a ignorare l’informazione scomoda sulla non totalità delle restrizioni dell’amministrazione Bush.
Non è chiaro ciò che guidi il comportamento – potrebbe variare da un semplice stare sulla difensiva, alla gente con un atteggiamento molto attivo nella difesa delle proprie convinzioni – ma a sentire la netta posizione di Nyhan “È dura essere ottimisti sulla reale efficacia del meccanismo di verifica dell’accuratezza dei fatti.”
Sarebbe rassicurante pensare che i politologi e gli psicologi abbiano escogitato un modo per contrastare il problema, se non fosse che se ne stanno ancora studiando sintomi e modalità. La persistenza delle percezioni erronee in campo politico rimane un campo di ricerca ancora acerbo. “È davvero campato in aria” secondo Nyham.
Ma i ricercatori continuano a lavorarci. Un filone sembra coinvolgere l’autostima. Nyham ha preso parte a uno studio in cui dimostra come un gruppo di persone, una volta messe alla prova con esercizi per aumentare l’autostima, fosse maggiormente in grado di considerare nuove informazioni di un gruppo che non avesse fatto attività pro autostima. In altri termini, se ci si sente bene con se stessi, si ascolta, mentre se ci sente insicuri o minacciati, non lo si farà. Questo risultato spiegherebbe perché i demagoghi traggano beneficio dal fatto di tenere la gente costantemente in agitazione, sotto minaccia. Più la gente si sente minacciata, meno è probabile che presti attenzione a opinioni fuori dal coro e più facilmente si riesce a tenerla sotto controllo.
Ci sono anche casi in cui la franchezza paga. Gli studi sul welfare di Kuklinski suggeriscono come la gente cambierà opinione se la si colpisce “in mezzo agli occhi” con fatti oggettivi, presentati senza mezzi termini, che contraddicano le proprie idee preconcette. Egli chiese a un gruppo di partecipanti quale credessero fosse la percentuale del budget che il governo spendeva e quale fosse la percentuale che, a loro giudizio, dovesse essere spesa in realtà. A un altro gruppo fu posta la medesima domanda, ma a questi ultimi fu immediatamente detta la percentuale effettiva di spesa per il welfare (1%). A questi si chiese, con la percentuale reale ben in mente, quanto il governo avrebbe dovuto spendere. Con nessuna correlazione con la correttezza delle convinzioni prima di ricevere la rettifica, il secondo gruppo ritarò le risposte in modo da riflettere il fatto appena ricevuto [ovvero l’1% dedicato al welfare N.d.T.].
Ad ogni modo, lo studio di Kuklinski coinvolgeva persone che ricevevano informazioni direttamente dai ricercatori, per giunta assai interattivamente. Quando Nyham tentò di trasmettere la rettifica in un modo più vicino a quanto succedeva nel mondo reale, ovvero attraverso un articolo di giornale, si verificava la retroazione di rinforzo [backfire]. Anche se le persone accettavano di buon grado le nuove informazioni, o queste non reggevano a lungo oppure non avevano alcun effetto sulle convinzioni. Nel 2007 John Sides della Università George Washington e Jack Citrin della Università della California a Berkley studiarono se il fornire a persone ingannate informazioni corrette sulla proporzione di immigrati sulla composizione della popolazione USA, avrebbe avuto qualche effetto sui loro punti di vista sull’immigrazione. Non ne ebbe alcuno.
E se si nutre l’opinione – popolare su entrambi i lati dello schieramento politico – che da un punto di vista globale la soluzione si trovi in un maggior livello di istruzione e un più elevato livello di sofisticazione politica degli elettori, bene, è appena l’inizio, non certo la soluzione. Uno studio di Charles Taber e Milton Lodge, effettuato nel 2006 presso l’università Stony Brook, mostrò come i pensatori, politicamente sofisticati, fossero ancora meno aperti a nuove informazioni rispetto a persone meno sofisticate. Queste persone potranno anche essere nel giusto il 90% delle volte, ma la loro presunzione rende quasi impossibile la correzione del restante 10% in cui essi sono clamorosamente in errore. Taber e Lodge trovarono come questo fosse davvero allarmante in quanto i pensatori impegnati e sofisticati sono sempre stati “proprio il genere di persone su cui la teoria democratica fa maggiormente affidamento.”
In un mondo ideale, i cittadini sarebbero in grado di mantenere una vigilanza costante, controllando sia le informazioni ricevute sia il modo in cui i propri cervelli le processano. Ma collocare al giusto posto le notizie prende tempo e sforzi. E una spietata analisi interiore può essere sfibrante, come secoli di filosofi hanno mostrato. I nostri cervelli sono progettati per creare scorciatoie cognitive – inferenze, intuizioni e così via – al fine di evitare proprio quella sorta di disagio che si prova mentre si affronta l’impeto delle informazioni che si ricevono ogni giorno. Senza queste scorciatoie, sarebbero poche le cose a poter essere completate. Sfortunatamente, proprio a causa dell’esistenza di queste scorciatoie, ci si trova facilmente raggirati dalle falsità della politica.
Nyham infine raccomanda un approccio di tipo supply-side [intervenire dal lato dell’offerta di informazioni (supply-side) N.d.T]. Al posto di focalizzarsi su cittadini e consumatori di disinformazione, egli suggerisce di esaminare le fonti. Se si aumenta il “costo in termini di reputazione” delle informazioni scorrette ma irrilevanti, si può scoraggiare la gente dal farlo così spesso. “Così, se si va su ‘Meet the Press’ [4] e si viene presi a martellate per aver detto qualcosa di non corretto” suggerisce Nyham “probabilmente ci si penserà due volte prima di rifarlo.”
Sfortunatamente, questa soluzione basata sulla gogna mediatica sarebbe tanto non plausibile quanto ragionevole. I saccenti politologi dalla lingua sciolta si sono elevati al regno dell’assai remunerativo intrattenimento popolare, mentre le azioni professionali di controllo dei fatti languono nelle segrete del secchionaggio [5]. È facile avere un politico o un esperto che, impassibile, asserisca come George W. Bush abbia ordinato l’11 Settembre o che Barack Obama sia il culmine di una trama cinquantennale ordita dal governo del Kenia per distruggere l’America. Riuscire a fargli provare e mostrare vergogna: è questa la cosa complicata.
NOTE DEL TRADUTTORE
[1] in realtà questo tipo di visione un po’ naif dell’effettivo ruolo degli elettori nel processo decisionale della democrazia è quanto meno sopravvalutata, come ci ricordano gli atti di un qualsiasi governo democratico all’occidentale se messi in relazione con il pensiero effettivo della maggioranza degli elettori e come ci testimoniano le crescenti percentuali di astensioni, schede bianche e nulle.
[2] da Wikipedia. La dissonanza cognitiva è un concetto introdotto da Leon Festinger nel 1957 in psicologia sociale, e ripreso successivamente in ambito clinico da Milton Erickson, per descrivere la situazione di complessa elaborazione cognitiva in cui credenze, nozioni, opinioni esplicitate contemporaneamente nel soggetto in relazione ad un tema si trovano a contrastare funzionalmente tra loro; esempi ne sono la “dissonanza per incoerenza logica”, la dissonanza con le tendenze del comportamento passato, la dissonanza relativa all’ambiente con cui l’individuo si trova ad interagire (dissonanza per costumi culturali). Un individuo che attiva due idee o comportamenti che sono tra loro coerenti, si trova in una situazione emotiva soddisfacente (consonanza cognitiva); al contrario, si verrà a trovare in difficoltà discriminatoria ed elaborativa se le due rappresentazioni sono tra loro contrapposte o divergenti. Questa incoerenza produce appunto una dissonanza cognitiva, che l’individuo cerca automaticamente di eliminare o ridurre a causa del marcato disagio psicologico che essa comporta; questo può portare all’attivazione di vari processi elaborativi, che permettono di compensare la dissonanza. Un’applicazione esemplificativa di tali processi si può avere, ad esempio, quando un soggetto disprezza esplicitamente i ladri, ma compra un oggetto a un prezzo troppo basso per non intuire che sia di provenienza illecita. Secondo Festinger, per ridurre questa contraddizione lo stesso individuo potrà o smettere di disprezzare i ladri (modificando quindi l’atteggiamento), o non acquistare l’oggetto proposto (modificando quindi il comportamento).
[3] da Wikipedia. L’Università dell’Illinois alla Urbana-Champaign è il campus più antico, grande e prestigioso nel sistema universitario dell’Illinois. È una delle scuole più selettive degli Stati Uniti con parecchi dei suoi laureati fra i migliori della nazione. Essa è composta di 18 college e istituti che offrono più di 150 programmi di studio. Inoltre, l’università lavora ad una estensione che serve 2,5 milioni di registranti per anno nello stato dell’Illinois ed oltre. Il campus include 272 edifici principali su di una superficie di 5,90 km² nelle città confinanti della Champaign, dell’Urbana e ha un budget annuale di quasi 1,4 miliardi di dollari.
[4] da wikipedia (ENG). Meet the Press è una trasmissione televisiva settimanale di notizie/interviste prodotta da NBC. È lo show televisivo record per durata nel panorama americano, avendo debuttato il 6 Novembre del 1947. È stato condotto da undici moderatori: quello attuale è David Gregory.
[5] Termine creato per analogia: l’originale inglese è “wonkery”, derivato da “wonk” (secchione) con la desinenza “-ery”, più o meno equivalente alla nostra desinenza “-aggio” o “-ità” quando associata a un aggettivo. Una traduzione alternativa di Wonkery, probabilmente più corretta visto il tono delle metafore del periodo sarebbe potuta essere Secchionopoli o Secchionelandia N.d.T.
Articolo apparso il 14 Luglio 2010 sul Boston Globe, a firma di Joe Keohane, scrittore che vive e lavora a New York.
Titolo originale: “How Facts Backfire”
Fonte: http://www.boston.com
Link
14.07.2010
Traduzione per www.comedonchisciotte.org a cura di PG