Al suono di Algorithm’n’blue

DONA A COMEDONCHISCIOTTE.ORG PER SOSTENERE UN'INFORMAZIONE LIBERA E INDIPENDENTE:
PAYPAL: Clicca qui

STRIPE: Clicca qui

In alternativa, è possibile effettuare un bonifico bancario (SEPA) utilizzando il nostro conto
Titolare del conto: Come Don Chisciotte
IBAN: BE41 9674 3446 7410
BIC: TRWIBEB1XXX
Causale: Raccolta fondi

DI PEPE ESCOBAR

strategic-culture.org

Tutti viviamo nell’Età dell’Algoritmo

Ecco qui una storia che non solo riassume questa età ma è significativa di come l’ossessione per l’algoritmo può andare per il verso sbagliato.

Tutto è cominciato quando Facebook ha censurato la foto storica della “ragazza del napalm”di Kim Phuch, simbolo universalmente riconosciuto della guerra in Vietnam. La foto era stata pubblicata dallo scrittore norvegese Tom Egeland, il quale voleva cominciare un dibattito sulle “sette fotografie che hanno cambiato il mondo”.

Non solo questa foto è stata cancellata, ma l’account di Egeland e’ stato sospeso.

Aftenposten, il quotidiano norvegese più diffuso, il cui proprietario è il gruppo editoriale Schibsted, ha riportato la notizia, inseme alla foto in questione.

Facebook ha quindi chiesto al giornale di cancellare la foto o di renderla irriconoscibile nella sua edizione online. C’è di più: prima che il giornale potesse rispondere, Facebook aveva già censurato la foto nella pagina FB di Aftenposten.

Il Primo Ministro norvegese Erna Solberg ha protestato sulla sua pagina di Facebook, ed anche lei è stata censurata.

Aftenposten ha quindi sbattuto la storia in prima pagina, insieme ad una lettera aperta al CEO di Facebook, Mark Zuckerberg, a firma del direttore del quotidiano Espen Egil Hansen, accusando Facebook di abuso di potere.

Ci sono volute 24 ore al colosso di Palo Alto per fare marcia indietro e “sbloccare” la pubblicazione.

Una opinione imprigionata in un codice software

Facebook si è dovuta impegnare in un esercizio di controllo del danno di immagine. Questo però non cambia il fatto che la faccenda della “ragazza del napalm” è un classico “dramma algoritmico”, e cioè l’applicazione della cosiddetta intelligenza artificiale nella valutazione dei contenuti.

Facebook, come tutti i giganti che si reggono sul business dei dati, si affida ad un esercito di moderatori impiegati in aziende nel Medio Oriente o Sud Est Asiatico, come Monika Bickert, che lavora per Facebook, ha confermato.

Questi moderatori hanno la capacità di decidere cosa filtrare dal social network sulla base di ciò che altre persone segnalano. Sopra di loro, però, regna un algoritmo al quale spetta la decisione finale.

Non ci vuole un genio per capire che questi moderatori potrebbero non eccellere per competenza culturale, o non essere in grado di analizzare il contenuto secondo le coordinate culturali di altri paesi. Senza menzionare gli algoritmi che sono incapaci di comprendere il contesto culturale e di sicuro non sono programmati per capire categorie come ironia, sarcasmo o metafore culturali.

Gli algoritmi sono letterali. In breve, un algoritmo è una opinione rivestita in codice software.

Malgrado ciò, abbiamo raggiunto lo stadio in cui sono le macchine che decidono cosa debba essere “notizia”. Facebook, ad esempio, si affida esclusivamente ad un algoritmo per decidere quali storie posizionare nella sezione “Trending Topics”.

C’è potenzialmente il vantaggio dato dal fatto che Facebook, Google e Youtube possono immediatamente bloccare video di Daesh o propaganda jihadista di vario genere. Molto presto la tecnologia eGLYPH entrerà in funzione: un sistema simile a Contend ID di Youtube che censura i video che violano i diritti d’autore, usando un processo di “hashing” (una sequenza di lettere e numeri, che identifica unicamente ciascun video, NdT). Ad ogni video o audio identificato come “estremista” verrà assegnato un codice hash unico, permettendo quindi la rimozione automatica di ogni successivo tentativo di caricamento.

E tutto questo quindi ci porta in un territorio molto opaco: il concetto stesso di “estremismo”. E le conseguenze che i sistemi di censura basati su algoritmi hanno su tutti noi.

le WMD: come controllano la nostra vita

Di questo si occupa il recente libro di Cathy O’Neil “Weapons of Math Destruction” (Armi di Distruzione Matematiche, NdT), un manuale tanto essenziale quanto l’aria che respiriamo.

O’Neil ha un pedigree di tutto rispetto: dottorato in Matematica a Harvard, ex professoressa al Barnard College, ex analista di hedge fund prima di riconvertirsi a ricercatrice e blogger per mathbabe.org.

I modelli matematici sono i motori della nostra economia digitale. Questo ha sprinto O’Neil a formulare due conclusioni importanti, che potrebbero far saltare dalla sedia tutti coloro che considerano le macchine come “neutrali”.

1) Le applicazioni, sviluppate con algoritmi matematici, che sono alla base della “Economia dei Dati” sono basate su scelte fatte da esseri umani non infallibili.

2) Questi modelli matematici sono opachi, e il loro funzionamento comprensibile solo ai più “alti sacerdoti” di questa scienza: matematici e informatici. I loro verdetti, anche quando sono errati e dannosi, sono al di sopra di qualunque appello o critica. E tendono a punire i poveri e gli oppressi della nostra società e a rendere i ricchi sempre piu’ ricchi.

Quindi, il libro di O’Neil su i WMD (Weapons of Math Destruction) si concentra nell’analizzare quanto distruttivi sono questi modelli matematici, e come contribuiscono ad accelerare il terremoto sociale in atto.

Più in dettaglio, O’Neil mostra gli effetti distruttivi di questi modelli in vaste aree della economia reale: dal marketing al controllo delle prigioni, senza tralasciare l’industria della finanza, e in special modo tutti gli effetti del dopo-crisi del 2008.

Questi modelli matematici sono per loro natura opachi, e costantemente “ottimizzati” per le masse di consumatori.

La regola d’oro, come sempre, è: segui i soldi. Per dirla con O’Neil:

Per coloro che controllano i WMD, il feedback che si aspettano è: più soldi. I sistemi vengono programmati per incamerare sempre più dati al fine di estrarre più informazioni che portano più profitti

Le vittime, come direbbe Obama con i suoi droni, sono semplici “danni collaterali”.

I paralleli tra il casinò dell’industria della finanza e Big Data sono inevitabili e si nota come O’Neil abbia lavorato in entrambe le industrie.

Silicon Valley segue i soldi. Vediamo gli stessi talenti che escono dalle Università di elite come MIT, Stanford e Princeton avere a medesima ossessione nel fare qualunque cosa sia possibile per incamerare quanti più soldi possibili per l’imprenditore che li assume.

I WMD si occupa solo di “efficienza”. “Giustizia” è un concetto e i computer non capiscono concetti. I programmatori non sanno come codificare i concetti, come abbiamo visto nella storia della “ragazza del napalm”. Inoltre, non sanno come aggiustare gli algoritmi per rispondere a idee come “giustizia”.

Ciò che abbiamo in Facebook è il concetto di “amicizia” che viene misurato in base al numero di “mi piace” e connessioni che uno ha nel proprio profilo. O’Neil riassume il tutto molto efficacemente:

Se pensi ai WMD come ad una fabbrica, ingiustizia è quella roba nera emessa dalle ciminiere. E’ a tutti gli effetti un’emissione nociva”.

Fammi vedere i profitti, adesso

Alla fine, è la Dea dei Mercati che comanda: dà un prezzo all’efficienza, crescita e quantità infinita di profitti.

Anche prima del fattaccio della “ragazza del napalm”, O’Neil aveva sottolineato il punto cruciale che Facebook determina, secondo i suo interessi economici, ciò che ciascuno di noi debba vedere (e imparare) nel social network. Oltre due terzi degli adulti americani ha un profilo Facebook. Circa la metà di loro, secondo una ricerca della Pew Research Center, si affida a Facebook come fonte di notizie, almeno in parte.

La maggioranza degli Americani, senza dimenticare molti dei 1.7 miliardi di utenti nel mondo, ignora il fatto che Facebook manipola il feed delle notizie; la gente crede che il sistema istantaneamente condivida tutto ciò che viene pubblicato con tutta la comunità di amici.

E ciò ci porta , ancora una volta, alla questione chiave delle notizie: aggiustando e riaggiustando costantemente il suo algoritmo al fine di mostrare alla gente cosa vuole l’azienda, Facebook ha tutto cio’ che serve per manipolare il sistema politico. Come O’Neil fa notare: “Facebook, Google, Apple, Amazon, Microsoft hanno una vasta mole di informazioni sulla maggioranza della popolazione mondiale e quindi i mezzi per indirizzarci in ciò che vogliono loro”.

I loro algoritmi, naturalmente, sono strategicamente senza prezzo: il loro più importante segreto commerciale. “Fanno il loro business all’oscuro di questi segreti”.

Nel suo viaggio a Roma (molto pubblicizzato), Mark Zuckerberg ha detto che “Facebook è una azienda high-tech, non una azienda di news”. Non proprio. La faccenda più intrigante della questione della “ragazza del napalm” è proprio nel fatto che Shibsted, l’azienda norvegese proprietaria del quotidiano, sta investendo grosse risorse per creare un nuovo social forum allo scopo di competere con Facebook (chi altri?).

Tenetevi pronti per un’altra nuova guerra sul fronte dei WMD.

 

Pepe Escobar

Fonte: www.strategic-culture.org

Link: http://www.strategic-culture.org/news/2016/09/16/playing-algorithm-blues.html

16.09.2016

 

Traduzione per www.comedonchisciotte.org acura di COLOSSEUM

ISCRIVETEVI AI NOSTRI CANALI
CANALE YOUTUBE: https://www.youtube.com/@ComeDonChisciotte2003
CANALE RUMBLE: https://rumble.com/user/comedonchisciotte
CANALE ODYSEE: https://odysee.com/@ComeDonChisciotte2003

CANALI UFFICIALI TELEGRAM:
Principale - https://t.me/comedonchisciotteorg
Notizie - https://t.me/comedonchisciotte_notizie
Salute - https://t.me/CDCPiuSalute
Video - https://t.me/comedonchisciotte_video

CANALE UFFICIALE WHATSAPP:
Principale - ComeDonChisciotte.org

Potrebbe piacerti anche
Notifica di
2 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
2
0
È il momento di condividere le tue opinionix