Signori, qui si parla di noi, e se si parla di noi, allora è pensabile che comincino a temerci, non vi pare? Continuiamo così!
Didi Rankovic – reclaimthenet.org – 13 agosto 2022
Il World Economic Forum (WEF) continua a battere il tamburo sulla necessità di fondere in qualche modo “IA” ed esseri umani, come presunta panacea a praticamente tutti i mali che affliggono la società e l’economia.
Non è mai sicuro se questo portavoce dell’élite di Davos se ne esca con le sue stravaganti “soluzioni” e “proposte” come un modo per rafforzare le narrazioni esistenti o introdurne di nuove; o semplicemente per apparire a chi lo finanzia impegnato a fondo a guadagnarsi la pagnotta.
Tuttavia, eccoci qui, con il WEF che rivolge la sua attenzione a quello che, a quanto pare, è il problema più scottante nella vita di tutti in questo momento.
No, non si tratta dell’inflazione in crescita, dei costi dell’energia e persino della sicurezza alimentare in molte parti del mondo. Per quanto l’organizzazione si dedichi alla globalizzazione, è stranamente sorda a ciò che sta realmente accadendo in tutto il mondo.
E mentre le persone lottano per pagare le bollette e temono l’inverno in arrivo, il WEF parla con noncuranza del “mondo oscuro dei danni online”.
Il gruppo sembra essere impegnato a far quadrare il cerchio della lotta ai troll di Internet, ovvero a risolvere il problema, definito in modo ampio e vago, degli “abusi online”. È quello che ci si aspetta che sia: “abusi sui minori, disinformazione, estremismo e frode”.
Tuttavia, una volta che il lettore si è districato tra le maglie delle cortine fumogene verbali e narrative, il grande risultato dell’articolo pubblicato sul sito web del gruppo è che né i censori umani né la censura derivante dall'”intelligenza artificiale” (in realtà, solo algoritmi di apprendimento automatico) sono più sufficienti.
“Combinando in modo unico la potenza di una tecnologia innovativa, la raccolta di informazioni fuori piattaforma e l’abilità di esperti in materia che comprendono come operano gli attori delle minacce, il rilevamento su scala ridotta degli abusi online può raggiungere una precisione quasi perfetta“, afferma il WEF.
Ma cosa vorrebbe significare tutto ciò?
A un certo punto, verso la fine, il WEF finalmente lo dice (ma ancora non se ne ricava molto senso): invece di affidarsi a quella che in tutto l’articolo viene continuamente ed erroneamente chiamata “IA”, il WEF dice di proporre “un nuovo quadro di riferimento: piuttosto che affidarsi all’IA per rilevare su scala e agli esseri umani per esaminare i casi limite, è fondamentale un approccio basato sull’intelligenza“.
Vale la pena di citare l’intera insalata di bla-bla tecnologico che dovrebbe essere l’argomento di vendita del documento:
“Trasferendo l’intelligenza curata dall’uomo, multilingue e fuori piattaforma in set di apprendimento, l’intelligenza artificiale sarà in grado di rilevare abusi nuovi e sfumati su scala, prima che raggiungano le piattaforme tradizionali. L’integrazione di questo rilevamento automatico più intelligente con l’esperienza umana per esaminare i casi limite e identificare i falsi positivi e negativi, e il trasferimento di questi risultati nei set di addestramento, ci consentirà di creare un’IA con l’intelligenza umana incorporata”.
In questo modo – scrive il WEF – “i team che si occupano di fiducia e sicurezza possono bloccare le minacce online prima che raggiungano gli utenti“.
Cominciamo a discernere l’argomento – una volta convertito in formato “leggibile per gli esseri umani” – come una semplice pressione sui social network affinché inizino a muoversi verso una “censura preventiva”?
E se questo è vero, di che stiamo parlando?
Link: https://reclaimthenet.org/wef-ai-censor-hate-speech-and-misinformation/
Scelto e tradotto (IMC) da Arrigo de Angeli per ComeDonChisciotte