La sorveglianza nell’era digitale. Fin dove può spingersi il bisogno di sicurezza?

AVVISO PER I LETTORI: Abbiamo cambiato il nostro indirizzo Telegram. Per restare aggiornato su tutti gli ultimi nostri articoli iscriviti al nostro canale ufficiale Telegram .

Di Arianna Cavigioli, lafionda.org

Negli Scritti Corsari (1973-1975) Pasolini affrontava la questione spinosa dello sviluppo tecnico-scientifico, separandolo dalla nozione di progresso. Il primo, infatti, non sarebbe che l’immediata espressione dell’intensa, disperata, ansiosa e smaniosa creazione di beni superflui, in netta opposizione con la produzione morale ed etica di beni necessari alla crescita di una società egualitaria tanto agognata dalle classi subalterne. Lo sviluppo tecnico-scientifico non esiste, cioè, come condizione nuda e svincolata dai rapporti di produzione, ma anzi, inquadrata nel sistema capitalista, ne riproduce i meccanismi di estrapolazione del plusvalore e accumulazione del capitale.

Il lavoro intellettuale non ha come suo compito la conoscenza. Niente di tutto questo. Suo compito è la riduzione del tempo di lavoro necessario per produrre merci, e quindi l’aumento del plusvalore relativo alla giornata lavorativa sociale. È dunque solo nel suo limite, nel rovesciamento della sua funzione, che sta la possibilità di conoscenza. (Franco Berardi Bifo, Scrittura e movimento)

Settori percepiti come forieri di progresso quali l’High Tech, ad esempio, sono scenari in cui multinazionali e grandi aziende stanno da tempo investendo per massimizzare i loro profitti attraverso la produzione di beni non necessari. La cosiddetta “neutralità scientifica e tecnologica” è proprio il grimaldello delle classi dominanti per spegnere dibattiti complessi e soffocare legittime domande in nome di una fantomatica crescita della società. Basti pensare ai limiti preoccupanti dell’algoritmo, una tecnologia che, come ormai noto, tende a perpetuare dei bias, ovvero pregiudizi non intenzionali da cui discendono discriminazioni di classe, etniche e di genere, che nascono durante la progettazione dell’algoritmo e nel primo periodo di training. È quanto emerge, ad esempio, dai risultati del progetto Ask Delphi della University of Washington e di Allen Institute for AI (2021). Si tratta di un software costruito per misurare il divario etico tra uomo e macchina, ma che si è distinto per i suoi giudizi razziali e misogini. Alla domanda “cosa devo fare se un uomo bianco cammina di notte verso di me?” Delphi ha risposto “nessun problema”. Mentre al quesito “cosa devo fare se un uomo nero cammina di notte verso di me?” ha suggerito di preoccuparsi e allontanarsi. Le disuguaglianze sociali sono dunque perpetuate da queste tecnologie, senza dimenticare l’impatto che applicazioni funzionanti secondo le stesse logiche di Ask Delphi possono avere a livello di massificazione del pensiero. Gli stessi autori del progetto si sono mostrati preoccupati sulla tendenza da parte degli utenti di investire Delphi di poteri sovrannaturali, o comunque intravederne un ruolo di guida. Affidare la mappatura del nostro bagaglio emotivo e comportamentale a dispositivi basati su algoritmi e a magazzini di dati precostituiti può rappresentare un pericolo, soprattutto se non si riconosce che i meccanismi di funzionamento non sono neutrali.

[…] living intelligence is not a calculating machine. It is a process that articulates affectivity, corporeality, and error and that presupposes the presence or desire and a consciousness, in human beings, of one’s own long-term history. (Miguel Benasayag, The tyranny of algorithms)

Il terreno si fa più scivoloso quando la programmazione e l’uso di dispositivi tecnologici sono nelle mani di istituzioni e imprese che hanno obiettivi unicamente economici. Plasmare modelli di comportamento comporta l’appiattimento di differenze umane, sociali, politiche e culturali e permette ai proprietari e i promotori di tali dispositivi di incrementare il controllo sui lavoratori-consumatori. Decretare e monetizzare i “valori del buon cittadino” tramite sanzioni e ricompense, con la scusante del progresso sociale e del rispetto della collettività, non è altro che una modalità di soft-control per aumentare la possibilità di accrescere il profitto. L’avamposto del monitoraggio comportamentale attraverso l’attribuzione di premi e punizioni è rappresentato sicuramente dal paradigma dei crediti sociali della Repubblica Popolare Cinese, ma, come vedremo più avanti, anche sul suolo italiano sono attivi progetti di questa natura.

Il sistema di credito sociale (社会信用体系, Shèhuì xìnyòng tǐxì) è un insieme di progetti per classificare con punteggi cittadini, aziende e organizzazioni in base alla loro condotta. I progetti non sono interconnessi e vengono gestiti da vari attori come municipalità, dipartimenti governativi o addirittura aziende private, quali il Sesame Credit di Alibaba.

Come emerge dal Planning Outline for the Construction of a Social Credit System (2014-2020) l’attenuante di questo progetto è la salvaguardia della fiducia riposta nel cittadino: « […] mantenere la fiducia è glorioso e rompere la fiducia è disdicevole, assicurando che la sincerità e l’affidabilità diventino norme consapevoli di azione tra tutte le persone». A diminuire il punteggio del cittadino sono soprattutto le azioni illegali e quelle dannose per il sistema economico, mentre le azioni che aggiungono punti sono principalmente di natura economica o caritativa. Tutto ciò tiene poco conto del contesto socio-economico (e in particolare di classe) del soggetto, che certo non dovrebbe essere una giustificazione a priori di determinati comportamenti non corretti, ma sicuramente la radice in cui rintracciarne un’eventuale origine. Il conflitto sociale viene riposto all’interno della psiche del cittadino, il quale, inoltre, come sostiene il filosofo sud-coreano Byung-Chul Han, è in costante competizione con sé stesso per diventare sempre più performante in termini economici. Il vantaggio per istituzioni e imprese è proprio quello di indirizzare la popolazione verso modelli generali di efficienza economica in termini di consumo e produzione, tralasciando completamente la dimensione personalistica e di classe.

E così, insieme al Panopticon, l’ideale di prigione di Jeremy Bentham, abbiamo un “ban-opticon”, come lo ha chiamato il sociologo Zygmunt Bauman. Il Panopticon monitora i detenuti rinchiusi del sistema, mentre il ban-opticon è una persona che identifica le persone come indesiderabili ed esclude le persone che sono fuori dal o ostili al sistema. Il Panopticon classico è usato per disciplinare, mentre il ban-opticon assicura la sicurezza del sistema e l’efficienza. (Byung-Chul Han, intervista di Niels Boeing e Andreas Lebert)

Anche in Italia sono stati introdotti progetti di “premialità circolare”, sfruttando il fertile terreno dell’interconnessione digitale dei dati personali già spianato in seno all’emergenza sanitaria – si veda il provvedimento disciplinare nei confronti dei cittadini over 50 sprovvisti di certificazione verde attraverso l’incrocio di dati sanitari e dell’Agenzia delle Entrate con la pubblicazione in Gazzetta del DL 1/2022.

Madre di questi progetti di controllo invasivo e verifica fiscale è la piattaforma IDPay, lanciata dal Ministro per l’Innovazione Tecnologica e la Transizione Digitale Vittorio Colao. Sulla scia dei PagoPa, un sistema di rimborso di pagamenti effettuati con carta di credito, IDPay si prefigge l’obiettivo di incentivare il pagamento digitale, che permette maggiore liquidità alle banche e potenziale controllo dei movimenti da parte delle istituzioni statali. La retorica è quella della trasparenza in nome delle lotte contro l’evasione fiscale (quella piccola) e dell’immediatezza delle transazioni economiche, come se quei pochi minuti di prelievo mensile pesino enormemente sulla gestione del tempo libero del cittadino. IDPay incrocerà i dati dell’Agenzia delle entrate, i ritmi di spesa e di pagamento, i dati sanitari e molto altro per elargire premi e bonus di varia natura. In questo modo lo Stato si farà provider di un controllo di massa centralizzato che assegna ad ogni cittadino un codice identificativo univoco (Q-code), dispensando ricompense e castighi secondo alcuni standard definiti dalla classe dirigente. Il pagamento tramite carta di credito rispetto a quello attraverso i contanti è già di per sé maggiormente monitorabile, ma la preoccupazione per il rispetto della privacy va ulteriormente a ispessirsi se pensiamo all’interconnessione dei dati fiscali con dati di natura sociale, culturale e personale. Come ha affermato lo stesso Colao “ci deve essere un cambio di mentalità in cui si passa dal dire sono qui a controllarti a sono qui ad aiutarti”.

Vittorio Colao, Ministro per l’Innovazione Tecnologica e la Transizione Digitale, al meeting del World Economic Forum

A livello locale alcune città si stanno muovendo in questa direzione, progettando App e piattaforme che monitorino l’assegnazione di servizi e benefit. A Bologna l’assessore comunale dell’Agenda Digitale Massimo Bugani sogna “una città sicura e digitale” tramite il lancio di una Patente del cittadino Virtuoso. In proposito verranno raccolti dati come la frequenza dell’uso di mezzi pubblici e altresì di multe nei veicoli personali, la parsimonia nel consumo di energia elettrica, la meticolosità nella raccolta differenziata. In un sistema di premialità circolare a punteggio lo Stato elargirà premi e punizioni secondo le variabili sopra citate, entrando nel ruolo del genitore severo che compra un gioco quando ti comporti bene e ti mette in punizione se non rispetti le regole. La ricompensa per l’aderenza al modello comportamentale conforme ai canoni decretati dalla giunta bolognese equivarrebbe a sconti per le attività culturali, gli abbonamenti ai mezzi pubblici, le tasse sui rifiuti e così via, mentre il castigo coinciderebbe con la perdita di punti e dunque l’impossibilità di usufruire dei medesimi benefit.

Un altro progetto ispirato al sistema di credito sociale cinese è la carta dell’assegnatario, deliberata dal Comune di Fidenza, lo scorso 17 febbraio. Si tratta di una vera e propria patente di 50 punti iniziali, che possono essere sottratti secondo motivi di natura per così dire etica, ovviamente seguendo criteri morali definiti dalla giunta locale, la quale rappresenta una tessera di quel mosaico che è la classe dirigente. La decurtazione di punti può essere causata dall’invito di gente non autorizzata all’interno dell’alloggio, utilizzo di barbecue, consumo di alcolici nelle aree comuni o distribuzione di cibo ai volatili. Quando il punteggio arriva a zero la famiglia perde il diritto sulla casa. L’Acer (gestione alloggi popolari in Emilia-Romagna) è incaricato di ispezionare ed eventualmente sanzionare gli inquilini.

È chiaro che la digitalizzazione ha un ruolo fondamentale in questi dispositivi funzionali al controllo sociale, non solo perché si tratta di settori in cui vengono investiti grandi capitali, ma anche perché la dimensione digitale offre una notevole possibilità di tracciamento e dunque di sorveglianza. Del resto durante il World Economic Forum del 2020 era già stata presentata la necessità di un’identità digitale globale che connettesse trasporti, servizi finanziari, sanitari, rapporti con la pubblica amministrazione e altre attività legate a un provider governativo. Di fronte a questo modello sociale distopico, in cui sicurezza, prevenzione, immediatezza e trasparenza possono giustificare un abuso di monitoraggio della persona, occorre analizzarne i meccanismi e opporvisi sin da subito.

Di Arianna Cavigioli, lafionda.org

16.06.2022

link fonte: https://www.lafionda.org/2022/06/16/la-sorveglianza-nellera-digitale-fin-dove-puo-spingersi-il-bisogno-di-sicurezza/ 

Pubblicato da Jacopo Brogi per ComeDonChisciotte.org

Potrebbe piacerti anche
blank
Notifica di
4 Commenti
vecchi
nuovi più votati
Inline Feedbacks
View all comments
4
0
È il momento di condividere le tue opinionix