Alan MacLeod
mintpressnews.com
Un team dell’Università di Harrisburg, in Pennsylvania, ha sviluppato un software di riconoscimento facciale computerizzato che, secondo i ricercatori, può prevedere con una precisione dell’80% e “nessun pregiudizio razziale” se una persona diventerà, con tutta probabilità, un criminale, semplicemente analizzando una sua foto. “Automatizzando l’identificazione delle potenziali minacce, senza pregiudizi di sorta, il nostro obiettivo è quello di produrre strumenti per la prevenzione della criminalità, il rispetto delle leggi e l’uso in ambito militare,” hanno dichiarato, asserendo di essere alla ricerca di “partner strategici” con cui collaborare per lo sviluppo del loro prodotto.
Con una preoccupante escalation nella terminologia, il team, nel suo comunicato stampa, passa, nello spazio di una sola frase, dal fare riferimento a quelli che il software riconoscerebbe come “probabili criminali” a “criminali,” manifestando in questo modo tutta la sua fiducia nella frenologia, l’ormai screditata pseudoscienza razzista, che sembrerebbe essere stata aggiornata al 21° secolo.
La reazione del pubblico al progetto è stata tutt’altro che entusiasta, a giudicare dai commenti lasciati su Facebook, del tipo “Le società hanno ‘per secoli’ cercato di promuovere l’idea che ‘criminali si nasce’,” “e questo non è profiling perché …?” e “il 20% viene costantemente pedinato dalla polizia perché ha la ‘faccia da criminale’.” In effetti, la risposta è stata talmente negativa che l’università ha ritirato il comunicato stampa da Internet. Tuttavia, è ancora visibile utilizzando la Internet Wayback Machine.
Mentre il team di ricerca afferma di aver rimosso dal processo decisionale pregiudizi e razzismo, il lasciar decidere ad un algoritmo anonimo, significa che coloro che scrivono i codici e quelli che, in primo luogo, decidono chi possa essere o meno un criminale, certamente hanno i loro pregiudizi. Perché i senzatetto o le persone di colore che “stazionano” sui marciapiedi vengono criminalizzati, ma i senatori e i deputati che votano per le guerre e le operazioni di cambio di regime no? E chi ha maggiori probabilità di essere arrestato? I dirigenti di Wall Street che sniffano cocaina nei loro uffici o gli appartenenti alla classe operaia che fumano marijuana o crack? Più in alto si sta nella scala sociale, più gravi e dannosi diventano i reati, ma diminuiscono le probabilità di un arresto e di una pena detentiva. Le persone di colore hanno maggiori probabilità dei bianchi di essere arrestate per lo stesso crimine e sono anche condannate a pene detentive più lunghe. Inoltre, il software di riconoscimento facciale è noto per non essere in grado di distinguere fra le persone di colore, sollevando ulteriori preoccupazioni.
I dati sulla criminalità sono fortemente influenzati dal fatto che la polizia sceglie chi indagare e a chi dare la priorità. Ad esempio, un recente studio ha scoperto che il 97,5% dei residenti di Brooklyn arrestati per aver infranto le leggi sul distanziamento sociale erano persone di colore. Nel frattempo, un’analisi di 95 milioni infrazioni stradali ha evidenziato che gli agenti di polizia erano molto più propensi a fermare le persone di colore durante il giorno, quando la loro razza poteva essere determinata da lontano. Non appena scendeva il crepuscolo, la disparità diminuiva notevolmente, poiché il “velo dell’oscurità” li proteggeva dalle molestie ingiustificate, secondo i ricercatori. Pertanto, la popolazione dei condannati per vari reati non corrisponde necessariamente alla popolazione che li commette.
Il film di successo del 2002, Minority Report, è ambientato in un mondo futuro, in cui le forze di polizia governative pre-crimine impediscono i reati ancor prima che si verifichino, incarcerando preventivamente i futuri criminali. Anche se fosse accurato, con un tasso di precisione dell’80%, varrebbe la pena di rischiare la creazione di una società distopica in stile Minority Report, dove le persone vengono monitorate e arrestate per pre-reati?
La frenologia, lo studio da tempo abbandonato sulle dimensioni e sulla forma del cranio, ha una lunga e sordida storia di pericolosa pseudoscienza, razzista ed elitaria. Ad esempio, il libro di Cesare Lombroso del 1876, L’uomo delinquente, insegnava agli studenti che grandi mascelle e zigomi alti erano una caratteristica di “criminali, selvaggi e scimmie” ed erano un segno sicuro dell'”amore per le orge e l’irresistibile brama del male fine a se stesso, il desiderio non solo di estinguere la vita nella vittima, ma di mutilare il cadavere, strapparne la carne e bere il suo sangue.” Nel frattempo, gli stupratori hanno quasi sempre le orecchie a sventola, i lineamenti delicati, le labbra tumide e la gobba. Lo stesso Lombroso era stato professore di psichiatria e antropologia criminale e nelle università il suo libro era rimasto per decenni un testo didattico. Per Lombroso, era quasi impossibile che una persona di bell’aspetto potesse commettere un crimine grave.
L’ultimo sviluppo tecnologico dell’Università di Harrisburg sembra essere una “frenologia algoritmica” aggiornata, un riconfezionamento per il 21° secolo di un’idea pericolosa, tanto più degno di nota perché stanno cercando di venderla alle forze dell’ordine come uno strumento imparziale in grado di aiutare la società.
Alan MacLeod
Fonte: mintpressnews.com
Link: https://www.mintpressnews.com/new-facial-recognition-software-predicts-youre-a-criminal-based-on-your-face/267436/
11.05.2020