L’Intelligenza Artificiale nei programmi UE: rischi e benefici

altalex.com

La risoluzione del 20 gennaio 2021 sull’IA e l’ambizioso progetto europeo

La risoluzione UE sull’IA del 20 gennaio 2021

Nella risoluzione del Parlamento Europeo del 20 gennaio 2021 sull’intelligenza artificiale ed avente ad oggetto “questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale”, si chiede un quadro giuridico comunitario sull’IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare. I deputati chiedono, inoltre, all’UE e agli Stati membri di garantire che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).

Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.

In particolare i deputati europei sottolineano che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo.

L’uso di sistemi d’arma autonomi e letali (LAWS, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati, quindi, ribadiscono la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti “robot assassini”. La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.

L’Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’IA, a fianco dell’ONU e della comunità internazionale.

L’aumento dell’uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso.

Quando l’IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.

Il testo della Risoluzione richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il Parlamento Europeo chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini). I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”. I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.

L’intelligenza artificiale ha un ruolo fondamentale nella trasformazione digitale della società. È difficile immaginare un mondo senza l’utilizzo dell’IA in svariati beni e servizi e molti cambiamenti stanno già avvenendo nel mondo del lavoro, della finanza, della sanità, della sicurezza e dell’agricoltura. L’intelligenza artificiale è un punto centrale nel Green deal europeo e nel rilancio dell’economia post COVID-19.

Il progetto UE sull’IA

Con questa Risoluzione l’UE anticipa un progetto molto ambizioso che è quello di predisporre il primo corpus di norme per gestire le opportunità e i rischi insiti rappresentati dall’IA, concentrandosi su come rafforzare la fiducia dei cittadini nell’intelligenza artificiale. Questo si potrà ottenere gestendo il potenziale impatto dell’IA sui singoli, sulla società e sull’economia e fornendo allo stesso tempo un ambiente in cui ricercatori, sviluppatori e imprese possano crescere e prosperare. La Commissione vuole aumentare a 20 miliardi di euro l’anno gli investimenti privati e pubblici per le tecnologie di IA.

In anticipo sulla proposta della Commissione sull’intelligenza artificiale prevista per inizio 2021, il Parlamento ha costituito la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione europea. Secondo il presidente della commissione AIDA Dragoș Tudorache (Renew, Romania) “L’Europa ha bisogno di sviluppare un’intelligenza artificiale che sia degna di fiducia, in grado di eliminare pregiudizi e discriminazioni e servire il bene comune, di assicurare sviluppo a imprese e industrie oltre a generare benessere economico”.

Il 20 ottobre 2020 il Parlamento ha inoltre adottato tre proposte che precisano come l’UE possa regolamentare l’IA più efficacemente per dare una spinta positiva all’innovazione, agli standard etici e alla fiducia nella tecnologia.

Secondo il Parlamento le norme devono essere incentrate sulla persona. La relazione propone in che modo si possano assicurare sicurezza, trasparenza e presa di responsabilità, come evitare la creazione di pregiudizi e di discriminazioni, stimolare la responsabilità sociale e ambientale e come assicurare il rispetto dei diritti fondamentali. “Il cittadino è al centro di questa proposta”, ha riferito il relatore Ibán García del Blanco (S&D, Spagna) durante una conferenza stampa.

Axel Voss (EPP, Germania) ha spiegato che lo scopo del regime relativo alla responsabilità civile legata all’intelligenza artificiale è quello di costruire fiducia proteggendo i cittadini e incoraggiando l’innovazione dando alle imprese una certezza giuridica. “Non stiamo spingendo per una rivoluzione: dovrebbero esserci norme uniformi per le imprese, la normativa vigente dovrebbe essere tenuta in considerazione”, ha detto.

Per quanto riguarda i diritti di proprietà intellettuale, il Parlamento ha ribadito l’importanza di avere un sistema efficace per un ulteriore sviluppo dell’intelligenza artificiale, tra cui il rilascio di licenze e nuovi processi creativi. Tra i problemi da risolvere c’è anche quello di stabilire a chi appartenga la proprietà intellettuale di qualcosa sviluppato completamente dall’IA, ha detto il relatore Stéphane Séjourné (Renew, Francia).

Il Parlamento, inoltre, sta lavorando su numerose azioni relative ad altri temi in materia di IA:

  • Commissione cultura e istruzione (CULT) – L’IA nell’istruzione, nella cultura e nel settore audiovisivo;
  • Commissione per le libertà civili, la giustizia e gli affari interni (LIBE) – L’uso dell’IA nel diritto penale.

I vantaggi ed i rischi dell’IA

In ambito comunitario, quindi, già da tempo si ritiene di dover fare affidamento nelle potenzialità dell’IA. Difatti la prosperità e la crescita economica dell’Europa sono strettamente legate a come verranno usati i dati e le tecnologie della connessione. L’IA può, quindi, fare una grande differenza nella nostra vita, in positivo o in negativo. Per questo il Parlamento europeo ha istituito una commissione per esaminare l’impatto della tecnologia e ha richiesto una legislazione IA antropocentrica e proiettata verso il futuro.

Tanti sono i vantaggi ed i benefici dell’IA:

  • Per i cittadini. L’intelligenza artificiale potrebbe significare una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. Può anche facilitare l’accesso all’informazione, all’istruzione e alla formazione. Con l’epidemia di COVID-19 l’apprendimento a distanza è diventato una necessità. L’IA aiuta a rendere il posto di lavoro più sicuro, perché il lavoro più pericoloso può essere demandato ai robot, e offrire nuovi posti di lavoro grazie alla crescita delle industrie dell’intelligenza artificiale.
  • Per le imprese. L’intelligenza artificiale può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo. Può infatti offrire percorsi di vendita più fluidi e ottimizzati, migliorare la manutenzione dei macchinari, aumentare sia la produzione che la qualità, migliorare il servizio al cliente e risparmiare energia.
  • Per i servizi pubblici. L’IA applicata ai servizi pubblici può ridurre i costi e offrire nuove opzioni nel trasporto pubblico, nell’istruzione, nella gestione dell’energia e dei rifiuti e migliorare la sostenibilità dei prodotti. Per questo motivo, contribuirebbe a raggiungere gli obiettivi del Green Deal europeo.
  • Per la democrazia. Le verifiche basate sui dati, la prevenzione della disinformazione e degli attacchi informatici e l’accesso a informazioni di qualità possono contribuire a rafforzare la democrazia. Sosterrebbero anche la diversità e l’uguaglianza di opportunità, ad esempio attenuando i pregiudizi in materia di assunzione attraverso l’uso di dati analitici.
  • Per la sicurezza. L’intelligenza artificiale potrà essere usata nella prevenzione dei reati e come ausilio nella giustizia penale, perché permetterebbe di elaborare più velocemente grandi volumi di dati, valutare con più accuratezza i rischi di fuga dei detenuti, prevedere e prevenire crimini e attacchi terroristici. L’IA viene già usata dalle piatteforme online per individuare e rispondere a pratiche illegali o inappropriate in rete. In campo militare, l’intelligenza artificiale potrebbe essere usata per la difesa e le strategie di attacco in caso di crimini informatici o per attaccare obiettivi chiave nella lotta informatica.

Ma molti sono anche i rischi connessi all’intelligenza artificiale:

  • Abuso e sottoutilizzo dell’intelligenza artificiale. Non usare l’intelligenza artificiale in tutto il suo potenziale è un rischio: scarsa attuazione di programmi importanti, come il Green deal europeo, perdita del vantaggio competitivo rispetto ad altre regioni del mondo, stagnazione economica e meno opportunità per tutti. Il sottoutilizzo ha diverse cause, a partire dalla diffidenza del pubblico e delle imprese, fino a infrastrutture carenti, mancanza di iniziativa imprenditoriale, investimenti bassi, frammentazione dei mercati digitali (siccome l’apprendimento automatico dell’IA dipende dai dati, una frammentazione la rende meno efficiente). Ma anche l’abuso è un problema. Ad esempio, non deve essere usate per problemi per cui non è adatta, come per spiegare o risolvere complesse questioni sociali.
  • Responsabilità civile e intelligenza artificiale: di chi è la colpa? Una sfida importante è determinare chi sia responsabile per i danni causati da un dispositivo o servizio azionato dall’intelligenza artificiale: in un incidente in cui è coinvolta un’auto a guida autonoma, i danni devono essere ripagati dal proprietario, dal costruttore o dal programmatore? Se il produttore fosse privo di responsabilità potrebbero non esserci incentivi sufficienti a fornire un prodotto sicuro ed efficiente. Il pubblico potrebbe avere meno fiducia nella tecnologia. Ma allo stesso tempo delle norme troppo severe potrebbero soffocare i tentativi di innovazione.
  • Minacce dell’intelligenza artificiale ai diritti fondamentali e alla democrazia. I risultati prodotti dall’IA dipendono da come viene progettata e da quali dati vengono immessi. Questo processo può essere influenzato intenzionalmente o meno. Ad esempio, alcuni aspetti importanti potrebbero non essere programmati nell’algoritmo o potrebbero essere programmati per riflettere e perpetuare delle distorsioni strutturali. Inoltre, l’uso dei dati e dei numeri per rappresentare una realtà complessa fa sembrare l’IA fattuale, precisa e indipendente anche quando non lo è (il cosiddetto “math-washing”). Ad esempio, se non programmata correttamente, l’IA potrebbe condurre a decisioni riguardo a un’offerta di lavoro, all’offerta di prestiti e anche nei procedimenti penali, influenzate dall’etnia, dal genere, dall’età.
  • Protezione dei dati personali. L’IA può anche minacciare la protezione dei dati e il diritto alla vita privata. Può essere usata, ad esempio, in dispositivi per il riconoscimento facciale o per la profilazione online. Inoltre, è capace di mettere insieme le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza. La minaccia per la democrazia rappresentata dall’intelligenza artificiale passa per l’informazione. È già stata accusata di creare delle “bolle” in rete, dove i contenuti sono presentati in base ai contenuti con cui l’utente ha interagito in passato, invece di creare un ambiente aperto per un dibattito a più voci, inclusivo e accessibile.

Può anche essere usata per creare immagini, video e audio falsi ma estremamente realistici, noti come deepfake, che possono essere usati per truffare, rovinare la reputazione e mettere in dubbio la fiducia nei processi decisionali. Tutto questo rischia di condurre alla polarizzazione del dibattito pubblico e alla manipolazione delle elezioni.

L’intelligenza artificiale potrebbe anche minacciare la libertà di riunione e di protesta, perché potrebbe permettere di rintracciare e profilare individui legati a determinati gruppi o opinioni.

  • L’effetto dell’intelligenza artificiale sul mondo del lavoro. L’uso dell’intelligenza artificiale potrebbe portare alla scomparsa di molti posti di lavoro. Anche se ne verranno creati altri e migliori, è cruciale che ci sia l’adeguata formazione affinché i disoccupati possano accedervi e affinché ci sia una forza lavoro qualificata a lungo termine.
  • Concorrenza. L’accumulo di informazioni potrebbe anche portare a una distorsione della concorrenza, in quanto le parti con maggiori informazioni potrebbero ottenere un vantaggio e cercare di eliminare i concorrenti.
  • I rischi per la sicurezza. Le applicazioni di intelligenza artificiale che sono a contatto o anche integrate del corpo umano possono esser pericolose se mal progettate, utilizzate in modo improprio o hackerate. Un uso non regolamentato dell’intelligenza artificiale negli armamenti potrebbe condurre a una perdita di controllo su armi distruttive.
  • I problemi per la trasparenza. Le disuguaglianze nell’accesso alle informazioni potrebbero essere sfruttate a discapito degli utenti. Ad esempio, sulla base di un comportamento in rete di una persona o di altri dati utilizzati a sua insaputa, un fornitore di servizi può prevedere quanto questa persona sia disposta a pagare per un servizio o una campagna politica può sapere quale messaggio inviarle. Un altro problema di trasparenza è che potrebbe non essere chiaro per l’utente se sta interagendo con una persona o con un sistema di intelligenza artificiale.

Fonte: https://www.altalex.com/documents/news/2021/02/10/intelligenza-artificiale-programmi-ue-rischi-e-benefici?utm_medium=email&utm_source=WKIT_NSL_Altalex-00030863&utm_campaign=WKIT_NSL_AltalexFreeEngagedOnly14.02.2021_LFM&utm_source_system=Eloqua&utm_econtactid=CWOLT000021047315&elqTrackId=fb696671c19b476ea2e41d714fe340f0&elq=b60b141f2eaa492bbd94f705933fc58b&elqaid=65619&elqat=1&elqCampaignId=39211

Pubblicato il 10.02.2021