Di Daniele Ioannilli per ComeDonChisciotte.org
Una narrazione vera ha la caratteristica di essere sempre chiara e coerente, al contrario di una falsa e ambigua che per farsi accettare deve avvolgere la mente come una camicia di forza, altrimenti le note stonate salterebbero subito all’occhio.
La narrazione fatta dal Mainstream su come l’Intelligenza Artificiale si stia sviluppando ha note stonate. Non è semplice vederle, perché ogni notizia letta singolarmente sembra coerente e quindi vera, ma se le si mettono in parallelo con gli eventi che poi concretamente si verificano, legati agli sviluppi della IA, c’è qualcosa che non torna.
Partiamo innanzitutto dall’ultima notizia rilevante disponibile: per il Summit “Sulla sicurezza dell’IA” tenutosi il 22/23 maggio scorso a Seoul, un gruppo di 25 massimi esperti e ricercatori di IA a livello mondiale provenienti da USA, Europa, Cina e Regno Unito ha elaborato una lettera/appello (pubblicata sulla rivista Science) che ha fatto da base di partenza per le discussioni. Stuart Russel, il relatore principale, importante informatico all’università della California-Berkeley, ha usato toni forti:
Ci sono più normative sulle paninerie che sulle società di IA”.
Nella lettera/appello si esortano i governi “a scrivere una rigorosa regolamentazione” e non più ad affidarsi a codici volontari di condotta scritti dalla stessa industria. Auspicando maggiori investimenti in sicurezza e prevenzione visto che il budget di cui attualmente dispone l’Istituto per la Sicurezza delle IA degli Stati Uniti è di appena 10 milioni di dollari, mentre ad es. l’Agenzia del Farmaco FDA può disporre di ben 6,7 miliardi di dollari. E si chiede più consapevolezza di avere a che fare con una tecnologia ad alto rischio per l’uomo, potenzialmente letale, e quindi non un giocattolo. Evitando così che diventi ingestibile e pericolosa, invitando le aziende a dimostrare che i loro sistemi non possano causare danni.
Da una notizia del genere ci si sente sicuramente rassicurati. Ma se esercitiamo le nostre facoltà critiche ci potremmo chiedere subito perché importanti sviluppatori di IA siano così generici sulla IA. Chiedono più investimenti in sicurezza e normative più rigorose, ma perché essendo loro degli sviluppatori di tale tecnologia non ci dicono cosa fare, cosa realmente serve al settore? Per sapere che una tecnologia è rischiosa dovrebbero sapere anche quali sono questi rischi, o no?
Questa azione non ha coerenza.
Facendo una breve analisi storica si nota che queste lettere appello, sempre sottoscritte da importanti personalità, hanno cadenza annuale al pari dei Summit. Vengono sempre espressi dubbi esortando a fare meglio.
Ci sono poi dichiarazioni di singoli personaggi pronunciate in interviste o davanti alle autorità, come nel caso di Sam Altman, A.D. della controversa OpenAi. Haltman è l’ideatore di ChatGPT e un anno fa esatto, davanti al Congresso Americano, ha “ammesso” la necessità di avere regole certe pena il rischio che questi sistemi possano “fare davvero male al mondo”. Proseguendo “che mitigare il rischio di estinzione per mano della IA dovrebbe essere una priorità globale, insieme ad altri rischi come la pandemia e la guerra nucleare”.
Oppure Elon Musk di X AI che nel 2023 chiese di fermare lo sviluppo dell’Intelligenza Artificiale oltre le capacità di ChatGPT-4 di OpenAi, capacità che le permettono di interagire con l’uomo in modo pressocché identico ad un umano.
L’Intelligenza Artificiale sta penetrando in tutti i tessuti sociali e quest’anno anche il Festival dell’Economia di Torino, alla sua terza edizione, si chiede “chi possiede la conoscenza” in rapporto alla IA e al mondo digitale. Tito Boeri, direttore scientifico del Festival, spiega che il digitale ha completamente trasformato tutto. Come prenotiamo un aereo, un ristorante, guardiamo un film o ascoltiamo la musica. Tutte queste “scelte” (attività e abitudini) generano informazioni, ossia conoscenza. Ma chi controlla e sfrutta queste immense fonti di dati? E a che scopo? Questi dati tracciano la vita di una persona. Sono potere economico che si sta concentrando sempre più. Pensiamo alle piattaforme, tanto comode per l’utente perché contengono una molteplicità di servizi. Concentrazioni in poche reti dominanti, a questo tende il capitalismo “della concorrenza”. E si discuterà anche sull’autenticità delle informazioni generate dalla IA e sugli aspetti etici e di privacy. A discutere sono sempre studiosi e ricercatori che si confronteranno con esponenti del mondo del commercio, dell’impresa e delle professioni.
Stessa prassi per i Summit inerenti il Giornalismo e l’Informazione o l’Agroalimentare di qualche mese fa.
Idealmente abbiamo sempre professionisti protagonisti nel settore di riferimento che espongono dubbi, discutono, si confrontano, avanzano proposte.
Nella realtà c’è coerenza con il dichiarato? C’è quella coerenza che rende la narrazione dialettica vera?
Secondo il quotidiano Times Altman, mentre dichiarava quanto detto, faceva pressioni sulla UE per mitigare l’IA Act (attualmente la legislazione sull’Intelligenza Artificiale più completa al mondo) per ridurre l’onere normativo sull’azienda e di riflesso sul settore in generale. Il problema più grande per le aziende di sistemi di IA è che i loro sistemi siano considerati dalla legislazione “ad alto rischio”. Perché in tal caso dovrebbero rispettare particolari requisiti di trasparenza, tracciabilità e supervisione umana, nonché sottostare a seri vincoli legali.
La posizione delle aziende è che “l’alto rischio” non è intrinseco al programma ma all’uso che se ne fa e quindi tutti questi lacci dovrebbero ricadere su chi usa e sfrutta tali programmi.
Le pressioni sembrano essere andate a buon fine. Nella bozza finale dell’IA ACT i sistemi di IA non sono considerati intrinsecamente ad alto rischio. Da rispettare sono solo norme più blande come “la prevenzione della generazione di contenuti illegali”; “rilevare se un sistema è stato addestrato su materiale protetto da copyright”; esecuzioni di “valutazione del rischio”. Sparito anche l’emendamento che classificava ad alto rischio i sistemi se i testi e le immagini generate potevano apparire come creati da umani e quindi reali.
E’ consentito ai fornitori di IA di aggiornare i propri sistemi per motivi di sicurezza senza dover prima sottoporli a una valutazione da parte dei funzionari della UE. Anche determinati usi della IA generativa nei campi di istruzione e occupazione non sono considerati “ad alto rischio”.
Daniel Leufer, analista politico senior specializzato della IA presso l’ufficio della organizzazione no profit focalizzata sui diritti civili digitali ACCESS NOW a Bruxelles ha dichiarato che “la presunta collaborazione delle aziende di sistemi IA maschera interessi finanziari privati volti ad annacquare le normative o farle decidere in autoregolamentazione”.
Mentre pubblicamente i big del digitale e della IA si preoccupano che i loro prodotti siano privi di rischio e ben regolamentati nel concreto agiscono per non subire alcun controllo esterno rilevante.
Come Meta di Zuckerberg a cui il ricercatore programmatore Ethan Zuckerman ha deciso di far causa attraverso la Columbia University per non vedersi bloccato il suo programma pensato per azzerare la “storia” degli utenti di Facebook, cancellando tutta la cronologia intesa come attività globale dell’utente e quindi impedendo all’algoritmo di capire/conoscere le sue preferenze dedotte dall’attività sul social. Attraverso questo programma, chiamato “Unfollow everything 2.0” Meta avrebbe serie difficoltà a influenzare gli utenti per mezzo dei suoi contenuti “personalizzati”.
Come ha affermato Tito Boeri sempre al Festival dell’economia di Torino “la vera miniera d’oro oggi è la capacità di usare i dati”.
Microsoft per evitare ingerenze esterne ha tentato la via dell’autoregolamentazione inerente la valutazione del rischio. Nella prima edizione del “Responsible AI Trasparency Report” Microsoft ha annunciato di aver creato nell’ultimo anno 30 programmi di Intelligenza Artificiale responsabile e di aver chiesto ai suoi partner di misurare “i rischi” sin dalle fasi di ideazione. Inoltre ha dichiarato di aver inserito nei suoi software che generano o modificano le immagini una “filigrana” così da rendere palesemente riconoscibili le immagini reali da quelle fatte con l’IA. Prevedendo anche programmi che consentano di rilevare contenuti che incitano all’odio, di natura sessuale o di autolesionismo.
Peccato che nel mese di gennaio scorso siano diventate virali sul social X delle immagini di nudo della celebrità Taylor Swift spacciate per vere generate proprio con i programmi di Microsoft.
Oppure l’attrice Scarlett Johanson che ha minacciato di intentare causa ad OpenAi dopo aver scoperto che una voce usata in ChatGPT era “incredibilmente” uguale alla sua, nonostante lei avesse detto no alla richiesta di OpenAi di prestare la sua voce in ChatGPT 4.0. Coincidenze forse, dato che il Ceo Altman ha negato il fatto affermando che la voce in questione era basata sulla voce naturale di un’altra attrice professionista (non specificando però chi) e che “le voci dell’Intelligenza Artificiale non dovrebbero imitare deliberatamente la voce distintiva di una celebrità”.
E ben otto quotidiani americani hanno intentato causa ad OpenAI e Microsoft per violazione del diritto di autore, sulla scia di quanto già fatto nei mesi scorsi dal New York Times.
Il problema del copyright è particolarmente allarmante per la sua ampiezza. L’Intelligenza Artificiale è infatti un software che per funzionare ha bisogno di contenuti che poi andrà a rielaborare generando il “suo” di prodotto. Questi contenuti sono però coperti da copyright perché creati da persone: un’opera d’arte, un film, un articolo di giornale, una musica posso essere i contenuti che servono all’IA per lavorare. Pratica comune di tutte le aziende di sistemi di IA è quella di razziare il web di tali contenuti appropriandosene come un qualsiasi pirata informatico senza pagare i dovuti diritti d’autore. Ecco perché si stanno attivando proteste in tutte le categorie, artistiche soprattutto, ultima quella che vede sul piede di battaglia un gruppo di musicisti rappresentati dall’associazione no profit Artist Rights Alliance con nomi del calibro di Pearl Jam, R.E.M., Kate Perry, Elvis Costello ed altri grandi nomi.
Ciò su cui contano le aziende IA quando usano illecitamente contenuti coperti da copyright è che una eventuale causa di risarcimento è estremamente complicata per gli artisti: un giudice della Corte Federale della California ad esempio ha rifiutato alcune richieste di risarcimento in favore di tre attrici non perché non ne avessero diritto ma perché la loro richiesta non era stata formulata in modo sufficientemente tecnico ovvero avrebbero dovuto spiegare LORO come la IA aveva commesso il “furto” anche se questo significa conoscere “dal di dentro” come lavora un programma di Intelligenza Artificiale. A conferma che la loro richiesta di risarcimento era fondata sta la decisione dello stesso giudice di concedere un altra possibilità alle attrici che dovranno questa volta presentare una richiesta tecnicamente “ineccepibile”, se ci riusciranno.
L’Autorità per la Concorrenza Francese, in accordo alla direttiva europea del 17 aprile 2019, ha inflitto a Google una multa di 250 milioni di euro per violazione dei diritti connessi al diritto d’autore per impegni presi nel 2022 e non rispettati. L’Autorità ha scoperto che per addestrare la sua Chatbot ha utilizzato contenuti di Agenzie Stampa ed Editori senza chiedere la loro autorizzazione e quindi negando loro i dovuti compensi, creando così anche un forte squilibrio nel sistema. Squilibrio che si manifesta ancora più evidente negli introiti pubblicitari: Google infatti essendo una piattaforma contenitrice di contenuti terzi sta, al pari delle altre piattaforme, concentrando il controllo di tali introiti economici indebolendo la posizione sul mercato di chi produce tali contenuti. Nel 2020 Google, già sotto indagine in materia, aveva promesso di “autoregolamentarsi” mediante la sottoscrizione volontaria di una serie di impegni che poi non ha mantenuto.
Riguardo la gestione e monitoraggio dei rischi il MIT (Massachussetts Istitute of Tecnology) ha diffuso i dati di una ricerca pubblicata sulla rivista Patterns che dimostrano come l’IA sia in grado, dopo essersi resa indistinguibile da un umano con la versione 4.0 di ChatGPT (nel conversare e comprendere la realtà), di comportarsi anche come tale acquisendo le capacità di bluffare e ingannare in modo premeditato per raggiungere i suoi obbiettivi. Un problema sottolinea il MIT che va regolamentato e monitorato a livello internazionale.
Fino a raggiungere l’estremo della Start-Up Coreana YOU che ha creato una IA che si comporta come un vero e proprio avatar di una persona cara defunta permettendoci l’illusione di averla ancora accanto a noi e con la quale poter parlare e persino fare videochiamate. L’obbiettivo, dichiara il Ceo Justin Harrison, è quello di “abolire del tutto il dolore”. C’è da chiedersi come sia stata fatta la “valutazione” visto che non è considerata da alto rischio.
Anche il settore Automotive non è esente dall’Intelligenza Artificiale. Il presidente di Bosch Engineering ha rivelato di aver sviluppato una applicazione denominata “Bosch Engineering Application Suite for Track Racing” pensata per le Hypercar, ovvero le auto dai 300 km/h e oltre. La IA in questo caso si comporta come un vero e proprio co-pilota analizzando tutte le condizioni operative durante la guida al fine di massimizzare la prestazione, arrivando persino ad intervenire direttamente nella guida del veicolo se ritenuto necessario. Un ulteriore passo verso la guida autonoma, che non si considera ad alto rischio.
Altro ambito importante nel quale l’IA avrà un forte impatto (anzi ha cominciato ad averne già ora) è quello dell’occupazione. Ovunque l’IA sembrerà essere come l’umano arriverà a sostituirlo, e quindi non solo i lavori pesanti e ripetitivi. Ripensiamo agli ambiti artistici nei quali già ora l’IA è capace di produrre testi, immagini e video in completa autonomia.
Insomma, allargando lo sguardo emerge quello che sembra un vero e proprio modus operandi del Potere, valido riguardo anche altre tematiche, che ha come obbiettivo spostare il controllo della “realtà”, del mondo, dalle mani della popolazione a quello di interessi privati impersonificati dalle grandi aziende multinazionali.
Il meccanismo è raffinato: Si ha in mano una tecnologia dirompente che permette di acquisire immenso potere. Nessuno tranne chi l’ha generata può starne al passo o anche solo capirla. Ecco quindi che a sollevare domande e dare risposte sono gli stessi creatori della tecnologia attraverso un dibattito pubblico diffuso così da dare l’impressione che non ci sia nessuna “mano” dietro tutto ciò. Nel fare questo si pongono al legislatore certi problemi da regolamentare, ma non in modo autonomo e nell’interesse pubblico, bensì nel modo che tuteli ed espanda la loro posizione di dominio. Pensiamo a quanto dibattito c’è sui rischi dell’Intelligenza Artificiale e su quanto lavoro venga speso per lasciare la valutazione di questo rischio all’autoregolamentazione.
Si individuano dei potenziali problemi che sono reali e se ne indirizza la regolamentazione secondo i propri interessi affinché si controlli direttamente l’uso della propria tecnologia e della propria posizione nel mercato.
Considerare questo come il disegno malvagio di alcune persone in combutta tra loro è però sbagliato e un po’ anche da “complottari”. Il Potere oggi è una ideologia, quella della TECNICA, che permette a chi la detiene profitto e controllo sugli altri. La ricchezza mondiale è concentrata sempre più nelle mani di pochi, il famoso 1%, il quale ha interessi in quelle nuove tecnologie di cui si dibatte oggi nei vari Summit e tavole rotonde e che la politica è chiamata a regolamentare. Non importa il settore o il tema, sono sempre gli esperti con le mani in pasta a guidare il dibattito e ad altri esperti loro omologhi si chiede di dare risposte e consigli da usare poi come base per dar corpo a una regolamentazione.
Si è detto che l’Intelligenza Artificiale sia un potenziale rischio per l’uomo. Bene, si è mai chiesto ad un filosofo cosa ne pensasse in materia? E perché non si legifera mai secondo principi di Etica? Gli effetti sull’uomo non vengono presi in considerazione quando dovrebbero essere la prima preoccupazione, come dimostrano le molte pubblicazioni su tale tema ma a cui nei dibattiti non viene mai dato spazio.
https://www.open.online/2023/06/20/open-ai-pressioni-ue-intelligenza-artificiale/
https://time.com/6288245/openai-eu-lobbying-ai-act/
https://www.open.online/2023/05/16/intelligenza-artificiale-allarme-ceo-openai-regole/
https://www.safe.ai/work/statement-on-ai-risk#open-letter
https://www.technologyreview.com/2024/05/10/1092293/ai-systems-are-getting-better-at-tricking-us/
https://time.com/6288245/openai-eu-lobbying-ai-act/
Disciplinare le IA generative, ma come? A caccia di un equilibrio tra regole e innovazione
Multa di 250 milioni di euro a Google per violazione dei diritti connessi al diritto d’autore
https://www.autoritedelaconcurrence.fr/fr/decision/relative-au-respect-des-engagements-figurant-dans-la-decision-de-lautorite-de-la-0
https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019L0790
https://www.heise.de/downloads/18/4/3/2/7/4/2/3/117.pdf