Home / Attualità / Facciamo la conoscenza di Norman, la prima Intelligenza Artificiale psicopatica al mondo

Facciamo la conoscenza di Norman, la prima Intelligenza Artificiale psicopatica al mondo

DI KAVITA IYER

techworm.net

Quest’Intelligenza Artificiale chiamata Norman è stata addestrata a pensare come uno psicopatico

I ricercatori del Media Lab del MIT (Massachusetts Institute of Technology) hanno sviluppato un’IA (Intelligenza Artificiale), che loro affermano sia la manifestazione dei processi mentali più vicini a quelli “psicopatici”.

I ricercatori hanno soprannominato “Norman” la rete neurale (dal nome di Norman Bates di Hitchcock nel film Psycho degli anni ’60). Stando a quel che si dice, a quanto pare, il cervello computer di Norman ha avuto origine da un insolito processo di addestramento, in cui l’Intelligenza Artificiale è stata distorta dall’esposizione agli “angoli più oscuri di Reddit” durante il suo addestramento iniziale, che in ultima analisi ha determinato lo sviluppo di tendenze di elaborazione psicopatica dei dati. Norman è stato alla fine soprannominato “IA psicopatica”, dopo che i test psicologici hanno rivelato modelli associati a tratti psicopatici negli umani.

I ricercatori descrivono Norman come “un’IA psicotica che soffre di disturbo allucinatorio cronico; donata alla scienza dal MIT Media Laboratory per lo studio dei pericoli dell’Intelligenza Artificiale con qualcosa che è andato storto, se sono utilizzati dati parziali in algoritmi di apprendimento automatico. “Fondamentalmente, il gruppo di lavoro del MIT ha creato Norman come parte di un esperimento, per vedere quale addestramento di IA sui dati “dagli angoli reconditi della rete”, avrebbe avuto in merito alla sua visione del mondo.

Mentre Norman è stato addestrato su immagini inquietanti di morte, selezionate da un gruppo sul sito Web Reddit, un’altra IA “normale” è stata addestrata su immagini più amorevoli di gatti, uccelli e persone, come parte dello stesso studio. Dopo l’esposizione alle immagini, sia a Norman che all’IA regolare, che è in grado di interpretare le immagini, sono stati poi mostrati dei disegni con macchie d’inchiostro ed è stato chiesto cosa vi vedessero.

L’Intelligenza Artificiale è stata sottoposta al test di Rorschach(1) – test con macchie d’inchiostro, usato dagli psicologi per capire e valutare meglio lo stato mentale del paziente, cioè se percepisce il mondo in una luce positiva o negativa.

Mentre la visualizzazione di Norman era continuamente demoralizzante, in quanto vedeva omicidio e violenza in ogni immagine, d’altra parte, l’IA normale vedeva nelle stesse immagini astratte immagini molto più allegre.

Per esempio, quello che l’IA “normale” definiva “un gruppo di uccelli appollaiato su un ramo di un albero”, Norman lo ha considerato un uomo folgorato.

Oppure, quando è stata mostrata una forma astratta, dove l’IA “normale” vede un paio di persone in piedi l’una accanto all’altra, Norman vi vede un uomo che salta da una finestra.
In un’altra, dove un’IA normale ha visto “una foto in bianco e nero di un uccellino”, Norman vi ha visto “un uomo che viene spinto in una macchina impastatrice”.

Il professor Iyad Rahwan, uno dei tre ricercatori che ha sviluppato Norman, ha dichiarato alla BBC: “I dati contano più dell’algoritmo. Ciò evidenzia l’idea che i dati che utilizziamo per addestrare l’Intelligenza Artificiale, si riflettono nel modo in cui l’IA percepisce il mondo e come essa si comporta.”

Secondo i ricercatori, Norman rappresenta un caso di studio sui pericoli dell’Intelligenza Artificiale con qualcosa che è andato storto, quando dati parziali e viziati sono usati negli algoritmi di apprendimento automatico. Di conseguenza, l’IA è parziale quando cerca di capire le situazioni della vita reale. Quindi, sarebbe sbagliato incolpare l’algoritmo, in quanto il set di dati di addestramento, utilizzato per creare l’intelligenza artificiale è altrettanto importante. In parole più semplici, se l’intelligenza artificiale è addestrata su dati dannosi, essa stessa diventerà cattiva.

L’anno scorso, un rapporto affermava che le decisioni di affidamento nei tribunali degli Stati Uniti erano prevenute contro le persone di colore, dal momento che il programma per computer utilizzato dalla corte aveva falle nei dati di training.

 

Kavita  Iyer

Fonte: https://www.techworm.net

Link: https://www.techworm.net/2018/06/norman-first-psychopath-ai.html

05/06/2018

 

Scelto e tradotto per www.comedonchisciotte.org da NICKAL88

 

Nota a cura del traduttore

 

  • In psicologia e psichiatria, il test di Rorschach, così chiamato dal nome del suo creatore Hermann Rorschach (1884-1922), è un noto test psicologico proiettivo utilizzato per l’indagine della personalità. In particolare, fornisce dati utili per quanto riguarda il funzionamento del pensiero, l’esame di realtà, il disagio affettivo e la capacità di rappresentazione corretta di sé e degli altri nelle relazioni.

 

Fonte: https://it.wikipedia.org/wiki/Test_di_Rorschach

Pubblicato da Davide

Un commento

  1. “se l’intelligenza artificiale è addestrata su dati dannosi, essa stessa diventerà cattiva.”

    Quindi addestrare un intelligenza artificiale con dati dannosi (violenza,morte,dolore) MALE,
    se una persona viene cresciuta con gli stessi input VA BENE.

    Le IA sono di fatto una riproduzione di noi stessi, se queste informazioni dannose fanno male a loro che sono macchine a noi tutti secondo voi cosa faranno?
    Veniamo bombardati tutti i giorni h24 che nemmeno ce ne rendiamo più conto.