La nuda verità

Norman, al MIT nasce la prima IA "psicopatica" al mondo

E se la ribellione delle macchine non fosse così lontana? E se il malvagio Hal 9000 di Kubrik esistesse davvero? E se un giorno i computer volessero ucciderci tutti? Fortunatamente per il momento ci fanno solo un pensierino.
Norman, l'IA psicopatica incontra Norman Bates di Psycho zeusnews.it

Un team di scienziati del Massachusetts Institute of Technology (MIT) ha costruito una IA psicopatica che si basa su immagini tratte da Reddit.

Battezzata Norman, nome che richiama il terrificante Norman Bates di Alfred Hitchcock,  l'intelligenza artificiale nasce con lo scopo di verificare come le immagini di persone che muoiono in maniera macabra, provenienti da un sottogruppo di Reddit, influenzano la sua prospettiva.

Norman è un particolare tipo di programma IA che può guardare e capire le immagini, allenando così il suo algoritmo e descrivendo ciò che vede per iscritto. Dopo aver addestrato il programma su alcune immagini particolarmente raccapriccianti, gli scienziati del MIT hanno eseguito su Norman il test di Rorschach, la serie di macchie di inchiostro usata dagli psicologi per analizzare la salute mentale e lo stato emotivo dei loro pazienti.

Le risposte di Norman sono state poi confrontate con quelle di una seconda AI che ha usato lo stesso algoritmo di Norman ma è stata addestrata su immagini decisamente più tranquille come uccellini, gatti e persone.

Questa serie di immagini mostra le differenze tra Norman e la seconda intelligenza artificiale:

La visione psicotica dell'IA Normaniflscience.com

L'IA standard ha pensato che questa macchia d'inchiostro rosso e nero rappresentasse "un paio di persone in piedi l'una accanto all'altra".

Norman ha invece risposto "un uomo che salta da una finestra".

L'IA psicopatica del MIT sfida Rorschachiflscience.com

L'IA standard ha interpretato questa macchia d'inchiostro grigia come "una foto in bianco e nero di un guantone da baseball". 

Norman invece "un uomo assassinato con una mitragliatrice alla luce del giorno".

Norman analizza le immagini mortali di redditiflscience.com

L'IA standard pensava che fosse "una foto in bianco e nero di un piccolo uccello".

Norman ha invece ipotizzato "un uomo che viene lanciato in una impastatrice".

Questo risultato dimostra che i dati utilizzati per l'addestramento contano molto di più dell'algoritmo. I ricercatori del MIT affermano

Norman ha sofferto di un'esposizione prolungata agli angoli più bui di Reddit e rappresenta un caso di studio sui pericoli che possono portare alla disfunzione di una intelligenza artificiale  quando utilizza dati distorti nel suo algoritmo di apprendimento automatico.

Il team, che è anche responsabile di Nightmare Machine, la macchina che trasforma le persone in zombie e Shelly, la prima IA in grado di scrivere racconti Horror, ha spiegato però anche che non è del tutto colpa dell'IA o di altri algoritmi simili a Norman perchè le immagini che vengono raccolte da questi programmi sono pur sempre umane.

Forse un giorno le macchine non uccideranno davvero la razza umana, come profetizzano numerosi registi di fantascienza, forse c'è ancora speranza, ma per quanto riguarda Norman, se vuoi puoi aiutarlo a riguadagnare la sua moralità completando il test di Rorschach.

Ti è piaciuto questo post? Votalo!

Ti potrebbe interessare anche:

Iscriviti alla newsletter di FlopTV

Riceverai il meglio del nostro peggio anche via email!

Iscrivendoti acconsenti alle condizioni d'uso di FlopTV