Floppy

IA, difficile distinguere un nudo da un deserto di sabbia

La polizia londinese è impegnata nel mettere appunto un software per la ricerca automatica di immagini pedopornografiche, l'IA al momento non riesce a distinguere un corpo nudo da un deserto e per questo ha chiesto aiuto ai big della Silicon Valley.

Giovanni Rispo Autore:

Pubblicato: | Aggiornato:

Esempio di un circuito elettronico per l'IA

L’IA potrebbe presto arrivare in aiuto alla polizia londinese nella ricerca di immagini pedo-pornografiche all’interno di dispositivi elettronici sequestrati. Solo lo scorso anno, infatti, la polizia metropolitana di Londra ha filtrato immagini in circa 53 mila dispositivi sequestrati per prove incriminanti.

Attualmente il dipartimento forense digitale della polizia metropolitana di Londra già utilizza un software il cui compito è quello di analizzare il contenuto delle immagini ed estrarre quelle che possono avere come oggetto dei reati. Questa IA è in grado di rilevare armi, droga e soldi ma ha qualche problema nel rilevamento di immagini di nudo.

Come ha affermato Mike Stokes (a capo del dipartimento di forense digitale della polizia londinese) il software andrebbe in confusione con alcuni tipi di immagini come quelle che ritraggono i deserti. Il colore della sabbia, infatti, viene confuso con quello della pelle e questo porterebbe il software a far scattare l’allarme. 

Per affinare le funzionalità dell’IA il dipartimento ha chiesto aiuto ai big della Silicon Valley con lo scopo di poter rendere operativa tale tecnologia nel corso dei prossimi 2-3 anni. Oltre a far fronte alle problematiche già illustrate un altro problema riguarda la capacità di analisi di immagini con una risoluzione sempre più alta. Qui verrebbero in aiuto aziende come Microsoft, Google e Amazon sui cui server il dipartimento londinese sta pensando di trasferire le immagini da analizzare.

Critiche, tuttavia, sarebbero giunte dallo stesso Stokes che valuta la mossa, in un intervento sul The Telegraph, in maniera negativa in quanto i big della Silicon Valley hanno già dimostrato di non essere immuni ad attacchi hacker e le immagini pedopornografiche oggetto di indagini sono materiali altamente sensibili che richiedono il massimo della sicurezza.

Fare da filtro a immagini ritenute “pericolose” non è una novità per l’IA che da tempo viene impiegata dalle piattaforme web con risultati sempre pessimi. Un caso emblematico è sicuramente quello avvenuto nel settembre del 2009 quando lo scrittore norvegese Tom Egeland si vide censurare l’immagine premio Pulitzer di Nick Ut che ritrae una bambina vietnamita fuggire dopo un attacco al napalm che ha distrutto il suo villaggio.

Una bambina nuda che scappa da un villaggio in fiammeNick Ut, Press Assosiation
La celebre foto di Nick UT

La foto fu prima bloccata dall’IA di Facebook per immagini di nudità, successivamente fu valutata negativamente dai moderatori del celebre social network in quanto violazione al divieto di diffusione di immagini di nudi. Solo dopo svariate proteste l’azienda fece un passo indietro e riconobbe lo status di icona storica alla foto. L’immagine, infatti, ebbe l’effetto di accelerare la conclusione della guerra in Vietnam ed è da sempre considerata un caposaldo del giornalismo mondiale.

Fallimento sia per l’IA anche quando supervisionata dall’uomo.

Siamo ancora lontani, quindi, dal mettere appunto un software che possa comprendere le sfumature tra le varie tipologie di immagini. Il ruolo, però, dell’intelligenza artificiale nella ricerca di pedopornografia potrebbe essere cruciale. La visione continua di immagini pedofile, infatti, ha un forte impatto psicologico sui poliziotti impegnati nelle indagini e l’IA potrebbe sollevare l’essere umano da un compito molto gravoso.

Ti è piaciuto questo post? Votalo!

Ti potrebbe interessare anche:

Iscriviti alla newsletter di FlopTV

Riceverai il meglio del nostro peggio anche via email!

Iscrivendoti acconsenti alle condizioni d'uso di FlopTV