Mouse roventi

Google dice no alla IA per la guerra, pace fatta con i dipendenti

Dopo le proteste dei dipendenti Google fa un passo indietro, non userà più l'IA per scopi bellici. Pace fatta.

Giovanni Rispo Autore:

Pubblicato: | Aggiornato:

Sundar Pichai, CEO Google Business Insider

Alla fine Google ha fatto marcia indietro. Sembrerebbe infatti che l’etica abbia avuto la meglio sugli affari di una multinazionale, tra le più potenti del settore. La storia potrebbe essere letta in molti modi, ma il risultato è che Google è stata costretta a stilare un patto con i propri dipendenti per non utilizzare la propria potentissima IA al servizio della guerra.

Quella che sembrava una battaglia persa dall’inizio, oggi invece è una realtà che potrà spingere anche altre compagnie operanti nel settore verso una gestione più etica dell’IA. Un passo gigantesco che merita di essere raccontato e che, si spera, possa porre le basi per un’uso della tecnologia al servizio della pace e non della guerra.

La storia è andata così. Nell’aprile 2017 Google stipula un contratto con il Pentagono per aiutare l’esercito USA a migliorare l’IA dei droni. L’obiettivo pare essere quello di migliorare le capacità dei velivoli di colpire target specifici. Il progetto viene chiamato Maven e quantificato in un contratto da 7,5 miliardi di dollari.

Parete con scritta google
"Don't be Evil - Non essere cattivo", motto di Google

La dirigenza, tuttavia, spiega ai propri dipendenti che Maven non ha lo scopo di armare i droni, né di migliorarne la mira. Tuttavia quando il lavoro sarà finito la tecnologia sarà consegnata ai militari che la potranno usare secondo le proprie esigenze. Da qui l’agitazione dei dipendenti.

Dopo un anno dalla stipula del contratto, 3.100 dipendenti firmano una missiva recapitata ad Alphabet (holding che controlla Google) nella quale si chiede che l’azienda stili e pubblicizzi una sorta di contratto etico nella quale si impegna a non costruire tecnologie belliche. 

Riteniamo che Google non debba occuparsi di guerra. Pertanto chiediamo che Project Maven venga cancellato, e che Google stenda, pubblicizzi e applichi una chiara politica per affermare che né Google e né i suoi appaltatori potranno mai costruire una tecnologia di guerra.

La missiva indirizzata al CEO dell’azienda Sundar Pichai che qualche giorno fa ha riservato un post sul blog di Google per spiegare la situazione e illustrare la politica aziendale in merito alla vicenda.

L’AI non può risolvere ogni problema ma il suo potenziale per migliorare la nostra vita è enorme. Su Google la utilizziamo per rendere i nostri prodotti più utili (come le email prive di spam e più facili da comporre). Oltre ai nostri prodotti, usiamo l’AI per aiutare le persone ad affrontare i problemi urgenti. Una coppia di studenti delle scuole superiori sta costruendo sensori a intelligenza artificiale per prevedere il rischio di incendi. Gli agricoltori la utilizzano per monitorare lo stato di salute delle loro mandrie. I medici stanno iniziando a usare l’AI per aiutare a diagnosticare il cancro e prevenire la cecità. Questi chiari vantaggi sono il motivo per cui Google investe molto nella ricerca e nello sviluppo dell’intelligenza artificiale e rende le tecnologie dell'intelligenza artificiale ampiamente disponibili agli altri attraverso i nostri strumenti e il codice open-source".

Ha scritto il CEO, come riportato anche da Il Sole 24 Ore

Con questo post il CEO tenta di ristabilire la pace tra i suoi dipendenti chiarendo che comunque lo sviluppo dell’IA per l’utilizzo militare non verrà abbandonato ma gli sforzi si concentreranno in settori quali

sicurezza informatica, formazione, reclutamento militare, assistenza sanitaria veterinaria, ricerca e soccorso. 

In risposta alla missiva, inoltre, il CEO stabilisce 7 punti essenziali che guideranno gli obiettivi futuri nello sviluppo dell’intelligenza artificiale.

I punti sono i seguenti:

  1.  Essere socialmente utile.
  2.  Evitare di creare o rafforzare pregiudizi sleali.
  3.  Essere costruito e testato per la sicurezza.
  4.  Essere responsabile nei confronti delle persone
  5.  Incorporare i principi di design della privacy.
  6.  Sostenere elevati standard di eccellenza scientifica.
  7.  Essere reso disponibile per gli usi che si accordano con questi principi.

Morale della favola: Google è stata costretta ad annunciare che alla scadenza del contratto in essere con il Pentagono, prevista per il 2019, questo non verrà rinnovato

Vittoria per l’essere umano?

No, o meglio la battaglia portata avanti e vinta dai dipendenti Google rappresenta solo una piccola parte e l’umanità non può ancora definirsi in salvo. Oltre a Google altre aziende come Microsoft e Amazon sono attualmente al lavoro con il Ministero della difesa USA.

Non ci resta che sperare che il passo indietro di Google sia da esempio per le aziende che attualmente lavorano all’integrazione tra IA e armi da guerra.

Ti è piaciuto questo post? Votalo!

Ti potrebbe interessare anche:

Iscriviti alla newsletter di FlopTV

Riceverai il meglio del nostro peggio anche via email!

Iscrivendoti acconsenti alle condizioni d'uso di FlopTV