Algoritmi trasparenti
per governare lo sviluppo

di Antonio Pescapè*

Il 31 marzo scorso, in una intervista su Wired, il presidente francese Emmanuel Macron ha raccontato del programma di investimento nazionale per lo sviluppo dell'Intelligenza Artificiale in Francia. Macron ha illustrato quella che è stata definita la strategia francese sull'Intelligenza Artificiale, un investimento di 1,5 miliardi di euro di fondi pubblici, ed ha parlato dell'importanza della ricerca, dell'etica e dei dati sottolineando come la Francia baserà il suo futuro su questa tecnologia adottando algoritmi trasparenti. Sì, ha sottolineato trasparenti.

L'annuncio di Macron è arrivato pochi giorni prima delle audizioni di Mark Zuckerberg davanti al Congresso degli Stati Uniti, dove il fondatore - e oggi anche CEO e presidente - di Facebook è stato chiamato, a proposito di trasparenza, a riferire sulle policy che Facebook utilizza per la gestione delle informazioni e la protezione dei dati degli utenti della piattaforma di social networking più grande del mondo. L'interesse degli Stati Uniti, dopo lo scandalo Cambridge Analytica, è quello di capire se e come i dati raccolti attraverso Facebook siano stati adoperati da terzi (quali gruppi, aziende o paesi stranieri come la Russia) per influenzare gli elettori americani durante le elezioni presidenziali del 2016.

Elezioni presidenziali che, come sappiamo, sono poi state vinte da Donald Trump che qualche giorno dopo l'audizione di Zuckerberg al Congresso, utilizzando Twitter, comunica alla Russia che è arrivato il momento di preoccuparsi in quanto stava per inviare in Siria missili belli, nuovi e intelligenti. Missili che qualche giorno dopo, alle 3 (ora italiana) del 14 aprile, sono stati lanciati per davvero.

Probabilmente mai prima d'ora, mai prima di questa primavera, abbiamo assistito ad un'agenda politica ed economica mondiale così strettamente legata alle tecnologie digitali.

Tecnologie che per anni sono state considerate solo come strumenti per fare meglio, più velocemente o più economicamente qualcosa che già facevamo prima, ma in modo analogico. Ed è anche per questo motivo che poi sono state considerate qualcosa solo per addetti ai lavori e quindi qualcosa di cui potersi e doversi occupareancora oggiin maniera marginale, in quanto le priorità ed i temi importanti sono altri.

Ed è per questo che l'annuncio del presidente francese segna, a mio avviso, una discontinuità importante. Segna la presa di coscienza europea della centralità delle tecnologie e della necessità di doversene occupare in maniera esplicita e coordinata, per evitare che a guidare lo sviluppo della società sfruttando il vuoto normativo e culturale che solitamente si manifesta alla nascita di nuove tecnologie siano il mercato da solo, interessi o meccanismi poco trasparenti o altro ancora. E parlo di presa di coscienza europea in quanto lo stesso Macron ha auspicato un'azione europea in tal senso, non limitandosi quindi solamente a quanto presentato per la Francia.

E il tema è proprio l'Europa. Europa che può e deve proporre la sua via sulle tecnologie digitali e proporla oggi in un contesto in cui assistiamo a due diverse (ed estreme) evoluzioni: da un lato gli Stati Uniti, dall'altro la Cina. Stati Uniti, dove lo sviluppo di queste tecnologie è stato guidato da un approccio orientato al mercato, senza alcuna forma di controllo e analisi delle implicazioni sociali ed economiche del loro utilizzo e del loro impatto sulla società. Cina dove invece, all'estremo opposto, lo sviluppo è guidato da un approccio pesantemente centralizzato e governativo. E in entrambi i casi, sia chiaro in Cina è palese, negli Stati Uniti potrebbe essere meno evidente ciò è comunque avvenuto con ingenti investimenti pubblici in ricerca e sviluppo. Da un lato quindi un sistema che ha permesso a pochi operatori di mercato di affermarsi e svilupparsi fino a diventare monopolisti e detentori dei dati di milioni di utenti senza praticamente controllo, al punto che alcuni hanno proposto di nazionalizzare Facebook, Google, Amazon, etc. per orientare le attività e gli utilizzi verso un interesse pubblico; dall'altro un unico soggetto governativo che controlla grazie a tecnologie digitali innovative la propria popolazione e lo sviluppo del paese. E che ad esempio, come successo più volte recentemente, utilizza algoritmi di Intelligenza Artificiale per individuare ed arrestare ricercati in mezzo a decine di migliaia di persone (anche sessantamila!) durante eventi come concerti o festival: un Grande Fratello in grado di lavorare su numeri stratosferici. Oppure propone di usare per i propri cittadini il Social Credit System un punteggio individuale calcolato raccogliendo e processando dati dalla popolazione che definisce la loro affidabilità sociale, con evidenti impatti sulla vita lavorativa, civile, e personale di ciascun cittadino e di chi ci si relaziona. E questo, ripeto, in Cina. Non in un episodio di Black Mirror.

Ed è per questo che l'iniziativa di Macron è molto importante. Altri paesi europei dovranno fare altrettanto e l'Europa, insieme, dovrà prendere in mano il timone della discussione sullo sviluppo e sul governo delle tecnologie digitali proponendo un approccio che evidentemente non può che stare nel mezzo rispetto ai due estremi, Stati Uniti e Cina, che sino ad oggi stanno segnando il passo; un passo che gli altri paesi non possono che seguire provando ad adeguarsi. Non è un caso che oggi l'Italia chieda conto (e i danni) a Facebook di quanto successo con lo scandalo Cambridge Analytica e scopre che con soli 57 utenti (256 secondo il Garante per la privacy) che hanno utilizzato l'App thisisyourdigitallife, sono più di 214.000 (molti di più sempre secondo lo stesso Garante) i profili ed i dati di utenti Facebook italiani che sono stati condivisi impropriamente; 214.000 degli 87 milioni totali e non 50 come si era saputo inizialmente, compreso il profilo di Zuckerberg.

E che l'Europa su questi temi sia centrale lo conferma anche il fatto che negli Stati Uniti, al termine delle audizioni di Zuckerberg al Congresso americano, uno dei punti in discussione è proprio l'utilizzo del regolamento generale europeo sulla protezione dei dati (GDPR) anche in America.

E mettere le tecnologie digitali al centro dell'agenda politica dell'Europa è un tema attuale ma lo sarà sempre di più nei mesi a venire. E lo sarà per diversi motivi; motivi economici e politici ma anche per aspetti legati ai nostri diritti ed a temi etici.

E per capirci facciamo solo due esempi di applicazioni dell'Intelligenza Artificiale: riconoscimento facciale e auto a guida autonoma.

Le applicazioni di riconoscimento facciale basate sull'Intelligenza Artificiale stanno raggiungendo risultati incredibili: già da tempo sono stati presentati dei risultati che hanno mostrato come un algoritmo sia molto più bravo di un umano nel dedurre l'orientamento sessuale di una persona semplicemente dall'analisi della foto del viso: l'algoritmo non sbaglia (o sbaglia meno), l'uomo si confonde e non è in grado di dire, osservando solo il viso, se un uomo o una donna siano o meno omosessuali. E già oggi non è difficile immaginare cosa possa accadere - pensando ai diritti civili - se una tecnologia del genere venisse adottata ed utilizzata in modo improprio.

Le auto a guida autonoma sono una realtà, parlare ancora di futuro in questo ambito è ingenuamente anacronistico. E oltre agli aspetti legati, ad esempio, all'impatto di questa tecnologia sulla mobilità delle nostre città o sui lavoratori del settore (autisti di camion e taxi giusto per citarne alcuni), ci sono gli aspetti di sicurezza recentemente venuti alla cronaca dopo l'incidente che ha visto coinvolta un'auto senza conducente di Uber e la tragica morte di una donna che pongono anche questioni etiche complicatissime: cosa dovrà fare un'auto senza conducente, cosa dovrà fare l'algoritmo che la controlla, quando dovrà decidere nell'approssimarsi di una condizione di incidente valutata dallo stesso come potenzialmente mortale per gli occupanti (e l'algoritmo a differenza dell'uomo può farlo in tempi rapidissimi potendo elaborare enormi quantità di dati e tutti gli scenari possibili) se salvaguardare gli occupanti dell'auto oppure una famiglia che cammina a bordo strada o un'altra famiglia con bambini piccoli che nell'auto accanto sta partendo per le tanto agognate vacanze estive? In che modo ed in base a quali criteri la scelta deve essere presa? Vanno definiti i criteri o vanno lasciati al caso? E chi deve definirli: il proprietario dell'auto, la casa automobilistica, la compagnia assicurativa, la collettività, etc.?

Due anni fa, parlando di auto a guida autonoma ad un evento, dissi che avremmo dovuto occuparci sia di tecnologia sia di etica della tecnologia e che avremmo dovuto farlo come comunità (non solo scientifica) per evitare che fosse qualcun altro, mosso da interessi e valori propri, ad occuparsene decidendo automaticamente per noi. E che questo approccio consapevole ed equilibrato non potevamo che intraprenderlo per storia, cultura e competenze noi in Europa.

A distanza di due anni, la penso ancora così. Anzi, ne sono ancora più convinto.

* Università degli Studi di Napoli Federico II
Sabato 28 Aprile 2018, 20:00
© RIPRODUZIONE RISERVATA



COMMENTA LA NOTIZIA
0 di 0 commenti presenti