Il voto drogato con soli 6 like

di ​Gilberto Corbellini
Giovedì 22 Marzo 2018, 09:37
4 Minuti di Lettura
Dopo la terza ondata di democratizzazione (iniziata con la Rivoluzione dei Garofani del 1974 in Portogallo e chiusasi nel 1989 con il crollo del muro di Berlino) e il fallimento della quarta (la cosiddetta primavera araba), la marea di libertà e diritti conquistati sta già rifluendo e rifluirà in molti Paesi. Tra le cause, insieme alla crisi economica, ci sono le nuove tecnologie informatiche, che lungi dal migliorare la qualità delle decisioni personali o politiche, stanno facendo prevalere gli impulsi umani ancora tribali (egoismo, massimalismo, rabbia, intolleranza, ottusità e sospetto complottista).

All'indomani dell'elezione di Trump alla presidenza Usa, leggendo in giro per capire come due apparati politici potentissimi come il partito repubblicano e quello democratico si fossero piegati ad argomenti e metodi così lontani dalla tradizione etica della politica statunitense, fui colpito della riflessione di due scienziati sociali i quali già identificavano in Cambridge Analityca il principale artefice di quel successo. La definivano una «macchina di manipolazione degli elettori quasi impenetrabile, che sta rapidamente diventando il nuovo fattore decisivo nelle elezioni in tutto il mondo». Quella «macchina di propaganda armata basata sull'intelligenza artificiale» si fonda su decenni di ricerca psicometrica nel campo della psicologia della personalità. Cioè su conoscenze scientificamente controllate e non sulle opinioni che di regola coltivano i leader politici tradizionali. Lo psicologo Michal Kosiski, che mise a punto l'algoritmo usato da Cambridge Analytica, scopriva nel 2014 che un computer o un'intelligenza artificiale sono in grado di giudicare i tratti di personalità di una persona meglio di altri umani che lo conoscono. Sei like su Facebook consentivano di apprezzare il carattere di una persona, meglio di un collaboratore di quell'individuo. Con settanta like, meglio di un amico. Con centocinquanta meglio dei genitori. Con trecento like l'algoritmo di Kosinski riusciva a prevedere il comportamento di una persona meglio del partner. Andando oltre, l'algoritmo dimostrava di saperne più di quello che pensiamo si conoscere di noi stessi. Cosa sta succedendo?

Sono occorsi secoli di faticosa costruzione dell'opinione pubblica, dai tempi dell'invenzione della stampa, che nel corso del Novecento ha raggiunto livelli di obiettività o rispetto dei fatti o verità mai raggiunti prima nella comunicazione mediatica (non in assoluto ovviamente, ma meglio di sempre).

Oggi è in corso quella decostruzione che piace tanto ai relativisti. Con i risultati che vediamo. Facebook, Twitter, YouTube e gli altri social media sono i nuovi portali di quel pericoloso prodotto sociale che qualcuno chiama coscienza pubblica. A differenza dei media preesistenti, questi non creano i contenuti che diffondono. La comunicazione sociale oggi è caratterizzata dalla capacità del pubblico di parlare a sé stesso attraverso questi canali, senza la mediazione dei professionisti che stanno nelle redazioni e controllano la fondatezza delle notizie/informazioni. I portatori di interesse, che sono stati ignorati dai media del XX secolo oggi possono allearsi, trovare espressione, mobilitarsi, etc. Il contenuto che percola da questi portali proviene molto più da individui che da corporazioni. I mezzi di informazione tradizionali, cioè i giornali, sono diventati solo una fonte di informazioni tra una miriade di altre, e i loro prodotti sono ridotti a bollettini che sono citati, ripetuti, contestati, presi in giro nella turbolenza del flusso magmatico dei social media. Ovvero sono usati dai social per amplificate le falsità che di regola circolano in questi ecosistemi. Se Goebbels ha dimostrato su vasta scala che una bugia ripetuta mille volte diventa una verità, Andreotti aveva spiegato che una smentita è una notizia data due volte. Non c'è scampo. Ai manipolatori basta ripetere instancabilmente la bugia, e chi cerca di smentirli di fatto ne rafforza il messaggio. Esistono numerosi studi che dimostrano che le procedure di fact checking sono in gran parte inefficaci.

L'opinione pubblica, e quindi il processo democratico, può essere ed è sottoposto ad algoritmi scritti per diffondere pregiudizi attraverso reti peer-to-peer. Non ci sono ancora prove sull'efficacia di queste tecniche o che le campagne concertate di disinformazione coordinate dalla psicometria di Cambridge Analytica hanno vinto le elezioni per Trump. Nondimeno, tali operazioni non sono solo possibili, sono una realtà. E sono possibili perché noi siamo più leggibili e prevedibili dai social media e dagli algoritmi di intelligenza artificiale, di quanto crediamo. La tecnologia ci manipola perché anche noi in qualche modo siamo macchine. E le macchine artificiali che stiamo costruendo sono sempre più capaci di apprendere o più intelligenti di noi, anche nel prevedere i nostri comportamenti.

Il nostro smartphone altro non è che uno sterminato questionario psicologico che costantemente compiliamo, ogni volta che lo teniamo acceso e lo usiamo, in modi sia consapevoli sia inconsapevoli. I dati che forniamo saranno utilizzati per nutrirci di informazioni su misura, per convincerci di qualcosa, etc. In un futuro non lontano il contenuto degli avatar di noi stessi che concorriamo a creare artificialmente potrebbe essere così concordante con ciò che sappiamo e crediamo, da non essere distinguibile dal nostro sé autentico. Un professore di giornalismo alla University of British Columbia di fronte alle ossessioni dei politici per le fake news ha commentato: Se pensate che #fakenews sia un problema adesso, aspettate che @facebook costruisca un metaverso. Cioè un mondo virtuale abitato da nostri avatar creati però non da noi, ma da un'intelligenza artificiale.
© RIPRODUZIONE RISERVATA