Facebook cancella 8,7 milioni di foto pedopornografiche grazie ad algoritmo intelligente

di Paolo Travisi

Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto contenenti nudi di minori o comunque allusive allo sfruttamento di bambini. Facebook ha fatto ricorso alle nuove potenzialità dell'intelligenza artificiale per setacciare materiale con nudità infantili e contrastare le reti pericolose di pedofili che si nascondono tra i post della piattaforma.

Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio  settembre. Il sistema d'intelligenza artificiale, creato dall'azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l'algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell'ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.

Parallelamente il sistema è in grado d'individuare anche persone adulte che stanno cercando di adescare minori, perché reiterano un certo tipo di comunicazione: la tecnologia intelligente, che sospetta un atteggiamento inappropriato nei confronti degli utenti minori, segnala l'account agli operatori di Facebook, che se confermano l'analisi preventinva, procedono con blocco e segnalazione alle autorità.

Fino ad oggi, nel 99% dei casi, l'accuratezza dell'algoritmo ha consentito d'individuare immagini sospette prima che avvenisse una segnalazione.
Venerdì 26 Ottobre 2018, 17:22 - Ultimo aggiornamento: 26-10-2018 19:22
© RIPRODUZIONE RISERVATA



COMMENTA LA NOTIZIA
0 di 0 commenti presenti

QUICKMAP