Un occhio artificiale per scovare
gli incendi: la rivoluzione di Salerno

Una segnalazione di pericolo realizzata da Ai-Fire, sistema di rilevamento incendi basato su visione artificiale sviluppata da Ai-Tech, spin-off dell'Università di Salerno
di Cristian Fuschetto

Fumi anomali, un principio di rogo, e la telecamera lancia l’allarme. Sì, la telecamera “capisce” quel che sta per succedere e invia una mail di alert con in allegato una serie di immagini associate all’evento incriminato. Si chiama visione artificiale e quella applicata al rilevamento di fumi e fiamme (fire and smoke detective) è una delle sue applicazioni più promettenti. A dettarne le linee di sviluppo in Italia è uno spin-off dell’Università di Salerno, Ai-Tech. «Grazie all’elaborazione delle immagini acquisite da una tradizionale telecamera di sorveglianza – spiega Mario Vento, fondatore dello Spin-off e ordinario di Modelli e Sistemi di Visione Artificiale – la nostra piattaforma consente di rilevare pericoli di incendio sia in ambienti chiusi sia in boschi o parchi grazie a metodologie di pattern recognition ottimizzate per funzionare direttamente a bordo delle telecamere senza l’impiego di alcun server esterno».

Telecamere addestrate alla rilevazione e segnalazione di incendi sono state installate lo scorso anno nel bosco di Capodimonte. I costi di per sé non paiono proibitivi (meno di mille euro per singola postazione) e, a seconda della macchina utilizzata, la distanza di rilevamento può variare da pochi metri a diversi chilometri. Per le aree molto estese ci sono inoltre telecamere che possono “spazzolare” boschi interi inquadrando nel tempo zone diverse. «La tecnologia per riprodurre la visione umana, almeno per questo tipo di esigenze, è matura – prosegue il ricercatore campano - e potrebbe dare un aiuto decisivo nella prevenzione a emergenze come quelle cui stiamo assistendo in questi giorni».
 
 

Donare la vista alle (stupide) macchine
Per molti versi quello della “vista” è il campo che meglio esprime il salto di qualità compiuto dalle macchine grazie all’intelligenza artificiale. Una telecamera di per sé è stupida perché guarda tutto senza tuttavia vedere niente. «Se io fisso una telecamera su un’area boschiva – osserva Vento – avrò senz’altro a mia disposizione un occhio che senza alcuna distrazione mi fa vedere quel che accade, ma di fatto quell’occhio non vede nulla perché non riesce a discriminare gli eventi significativi da quelli che non contano nulla». Gli algoritmi e i sistemi di pattern recognition servono a questo, insegnano alle macchine a ritagliare avvenimenti importanti in uno scenario altrimenti incolore. E’ in questo senso che la sfida della Visione Artificiale sta nel donare letteralmente la vista anche alle macchine.

Dall’università al mercato (e ritorno)
Fondato nel 2010 da Mario Vento insieme ad alcuni colleghi del Mivia Lab (Laboratorio Macchine Intelligenti per il riconoscimento di Video, Immagini e Audio), Ai-Tech ha tradotto sul mercato oltre 20 anni di lavoro nella sperimentazione di settore a livello internazionale. I prodotti sviluppati dallo spin-off testimoniano da sé le potenzialità dell’intelligenza artificiale applicata a sistemi visivi. Si va dalla sorveglianza attraverso il rilevamento di eventi anomali, per esempio urla, spari, intrusioni, permanenza prolungata o affollamento di individui in ambienti chiusi o in aree sensibili come i bancomat, alle soluzioni di business intelligence, ovvero prodotti in grado di raccogliere dati e realizzare elaborazioni statistiche, per esempio, sul flusso di clienti di un centro commerciale nonché sul loro comportamento di acquisto. «I retailer – rivela Alessia Saggese, ricercatore presso il DIe e socio di A.I.  – sono entusiasmati dalla possibilità di trasformare le telecamere in sensori intelligenti, capaci di estrarre informazioni sui clienti, profilarli e quindi offrire a chi si occupa di marketing informazioni preziose sulle strategie da adottare». Si pensi ai monitor che riescono a “vedere” chi hanno di fronte: a un bambino mostreranno la pubblicità di una macchina, a una bimba di una bambola, a un adulto maschio la pubblicità di qualche dopobarba a una donna una linea di profumi o di scarpe. Al netto di stereotipi, a ciascuno il suo.
“Stiamo lavorando molto anche sui sistemi per ambienti ospedalieri e dell’assistenza per anziani – aggiunge la ricercatrice – gli strumenti di analisi sono evoluti al punto da poterci permettere di riconoscere movimenti associabili a eventuali cadute o situazioni di affanno. Quando la telecamere dovesse ravvisare criticità manda immediatamente l’alert ai responsabili della struttura o ai familiari”.

Robot Vision Cup, sfida tra “papere” nel campus salernitano
A trainare ricerca e investimenti nella visione artificiale è tuttavia il sogno diventato realtà delle auto senza conducente. Giganti come Google, Apple e Tesla hanno spinto moltissimo sulle smart cars e di fatto oggi anche le industrie automobilistiche “tradizionali” si stanno mettendo in carreggiata per competere in un mercato che promette di rivoluzionare il nostro stesso modo di concepire la mobilità. Non bisogna guardare molto in là, in Corea del Sud è per esempio già in costruzione una piccola città interamente dedicata alla sperimentazione e allo sviluppo della tecnologia di guida autonoma. Il centro di “K-City” (360 mila metri quadrati) permetterà agli sviluppatori interessati - come i coreani SK Telecom, Naver, Samsung, Hyundai e Kia - di simulare sicurezza il traffico e tutte le possibili condizioni che potrebbero verificarsi nella guida di tutti i giorni. Fatte le debite proporzioni, hanno fatto qualcosa di simile anche nel campus di Salerno.  

Giunta alla settima edizione si è tenuta ieri, lunedì 24 luglio, la Robot Vision Cup: un contest organizzato dal professor Vento insieme al collega Gennaro Percannella in cui tutti gli studenti del corso si sfidano sul campo in prove di visione artificiale. “La gara costituisce parte integrante della prova finale - conclude Vento - è un modo di fare didattica che ci sta dando molte soddisfazioni”.

Quest’anno gli studenti, divisi in sei squadre, si sono misurati in una prova di programmazione di auto senza pilota. Protagonista della competizione, promossa in partnership con il Gruppo Hanwha, una multinazionale specializzata nello sviluppo di telecamere e dispositivi di videosorveglianza, è stato il piccolo Duckiebot, il robot a forma di papera disegnato dal Massachusetts Institute of Technology dotato di “occhi” (una piccola telecamera che inquadra il percorso) e di un cervello artificiale. Gli studenti hanno dovuto programmare il software in modo da permettere a Duckiebot di riconoscere le strade, la segnaletica, gli ostacoli e quindi di rispettare le regole del codice stradale. Ha vinto il team formato da Giuseppe Sirignano, Michele Corbisieri, Ines Sorrentino e Raffaele Siano. Bello anche il nome della squadra scelto dagli studenti, un omaggio a metà tra la paperella del Mit e lo splendido novantenne della divulgazione scientifica italiana: Super Quack.


 
Martedì 25 Luglio 2017, 17:03 - Ultimo aggiornamento: 26-07-2017 00:15
© RIPRODUZIONE RISERVATA