giovedì, 22 ottobre 2020

Articoli

Analisi video ad intelligenza artificiale: occhio al tempo di apprendimento

28/09/2020

della Redazione

Sono passati decenni dall’introduzione dei prototipi di motion detection a bordo dei primi videoregistratori, ma la strada verso una videosorveglianza attiva di supporto ai cittadini ed agli operatori è soltanto all’inizio. Negli anni abbiamo assistito al susseguirsi di molteplici tecnologie, sempre più prestazionali e sempre più complesse, con la tendenza e spesso anche l’obiettivo di minimizzare i falsi allarmi, rendendo la gestione degli impianti semplice ed automatizzata. Oggi stiamo affrontando una nuova frontiera dell’analisi video, supportati da una tecnologia innovativa e flessibile e soprattutto in grado di adattarsi rapidamente ad ogni specifica necessità o richiesta proveniente dal mercato.

Abbiamo parlato molto di algoritmi ad intelligenza artificiale, ma poco di hardware a supporto di queste nuove tecnologie: possiamo fare una carrellata?

Risponde Walter Pizzen Electronic Division Director CBC (Europe)

Risparmiandovi noiose digressioni sui processori di nuova generazione, preferisco focalizzarmi sulla tipologia di dispositivi disponibili sul mercato. Uno degli aspetti più sensazionali dell’Intelligenza Artificiale è infatti l’estrema adattabilità ad ogni tipo di supporto, che spazia dalla semplice periferica IP, fino ad arrivare alle piattaforme in cloud distribuite. A seconda dei costruttori, sono infatti disponibili: telecamere IP, videoregistratori NVR/DVR, black-box di interfacciamento, server cloud… Sarà il cliente a dover identificare dove posizionare fisicamente l’intelligenza della propria soluzione, ottimizzando i costi di impianto e quelli di connettività. Ad esempio, l’impiego di moduli black-box consentirà di ridurre l’impatto economico dell’adeguamento di un impianto esistente, evitando la sostituzione di telecamere o videoregistratori.

L’analisi dei contenuti video tradizionale (VCA) richiedeva strumenti più o meno user-friendly per poter effettuare calibrazioni 2D e 3D, attribuendo artificialmente all’algoritmo la capacità di gestire la prospettiva. Negli anni si sono affinati i filtri di rilevamento necessari alle varie applicazioni, definendo alcuni parametri fondamentali che soltanto gli utenti più esperti hanno imparato ad utilizzare, mantenendo comunque alto il rischio di falsi rilevamenti. La nuova generazione di algoritmi, in combinazione ai nuovi processori reperibili sul mercato, ha consentito di uniformare il motore di analisi, personalizzandone l’utilizzo sulle applicazioni già sviluppate, eliminando le lunghe procedure di calibrazione. In pratica un unico motore che non necessita di calibrazione ma che migliora la sua attitudine, imparando dalla propria esperienza. 

Deep Learning, ossia...

Per costruire gli attuali prodotti basati sul deep learning, i produttori mandano in pasto migliaia di immagini ai processori, che “imparano” a discriminare le scene ed i soggetti, non solo per forma e dimensione, ma eseguendo analisi comportamentali ed attitudinali. L’algoritmo è in grado di riconoscere un essere umano, identificando successivamente atteggiamenti aggressivi o fraudolenti, indipendentemente dall’angolo di inquadratura o dalla forma rilevata sulla scena: un uomo viene riconosciuto come tale sia in posizione eretta che accovacciata. L’efficacia di un algoritmo di Intelligenza Artificiale non rappresenta più la capacità di essere parametrizzato, ma l’abilità di auto-apprendere rapidamente, acquisendo sempre meno dati possibili.

Affidabilità plausibile

Teoricamente ogni algoritmo di Intelligenza Artificiale può raggiungere un indice di affidabilità del 100% ipotizzando un periodo di training infinito, ma questo non è ovviamente possibile né economicamente sostenibile. Occorre quindi definire un indice di affidabilità plausibile e verificare quanto rapidamente l’algoritmo sviluppato riesca a raggiungere il livello di prestazione desiderato. Un indice di affidabilità più alto non significa pertanto un algoritmo migliore, in quanto potrebbe nascondere un maggior numero di dati analizzati in fase di apprendimento. La selezione della tecnologia più adeguata diventa fondamentale non solo per minimizzare il numero dei falsi allarmi, ma soprattutto per garantire la massima flessibilità e adattabilità alle nuove richieste del mercato. Verrebbe ora da chiedersi: ma cosa importa quanto tempo impiega il fornitore ad istruire il proprio algoritmo, se l’indice di affidabilità è lo stesso? Le ragioni sono almeno due: 1) in linea di massima, più un algoritmo ha una curva di apprendimento impegnativa, più risorse macchina richiederà per essere performante; 2) più lungo sarà il tempo necessario al costruttore per istruire l’algoritmo, meno reattiva sarà la risposta all’esigenza del mercato.

Serve un esempio?

Un esempio di quanto appena descritto trova riscontro nelle soluzioni sviluppate durante la recente emergenza sanitaria. I prodotti che hanno adottato una tecnologia sufficientemente flessibile hanno potuto differenziare le proprie applicazioni spaziando dal distanziamento sociale, alla misurazione della temperatura corporea, al conteggio presenze, adattandosi rapidamente alle nuove funzioni e garantendo una buona affidabilità. 


maggiori informazioni su:
www.ganzsecurity.it



Tutti gli articoli