Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
Che cosa è successo alla piattaforma di riconoscimento facciale precoce di Intel?
{{{sourceTextContent.subTitle}}}
Ciò che è iniziato come una telecamera di profondità da 2D a 3D si è evoluto per includere il tracking e le funzionalità LiDAR.
{{{sourceTextContent.description}}}
La tecnologia del riconoscimento facciale è una delle grandi tendenze del CES 2020. Non c'è da stupirsi, visto che il mercato del riconoscimento facciale dovrebbe crescere da 5,07 miliardi di dollari nel 2019 a 10,19 miliardi di dollari entro il 2025, secondo Mordor Intelligence. Il mercato dell'hardware è segmentato in sistemi di riconoscimento facciale 2D e 3D e quest'ultimo dovrebbe crescere maggiormente nel prossimo decennio.
Una delle prime piattaforme hardware che avrebbe consentito il riconoscimento facciale è stata la Realsense di Intel. Quando la piattaforma è stata introdotta per la prima volta nel 2015, è stata posizionata come un modo per PC, telefoni cellulari e sistemi robotici per vedere oltre le due dimensioni o il 2D. Il sistema basato su una telecamera intelligente era in grado di percepire la terza dimensione o la percezione della profondità per comprendere meglio gli oggetti nel suo ambiente. Dalla prima introduzione nel 2015, il sistema basato su telecamere è diventato ancora più piccolo nelle dimensioni ma migliore nelle prestazioni grazie ai vantaggi di scala della legge di Moore.
Uno dei motivi della rapida adozione e crescita del sistema è stato il fatto che gli sviluppatori di software avevano libero accesso a tutte le API Realsense. Queste interfacce interagiscono con la telecamera per consentire il tracciamento del movimento, le espressioni facciali - dai sorrisi e accigliamenti agli ammiccamenti - e altro ancora. Il tracciamento dei gesti è stato fornito anche per creare programmi per quei casi in cui gli utenti non potevano realmente toccare lo schermo del display, come quando si utilizza una ricetta di cottura
"I computer cominceranno a vedere il mondo come lo vediamo noi", ha spiegato l'allora CEO di Intel Brian Krzanich alla conferenza della Society for Information Display 2015. "Si concentreranno sui punti chiave di un volto umano invece che sul resto dello sfondo. Quando ciò accade, la faccia non è più un quadrato (forma 2D) ma parte dell'applicazione"
All'epoca, una delle prime aziende ad adottare la tecnologia era JD.com, un distributore cinese di beni di consumo online. JD.com aveva sostituito le sue misurazioni manuali del righello a nastro con le dimensioni del contenitore catturate dalla piattaforma di telecamere RealSense. Questa automazione aveva risparmiato quasi 3 minuti per contenitore nel tempo di misura
All'epoca, il grande problema era quello di passare dal 2D al 3D, dove la terza dimensione significava davvero aggiungere la percezione della profondità. Un esempio di questa dimensione extra è stato dato da Ascending Technology, una società tedesca che ha utilizzato la piattaforma Intel per consentire a un drone in rapido movimento di muoversi rapidamente attraverso una foresta, compresi i movimenti su e giù. Per realizzare questa impresa è stato necessario l'uso di più telecamere e di un processore.
Ora, un rapido passo avanti verso il CES 2020, dove Realsense di Intel si è ulteriormente evoluto in una piattaforma che non solo supporta la percezione della profondità, ma anche il tracking e le applicazioni LiDAR. Il tracciamento viene effettuato con l'aggiunta di due sensori a lenti a occhio di pesce, un'unità di misura inerziale (IMU) e una Intel Movidius Myriad 2 Visual Processing Units (VPU). Le telecamere scansionano le aree circostanti e l'ambiente circostante. Queste scansioni vengono poi utilizzate per costruire una mappa digitale che può essere utilizzata per rilevare le superfici e per simulazioni del mondo reale.
Un'applicazione della percezione della profondità e del tracciamento al CES era per un robot che seguisse il suo proprietario e portasse le cose. Gita, il robot cargo dei costruttori di Vespa, non solo ne ha seguito il proprietario, ma ne ha anche seguito il percorso al piano degli espositori del CES.
LiDAR (Light Detection and Ranging) è stata l'ultima novità della piattaforma Realsense. Le telecamere LiDAR consentono all'elettronica e ai robot di "vedere" e "percepire" l'ambiente. Questa tecnologia di telerilevamento misura la distanza da un bersaglio facendo brillare il bersaglio con una luce laser e misurando poi la luce riflessa. È molto preciso e viene utilizzato nell'industria automobilistica per integrare le telecamere a ultrasuoni e le normali telecamere.
Al CES 2020, una delle applicazioni LiDAR evidenziate è stata una scansione completa, in tempo reale, 3D delle persone. Un'altra applicazione del LiDAR è stato il tracking dello scheletro con il Cubemos Skeletal tracking SDK, che vantava la capacità di integrare il tracking dello scheletro 2D e 3D in un programma con sole 20 righe di codice. L'SDK ha fornito il tracciamento completo del corpo scheletrico di un massimo di 5 persone.
Dal suo rilascio, oltre 5 anni fa, ci sono stati molti concorrenti della piattaforma Intel Realsense, tra cui Google Scale, Forge, ThingWorx Industrial IoT, e molti altri. Una concorrenza così sana attesta il mercato delle piattaforme fotografiche compatte e relativamente poco costose, in grado di percepire la profondità, di tracciare gli oggetti e di utilizzare il LiDAR per la scansione delle forme.