Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#Tendenze
{{{sourceTextContent.title}}}
I ricercatori lanciano 26K+ Object Dataset per aiutare i robot ad imparare le forme
{{{sourceTextContent.subTitle}}}
Il set di dati PartNet include più di 573.000 annotazioni di pezzi a grana fine per un migliore completamento delle attività del robot.
{{{sourceTextContent.description}}}
Se si vuole avere un braccio del robot per aprire lo sportello di un forno a microonde, il robot deve sapere come identificare le parti del forno a microonde e i pulsanti che apriranno lo sportello. A tal fine, un gruppo di ricercatori ha lanciato un set di dati su larga scala con annotazioni gerarchiche a grana fine e a livello di istanza.
Alla Conferenza del 2019 sulla Computer Vision and Pattern Recognition, gli autori Kaichun Mo dell'Università di Stanford e Hao Su, assistente alla UC San Diego, hanno collaborato con Intel AI e Simon Fraser University per introdurre PartNet. Il dataset è costituito da 573.585 annotazioni di parti a grana fine (sottocomponenti identificate visivamente e semanticamente) per 26.271 forme (nuvole di oggetti in 3D) in 24 categorie di oggetti (lampada, porta, tavolo, sedia, ecc.).
"Se vogliamo che l'IA sia in grado di farci una tazza di tè, sono necessari nuovi set di dati di grandi dimensioni per supportare meglio l'addestramento delle applicazioni di IA visiva per analizzare e comprendere oggetti con molti piccoli dettagli o con componenti importanti", hanno dichiarato i ricercatori in un post di un blog. "I set di dati esistenti sulla forma 3D forniscono annotazioni di parte solo su un numero relativamente piccolo di istanze di oggetti o su annotazioni di parte grossolane, ma non gerarchiche, rendendo questi set di dati inadatti per applicazioni che coinvolgono la comprensione di oggetti a livello parziale"
I ricercatori hanno detto che con il dataset, le persone possono iniziare a costruire un ambiente simulato su larga scala pieno di oggetti e di tutte le loro parti, con l'obiettivo di utilizzare il mondo virtuale per insegnare ai robot gli oggetti, le loro parti e come interagire con loro.
"Per esempio, un robot [può imparare] che premendo un pulsante su un microonde si apre la porta del microonde", hanno detto i ricercatori. "Questo ci permetterà di addestrare i robot per completare i comportamenti quotidiani come fanno gli umani, comprendendo tutte le parti e le fasi coinvolte"
I ricercatori hanno fornito un set di dati campione, risultati campione e un video riassuntivo, per coloro che sono interessati a provare PartNet. Potete leggere il giornale completo qui.
Apprendimento collaborativo di rinforzo
Nel corso della conferenza, Intel AI ha anche pubblicato un documento che discute un concetto chiamato Collaborative Evolutionary Reinforcement Learning (CERL), che "combina gradiente politico e metodi di evoluzione per ottimizzare lo sfruttamento/esplorare la sfida" delle tecniche tradizionali di apprendimento del rinforzo.
I metodi RL basati sui gradienti politici, comunemente usati oggi dai ricercatori di IA, possono sfruttare le ricompense per l'apprendimento, ma "soffrono di un'esplorazione limitata e di costosi calcoli dei gradienti", hanno detto i ricercatori. Con l'approccio Evolutionary Algorithm, affronta alcuni dei problemi dei gradienti politici, ma che questo richiede tempi di elaborazione significativi perché i candidati "sono valutati solo alla fine di un episodio completo"
"La dicotomia di base di ML si rivela ancora una volta: la scelta di esplorare il mondo per ottenere maggiori informazioni sacrificando i guadagni a breve termine o di sfruttare lo stato attuale delle conoscenze per migliorare le prestazioni", hanno detto i ricercatori.
Per testare il suo nuovo approccio, i ricercatori hanno utilizzato CERL con il benchmark OpenAI Gym Humanoid, che richiede un modello umanoide 3D per imparare a camminare in avanti il più velocemente possibile senza cadere. Fino a poco tempo fa, i ricercatori dicevano che il parametro Humanoid era irrisolto, perché i robot potevano imparare a camminare, ma non riuscivano a tenere il passo con una camminata sostenuta. Gli autori hanno detto di averlo risolto utilizzando l'approccio CERL, e un altro team di UC Berkeley lo ha risolto con un approccio complementare, ed entrambi i team stanno lavorando per combinare gli approcci.