Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Capteur

Les pipelines basés sur la simulation adaptent les données de formation aux robots adroits

INITIÉ AU Motion Design

PhysicsGen peut multiplier quelques dizaines de démonstrations de réalité virtuelle en près de 3 000 simulations par machine pour des compagnons mécaniques comme les bras et les mains robotiques. (Image :conçue par Alex Shipps/MIT CSAIL, à partir de photos des chercheurs)

Lorsque ChatGPT ou Gemini donnent ce qui semble être une réponse experte à vos questions brûlantes, vous ne réalisez peut-être pas la quantité d'informations sur laquelle ils s'appuient pour donner cette réponse. Comme d'autres modèles d'intelligence artificielle (IA) générative populaires, ces chatbots s'appuient sur des systèmes de base appelés modèles de base qui s'entraînent sur des milliards, voire des milliards, de points de données.

Dans le même esprit, les ingénieurs espèrent construire des modèles de base qui formeront une gamme de robots à de nouvelles compétences telles que ramasser, déplacer et déposer des objets dans des endroits comme les maisons et les usines. Le problème est qu’il est difficile de collecter et de transférer des données pédagogiques entre systèmes robotiques. Vous pouvez enseigner votre système en téléexploitant le matériel étape par étape à l'aide de technologies telles que la réalité virtuelle (VR), mais cela peut prendre beaucoup de temps. La formation sur des vidéos provenant d'Internet est moins instructive, car les clips ne fournissent pas de présentation détaillée des tâches spécialisées pour des robots particuliers.

Une approche basée sur la simulation appelée « PhysicsGen » du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT et de l’Institut de robotique et d’IA personnalise les données d’entraînement des robots pour aider les robots à trouver les mouvements les plus efficaces pour une tâche. Le système peut multiplier quelques dizaines de démonstrations VR en près de 3 000 simulations par machine. Ces instructions de haute qualité sont ensuite mappées aux configurations précises des compagnons mécaniques comme les bras et les mains robotiques.

PhysicsGen crée des données qui se généralisent à des robots et conditionnent spécifiques via un processus en trois étapes. Premièrement, un casque VR suit la façon dont les humains manipulent des objets comme des blocs avec leurs mains. Ces interactions sont simultanément cartographiées dans un simulateur physique 3D, visualisant les points clés de nos mains sous forme de petites sphères qui reflètent nos gestes. Par exemple, si vous retournez un jouet, vous verrez des formes 3D représentant différentes parties de vos mains faisant tourner une version virtuelle de cet objet.

Le pipeline remappe ensuite ces points sur un modèle 3D de la configuration d'une machine spécifique (comme un bras robotique), en les déplaçant vers les « articulations » précises où un système tourne et tourne. Enfin, PhysicsGen utilise l'optimisation de trajectoire (essentiellement simulant les mouvements les plus efficaces pour accomplir une tâche) afin que le robot connaisse les meilleures façons de faire des choses comme repositionner une boîte.

Chaque simulation est un point de données de formation détaillé qui guide un robot à travers les manières potentielles de manipuler des objets. Lorsqu'elle est mise en œuvre dans une politique (le plan d'action suivi par le robot), la machine dispose de différentes manières d'aborder une tâche et peut essayer différents mouvements si l'un d'entre eux ne fonctionne pas.

"Nous créons des données spécifiques aux robots sans avoir besoin que les humains réenregistrent des démonstrations spécialisées pour chaque machine", a déclaré Lujie Yang, titulaire d'un doctorat au MIT. étudiant en génie électrique et informatique et affilié au CSAIL qui est l'auteur principal d'un nouvel article présentant le projet. "Nous augmentons les données de manière autonome et efficace, rendant les instructions de tâches utiles à un plus large éventail de machines."

Générer autant de trajectoires pédagogiques pour les robots pourrait éventuellement aider les ingénieurs à créer un ensemble de données massif pour guider des machines telles que des bras robotiques et des mains adroites. Par exemple, le pipeline pourrait aider deux bras robotiques à collaborer pour récupérer les articles de l'entrepôt et les placer dans les bonnes boîtes pour les livraisons. Le système peut également guider deux robots pour qu'ils travaillent ensemble dans une maison sur des tâches telles que ranger les tasses.

Le potentiel de PhysicsGen s’étend également à la conversion de données conçues pour des robots plus anciens ou pour différents environnements en instructions utiles pour les nouvelles machines. "Bien qu'ils soient collectés pour un type spécifique de robot, nous pouvons faire revivre ces ensembles de données antérieurs pour les rendre plus généralement utiles", a déclaré Yang. PhysicsGen a transformé seulement 24 démonstrations humaines en milliers de démonstrations simulées, aidant ainsi les robots numériques et réels à réorienter les objets.

Yang et ses collègues ont d'abord testé leur pipeline dans une expérience virtuelle dans laquelle une main robotique flottante devait faire tourner un bloc dans une position cible. Le robot numérique a exécuté la tâche avec un taux de précision de 81 % en s'entraînant sur l'ensemble de données massif de PhysicsGen, une amélioration de 60 % par rapport à une ligne de base qui n'avait été apprise que par des démonstrations humaines.

Les chercheurs ont également découvert que PhysicsGen pourrait améliorer la manière dont les bras robotiques virtuels collaborent pour manipuler des objets. Leur système a créé des données d'entraînement supplémentaires qui ont aidé deux paires de robots à accomplir des tâches avec succès jusqu'à 30 % plus souvent qu'une base de référence purement enseignée par l'homme.

Dans une expérience avec une paire de bras robotiques réels, les chercheurs ont observé des améliorations similaires lorsque les machines se sont associées pour retourner une grande boîte dans la position désignée. Lorsque les robots s'écartaient de la trajectoire prévue ou manipulaient mal l'objet, ils étaient capables de récupérer à mi-tâche en référençant des trajectoires alternatives à partir de leur bibliothèque de données pédagogiques.

L'auteur principal Russ Tedrake, professeur Toyota de génie électrique, d'informatique, d'aéronautique, d'astronautique et de génie mécanique au MIT, a déclaré que cette technique de génération de données guidée par imitation combine les atouts de la démonstration humaine avec la puissance des algorithmes de planification des mouvements des robots.

"Même une seule démonstration d'un humain peut rendre le problème de planification de mouvement beaucoup plus facile", a déclaré Tedrake, qui est également vice-président senior des grands modèles de comportement au Toyota Research Institute et chercheur principal du CSAIL. "À l'avenir, peut-être que les modèles de base seront en mesure de fournir ces informations, et ce type de technique de génération de données fournira une sorte de recette post-formation pour ce modèle."

Bientôt, PhysicsGen pourrait s'étendre à une nouvelle frontière :la diversification des tâches qu'une machine peut exécuter. « Nous aimerions utiliser PhysicsGen pour apprendre à un robot à verser de l’eau alors qu’il n’a été formé qu’à ranger la vaisselle, par exemple », explique Yang. "Notre pipeline ne génère pas seulement des mouvements réalisables de manière dynamique pour des tâches familières ; il a également le potentiel de créer une bibliothèque diversifiée d'interactions physiques qui, selon nous, peuvent servir de base pour accomplir des tâches entièrement nouvelles qu'un humain n'a pas démontrées."

La création de nombreuses données de formation largement applicables pourrait éventuellement aider à construire un modèle de base pour les robots, bien que les chercheurs du MIT préviennent qu'il s'agit d'un objectif quelque peu lointain. L'équipe dirigée par le CSAIL étudie comment PhysicsGen peut exploiter de vastes ressources non structurées, comme les vidéos Internet, comme graines pour la simulation. L'objectif :transformer le contenu visuel quotidien en données riches et prêtes à être robotisées qui pourraient apprendre aux machines à effectuer des tâches que personne ne leur a explicitement montrées.

Yang et ses collègues visent également à rendre PhysicsGen encore plus utile pour les robots de formes et de configurations diverses à l'avenir. Pour y parvenir, ils prévoient d'exploiter des ensembles de données avec des démonstrations de vrais robots, capturant la façon dont les articulations robotiques bougent au lieu de celles des humains.

Les chercheurs prévoient également d’intégrer l’apprentissage par renforcement, où un système d’IA apprend par essais et erreurs, pour permettre à PhysicsGen d’élargir son ensemble de données au-delà des exemples fournis par l’homme. Ils peuvent compléter leur pipeline avec des techniques de perception avancées pour aider un robot à percevoir et interpréter visuellement son environnement, permettant ainsi à la machine d'analyser et de s'adapter aux complexités du monde physique.

Pour l’instant, PhysicsGen montre comment l’IA peut nous aider à apprendre à différents robots à manipuler des objets d’une même catégorie, notamment les plus rigides. Le pipeline pourrait bientôt aider les robots à trouver les meilleures façons de manipuler les objets mous (comme les fruits) et les objets déformables (comme l'argile), mais ces interactions ne sont pas encore faciles à simuler.

Source 


Capteur

  1. Capteur tactile souple avec des caractéristiques comparables à celles de la peau pour les robots
  2. Un amplificateur unique pourrait changer la communication optique
  3. L’imagerie 3D haute résolution révèle des défauts de « morsure de souris » à l’échelle atomique dans les semi-conducteurs
  4. Fonctionnement du capteur de son et ses applications
  5. La stratégie avancée de détection tactile améliore la précision du robot dans la détection d'objets
  6. Capteur de position rotatif basé sur RFID
  7. L'intelligence artificielle pour les astronautes surveille les patients à domicile
  8. 5 Ws de la puce volante ailée
  9. Maximiser l’efficacité des tests de fusées et de véhicules volants avec des budgets serrés