Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Capteur

Une nouvelle méthode de simulation permet aux robots de détecter avec précision les propriétés des objets

Massachusetts Institute of Technology, Cambridge, MA

Grâce à une nouvelle méthode de simulation, les robots peuvent deviner le poids, la douceur et d'autres propriétés physiques d'un objet simplement en le soulevant. (Image : Actualités du MIT/iStock)

Un humain qui débarrasse un grenier d’un grenier peut souvent deviner le contenu d’une boîte simplement en la ramassant et en la secouant, sans avoir besoin de voir ce qu’il y a à l’intérieur. Des chercheurs du MIT, d'Amazon Robotics et de l'Université de la Colombie-Britannique ont appris aux robots à faire quelque chose de similaire.

Ils ont développé une technique qui permet aux robots d’utiliser uniquement des capteurs internes pour connaître le poids, la douceur ou le contenu d’un objet en le soulevant et en le secouant doucement. Grâce à leur méthode, qui ne nécessite pas d'outils de mesure ni de caméras externes, le robot peut deviner avec précision des paramètres tels que la masse d'un objet en quelques secondes.

Cette technique peu coûteuse pourrait être particulièrement utile dans les applications où les caméras pourraient être moins efficaces, comme le tri d'objets dans un sous-sol sombre ou le nettoyage des décombres à l'intérieur d'un bâtiment partiellement effondré après un tremblement de terre.

La clé de leur approche est un processus de simulation qui intègre des modèles du robot et de l'objet pour identifier rapidement les caractéristiques de cet objet lorsque le robot interagit avec lui.

La technique des chercheurs est aussi efficace pour deviner la masse d’un objet que certaines méthodes plus complexes et coûteuses intégrant la vision par ordinateur. De plus, leur approche efficace en matière de données est suffisamment robuste pour gérer de nombreux types de scénarios invisibles.

"Cette idée est générale, et je pense que nous ne faisons qu'effleurer la surface de ce qu'un robot peut apprendre de cette manière. Mon rêve serait que des robots partent dans le monde, touchent des objets et les déplacent dans leur environnement, et découvrent par eux-mêmes les propriétés de tout ce avec quoi ils interagissent", a déclaré Peter Yichen Chen, postdoctorant au MIT et auteur principal d'un article sur cette technique.

La méthode de l’équipe de recherche exploite la proprioception, qui est la capacité d’un humain ou d’un robot à ressentir son mouvement ou sa position dans l’espace. Par exemple, un humain qui soulève un haltère au gymnase peut sentir le poids de cet haltère dans son poignet et son biceps, même s'il tient l'haltère dans sa main. De la même manière, un robot peut « ressentir » la lourdeur d'un objet à travers les multiples articulations de son bras.

"Un humain ne dispose pas de mesures extrêmement précises des angles des articulations de nos doigts ou de la quantité précise de couple que nous appliquons à un objet, mais un robot en a. Nous profitons de ces capacités", a déclaré le co-auteur Chao Liu, postdoctorant au MIT.

Lorsque le robot soulève un objet, le système des chercheurs collecte les signaux des encodeurs articulaires du robot, qui sont des capteurs qui détectent la position de rotation et la vitesse de ses articulations pendant le mouvement.

La plupart des robots ont des encodeurs communs dans les moteurs qui entraînent leurs pièces mobiles, a ajouté Liu. Cela rend leur technique plus rentable que certaines approches, car elle ne nécessite pas de composants supplémentaires tels que des capteurs tactiles ou des systèmes de suivi de la vision.

Pour estimer les propriétés d’un objet lors des interactions robot-objet, leur système s’appuie sur deux modèles :un qui simule le robot et son mouvement et un qui simule la dynamique de l’objet. "Disposer d'un jumeau numérique précis du monde réel est vraiment important pour le succès de notre méthode", a ajouté Chen.

Leur algorithme « surveille » le mouvement du robot et de l’objet lors d’une interaction physique et utilise les données de l’encodeur commun pour travailler en arrière et identifier les propriétés de l’objet. Par exemple, un objet plus lourd se déplacera plus lentement qu'un objet léger si le robot applique la même force.

Ils utilisent une technique appelée simulation différentiable, qui permet à l’algorithme de prédire l’impact de petits changements dans les propriétés d’un objet, comme la masse ou la douceur, sur la position finale de l’articulation du robot. Les chercheurs ont construit leurs simulations à l'aide de la bibliothèque Warp de NVIDIA, un outil de développement open source prenant en charge les simulations différenciables.

Une fois que la simulation différentiable correspond aux mouvements réels du robot, le système a identifié la bonne propriété. L'algorithme peut le faire en quelques secondes et n'a besoin que de voir une trajectoire réelle du robot en mouvement pour effectuer les calculs.

"Techniquement, tant que vous connaissez le modèle de l'objet et comment le robot peut appliquer une force à cet objet, vous devriez être en mesure de déterminer le paramètre que vous souhaitez identifier", a déclaré Liu. Les chercheurs ont utilisé leur méthode pour connaître la masse et la douceur d'un objet, mais leur technique pouvait également déterminer des propriétés telles que le moment d'inertie ou la viscosité d'un fluide à l'intérieur d'un récipient.

De plus, comme leur algorithme n'a pas besoin d'un ensemble de données étendu pour l'entraînement comme certaines méthodes qui s'appuient sur la vision par ordinateur ou des capteurs externes, il ne serait pas aussi susceptible d'échouer lorsqu'il est confronté à des environnements invisibles ou à de nouveaux objets.

À l'avenir, les chercheurs souhaitent essayer de combiner leur méthode avec la vision par ordinateur pour créer une technique de détection multimodale encore plus puissante.

"Ce travail n'essaie pas de remplacer la vision par ordinateur. Les deux méthodes ont leurs avantages et leurs inconvénients. Mais ici, nous avons montré que sans caméra, nous pouvons déjà comprendre certaines de ces propriétés", a déclaré Chen.

Ils souhaitent également explorer des applications avec des systèmes robotiques plus complexes, comme des robots souples, et des objets plus complexes, notamment des liquides ballottés ou des milieux granulaires comme le sable. À long terme, ils espèrent appliquer cette technique pour améliorer l'apprentissage des robots, permettant ainsi aux futurs robots de développer rapidement de nouvelles compétences de manipulation et de s'adapter aux changements de leur environnement.

Pour plus d'informations, contactez Melanie Grados à Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer Javascript pour le visualiser.; 617-253-1682.


Capteur

  1. Quel est le sous-système de véhicule le plus difficile à développer ?
  2. L'alarme auto-alimentée surveille les incendies et l'environnement
  3. Construire le réseau électrique auto-réparateur de demain pour une énergie ininterrompue
  4. Comment les robots apprennent à accrocher des T-shirts :le rôle crucial des données
  5. Sonair lance un capteur ADAR à ultrasons 3D pour améliorer la sécurité dans les environnements homme-robot
  6. ADAS et avancées des véhicules autonomes :principales tendances et innovations – décembre 2024
  7. Capteur de pointe/d'inclinaison sans contact
  8. L'implant neural surveille plusieurs zones cérébrales à la fois
  9. UpFront :résumés techniques d'août 2021