Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Technologie de l'Internet des objets

Les technologies clés jouent un rôle croissant pour la vision embarquée

La technologie de vision embarquée touchera bientôt presque tous les aspects de notre vie quotidienne, mais quel est le statut de la technologie déjà utilisée ? Quel rôle joue l'IA aujourd'hui ? Que se passe-t-il à la périphérie et dans le cloud ? Ces questions étaient au centre de la table ronde sur le thème tendance « Vision embarquée » au monde embarqué 2021.

Poussée par les progrès des capteurs, des processeurs et des logiciels, la vision embarquée se répand partout, de l'agriculture aux usines, des véhicules autonomes aux sports professionnels. Même la pandémie de Covid-19 a permis d'accélérer son déploiement avec des systèmes de vision utilisés dans des applications telles que la surveillance publique, l'inspection de la santé et de la sécurité.

Vision intégrée activée par l'IA

L'intelligence artificielle (IA) prend de l'ampleur dans les applications de vision embarquée et de traitement d'images, car les développeurs appliquent de plus en plus l'apprentissage en profondeur et les réseaux de neurones pour améliorer la détection et la classification des objets.

Il ne fait aucun doute que l'IA ouvre de nouvelles possibilités, mais les panélistes ont convenu qu'elle doit être plus facile à utiliser. « D'un côté, il y a beaucoup d'avantages du point de vue des clients », a déclaré Olaf Munkelt, directeur général de MVTec Software. « D'un autre côté, la technologie de l'IA est un peu maladroite. Nous devons le rendre plus facile à utiliser, pour permettre aux clients de la vision embarquée d'arriver rapidement au point où ils voient une valeur ajoutée. Cela concerne toutes les étapes du flux de travail des systèmes basés sur l'IA, depuis l'étiquetage des données, l'inspection des données, la gestion des données jusqu'au traitement à l'aide de différentes technologies telles que la segmentation sémantique, la classification et la détection d'anomalies. Munkelt a appelé à une approche intégrée pour permettre aux clients de déployer plus facilement un projet de vision embarquée.

Partageant un point de vue similaire, Fredrik Nilsson, responsable de l'unité commerciale, Machine Vision, chez Sick, a noté que l'IA et l'apprentissage en profondeur ont la capacité de résoudre des tâches difficiles à résoudre avec le traitement d'image conventionnel basé sur des règles. L'apprentissage en profondeur ne remplacera cependant pas le traitement d'image conventionnel. Les deux technologies coexisteront côte à côte « pendant longtemps », a-t-il soutenu. « Il existe certainement des applications où les [algorithmes de traitement d'images] basés sur des règles sont plus applicables que l'apprentissage en profondeur. Nous pouvons voir des solutions hybrides, par exemple, faire de la segmentation d'objets avec un apprentissage en profondeur et appliquer des outils de mesure. »

Une course a lieu du côté du matériel de l'accélérateur d'IA, a déclaré Munkelt. De nombreuses startups proposent en effet un "matériel vraiment intéressant", qui parfois "fonctionne 10 à 20 fois mieux que le matériel GPU existant de fournisseurs établis". Pour l'avenir, il a indiqué à quel point la vitesse deviendrait importante pour le traitement des données d'image. "Tous les membres de notre communauté de vision se penchent sur ces accélérateurs d'IA car ils peuvent apporter un grand avantage."

Que se passe-t-il à la périphérie ? Que se passe-t-il dans le cloud ?

Ces questions, posées au fournisseur de cloud AWS, suggèrent la réponse. À moins que ce ne soit plus subtil qu'on ne le pense.

AWS poursuit deux objectifs en matière de vision intégrée. Le premier, a déclaré Austin Ashe, responsable des partenariats stratégiques OEM, IoT, chez Amazon Web Services (AWS), abaisse la barrière à l'entrée pour les clients souhaitant adopter une vision intégrée pour la première fois ou ceux souhaitant l'étendre et la faire évoluer. . La seconde consiste à « fournir de la valeur au-delà du cas d'utilisation initial ».

« En ce qui concerne l'abaissement de la barrière à l'entrée, nous reconnaissons que 75 % des entreprises prévoient de passer d'une mise en œuvre pilote à une mise en œuvre pleinement opérationnelle au cours des deux à cinq prochaines années. Nous nous positionnons pour orchestrer la périphérie et le cloud d'une manière tout à fait unique. » Il a en outre expliqué :« Edge est extrêmement important lorsqu'il s'agit de la latence, de la bande passante, du coût de transmission des données, voire même de la sécurité et de la sécurité. Ce que le cloud peut faire, c'est abaisser la barrière à l'entrée ici. Nous pouvons surveiller les appareils, qu'il s'agisse d'un appareil ou d'une flotte d'appareils, et fournir des alertes ou des mécanismes en temps réel pour comprendre ce que font ces appareils. Ces appareils, a poursuivi Ashe, peuvent être mis à jour par liaison radio. Ainsi, lors de la gestion de systèmes de vision embarqués à grande échelle, il est possible de prendre un modèle, de l'entraîner dans le cloud, puis de le déployer par liaison radio sur toutes les machines qui en ont besoin.

Les entreprises peuvent ne pas avoir les scientifiques des données ou l'argent pour construire le modèle. Pour Ashe, abaisser la barrière à l'entrée, c'est permettre de prendre dix à douze images d'une anomalie et de les télécharger dans le cloud. « Immédiatement, vous récupérez un modèle de détection d'anomalies qui détecte cette anomalie exacte. Ensuite, vous itérez sur ce modèle, du cloud à la périphérie. »

Lors du monde intégré de cette année, Basler et AWS ont expliqué comment ils comblent le fossé entre la périphérie et le cloud grâce à une collaboration couvrant les services AWS « AWS Panorama » et « Amazon Lookout for Vision ». AWS Panorama est une appliance d'apprentissage automatique (ML) et un SDK qui permet aux clients de prendre des décisions en temps réel pour améliorer les opérations, automatiser la surveillance des tâches d'inspection visuelle, détecter les goulots d'étranglement dans les processus industriels et évaluer la sécurité des travailleurs dans les installations. Amazon Lookout for Vision est un service de ML qui détecte les défauts et les anomalies dans les représentations visuelles à l'aide de la vision par ordinateur.

Lorsqu'on lui a demandé si la vision intégrée pouvait résoudre les tâches urgentes dans le cloud, Ashe a déclaré qu'il y aurait de plus en plus d'utilisation de la périphérie, car les applications doivent être rapprochées de l'utilisateur et de l'expérience. « Partout où il y a des exigences de latence, la périphérie sera la priorité numéro un, mais si vous considérez certains des réseaux à haut débit qui se mettent en ligne, en particulier les choses autour de la 5G, cela crée une toute nouvelle opportunité pour le cloud et la périphérie d'avoir un une interopérabilité plus étroite et davantage de cas d'utilisation de la périphérie vers le cloud. »

Complexité, taille, coût

Dans la perspective des prochaines années, les panélistes ont répertorié les domaines à améliorer pour permettre une adoption plus large des systèmes de vision embarqués.

Complexité :"Avec l'ancien système PC, vous avez acheté votre appareil photo, vous avez acheté votre matériel, vous aviez un processeur et le logiciel fonctionnait sur le processeur", a déclaré Arndt Dake, CMO de Basler. Aujourd'hui, cependant, « le traitement n'est pas un processeur. Vous avez un CPU, un GPU, vous avez un matériel spécial pour l'IA, peut-être un FAI dans le SoC. Ainsi, au lieu d'une, vous disposez de quatre ressources matérielles et vous devez mapper le logiciel à ces quatre ressources. Les systèmes deviennent de plus en plus complexes et les clients sont aux prises avec une complexité toujours croissante. Pour favoriser la pénétration, l'utilité doit être démontrée et l'utilisabilité doit être abordée. Certaines entreprises essaient actuellement de rassembler les éléments et de faciliter la tâche des clients, car "plus cela deviendra facile, plus le taux d'adoption sera élevé et plus l'utilisation de cette technologie sera large", a déclaré Dake.

Taille :Sommes-nous arrivés à un état stable en termes de taille ? Non, répondit Dake. «Ça va devenir plus petit. Si vous ouvrez votre smartphone et examinez les fonctionnalités de traitement et de caméra, vous pouvez voir à quel point les choses peuvent devenir petites. Le smartphone va être notre référence."

Coût :D'un point de vue général, "tout est une question d'argent", a déclaré Munkelt. Aujourd'hui, certaines demandes ne sont pas justifiées car les prix sont trop élevés. Si le coût diminue, de nouvelles possibilités apparaîtront.

Avec une facilité d'utilisation accrue, des prix plus bas et des appareils plus petits qui s'intègrent dans les machines existantes, la vision embarquée sera plus accessible pour les petites entreprises qui n'ont jamais utilisé la vision embarquée auparavant, a conclu Nilsson.

>> Cet article a été initialement publié le notre site frère, EE Times Europe.


Technologie de l'Internet des objets

  1. VersaLogic publie des ordinateurs de classe serveur pour les applications intégrées
  2. La récupération d'énergie RF joue un rôle croissant dans les applications basées sur l'IA
  3. L'IP SRAM intégrée consomme 50 % d'énergie en moins
  4. ROHM :technologies avancées de gestion de l'alimentation et de capteurs à Embedded World 2019
  5. ADI présente des technologies pour chaque domaine de la conception de systèmes embarqués
  6. Infineon lance la série de puissance embarquée TLE985x pour les applications automobiles
  7. TDK présente ses produits phares pour les technologies embarquées
  8. USB-C trouve un rôle croissant dans les appareils portables et les produits mobiles
  9. congatec :nouvelles technologies de serveurs de périphérie embarqués pour le secteur de l'énergie