Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Technologie de l'Internet des objets

Réflexions sur les technologies émergentes, Edge et IoT

L'IoT, l'apprentissage automatique, l'intelligence artificielle, la 5G, la réalité augmentée et la réalité virtuelle bénéficient tous d'une puissance de calcul de pointe accrue.

La périphérie est bien plus qu'un simple ensemble d'appareils connectés ou de capteurs. Alors que les dispositifs d'intelligence et les capteurs créent d'énormes quantités de données, les entreprises doivent prendre des décisions technologiques pour tirer le meilleur parti de ces données. L'analyse est-elle effectuée sur l'appareil, en périphérie, dans le cloud ou dans un centre de données ? Les données sont-elles conservées pour des raisons réglementaires ou pour trouver la cause première des problèmes ? Les nouveaux services comme la 5G joueront-ils un rôle ?

Ces questions préoccupent aujourd'hui de nombreuses entreprises. Pour aider à identifier les stratégies clés et à trier les différentes approches de l'informatique de pointe et de l'Internet des objets (IoT), nous avons récemment rencontré Krish Iyer, StrategyLead for Edge and ICV, et Calvin Smith, CTO, Emerging TechnologySolutions ; tous deux au sein du bureau du directeur technique mondial de Dell Technologies.

Nous avons exploré le rôle des technologies émergentes, pourquoi la périphérie et l'IoT sont si importants aujourd'hui, les facteurs à prendre en compte pour décider quand traiter à la périphérie, les considérations de calcul lors de l'utilisation de la périphérie et ce que l'avenir nous réserve. Voici un résumé de notre conversation.

Technologies émergentes

RTInsights : Quelles sont les technologies émergentes d'aujourd'hui ?

Iyer : Nous constatons une inflexion du marché dans plusieurs nouvelles technologies. Edge est clairement un précurseur avec l'IoT, l'IA [intelligence artificielle] et le ML [apprentissage automatique]. Clairement, ces technologies représentent un marché qui commence à réaliser beaucoup de traction. Plus important encore, c'est la traction où de nombreux clients commencent à voir la périphérie comme une extension de leur cloud, et ils commencent à considérer la périphérie comme un moyen de répartir leurs charges de travail qui ne peuvent pas être gérées par certaines de leurs infrastructures cloud. À mon avis, c'est probablement le moteur le plus important qui pousse de nombreuses organisations à envisager l'avantage.

Smith : Je pense que ce qui est intéressant, c'est cette notion d'intersections. Ce n'est pas comme si Edge sortait de nulle part. Bon nombre des premiers cas d'utilisation de l'IdO deviennent désormais plus facilement adressables en raison de la combinaison de technologies. Krish a mentionné IoT, Edge, ML et AI. Il y a aussi la 5G, la réalité augmentée et la réalité virtuelle. Plus généralement, à mesure que les coûts de calcul diminuent et que des éléments tels que les GPU sont utilisés à la périphérie, la capacité technologique augmente en termes de quantité d'automatisation que vous pouvez exécuter.

C'est tout simplement incroyable la prolifération de différentes technologies qui sont exécutées là où les données sont créées, ce qui est à la périphérie. En fin de compte, même si elles [les données de périphérie créées] retournent vers un cloud ou un centre de données, une grande partie de l'activation de ces appareils se fera également à la périphérie. C'est le net-nouveau centre de l'univers. C'est drôle comme les choses vont et viennent, n'est-ce pas ? Je veux dire, nous sommes passés de l'avènement du PC et d'un modèle plus décentralisé à une approche de datacenter monolithique, puis à une approche cloud pseudo-monolithique, et maintenant nous revenons à une architecture distribuée. C'est vraiment intéressant de voir comment les choses ont évolué au fil du temps.

Iyer : Oui. Je suppose qu'une façon de voir Edge est qu'il s'agit d'une combinaison de systèmes hétérogènes. Edge n'est pas monolithique, il n'est pas homogène et c'est un ensemble de fonctions différentes. Ces fonctions sont généralement utilisées pour collecter des données, traiter des données et stocker des données. Ces fonctions doivent également transférer des données vers d'autres fonctions ou doivent effectuer une action basée sur ces données pour activer d'autres fonctions telles que le traitement des données, l'analyse des données, etc. Ces fonctions peuvent également devoir être exécutées dans des environnements difficiles, comme des environnements à haute température ou des terrains accidentés. C'est pourquoi le terme hétérogène va être très critique en bordure.

Pourquoi toute l'attention portée à la périphérie et à l'IoT ?

RTInsights : Vous en avez un peu parlé, mais pourquoi toute l'attention portée à la périphérie et à l'IdO, et pourquoi maintenant ?

Iyer : C'est intéressant. Comme l'a dit Calvin, edge n'est pas nouveau. Edge a toujours été là. Et les systèmes distribués ont toujours été là. Mais nous rebouclons la boucle. La façon dont le marché évolue est que certaines des fonctions ou applications qui s'exécutaient généralement sur des centres de données centralisés ou sur l'infrastructure de base reconnaissent les problèmes. Les entreprises constatent que certaines des applications ont des exigences de bande passante ou de latence qui ne sont pas réalisables avec une approche centralisée. Cela nécessite de rapprocher ces applications de l'origine des données.

Comme l'a dit Calvin, rapprocher le traitement des données de l'endroit où les données sont créées car les lois de la physique ne permettent pas d'exécuter certaines de ces applications au cœur. C'est un problème de vitesse de la lumière auquel vous faites face. C'est un phénomène naturel qui provoque le déplacement du noyau vers la périphérie.

Voir aussi :Centre pour l'informatique de périphérie et la 5G

Décider où traiter les données

RTInsights : Cela rejoint la question suivante, et c'est quels facteurs les entreprises doivent-elles prendre en compte lorsqu'elles essaient de décider où traiter les données ? En particulier, quelles considérations doivent être prises en compte lorsque vous essayez de comprendre :Est-ce que je traite à la périphérie ou non ?

Iyer : De nombreux facteurs sont techniques, mais beaucoup peuvent également être liés aux affaires, ainsi qu'aux gouvernements et à la réglementation. D'un point de vue technique, encore une fois, la vitesse de la lumière est un facteur important. Même si les opérateurs de cloud promettent qu'ils peuvent traiter les données au cœur pour satisfaire à cette exigence, le coût de cette opération sera si élevé que les clients diront :"Je ne pourrai en aucun cas payer ces coûts. Les clients vont essentiellement considérer cela comme une évidence. Déplacez le traitement vers le bord.

La deuxième chose à considérer est la latence. Pour des cas d'utilisation comme les véhicules autonomes (ou AR [réalité augmentée] et VR [réalité virtuelle]), il est vrai que quelques millisecondes de décalage font essentiellement la différence entre une conduite sûre et un accident. Pour les applications qui nécessitent des résultats en quelques millisecondes, voire plus rapidement, la latence est importante. Pour fournir les résultats requis, le traitement doit être effectué en périphérie.

La troisième chose à laquelle je peux penser est :comment gérez-vous la bande passante ? Le coût d'envoi de ces énormes quantités de données mentionnées par Calvin vers le cloud et inversement va être coûteux et inefficace. Cela va augmenter les coûts de manière phénoménale, et cela va être un énorme facteur de dissuasion pour la plupart des clients.

Un autre facteur important est la sécurité, en particulier en ce qui concerne les bords. Vous pouvez en fait isoler certains problèmes de sécurité potentiels avant que les attaques ne pénètrent dans le centre de données principal. De nombreuses organisations peuvent suivre et isoler certaines des attaques de sécurité à la périphérie et fermer ces systèmes avant que le problème n'atteigne le cœur. Vous pouvez en fait effectuer une détection précoce de toute attaque d'intrusion, ou de tout déni de service, etc., juste à la périphérie avant qu'elle n'atteigne le cœur, en coupant les choses avant une attaque sur votre infrastructure centrale et centrale.

Ensuite, il y a la possibilité d'évoluer. Vous recherchez des environnements dans lesquels vous pouvez ajouter des sites supplémentaires ou ajouter des environnements supplémentaires en fonction de vos besoins. S'il s'agit d'une situation saisonnière ou si vous avez simplement besoin d'ajouter plus de fonctionnalités, Edge offre des niveaux élevés d'évolutivité.

Ce sont quelques-unes des exigences techniques de haut niveau, mais il y a aussi des choses comme les exigences réglementaires dans le cas des applications de soins de santé ou GDPR [conformité au règlement général sur la protection des données]. Dans la plupart des cas, il existe des mandats selon lesquels les données doivent être collectées à l'emplacement [où elles sont générées], et non transmises à un centre de données central. De nombreuses organisations doivent respecter ces mandats.

Smith : Krishi est parfait. J'ajouterais également que ce n'est pas comme si c'était une dichotomie entre la périphérie et le cloud ou la périphérie contre le cœur. C'est un spectre, un continuum. Nous savons qu'il y aura des charges de travail qui s'exécuteront à partir de la périphérie, d'autres à partir du cœur ou du cloud. Il s'agit simplement de placer les bonnes charges de travail aux bons endroits ; et exécuter contre chacun au bon moment. Il y a dix ans, l'idée était de tout collecter et stocker, quel qu'en soit le coût. Aujourd'hui, les données sont toujours essentielles, mais c'est l'analyse qui ajoute de la valeur - il a été dit que les données sont le newbacon. Les données sont le nouvel or. Les données sont le nouveau pétrole. C'est vrai, mais pas s'il s'agit d'informations statiques qui n'ajoutent aucune valeur. Ce qui est intéressant, c'est quand vous commencez à faire du filtrage très basique et de l'apprentissage automatique à la périphérie. Vous n'êtes pas obligé d'envoyer chaque instance de données de l'appareil en disant :"Je suis vivant, il fait 72 degrés, il fait encore 72 degrés", vers le centre de données ou le cloud.

Vous n'êtes pas obligé d'envoyer ce genre de messages en moins d'une milliseconde. Si vous le faites, cela va devenir très cher très rapidement quand vous regardez le volume considérable d'appareils dans le monde. Vous voulez pouvoir analyser ces données et leur donner un sens à la périphérie, in situ. Certaines données périssables et éphémères n'ont de valeur que pendant une courte période. Ce que vous voulez vraiment faire, c'est détecter les anomalies pour déterminer quelles sont les informations importantes que nous devons vraiment renvoyer ou conserver. De retour au cœur ou au cloud, vous pouvez faire votre analyse plus approfondie, déterminer comment cela s'est-il passé auparavant ? Cette anomalie se produit-elle dans d'autres parties de la flotte d'actifs que nous avons sur le terrain ? C'est là que la valeur commence à entrer en jeu. Vous avez besoin de toute la pile et d'une vue unique sur l'intégralité de votre ensemble de données. L'important est qu'en plus de tous les paramètres clés mentionnés par Krish, il existe également des raisons logiques que vous devez prendre en compte. Il existe des paramètres pour l'ensemble de votre architecture distribuée, et vous devez déterminer ce qui a du sens pour stocker, transmettre, analyser , et processus, où, quand et pourquoi. Il existe une logique différente pour pratiquement toutes les architectures. Tout dépend fortement du cas d'utilisation et de l'infrastructure elle-même.

Considérations relatives au déplacement des données vers la périphérie

RTInsights : Dans ce sens, quels sont les facteurs à prendre en compte pour déplacer les données et calculer vers la périphérie ?

Iyer : Le problème de la vitesse de la lumière, les coûts et la sécurité sont des facteurs importants. Et nous avons parlé de la bande passante, de la haute disponibilité et de l'évolutivité comme autres facteurs. La capacité à réduire une grande quantité de données, à pouvoir effectuer un traitement des données et des métadonnées à la périphérie et à ne renvoyer que les données les plus pertinentes au cœur va être un autre facteur clé. Cela dépend en grande partie du secteur et du cas d'utilisation.

Par exemple, les opérateurs de télécommunications et les réseaux de diffusion de contenu peuvent avoir des exigences spécifiques en matière de périphérie. Ils pourraient avoir besoin de tirer parti de l'avantage pour quelque chose de plus profond que la plupart des autres marchés verticaux. Ces industries doivent déterminer le type de services à fournir aux utilisateurs dans une zone géographique spécifique. Pour ce faire, ils pourraient avoir à rassembler le contexte de la périphérie géographique et être en mesure de fournir des services spécifiques pour des localités spécifiques. La situation pourrait être différente pour, disons, les cas d'utilisation de la technologie opérationnelle qui nécessitent d'effectuer des analyses prédictives à la périphérie pour les appareils et les machines IoT. Encore une fois, tout dépend et se résume à ce que sont les demandes verticales spécifiques.

Par exemple, du côté de la vente au détail, comment puis-je rendre l'expérience utilisateur de mon client vraiment positive ? Comment puis-je fournir une expérience de réalité augmentée ou de réalité virtuelle fluide, sans mise en mémoire tampon ? Comment puis-je rendre l'expérience utilisateur globale positive et interactive, afin que le client puisse prendre des décisions d'achat directement sur place ? Les prestataires de soins de santé auront un ensemble d'exigences complètement différent pour des applications telles que la télésanté et d'autres applications de diagnostic à distance. Il existe également de nombreuses exigences réglementaires qui entrent en jeu pour ces marchés verticaux. c'est quelque chose qui doit fonctionner.

Smith : Nous devons également élargir les horizons des gens sur ce que nous utilisons pour définir le bord. Dans un contexte industriel, un bord peut être le sol de l'usine lui-même, et le bord peut être cette voiture que nous avons décrite comme le centre de données mobile du futur. La voiture elle-même est essentiellement le bord. Il peut s'agir d'une plate-forme pétrolière offshore, de la plate-forme entière ou d'une partie de celle-ci. Il s'agit de plusieurs choses, grandes et petites, et entièrement définies par le cas d'utilisation et ce que vous essayez de faire. L'edge computing est la partie intéressante.

Ce qui est également intéressant, c'est le facteur de forme en termes de ce que vous utilisez réellement pour le calcul de périphérie - cela est également très varié. Sans être trop centré sur le produit, Dell propose des passerelles (qui sont très simplistes par rapport aux appliances convergées ou hyperconvergées) qui effectuent une partie de la normalisation du protocole, des analyses et peuvent être utilisées pour certaines plates-formes IoT et des éléments de facteur de forme plus petit. Ils ont des objectifs très finis et spécifiques et correspondent à un certain nombre d'appareils.

Du côté du plus grand facteur de forme, nous avons en fait des solutions appelées micro centres de données modulaires. Nous en avons récemment annoncé un, le Dell EMC Modular DataCenter Micro 415, un petit centre de données en périphérie avec des fonctions d'alimentation et de refroidissement intégrées et de gestion à distance. Et nous en proposons également un appelé Dell EMCModular Data Center Micro 815 - essentiellement un rack complet. Ces solutions sont flexibles et évolutives. Comme nommés, ils sont modulaires et ils évoluent pour vous permettre de construire votre centre de données d'une manière définie par cas d'utilisation et composable à la périphérie. Nous pouvons littéralement transporter par avion et déposer des centres de données à votre périphérie, quel que soit l'environnement.

Pensez à cela dans un contexte militaire pour les gens sur le terrain. Pensez-y pour le haut d'un bâtiment où, historiquement, vous voudriez faire le traitement dans un sous-sol parce qu'il y a un meilleur refroidissement. Eh bien, ces solutions intègrent un système de refroidissement. Une partie de l'innovation réside dans le châssis et le boîtier, ainsi que dans la manière dont ils sont refroidis et alimentés. Nous entrons dans ces nouveaux mondes où, à tous les points soulevés par Krish sur la bande passante, le coût et la latence, il existe également différentes contraintes dans ces environnements en ce qui concerne les vibrations, la poussière, les chocs et les conditions dangereuses. Nous pouvons littéralement déposer des micro-centres de données renforcés et fermés avec stockage, calcul et mise en réseau qui peuvent résoudre les problèmes en temps quasi réel à la périphérie. C'est le début d'un changement très intéressant dans la façon dont les gens font des affaires.

Edge et avenir de l'IdO

RTInsights : Que voyez-vous pour l'avenir avec la périphérie et l'IoT ?

Iyer : Le besoin accru de tous les points clés dont nous avons parlé plus tôt stimulera les investissements dans la périphérie. Les applications seront le moteur de l'avenir. Tout dépend du type d'applications et des développeurs qui créent les applications. Les applications deviennent chaque jour plus intelligentes. Pour que l'infrastructure ou les environnements prennent en charge ces applications, ils doivent également être plus intelligents. Ils doivent croître à la même vitesse que les applications. Des améliorations se produisent, et l'industrie s'adapte à une approche désagrégée, en ne l'abordant pas avec une infrastructure monolithique, et en étant capable de se dimensionner correctement pour prendre en charge ces applications. Pourtant, nous devons considérer que le rythme de croissance n'est pas toujours là pour soutenir les demandes croissantes de certaines de ces applications.

En plus d'être axé sur les applications, l'avenir de la périphérie tirera également une grande valeur du cloud. Cloud ne va nulle part. Je pense que le cloud va toujours être un point de contrôle intégral pour la périphérie. Le cloud va toujours servir de modèle d'exploitation clé, ou d'environnement qui prête essentiellement beaucoup de traitement de données, de traitement de données, de support de gestion de données.

Cela dit, je pense que l'avenir de la périphérie va également être défini par la manière dont les fournisseurs se réunissent. Une chose que nous avons apprise, c'est qu'il n'y a pas d'organisation ou de fournisseur unique qui ait un monopole sur la périphérie. C'est une combinaison de plusieurs acteurs qui doivent s'unir pour fournir des services, de l'hébergement, des opérations, des données, de la sécurité, etc., à une multitude d'autres fournisseurs pour former un écosystème. Cela comprend un écosystème de fournisseurs propriétaires et un écosystème de fournisseurs open source qui se réunissent tous pour fournir des solutions de bout en bout. Cette coopération est nécessaire du développement d'applications au support des applications, au support des développeurs, à la sécurité, à la conformité, etc.

Pour la plupart, l'infrastructure de périphérie sera horizontale, et les solutions verticales nécessiteront que les intégrateurs de systèmes l'amènent au dernier kilomètre pour des secteurs verticaux comme la santé, la fabrication et l'armée. Encore une fois, cela nécessitera qu'un écosystème se réunisse pour fournir les fonctionnalités nécessaires.

Smith : Vous avez mentionné le cas d'utilisation autonome plus tôt. Je pense que c'est vraiment un bon cas. Les futuristes vont faire des déclarations provocatrices et dire :"Oh, Edge va dévorer le monde !" Je ne sais pas si vous vous en souvenez, mais il y a 10 ou 15 ans, tout le monde disait :« Est-ce que le cloud va manger le monde ? Eh bien, oui, dans une certaine mesure, c'est le cas, mais les centres de données n'ont pas disparu. En même temps, edge ne va pas non plus dévorer le monde. Je veux dire, ça va être gros, et ça grandit déjà, mais le cloud ne va pas disparaître.

Si vous regardez un véhicule autonome, c'est une sorte de voiture en tant que centre de données mobile du futur. J'aime cette analogie parce que les gens la comprennent. La voiture est essentiellement le bord lui-même, mais il y a d'autres bords auxquels elle peut se connecter. Il peut y avoir des communications de véhicule à véhicule (V2V). Service 5G. Ensuite, en général, il y aura presque certainement une connectivité cloud pour des choses comme la gestion de flotte et l'examen de la connexion croisée de toutes ces voitures.

Encore une fois, il n'est pas rentable d'envoyer toutes les données de chaque véhicule vers le cloud, et ce n'est pas assez rapide pour les fonctionnalités liées à la sécurité si vous envisagez des choses comme le déploiement intelligent des airbags, qui devient de plus en plus intelligent en fonction du poids et de différents paramètres de le passager. Soit, la reconnaissance d'objets pour une multitude de caméras qui doivent activer un véhicule autonome, ou semi-autonome, ou ADAS [systèmes avancés d'aide à la conduite]. Tout cela impose des contraintes et des limites. Fondamentalement, vous devez exécuter une partie de cela localement, mais vous pouvez également approfondir les données dans le cloud ou un noyau pour obtenir des informations sur les anomalies, et ces informations vont influencer d'autres voitures.

Par exemple, supposons que je veuille prédire un dysfonctionnement d'airbag ou quelque chose qui finira par être un rappel de garantie. Toutes ces informations importantes doivent remonter dans le cloud, mais encore une fois, vous n'avez pas à envoyer toutes les données statiques - uniquement les données anormales ou de reconnaissance d'erreurs. Ensuite, il y a une valeur énorme lorsque vous analysez ces données sur plusieurs voitures. Comme vous l'avez mentionné plus tôt Krish, une voiture autonome n'est qu'une belle façon de penser à tout lier, mais ce n'est pas le seul exemple. Il existe plusieurs secteurs où vous commencez à comprendre l'harmonie et la justification du placement des charges de travail dans différents domaines à travers la périphérie, le cœur et le cloud. C'est une période passionnante. Si nous pouvions faire cette même interview dans un an, puis dans dix ans, j'aimerais nous remettre ensemble et voir si notre prophétie de prolifération marginale est exacte.


Technologie de l'Internet des objets

  1. L'IoT nous pousse littéralement à la limite
  2. Une introduction à l'informatique de pointe et des exemples de cas d'utilisation
  3. Qu'est-ce que l'Edge Computing et pourquoi est-ce important ?
  4. Exploiter les données IoT de la périphérie vers le cloud et vice-versa
  5. Garantir la cybersécurité et la confidentialité dans l'adoption de l'IoT
  6. L'IoT et le cloud computing sont-ils l'avenir des données ?
  7. L'IoT et votre compréhension des données
  8. L'IoT et l'IA vont de l'avant dans la technologie
  9. The Edge and IoT :Insights from IoT World 2019