Regarder à l'horizon le changement radical « intelligent » de l'IoT
Nous avons tous été submergés par le battage médiatique entourant les « trucs intelligents » de l'Internet des objets et l'arrivée imminente de nos seigneurs robots, nous avons donc tendance à minimiser l'émerveillement époustouflant de la métamorphose informatique réactive et intelligente qui est à nos portes.
Depuis des années, la communauté IoT dit que si nous voulons vraiment que les « choses » aient de la valeur, elles ne peuvent pas être stupides. La première vague consistait à tout connecter, et nous avons progressé là-bas. La prochaine étape consiste à rendre les « choses » plus intelligentes.
Il existe une variété de solutions commerciales qui ne tiennent pas vraiment la promesse d'automatiser notre chemin vers une vie plus productive. Et les soucis de bien sécuriser nos objets connectés pèsent toujours lourd. Mais il y a vraiment eu des sauts transformateurs dans les capacités informatiques et les fonctionnalités réalisables. Le cas d'utilisation qui tue pour l'IoT est à l'horizon, mais avant de définir ce que c'est et de décrire comment il va se manifester, je pense qu'il est important d'identifier globalement comment nous en sommes arrivés là.
La "Trinité"
L'impact du mouvement open source dans la conduite de sauts exponentiels dans le progrès technologique ne peut pas être minimisé. Les algorithmes et l'infrastructure informatique qui pilotent les choses « intelligentes » – l'IoT, l'intelligence artificielle et les capacités d'apprentissage automatique – existent depuis des décennies. N'importe qui à la NSA peut vous en dire autant.
La différence réside maintenant dans l'accessibilité aux masses. Ces technologies étaient autrefois jalousement gardées, coupées du reste du monde et disponibles uniquement au sein de formidables institutions possédant de vastes ressources à la fois en personnel et en puissance de calcul. L'open source a changé tout cela. Il n'est plus nécessaire de construire de nouvelles choses à partir de zéro, alimentant ainsi le cycle d'innovation. L'accès généralisé aux bases de connaissances et aux logiciels permet à toute personne si encline de s'appuyer sur les épaules de géants et de tirer parti de la sagesse des foules.
L'explosion créative alimentée par l'open source a contribué à donner naissance au cloud, qui est le deuxième mouvement responsable d'inaugurer notre nouvelle ère de l'informatique. Libérée des limitations physiques et des dépenses liées aux piles de serveurs individuels et au stockage sur site, l'ère de « l'application pour tout » est apparue et la capacité de collecte et de consommation à la demande de données volumineuses a été libérée. Une fois que nous avons pu faire évoluer la puissance de calcul sans contrainte géographique, notre technologie est devenue mobile et le rêve d'appareils plus petits et de plus en plus puissants trafiquant des quantités colossales d'informations est devenu réalité.
Les mégadonnées donnent la vie à l'informatique moderne. Mais les données ne ne pas quoi que ce soit et, en soi, n'a aucune valeur. Cela nous amène au troisième mouvement de la révolution « intelligente » :l'analytique. Les types d'informatique augmentée que les gens rencontrent aujourd'hui dans la vie quotidienne - reconnaissance vocale, reconnaissance d'images, voitures autonomes et d'assistance à la conduite - sont fondés sur des concepts issus de l'analyse et de la recherche de modèles d'analyse prédictive, qui faisaient fureur. il y a quelques années à peine.
La réalisation décourageante de l'analyse prédictive était que, pour former des modèles efficaces, vous avez besoin à la fois d'énormes quantités de données et de dizaines de scientifiques des données pour créer, maintenir et améliorer continuellement des modèles de données. Nous nous heurtions une fois de plus aux barrières d'accès et aux contraintes de ressources.
Et nous arrivons ainsi au présent, où les choses évoluent dans une nouvelle direction. La différence maintenant est que nous n'avons pas besoin de recruter une armée de data scientists pour construire des modèles; nous avons appris à nos programmes à supprimer certains de ces obstacles pour eux-mêmes.
Intelligence inhérente
Nos systèmes basés sur l'IA, en particulier les systèmes d'apprentissage en profondeur, peuvent désormais être alimentés par des millions et des millions d'ensembles d'entraînement, s'entraîner en jours/heures et se recycler en continu à mesure que davantage de données deviennent disponibles. Les outils open source et le cloud computing sont toujours importants et en constante évolution, et nous continuons de traiter des charges de données pour effectuer des analyses ultra-rapides, mais nos programmes intègrent désormais l'IA comme moteur pour se rendre "plus intelligents".
L'expertise de domaines informatiques très différents s'est condensée pour imprégner les programmes de capacités auparavant inimaginables. Le paradoxe est qu'à mesure que le cloud devient de plus en plus puissant et moins cher, la stratégie de l'IoT intelligent consiste à déplacer une grande partie de la première ligne de traitement d'entrée du cloud vers la périphérie. Cela sert à deux fins :permettre des décisions sur l'appareil sans avoir besoin d'une intervention dans le cloud et fournir des modèles et des analyses de périphérie au cloud pour une analyse rapide de deuxième étape. De minuscules moteurs d'IA peuvent désormais effectuer une analyse en temps quasi réel sur des appareils périphériques et des « objets » pas plus gros qu'une boîte d'allumettes. Et à mesure que ces points de puissance de calcul deviennent de plus en plus courants dans les objets ordinaires (routeurs et passerelles intelligents, véhicules autonomes, dispositifs de surveillance médicale en temps réel), leurs fonctionnalités potentielles se développent de manière exponentielle.
L'intelligence artificielle à la pointe
Au début de l'IoT (alias M2M), l'accent était mis sur le transfert des données vers le cloud lorsque cela était possible. Les fichiers journaux FTPing tous les soirs étaient à la mode. Lorsque General Electric est entré en scène avec « l'Internet industriel », tout le monde a commencé à parler de connectivité de données en temps réel. C'était un grand pas en avant par rapport au FTP, mais les gens considéraient les appareils périphériques comme de simples « choses » qui transféraient des données vers le cloud à des fins d'analyse. Nous sommes maintenant au milieu d'un ventilateur inverse exponentiel de cette pensée. Les exigences en temps réel redéfinissent le paradigme. Le cloud évolue désormais vers le rôle de support IoT et d'analyse de deuxième niveau, et le traitement est poussé à la périphérie.
Par exemple, nous avons travaillé avec une entreprise qui développe un appareil de surveillance médicale de nouvelle génération. Initialement, nous supposions qu'avec un appareil aussi petit, nous enverrions des données brutes de l'appareil au cloud pour analyse. Mais ce n'est pas ce qui était souhaité, ce n'est pas non plus ce qui s'est passé. L'entreprise voulait l'analyse sur le moniteur. Ils voulaient que l'analyse et la détection des modèles se produisent directement sur l'appareil, qu'elles prennent des mesures sur l'appareil et que seules les données « intelligentes » (par opposition aux données brutes) soient envoyées vers le cloud. Le modèle différait considérablement des opérations M2M industrielles standard - où tout serait connecté et des lots de données provenant de toutes les sources seraient collectés et traités selon un calendrier défini dans un référentiel central.
L'objectif de la connexion maintenant est d'obtenir des résultats de précision instantanés au point d'entrée pour des réponses immédiates. Même la faible latence impliquée dans le traitement cloud « traditionnel » avec des centaines de milliers, voire des millions et des milliards d'appareils n'est pas aussi efficace pour l'analyse de périphérie en temps réel que l'utilisation de cette nouvelle architecture. Dans certains cas, vous pouvez obtenir une réduction des données de 1 000 fois en envoyant simplement les analyses et les modèles par rapport aux données brutes dans le cloud.
Nous ne nous occupons plus d'appareils de collecte stupides ; nous avons besoin qu'ils fassent plus que simplement organiser. Ils doivent être artificiellement (et naturellement) intelligents, capables de reconnaître des formes et d'effectuer des analyses dans leurs minuscules moteurs. Ils transfèrent ces résultats vers le cloud pour d'autres utilisations. Au fur et à mesure que cet idéal prolifère, il en va de même des applications possibles.
Comme l'illustre parfaitement l'exemple d'une voiture autonome, ce modèle d'analyse dual edge/cloud produit des résultats précis en temps réel qui peuvent être continuellement et automatiquement affinés par rapport à des trésors toujours croissants de données supplémentaires, produisant ainsi des informations précieuses et utilisables et alimentant une action productive. Il y a encore un an, j'aurais appelé B.S. sur cette notion d'intégration généralisée de l'IoT et de l'IA - mais l'edge computing et l'IA sont vraiment sortis du laboratoire et dans notre monde. Cela donnera des résultats que nous n'avons jamais vus auparavant.
Les cas d'utilisation clés de l'IoT se manifestent à travers des dispositifs de périphérie vraiment intelligents, dans des solutions spécialement conçues pour des problèmes ou des tâches spécifiques, puis interconnectées et soumises à des modèles qui vont au-delà de leur application initiale. Au fur et à mesure que des « objets » de plus en plus intelligents et activés par l'IA sont intégrés dans notre vie quotidienne et fonctionnent aux limites de nos réseaux de communication inter-communicants, nous verrons les choses aller au-delà du simple fait d'être connecté et incarner activement l'intelligence. Des trucs intelligents en effet.
Cet article est réalisé en partenariat avec Greenwave Systems.
L'auteur est vice-président et architecte de système d'ingénierie chez Greenwave Systems, où il guide le développement de l'environnement d'analyse visuelle et de découverte de modèles en temps réel AXON Predict. Il a plus de 25 ans d'expérience dans l'exécution de systèmes d'entreprise et de solutions d'analyse visuelle avancées.
Technologie de l'Internet des objets
- Smart data :La prochaine frontière de l'IoT
- IoT :le remède contre la hausse des coûts de santé ?
- Perspectives de développement de l'IoT industriel
- Le potentiel d'intégration de données visuelles avec l'IoT
- Les jumeaux numériques peuvent être la périphérie intelligente de l'IoT dans le secteur manufacturier – Partie 2
- Les 3 principaux défis de la préparation des données IoT
- Le cerveau opérationnel :un nouveau paradigme pour la gestion intelligente des données dans l'IoT industriel
- Votre système est-il prêt pour l'IoT ?
- Démocratiser l'IoT