Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Cloud computing

Pourquoi le transfert de données continues vers le cloud coûte plus cher que vous ne le pensez

Dans les secteurs de plus en plus axés sur la prise de décision en temps réel, tels que l'industrie manufacturière, les transports, les télécommunications, la sécurité publique, etc., les données ne sont plus créées par lots occasionnels. Il arrive en continu et à grande échelle depuis les capteurs, les machines, les actifs mobiles et les applications numériques. Même si la centralisation de ces données dans un cloud ou un centre de données à des fins d'analyse semblait autrefois efficace, le volume, la vitesse et la criticité des flux de données actuels ont révélé de sérieuses limites avec l'approche traditionnelle axée sur le backhaul.

Depuis des années, les organisations qui traitent régulièrement de tels flux de données et souhaitent utiliser ces données pour obtenir des informations en temps réel ont déplacé l'analyse de ces données vers la périphérie, là où elles sont créées. De plus en plus, à mesure que les volumes de données et les taux de génération de données augmentent, de nombreuses organisations dotent leurs systèmes de périphérie d'intelligence avancée pour agir de manière adaptative sur les informations en temps réel et quasi-réel dérivées de leurs analyses.

Voir aussi : Au-delà de la latence :la prochaine phase de l'intelligence adaptative Edge

Les limites du backhauling des données

Le transport de données vers des installations centralisées a des applications pratiques depuis des décennies, lorsque les volumes de données et le taux de génération de données étaient modestes. Les données seraient stockées et analysées pour des actions immédiates ou pour comprendre les tendances historiques.

Ce modèle ne fonctionne plus dans les secteurs qui disposent de volumes élevés de données en streaming continu. Certaines industries touchées incluent :

Dans ces cas, et dans d'autres, l'un des défis les plus immédiats liés au transport de données est la congestion du réseau. . Les sources de données haute fréquence telles que les capteurs IoT, les flux vidéo HD, les systèmes autonomes ou les machines industrielles peuvent produire des gigaoctets, voire des téraoctets de données par heure. Tenter de canaliser ces informations vers un emplacement central met à rude épreuve la bande passante disponible, augmentant les coûts et diminuant les performances globales du réseau. Les mises à niveau de bande passante sont utiles, mais évoluent mal, ce qui entraîne des coûts plus élevés.

Ensuite, il y a la latence , qui est le tueur silencieux de la réactivité en temps réel. Lorsque les données brutes doivent parcourir de longues distances pour être traitées, le délai aller-retour peut rendre les informations obsolètes au moment où les systèmes d'analyse les exploitent. Dans les scénarios critiques pour la sécurité ou sensibles au facteur temps, tels que la détection de pannes dans les services publics, le contrôle qualité dans les lignes de fabrication ou la maintenance prédictive des flottes de transport, les millisecondes comptent. Une architecture de traitement centralisée ne peut tout simplement pas garantir des performances déterministes.

Un autre problème souvent négligé est l'inefficacité des coûts. . Le stockage dans le cloud, les frais de transfert de données et les ressources de calcul deviennent coûteux lorsque de grands ensembles de données sont déplacés en continu. De nombreuses organisations découvrent qu'elles paient pour stocker et analyser des données redondantes, de faible valeur ou non pertinentes. En fait, des études montrent régulièrement que la majorité des données brutes des capteurs ne sont jamais utilisées, mais qu'elles entraînent néanmoins des coûts de transport et de stockage complets lorsqu'elles sont réacheminées.

Risques liés à la sécurité et à la confidentialité augmentent également à mesure que le volume de données augmente. Le déplacement de données non filtrées sur des réseaux étendus élargit la surface d’attaque et nécessite des contrôles stricts de chiffrement, de surveillance et de conformité. Les données sensibles, telles que les informations de localisation, la télémétrie opérationnelle ou les modèles d'utilisation des clients, peuvent avoir des implications réglementaires lorsqu'elles sont transportées à travers les régions ou les frontières du cloud. Pour certaines industries, cela seul rend le transport centralisé peu pratique.

Enfin, les architectures centralisées limitent la résilience . Si la connectivité est perdue ou si les performances se dégradent, les systèmes dépendant du cloud pour l'analyse risquent de ne pas parvenir à prendre des décisions en temps opportun. Ceci est inacceptable dans les environnements périphériques tels que les opérations minières à distance, les plates-formes énergétiques offshore, les réseaux intelligents ou les systèmes de transport qui ne peuvent pas suspendre leurs opérations jusqu'à ce que le réseau se rétablisse.

Un examen plus approfondi des problèmes de transfert de données

En bref, à mesure que les systèmes en temps réel prolifèrent, l'analyse et la prise de décision doivent se rapprocher de la source de l'événement, maintenir l'état, s'exécuter avec une latence minimale et une cohérence totale.

Un récent blog de Volt Active Data a mis en perspective les problèmes liés au transport des données et expliqué comment les systèmes d'intelligence adaptative de pointe les éliminent.

Le blog souligne que même si le traitement centralisé des données offre une certaine commodité de gestion, il entraîne des coûts cachés substantiels. Ceux-ci incluent des dépenses élevées en matière de bande passante et de stockage liées au transport et à l'hébergement de grands ensembles de données, une consommation d'énergie accrue et l'empreinte carbone associée, des problèmes de latence et de fiabilité du réseau (en particulier pour les applications en temps réel) et un risque plus élevé de points de défaillance uniques lorsque tous les traitements dépendent d'une infrastructure centralisée.

Pour surmonter ces problèmes, les organisations déplacent l'intelligence vers la périphérie :elles traitent et filtrent les données plus près de leur source afin que seules les informations significatives et réduites soient envoyées en amont. Un tel modèle natif de périphérie réduit les coûts de transmission et de stockage, réduit considérablement la latence, améliore la résilience opérationnelle et permet des architectures plus vertes et plus durables.

Un dernier mot

À mesure que les organisations adoptent davantage d’automatisation, d’IA et d’opérations autonomes en périphérie, le modèle consistant à tout transférer vers un centre de données devient de moins en moins viable. L'avenir réside dans les architectures hybrides et natives où les données sont traitées localement, réduites ou enrichies à la source, et où seuls les résultats ou agrégats de grande valeur sont envoyés en amont.


Cloud computing

  1. Big Data et Cloud Computing :une combinaison parfaite
  2. Choisissez le meilleur fournisseur de services cloud :12 choses à savoir !
  3. Tout ce dont vous avez besoin sur AWS Cloud
  4. Rôle du cloud computing dans la banque et la finance
  5. La grande victoire :le cloud computing dans les jeux
  6. Vous voulez devenir ingénieur cloud ? Voici ce que vous devez savoir
  7. Maîtriser les risques liés aux fournisseurs de cloud sans sacrifier l'innovation
  8. Comparaison entre IaaS, PaaS et SaaS
  9. Le cloud tue-t-il les tâches du centre de données ?