Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Cloud computing

Aperçu du marché de l'analyse en temps réel :semaine se terminant le 28 février – Faits saillants et tendances de l'IA

Suivre l'actualité et les développements sur le marché de l'analyse en temps réel et de l'IA peut s'avérer une tâche ardue. Heureusement, nous vous proposons un résumé des éléments rencontrés par notre personnel chaque semaine. Et si vous préférez le recevoir dans votre boîte de réception,  inscrivez-vous ici !

Chapeau rouge  a annoncé la création de Red Hat AI Factory avec NVIDIA, une plate-forme logicielle co-conçue qui combine Red Hat AI Enterprise et NVIDIA. AI Enterprise pour fournir une solution d'IA de bout en bout optimisée pour les organisations déployant l'IA à grande échelle. La solution permet aux équipes d'exploitation informatique de rationaliser la gestion à la fois de l'infrastructure traditionnelle et des demandes évolutives de la pile d'IA.

La solution accélère le passage à l'IA de production et fournit une plate-forme logicielle pour les usines d'IA, fonctionnant sur une infrastructure informatique accélérée qui alimente des performances plus élevées pour les modèles et les GPU NVIDIA qui pilotent la pile d'inférence. La plate-forme est prise en charge sur l'infrastructure d'usine d'IA des principaux fabricants de systèmes, notamment Cisco. , Dell Technologies , Lenovo , et Supermicro . Cela permet aux administrateurs informatiques et aux équipes opérationnelles de faire évoluer et de maintenir les déploiements d'IA avec la même rigueur opérationnelle et la même prévisibilité que n'importe quelle charge de travail d'entreprise.

Par ailleurs, Red Hat a annoncé Red Hat AI Enterprise, une plateforme d'IA intégrée pour déployer et gérer des modèles, des agents et des applications d'IA dans le cloud hybride. Il rejoint le portefeuille Red Hat AI, qui comprend Red Hat AI Inference Server, Red Hat OpenShift AI et Red Hat Enterprise Linux AI. De plus, Red Hat a introduit Red Hat AI 3.3, apportant des mises à jour et des améliorations significatives à l'ensemble du portefeuille d'IA de l'entreprise.

L'actualité de l'analyse en temps réel en bref

Ataccama a annoncé Agentic Data Observability dans Ataccama ONE, sa plateforme de confiance de données agentiques de bout en bout pour les entreprises réglementées. Cette version étend la qualité des données d'Ataccama aux pipelines et aux flux de travail d'incidents, offrant aux équipes un chemin direct de la détection au tri et à la correction en unifiant l'observabilité avec une qualité de données automatisée et un contexte commercial gouverné. Cela comble les lacunes laissées par l'observabilité des données autonomes et contribue à garantir l'intégrité des données qui alimentent les agents d'IA et les décisions commerciales critiques.

Retour en flammes  a annoncé B2 Neo, une offre spécialement conçue pour les plates-formes NeoCloud. B2 Neo fournit à ces plates-formes le stockage d'objets cloud de niveau entreprise dont les entreprises ont besoin pour les charges de travail d'IA et d'apprentissage automatique gourmandes en données. En tant que tel, B2 Neo offre aux néoclouds une couche de stockage qu'ils peuvent intégrer à leurs plates-formes existantes et offrir de manière transparente aux clients.

Protecteur de chaîne a annoncé avoir étendu la couverture des bibliothèques Chainguard à Python, Java et JavaScript. Étant donné que les bibliothèques Chainguard sont reconstruites à partir de code source publiquement vérifiable dans Chainguard Factory, conforme SLSA L2, cette couverture généralisée constitue une avancée majeure dans la prévention des logiciels malveillants dans les bibliothèques open source qui sous-tendent la plupart des logiciels. Cela permet aux équipes d'ingénierie de maintenir leur vitesse de développement sans compromettre la sécurité.

CIQ , le partenaire fondateur de support et de services de Rocky Linux, a lancé Rocky Linux à partir de CIQ Pro (RLC Pro), un abonnement Enterprise Linux pris en charge commercialement. Avec la compatibilité binaire Enterprise Linux, RLC Pro regroupe le support à long terme et la gestion du cycle de vie, la validation FIPS 140-3, l'indemnisation, la sécurité et le support SLA, ainsi que les corrections de bogues directes et pilotées par le client en tant que fonctionnalités nécessaires, créant ainsi un chemin clair entre la production communautaire et la production d'entreprise critique.

Confluent  a annoncé de nouvelles fonctionnalités Confluent Intelligence qui connectent les agents d'IA et découvrent une analyse de données plus précise et plus intelligente. Les agents de streaming de Confluent utilisent le protocole Agent2Agent (A2A) pour déclencher et coordonner des agents d'IA externes à l'aide de flux de données en temps réel. La détection des anomalies multivariées examine plusieurs mesures pour détecter automatiquement les modèles inhabituels dans les flux de données, aidant ainsi les équipes à prévenir les problèmes avec une plus grande précision. Ensemble, ces fonctionnalités créent des systèmes d'IA intelligents et contextuels qui s'adaptent à mesure que les données, les agents et les conditions commerciales changent.

Databricks  a annoncé la disponibilité générale de Lakeflow Zerobus Ingest, qui fait partie de Lakeflow Connect. La solution fournit un service sans serveur entièrement géré qui diffuse les données directement dans les tables Delta, éliminant ainsi le besoin de bus de messages intermédiaires comme Kafka. De plus, la solution remplace les architectures de streaming multi-sauts traditionnelles par une conception à récepteur unique optimisée spécifiquement pour transmettre les données vers le Lakehouse. Ce lancement GA comprend des API gRPC et REST (bêta) prêtes pour la production, ainsi que des SDK pour Python, Java, Rust, Go et TypeScript, permettant l'intégration à partir de n'importe quelle application.

Datadobi a lancé un programme d'accès anticipé pour l'examen de l'accès aux données, une nouvelle fonctionnalité arrivant sur sa plateforme StorageMAP. Développé en réponse directe à la demande des clients pour une visibilité et un contrôle plus approfondis sur les autorisations de données, Data Access Review étendra la valeur de StorageMAP en ajoutant des informations exploitables sur les autorisations à la gestion des données non structurées. Au cours du programme d'accès anticipé, les clients sélectionnés ont la possibilité de tester et de contribuer à l'élaboration de nouvelles fonctionnalités d'intelligence des autorisations. 

Digi International a annoncé le lancement de son nouveau serveur Model Context Protocol (MCP) pour Digi Remote Manager (DRM) et Genesis. Cette nouvelle fonctionnalité permet aux clients d'intégrer en toute sécurité des produits de modèles de langage à grande échelle tels que Claude et d'autres assistants d'IA d'entreprise directement avec DRM et Genesis, transformant ainsi la façon dont les organisations surveillent, gèrent et optimisent leur infrastructure connectée et leurs déploiements WAN sans fil à grande échelle.

Laboratoire de données Domino a annoncé une nouvelle mise à jour majeure de la plate-forme, créant une plate-forme de bout en bout entièrement gouvernée pour opérationnaliser les systèmes d'IA agentique. Cette dernière version d'hiver offre aux organisations une nouvelle expérience de cycle de vie de développement agent (ADLC) et des capacités d'hébergement LLM sous-jacentes. Ensemble, ils permettent aux entreprises de créer, d'évaluer, de déployer et de surveiller des systèmes d'IA agentique rapidement et à grande échelle avec une gouvernance, une reproductibilité et un contrôle intégrés.

Druva a annoncé une extension de DruAI, introduisant des agents d'analyse approfondie capables d'automatiser des enquêtes médico-légales et de conformité complexes sur plusieurs jours. Les agents IA mènent des enquêtes approfondies sur la télémétrie, les journaux, les données d'identité, les configurations et les signaux historiques. Ils divisent les tâches complexes en étapes, coordonnent les systèmes entre eux et analysent les résultats au fil du temps pour produire des informations et des rapports clairs et exploitables.

Nouvelle relique  a annoncé une série d'innovations de plateforme qui relient les performances techniques à l'impact client et aux résultats commerciaux. Dirigé par des charges de travail intelligentes qui automatisent la découverte de dépendances complexes et alignent la santé du système sur les KPI de l'entreprise, New Relic surveille ce qui compte pour ses clients à l'ère de l'IA, leur permettant de résoudre les incidents plus rapidement et de quantifier l'impact direct des performances sur les revenus.

Précisément a annoncé de nouveaux agents de qualité des données, d'enrichissement des données et d'intelligence de localisation pour la suite Precisely Data Integrity. Les nouveaux agents accélèrent la normalisation, la standardisation, la création de règles et l'enrichissement des données grâce à l'interaction conversationnelle. Travaillant en coordination avec Gio AI Assistant de Data Integrity Suite, les nouveaux agents d'IA automatisent et rationalisent les flux de données complexes et gourmands en main-d'œuvre, aidant ainsi les organisations à créer des bases de données fiables et riches en contexte pour les initiatives d'IA, d'analyse et d'automatisation. 

Sinch a annoncé un nouvel ensemble de fonctionnalités conçues pour opérationnaliser les agents IA sur les canaux de communication mondiaux, permettant aux entreprises de déployer des agents intelligents pour la messagerie, la voix et le courrier électronique à l'échelle mondiale. Avec les conversations agentiques, Sinch fournit une plateforme flexible, sécurisée et ouverte qui permet aux entreprises d'opérationnaliser les agents IA à leur propre rythme et en fonction de leur maturité technique. Les clients ne sont pas enfermés dans un modèle d'agent unique, une couche de données propriétaire ou un écosystème fermé.

Amélioration du site a annoncé la disponibilité de ses dernières capacités d'agent IA. Les principales mises à jour de l'IA incluent l'analyse conversationnelle, permettant aux utilisateurs non techniques d'obtenir des réponses, de générer des rapports et des tableaux de bord en langage naturel. Ces capacités placent les organisations dans une position de force pour respecter les réglementations en matière d'accessibilité numérique telles que l'Americans with Disabilities Act (ADA) et l'European Accessibility Act (EAA), tout en aidant les marques à améliorer la visibilité sur les moteurs de réponse et les moteurs génératifs.

Flocon de neige  a annoncé que Cortex Code CLI, l'agent de codage d'IA de Snowflake pour les environnements de développement locaux, s'étend au-delà des flux de travail natifs de Snowflake pour prendre en charge n'importe quelle source de données sur tous les systèmes, à commencer par dbt et Apache Airflow (désormais généralement disponibles). Grâce à cette prise en charge étendue, les développeurs bénéficient d'une assistance IA sécurisée et contextuelle au sein de leurs systèmes d'ingénierie de données préférés, permettant aux équipes de travailler avec les données où qu'elles se trouvent et de créer, gérer et optimiser plus efficacement les flux de travail de production.

L'Institut d'innovation technologique  (TII), le pilier de recherche appliquée de l'Advanced Technology Research Council (ATRC) d'Abu Dhabi, a annoncé le lancement d'un service cloud donnant accès aux unités de traitement quantique (QPU) développées par le Quantum Computing Hardware Lab de TII. Initialement disponible pour les partenaires TII, le service permet aux utilisateurs d'exécuter des charges de travail quantiques directement sur le matériel quantique physique de TII dans le cloud.

Tray.ai a annoncé Tray Data Engineering, une nouvelle solution qui combine la transformation des données, l'IA et le développement d'agents. La base de l'ingénierie des données est le nouveau Tray SQL Transformer. Les équipes peuvent exécuter des tâches sophistiquées de préparation de données directement dans leurs flux de travail Tray, en remodelant, en joignant et en transformant les données en vol à l'aide d'une base de données intégrée hautes performances et de transformations directes basées sur SQL. De plus, les équipes peuvent gérer l'intégralité du pipeline de données vers l'intelligence dans un seul système.

Données VAST a annoncé Polaris, un plan de contrôle mondial conçu pour provisionner, exploiter et orchestrer une infrastructure d'IA distribuée dans les environnements de cloud public, de néocloud et de centres de données sur site. Polaris transforme les déploiements VAST en une plate-forme unifiée à l'échelle de la flotte, permettant aux entreprises de gérer les données et l'infrastructure d'IA partout où les charges de travail de formation et d'inférence s'exécutent.

Voir aussi : Que sont les Neoclouds et pourquoi l'IA en a-t-elle besoin ?

Partenariats, collaborations et bien plus

IBM  et Deepgram  a annoncé une collaboration pour intégrer les capacités de synthèse vocale et de synthèse vocale de Deepgram dans la solution d'IA générative Watsonx Orchestrate d'IBM. La collaboration propose une technologie d'IA vocale qui aide les entreprises à automatiser leurs opérations et à répondre à la demande croissante de technologie d'IA conversationnelle, y compris la reconnaissance vocale avancée de la parole en texte, afin que les utilisateurs puissent interagir avec les agents numériques en utilisant la parole naturelle.

Échelle et WEKA a annoncé une nouvelle solution validée conjointement qui combine le stockage haute performance NeuralMesh de WEKA avec le niveau objet rentable de Scality RING. La solution offre aux entreprises le meilleur des deux mondes :des performances à vitesse flash pour les données d'IA active et de calcul haute performance (HPC), combinées à une capacité évolutive et durable pour les grands ensembles de données, tout en réduisant les coûts et la complexité sans compromettre la vitesse.

Données VAST a annoncé une pile de données d'IA de bout en bout, entièrement accélérée par CUDA, fournie grâce à une collaboration élargie avec NVIDIA . Grâce au système d'exploitation VAST AI fonctionnant désormais directement sur les serveurs NVIDIA, les clients peuvent éliminer les goulots d'étranglement des données dans le pipeline d'IA et fournir l'ingestion, la récupération, l'analyse et l'inférence sur une seule plate-forme unifiée.

Si votre entreprise dispose d'informations analytiques en temps réel, envoyez vos annonces à ssalamone@rtinsights.com .

Au cas où vous l'auriez manqué, voici nos plus récents résumés hebdomadaires de l'actualité analytique en temps réel :


Cloud computing

  1. Qu'est-ce que l'infrastructure en tant que code ? Avantages, meilleures pratiques et outils
  2. Que contient un SLA de services cloud ?
  3. Comment les solutions de cybersécurité intelligentes sont de plus en plus optimisées par l'IA et le ML
  4. Êtes-vous certifié pour réparer AWS ?
  5. Avantages et inconvénients de l'infrastructure en tant que code
  6. Helm vs Terraform :quelles sont les différences
  7. Top 5 des jobs cloud de 2020
  8. 5 métriques de réseau pour un monde cloud
  9. Quelle est la relation entre le Big Data et le cloud computing ?