Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Manufacturing Technology >> Système de contrôle d'automatisation

Mardi technique : Pourquoi l'orchestration est la clé du déploiement efficace des agents IA

Vous débutez dans l'orchestration agentique ? Commencez ici .

Soyons réalistes :les agents IA ne sont pas faciles à créer ou à déployer. Mais une fois intégrés, l’impact est incroyable. J'adore entendre les clients d'UiPath comme Ainara Etxeandia Sagasti, responsable des services numériques chez Lantik, qui « combine RPA, IA générative et technologie agentique [pour rendre] les services publics plus accessibles, efficaces et axés sur les citoyens que jamais ». Déjà, plus de 10 000 agents IA ont été créés sur UiPath Platform™. Les agents peuvent transformer l'efficacité et la rentabilité des processus, mais ils ont besoin d'une solide orchestration et de l'aide de l'automatisation et des humains dans la boucle.

Dans cet article de blog, j'aborderai les problèmes les plus courants lors de la création, du test ou du déploiement d'agents IA à grande échelle. J'expliquerai également comment une approche orchestrée, fondée sur le contrôle et l'interopérabilité, peut les atténuer.

1. Performance et fiabilité des agents

Les développeurs et les utilisateurs citent fréquemment le manque de fiabilité des agents d’IA comme un obstacle à la production. Les grands modèles de langage (LLM) rendent les agents flexibles et adaptables, mais cela conduit également à des résultats incohérents. Cela peut contrecarrer le développement et les tests. Comme l'a dit un ingénieur :"Mes agents fonctionnent parfois parfaitement, puis échouent complètement sur des entrées similaires. Nous avons besoin de meilleurs moyens de simuler les cas extrêmes et de reproduire les échecs de manière cohérente... surveiller la « dérive » des agents au fil du temps est un véritable casse-tête. »

Un autre défi concerne les hallucinations (agents inventant des faits ou des entrées d’outils) qui peuvent paralyser les processus. Un utilisateur créant des flux de travail d'IA a partagé :« Les plus gros problèmes que nous trouvons sont la répétabilité et les hallucinations… garantissant que pour des requêtes identiques ou similaires, les agents LLM ne déraillent pas et n'hallucinent pas les entrées dans d'autres outils. Cette imprévisibilité nécessite des tests et une validation approfondis, mais les outils de test des agents sont immatures. Lorsque des erreurs se produisent, elles peuvent être difficiles à diagnostiquer en raison d’un raisonnement opaque du modèle. Cela amène les équipes à être extrêmement prudentes quant aux changements :« Nous nous méfions tellement des changements d’invite du système à ce stade parce que nous avons été brûlés en disant à l’agent de ne pas faire quelque chose et ensuite il commence à se comporter bizarrement… tellement de fois. »

Les performances des modèles d’IA sous-jacents constituent un autre problème. Les grands modèles peuvent être lents ou gourmands en ressources, tandis que les modèles plus petits peuvent ne pas être aussi performants. Trouver le bon équilibre est un défi.

En raison du manque de résultats cohérents et fiables, il est difficile de confier aux agents IA des tâches critiques ou destinées aux clients sans mesures de protection étendues. En pratique, atteindre une fiabilité élevée nécessite souvent de simplifier les comportements des agents, d’introduire des contraintes strictes ou de recourir à des solutions de repli (comme une intervention humaine constante). Pourtant, ces mesures ont tendance à compromettre l'autonomie, l'efficacité et donc l'utilité des agents dans les scénarios d'entreprise à valeur ajoutée.

2. Agence contrôlée et humain dans le circuit

Même si les agents d’IA peuvent automatiser des tâches complexes, les développeurs estiment que la surveillance humaine et la collaboration sont essentielles et qu’il est difficile de trouver le bon équilibre. L’autonomie totale est souvent peu pratique car les agents peuvent commettre des erreurs ou prendre des décisions peu claires. Les entreprises doivent contrôler le degré d'action, qui peut augmenter avec le temps à mesure que les agents deviennent plus précis et plus fiables.

Une approche courante consiste à garder un « humain au courant » pour certaines approbations ou pour gérer les cas extrêmes, mais cela peut ralentir les processus s'il n'est pas bien orchestré. Ensuite, un « humain dans le circuit » est requis pour certaines approbations, décisions critiques et pour gérer les exceptions. Un ingénieur en IA a noté que contraindre les agents et impliquer des humains conduit à de meilleurs résultats :« Les LLM étroitement contraints et supervisés par des humains peuvent obtenir de bons résultats pour des tâches moyennement complexes… Des agents [entièrement] autonomes et polyvalents [à grande échelle] » ne sont pas encore réalistes.

D’un autre côté, si l’IA est trop étroitement contrôlée ou nécessite une vérification constante, elle ne crée pas de retour sur investissement. Parfois, un agent peut interrompre les flux de travail ou créer plus d’efforts qu’il n’en économise. Par exemple, un développeur a expliqué comment le codage de Copilot perturbait la productivité en forçant des corrections manuelles :« Il commence quelque chose mais ne parvient pas à le terminer… Je dois détourner mon attention sur la vérification et la fermeture des balises, des parenthèses, etc. Cela perturbe mon flux, me ralentit. »

Le défi consiste à concevoir des flux de travail hybrides dans lesquels les agents gèrent le travail mais le confient de manière transparente aux humains pour le jugement, sans créer de frictions supplémentaires.

3. Problèmes de coût et de retour sur investissement

Le retour sur investissement des agents IA est une préoccupation récurrente, d’autant plus que leur utilisation évolue. Les API de grands modèles de langage (et l’infrastructure pour les exécuter) peuvent être coûteuses. Les équipes s’inquiètent des explosions de coûts si les agents ne sont pas optimisés. Un utilisateur a affirmé que les agents actuels sont « trop chers » pour ce qu’ils accomplissent. Le retour sur investissement peut être difficile à mesurer lorsque la fiabilité est faible. Si un agent ne réussit qu’une partie du temps, le coût de ses échecs (et des corrections manuelles) peut dépasser les avantages.

Les entreprises tentent de contrôler les coûts grâce à des méthodes telles que l'optimisation des modèles et les politiques d'utilisation. Un utilisateur a décrit la mise en œuvre de la mise en cache pour réduire les appels répétés et la recherche minutieuse de données de haute qualité pour améliorer l'efficacité de la sortie. D'autres se concentrent sur le choix du bon modèle pour le travail : "J'aimerais [aimer] un cadre dans lequel je peux avoir mon invite... l'exécuter sur tous les différents modèles, [et] trouver le meilleur et le moins cher. À l'heure actuelle, mon agent IA utilise plus de 200 modèles d'invite, et les tester et retester tous coûte cher. " En fin de compte, une ingénierie rapide et une expérimentation de modèles entraînent des coûts réels.

Les modèles de tarification des fournisseurs (par jeton, par appel, etc.) jouent également un rôle. Par exemple, utiliser GPT-4 pour tout pourrait être excessif, mais utiliser un modèle moins cher pourrait réduire la qualité. Les équipes doivent trouver un équilibre pour justifier le retour sur investissement. En outre, la direction peut remettre en question la valeur commerciale des projets d’agents s’ils nécessitent des dépenses continues importantes en services d’IA cloud ou en infrastructure spécialisée. Sans gains clairs (que ce soit en termes de gains de revenus ou d’économies de coûts grâce à l’automatisation), l’investissement peut être difficile à défendre. Ainsi, l'optimisation des coûts et la démonstration du retour sur investissement sont une priorité :les équipes veulent « obtenir le meilleur rapport qualité-prix » avec les agents d'IA en mélangeant et en faisant correspondre les modèles tout en se concentrant sur les cas d'utilisation à forte valeur ajoutée.

4. Problèmes de gouvernance, de sécurité et de confidentialité

Les organisations doivent appliquer des directives de sécurité, de conformité et d’éthique aux agents d’IA, mais cela est plus facile à dire qu’à faire. La confidentialité des données est une préoccupation majeure :de nombreuses entreprises interdisent ou restreignent les services d’IA dans le cloud jusqu’à ce qu’elles soient sûres que les données sensibles ne fuiront pas. Un développeur a expliqué que son lieu de travail interdit des outils comme ChatGPT en raison des risques liés à la propriété intellectuelle :"Non. Cela est considéré comme un risque trop important en matière de propriété intellectuelle, [craignant] que cela puisse divulguer nos secrets ou violer les droits d'auteur de quelqu'un d'autre." Lorsqu’ils utilisent des API d’IA tierces, les praticiens craignent que les données des clients soient envoyées par inadvertance à ces services.

La sécurité est un autre problème :les agents autonomes présentent un risque s’ils ne sont pas correctement mis en sandbox. Il existe des rapports selon lesquels des équipes ajoutent des protections supplémentaires aux plates-formes d'agents :par exemple, « nous avons dû ajouter [une] couche de sécurité par-dessus… [et] utiliser la mise en cache (Redis) pour optimiser les coûts » lors du déploiement d'un agent de génération de leads. Les solutions prêtes à l'emploi manquent souvent de contrôles de sécurité ou de gestion des coûts de niveau entreprise, et les entreprises doivent renforcer leur propre gouvernance. De plus, il est difficile de garantir que les agents respectent les réglementations (RGPD, HIPAA, etc.) et suivent les politiques organisationnelles si les cadres des agents ne fournissent pas de points d’ancrage pour la surveillance.

Ces préoccupations rendent les parties prenantes prudentes :elles veulent que les agents d’IA soient puissants, mais transparents et contrôlés « avec des protocoles neutres et universellement acceptés plutôt que des systèmes propriétaires » qui cachent la manière dont les données sont utilisées. En bref, sans fonctionnalités de gouvernance robustes (journaux d'audit, contrôles d'autorisation, remplacement humain, etc.), de nombreuses organisations se heurtent à un mur dans le déploiement d'agents à plus grande échelle.

5. Difficultés de déploiement et de mise à l'échelle

Faire passer un agent d’IA de la validation de principe à la production peut entraîner de nombreux problèmes. Les utilisateurs signalent que ce qui fonctionne dans une démo contrôlée a souvent du mal à s'adapter à l'échelle, au volume et à la complexité du monde réel. Les problèmes courants incluent la latence et le débit (les agents basés sur LLM peuvent être trop lents pour les applications à fort trafic ou en temps réel) et la surcharge opérationnelle liée à l'exécution fiable du système. Comme l'a dit Adrian Krebs, co-fondateur et PDG de Kadoa :« Peu importe si vous utilisez [un] cadre d'orchestration si le problème sous-jacent est que les agents d'IA [sont] trop lents, trop chers et trop peu fiables. Les équipes doivent souvent réorganiser leur architecture pour plus d'efficacité (en utilisant la mise en cache, en échangeant des modèles ou en simplifiant la logique des agents) juste pour répondre aux exigences de performances.

Il existe également un défi de déploiement dans des environnements (cloud, sur site, appareils de périphérie) tout en maintenant la cohérence. Dans les entreprises, tous les services ne souhaitent pas utiliser les mêmes outils, ce qui rend le déploiement standardisé plus difficile. Les problèmes de mise à l’échelle opérationnelle tels que la surveillance, la journalisation et la mise à jour des agents sur le terrain sont également sous-développés. Un utilisateur de Reddit a noté que même le débogage de base peut être « un cauchemar… les journaux d’erreurs sont souvent énigmatiques, sans guide de dépannage clair ». Cela devient encore plus difficile lorsque de nombreux agents sont déployés. Tout cela peut ralentir l’adoption des agents. Même les principaux fournisseurs ont admis que les clients « ne font que commencer » et que des résultats significatifs à grande échelle sont encore en train d'émerger.

6. Complexités de l'orchestration multi-agents

Construire des systèmes dans lesquels plusieurs agents d’IA collaborent est délicat. Les développeurs ont du mal à coordonner les rôles des agents, à gérer l'état partagé et à empêcher les agents de rester bloqués dans des boucles ou d'entrer en conflit les uns avec les autres. Même avec des frameworks d’orchestration, un faux pas dans le résultat d’un agent peut faire dérailler tout un flux de travail. Comme l'a affirmé un développeur : "Les gens ne font qu'expérimenter. Le manque de fiabilité reste un problème majeur :tout dérapage dans le processus de génération auto-régressive peut être fatal pour un agent." D'autres soulignent la difficulté de créer des flux de travail auto-réparateurs ou résilients, par exemple en ajoutant une logique pour réessayer des étapes ayant échoué ou une intervention humaine.

Ces défis d'orchestration signifient que les équipes finissent souvent par résoudre un problème pour que d'autres apparaissent :"Parfois, cela ressemble même à un coup de tonnerre. Résolvez un problème avec une ingénierie rapide, puis créez-en trois autres."

7. Problèmes de compatibilité et d'intégration des modèles

Aucun agent d’IA n’est dominant sur le marché. Les organisations peuvent utiliser OpenAI un jour, passer à un modèle open source le lendemain et intégrer divers outils tiers. Mais la compatibilité et l’intégration fluide constituent un défi majeur. L'intégration d'outils et de modèles nécessite souvent des adaptateurs personnalisés ou du code de collage. Par exemple, connecter un agent à une base de données propriétaire ou à une API interne peut impliquer des efforts importants si le framework n’a pas été conçu dans cet esprit. Les développeurs affirment que de nombreux frameworks sont « lourds » et s’accompagnent d’hypothèses qui ne conviennent pas à tous les cas d’utilisation :« Malheureusement, beaucoup de ces frameworks sont assez lourds si vous n’avez besoin que de bases. »

À l’inverse, devenir « indépendant du framework » signifie souvent écrire beaucoup de textes passe-partout à partir de zéro. Les utilisateurs veulent éviter de réinventer la roue sans s'enfermer. Un développeur a décrit avoir opté pour une bibliothèque plus flexible spécifiquement pour maximiser la compatibilité :« J'ai beaucoup essayé… Finalement, j'ai opté pour l'utilisation de [Instructor], car je pouvais rapidement basculer entre les LLM – à la fois locaux/OS et propriétaires – et je pouvais avoir la même entrée/sortie structurée partout. Cela met en évidence le besoin d’agents permettant un échange facile de modèles ou de services d’IA pour répondre à l’évolution des besoins.

Un autre besoin courant consiste à intégrer les agents aux piles logicielles et aux flux de travail existants. Le manque d'interfaces standard signifie que chaque nouvel agent peut nécessiter un nouvel effort d'intégration. Comme indiqué, les exemples manquants et la configuration avancée peuvent gêner cela. De plus, des problèmes de compatibilité surviennent lorsqu'une mise à jour d'un composant (par exemple, un changement d'API LLM) brise la logique de l'agent, ce que les équipes doivent gérer activement. En bref, les praticiens souhaitent une interopérabilité plug-and-play :des agents d'IA qui se connectent à divers modèles, sources de données et systèmes sans ingénierie personnalisée approfondie.

8. Problèmes de dépendance vis-à-vis des fournisseurs et d'interopérabilité

Les modèles et cadres d’IA évoluent rapidement. De nombreuses équipes recherchent le meilleur et craignent que le choix d’une solution d’agent IA d’un seul fournisseur ne les rende inflexibles à long terme. Il existe une explosion de frameworks d’agents, chacun avec ses propres API et considérations. Un développeur l'a comparé à l'engouement pour les frameworks JavaScript :« Dans quelques mois, nous aurons probablement notre version de « l'application TODO dans 100 frameworks Web JS différents »… Le simple fait de les comprendre tous est une tâche énorme.

S’engager dans un seul écosystème peut signifier une flexibilité limitée. Certaines bibliothèques privilégient des fournisseurs spécifiques. Par exemple, un utilisateur frustré a averti que son choix de framework « échoue principalement », soulignant comment certains outils vous enferment implicitement dans des modèles ou des services particuliers. Le risque est de se développer autour de la vision d’un fournisseur et de se retrouver ensuite « enfermé – dépendant de ses mises à jour, de ses prix et de ses politiques, sans alternative viable ». L'interopérabilité est également une préoccupation pour l'intégration des agents dans les piles logicielles existantes. Les développeurs ne trouvent souvent « aucun exemple clair » pour accrocher les agents aux langues et aux services cloud qu'ils utilisent déjà, ce qui rend plus difficile l'adoption de ces outils au sein de diverses équipes.

Opportunités avec l'orchestration agentique

Bon nombre de ces défis soulignent la nécessité de solutions d’orchestration agentique flexibles, interopérables et centrées sur l’humain. L'orchestration agentique gère, attribue efficacement les tâches et les responsabilités entre les personnes, les robots et les agents d'IA en fonction de leurs capacités, garantissant ainsi que les opérations sont fluides, efficaces et alignées sur les résultats stratégiques de l'entreprise.

Une couche d'orchestration qui intègre efficacement des agents d'IA fiables, une automatisation déterministe et des entrées humaines offre plusieurs avantages :

Lisez "Le guide définitif de l'orchestration agentique".

En résumé, une couche d'orchestration agentique éprouvée et fiable résout directement de nombreux problèmes :

En tirant les leçons des difficultés du monde réel (problèmes de répétabilité, problèmes d’intégration, craintes en matière de sécurité, dépassements de coûts), une telle solution peut permettre aux praticiens d’exploiter les agents d’IA avec beaucoup moins de frictions et de risques. Le résultat est un écosystème d'agents IA plus fiable, adaptable et aligné sur les besoins de l'entreprise, permettant aux équipes de se concentrer sur la résolution des problèmes plutôt que sur la lutte contre l'infrastructure.

Suivant :


Système de contrôle d'automatisation

  1. Nouveau centre de technologie de santé de Hahn Automation
  2. Moulage par injection :robots et cobots plus rapides
  3. Zymergen installe des "dizaines" de robots industriels miniatures de Mecademic
  4. Peak Technologies et Jacobi Robotics s'unissent pour révolutionner la palettisation de caisses mixtes grâce à l'automatisation de l'IA
  5. Mon collègue robot a tout sous contrôle
  6. L'ère "Automation First" dans la technologie d'entreprise est là pour rester
  7. Comment fonctionnent les systèmes SCADA ?
  8. ABB fournira des systèmes robotiques «multiples» à l'usine d'assemblage de batteries hautement automatisée du grand constructeur automobile Scania
  9. Les jumeaux numériques de PLM offrent une vue virtuelle de la fabrication