Mardi technique : Pourquoi l'orchestration est la clé du déploiement efficace des agents IA
Vous débutez dans l'orchestration agentique ? Commencez ici .
Soyons réalistes :les agents IA ne sont pas faciles à créer ou à déployer. Mais une fois intégrés, l’impact est incroyable. J'adore entendre les clients d'UiPath comme Ainara Etxeandia Sagasti, responsable des services numériques chez Lantik, qui « combine RPA, IA générative et technologie agentique [pour rendre] les services publics plus accessibles, efficaces et axés sur les citoyens que jamais ». Déjà, plus de 10 000 agents IA ont été créés sur UiPath Platform™. Les agents peuvent transformer l'efficacité et la rentabilité des processus, mais ils ont besoin d'une solide orchestration et de l'aide de l'automatisation et des humains dans la boucle.
Dans cet article de blog, j'aborderai les problèmes les plus courants lors de la création, du test ou du déploiement d'agents IA à grande échelle. J'expliquerai également comment une approche orchestrée, fondée sur le contrôle et l'interopérabilité, peut les atténuer.
1. Performance et fiabilité des agents
Les développeurs et les utilisateurs citent fréquemment le manque de fiabilité des agents d’IA comme un obstacle à la production. Les grands modèles de langage (LLM) rendent les agents flexibles et adaptables, mais cela conduit également à des résultats incohérents. Cela peut contrecarrer le développement et les tests. Comme l'a dit un ingénieur :"Mes agents fonctionnent parfois parfaitement, puis échouent complètement sur des entrées similaires. Nous avons besoin de meilleurs moyens de simuler les cas extrêmes et de reproduire les échecs de manière cohérente... surveiller la « dérive » des agents au fil du temps est un véritable casse-tête. »
Un autre défi concerne les hallucinations (agents inventant des faits ou des entrées d’outils) qui peuvent paralyser les processus. Un utilisateur créant des flux de travail d'IA a partagé :« Les plus gros problèmes que nous trouvons sont la répétabilité et les hallucinations… garantissant que pour des requêtes identiques ou similaires, les agents LLM ne déraillent pas et n'hallucinent pas les entrées dans d'autres outils. Cette imprévisibilité nécessite des tests et une validation approfondis, mais les outils de test des agents sont immatures. Lorsque des erreurs se produisent, elles peuvent être difficiles à diagnostiquer en raison d’un raisonnement opaque du modèle. Cela amène les équipes à être extrêmement prudentes quant aux changements :« Nous nous méfions tellement des changements d’invite du système à ce stade parce que nous avons été brûlés en disant à l’agent de ne pas faire quelque chose et ensuite il commence à se comporter bizarrement… tellement de fois. »
Les performances des modèles d’IA sous-jacents constituent un autre problème. Les grands modèles peuvent être lents ou gourmands en ressources, tandis que les modèles plus petits peuvent ne pas être aussi performants. Trouver le bon équilibre est un défi.
En raison du manque de résultats cohérents et fiables, il est difficile de confier aux agents IA des tâches critiques ou destinées aux clients sans mesures de protection étendues. En pratique, atteindre une fiabilité élevée nécessite souvent de simplifier les comportements des agents, d’introduire des contraintes strictes ou de recourir à des solutions de repli (comme une intervention humaine constante). Pourtant, ces mesures ont tendance à compromettre l'autonomie, l'efficacité et donc l'utilité des agents dans les scénarios d'entreprise à valeur ajoutée.
2. Agence contrôlée et humain dans le circuit
Même si les agents d’IA peuvent automatiser des tâches complexes, les développeurs estiment que la surveillance humaine et la collaboration sont essentielles et qu’il est difficile de trouver le bon équilibre. L’autonomie totale est souvent peu pratique car les agents peuvent commettre des erreurs ou prendre des décisions peu claires. Les entreprises doivent contrôler le degré d'action, qui peut augmenter avec le temps à mesure que les agents deviennent plus précis et plus fiables.
Une approche courante consiste à garder un « humain au courant » pour certaines approbations ou pour gérer les cas extrêmes, mais cela peut ralentir les processus s'il n'est pas bien orchestré. Ensuite, un « humain dans le circuit » est requis pour certaines approbations, décisions critiques et pour gérer les exceptions. Un ingénieur en IA a noté que contraindre les agents et impliquer des humains conduit à de meilleurs résultats :« Les LLM étroitement contraints et supervisés par des humains peuvent obtenir de bons résultats pour des tâches moyennement complexes… Des agents [entièrement] autonomes et polyvalents [à grande échelle] » ne sont pas encore réalistes.
D’un autre côté, si l’IA est trop étroitement contrôlée ou nécessite une vérification constante, elle ne crée pas de retour sur investissement. Parfois, un agent peut interrompre les flux de travail ou créer plus d’efforts qu’il n’en économise. Par exemple, un développeur a expliqué comment le codage de Copilot perturbait la productivité en forçant des corrections manuelles :« Il commence quelque chose mais ne parvient pas à le terminer… Je dois détourner mon attention sur la vérification et la fermeture des balises, des parenthèses, etc. Cela perturbe mon flux, me ralentit. »
Le défi consiste à concevoir des flux de travail hybrides dans lesquels les agents gèrent le travail mais le confient de manière transparente aux humains pour le jugement, sans créer de frictions supplémentaires.
3. Problèmes de coût et de retour sur investissement
Le retour sur investissement des agents IA est une préoccupation récurrente, d’autant plus que leur utilisation évolue. Les API de grands modèles de langage (et l’infrastructure pour les exécuter) peuvent être coûteuses. Les équipes s’inquiètent des explosions de coûts si les agents ne sont pas optimisés. Un utilisateur a affirmé que les agents actuels sont « trop chers » pour ce qu’ils accomplissent. Le retour sur investissement peut être difficile à mesurer lorsque la fiabilité est faible. Si un agent ne réussit qu’une partie du temps, le coût de ses échecs (et des corrections manuelles) peut dépasser les avantages.
Les entreprises tentent de contrôler les coûts grâce à des méthodes telles que l'optimisation des modèles et les politiques d'utilisation. Un utilisateur a décrit la mise en œuvre de la mise en cache pour réduire les appels répétés et la recherche minutieuse de données de haute qualité pour améliorer l'efficacité de la sortie. D'autres se concentrent sur le choix du bon modèle pour le travail : "J'aimerais [aimer] un cadre dans lequel je peux avoir mon invite... l'exécuter sur tous les différents modèles, [et] trouver le meilleur et le moins cher. À l'heure actuelle, mon agent IA utilise plus de 200 modèles d'invite, et les tester et retester tous coûte cher. " En fin de compte, une ingénierie rapide et une expérimentation de modèles entraînent des coûts réels.
Les modèles de tarification des fournisseurs (par jeton, par appel, etc.) jouent également un rôle. Par exemple, utiliser GPT-4 pour tout pourrait être excessif, mais utiliser un modèle moins cher pourrait réduire la qualité. Les équipes doivent trouver un équilibre pour justifier le retour sur investissement. En outre, la direction peut remettre en question la valeur commerciale des projets d’agents s’ils nécessitent des dépenses continues importantes en services d’IA cloud ou en infrastructure spécialisée. Sans gains clairs (que ce soit en termes de gains de revenus ou d’économies de coûts grâce à l’automatisation), l’investissement peut être difficile à défendre. Ainsi, l'optimisation des coûts et la démonstration du retour sur investissement sont une priorité :les équipes veulent « obtenir le meilleur rapport qualité-prix » avec les agents d'IA en mélangeant et en faisant correspondre les modèles tout en se concentrant sur les cas d'utilisation à forte valeur ajoutée.
4. Problèmes de gouvernance, de sécurité et de confidentialité
Les organisations doivent appliquer des directives de sécurité, de conformité et d’éthique aux agents d’IA, mais cela est plus facile à dire qu’à faire. La confidentialité des données est une préoccupation majeure :de nombreuses entreprises interdisent ou restreignent les services d’IA dans le cloud jusqu’à ce qu’elles soient sûres que les données sensibles ne fuiront pas. Un développeur a expliqué que son lieu de travail interdit des outils comme ChatGPT en raison des risques liés à la propriété intellectuelle :"Non. Cela est considéré comme un risque trop important en matière de propriété intellectuelle, [craignant] que cela puisse divulguer nos secrets ou violer les droits d'auteur de quelqu'un d'autre." Lorsqu’ils utilisent des API d’IA tierces, les praticiens craignent que les données des clients soient envoyées par inadvertance à ces services.
La sécurité est un autre problème :les agents autonomes présentent un risque s’ils ne sont pas correctement mis en sandbox. Il existe des rapports selon lesquels des équipes ajoutent des protections supplémentaires aux plates-formes d'agents :par exemple, « nous avons dû ajouter [une] couche de sécurité par-dessus… [et] utiliser la mise en cache (Redis) pour optimiser les coûts » lors du déploiement d'un agent de génération de leads. Les solutions prêtes à l'emploi manquent souvent de contrôles de sécurité ou de gestion des coûts de niveau entreprise, et les entreprises doivent renforcer leur propre gouvernance. De plus, il est difficile de garantir que les agents respectent les réglementations (RGPD, HIPAA, etc.) et suivent les politiques organisationnelles si les cadres des agents ne fournissent pas de points d’ancrage pour la surveillance.
Ces préoccupations rendent les parties prenantes prudentes :elles veulent que les agents d’IA soient puissants, mais transparents et contrôlés « avec des protocoles neutres et universellement acceptés plutôt que des systèmes propriétaires » qui cachent la manière dont les données sont utilisées. En bref, sans fonctionnalités de gouvernance robustes (journaux d'audit, contrôles d'autorisation, remplacement humain, etc.), de nombreuses organisations se heurtent à un mur dans le déploiement d'agents à plus grande échelle.
5. Difficultés de déploiement et de mise à l'échelle
Faire passer un agent d’IA de la validation de principe à la production peut entraîner de nombreux problèmes. Les utilisateurs signalent que ce qui fonctionne dans une démo contrôlée a souvent du mal à s'adapter à l'échelle, au volume et à la complexité du monde réel. Les problèmes courants incluent la latence et le débit (les agents basés sur LLM peuvent être trop lents pour les applications à fort trafic ou en temps réel) et la surcharge opérationnelle liée à l'exécution fiable du système. Comme l'a dit Adrian Krebs, co-fondateur et PDG de Kadoa :« Peu importe si vous utilisez [un] cadre d'orchestration si le problème sous-jacent est que les agents d'IA [sont] trop lents, trop chers et trop peu fiables. Les équipes doivent souvent réorganiser leur architecture pour plus d'efficacité (en utilisant la mise en cache, en échangeant des modèles ou en simplifiant la logique des agents) juste pour répondre aux exigences de performances.
Il existe également un défi de déploiement dans des environnements (cloud, sur site, appareils de périphérie) tout en maintenant la cohérence. Dans les entreprises, tous les services ne souhaitent pas utiliser les mêmes outils, ce qui rend le déploiement standardisé plus difficile. Les problèmes de mise à l’échelle opérationnelle tels que la surveillance, la journalisation et la mise à jour des agents sur le terrain sont également sous-développés. Un utilisateur de Reddit a noté que même le débogage de base peut être « un cauchemar… les journaux d’erreurs sont souvent énigmatiques, sans guide de dépannage clair ». Cela devient encore plus difficile lorsque de nombreux agents sont déployés. Tout cela peut ralentir l’adoption des agents. Même les principaux fournisseurs ont admis que les clients « ne font que commencer » et que des résultats significatifs à grande échelle sont encore en train d'émerger.
6. Complexités de l'orchestration multi-agents
Construire des systèmes dans lesquels plusieurs agents d’IA collaborent est délicat. Les développeurs ont du mal à coordonner les rôles des agents, à gérer l'état partagé et à empêcher les agents de rester bloqués dans des boucles ou d'entrer en conflit les uns avec les autres. Même avec des frameworks d’orchestration, un faux pas dans le résultat d’un agent peut faire dérailler tout un flux de travail. Comme l'a affirmé un développeur : "Les gens ne font qu'expérimenter. Le manque de fiabilité reste un problème majeur :tout dérapage dans le processus de génération auto-régressive peut être fatal pour un agent." D'autres soulignent la difficulté de créer des flux de travail auto-réparateurs ou résilients, par exemple en ajoutant une logique pour réessayer des étapes ayant échoué ou une intervention humaine.
Ces défis d'orchestration signifient que les équipes finissent souvent par résoudre un problème pour que d'autres apparaissent :"Parfois, cela ressemble même à un coup de tonnerre. Résolvez un problème avec une ingénierie rapide, puis créez-en trois autres."
7. Problèmes de compatibilité et d'intégration des modèles
Aucun agent d’IA n’est dominant sur le marché. Les organisations peuvent utiliser OpenAI un jour, passer à un modèle open source le lendemain et intégrer divers outils tiers. Mais la compatibilité et l’intégration fluide constituent un défi majeur. L'intégration d'outils et de modèles nécessite souvent des adaptateurs personnalisés ou du code de collage. Par exemple, connecter un agent à une base de données propriétaire ou à une API interne peut impliquer des efforts importants si le framework n’a pas été conçu dans cet esprit. Les développeurs affirment que de nombreux frameworks sont « lourds » et s’accompagnent d’hypothèses qui ne conviennent pas à tous les cas d’utilisation :« Malheureusement, beaucoup de ces frameworks sont assez lourds si vous n’avez besoin que de bases. »
À l’inverse, devenir « indépendant du framework » signifie souvent écrire beaucoup de textes passe-partout à partir de zéro. Les utilisateurs veulent éviter de réinventer la roue sans s'enfermer. Un développeur a décrit avoir opté pour une bibliothèque plus flexible spécifiquement pour maximiser la compatibilité :« J'ai beaucoup essayé… Finalement, j'ai opté pour l'utilisation de [Instructor], car je pouvais rapidement basculer entre les LLM – à la fois locaux/OS et propriétaires – et je pouvais avoir la même entrée/sortie structurée partout. Cela met en évidence le besoin d’agents permettant un échange facile de modèles ou de services d’IA pour répondre à l’évolution des besoins.
Un autre besoin courant consiste à intégrer les agents aux piles logicielles et aux flux de travail existants. Le manque d'interfaces standard signifie que chaque nouvel agent peut nécessiter un nouvel effort d'intégration. Comme indiqué, les exemples manquants et la configuration avancée peuvent gêner cela. De plus, des problèmes de compatibilité surviennent lorsqu'une mise à jour d'un composant (par exemple, un changement d'API LLM) brise la logique de l'agent, ce que les équipes doivent gérer activement. En bref, les praticiens souhaitent une interopérabilité plug-and-play :des agents d'IA qui se connectent à divers modèles, sources de données et systèmes sans ingénierie personnalisée approfondie.
8. Problèmes de dépendance vis-à-vis des fournisseurs et d'interopérabilité
Les modèles et cadres d’IA évoluent rapidement. De nombreuses équipes recherchent le meilleur et craignent que le choix d’une solution d’agent IA d’un seul fournisseur ne les rende inflexibles à long terme. Il existe une explosion de frameworks d’agents, chacun avec ses propres API et considérations. Un développeur l'a comparé à l'engouement pour les frameworks JavaScript :« Dans quelques mois, nous aurons probablement notre version de « l'application TODO dans 100 frameworks Web JS différents »… Le simple fait de les comprendre tous est une tâche énorme.
S’engager dans un seul écosystème peut signifier une flexibilité limitée. Certaines bibliothèques privilégient des fournisseurs spécifiques. Par exemple, un utilisateur frustré a averti que son choix de framework « échoue principalement », soulignant comment certains outils vous enferment implicitement dans des modèles ou des services particuliers. Le risque est de se développer autour de la vision d’un fournisseur et de se retrouver ensuite « enfermé – dépendant de ses mises à jour, de ses prix et de ses politiques, sans alternative viable ». L'interopérabilité est également une préoccupation pour l'intégration des agents dans les piles logicielles existantes. Les développeurs ne trouvent souvent « aucun exemple clair » pour accrocher les agents aux langues et aux services cloud qu'ils utilisent déjà, ce qui rend plus difficile l'adoption de ces outils au sein de diverses équipes.
Opportunités avec l'orchestration agentique
Bon nombre de ces défis soulignent la nécessité de solutions d’orchestration agentique flexibles, interopérables et centrées sur l’humain. L'orchestration agentique gère, attribue efficacement les tâches et les responsabilités entre les personnes, les robots et les agents d'IA en fonction de leurs capacités, garantissant ainsi que les opérations sont fluides, efficaces et alignées sur les résultats stratégiques de l'entreprise.
Une couche d'orchestration qui intègre efficacement des agents d'IA fiables, une automatisation déterministe et des entrées humaines offre plusieurs avantages :
-
Fiabilité améliorée grâce à des dispositifs de sécurité déterministes :l'état final idéal de l'approche orchestrée est une agence contrôlée, qui permet une efficacité optimale sans intervention manuelle excessive. Cela dépend de l’orchestration d’agents d’IA spécialisés dont les processus sont soigneusement limités par des outils de niveau entreprise, des robots déterministes et un niveau confortable de contrôle humain. En combinant des agents d'IA avec des scripts ou des règles d'automatisation déterministes, une couche d'orchestration garantit qu'il existe toujours une voie de secours. Par exemple, si le résultat d’un agent IA n’atteint pas un certain seuil de précision, une règle prédéfinie peut gérer ce cas (ou au moins le signaler). Cette approche hybride exploite la créativité de l’IA, mais avec des garde-fous. Au fil du temps, une plateforme d'orchestration pourrait même apprendre quel agent est le plus fiable pour quelle tâche (grâce au suivi des résultats) et acheminer les tâches en conséquence, optimisant ainsi les taux de réussite. L’effet net est une fiabilité globale du flux de travail supérieure à celle d’un seul agent boîte noire. Comme l'a fait remarquer un développeur, « des [agents] étroitement limités sous une surveillance humaine » et des processus bien définis peuvent donner de bons résultats fiables, exactement ce que permet l'orchestration.
-
Intégration humaine dans la boucle :l'un des principaux avantages d'une couche d'orchestration bien conçue est la facilité d'intégration des points de contrôle humains. Par exemple, la couche d’orchestration peut être configurée pour faire une pause et demander l’approbation humaine si la confiance d’un agent est faible ou si sa décision présente des enjeux élevés. Cela fournit le « filet de sécurité » nécessaire pour déployer des agents dans les flux de travail critiques. Au lieu de coder en dur la surveillance humaine séparément pour chaque agent, la plate-forme commune peut offrir une interface cohérente pour la transmission aux humains, et même l'apprentissage des corrections humaines au fil du temps. Cet alignement des flux de travail IA et humains permet de tirer parti de la vitesse de l'IA lorsque cela est approprié, mais toujours avec un soutien humain pour garantir la fiabilité et la confiance.
-
Gouvernance et sécurité centralisées :une couche d'orchestration indépendante du fournisseur peut appliquer la sécurité et la conformité de manière uniforme dans toutes les activités d'IA. Il peut servir de passerelle qui surveille les données envoyées à chaque agent, nettoie ou anonymise les informations sensibles et enregistre toutes les décisions des agents à des fins d'audit. Cela répond aux problèmes de gouvernance en donnant aux organisations un point de contrôle unique :par exemple, les administrateurs pourraient configurer quels modèles d'IA sont autorisés à gérer certaines données, ou exiger que certaines requêtes soient toujours traitées par un modèle sur site en raison des politiques de confidentialité. Un tel système pourrait également s'intégrer à la gestion des identités et des accès (IAM) pour un contrôle basé sur les rôles sur les actions des agents. Les politiques (telles que les limites de taux ou les budgets de coûts) pourraient être appliquées à l’échelle mondiale. Toutes ces fonctionnalités permettent aux entreprises d'adopter des agents d'IA en toute confiance, sachant qu'il existe une couche de surveillance pour empêcher les fuites de données indésirables ou les comportements malveillants.
-
Interopérabilité et évitement du verrouillage :une couche d'orchestration neutre permet aux équipes de connecter différents modèles ou services d'IA selon leurs besoins, sans être liées à l'écosystème d'un fournisseur. Cela atténue la crainte de devoir tout reconstruire si vous changez de fournisseur. Comme l’a préconisé un ingénieur, l’objectif est que les utilisateurs finaux « n’aient pas à se soucier de la dépendance vis-à-vis d’un fournisseur… garantissant que les systèmes d’IA fonctionnent de manière transparente sur toutes les plates-formes plutôt que de piéger les utilisateurs dans l’écosystème d’un seul fournisseur ». En parlant un « langage commun » à plusieurs backends d'IA (OpenAI, Anthropic, modèles open source, etc.), une couche d'orchestration garantit que vous pouvez toujours choisir le meilleur outil pour le travail et pivoter lorsque la technologie ou les prix changent.
-
Coordination et spécialisation multi-agents :une plateforme d'orchestration peut gérer une équipe d'agents, chacun spécialisé pour une sous-tâche, et coordonner leurs interactions de manière déterministe. Cela réduit la complexité pour le praticien :la couche d'orchestration peut gérer le routage des tâches, la gestion des états et la récupération des erreurs entre les agents. Au lieu d'un agent monolithique qui tente tout (et échoue souvent de manière imprévisible), vous pouvez avoir des agents plus simples concentrés sur des rôles spécifiques, avec la couche d'orchestration les reliant. Une telle configuration peut également inclure une automatisation basée sur des règles ou des composants logiciels traditionnels pour les tâches qui ne nécessitent pas d’IA, garantissant ainsi que l’IA n’est utilisée que là où elle ajoute de la valeur. Le résultat est un système plus robuste dans lequel si un composant échoue ou produit un résultat incertain, la plate-forme d'orchestration peut le détecter (par exemple via des validations, des tentatives ou des solutions de repli).
-
Optimisation des coûts et flexibilité des ressources :une plate-forme indépendante du fournisseur peut choisir de manière dynamique entre différents modèles ou itinéraires pour minimiser les coûts tout en répondant aux besoins de performances. Par exemple, il peut utiliser un modèle local moins cher pour des requêtes simples et appeler une API plus coûteuse uniquement pour les cas complexes, de manière transparente pour l'utilisateur final. Il peut également regrouper des requêtes, mettre en cache les résultats ou ajuster la fréquence d'exécution des agents. Une équipe a déclaré le faire manuellement (en ajoutant une mise en cache et en utilisant un modèle moins cher pour certaines tâches) ; une plate-forme d'orchestration intelligente pourrait gérer automatiquement ces optimisations. De plus, en n'étant pas liées à un seul fournisseur, les organisations peuvent profiter de la concurrence sur les prix et passer à un service plus rentable si elles augmentent les prix. Cette flexibilité améliore le retour sur investissement, puisque l'orchestration garantit que vous utilisez les ressources de la manière la plus efficace (le modèle « le meilleur et le moins cher » pour chaque tâche, comme le souhaitent les utilisateurs).
Lisez "Le guide définitif de l'orchestration agentique".
En résumé, une couche d'orchestration agentique éprouvée et fiable résout directement de nombreux problèmes :
-
Il offre une agence contrôlée en améliorant la fiabilité des agents sans compromettre l'autonomie ou l'utilité
-
Mélange l'IA avec les humains et les robots pour de meilleurs résultats
-
Résume la complexité multi-agents dans un cadre gérable
-
Évite les limitations d'un seul fournisseur
-
Fournit la gouvernance nécessaire au déploiement à l'échelle de l'entreprise
En tirant les leçons des difficultés du monde réel (problèmes de répétabilité, problèmes d’intégration, craintes en matière de sécurité, dépassements de coûts), une telle solution peut permettre aux praticiens d’exploiter les agents d’IA avec beaucoup moins de frictions et de risques. Le résultat est un écosystème d'agents IA plus fiable, adaptable et aligné sur les besoins de l'entreprise, permettant aux équipes de se concentrer sur la résolution des problèmes plutôt que sur la lutte contre l'infrastructure.
Suivant :
Système de contrôle d'automatisation
- Nouveau centre de technologie de santé de Hahn Automation
- Moulage par injection :robots et cobots plus rapides
- Zymergen installe des "dizaines" de robots industriels miniatures de Mecademic
- Peak Technologies et Jacobi Robotics s'unissent pour révolutionner la palettisation de caisses mixtes grâce à l'automatisation de l'IA
- Mon collègue robot a tout sous contrôle
- L'ère "Automation First" dans la technologie d'entreprise est là pour rester
- Comment fonctionnent les systèmes SCADA ?
- ABB fournira des systèmes robotiques «multiples» à l'usine d'assemblage de batteries hautement automatisée du grand constructeur automobile Scania
- Les jumeaux numériques de PLM offrent une vue virtuelle de la fabrication