\n\n\n\n Mon expérience avec un Agent LLM : Impact réel de l'IA au travail - AgntHQ \n

Mon expérience avec un Agent LLM : Impact réel de l’IA au travail

📖 13 min read2,407 wordsUpdated Mar 26, 2026

Salut tout le monde, Sarah Chen ici d’agnthq.com, et j’ai une histoire à vous raconter aujourd’hui. Vous vous souvenez l’année dernière quand tout le monde parlait des LLMs et de la façon dont ils allaient tout changer ? Eh bien, ils l’ont fait, mais pas comme beaucoup s’y attendaient. Le véritable changement, celui qui fait réellement une différence dans ma façon de travailler (et probablement dans la vôtre aussi), ne concerne pas seulement les grands modèles de langage. Cela concerne les agents construits dessus.

Je joue avec ces choses depuis des mois maintenant, essayant de comprendre lesquels tiennent vraiment leurs promesses. Et laissez-moi vous dire, il y a beaucoup de bruit là-dehors. Mais une plateforme m’a constamment impressionnée par son utilité pratique, surtout pour quelqu’un comme moi qui jongle avec la création de contenu, la recherche et les extraits de code : Microsoft AutoGen. Aujourd’hui, je ne fais pas simplement une revue d’AutoGen ; je vais vous montrer comment je l’utilise vraiment pour faciliter ma vie, en me concentrant sur ses capacités multi-agents pour un problème très spécifique : la génération de contenu avec des exemples de code intégrés.

Oubliez le discours générique « AutoGen est un cadre pour les conversations multi-agents ». Nous allons nous retrousser les manches. Il ne s’agit pas juste de construire un agent ; il s’agit de construire une équipe d’agents, chacun avec un rôle spécifique, pour s’attaquer à une tâche complexe. Pensez-y comme à l’assemblage d’une petite équipe virtuelle très efficace pour un projet.

Le Problème : Ma Quête Sans Fin pour des Extraits de Code Pratiques

En tant que blogueur technologique, ma plus grande douleur n’est pas seulement de rédiger l’article ; c’est de m’assurer que les exemples sont bons. Je peux écrire sur les agents d’IA toute la journée, mais si je ne peux pas vous montrer un extrait de code rapide et fonctionnel qui illustre mon propos, à quoi bon ? Historiquement, cela signifiait des heures de tests manuels, de débogage et souvent, de réaliser que mon idée initiale était erronée. C’est une énorme perte de temps.

J’avais besoin d’un système capable de :

  • Comprendre une demande de niveau élevé pour un exemple de code.
  • Générer le code réel.
  • Tester ce code pour s’assurer qu’il fonctionne.
  • Fournir un retour d’information s’il ne fonctionne pas.
  • Intégrer ce code fonctionnel dans un récit.

C’est beaucoup pour un LLM à gérer, et souvent, quand j’essayais de forcer les choses avec un seul prompt, j’obtenais des hallucinations, du code non fonctionnel ou simplement des platitudes génériques. C’est là que l’approche multi-agents d’AutoGen brille.

Mon Configuration AutoGen : L’Équipe des « Créateurs de Contenu »

J’ai mis en place une petite « équipe » d’agents dans AutoGen, chacun conçu pour gérer une partie spécifique de mon flux de création de contenu. Voici qui fait partie de l’équipe :

1. L’Agent « Écrivain » (User_Proxy)

C’est moi, en essence. Ou plutôt, c’est l’agent qui représente mon entrée et reçoit la sortie finale. Il est configuré pour permettre l’intervention humaine, ce qui est crucial pour revoir le contenu final et fournir un retour d’information sur le code. Je ne veux pas simplement faire confiance aveuglément à ce que les agents produisent ; j’ai besoin de les guider.


user_proxy = autogen.UserProxyAgent(
 name="Writer",
 human_input_mode="ALWAYS", # Important pour guider le processus
 max_consecutive_auto_reply=10,
 is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
 code_execution_config={"work_dir": "agent_workspace"},
)

Une petite note sur human_input_mode="ALWAYS" : C’est essentiel pour moi. Cela signifie qu’après chaque tour de conversation entre agents, AutoGen attend mon input. Parfois, je le change en « NEVER » si je suis confiant dans un flux de travail, mais pour des tâches créatives complexes, « ALWAYS » me garde dans la boucle.

2. L’Agent « Codeur » (Assistant)

Le travail de cet agent est d’écrire le code réel. C’est un agent assistant, ce qui signifie qu’il n’exécute pas directement le code, mais il peut proposer des blocs de code. Je lui ai donné un message système qui met l’accent sur la clarté et la praticité.


coder = autogen.AssistantAgent(
 name="Coder",
 llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]}, # Utilisation d'un modèle puissant ici
 system_message="Vous êtes un programmeur Python. Vous écrivez un code Python clair, concis et fonctionnel. Lorsque l'on vous demande de fournir un exemple de code, générez uniquement le code et les déclarations d'import nécessaires. N'ajoutez pas d'explications sauf demande expresse. Concentrez-vous sur des exemples pratiques et exécutables.",
)

J’ai constaté qu’être très explicite dans le system_message pour l’agent Codeur réduisait beaucoup le « superflu » que les LLMs ajoutent souvent, comme de longues explications avant que le code ne commence. Je veux juste le code, les amis !

3. L’Agent « Testeur » (User_Proxy avec Exécution de Code)

C’est ici que la magie opère. L’agent Testeur est un autre UserProxyAgent, mais son objectif principal est de recevoir le code du Codeur, de l’exécuter et de rendre compte des résultats. S’il y a une erreur, il le dit au Codeur, et le Codeur essaie à nouveau. Cette boucle de retour d’information est inestimable.


tester = autogen.UserProxyAgent(
 name="Tester",
 human_input_mode="NEVER", # Nous n'avons pas besoin d'input humain pour le test, juste l'exécution
 max_consecutive_auto_reply=10,
 code_execution_config={"work_dir": "agent_workspace"},
 system_message="Vous êtes un environnement d'exécution de code Python. Vous recevrez du code Python, l'exécuterez et rapporterez la sortie. S'il y a des erreurs, rapportez-les clairement.",
)

Définir human_input_mode="NEVER" pour le Testeur est important. Nous voulons qu’il soit autonome dans sa fonction de test. Le code_execution_config indique un répertoire de travail, où tous les scripts générés sont sauvegardés et exécutés.

4. L’Agent « Explicateur » (Assistant)

Une fois que nous avons du code fonctionnel, l’agent Explicateur intervient. Son travail est de prendre le code fonctionnel et de l’expliquer en termes simples, adaptés à un post de blog. Il formate également la sortie pour une intégration facile.


explainer = autogen.AssistantAgent(
 name="Explainer",
 llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]},
 system_message="Vous êtes un rédacteur de contenu technique. Vous recevez du code Python et sa sortie, et votre tâche est de l'expliquer clairement et de manière concise pour un public de blog. Fournissez une brève introduction à l'objectif du code, une explication étape par étape si nécessaire, et enveloppez le code dans un bloc markdown. Gardez vos explications engageantes et faciles à comprendre.",
)

J’ai constaté que donner à l’Explicateur un mandat clair sur son public et son format de sortie aidait vraiment. Cela empêche de simplement répéter le code ou d’être trop verbeux.

Le Flux de Travail : Comment Ils Communiquent Entre Eux

Voici comment j’oriente leur conversation en utilisant le GroupChatManager d’AutoGen :


groupchat = autogen.GroupChat(agents=[Writer, Coder, Tester, Explainer], messages=[], max_round=20)
manager = autogen.GroupChatManager(groupchat=groupchat, llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]})

# Initier la conversation
Writer.initiate_chat(
 manager,
 message="J'ai besoin d'un exemple de code Python qui démontre comment créer un chat multi-agent AutoGen simple entre deux agents assistants. Assurez-vous que le code est exécutable et inclut une conversation de base.",
)

Lorsque je lance cela, voici à peu près ce qui se passe :

  1. Writer (moi) envoie la demande initiale.
  2. Manager dirige la demande vers le Coder.
  3. Coder génère un script Python pour le chat multi-agent.
  4. Manager passe ensuite ce code au Tester.
  5. Tester exécute le code.
    • S’il y a une erreur, Tester la rapporte au Coder, qui essaie alors de le corriger et génère un nouveau code. Cette boucle continue jusqu’à ce que le code s’exécute avec succès.
    • Si le code fonctionne avec succès, Tester rapporte la sortie.
  6. Une fois le code fonctionnel et sa sortie confirmée, le Manager dirige la conversation vers l’Explainer.
  7. Explainer prend le code fonctionnel et sa sortie, et génère le texte explicatif pour mon post de blog, formaté avec des blocs de code markdown.
  8. Enfin, le Writer (moi) passe en revue la sortie de l’Explicateur et l’ensemble de la conversation, fournissant un message « TERMINATE » s’il est satisfait, ou d’autres instructions si ce n’est pas le cas.

Exemple Pratique : Génération d’un Extrait de Chat d’Agent AutoGen

Disons que j’ai besoin d’un exemple simple pour un post de blog sur l’interaction de base entre agents AutoGen. Mon prompt pour le « Writer » (qui est moi initiant la conversation) serait :

"J'ai besoin d'un exemple de code Python qui démontre comment créer un chat multi-agent AutoGen simple entre deux agents assistants. Assurez-vous que le code est exécutable et inclut une conversation de base."

Voici une version simplifiée de ce que les agents pourraient produire après quelques tours :

Le Code (Généré par le Codeur, Testé par le Testeur)


import autogen

# Configuration pour les LLMs
config_list = [
 {
 "model": "gpt-4-turbo-preview",
 }
]

# Créer le premier agent assistant
agent1 = autogen.AssistantAgent(
 name="AgentA",
 llm_config={"config_list": config_list},
 system_message="Vous êtes AgentA. Votre tâche est de saluer AgentB et de demander des nouvelles de la météo.",
)

# Créer le deuxième agent assistant
agent2 = autogen.AssistantAgent(
 name="AgentB",
 llm_config={"config_list": config_list},
 system_message="Vous êtes AgentB. Votre tâche est de répondre au salut d'AgentA et de fournir une mise à jour simple sur la météo.",
)

# Créer un agent proxy utilisateur pour initier la conversation
user_proxy = autogen.UserProxyAgent(
 name="User_Proxy",
 human_input_mode="NEVER",
 max_consecutive_auto_reply=0, # Cet agent ne fait que commencer la discussion et ne répond pas
 is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
 code_execution_config={"work_dir": "agent_workspace"}, # Pas strictement nécessaire pour cet exemple, mais bonne pratique
)

# Démarrer la conversation
user_proxy.initiate_chat(agent1, message="Commencer la conversation avec AgentB.")

L’Explication (Générée par Explainer)

Ce script Python simple montre comment mettre en place une conversation de base entre deux agents assistants utilisant Microsoft AutoGen. Nous définissons deux instances AssistantAgent, AgentA et AgentB, chacune avec un rôle distinct défini dans leur system_message. AgentA a pour tâche de saluer et de demander des nouvelles de la météo, tandis que AgentB doit répondre avec une mise à jour météo.

Un UserProxyAgent, nommé User_Proxy, est utilisé pour initier le dialogue. Dans cette configuration, User_Proxy agit comme un chef d’orchestre, démarrant la conversation avec AgentA. Étant donné que human_input_mode est réglé sur "NEVER" et max_consecutive_auto_reply sur 0 pour User_Proxy, il commence simplement la conversation puis se retire, permettant à AgentA et AgentB d’interagir en fonction de leurs messages système et du déroulement de la conversation.

Ce schéma est excellent pour créer des flux de travail automatisés où différentes entités IA collaborent pour atteindre un objectif, comme générer du contenu dynamique ou simuler des interactions.

Mes Retours et Ce Que J’ai Appris

AutoGen, en particulier ses capacités multi-agents, a été un véritable atout pour ma productivité. Il ne s’agit pas de me remplacer ; il s’agit de me donner une équipe autonome et hautement compétente pour gérer le travail de base et la vérification qui prenaient tellement de mon temps. Voici mes principales conclusions :

  1. Définir des Rôles Clairs : Plus vos system_message pour chaque agent sont spécifiques, mieux ils fonctionnent. L’ambiguïté mène à des réponses générales, ce qui n’est pas ce que nous voulons dans une équipe spécialisée. Pensez-y comme à une description de poste pour chaque membre de l’équipe.
  2. L’Amélioration Itérative est Essentielle : Ne vous attendez pas à la perfection dès le premier essai. Mes agents, surtout le Codeur et le Testeur, ont traversé de nombreuses itérations de messages système et de prompts avant de commencer à produire de manière fiable ce dont j’avais besoin. C’est là que le human_input_mode="ALWAYS" pour mon agent « Ecrivain » est inestimable.
  3. L’Agent Testeur est un Changement Significatif : Sincèrement, avoir un agent capable d’exécuter du code et de fournir un retour immédiat et objectif est transformateur. C’est comme avoir un ingénieur QA dédié pour chaque extrait de code que je génère. Cela réduit considérablement le nombre d’exemples non fonctionnels que je publierais autrement.
  4. Gérer le Flux de Conversation : Le GroupChatManager est puissant, mais comprendre comment les agents échangent des messages et qui répond à qui est crucial. Parfois, je dirige explicitement les agents (par exemple, « Codeur, veuillez répondre aux retours du Testeur ») si le manager est confus.
  5. Le Choix du LLM Est Important : Bien qu’AutoGen fonctionne avec divers LLMs, j’ai constaté que des modèles plus performants comme GPT-4-Turbo-Preview produisent des résultats nettement meilleurs, surtout pour la génération de code et les explications complexes. Cela vaut le coût supplémentaire pour des tâches critiques.

AutoGen n’est pas qu’une plateforme ; c’est une nouvelle façon de penser comment l’IA peut aider dans des tâches complexes. Elle dépasse les prompts à tour unique pour orchestrer des flux de travail sophistiqués. Pour les créateurs de contenu, les développeurs ou quiconque ayant besoin de générer et de vérifier des exemples techniques, cette approche multi-agents est, à mon avis, l’une des applications les plus pratiques et les plus impactantes des agents IA que j’ai vues jusqu’à présent.

Donc, si vous vous noyez dans les détails des exemples de code pour votre contenu ou vos projets, essayez le système multi-agents d’AutoGen. Cela pourrait être l’équipe virtuelle dont vous ne saviez pas que vous aviez besoin. Faites-moi savoir dans les commentaires si vous avez essayé des configurations similaires ou si vous avez des questions !

Jusqu’à la prochaine fois, continuez à construire et à explorer !

Articles Connexes

🕒 Published:

📊
Written by Jake Chen

AI technology analyst covering agent platforms since 2021. Tested 40+ agent frameworks. Regular contributor to AI industry publications.

Learn more →

Leave a Comment

Your email address will not be published. Required fields are marked *

Browse Topics: Advanced AI Agents | Advanced Techniques | AI Agent Basics | AI Agent Tools | AI Agent Tutorials

Related Sites

Ai7botAgntmaxAgntworkAgntai
Scroll to Top