Hallo zusammen, hier ist Sarah Chen von agnthq.com, und ich habe heute eine Geschichte für euch. Erinnern Sie sich an das letzte Jahr, als alle über LLM sprachen und darüber, wie sie alles verändern würden? Nun, sie haben es getan, aber nicht auf die Art und Weise, wie viele es erwartet haben. Der wahre Wandel, der wirklich den Unterschied in meiner Arbeitsweise (und wahrscheinlich auch in Ihrer) ausmacht, ist nicht nur eine Frage von großen Sprachmodellen. Es geht um die darauf basierenden Agenten.
Ich experimentiere seit Monaten mit diesen Dingen und versuche herauszufinden, welche tatsächlich ihre Versprechen halten. Und lassen Sie mich Ihnen sagen, es gibt viel Lärm in der Branche. Aber eine Plattform hat mich konstant durch ihren praktischen Nutzen beeindruckt, besonders für jemanden wie mich, der mit Content-Erstellung, Recherche und Code-Beispielen jongliert: Microsoft AutoGen. Heute werde ich nicht nur eine Rezension von AutoGen machen; ich werde Ihnen zeigen, wie ich es tatsächlich benutze, um mein Leben einfacher zu gestalten, indem ich mich auf seine Multi-Agenten-Funktionen für ein sehr spezifisches Problem konzentriere: die Erstellung von Inhalten mit integrierten Code-Beispielen.
Vergessen Sie den generischen Satz „AutoGen ist ein Framework für Multi-Agenten-Gespräche“. Wir werden uns wirklich damit auseinandersetzen. Es geht nicht nur darum, einen Agenten zu bauen; es geht darum, ein Team von Agenten zu kreieren, von denen jeder eine spezifische Rolle hat, um sich einer komplexen Aufgabe zu widmen. Denken Sie an die Zusammenstellung eines kleinen, sehr effektiven virtuellen Teams für ein Projekt.
Das Problem: Meine Endlose Suche nach Praktischen Code-Beispielen
Als Tech-Bloggerin besteht mein größtes Problem nicht nur darin, den Artikel zu schreiben; es besteht darin, sicherzustellen, dass die Beispiele gut sind. Ich kann den ganzen Tag über KI-Agenten schreiben, aber wenn ich Ihnen kein schnelles Code-Beispiel zeigen kann, das meinen Punkt veranschaulicht, wozu das Ganze? Historisch bedeutete dies stundenlanges manuelles Testen, Debuggen und oft die Erkenntnis, dass meine ursprüngliche Idee fehlerhaft war. Das ist eine riesige Zeitverschwendung.
Ich benötigte ein System, das in der Lage ist:
- eine hochgradige Anforderung für ein Code-Beispiel zu verstehen.
- den tatsächlichen Code zu generieren.
- diesen Code zu testen, um sicherzustellen, dass er funktioniert.
- Rückmeldung zu geben, wenn es nicht funktioniert.
- diesen funktionierenden Code in eine Erzählung zu integrieren.
Das ist eine Menge für ein LLM zu bewältigen, und oft, wenn ich versuchte, das System mit nur einem Hinweis zu überlasten, endete ich mit Halluzinationen, nicht funktionierendem Code oder einfach nur generischen Floskeln. Hier kommt der Multi-Agenten-Ansatz von AutoGen ins Spiel.
Mein AutoGen-Setup: Das „Content Creation Team“
Ich habe ein kleines „Team“ von Agenten in AutoGen eingerichtet, von denen jeder dafür konzipiert ist, einen spezifischen Teil meines Content-Erstellungs-Workflows zu verwalten. Hier ist, wer im Team ist:
1. Der „Writer“-Agent (User_Proxy)
Im Grunde bin ich das. Oder besser gesagt, es ist der Agent, der meine Eingaben repräsentiert und die endgültige Ausgabe erhält. Er ist so konfiguriert, dass er menschliches Eingreifen ermöglicht, was entscheidend ist, um den finalen Inhalt zu überprüfen und Feedback zum Code zu geben. Ich möchte nicht einfach blind darauf vertrauen, was die Agenten produzieren; ich muss sie lenken.
user_proxy = autogen.UserProxyAgent(
name="Writer",
human_input_mode="ALWAYS", # Wichtig, um den Prozess zu leiten
max_consecutive_auto_reply=10,
is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
code_execution_config={"work_dir": "agent_workspace"},
)
Eine kleine Anmerkung zu human_input_mode="ALWAYS": Das ist für mich entscheidend. Das bedeutet, dass AutoGen nach jeder Gesprächsrunde zwischen den Agenten auf meine Eingabe wartet. Manchmal ändere ich es auf „NEVER“, wenn ich Vertrauen in einen Workflow habe, aber für komplexe kreative Aufgaben hält mich „ALWAYS“ engagiert.
2. Der „Coder“-Agent (Assistant)
Die Aufgabe dieses Agents ist es, den tatsächlichen Code zu schreiben. Es ist ein Assistenzagent, was bedeutet, dass er den Code nicht direkt ausführt, sondern Codeblöcke vorschlagen kann. Ich habe ihm eine Systemnachricht gegeben, die den Schwerpunkt auf Klarheit und Praktikabilität legt.
coder = autogen.AssistantAgent(
name="Coder",
llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]}, # Verwendung eines leistungsstarken Modells hier
system_message="You are a Python programmer. You write clear, concise, and functional Python code. When asked to provide a code example, generate only the code and any necessary import statements. Do not add explanations unless specifically asked. Focus on practical, runnable examples.",
)
Ich habe festgestellt, dass ich in der system_message für den Coder-Agenten sehr deutlich sein musste, um die „Schwere“ zu reduzieren, die LLMs oft hinzufügen, wie lange Erklärungen, bevor der Code überhaupt beginnt. Ich will einfach nur den Code, Leute!
3. Der „Tester“-Agent (User_Proxy mit Code-Ausführung)
Hier geschieht die Magie. Der Tester-Agent ist ein weiterer UserProxyAgent, aber sein Hauptziel ist es, den Code vom Coder zu erhalten, ihn auszuführen und die Ergebnisse zu berichten. Wenn ein Fehler auftritt, sagt er es dem Coder, der versucht, ihn zu beheben und neuen Code generiert. Diese Feedback-Schleife ist wertvoll.
tester = autogen.UserProxyAgent(
name="Tester",
human_input_mode="NEVER", # Kein menschliches Eingreifen für Tests nötig, nur die Ausführung
max_consecutive_auto_reply=10,
code_execution_config={"work_dir": "agent_workspace"},
system_message="You are a Python code execution environment. You will receive Python code, execute it, and report the output. If there are errors, report them clearly.",
)
Es ist wichtig, human_input_mode="NEVER" für den Tester festzulegen. Wir wollen, dass er in seiner Testfunktion autonom ist. Die code_execution_config verweist auf ein Arbeitsverzeichnis, in dem alle generierten Skripte gespeichert und ausgeführt werden.
4. Der „Explainer“-Agent (Assistant)
Sobald wir einen funktionierenden Code haben, kommt der Explainer-Agent ins Spiel. Seine Aufgabe ist es, den funktionierenden Code in einfacher Sprache zu erklären, die für einen Blogartikel geeignet ist. Er formatiert auch die Ausgabe für eine einfache Integration.
explainer = autogen.AssistantAgent(
name="Explainer",
llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]},
system_message="You are a technical content writer. You receive Python code and its output, and your task is to explain it clearly and concisely for a blog post audience. Provide a brief introduction to the code's purpose, a step-by-step explanation if needed, and wrap the code in a markdown block. Keep your explanations engaging and easy to understand.",
)
Ich habe festgestellt, dass es sehr hilft, dem Explainer einen klaren Auftrag bezüglich seines Publikums und des Ausgabeformats zu geben. Das verhindert, dass er einfach den Code neu erklärt oder zu wortreich wird.
Der Workflow: Wie Sie Zwischen ihnen Kommunizieren
So orchestriere ich ihr Gespräch unter Verwendung von GroupChatManager in AutoGen:
groupchat = autogen.GroupChat(agents=[Writer, Coder, Tester, Explainer], messages=[], max_round=20)
manager = autogen.GroupChatManager(groupchat=groupchat, llm_config={"config_list": [{"model": "gpt-4-turbo-preview"}]})
# Initiere das Gespräch
Writer.initiate_chat(
manager,
message="I need a Python code example that demonstrates how to create a simple AutoGen multi-agent chat between two assistant agents. Make sure the code is runnable and includes a basic conversation.",
)
Wenn ich das starte, passiert im Großen und Ganzen Folgendes:
- Writer (ich) sendet die ursprüngliche Anfrage.
- Manager leitet die Anfrage an den Coder weiter.
- Coder generiert ein Python-Skript für das Multi-Agenten-Gespräch.
- Manager übergibt diesen Code anschließend an den Tester.
- Tester führt den Code aus.
- Wenn ein Fehler auftritt, berichtet Tester diesen an den Coder, der versucht, ihn zu beheben und neuen Code zu generieren. Diese Schleife wird fortgesetzt, bis der Code korrekt ausgeführt wird.
- Falls der Code erfolgreich ausgeführt wird, berichtet Tester die Ausgabe.
- Sobald der funktionierende Code und seine Ausgabe bestätigt sind, leitet der Manager das Gespräch an den Explainer weiter.
- Explainer nimmt den funktionierenden Code und seine Ausgabe und generiert den erklärenden Text für meinen Blogartikel, formatierte mit Markdown-Codeblöcken.
- Zu guter Letzt prüft der Writer (ich) die Ausgabe des Explainers sowie das gesamte Gespräch und gibt eine „TERMINATE“-Nachricht, wenn zufrieden oder andere Anweisungen, wenn nicht.
Praktisches Beispiel: Generierung eines AutoGen-Agenten-Chat-Auszugs
Angenommen, ich brauche ein einfaches Beispiel für einen Blogartikel über die grundlegende Interaktion zwischen AutoGen-Agenten. Mein Prompt für den „Writer“ (der ich bin, um das Gespräch zu initiieren) wäre:
"Ich benötige ein Python-Codebeispiel, das zeigt, wie man einen einfachen AutoGen-Multi-Agenten-Chat zwischen zwei Assistenten-Agenten erstellt. Stellen Sie sicher, dass der Code ausführbar ist und ein grundlegendes Gespräch enthält."
Hier ist eine vereinfachte Version dessen, was die Agenten nach einigen Runden produzieren könnten:
Der Code (Generiert vom Coder, Getestet vom Tester)
import autogen
# Konfiguration für die LLMs
config_list = [
{
"model": "gpt-4-turbo-preview",
}
]
# Erstellen Sie den ersten Assistenten-Agenten
agent1 = autogen.AssistantAgent(
name="AgentA",
llm_config={"config_list": config_list},
system_message="Sie sind AgentA. Ihre Aufgabe ist es, AgentB zu begrüßen und nach dem Wetter zu fragen.",
)
# Erstellen Sie den zweiten Assistenten-Agenten
agent2 = autogen.AssistantAgent(
name="AgentB",
llm_config={"config_list": config_list},
system_message="Sie sind AgentB. Ihre Aufgabe ist es, auf die Begrüßung von AgentA zu antworten und ein einfaches Update zum Wetter zu geben.",
)
# Erstellen Sie einen Benutzer-Proxy-Agenten, um das Gespräch zu initiieren
user_proxy = autogen.UserProxyAgent(
name="User_Proxy",
human_input_mode="NEVER",
max_consecutive_auto_reply=0, # Dieser Agent initiiert nur das Gespräch und antwortet nicht
is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
code_execution_config={"work_dir": "agent_workspace"}, # Nicht unbedingt erforderlich für dieses Beispiel, aber gute Praxis
)
# Starten Sie das Gespräch
user_proxy.initiate_chat(agent1, message="Das Gespräch mit AgentB beginnen.")
Die Erklärung (generiert von Explainer)
Dieses einfache Python-Skript zeigt, wie man ein grundlegendes Gespräch zwischen zwei Assistenten-Agenten unter Verwendung von Microsoft AutoGen einrichtet. Wir definieren zwei Instanzen des AssistantAgent, AgentA und AgentB, die jeweils eine deutliche Rolle in ihrer system_message haben. AgentA hat die Aufgabe, zu begrüßen und nach dem Wetter zu fragen, während AgentB mit einem Wetterupdate antworten soll.
Ein UserProxyAgent, benannt User_Proxy, wird verwendet, um den Dialog zu starten. In dieser Konfiguration fungiert User_Proxy als Orchestrator, der das Gespräch mit AgentA initiiert. Da human_input_mode auf "NEVER" und max_consecutive_auto_reply auf 0 für User_Proxy eingestellt ist, beginnt er einfach das Gespräch und zieht sich dann zurück, sodass AgentA und AgentB entsprechend ihren Systemnachrichten und dem Verlauf des Gesprächs interagieren können.
Dieses Modell ist ideal für die Erstellung automatisierter Workflows, bei denen verschiedene KI-Entitäten zusammenarbeiten, um ein Ziel zu erreichen, wie das Generieren dynamischer Inhalte oder das Simulieren von Interaktionen.
Meine Lektionen und was ich gelernt habe
AutoGen, insbesondere seine Multi-Agenten-Fähigkeiten, war ein wahrer Gewinn für meine Produktivität. Es geht nicht darum, mich zu ersetzen; es geht darum, mir ein autonomes Team zu geben, das kompetent die repetitive Arbeit und die Überprüfung übernimmt, die mir so viel Zeit gekostet haben. Hier sind meine wichtigsten Punkte:
- Klare Rollen definieren: Je spezifischer Sie mit der
system_messagejedes Agenten sind, desto besser verhalten sie sich. Mehrdeutigkeiten führen zu allgemeinen Antworten, was nicht das ist, was wir in einem spezialisierten Team wollen. Denken Sie daran wie an eine Stellenbeschreibung für jedes Teammitglied. - Iteratives Verfeinern ist entscheidend: Erwarten Sie nicht, dass es beim ersten Versuch perfekt ist. Meine Agenten, insbesondere der Coder und der Tester, haben viele Iterationen von Systemnachrichten und Prompts durchlaufen, bevor sie zuverlässig produzierten, was ich brauchte. Hier ist der
human_input_mode="ALWAYS"für meinen Agenten „Writer“ von unschätzbarem Wert. - Der Tester-Agent ist eine signifikante Veränderung: Ehrlich gesagt, einen Agenten zu haben, der Code ausführen und sofortiges, objektives Feedback geben kann, ist transformativ. Es ist wie ein dedizierter QA-Ingenieur für jeden Code-Schnipsel, den ich generiere. Das reduziert die Anzahl der nicht funktionierenden Beispiele, die ich sonst veröffentlichen würde, erheblich.
- Den Gesprächsfluss steuern: Der
GroupChatManagerist mächtig, aber zu verstehen, wie die Agenten Nachrichten austauschen und wer auf wen antwortet, ist entscheidend. Manchmal leite ich die Agenten ausdrücklich (z. B. „Coder, bitte auf die Kommentare des Testers antworten“), falls der Manager verwirrt ist. - Die Wahl des LLM zählt: Obwohl AutoGen mit verschiedenen LLMs funktioniert, habe ich festgestellt, dass leistungsfähigere Modelle wie GPT-4-Turbo-Preview deutlich bessere Ergebnisse liefern, insbesondere bei der Codegenerierung und komplexen Erklärungen. Es ist die zusätzlichen Kosten wert für kritische Aufgaben.
AutoGen ist nicht nur eine Plattform; es ist eine neue Art zu denken, wie KI bei komplexen Aufgaben helfen kann. Es geht über einmalige Prompts hinaus, um ausgeklügelte Workflows zu orchestrieren. Für Content-Ersteller, Entwickler oder jeden, der technische Beispiele generieren und überprüfen muss, ist dieser Multi-Agenten-Ansatz meiner Meinung nach eine der praktischsten und einflussreichsten Anwendungen von KI-Agenten, die ich bisher gesehen habe.
Wenn Sie also von den Details der Codebeispiele für Ihre Inhalte oder Projekte überwältigt sind, probieren Sie das Multi-Agenten-System von AutoGen aus. Es könnte das virtuelle Team sein, von dem Sie nicht wussten, dass Sie es brauchen. Lassen Sie mich in den Kommentaren wissen, ob Sie ähnliche Konfigurationen ausprobiert haben oder Fragen haben!
Bis zum nächsten Mal, machen Sie weiter mit dem Bauen und Erkunden!
Ähnliche Artikel
- Marktentwicklungen im Jahr 2026: Meine unverblümte Tech-Überprüfung
- Canva AI-News: Die Zukunft des Designs enthüllt
- Nachrichten zur KI-Regulierung 2026: Das globale Patchwork, das niemand wollte
🕒 Published:
Related Articles
- Construindo o mesmo bot em 5 plataformas: um guia prático
- [SONNETv3] Wenn Drohnen lernen, selbstständig zu denken, schreiben Investoren Schecks über Milliarden-Dollar
- Mein IA-Agent führt meine Inhaltsrecherchen durch & nimmt die SEO-Anpassungen vor.
- Sicurezza della Piattaforma AI: Proteggere i Tuoi Dati & Modelli