\n\n\n\n Tutorial des KI-Content-Erstellungsagenten - AgntHQ \n

Tutorial des KI-Content-Erstellungsagenten

📖 11 min read2,199 wordsUpdated Mar 30, 2026

Leitfaden für den KI-Content-Generierungs-Agenten

KI-Agenten verändern unseren Ansatz für komplexe Aufgaben, indem sie von der einfachen Ausführung von Skripten zur autonomen Entscheidungsfindung und Problemlösung übergehen. Für die Erstellung von Inhalten bedeutet dies, dass wir von manuellem Schreiben und Bearbeiten zu intelligenten Systemen übergehen, die in der Lage sind, Inhalte mit minimaler menschlicher Aufsicht zu generieren, zu optimieren und sogar zu veröffentlichen. Dieser Leitfaden bietet einen technischen Überblick und praktische Beispiele zum Aufbau von KI-Agenten, die speziell für die Content-Erstellung konzipiert sind. Wenn Sie neu im breiteren Konzept der KI-Agenten sind, sollten Sie in Erwägung ziehen, mit Dem Gesamtleitfaden für KI-Agenten im Jahr 2026 zu beginnen, um grundlegende Kenntnisse zu erwerben.

Verstehen der Architektur des KI-Content-Generierungs-Agenten

Ein KI-Agent zur Content-Erstellung besteht normalerweise aus mehreren miteinander verbundenen Komponenten, von denen jede für einen bestimmten Schritt im Lebenszyklus des Inhalts verantwortlich ist. Diese Schritte umfassen häufig Recherche, Planung, Schreiben, Bearbeiten und Optimieren. Die Hauptkomponenten sind in der Regel:

  • Wahrnehmungsmodul: Sammelt Informationen aus externen Quellen (Web, Datenbanken, APIs) basierend auf einer bestimmten Anfrage oder einem Ziel.
  • Planungsmodul: Formuliert eine Strategie oder Abfolge von Aktionen, um das Ziel der Content-Erstellung zu erreichen. Dies kann beinhalten, eine komplexe Aufgabe in kleinere Unteraufgaben zu zerlegen.
  • Aktionsmodul: Führt die geplanten Aktionen aus, oft durch Interaktion mit großen Sprachmodellen (LLMs) oder anderen Tools, um Text zu generieren, Informationen zusammenzufassen oder spezifische Operationen durchzuführen.
  • Speichermodul: Speichert kontextuelle Informationen, vergangene Interaktionen, generierte Entwürfe und Erkenntnisse, um zukünftige Entscheidungen zu unterstützen.
  • Feedback-/Verbesserungsmodul: Bewertet den generierten Inhalt anhand vordefinierter Kriterien (z. B.: Lesbarkeit, SEO-Score, Einhaltung der Anfrage) und schlägt Überarbeitungen vor oder löst weitere Aktionen aus.

Die iterative Natur der Erstellung von Inhalten macht KI-Agenten besonders gut geeignet für dieses Gebiet. Ein Agent kann ein Thema recherchieren, einen Abschnitt schreiben, seine Qualität bewerten und ihn dann überarbeiten, wobei dieser Zyklus wiederholt wird, bis das gewünschte Ergebnis erreicht ist.

Einrichten Ihrer Umgebung

Für diesen Leitfaden verwenden wir hauptsächlich Python aufgrund seiner umfangreichen Bibliotheken für KI und Webinteraktion. Stellen Sie sicher, dass Sie Python 3.9 oder höher installiert haben. Wir verwenden auch beliebte Bibliotheken wie LangChain zur Orchestrierung der Agenten sowie die OpenAI-API für den Zugriff auf LLMs und requests/BeautifulSoup für das Webscraping.


pip install langchain openai beautifulsoup4 requests python-dotenv

Es ist ratsam, API-Schlüssel mithilfe von Umgebungsvariablen zu verwalten. Erstellen Sie eine Datei .env im Stammverzeichnis Ihres Projekts:


OPENAI_API_KEY="your_openai_api_key_here"

Erstellung eines einfachen Recherche- und Planungsagenten

Beginnen wir mit dem Aufbau eines Agenten, der in der Lage ist, ein Thema zu recherchieren und einen einfachen Plan zu erstellen. Dieser Agent wird eine Websuche nutzen, um Informationen zu sammeln und ein LLM, um diese in einem Plan zusammenzufassen. Wir verwenden den Agentenrahmen von LangChain, der eine solide Möglichkeit bietet, Tools und einen Agenten-Executor zu definieren. Für eine tiefere Erkundung der Spezifika von LangChain, beziehen Sie sich auf unser LangChain für KI-Agenten: Vollständiges Tutorial.

Definition des Tools: Websuche

Unser Agent muss in der Lage sein, im Web zu suchen. Dies können wir erreichen, indem wir eine einfache Funktion verwenden, die eine Suchanfrage an eine Suchmaschine (z. B. Google Search API oder einen benutzerdefinierten Scraper) stellt.


import os
from dotenv import load_dotenv
from langchain.agents import initialize_agent, AgentType, Tool
from langchain_openai import ChatOpenAI
from langchain.tools import BaseTool
from bs4 import BeautifulSoup
import requests
import re

load_dotenv()

# Platzhalter für ein robusteres Websuchtool
# In einem realen Szenario könnten Sie die benutzerdefinierte Google-Such-API oder SerpAPI verwenden
class WebSearchTool(BaseTool):
 name = "Websuche"
 description = "Sucht im Web nach Informationen zu einer gegebenen Anfrage."

 def _run(self, query: str) -> str:
 try:
 # Beispiel: Verwendung einer einfachen Google-Suche mit requests
 # Dies ist nicht stabil für die Produktion, demonstriert aber das Konzept
 headers = {
 "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
 }
 search_url = f"https://www.google.com/search?q={query}"
 response = requests.get(search_url, headers=headers)
 response.raise_for_status() # Löst eine Ausnahme bei HTTP-Fehlern aus

 soup = BeautifulSoup(response.text, 'html.parser')
 
 # Extrahieren von Auszügen aus den Suchergebnissen
 snippets = []
 for g in soup.find_all(class_='g'): # Google-Suchergebnisse haben normalerweise die Klasse 'g'
 title_tag = g.find('h3')
 snippet_tag = g.find(class_='VwiC3b') # Auszugbeschreibung
 if title_tag and snippet_tag:
 snippets.append(f"Titel: {title_tag.get_text()}\nAuszug: {snippet_tag.get_text()}")
 
 if not snippets:
 return "Keine relevanten Suchergebnisse gefunden."
 
 return "\n---\n".join(snippets[:3]) # Gibt die 3 besten Auszüge zurück
 except requests.exceptions.RequestException as e:
 return f"Fehler bei der Websuche: {e}"
 except Exception as e:
 return f"Ein unerwarteter Fehler ist aufgetreten: {e}"

 def _arun(self, query: str):
 raise NotImplementedError("Dieses Tool unterstützt derzeit keine asynchronen Operationen.")

web_search_tool = WebSearchTool()

Initialisierung und Ausführung des Agenten

Jetzt werden wir unser LLM und den Agenten initialisieren. Der Agent erhält eine Aufgabe und entscheidet, wann er das Websuchtool und wann das LLM zur Verarbeitung von Informationen verwenden wird.


llm = ChatOpenAI(temperature=0, model="gpt-4-turbo-preview") # Verwendung eines fähigen LLM

tools = [web_search_tool]

agent = initialize_agent(
 tools,
 llm,
 agent=AgentType.OPENAI_FUNCTIONS, # Verwendet die OpenAI-Funktionsaufrufen
 verbose=True,
 handle_parsing_errors=True
)

def generate_outline(topic: str):
 prompt = f"Recherchieren Sie '{topic}' und erstellen Sie einen detaillierten Plan für einen Artikel. Der Plan sollte eine klare Einführung, 3-5 Hauptabschnitte mit Unterpunkten und eine Schlussfolgerung enthalten. Konzentrieren Sie sich auf die Schlüsselkonzepte und potenziellen Unterthemen, die für ein technisches Publikum relevant wären."
 print(f"\n--- Erstellung des Plans für: {topic} ---")
 result = agent.run(prompt)
 return result

# Beispielverwendung
topic_1 = "Die Rolle der KI-Agenten bei der Automatisierung von SEO"
outline_1 = generate_outline(topic_1)
print(f"\nGenerierter Plan für '{topic_1}':\n{outline_1}")

topic_2 = "Fortgeschrittene Techniken zur Datenanalyse mit KI-Agenten"
outline_2 = generate_outline(topic_2)
print(f"\nGenerierter Plan für '{topic_2}':\n{outline_2}")

Dieser Agent wird zunächst das Werkzeug „Websuche“ verwenden, um Informationen über das Thema zu sammeln. Anschließend übergibt er diese Informationen sowie die Anfrage an das LLM, um den Plan zu generieren. Dies zeigt die Aktionen der Module Wahrnehmung und Planung, wobei das LLM sowohl als Planer als auch als Executor von Aktionen (Texterstellung) fungiert.

Erweiterung zur Generierung und Verbesserung von Inhalten

Sobald ein Plan erstellt wurde, besteht der nächste Schritt darin, den eigentlichen Inhalt zu schreiben. Wir können unseren Agenten erweitern, um einen Plan zu übernehmen und Abschnitte eines Artikels zu erstellen. Dies beinhaltet oft iterative Aufrufe an das LLM, möglicherweise mit unterschiedlichen Anfragen für jeden Abschnitt.

Hinzufügen eines Inhaltsgenerierungswerkzeugs

Anstelle eines „Werkzeugs“ im herkömmlichen Sinne kann die Erstellung von Inhalten als direkte Interaktion mit dem LLM betrachtet werden, die durch den Plan des Agenten geleitet wird.


from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

# Eine Kette definieren, um Inhalte basierend auf einem Gliederungspunkt zu erstellen
drafting_prompt_template = PromptTemplate(
 input_variables=["topic", "section_title", "section_context"],
 template="Sie sind ein erfahrener technischer Redakteur. Schreiben Sie einen detaillierten und informativen Abschnitt für einen Artikel über '{topic}'. "
 "Der Titel des Abschnitts lautet '{section_title}'. Hier sind einige kontextbezogene Informationen:\n{section_context}\n\n"
 "Stellen Sie sicher, dass der Inhalt gut strukturiert ist, klar formuliert wird und praktische Informationen für ein technisches Publikum bietet. "
 "Zielen Sie auf 200-300 Wörter für diesen Abschnitt ab."
)

drafting_chain = LLMChain(llm=llm, prompt=drafting_prompt_template)

def generate_section(topic: str, section_title: str, context: str):
 print(f"\n--- Schreiben des Abschnitts : {section_title} ---")
 # Hier könnte 'context' aus früheren Web-Recherchen oder generierten Gliederungen kommen
 response = drafting_chain.run(topic=topic, section_title=section_title, section_context=context)
 return response

# Beispiel für die Erstellung eines Abschnitts basierend auf einem Gliederungspunkt
# Für einen vollständigen Artikel würden Sie die Gliederung analysieren und durch die Abschnitte iterieren
sample_topic = "Die Rolle von KI-Agenten in der SEO-Automatisierung"
sample_section_title = "Keyword-Recherche und -Analyse mit KI-Agenten"
sample_context = "KI-Agenten können den Prozess der Identifizierung von wertvollen Keywords, der Analyse von Wettbewerbsstrategien und der Vorhersage von Suchtrends automatisieren. Dies umfasst das Scrapen von Suchergebnissen, die Verarbeitung großer Datensätze von Keywords und die Verwendung von natürlicher Sprachverarbeitung, um die Suchintention zu verstehen. Relevante Tools: Google Keyword Planner, SEMrush, Ahrefs."

# In einem vollständigen Agenten würde der Kontext dynamisch generiert oder aus dem Gedächtnis abgerufen
# Zum Beispiel durch gezielte Web-Recherche für 'Keyword-Recherche mit KI-Agenten'
# Hier wird die iterative Wahrnehmung und die Aktionsschleife eines Agenten leistungsstark.
drafted_section = generate_section(sample_topic, sample_section_title, sample_context)
print(f"\nVerfasster Abschnitt:\n{drafted_section}")

Dieser Ansatz zeigt, wie ein Agent die komplexe Aufgabe des „Schreibens eines Artikels“ in „Abschnitt 1 schreiben“, „Abschnitt 2 schreiben“ usw. zerlegen kann, indem er das LLM für jede Unteraufgabe verwendet. Der Agent würde den Fluss steuern und relevanten Kontext (aus Recherchen oder vorherigen Abschnitten) an die Schreibaufforderung liefern. Für eine spezifische Anwendung wie die Automatisierung von SEO mit KI-Agenten würde dieser Prozess mit spezifischen SEO-Tools und -metriken integriert.

Integration von Feedback und Verfeinerung

Ein echter KI-Agent generiert nicht nur; er verfeinert auch. Dies beinhaltet die Bewertung der Ausgabe und das Einbringen von Verbesserungen. Für den Inhalt könnte dies Folgendes bedeuten:

  • Lesbarkeitsscore: Verwenden Sie Bibliotheken wie textstat, um Flesch-Kincaid, Gunning-Fog usw. zu überprüfen.
  • SEO-Optimierung: Überprüfen Sie die Keyword-Dichte, LSI-Keywords, die Struktur der Überschriften.
  • Grammatik und Stil: Verwenden Sie LLMs oder spezialisierte Tools (z.B. LanguageTool API).
  • Konformität zur Aufforderung: Stellen Sie sicher, dass der Inhalt alle Aspekte der ursprünglichen Anfrage behandelt.

Fügen wir einen einfachen Verfeinerungsschritt hinzu, indem wir das LLM verwenden, um einen Abschnitt basierend auf einem Stilrichtlinien zu verbessern.


# Verfeinerungsprompt-Template
refinement_prompt_template = PromptTemplate(
 input_variables=["content", "feedback"],
 template="Sie sind ein erfahrener Redakteur. Verbessern Sie den folgenden Inhalt basierend auf dem gegebenen Feedback. "
 "Konzentrieren Sie sich auf Klarheit, Prägnanz und technische Genauigkeit. Stellen Sie sicher, dass er einen professionellen Ton hat. "
 "Zu verfeinernder Inhalt:\n---\n{content}\n---\nFeedback: {feedback}\n\nÜberarbeiteter Inhalt:"
)

refinement_chain = LLMChain(llm=llm, prompt=refinement_prompt_template)

def refine_content(content: str, feedback: str):
 print(f"\n--- Verfeinerung des Inhalts mit Rückmeldungen : {feedback} ---")
 revised_content = refinement_chain.run(content=content, feedback=feedback)
 return revised_content

# Beispiel für die Verwendung der Verfeinerung
feedback_string = "Sprache direkter und weniger wortreich gestalten. Fügen Sie ein spezifisches Beispiel eines KI-Tools hinzu, das für die Keyword-Recherche verwendet wird."
refined_draft = refine_content(drafted_section, feedback_string)
print(f"\nVerfeinerter Abschnitt:\n{refined_draft}")

In einem vollständig autonomen Agenten würden die „Rückmeldungen“ von einem anderen Modul generiert werden (z.B. einem „SEO-Auditor“-Tool, einem „Lesbarkeit-Checker“-Tool oder sogar einem separaten LLM-Call, der als Kritiker fungiert), anstatt fest codiert zu werden. Dieser iterative Verfeinerungszyklus ist ein Merkmal intelligenter Agenten. Dieser Prozess ist ähnlich, wie ein Datenanalyse-KI-Agent mit Python seine Analyse iterativ basierend auf Zwischenergebnissen oder Feedback von Benutzern verfeinern könnte.

Wichtige Erkenntnisse

  • Modulares Design ist entscheidend: Zerlegen Sie die Inhaltserstellung in separate und überschaubare Module (Recherche, Gliederung, Schreiben, Verfeinerung, Optimierung). Dies ermöglicht eine einfachere Entwicklung, Testung und Wartung.
  • LLMs für die Hauptaufgaben nutzen: Große Sprachmodelle sind hervorragend für die Textgenerierung, Synthese und das Verständnis. Nutzen Sie sie strategisch im Fluss Ihres Agenten.
  • Tools erweitern die Fähigkeiten des Agenten: Integrieren Sie spezialisierte Tools (Web-Scraper, Recherche-APIs, SEO-Checker, Grammatik-Tools), um die Fähigkeiten des LLM zu erhöhen und Interaktionen in der realen Welt zu ermöglichen.
  • Iterative Verfeinerung ist der Schlüssel: Implementieren Sie Rückmeldeschleifen, in denen der Agent seine eigene Ausgabe bewertet und Verbesserungen vornimmt. Dies ahmt die menschlichen Arbeitsabläufe bei der Inhaltserstellung nach.
  • Kontextmanagement ist entscheidend: Agenten müssen den Kontext über mehrere Schritte hinweg aufrechterhalten. Dazu gehört das Übermitteln relevanter Informationen (Rechercheergebnisse, vorherige Entwürfe, Gliederungspunkte) an die folgenden Aktionen.
  • Aufforderungsdesign für Kontrolle: Entwickeln Sie Ihre Aufforderungen sorgfältig für Ihre Interaktionen mit dem LLM, um sein Verhalten zu steuern und sicherzustellen, dass der generierte Inhalt spezifische Anforderungen erfüllt (Ton, Länge, Stil).
  • Sicherheits- und ethische Überlegungen: Achten Sie bei dem Scraping auf den Datenschutz, vermeiden Sie die Generierung von schädlichem oder voreingenommenem Inhalt und geben Sie klar an, wenn KI verwendet wird.

Fazit

Der Aufbau von KI-Agenten zur Inhaltserstellung geht über die einfache Automatisierung von Skripten hinaus zu komplexen autonomen Systemen. Durch die Kombination von LLMs mit spezialisierten Tools und die Annahme einer iterativen Architektur, die auf Feedback ausgerichtet ist, können Entwickler leistungsstarke Agenten erstellen, die in der Lage sind, komplexe Arbeitsabläufe für Inhalte zu verwalten. Die gegebenen Beispiele demonstrieren die grundlegenden Schritte, von der Recherche und Gliederung bis hin zum Schreiben und Verfeinern. Wenn sich die Rahmenbedingungen für KI-Agenten weiterentwickeln und die Fähigkeiten der LLMs zunehmen, können wir noch fortschrittlichere und integrierte Inhaltserstellungsagenten erwarten, die zur Norm werden.

🕒 Published:

📊
Written by Jake Chen

AI technology analyst covering agent platforms since 2021. Tested 40+ agent frameworks. Regular contributor to AI industry publications.

Learn more →

Leave a Comment

Your email address will not be published. Required fields are marked *

Browse Topics: Advanced AI Agents | Advanced Techniques | AI Agent Basics | AI Agent Tools | AI Agent Tutorials

Related Sites

ClawseoBot-1Ai7botAgntlog
Scroll to Top