Skip to main content
zurück zur übersicht
AIMulti-AgentAutomatisierung

Multi-Agent-Systeme: Spezialisierte AI-Agents statt einem großen LLM

Erfahre, wie Multi-Agent-Architekturen mit spezialisierten Agents komplexe Workflows automatisieren – mit Praxisbeispiel, Orchestrator-Pattern und Tipps für Logging und Kostenkontrolle.

Marcel Wiskow

Marcel Wiskow

1. März 2026

Multi-Agent-Systeme: Spezialisierte AI-Agents statt einem großen LLM

Von einem großen LLM zu Multi-Agent-Systemen

In den letzten zwei Jahren sind wir von „Ich werfe alles in einen Prompt und hoffe auf Magie" hin zu echten Multi-Agent-Systemen gegangen, in denen mehrere spezialisierte Agents wie ein Team zusammenarbeiten. 2026 setzen immer mehr Unternehmen genau solche Architekturen produktiv ein – nicht nur für Forschung, sondern auch für Support, Datenpipelines oder Dev-Workflows.

In diesem Artikel zeige ich dir:

  • Was Multi-Agent-Systeme sind – ohne Buzzwords.
  • Wann sich Multi-Agent-Setups wirklich lohnen.
  • Eine Beispiel-Architektur mit Planner-, Research- und Writer-Agent.
  • Wie du das pragmatisch mit deinem bestehenden Stack (HTTP-APIs, n8n, Next.js) verbindest.
  • Worauf du bei Logging, Kosten und Robustheit achten solltest.

Was ist ein Multi-Agent-System überhaupt?

Ein Agent ist im einfachsten Fall ein wiederverwendbarer Baustein, der ein klares Ziel, eine definierte Rolle und Zugriff auf bestimmte Tools hat (z.B. Websuche, Datenbank, interne API). Statt ein einziges LLM „alles machen zu lassen", orchestrierst du mehrere solcher Agents, die sich Aufgaben zuspielen.

Typische Eigenschaften von Agents:

  • Rolle: „Plane", „Recherchiere", „Bewerte", „Schreibe Code", „Review Code".
  • Kontext: Zugriff auf bestimmte Datenquellen (RAG-Index, Logs, CRM, Git-Repo).
  • Tools: HTTP-Requests, Datenbank-Queries, Shell-Commands, interne Services.
  • Ziel: Klar formuliertes Outcome (z.B. „Erzeuge finalen Blogpost als Markdown").

Multi-Agent-Systeme kombinieren mehrere dieser Agents in einem Workflow. Damit kannst du komplexe Aufgaben zerlegen, parallelisieren und qualitativ absichern – ähnlich wie in einem cross-funktionalen Dev-Team.


Wann lohnt sich ein Multi-Agent-Setup – und wann nicht?

Multi-Agent-Systeme sind kein Selbstzweck. Sie lohnen sich vor allem dann, wenn:

  • Die Aufgabe mehrstufig ist (z.B. Plan → Recherche → Synthese → Review).
  • Verschiedene Skills benötigt werden (z.B. juristische Bewertung + technische Analyse).
  • Du parallel arbeiten möchtest (z.B. mehrere Dokumente gleichzeitig analysieren).
  • Du Qualität absichern willst, indem ein Agent die Arbeit eines anderen reviewed.

Single-Agent-Setups reichen völlig aus, wenn:

  • Die Aufgabe klar umrissen und kurz ist (z.B. „Fasse diesen Artikel in 5 Bullet Points zusammen").
  • Du hauptsächlich „One-Shot" Generierung brauchst (z.B. kurze E-Mails, kleine Refactorings).
  • Du keinen hohen Bedarf an Parallelität oder Spezialisierung hast.

Mein persönlicher Daumenregel-Check:

Wenn ich die Aufgabe einem einzigen Senior-Dev geben würde, der sie gut alleine schafft, brauche ich wahrscheinlich kein Multi-Agent-System. Wenn ich sie eher einem Team mit klaren Rollen geben würde, ist Multi-Agent spannend.


Beispiel: Research-Workflow mit Planner, Researcher und Writer

Nehmen wir ein Beispiel, das du sehr leicht auf Blogposts, Reports oder technische Analysen übertragen kannst:

Goal: „Erzeuge einen gut strukturierten, quellenbasierten Blogpost zu einem Tech-Thema als Markdown."

Wir definieren drei Agents:

  1. Planner-Agent – zerlegt die Aufgabe in Schritte und definiert einen Outline.
  2. Research-Agent – holt pro Abschnitt Quellen aus Web/RAG und erzeugt Notizen.
  3. Writer-Agent – schreibt den finalen Text auf Basis von Outline und Notizen.

Optional kommt ein vierter Agent hinzu:

  1. Reviewer-Agent – prüft Stil, Faktenkonsistenz und Struktur.

Datenmodell für Agent-Nachrichten

Du brauchst kein riesiges Framework, um anzufangen. Ein kleines TypeScript-Datenmodell reicht:

export type AgentRole = 'planner' | 'researcher' | 'writer' | 'reviewer';
 
export interface AgentMessage {
  id: string;
  from: AgentRole | 'user' | 'system';
  to: AgentRole | 'broadcast';
  createdAt: string;
  content: string;
  meta?: Record<string, any>;
}

Damit kannst du Nachrichten in einer simplen Datenbank oder einem KV-Store (z.B. Redis, Supabase, MongoDB) speichern und Agent-Läufe später debuggen.

Orchestrator-Loop

Der Orchestrator entscheidet, welcher Agent als nächstes dran ist. Pseudocode:

async function runWorkflow(initialPrompt: string) {
  const messages: AgentMessage[] = [];
 
  // 1) Planner legt Outline fest
  const plan = await callPlannerAgent(initialPrompt, messages);
  messages.push(plan.message);
 
  // 2) Researcher arbeitet Abschnitt für Abschnitt ab
  for (const section of plan.sections) {
    const research = await callResearchAgent(section, messages);
    messages.push(research.message);
  }
 
  // 3) Writer erzeugt finalen Markdown-Artikel
  const article = await callWriterAgent(initialPrompt, messages);
  messages.push(article.message);
 
  // 4) Optionaler Review-Schritt
  const review = await callReviewerAgent(article.content, messages);
  messages.push(review.message);
 
  return { article: article.content, log: messages };
}

Die call*Agent-Funktionen sind letztlich nur LLM-API-Calls mit einem passenden Systemprompt und evtl. Tools (Websuche, RAG, interne APIs).


Planner-Agent: Problem in Teilaufgaben zerlegen

Der Planner-Agent nimmt den User-Prompt und erzeugt:

  • Eine klare Zielbeschreibung.
  • Eine Liste von Abschnitten (z.B. H1/H2-Struktur).
  • Optional Constraints (Zielgruppe, Sprache, Länge, Beispiele).

Ein vereinfachter Prompt (als System-Message):

Du bist ein Planungs-Agent.
Zerlege die Benutzeranfrage in eine sinnvolle Outline für einen technischen Blogpost.
 
Gib deine Antwort als JSON mit den Feldern:
- goal: string
- target_audience: string
- sections: { id: string; title: string; description: string }[]

So musst du die Logik für Outline-Erzeugung nicht mehr in Code gießen, sondern nutzt das LLM für Strukturierung.


Research-Agent: Quellen & Notizen pro Abschnitt

Der Research-Agent bekommt je Abschnitt:

  • Die Section-Beschreibung vom Planner.
  • Den globalen Kontext (Zielgruppe, Tone, Ziel).
  • Tools: Websuche, ggf. interne Datasets, RAG-Index.

Er soll keinen fertigen Text schreiben, sondern strukturierte Notizen, z.B. als JSON:

{
  "sectionId": "multi-agent-benefits",
  "key_points": [
    "Multi-Agent-Workflows erlauben Parallelisierung und Spezialisierung.",
    "Unternehmen berichten von 3-5x schnellerer Bearbeitung komplexer Aufgaben.",
    "Geeignet für mehrstufige Prozesse wie Research, Strategie, Erstellung, Review."
  ],
  "sources": [
    {
      "title": "Multi-Agent Collaboration: The Smart Way to Build AI Systems in 2026",
      "url": "https://...",
      "type": "blog"
    }
  ]
}

Die klare Trennung zwischen Recherche und Formulierung hat sich in der Praxis als deutlich robuster gegenüber Halluzinationen erwiesen.


Writer-Agent: Finalen Text generieren

Der Writer-Agent nimmt:

  • Die Outline vom Planner.
  • Die Notizen aller Research-Abschnitte.
  • Vorgaben zu Sprache, Stil, Format (z.B. Markdown für Blog, Docs, Newsletter).

Prompt-Skizze:

Du bist ein technischer Autor. Schreibe einen vollständigen Blogpost in Markdown.
 
Input:
- Outline (mit Sections)
- Research-Notizen (mit key_points und sources)
 
Anforderungen:
- Schreibe in klarer, präziser Sprache.
- Zielgruppe: Software-Entwickler:innen.
- Füge inhaltlich passende Zwischenüberschriften ein.
- Zitiere Quellen im Fließtext, wenn sinnvoll.

So trennst du Faktenbeschaffung (Research) von Formulierung (Writing) – was die Qualität und Nachvollziehbarkeit deutlich erhöht.


Reviewer-Agent: Guardrails & QA

Ein Reviewer-Agent kann u.a.:

  • Faktische Widersprüche markieren.
  • Stil- und Tonalitätsvorgaben prüfen.
  • Redundanzen und Lücken im Aufbau erkennen.

In vielen produktiven Multi-Agent-Setups werden Reviewer-Agents explizit genutzt, um andere Agents zu korrigieren oder zu challengen. Auch in Dev-Kontexten (z.B. AI-Code-Review) sind solche „Counter-Agents" ein verbreitetes Pattern.


Umsetzung mit n8n oder ähnlichen Orchestratoren

Wenn du ohnehin mit Tools wie n8n, Make, LangGraph oder eigenen Node-Backends arbeitest, kannst du Multi-Agent-Workflows dort relativ leicht abbilden.

Beispiel mit n8n:

  1. Webhook-Node: Nimmt das Topic / die User-Anfrage entgegen.
  2. LLM-Node (Planner): Erzeugt Outline als JSON.
  3. Split-In-Batches: Iteriert über Sections.
  4. LLM-Node (Research) + HTTP/RAG-Nodes: Holt Quellen, schreibt Notizen.
  5. Item Lists / Merge: Fügt alle Notizen zusammen.
  6. LLM-Node (Writer): Erzeugt finalen Markdown-Text.
  7. Optionaler LLM-Node (Reviewer): Prüft und markiert Risiken / offene Fragen.
  8. HTTP / Notion / Git-Node: Speichert Artikel im CMS oder als Markdown-File.

Das Schöne: Du kannst die Messages/Logs in einer DB persistieren und später analysieren, wo Fehler oder Halluzinationen entstanden sind.


Logging, Observability & Kostenkontrolle

Multi-Agent-Systeme haben mehr bewegliche Teile – deshalb ist Observability entscheidend. Achte auf:

  • Durchgehende Korrelation: Jede Anfrage bekommt eine trace_id, die in allen Agent-Calls landet.
  • Structured Logs: Speichere neben dem Prompt auch Meta-Infos (Agent-Name, Section-ID, Tokens, Dauer).
  • Metrics:
    • Wie viele Tokens verbraucht welcher Agent pro Run?
    • Wo treten die meisten Fehler auf (z.B. Research vs. Writer)?
    • Wie viele Retries brauchst du für Tools (APIs, Datenbanken)?
  • Budget-Guards: Abbruch, wenn ein Workflow zu viele Tokens / Zeit frisst.

Viele Teams berichten, dass sie Multi-Agent-Workflows erst dann ernsthaft skalieren konnten, als sie dedizierte Tracing- und Monitoring-Pipelines eingeführt haben.


Typische Stolperfallen

Beim Einstieg in Multi-Agent-Systeme sehe ich immer wieder ähnliche Probleme:

  • Zu viele Agents: Nur weil du Agents kannst, musst du nicht für alles einen definieren. Starte mit 2–3 klaren Rollen.
  • Unklare Verantwortlichkeiten: Wenn zwei Agents irgendwie dasselbe machen, wird das System schwer debugbar.
  • Keine expliziten Schnittstellen: Definiere die Datenstrukturen, die von Agent zu Agent fließen (JSON-Schemas!), sonst wird alles fragil.
  • Fehlendes „Happy Path"-Design: Viele bauen nur Prompts, aber keine klare Erfolgsdefinition (z.B. Validierungsregeln für das Ergebnis).

Gerade 2026, wo Multi-Agent-Frameworks boomen, ist es verlockend, direkt „Enterprise-Architektur" zu bauen. Besser: Ein kleines, aber sauberes Setup, das du real nutzt, misst und iterativ ausbaust.


Fazit & Next Steps

Multi-Agent-Systeme sind nicht einfach „mehr LLM", sondern eine neue Art, AI-Workflows wie Teams zu denken: mit Rollen, Verantwortlichkeiten und expliziten Schnittstellen. Richtig eingesetzt bekommst du höhere Qualität, bessere Parallelisierung und deutlich mehr Transparenz in komplexen Prozessen.

Wenn du einsteigen willst:

  1. Such dir eine konkrete Aufgabe (z.B. Blogpost-Generation, Tech-Report, Kundenantworten).
  2. Definiere 2–3 klare Rollen (Planner, Researcher, Writer, optional Reviewer).
  3. Baue einen minimalen Orchestrator (Node-Script, n8n-Flow oder LangGraph-Flow).
  4. Logge alles strukturiert, bevor du skalierst.

Ab da bist du im „Agent-Game" – und kannst nach und nach mehr Tools, Datenquellen und Agents ergänzen.