Konzepte
Theoretische Grundlagen, technische Konzepte und fundamentale Prinzipien für KI-Agenten und Multi-Agent-Systeme.
Wann dieser Bereich?
concepts/ ist der richtige Einstieg, wenn Begriffe, Muster oder Architekturentscheidungen noch unscharf sind. Der Bereich hilft vor allem dann, wenn zuerst geklärt werden soll, was ein Agent überhaupt ist, wann RAG sinnvoll wird, wie State funktioniert oder an welcher Stelle Human-in-the-Loop und Security relevant werden.
Für einen schnellen Gesamtpfad zuerst Lesepfade öffnen.
Einstieg & Entscheidung
- Lohnt es sich überhaupt? – Lohnt sich KI für diese Aufgabe? Machbarkeit, Nutzen und Risiken vor dem Projektstart bewerten
- Problemklärung: Ist das Problem klar und messbar?
- Datengrundlage: Sind die richtigen Daten vorhanden und nutzbar?
- Nutzeneinschätzung: Lohnt sich KI gegenüber dem Status quo?
- Risikoeinschätzung: Technisch, organisatorisch, regulatorisch
- Go / No-Go Checkliste
- Welches Werkzeug? – Welches Werkzeug passt zur Aufgabe? Zweistufige Entscheidungshilfe: wann Agenten, welche Architektur?
- Ebene 1: Chat / Workflow / RAG / Agenten / Python — was passt wann?
- Ebene 2: ReAct / Tool-Calling / LangGraph Workflow / Multi-Agent — wie entscheiden?
- Vollständiger Entscheidungsbaum (beide Ebenen kombiniert)
- Checkliste vor dem Agentenbau
Grundlagen & Architektur
- Agent-Architekturen – Wie ist ein Agent aufgebaut? Architekturmuster und Design-Prinzipien für KI-Agenten (→ M01)
- ReAct-Architektur: Denken → Handeln → Beobachten
- Tool-Calling: LLM wählt und nutzt Werkzeuge
- Workflow-basiert: Definierte Schritte mit Verzweigungen
- Multi-Agent: Spezialisierte Agenten arbeiten zusammen
- Tool Use & Function Calling – Wie nutzt ein Agent Werkzeuge? Erweiterung der Fähigkeiten durch externe Tools (→ M02)
- Werkzeuge für aktuelles Wissen, Berechnungen und Dateizugriff
- Function Calling: Schema-Definition und Parameterübergabe
- Tool-Auswahl durch das LLM
- Prompt Engineering – Wie wird ein Agent gesteuert? Strategien für effektive Prompts in Agenten-Systemen (→ M04)
- System-Prompts: Rolle und Grenzen definieren
- Tool-Beschreibungen und Reasoning-Prompts
- Output-Formatierung für strukturierte Antworten
Wissensmanagement
- RAG-Konzepte – Wie kommt Wissen in den Agenten? Retrieval Augmented Generation: Architektur, Strategien und Best Practices (→ M08–M11)
- Warum RAG? Wissens-Cutoff, Domänenwissen, Halluzination
- Chunking, Embedding und Vektordatenbanken
- Retrieval-Strategien: Similarity Search, Reranking
Workflows & State
- State Management – Wie merkt sich ein Agent seinen Zustand? Zustandsverwaltung in komplexen Workflows mit LangGraph (→ M12–M15)
- Warum State Management? Daten über Schritte hinweg erhalten
- TypedDict-basierter State, Reducer-Funktionen
- Nodes geben nur Änderungen zurück, nicht den gesamten State
- Checkpointing & Persistenz – Wie werden Sitzungen gespeichert? Zustandsspeicherung und Session-Persistenz in LangGraph (→ M16–M17)
- MemorySaver, SqliteSaver, PostgresSaver – Wahl des richtigen Checkpointers
- Thread-IDs für Multi-User-Konversationen
- Interrupt & Resume für Human-in-the-Loop
- Time Travel: Zu früherem State zurückspringen
- Memory-Systeme – Wie erinnert sich ein Agent? Kurz- und Langzeitgedächtnis für persistente KI-Agenten (→ M16)
- Kurzzeit: Conversation Buffer, Sliding Window, Summarization
- Langzeit: Semantisches Memory (Vektordatenbank), Entity Memory
- Per-User-Memory für Multi-Session-Anwendungen
- Human-in-the-Loop – Wann greift der Mensch ein? Einbindung menschlicher Kontrolle in Agenten-Systeme (→ M17)
- Autonomie-Spektrum: von assistiert bis vollständig autonom
- Approval-Pattern vs. Eskalations-Pattern
- Entscheidungskritikalität und Vertrauensgrenzen
- Multi-Agent-Systeme – Wie arbeiten mehrere Agenten zusammen? Zusammenarbeit und Koordination spezialisierter KI-Agenten (→ M21–M22)
- Supervisor-Pattern, Hierarchical, Collaborative Patterns
- Paralleles Pattern: Fan-out / Fan-in mit Send und Map-Reduce
- Spezialisierung, Fehlertoleranz und Skalierbarkeit
- Kommunikation und Übergabe zwischen Agenten
Qualität & Praxis
- Evaluation & Testing – Wie gut ist das System wirklich? Bewertung und Qualitätssicherung von KI-Agenten (→ M15, M24)
- Eval-Datasets, Metriken und Regression-Tests
- LangSmith Evaluation Pipeline
- Baseline, Drift-Erkennung und Production-Monitoring
- Agent Security – Wie wird ein Agent abgesichert? Sicherheitsrisiken und Schutzprinzipien für KI-Agenten (→ M20)
- Prompt Injection, Tool Missbrauch, Daten-Exfiltration
- Principle of Least Privilege, Tool Whitelisting, PII-Redaktion
- Vertrauensgrenzen und sichere Entwicklungspraxis
Kommunikation & Protokolle
- Agenten-Kommunikationsprotokolle – Wie sprechen Agenten miteinander? Kommunikationsstandards zwischen Agenten und Tools (→ MCP, A2A, AG-UI)
- MCP: Universelle Tool-Integration (Anthropic, 2024)
- A2A / ACP: Agent-zu-Agent-Kommunikation (Google / Linux Foundation, 2025)
- AG-UI: Echtzeit-Streaming zwischen Agent und Frontend
- Agent Contracts: Ressourcensteuerung und Kostenkontrolle
Fortgeschritten & Optional
- Skills – Wie werden Agenten zuverlässig gesteuert? Wiederverwendbare Arbeitsrezepte für verlässliche Agenten (→ M31, optional)
- Unterschied zwischen Prompt und Skill
SKILL.md,references/undscripts/als Strukturmuster- Guardrails, Progressive Disclosure und Auditierbarkeit