
Kontextuelle Verfeinerung ist eines jener Konzepte, das abstrakt klingt, bis man es versteht – und dann merkt man, dass man damit in jeder KI-Interaktion zu tun hatte. Für Entwickler, die KI-Agenten und Workflows aufbauen, ist das Verständnis kontextueller Verfeinerung der Unterschied zwischen Agenten, die vom Kurs abweichen, und solchen, die fokussiert bleiben.
Die Definition
Kontextuelle Verfeinerung ist der Prozess, durch den ein KI-Modell sein Verständnis, seine Ausgaben oder sein Verhalten auf Basis des angesammelten Kontexts einer Interaktion anpasst – nicht nur auf Basis der letzten Eingabe.
Genauer gesagt: Es ist der Mechanismus, durch den früherer Kontext aus einem Gespräch spätere Antworten beeinflusst, und wie Agenten so gestaltet werden können, dass sie diesen angesammelten Kontext bewusst nutzen (oder zurücksetzen).
Warum es wichtiger ist als Prompt Engineering
Prompt Engineering konzentriert sich darauf, die richtige Eingabe zu formulieren, um die richtige Ausgabe zu erhalten. Kontextuelle Verfeinerung hingegen befasst sich mit der Verwaltung des gesamten Informationszustands, der das Verhalten des Modells über mehrere Turns hinweg beeinflusst.
Der Unterschied in der Praxis:
| Prompt Engineering | Kontextuelle Verfeinerung |
|---|---|
| „Wie formuliere ich diesen Prompt?" | „Welchen Kontext hat das Modell an diesem Punkt?" |
| Einzelturn-Optimierung | Mehrturn-Zustandsverwaltung |
| Wortwahl und Struktur | Informationsarchitektur |
| Qualität einzelner Anfragen | Qualität auf Systemebene |
Beides ist wichtig. Doch je agentischer KI-Systeme werden – je mehr Entscheidungen sie über viele Schritte hinweg treffen – desto wichtiger wird die kontextuelle Verfeinerung.
Wie Kontext das KI-Verhalten beeinflusst
Große Sprachmodelle haben kein Gedächtnis zwischen Sitzungen, aber innerhalb eines Kontextfensters sammelt sich alles an und beeinflusst das Verhalten des Modells:
- Aktualitätsbias: Aktuelle Informationen werden stärker gewichtet als älterer Kontext
- Widersprüche: Späterer Kontext kann frühere Anweisungen überschreiben (zum Guten oder Schlechten)
- Persona-Persistenz: Frühzeitig im Kontext etablierte Rollendefinitionen bleiben bestehen
- Fehlerfortpflanzung: Frühe Fehler in einer mehrstufigen Aufgabe verstärken sich, wenn sie nicht korrigiert werden
Deshalb verhält sich ein gut konzipierter Agent mit klarem Ausgangskontext anders als einer, der widersprüchlichen, unstrukturierten Kontext angesammelt hat – selbst wenn beide dasselbe Modell nutzen.
Techniken der kontextuellen Verfeinerung für Entwickler
1. Kontext-Seeding
Den richtigen Kontext etablieren, bevor die Hauptaufgabe beginnt:
# Vor dem Hauptaufgaben-Prompt festlegen:
context = """
Project: E-commerce platform in TypeScript/Next.js
Patterns: Functional programming, immutable state
Constraints: No class components, use zustand for state
Error handling: Use Result types from src/types/result.ts
Testing: Jest with React Testing Library
"""
response = client.messages.create(
messages=[
{"role": "user", "content": context + "\n\n" + main_task}
]
)
2. Progressives Kontextladen
Statt alle Kontextinformationen im Voraus zu laden (was das Kontextfenster füllt und die Reasoning-Qualität reduziert), Kontext progressiv bei Bedarf laden:
class ContextManager:
def __init__(self, model):
self.model = model
self.context_items = []
def add_context(self, item: str, priority: int = 5):
self.context_items.append({"content": item, "priority": priority})
def get_active_context(self, max_tokens: int = 4000) -> str:
# Nach Priorität sortieren, Elemente mit höchster Priorität zuerst
sorted_items = sorted(self.context_items, key=lambda x: -x['priority'])
active = []
total = 0
for item in sorted_items:
item_tokens = len(item['content']) // 4 # Grobe Schätzung
if total + item_tokens > max_tokens:
break
active.append(item['content'])
total += item_tokens
return "\n\n".join(active)
3. Kontext-Checkpoints
In langen agentischen Workflows den Kontext regelmäßig zusammenfassen und zurücksetzen, um Drift zu verhindern:
async def run_agent_with_checkpoints(task: str, steps: list):
context_summary = ""
for i, step in enumerate(steps):
# Schritt ausführen
result = await agent.run(
task=step,
context=context_summary
)
# Alle 3 Schritte einen Kontext-Checkpoint erstellen
if i % 3 == 2:
context_summary = await agent.run(
task="Summarize the key facts, decisions made, and current state in 200 words",
context=result
)
return result
4. Kontext-Isolierung
Wenn das Modell über etwas nachdenken soll, ohne durch vorherigen Kontext beeinflusst zu werden:
# Frischen Kontext für isoliertes Reasoning starten
isolated_response = client.messages.create(
system="You are a code reviewer with no prior context about this project.",
messages=[
{"role": "user", "content": f"Review this function:\n\n{code}"}
]
)
Kontextuelle Verfeinerung in Multi-Agenten-Systemen
Wenn mehrere Agenten zusammenarbeiten, wird das Kontextmanagement zu einem Koordinationsproblem:
Agent A (Researcher)
↓ Übergibt: Forschungsergebnisse als strukturiertes JSON
Agent B (Writer)
↓ Übergibt: Entwurf + Zusammenfassung der „getroffenen Entscheidungen"
Agent C (Reviewer)
↓ Übergibt: Review-Notizen + „Akzeptieren/Ablehnen"-Entscheidung
Agent D (Publisher)
Jede Übergabe ist eine Gelegenheit, entweder den richtigen Kontext weiterzugeben (wodurch Agent B auf Agent As Arbeit aufbauen kann), zu viel (sodass Agent B Arbeit wiederholt) oder zu wenig (sodass Agent B wichtige Entscheidungen verliert).
Best Practice: Jeder Agent in einer Pipeline sollte erhalten:
- Seine spezifische Aufgabe
- Die Entscheidungen, die zu diesem Punkt geführt haben (nicht die vollständige Überlegung)
- Die für seine Arbeit geltenden Einschränkungen
- Klare Anforderungen an das Ausgabeformat
Kontextuelle Verfeinerung in AnyCap-Workflows
Das Skill-System von AnyCap ist unter Berücksichtigung kontextueller Verfeinerung entwickelt. Jeder Skill erhält:
- Ein strukturiertes Aufgaben-Briefing
- Relevanten Workspace-Kontext (aus dem aktuellen Zustand des Agenten)
- Fähigkeitsspezifische Parameter
Das bedeutet, dass AnyCap-Fähigkeiten verkettet werden können, ohne dass jede einzelne den vollständigen Projektkontext neu verstehen muss:
# Agent establishes context once
anycap skill run anycap-deepresearch \
-m "Research competitive landscape for AI video generation APIs"
# Subsequent capabilities work from structured outputs, not raw context
anycap image generate \
--prompt "Comparison diagram: Kling vs Seedance vs Veo3 feature matrix, clean table style" \
--model nano-banana-2
# Each capability gets the right context, nothing more
Wichtigste Erkenntnisse
- Kontextuelle Verfeinerung ist die Verwaltung angesammelten Kontexts – nicht nur die Qualität einzelner Prompts
- Kontext driftet in langen Sitzungen – Checkpoints und
/compactnutzen, um ihn zu verwalten - Progressives Laden schlägt vollständige Kontext-Dumps – Kontext hinzufügen, wenn er benötigt wird
- Multi-Agenten-Systeme benötigen explizite Kontext-Übergabeprotokolle – nicht davon ausgehen, dass Kontext automatisch fließt
- Isolierung ist eine Technik – manchmal ist frischer Kontext für besseres Reasoning gewünscht
→ Leitfaden für Kontext-Engineering → AnyCap-Fähigkeiten im Überblick