Übersicht
Das System injiziert Fachwissen über KRITIS-Regulierungen, NIS-2-Richtlinien und Krisenprozesse in den AI-Prompt, damit Szenarien realistischer und regulierungskonform werden.Problem & Lösung
Problem: Claude hat generelles Wissen, aber keine tiefe Domain-Expertise in KRITIS-Schwellenwerten, BSI-Meldepflichten, sektor-spezifischen Response-Abläufen und professionellem Storytelling. Lösung: Wissensbasen als Markdown-Dateien, die basierend auf Nutzer-Auswahl (Sektor, Regulierung, Vorfallstyp) in den Prompt geladen werden.Wissensbasen-Struktur
Selective Loading
Statt alle Dateien (~203K Tokens) zu laden, werden nur relevante geladen: Beispiel:formData enthält industry_sector: "healthcare_hospitals", regulatory_context: "nis2", incident_category: "cyber"
Geladen wird:
regulatory/nis2.md(~50K Tokens)protocols/health.md(~3.5K Tokens)incidents/cyber.md(~2.5K Tokens)storytelling/*.md(~10K Tokens, immer)examples/health-cyber-*.md(~15K Tokens, gefiltert)
Prompt Caching
Cache Key:hash(regulatory_context + sector + incident_category)
Ökonomie:
- First Request: $0.27 (Cache Write)
- Subsequent Requests: $0.021 (Cache Read) → 90% Ersparnis
- Break-Even: ~2 Szenarien
Integration
Das Wissen wird als<knowledge_base> Block in den System Prompt injiziert, mit Prompt Caching markers:
Ergebnis
Vorher:- Generische Krisen ohne KRITIS-Details
- Keine regulatorischen Referenzen
- Variable Qualität
- Realistische KRITIS-Szenarien mit Schwellenwerten, BSI-Meldungen
- Events referenzieren 24h/72h Fristen
- Konsistente narrative Qualität durch Beispiele
- Authentisches Fachvokabular
Wartung
- Markdown-Dateien in
/knowledge/bearbeiten - Deployen (keine Code-Änderungen nötig)
- Cache refresht automatisch nach TTL
- Regulierungen: Quartalsweise
- Protokolle: Nach Bedarf
- Beispiele: Monatlich

