← Thomas Winkler

Anthropic Persistent Memory Eval

29.04.2026 · ai-tools

Um den täglichen Gedächtnisverlust von KI-Modellen zu umgehen und nicht ständig Projektkontexte neu erklären zu müssen, habe ich eine persistente Memory-Architektur für Anthropic (Claude) aufgebaut und evaluiert. Statt riesiger System-Prompts oder manueller Kontext-Dokumente lernt das System im Hintergrund mit und ruft nur aufgabenrelevante Details ab.

Architektur des Langzeitgedächtnisses

Das Setup lässt sich in drei Schritte unterteilen:

  • Extraktion: Ein Hintergrundprozess analysiert den Chat auf dauerhaft relevante Fakten über meine Projekte oder Präferenzen (z. B. "Nutze für User Stories das Format von Mike Cohn").
  • Speicherung: Diese Fakten werden strukturiert in einer Vektordatenbank abgelegt, um sie später semantisch durchsuchen zu können.
  • Abruf: Bei einer neuen Anfrage durchsucht das System das Gedächtnis nach passenden Einträgen und gibt diese Claude unsichtbar als Kontext mit.
  • Erkenntnisse aus der Evaluierung

    In der Praxis hat sich gezeigt, dass explizites Wissen hervorragend funktioniert. Harte Fakten wie Projektnamen oder Tech-Stacks werden sauber extrahiert und passgenau abgerufen. Implizites Wissen, wie etwa mein bevorzugter Schreibstil, ist jedoch schwer als weiche Erinnerung abzuspeichern. Solche Dinge verankere ich weiterhin besser in einem festen Basis-System-Prompt.

    Die größte technische Herausforderung sind "Erinnerungs-Konflikte". Wenn sich Entscheidungen ändern (z. B. ein Feature pausiert wird), muss das Gedächtnis aktualisiert werden. Ohne eine saubere Logik zum Überschreiben alter Fakten wird die KI durch widersprüchliche Datenbankeinträge verwirrt.

    Für das eigene Setup gilt daher: Trenne harte Fakten von Stilvorgaben und plane unbedingt eine Mechanik zum "Vergessen" oder Aktualisieren ein, damit alte Projektstände nicht die Antworten blockieren.