Anthropic Persistent Memory Eval
Um den täglichen Gedächtnisverlust von KI-Modellen zu umgehen und nicht ständig Projektkontexte neu erklären zu müssen, habe ich eine persistente Memory-Architektur für Anthropic (Claude) aufgebaut und evaluiert. Statt riesiger System-Prompts oder manueller Kontext-Dokumente lernt das System im Hintergrund mit und ruft nur aufgabenrelevante Details ab.
Architektur des Langzeitgedächtnisses
Das Setup lässt sich in drei Schritte unterteilen:
Erkenntnisse aus der Evaluierung
In der Praxis hat sich gezeigt, dass explizites Wissen hervorragend funktioniert. Harte Fakten wie Projektnamen oder Tech-Stacks werden sauber extrahiert und passgenau abgerufen. Implizites Wissen, wie etwa mein bevorzugter Schreibstil, ist jedoch schwer als weiche Erinnerung abzuspeichern. Solche Dinge verankere ich weiterhin besser in einem festen Basis-System-Prompt.
Die größte technische Herausforderung sind "Erinnerungs-Konflikte". Wenn sich Entscheidungen ändern (z. B. ein Feature pausiert wird), muss das Gedächtnis aktualisiert werden. Ohne eine saubere Logik zum Überschreiben alter Fakten wird die KI durch widersprüchliche Datenbankeinträge verwirrt.
Für das eigene Setup gilt daher: Trenne harte Fakten von Stilvorgaben und plane unbedingt eine Mechanik zum "Vergessen" oder Aktualisieren ein, damit alte Projektstände nicht die Antworten blockieren.