Why Your AI Needs a Dream Phase — und was der Claude-Code-Leak daran bestätigt
Der jüngste Claude-Code-Leak ist vor allem deshalb interessant, weil er ein architektonisches Muster sichtbar macht, das für langfristig nützliche AI-Systeme zentral ist: Sie brauchen eine Phase, in der sie nicht nur reagieren, sondern ihr Wissen im Hintergrund ordnen, verdichten und überprüfen. Genau diese Phase meinen wir, wenn wir von einer Dream Phase sprechen.
Was der Leak zeigt
In den öffentlich analysierten Funden rund um Claude Code taucht mit KAIROS ein Always-on-Hintergrundmodus auf, inklusive einer Funktion namens autoDream. Soweit sich das aus den öffentlich diskutierten Codefunden ableiten lässt, geht es dabei um Memory Consolidation: Beobachtungen werden zusammengeführt, Widersprüche reduziert und lose Notizen in besser nutzbare Wissensfragmente überführt. Für einen Coding-Assistenten ist das ein sehr naheliegender Schritt.
Das Interessante daran ist nicht, dass Anthropic auf diese Idee gekommen ist. Das Interessante ist, dass diese Idee offenbar unvermeidlich wird, sobald AI-Systeme über längere Zeit mit Kontext, Verlauf und Wissen arbeiten. Wer persistente AI baut, stößt früher oder später auf dieselbe Frage: Wie bleibt Wissen brauchbar, wenn es wächst, altert und sich widerspricht?
Unser Ansatz: Der Deliberator
Genau an dieser Frage arbeiten wir mit unserem Deliberator im Rahmen von Memorizer. Wir haben diese Architektur bereits vor dem Leak auf diesem Blog beschrieben : als separaten Prozess, der nicht auf eine einzelne Anfrage reagiert, sondern periodisch den vorhandenen Wissensbestand analysiert. Ziel ist nicht nur bessere Ablage, sondern bessere Erkenntnis.
Der Deliberator sucht gezielt nach vier Mustern:
Widersprüche. Wenn zwei gespeicherte Aussagen einander widersprechen, markiert das System den Konflikt statt beide stillschweigend nebeneinander stehen zu lassen.
Zeitlich veraltetes Wissen. Informationen haben eine Halbwertszeit. Was vor zwei Jahren eine sinnvolle Architekturentscheidung war, kann heute ein Risiko sein.
Synthese-Möglichkeiten. Wirklich wertvolle Erkenntnisse entstehen oft dort, wo zwei bislang getrennte Wissensfragmente plötzlich zusammen ein Muster ergeben.
Wissenslücken. Manchmal deutet der vorhandene Kontext klar auf ein relevantes Thema hin, ohne dass dazu explizites Wissen vorliegt. Auch das ist eine wichtige Erkenntnis: zu wissen, was man noch nicht weiß.
Warum ein separater Prozess?
Solche Funde werden nicht einfach als neue Fakten zurück in den Hauptkontext geschrieben. Sie werden als Insights mit Evidenz, Referenzen und Handlungsempfehlungen gespeichert. Das ist architektonisch wichtig. Denn sobald ein Modell beginnt, seinen eigenen Wissensbestand zu analysieren und dabei neue Schlüsse zu ziehen, entsteht ein reales Risiko: Zwischenergebnisse, Vermutungen und gesicherte Fakten können ineinanderlaufen.
Darum läuft die Dream Phase in einem separaten Modus. Nicht als Nebengedanke im Hauptkontext, sondern als eigener Prozess auf einer kontrollierten Repräsentation des Wissens. Das schützt den produktiven Agenten davor, seine eigenen Interpretationen mit der ursprünglichen Evidenz zu verwechseln. Auch in den öffentlichen Analysen des Claude-Code-Leaks wird genau diese Trennung als auffälliges Architekturmerkmal beschrieben.
Über Konsolidierung hinaus: Hypothesen erzeugen
Was bei Anthropic öffentlich diskutiert wird, wirkt vor allem wie Konsolidierung innerhalb eines Coding-Kontexts. Das ist sinnvoll und wertvoll: Ein System räumt auf, verdichtet und macht seinen Kontext wieder nutzbar. Unser Anspruch mit dem Deliberator geht einen Schritt weiter. Wir wollen nicht nur konsolidieren, sondern Hypothesen erzeugen.
Ein Beispiel: Wenn der Vertrieb wiederholt Einwände zur Integrationsdauer dokumentiert, der Support parallel ungewöhnlich viele Workarounds zu demselben Thema sieht und die Produktdokumentation an dieser Stelle besonders komplex ist, dann sollte ein Wissenssystem nicht nur drei getrennte Notizen speichern. Es sollte ein neues Insight erzeugen: Hier gibt es wahrscheinlich ein strukturelles Onboarding-Problem.
Genau das meinen wir mit Dream Phase im stärkeren Sinn: nicht nur Verdichtung, sondern strukturierte Rekombination. Nicht nur Aufräumen, sondern Denkarbeit im Hintergrund.
Warum jede ernsthafte AI-Anwendung eine Dream Phase braucht
Kontextfenster sind endlich. Auch sehr große Fenster können nie den vollständigen Wissensbestand einer Organisation gleichzeitig tragen.
Wissen altert. Ohne aktive Prüfung wird veraltetes Wissen mit der Zeit zu einem stillen Qualitätsproblem.
Widersprüche sammeln sich an. Unterschiedliche Teams, Zeitpunkte und Quellen produzieren zwangsläufig Inkonsistenzen.
Und die wichtigsten Verbindungen werden oft nie explizit abgefragt. Die wertvollste Erkenntnis ist häufig die, nach der niemand gesucht hat.
Deshalb glauben wir: Eine Dream Phase ist kein nettes Zusatzfeature. Sie ist ein Grundmuster für Systeme, die mit persistentem Wissen arbeiten sollen.
Ausblick: Namespace Promotion
Der nächste Schritt liegt für uns darin, diese Logik nicht nur innerhalb eines einzelnen Wissensraums anzuwenden, sondern über Team- und Organisationsgrenzen hinweg. Nicht als unkontrollierter Datentransfer, sondern als datenschutzkonforme, verdichtete Weitergabe von Insights. Intern nennen wir das Namespace Promotion. Dazu mehr im nächsten Post.
Der Claude-Code-Leak beweist nicht, dass alle dieselbe Lösung bauen. Aber er deutet darauf hin, dass unterschiedliche Teams auf dasselbe Grundproblem stoßen. Und genau das ist die spannendere Nachricht: Nicht ein einzelnes Feature ist hier relevant, sondern ein Muster.
AI-Systeme, die dauerhaft mit Wissen arbeiten, brauchen nicht nur mehr Kontext. Sie brauchen Phasen, in denen sie aus Kontext brauchbares Wissen machen.