← Thomas Winkler

OpenClaw Premium-Leak gestoppt: $6/Tag Einsparung

07.04.2026 · ai-tools

Letzte Woche schoss meine API-Rechnung in die Höhe, weil ein KI-Agent eigenmächtig Premium-Modelle für simple Hintergrundaufgaben nutzte – ein Fehler, der mich 6 Dollar pro Tag kostete. Die Ursache war eine Konfiguration, die dem Agenten 15 Modelle mit einem hinterlegten Preis von 0 Dollar anbot, woraufhin er opportunistisch stets das mächtigste wählte.

Striktes Routing statt Agenten-Autonomie

Um das zu stoppen, habe ich die Autonomie des Agenten radikal beschnitten. Er kennt jetzt keine spezifischen Modelle oder Provider mehr, sondern kommuniziert nur noch mit einem einzigen generischen Endpunkt. Dahinter sitzt mein zentrales LLM-Gateway.

Zusätzlich habe ich einen vorgeschalteten, regelbasierten "Request Classifier" (Proxy) gebaut. Dieser analysiert in Millisekunden Metadaten wie Kontextlänge oder Code-Blöcke und sortiert die Anfrage in eine von fünf Kategorien (z. B. simple, coding, analysis). Das Gateway routet dann zum passenden Modell. Bewusst nutze ich hierfür kein LLM, da eine einfache Heuristik Latenz und Kosten spart. Durch diese Umstellung sanken die Kosten für diesen Agenten sofort von 6 Dollar auf 30 Cent pro Tag.

Schutz vor Konfigurations-Resets

Da automatische Updates von Open-Source-Tools oft Standardwerte wiederherstellen, brauchte ich einen Schutz vor Rückfällen. Ein simpler Policy-Enforcer prüft nun alle fünf Minuten als Hintergrund-Job, ob die strengen Routing-Regeln noch aktiv sind. Findet er die alten Premium-Modelle in der Konfigurationsdatei, löscht er sie automatisch, erzwingt den Classifier-Endpunkt und schickt mir eine Warnung. Das System heilt sich also selbst.

Meine wichtigsten Erkenntnisse für autonome Setups: