← Thomas Winkler

MiniMax M2.5 als coding-cheap Alias

07.04.2026 · ai-tools

Bisher liefen all meine Programmieraufgaben über ein zentrales LLM-Gateway an teure Top-Modelle wie Claude Sonnet. Um bei simplen Skripten Kosten zu sparen, habe ich eine Routing-Strategie mit dedizierten, günstigen Modellen und reduziertem Kontext eingeführt.

Das "Coding-Cheap" Setup mit MiniMax M2.5

In meinem LLM-Gateway arbeite ich mit Aliasen, um Tools von der direkten Modell-API zu entkoppeln. Bisher leitete der Alias coding alles an das stärkste, aber teuerste Modell weiter. Für einfache Python-Skripte oder Standard-React-Komponenten ist das jedoch absolute Überkapazität, während herkömmliche "Cheap-Tier"-Modelle bei Code oft patzen.

Als Lösung habe ich den neuen Alias coding-cheap angelegt und ihn mit MiniMax M2.5 verknüpft. Dieses Modell liefert im SWE-Bench beachtliche 80,2 %, kostet aber nur einen Bruchteil der Top-Modelle (0,30 $ pro 1M Input-Token, 1,20 $ pro 1M Output-Token). Für komplexe Architekturfragen bleibt der alte Alias bestehen, aber alltägliche Standardaufgaben laufen nun extrem kosteneffizient. Zusätzlich habe ich Gemma 4 über den kostenlosen Tier des Google AI Studios als Basis-Rückfallebene für einfache Logik- und Textaufgaben integriert.

Kontext-Optimierung für bessere Ergebnisse

Neben dem Modell-Routing habe ich den mitgelieferten Kontext meiner KI-Agenten optimiert. Eine aktuelle Studie bestätigt: Weniger Kontext erhöht die Effizienz des Coding-Agenten.

Ich habe daher meine zentrale Projekt-Dokumentation analysiert, die auf fast 400 Zeilen angewachsen war. Indem ich spezifische Service-Sektionen und selten genutzte Tool-Dokumentationen in separate Dateien ausgelagert habe, konnte ich die Hauptdatei um ein Viertel kürzen. Das Modell erhält nun nur noch die essenziellen Richtlinien und arbeitet spürbar fokussierter, da es keine irrelevanten Informationen mehr verarbeiten muss.

Meine Erkenntnisse für dein Setup: * Nutze ein LLM-Gateway mit funktionsbasierten Aliasen (z. B. coding-cheap), um je nach Komplexität der Aufgabe kosteneffizient das Modell zu wechseln. * Halte System-Prompts und Kontext-Dateien so schlank wie möglich, um die Präzision der KI zu maximieren.