← Thomas Winkler

GPT-5.4 Nano Cheap-Tier Evaluation

23.03.2026 · ai-tools

Um meine API-Kosten im lokalen AI-Setup zu optimieren, habe ich das neue GPT-5.4 Nano evaluiert und gleichzeitig mein LLM-Gateway sowie die Anbindung meiner Wissensdatenbank aktualisiert.

Modell-Evaluierung & Gateway-Audit

Ich nutze ein LLM-Gateway mit verschiedenen Leistungsstufen. Für einfache Automatisierungen im Hintergrund wollte ich prüfen, ob GPT-5.4 Nano (0,20 $ pro Million Input-Token, 1,25 $ Output) mein neues "Cheap-Tier"-Standardmodell wird. Der direkte Vergleich zeigte jedoch: Mein aktuelles Setup mit Modellen wie Mistral Small 4 (0,10 $ Input, 0,30 $ Output) oder teils kostenlosen Llama-4-Varianten ist deutlich wirtschaftlicher. Das neue Modell bot für reine Routineaufgaben keinen spürbaren Mehrwert gegenüber den etablierten Open-Weight-Alternativen.

Bei der Durchsicht der Gateway-Routings stieß ich zudem auf ein altes Migrations-Artefakt: Ein interner Bezeichner für DeepSeek leitete im Hintergrund fälschlicherweise auf ein Grok-Modell um. Die Anfragen funktionierten zwar, aber solche Inkonsistenzen verfälschen auf Dauer die Kostenkontrolle. Das zeigte mir wieder, wie wichtig regelmäßige Audits der eigenen Routing-Konfigurationen sind.

Update des Model Context Protocol (MCP)

Der zweite Hebel war die Anbindung meiner lokalen Daten. Ich habe das SDK für das Model Context Protocol (MCP) auf Version 1.27.1 aktualisiert. Dieses scheinbar kleine Entwickler-Update brachte zwei massive Verbesserungen für meinen Workflow:

Erstens ein flüssigeres Tool-Result-Streaming. Wenn die KI nun in meinen Notizen sucht, werden die Ergebnisse direkt gestreamt, sodass die langen Wartezeiten bis zum Abschluss des Suchprozesses entfallen. Zweitens eine verbesserte Fehlerbehandlung (Error-Propagation). Schlägt ein lokales Tool fehl, wird der Fehler nun detailliert an das Sprachmodell zurückgemeldet. Die KI kann das Problem interpretieren und mir sofort erklären, was schiefgelaufen ist, anstatt einfach stumm abzubrechen.

Zentrale Erkenntnisse: * Trenne Anfragen strategisch in Kosten-Tiers: Nutze teure Modelle nur für komplexe Logik und günstige, gut abgestimmte Open-Source-Modelle für einfache Datenextraktion. * Pflege deine Infrastruktur: Nur durch regelmäßige Updates (wie beim MCP) und Gateway-Audits bleibt ein lokales AI-Setup performant und kosteneffizient.