RL-Loop: Newsletter-Prompt v2
Mein automatisiertes KI-Setup für Newsletter-Zusammenfassungen lieferte zwar gute Infos, aber die Handlungsrelevanz ("Actionability") lag bei mageren 5,3 von 10 Punkten. Um aus dem reinen News-Reader wieder einen aktiven Assistenten zu machen, habe ich den Prompt radikal überarbeitet und mit hartem Kontext angereichert.
Der neue Prompt für maximale Handlungsrelevanz
Damit die KI aufhört, vage Ratschläge zu geben, habe ich meinen Prompt (Version 2) mit einem strikten Regelwerk versehen. Erstens gibt es nun einen Pflicht-Abschnitt für konkrete nächste Schritte. Die KI muss aus drei Formaten wählen: Befehl (direkte Aktion), Prüfung (Evaluierung) oder Projekt (Roadmap-Vorschlag). Zweitens verbietet eine "Negative Prompting"-Liste weiche Formulierungen wie "könnte" oder "im Auge behalten".
Der größte Hebel war jedoch die Kontextualisierung: Ich übergebe der KI nun automatisch eine Liste meiner 10 wichtigsten, aktiven Projekte. Die Anweisung lautet, jede News gezielt daraufhin zu prüfen, ob sie eines dieser Projekte beschleunigt, gefährdet oder obsolet macht. Plötzlich liest die KI die News durch die Brille meiner eigenen Roadmap und verlinkt nur noch auf direkte Primärquellen.
Kostenkontrolle durch LLM-Routing
Wenn man Prompts derart aufwendig gestaltet und mit Projektlisten anreichert, steigt unweigerlich der Token-Verbrauch. Um mein Setup skalierbar zu halten, nutze ich ein LLM-Gateway mit einem "Cheap-Tier". Für einfache Hintergrundaufgaben wie das Vorfiltern nutze ich nun das Modell Mistral Small 4. Mit einem Preis von 0,10 bis 0,30 US-Dollar pro Million Token ist es extrem kosteneffizient. Gleichzeitig habe ich ein Fallback-Routing eingerichtet: Wirft das günstige Modell einen Fehler, übernimmt automatisch ein leistungsstärkeres Premium-Modell.
Fazit für die eigene Umsetzung: * Verknüpfe KI-Zusammenfassungen immer mit deiner aktuellen Projektliste und verbiete vage Phrasen, um aus allgemeinen News konkrete To-dos abzuleiten. * Nutze ein Gateway mit Fallback-Routing auf günstige Modelle (wie Mistral Small 4), um die Token-Kosten bei großen Kontextfenstern gering zu halten.