Zum Hauptinhalt springen
Ridvan Ereng
Full Stack & AI Engineer
Alle Beiträge

Hier entsteht der Tech-Blog. Roadmap und was zu erwarten ist

Erster Post. Was hier in den nächsten Monaten zu lesen sein wird: Voice Agents, n8n-Patterns, Multi-Model-Routing, Production-AI als Operator.

2 min Lesezeit

Willkommen. Dieser Bereich war lange ein „kommt bald"-Stub auf bielefeld.dev. Jetzt ist er das, was er sein sollte: ein Blog für die Themen, mit denen ich täglich arbeite.

Was hier passiert#

Ich schreibe über drei Themenkomplexe. Das sind die drei Hebel, an denen ich für Kunden und in eigenen SaaS-Projekten den größten Mehrwert sehe.

  • Voice Agents in Produktion: Twilio plus n8n plus Claude. Was funktioniert, was bricht, wie man Latenz unter 700 ms hält und warum die Standard-Tutorials die DSGVO-Realität ignorieren.
  • n8n-Patterns für KMU: kein Hello-World-RSS-zu-Slack. Produktive Multi-Step-Workflows mit Approval-Gates, Error-Recovery und sinnvollen LLM-Calls. Templates aus echten Projekten.
  • Multi-Model-AI als Operator: wie ich Claude Opus, Sonnet, Haiku, GPT-5, Gemini und self-hosted Modelle (Qwen 3.6, DeepSeek V3) für unterschiedliche Tasks orchestriere. Aus Sicht von jemandem, der die Rechnung selbst zahlt.

Wie das hier entsteht#

Die Posts laufen perspektivisch durch eine Auto-PR-Pipeline. Ein n8n-Workflow scant wöchentlich kuratierte Quellen (r/LocalLLaMA, Hacker News, Anthropic-Blog, Towards Data Science), entwirft Drafts mit einem Multi-Model-Setup (Gemini Online für Recherche, Claude für Synthese) und öffnet einen Pull-Request gegen dieses Repo. Ich reviewe, schärfe nach, merge.

Bedeutet im Klartext: jeder Post hat menschliche Kontrolle vor Publikation. Keine Halluzination geht durch. Keine Aussage steht hier, die ich nicht selbst verteidigen würde. Aber die Recherche-Last und das Erstdrafting läuft automatisch. Das macht den Unterschied zwischen „ich schreibe alle 6 Monate mal was" und „wöchentlich neuer Content".

Code-Beispiel#

Damit das Code-Highlighting hier auch wirklich Code-Highlighting ist, hier die kleinste Reading-Time-Schätzung, die in diesem Blog selbst läuft:

function estimateReadingMinutes(text: string): number {
  const words = text.trim().split(/\s+/).filter(Boolean).length;
  return Math.max(1, Math.round(words / 200));
}

200 Wörter pro Minute ist die übliche Lese-Geschwindigkeit für Tech-Inhalte mit Code. Math.max(1, ...) verhindert „0 min Lesezeit" für sehr kurze Beiträge. Kein externes Package, weil das Problem in 6 Zeilen gelöst ist und jedes Package mehr Tree-Shaking-Aufwand bedeutet.

Was nicht kommt#

  • Tutorials für die x-te Implementierung von Hello-World mit Framework Y.
  • Hot-Takes zu AI-Hype.
  • LinkedIn-Style „10 Tipps für…"-Listen.

Wenn das nach etwas klingt, das du verpassen willst, der RSS-Feed ist da. Oder folge mir auf GitHub, das geht auch.