n8n: Workflow-Automatisierung verstehen
Architektur-Konzepte | Deployment-Optionen | Self-Hosting vs Cloud | Technische Fundierung
Workflow-Automatisierung: Architektur-Grundlagen
Was ist ein Workflow-Orchestrator und wie funktioniert er technisch?
Ein Workflow-Orchestrator ist ein System, das die Ausführung von sequenziellen oder parallelen Tasks zwischen verschiedenen Services koordiniert. Technisch gesehen: Event-driven Execution Engine mit visueller Programmieroberfläche.
Kernkonzepte
Atomare Funktionseinheiten. Jede Node kapselt eine Operation (API-Call, Datenverarbeitung, Conditional Logic).
Workflows sind Directed Acyclic Graphs (DAG). Nodes sind Vertices, Connections sind Edges. Ausführung erfolgt topologisch sortiert.
Workflows starten durch Events: Webhook (Push), Polling (Pull), Cron (Schedule), Manual Trigger.
Execution State muss persistiert werden (DB), um Retry, Error Handling, Debugging zu ermöglichen.
n8n: Technische Charakteristika
Plattform-Kategorien verstehen
Architekturelle Unterschiede zwischen Cloud-SaaS, Hybrid und Self-Hosted
Die fundamentale Entscheidung
Bei Workflow-Automatisierung gibt es zwei grundsätzlich verschiedene Architektur-Ansätze, die unterschiedliche Trade-offs haben:
| Kriterium | n8nSelf-Hosted | Cloud-SaaS Plattformen |
|---|---|---|
| Pricing-Modell | Execution-basiert 1 Workflow-Run = 1 Execution (egal wie viele Items) | Task/Operation-basiert Jedes Item × Steps = Tasks abgerechnet |
| Deployment-Optionen | Unbegrenzt VPS, On-Premise, Docker, Kubernetes, Cloud VM | Nur Cloud Vendor-gehostete Plattform |
| Data Residency | Volle Kontrolle Sie bestimmen Server-Standort (DE, EU, On-Prem) | Provider-abhängig Oft USA-Server, Schrems II problematisch |
| Code/Customization | Unbegrenzt Custom Nodes (NPM), JS/Python Inline Code | Limitiert Sandboxed Code Execution (wenn überhaupt) |
| Version Control (Git) | Native Git Integration | Meist nicht verfügbar |
| Lokale AI-Modelle | Möglich (Ollama, LocalAI) | Nicht möglich |
| Operational Overhead | Mittel-Hoch Updates, Backups, Monitoring, Security-Patches | Minimal Vendor managed |
| Vendor Lock-In | Kein Fair-Code Lizenz, Workflows exportierbar | Hoch Proprietäres Format, Migration schwierig |
Lizenzmodelle verstehen
Source-Available Lizenz. Code ist einsehbar, selbst hostbar, aber nicht vollständig Open Source (Apache Sustainable License).
Closed Source. Code ist nicht einsehbar, keine Self-Hosting-Option.
Pricing-Modelle: Architekturelle Implikationen
Task-basiert vs Execution-basiert – warum das Kostenstrukturen fundamental verändert
Der fundamentale Unterschied
Task-basiertes Pricing (Cloud-SaaS)
Abrechnungseinheit: Task
1 Task = 1 Action auf 1 Item. Multi-Step Workflow mit 100 Items × 5 Steps = 500 Tasks.
Execution-basiertes Pricing (n8n)
Abrechnungseinheit: Workflow-Execution
1 Execution = 1 kompletter Workflow-Run, unabhängig von Item-Count oder Step-Count.
Kosten-Skalierung: Vergleich
Bei datenintensiven Workflows (hohe Item-Counts) ist Execution-basiertes Pricing exponentiell günstiger. Bei einfachen 1-Item-Workflows ist der Unterschied marginal.
| Workflow-Typ | Items/Run | Steps | Tasks (Cloud-SaaS) | Executions (n8n) | Faktor |
|---|---|---|---|---|---|
| Simple Notification | 1 | 3 | 3 Tasks | 1 Execution | 3x |
| Bulk Email Campaign | 500 | 4 | 2.000 Tasks | 1 Execution | 2.000x |
| Data Migration | 10.000 | 5 | 50.000 Tasks | 1 Execution | 50.000x |
Versteckte Kosten bei Task-basiertem Pricing
- Polling-basierte Triggers: Viele Cloud-SaaS-Plattformen nutzen Polling (alle 5-15 Min). Jedes Poll-Event = Task abgerechnet, auch wenn keine neuen Daten vorhanden sind.
- Multi-Step Multiplication: 5-Step Workflow × 1.000 Runs = 5.000 Tasks. Jeder zusätzliche Step erhöht Kosten linear.
- Premium Connectors: Zusätzliche Kosten für Enterprise-Apps (Salesforce, SAP, etc.), unabhängig von Task-Count.
Deployment-Architekturen
Von Managed Cloud bis Air-Gapped On-Premise – technische Trade-offs verstehen
Self-Hosting bedeutet nicht automatisch "auf eigenem Server". Es gibt verschiedene Deployment-Modelle mit unterschiedlichen Trade-offs bezüglich Kontrolle, Wartung und Compliance.
Managed VPS
Cloud-VM mit Management-Service
On-Premise
Physischer Server, lokales Netzwerk
Vendor-Managed Cloud
SaaS by n8n (oder andere)
DIY VPS
Selbst-Administration
Deployment-Entscheidung: Kriterien
AI-Integration: Architekturelle Unterschiede
Warum Self-Hosted Plattformen bei AI-Workflows überlegen sind
AI-Workflows haben fundamentally different Anforderungen als klassische Integrationen: Lange Laufzeiten, hohe Token-Counts, lokale Modelle, RAG-Pipelines. Hier zeigen sich die architekturellen Vorteile von Self-Hosted Lösungen.
AI-Workflow Architektur
- LangChain Integration: Native Nodes für Vector Stores, Embeddings, Chains, Agents
- Lokale LLMs: Ollama, LocalAI, llama.cpp via localhost
- Custom Code: Python Nodes für komplexe AI-Pipelines
- Keine Timeout-Limits: Lange RAG-Pipelines (>5 Min) kein Problem
- Nur Cloud-APIs: OpenAI, Anthropic, etc. Lokale Modelle nicht möglich
- Execution Timeouts: Meist 30-120 Sek Limit pro Step
- Limitierte Customization: Nur vorgefertigte Integrationen
- Data Residency: Prompts & Responses über Vendor-Server
Praxis-Beispiel: RAG-Pipeline
Eine typische RAG-Pipeline (Retrieval-Augmented Generation) erfordert mehrere Steps: Document Loading → Chunking → Embedding → Vector Store → Retrieval → LLM Generation.
Model Gateway Pattern: Flexibilität durch Abstraktion
Ein Model Gateway (z.B. OpenRouter) ist ein Unified API Endpoint für hunderte AI-Modelle. Vorteil: Modell-Switching ohne Code-Änderung.
- Vendor Independence: Wechseln Sie Provider ohne Workflow-Änderung
- Cost Optimization: Task-spezifisches Modell (Cheap für Simple, Premium für Complex)
- Fallback: Automatischer Failover wenn Provider down
model: "provider/model-name". Ein Workflow kann verschiedene Modelle für verschiedene Steps nutzen. Entscheidungskriterien: Systematisch evaluieren
Framework für die Auswahl der richtigen Workflow-Plattform
5-Dimensionen-Framework
→ Cloud-SaaS wenn nur Non-EU Daten oder Marketing-Only
→ Self-Hosted wenn AI-Workflows mit RAG/lokalen Modellen
→ Cloud-SaaS wenn Simple 1-Item-Workflows
→ DIY VPS/On-Prem wenn DevOps vorhanden (niedrigste Kosten)
→ Cloud-SaaS wenn zero maintenance gewünscht
→ Cloud-SaaS wenn niedriges, unvorhersehbares Volumen (Pay-as-you-go)
→ Cloud-SaaS wenn Lock-In akzeptabel (Convenience > Independence)
Quick Decision Matrix
| Ihr Profil | Empfohlene Lösung | Begründung |
|---|---|---|
EU-KMU, DSGVO-kritisch Personendaten, kein Tech-Team | Managed VPS (EU) | DSGVO-konform, wartungsfrei, dedizierte Infrastruktur |
Startup, Budget-optimiert DevOps vorhanden, hohes Volumen | DIY VPS | Niedrigste Kosten, volle Kontrolle, Technical Capacity vorhanden |
Non-Tech Business Simple Workflows, keine EU-Daten | Cloud-SaaS | Zero Setup, einfachste Bedienung, Compliance nicht kritisch |
AI-First Company RAG, lokale LLMs, Custom Pipelines | Self-Hosted (On-Prem) | Ollama-Integration, keine Timeouts, Custom Code unbegrenzt |
Enterprise, High-Volume >1M Executions/Monat, Multi-Region | Kubernetes Cluster | Horizontal Scaling, Redis Queue, Multi-Worker Setup |
Key Takeaways
Bereit für Workflow-Automatisierung?
In einem kostenlosen Beratungsgespräch analysieren wir Ihre Use Cases und zeigen Ihnen, welche Architektur für Ihre Anforderungen optimal ist.
Kostenfreies Beratungsgespräch buchenOder zurück zur Academy-Übersicht