Wann Nanoclaw statt OpenClaw oder Hermes?
- Wenn dein Server unter 4 GB RAM hat (Raspberry Pi, alte Hardware).
- Wenn die Task nur einen einzigen Tool-Call pro Lauf braucht (keine Multi-Step-Reasoning).
- Wenn du Latenz auf unter 500 ms drücken willst — z.B. für IoT-Trigger.
Edge-Use-Cases mit Nanoclaw
Drei Szenarien, in denen leichtgewichtige Agents glänzen:
- IoT-Trigger: Smart-Home-Sensor → Agent → Telegram-Push.
- Daten-Filter: RSS-Feed → Agent klassifiziert → wichtiges nach Slack.
- Offline-Verfügbarkeit: Lokales Modell auf Pi für Privatsphäre-kritische Tasks.
Wenn du nur einen Server hast
Auf einem Hostinger-VPS kannst du Hermes, OpenClaw und Nanoclaw parallel betreiben — sie laufen in eigenen Containern und konkurrieren nicht stark um Ressourcen, solange die Tasks nicht gleichzeitig anliegen. systemd kümmert sich um Restart-Logik.
Beispiel: Nanoclaw als Mini-Service
Stripped-down Setup ohne UI-Layer, nur API:
# Beispiel-Layout (passe Pfade an, sobald Nanoclaw offizielle Releases hat):
docker run -d \
--name nanoclaw \
--restart unless-stopped \
-p 127.0.0.1:8090:8090 \
-e MODEL_BACKEND=openai \
-e OPENAI_API_KEY=sk-... \
ghcr.io/openclaw/nanoclaw:latest
# Test:
curl -X POST http://127.0.0.1:8090/run \
-H "Content-Type: application/json" \
-d '{"task": "Klassifiziere diesen Tweet"}' Geschafft
In Lektion 7 zeigen wir, wie du alle drei Agents in n8n, Telegram und Slack einbindest.