Lección 2 de 27

Arquitectura y componentes de OpenClaw

OpenClaw no es una aplicacion monolitica. Esta compuesto por varios componentes que trabajan juntos: un daemon que corre en segundo plano, un Gateway que enruta mensajes, conectores para cada canal, un motor de ejecucion de skills y un sistema de memoria persistente.

El Daemon (openclaw-daemon)

El daemon es el corazon de OpenClaw. Es un proceso de Node.js que corre en segundo plano y gestiona todas las operaciones: recibe mensajes de los canales, los envia al LLM, ejecuta skills y mantiene la memoria. Se instala con `openclaw onboard --install-daemon` y se inicia automaticamente con el sistema.

El Gateway

El Gateway es el punto de entrada para todos los mensajes. Cuando recibes un mensaje de WhatsApp, Telegram o cualquier canal, el Gateway lo recibe, identifica al usuario, carga su contexto de memoria y lo enruta al LLM apropiado. Tambien gestiona multi-agente: puedes tener diferentes agentes para diferentes propositos.

Conectores de Canal

Cada canal de comunicacion tiene su propio conector. Los conectores traducen entre el protocolo del canal (API de WhatsApp, Bot API de Telegram, etc.) y el formato interno de OpenClaw. Actualmente hay conectores para WhatsApp, Telegram, Slack, Discord, Signal, iMessage, Microsoft Teams, Matrix, Line, Viber, Email y mas.

  1. 1

    Un mensaje llega por WhatsApp al conector de WhatsApp

  2. 2

    El conector traduce el mensaje al formato interno de OpenClaw

  3. 3

    El Gateway recibe el mensaje y busca el contexto del usuario en memoria

  4. 4

    El Gateway envia el mensaje + contexto al LLM configurado (ej: Claude)

  5. 5

    El LLM procesa y genera una respuesta, posiblemente invocando skills

  6. 6

    Si hay skills, el motor de ejecucion las ejecuta (ej: buscar en web, leer archivo)

  7. 7

    La respuesta final se envia de vuelta al Gateway

  8. 8

    El Gateway actualiza la memoria y envia la respuesta al conector de WhatsApp

  9. 9

    El conector traduce la respuesta al formato de WhatsApp y la envia al usuario

Flujo completo de un mensaje

Imagina que le escribes a tu OpenClaw por Telegram: "Resume el PDF que te envie ayer". El conector de Telegram recibe el mensaje, el Gateway carga tu historial de memoria, el LLM identifica que necesita buscar el PDF en memoria, invoca la skill de lectura de archivos, y te devuelve el resumen por Telegram.

Logs del daemon
# Ver los logs del daemon para entender el flujo
openclaw logs --follow

# Output:
# [Gateway] Incoming message from telegram:user_123
# [Memory] Loading context for user_123 (42 messages)
# [LLM] Sending to claude-sonnet-4-5-20250929 (1,247 tokens)
# [Skills] Executing: file_read(/data/uploads/informe.pdf)
# [LLM] Response generated (834 tokens)
# [Gateway] Sending response to telegram:user_123
# [Memory] Saved interaction (2 messages added)
El motor de ejecucion de skills es responsable de ejecutar las acciones que el LLM necesita. Cada skill es un modulo que expone funciones especificas: leer archivos, ejecutar comandos, buscar en la web, enviar emails, etc. Las skills se pueden instalar desde ClawHub o crear manualmente.
Requisitos de sistema

OpenClaw requiere Node.js 22+ y funciona en macOS, Linux y Windows (via WSL2). Docker es opcional pero recomendado para sandboxing. La RAM minima es 4GB, recomendado 8GB+.

Cual componente de OpenClaw es responsable de enrutar mensajes entre canales y el LLM?

Puntos clave

  • El Daemon es el proceso central que gestiona todo
  • El Gateway enruta mensajes entre canales y LLMs
  • Los Conectores traducen entre protocolos de canal y formato interno
  • El Motor de Skills ejecuta acciones (leer archivos, comandos, web)
  • La Memoria es persistente en SQLite local
  • Docker Sandbox aisla la ejecucion de skills para seguridad

Quiz Generado por IA

Evalua tu comprension de esta leccion con preguntas personalizadas.