Lección 3 de 27
Modelos de LLM compatibles
Una de las mayores ventajas de OpenClaw es que puedes elegir cualquier modelo de lenguaje. No estas atado a un proveedor. Puedes usar Claude, GPT, Gemini, DeepSeek o incluso modelos locales que corren en tu propia maquina sin enviar datos a la nube.
Modelos soportados y sus caracteristicas
| Modelo | Proveedor | Costo aprox/mes | Mejor para |
|---|---|---|---|
| Claude Opus 4.6 | Anthropic | $50-150 | Tareas complejas, razonamiento profundo |
| Claude Sonnet 4.5 | Anthropic | $20-60 | Uso general, buen balance costo/calidad |
| GPT-4o | OpenAI | $20-80 | Multimodal, analisis de imagenes |
| Gemini 2.5 Pro | $15-50 | Contexto largo, analisis de documentos | |
| DeepSeek V3 | DeepSeek | $5-15 | Presupuesto limitado, codigo |
| Qwen 2.5 (local) | Local/Ollama | $0 (solo hardware) | Privacidad total, sin internet |
Modelos en la nube vs locales
Los modelos en la nube (Claude, GPT, Gemini) ofrecen mejor rendimiento pero envian datos a servidores externos y tienen costo por uso. Los modelos locales (via Ollama o LM Studio) son gratuitos y completamente privados, pero requieren hardware potente (minimo 16GB RAM, ideal GPU) y son mas lentos.
Configurar diferentes modelos
En el archivo de configuracion de OpenClaw puedes definir multiples modelos y alternar entre ellos segun el contexto.
# Configurar Claude como modelo principal
openclaw config set llm.provider anthropic
openclaw config set llm.model claude-sonnet-4-5-20250929
openclaw config set llm.api_key sk-ant-xxx
# Agregar GPT como modelo alternativo
openclaw config set llm.fallback.provider openai
openclaw config set llm.fallback.model gpt-4o
openclaw config set llm.fallback.api_key sk-xxx
# Usar un modelo local con Ollama
openclaw config set llm.provider ollama
openclaw config set llm.model qwen2.5:14b
openclaw config set llm.endpoint http://localhost:11434Si estas empezando, te recomendamos Claude Sonnet 4.5. Ofrece el mejor balance entre calidad, velocidad y costo. Para experimentar sin gastar, prueba con DeepSeek V3 o un modelo local con Ollama.
Costos reales de uso
OpenClaw como herramienta es gratuita, pero usar LLMs en la nube tiene costo. Un uso moderado (20-30 mensajes/dia) con Claude Sonnet cuesta aproximadamente $15-25/mes. Uso intensivo con Opus puede llegar a $150/mes. Los modelos locales eliminan este costo pero requieren hardware adecuado.
Cual modelo recomendarias para alguien con presupuesto limitado que quiere buena calidad?
Puntos clave
- OpenClaw soporta Claude, GPT, Gemini, DeepSeek y modelos locales
- Claude Sonnet 4.5 es el recomendado para empezar (balance calidad/costo)
- DeepSeek V3 es la opcion mas economica en la nube
- Modelos locales via Ollama eliminan costos de API
- El costo mensual tipico va de $0 (local) a $150 (uso intensivo con Opus)
- Puedes configurar modelos de respaldo (fallback) para redundancia
Quiz Generado por IA
Evalua tu comprension de esta leccion con preguntas personalizadas.