Jump to content

Moltbot (ex ClawdBot) 24.01.2026

¿Quieres enterarte al momento de las nuevas descargas? Síguenos en Twitter, Mastodon o Threads!

Moltbot (antes conocido como Clawdbot), es un asistente personal de IA que ejecutas en tus propios dispositivos. Te responde en los canales que ya utilizas (WhatsApp, Telegram, Slack, Discord, Google Chat, Signal, iMessage, Microsoft Teams, WebChat), además de canales de extensión como BlueBubbles, Matrix, Zalo y Zalo Personal. Puede hablar y escuchar en macOS/iOS/Android, y puede renderizar un Canvas en vivo que tú controlas.

El Gateway es solo el plano de control; el producto es el asistente.

Si buscas un asistente personal para un solo usuario que se sienta local, rápido y siempre activo, es este.

whatsapp-clawd.webp

Características destacadas

  • Ejecución en tu propia máquina: Funciona en Mac, Windows o Linux. Compatible con Anthropic, OpenAI o modelos locales. Privado por defecto: tus datos te pertenecen.
  • Cualquier aplicación de chat: Comunícate con él por WhatsApp, Telegram, Discord, Slack, Signal o iMessage. Funciona tanto en mensajes directos como en chats grupales.
  • Memoria persistente: Te recuerda y se vuelve exclusivamente tuyo. Tus preferencias, tu contexto, tu IA.
  • Control del navegador: Puede navegar por la web, rellenar formularios y extraer datos de cualquier sitio.
  • Acceso total al sistema: Lectura y escritura de archivos, ejecución de comandos en la terminal y scripts. Acceso total o en entorno aislado (sandboxed): tú eliges.
  • Habilidades y complementos: Amplía sus capacidades con habilidades de la comunidad o crea las tuyas propias. Incluso puede programar sus propias habilidades.

Configuración recomendada

Ejecuta el asistente de configuración: moltbot onboard. Este te guiará a través del gateway, el espacio de trabajo, los canales y las habilidades. El asistente por CLI es la ruta recomendada y funciona en macOS, Linux y Windows (vía WSL2; muy recomendado). Funciona con npm, pnpm o bun.

Suscripciones (OAuth)

Nota sobre modelos: aunque cualquier modelo es compatible, recomiendo encarecidamente Anthropic Pro/Max (100/200) + Opus 4.5 por su potencia con contextos largos y mejor resistencia a la inyección de prompts.

  • Modelos (selección + autenticación): Configuración de modelos + CLI.
  • Rotación de perfiles de autenticación (OAuth vs. claves API) + contingencias: Failover de modelos.

Instalación (recomendada)

Entorno de ejecución: Node ≥22.

Bash

npm install -g moltbot@latest
# o bien:
pnpm add -g moltbot@latest

moltbot onboard --install-daemon

El asistente instala el demonio del Gateway (servicio de usuario launchd/systemd) para que permanezca en ejecución. Nota de legado: clawdbot sigue estando disponible como un alias de compatibilidad.

Inicio rápido (Resumen)

  • Entorno de ejecución: Node ≥22.
  • Guía completa para principiantes (auth, emparejamiento, canales): Guía de inicio.
Bash

moltbot onboard --install-daemon

moltbot gateway --port 18789 --verbose

# Enviar un mensaje
moltbot message send --to +1234567890 --message "Hola desde Moltbot"

# Hablar con el asistente (opcionalmente responder a cualquier canal conectado)
moltbot agent --message "Lista de verificación de envío" --thinking high
 

Comandos de chat

Envía estos comandos en WhatsApp, Telegram, Slack, Google Chat, Microsoft Teams o WebChat (los comandos de grupo son solo para el propietario):

  • /status: estado compacto de la sesión (modelo + tokens, coste según disponibilidad).
  • /new o /reset: restablece la sesión.
  • /compact: compacta el contexto de la sesión (resumen).
  • /think <nivel>: off | minimal | low | medium | high | xhigh (solo modelos GPT-5.2 + Codex).
  • /verbose on|off
  • /usage off|tokens|full: pie de página de uso por respuesta.
  • /restart: reinicia el gateway (solo propietario en grupos).
  • /activation mention|always: alterna la activación en grupos (solo grupos).

Moltbot ha sido creado por Peter Steinberger.


Que novedades incluye la versión 24.01.2026   See changelog

Released

Destacados

  • Proveedores: se ha añadido el descubrimiento y la documentación de Ollama; se han mejorado las guías de Venice y se han incluido enlaces internos.
  • Canales: se ha incorporado el complemento de LINE (Messaging API) con respuestas enriquecidas y respuestas rápidas.
  • TTS: se ha añadido un sistema de reserva para Edge (sin clave) y modos automáticos para /tts.
  • Aprobaciones de ejecución: se ha habilitado la aprobación en el chat mediante /approve en todos los canales (incluidos los complementos).
  • Telegram: se han tratado los temas de mensajes directos como sesiones independientes y se ha añadido un interruptor para la vista previa de enlaces salientes.

Cambios

  • Canales: se ha añadido el complemento de LINE (Messaging API) con respuestas enriquecidas, respuestas rápidas y registro HTTP de complementos.
  • TTS: se ha incluido un sistema de reserva para el proveedor Edge TTS, que utiliza por defecto Edge sin clave con reintento en MP3 si fallan los formatos.
  • TTS: se ha añadido un enumerador de modo automático (desactivado/siempre/entrante/etiquetado) con anulación de /tts por sesión.
  • Telegram: se han gestionado los temas de mensajes directos como sesiones separadas y se han mantenido estables los límites del historial de mensajes directos con sufijos de hilo.
  • Telegram: se ha incorporado channels.telegram.linkPreview para activar o desactivar las vistas previas de enlaces salientes.
  • Búsqueda web: se ha añadido un parámetro de filtro de actualidad de Brave para obtener resultados limitados en el tiempo.
  • IU: se ha renovado el sistema de diseño del panel de control (tipografía, colores y espaciado).
  • Aprobaciones de ejecución: se han reenviado las solicitudes de aprobación al chat con /approve para todos los canales (incluidos los complementos).
  • Pasarela: se ha expuesto config.patch en la herramienta de pasarela con actualizaciones parciales seguras y un centinela de reinicio.
  • Diagnósticos: se han añadido indicadores de diagnóstico para registros de depuración específicos (anulación de configuración y entorno).
  • Documentación: se ha ampliado la sección de preguntas frecuentes (migración, programación, concurrencia, recomendaciones de modelos, autenticación de suscripción a OpenAI, dimensionamiento de Pi, instalación modificable y solución para SSL en docs).
  • Documentación: se ha incluido una guía detallada para la resolución de problemas del instalador.
  • Documentación: se ha añadido una guía de VM para macOS con opciones locales/alojadas y orientación sobre VPS/nodos.
  • Documentación: se ha incorporado la configuración del rol de instancia EC2 de Bedrock y los pasos de IAM.
  • Documentación: se han actualizado las notas de la guía de Fly.io.
  • Desarrollo: se han añadido ganchos de pre-commit de prek y configuración de dependabot para actualizaciones semanales.

Correcciones

  • IU Web: se ha corregido el desbordamiento del diseño de configuración/depuración, el desplazamiento y el tamaño de los bloques de código.
  • IU Web: se ha habilitado la visualización del botón de detención durante las ejecuciones activas y el cambio a "Nueva sesión" cuando está inactivo.
  • IU Web: se han eliminado los avisos de desconexión antiguos al volver a conectar; se ha permitido guardar formularios con rutas de esquema no compatibles, pero se han bloqueado los esquemas ausentes.
  • IU Web: se han ocultado las sugerencias internas de message_id en las burbujas de chat.
  • Pasarela: se ha permitido que la autenticación de solo token en la IU de control omita el emparejamiento de dispositivos incluso cuando existe una identidad de dispositivo.
  • Matrix: se ha corregido la descifrado de archivos adjuntos multimedia E2EE con una protección de tamaño previa al vuelo.
  • BlueBubbles: se han redirigido los objetivos de números de teléfono a mensajes directos, se ha evitado la filtración de ID de enrutamiento y se ha habilitado la creación automática de mensajes directos faltantes (requiere API privada).
  • BlueBubbles: se han mantenido los GUID de índice de parte en las etiquetas de respuesta cuando faltan los ID cortos.
  • iMessage: se han normalizado los prefijos de chat_id/chat_guid/chat_identifier sin distinguir mayúsculas de minúsculas y se han mantenido estables los identificadores con prefijo de servicio.
  • Signal: se ha reparado el envío de reacciones (objetivos de grupo/UUID e indicadores de autor de CLI).
  • Signal: se ha añadido un tiempo de espera de inicio de signal-cli configurable y documentación para el modo de demonio externo.
  • Telegram: se ha establecido el modo duplex de fetch en "half" para subidas en Node 22 para evitar fallos en sendPhoto.
  • Telegram: se ha utilizado fetch envuelto para el sondeo largo en Node para normalizar la gestión de AbortSignal.
  • Telegram: se ha respetado el proxy por cuenta para las llamadas a la API salientes.
  • Telegram: se ha establecido el retroceso a texto cuando las notas de voz están bloqueadas por la configuración de privacidad.
  • Llamada de voz: se ha devuelto el flujo TwiML para llamadas de conversación salientes en el webhook inicial de Twilio.
  • Llamada de voz: se ha serializado la reproducción de TTS de Twilio y se ha cancelado en caso de interrupción para evitar solapamientos.
  • Google Chat: se ha ajustado la coincidencia de la lista blanca de correos electrónicos, la limpieza de escritura, los límites de medios y la documentación/pruebas.
  • Google Chat: se han normalizado los objetivos de espacio sin el prefijo doble de espacios.
  • Agentes: se ha habilitado la compactación automática ante errores de desbordamiento de contexto antes de fallar.
  • Agentes: se ha utilizado el perfil de autenticación activo para la recuperación de compactación automática.
  • Comprensión de medios: se ha omitido la comprensión de imágenes cuando el modelo principal ya es compatible con visión.
  • Modelos: se han establecido valores por defecto para los campos de proveedores personalizados ausentes para que se acepten configuraciones mínimas.
  • Mensajería: se ha mantenido segura la fragmentación de nuevas líneas para bloques de markdown delimitados en todos los canales.
  • Mensajería: se ha configurado la fragmentación de nuevas líneas para que reconozca párrafos (divisiones en líneas en blanco) para mantener unidos los encabezados y las listas.
  • TUI: se ha recargado el historial tras la reconexión de la pasarela para restaurar el estado de la sesión.
  • Latido: se han normalizado los identificadores de objetivos para un enrutamiento coherente.
  • Ejecución: se han mantenido las aprobaciones para solicitudes elevadas a menos que se use el modo completo.
  • Ejecución: se han tratado las etiquetas de plataforma de Windows como Windows para la selección de shell de nodo.
  • Pasarela: se han incluido variables de entorno de configuración en línea en los entornos de instalación del servicio.
  • Pasarela: se ha omitido el sondeo de DNS de Tailscale cuando el modo tailscale está desactivado.
  • Pasarela: se ha reducido el ruido en los registros para invocaciones tardías y sondeos de nodos remotos; se ha suavizado la actualización de habilidades.
  • Pasarela: se han aclarado las sugerencias de error de autenticación en la IU de control/WebChat por falta de tokens.
  • Pasarela: se ha habilitado la escucha en el bucle invertido IPv6 cuando está vinculado a 127.0.0.1 para que los webhooks de localhost funcionen.
  • Pasarela: se han almacenado los archivos de bloqueo en el directorio temporal para evitar bloqueos antiguos en volúmenes persistentes.
  • macOS: se han establecido por defecto las URL ws:// de transporte directo al puerto 18789; se ha documentado el transporte remoto de la pasarela.
  • Pruebas: se ha limitado el número de trabajadores de Vitest en la CI de macOS para reducir los tiempos de espera.
  • Pruebas: se ha evitado la dependencia de temporizadores falsos en el simulador de flujo del ejecutor embebido para mejorar la estabilidad de la CI.
  • Pruebas: se ha aumentado el tiempo de espera de la prueba de ordenación del ejecutor embebido.
No te pierdas nada, síguenos en Twitter, Mastodon o Threads!
Preguntas, aportes y peticiones en el foro.

  • Contenido similar

    • Por Dekuwa
      Gemini CLI es un agente de IA de código abierto que lleva la potencia de Gemini directamente a tu terminal. Proporciona un acceso ligero a Gemini, ofreciéndote el camino más directo desde tu prompt hasta el modelo de Google.

      ¿Por qué Gemini CLI?
      Nivel gratuito: 60 solicitudes/min y 1.000 solicitudes/día con una cuenta personal de Google. Modelos Gemini 3 potentes: Acceso a razonamiento mejorado y una ventana de contexto de 1M de tokens. Herramientas integradas: Búsqueda en Google (grounding), operaciones de archivos, comandos de shell y obtención de datos web. Extensible: Soporte de MCP (Model Context Protocol) para integraciones personalizadas. Terminal-first: Diseñado para desarrolladores que viven en la línea de comandos. Código abierto: Licencia Apache 2.0. Instalación
      Requisitos previos antes de la instalación
      Node.js versión 20 o superior. macOS, Linux o Windows. Instalación rápida
      Ejecuta instantáneamente con npx:
      npx @google/gemini-cli (no requiere instalación). Instalar globalmente con npm:
      npm install -g @google/gemini-cli Instalar globalmente con Homebrew (macOS/Linux):
      brew install gemini-cli Instalar globalmente con MacPorts (macOS):
      sudo port install gemini-cli Instalar con Anaconda (para entornos restringidos):
      # Crea y activa un nuevo entorno conda create -y -n gemini_env -c conda-forge nodejs conda activate gemini_env # Instala Gemini CLI globalmente vía npm (dentro del entorno) npm install -g @google/gemini-cli Características clave
      Comprensión y generación de código
      Consulta y edita grandes bases de código. Genera nuevas aplicaciones a partir de PDFs, imágenes o bocetos utilizando capacidades multimodales. Depura problemas y soluciona errores con lenguaje natural. Automatización e integración
      Automatiza tareas operativas como consultar pull requests o gestionar rebases complejos. Usa servidores MCP para conectar nuevas capacidades, incluyendo la generación de medios con Imagen, Veo o Lyria. Ejecuta de forma no interactiva en scripts para la automatización de flujos de trabajo. Capacidades avanzadas
      Fundamenta tus consultas con la búsqueda integrada de Google para obtener información en tiempo real. Puntos de control de conversación para guardar y reanudar sesiones complejas. Archivos de contexto personalizados (GEMINI.md) para adaptar el comportamiento a tus proyectos. Integración con GitHub
      Integra Gemini CLI directamente en tus flujos de trabajo de GitHub con la Gemini CLI GitHub Action:
      Revisiones de Pull Request: Revisión de código automatizada con comentarios y sugerencias contextuales. Triaje de Issues: Etiquetado y priorización automática de incidencias basado en el análisis de contenido. Asistencia bajo demanda: Menciona a @gemini-cli en issues y pull requests para ayuda con depuración, explicaciones o delegación de tareas. Flujos personalizados: Crea flujos de trabajo automatizados, programados o bajo demanda adaptados a las necesidades de tu equipo. Opciones de autenticación
      Elige el método que mejor se adapte a tus necesidades:
      Opción 1: Iniciar sesión con Google (OAuth)
      Ideal para desarrolladores individuales y usuarios con licencia de Gemini Code Assist.
      Beneficios: Nivel gratuito (60 req/min, 1.000 req/día), modelos Gemini 3 con 1M de tokens, sin gestión de claves API y actualizaciones automáticas. Uso: Inicia Gemini CLI, elige "Login with Google" y sigue el flujo en el navegador. Opción 2: Clave de API de Gemini
      Ideal para desarrolladores que necesitan control específico del modelo o acceso de pago.
      Beneficios: 1.000 solicitudes/día con Gemini 3 (mezcla de Flash y Pro), selección de modelos específicos y facturación por uso. Configuración: export GEMINI_API_KEY="TU_API_KEY" Opción 3: Vertex AI
      Ideal para equipos empresariales y cargas de trabajo de producción.
      Beneficios: Seguridad y cumplimiento avanzados, mayor escalabilidad e integración con la infraestructura de Google Cloud. Configuración: export GOOGLE_API_KEY="TU_API_KEY" y export GOOGLE_GENAI_USE_VERTEXAI=true Primeros pasos
      Uso básico
      Iniciar en el directorio actual:
      gemini Incluir múltiples directorios:
      gemini --include-directories ../lib,../docs Usar un modelo específico:
      gemini -m gemini-2.5-flash Modo no interactivo para scripts:
      gemini -p "Explica la arquitectura de esta base de código" Para scripting avanzado, usa la bandera --output-format json para obtener una salida estructurada, o --output-format stream-json para eventos JSON delimitados por nuevas líneas en tiempo real.
      Ejemplos rápidos
      Comenzar un nuevo proyecto:
      cd nuevo-proyecto/ gemini> Escríbeme un bot de Discord que responda preguntas usando un archivo FAQ.md que te proporcionaré. Analizar código existente:
      git clone https://github.com/google-gemini/gemini-cli cd gemini-cli gemini> Dame un resumen de todos los cambios que se introdujeron ayer. Gemini CLI ha sido creado por Google y la comunidad Open Source.
×
×
  • Crear nuevo...