Precios

Inicio rápido

Archivos fuente

Esta página se genera a partir de los siguientes archivos fuente:

Sim es una plataforma de código abierto diseñada para construir agentes AI y orquestar flujos de trabajo agénticos. La plataforma permite conectar más de 1,000 integraciones y LLMs para crear workforce agénticos personalizados (README.md:1-7).

Las características principales de Sim incluyen tres pilares fundamentales:

  1. Constructor de flujos de trabajo visual: Permite diseñar flujos de trabajo de agentes en un lienzo visual, conectando agentes, herramientas y bloques que pueden ejecutarse instantáneamente
  2. Copilot integrado: Un asistente que genera nodos, corrige errores e itera sobre flujos directamente desde lenguaje natural
  3. Bases de datos vectoriales: Permite subir documentos a un almacén vectorial para que los agentes respondan preguntas basadas en contenido específico

(README.md:20-39)

Opción Cloud sim.ai

La forma más rápida de comenzar con Sim es utilizando la versión alojada en la nube. Esta opción no requiere configuración local ni instalación de dependencias.

Acceso directo: https://sim.ai

La plataforma cloud proporciona acceso inmediato a todas las funcionalidades de Sim sin necesidad de gestionar infraestructura. Los enlaces oficiales del proyecto incluyen:

RecursoURL
Plataforma Cloudhttps://sim.ai
Comunidad Discordhttps://discord.gg/Hr4UWYEcTT
Twitter/Xhttps://x.com/simdotai
Documentaciónhttps://docs.sim.ai

(README.md:41-45, README.md:9-14)

Opción Self-hosted Paquete NPM

Para despliegues locales rápidos, Sim ofrece un paquete NPM que automatiza la configuración mediante contenedores Docker.

Instalación Rápida

bash
1npx simstudio

Después de la ejecución, la aplicación estará disponible en: http://localhost:3000

(README.md:47-52)

Requisito Obligatorio

Docker debe estar instalado y ejecutándose en la máquina antes de ejecutar el comando npx simstudio (README.md:54-55).

Opciones de Configuración

FlagDescripción
-p, --port <port>Puerto para ejecutar Sim (por defecto 3000)
--no-pullOmitir la descarga de las últimas imágenes Docker

(README.md:57-62)

Opción Self-hosted Docker Compose

El despliegue mediante Docker Compose proporciona control total sobre la configuración y los servicios.

Instalación Estándar

bash
1git clone https://github.com/simstudioai/sim.git && cd sim
2docker compose -f docker-compose.prod.yml up -d

Una vez completado, acceder a: http://localhost:3000

(README.md:64-71)

Arquitectura de Servicios

El archivo docker-compose.prod.yml define cuatro servicios principales:

ServicioImagenPuertoFunción
simstudioghcr.io/simstudioai/simstudio:latest3000Aplicación principal
realtimeghcr.io/simstudioai/realtime:latest3002Servidor de sockets en tiempo real
migrationsghcr.io/simstudioai/migrations:latest-Migraciones de base de datos
dbpgvector/pgvector:pg175432PostgreSQL con extensión pgvector

(docker-compose.prod.yml:1-38)

Configuración de Recursos

El servicio principal simstudio tiene un límite de memoria de 8GB, mientras que el servidor realtime tiene un límite de 1GB (docker-compose.prod.yml:7-10, docker-compose.prod.yml:45-48).

Uso con Modelos Locales (Ollama)

Sim soporta modelos AI locales mediante Ollama, eliminando la necesidad de APIs externas:

bash
1# Iniciar con soporte GPU (descarga automáticamente el modelo gemma3:4b)
2docker compose -f docker-compose.ollama.yml --profile setup up -d
3
4# Para sistemas solo CPU:
5docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d

Esperar a que el modelo se descargue y luego visitar http://localhost:3000.

Para agregar modelos adicionales:

bash
1docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b

(README.md:73-88)

Instancia Ollama Externa

Si Ollama se ejecuta en la máquina host, utilizar host.docker.internal en lugar de localhost:

bash
1OLLAMA_URL=http://host.docker.internal:11434 docker compose -f docker-compose.prod.yml up -d

En Linux, usar la dirección IP del host o agregar extra_hosts: ["host.docker.internal:host-gateway"] al archivo compose (README.md:90-98).

Variables de Entorno y Requisitos

Variables de Entorno Obligatorias

Para despliegues self-hosted, las siguientes variables de entorno son obligatorias:

VariableRequeridoDescripción
DATABASE_URLCadena de conexión PostgreSQL con pgvector
BETTER_AUTH_SECRETSecreto de autenticación (generar con openssl rand -hex 32)
BETTER_AUTH_URLURL de la aplicación (ej: http://localhost:3000)
NEXT_PUBLIC_APP_URLURL pública de la aplicación (igual que arriba)
ENCRYPTION_KEYEncripta variables de entorno (openssl rand -hex 32)
INTERNAL_API_SECRETEncripta rutas API internas (openssl rand -hex 32)
API_ENCRYPTION_KEYEncripta claves API (openssl rand -hex 32)
COPILOT_API_KEYNoClave API desde sim.ai para características de Copilot

(README.md:160-174)

Requisitos Técnicos para Instalación Manual

Para instalaciones manuales sin Docker, se requieren:

  • Runtime: Bun
  • Node.js: Versión 20 o superior
  • Base de datos: PostgreSQL 12+ con extensión pgvector

(README.md:111-113)

Configuración de Base de Datos

Para configurar PostgreSQL con pgvector mediante Docker:

bash
1docker run --name simstudio-db \
2  -e POSTGRES_PASSWORD=your_password \
3  -e POSTGRES_DB=simstudio \
4  -p 5432:5432 \
5  -d pgvector/pgvector:pg17

(README.md:123-127)

Verificación y Salud del Sistema

Verificación de Servicios

El archivo docker-compose.prod.yml define healthchecks para cada servicio crítico:

Servicio simstudio:

  • Comando: wget --spider --quiet http://127.0.0.1:3000
  • Intervalo: 90 segundos
  • Tiempo de espera: 5 segundos
  • Reintentos: 3

(docker-compose.prod.yml:33-38)

Servicio realtime:

  • Endpoint de salud: http://127.0.0.1:3002/health
  • Intervalo: 90 segundos

(docker-compose.prod.yml:60-65)

Base de datos PostgreSQL:

  • Comando: pg_isready -U postgres
  • Intervalo: 5 segundos
  • Reintentos: 5

(docker-compose.prod.yml:89-93)

Comandos de Verificación

Para verificar el estado de todos los contenedores:

bash
1docker compose -f docker-compose.prod.yml ps

Esperar a que todos los contenedores muestren estado "healthy" (esto puede tomar 1-2 minutos).

Problemas Comunes y Soluciones

Puerto 3000, 3002 o 5432 ya en Uso

Síntoma: Error al iniciar los contenedores indicando que el puerto está ocupado.

Solución:

  1. Identificar el proceso que usa el puerto: lsof -i :3000 (macOS/Linux) o netstat -ano | findstr :3000 (Windows)
  2. Detener el proceso conflictivo o modificar los puertos en el archivo docker-compose
  3. Para el puerto de la aplicación, usar el flag -p: npx simstudio -p 3001

Docker no está Ejecutándose

Síntoma: Error "Cannot connect to the Docker daemon".

Solución:

  1. Verificar que Docker esté instalado: docker --version
  2. Iniciar el servicio Docker Desktop o el daemon de Docker
  3. Verificar el estado: docker info

Memoria Insuficiente

Síntoma: Los contenedores se reinician o fallan con errores de memoria.

Solución:

  • El sistema requiere mínimo 12GB+ de RAM disponible
  • El servicio simstudio tiene un límite configurado de 8GB (docker-compose.prod.yml:7-10)
  • Ajustar los límites en docker-compose si es necesario, pero no se recomienda bajar de 6GB para el servicio principal

Migraciones de Base de Datos Fallidas

Síntoma: El contenedor migrations falla y la aplicación no inicia.

Solución:

  1. Verificar que la base de datos esté saludable antes de las migraciones
  2. Revisar los logs: docker compose -f docker-compose.prod.yml logs migrations
  3. Asegurar que DATABASE_URL esté correctamente configurado

Próximos Pasos

Una vez que Sim esté funcionando correctamente:

  1. Configurar proveedores LLM: Acceder a la configuración para añadir claves API de OpenAI, Anthropic, u otros proveedores
  2. Explorar el constructor de flujos: Crear el primer workflow utilizando el editor visual
  3. Configurar Copilot: Si se usa la versión self-hosted, obtener una clave API desde sim.ai → Settings → Copilot y configurar COPILOT_API_KEY (README.md:153-158)
  4. Consultar la documentación: Visitar https://docs.sim.ai para guías detalladas sobre uso avanzado
  5. Unirse a la comunidad: Participar en Discord para soporte y discusiones