Inicio rápido
Archivos fuente
Esta página se genera a partir de los siguientes archivos fuente:
- README.md
- docker-compose.prod.yml
- docker-compose.ollama.yml
- docker-compose.local.yml
- packages/cli/src/index.ts
- apps/sim/lib/workflows/executor/execution-events.ts
- apps/sim/app/workspace/[workspaceId]/settings/components/usage-limit/usage-limit.tsx
- apps/sim/app/workspace/[workspaceId]/w/[workflowId]/utils/workflow-execution-utils.ts
- packages/python-sdk/setup.py
- packages/db/index.ts
Sim es una plataforma de código abierto diseñada para construir agentes AI y orquestar flujos de trabajo agénticos. La plataforma permite conectar más de 1,000 integraciones y LLMs para crear workforce agénticos personalizados (README.md:1-7).
Las características principales de Sim incluyen tres pilares fundamentales:
- Constructor de flujos de trabajo visual: Permite diseñar flujos de trabajo de agentes en un lienzo visual, conectando agentes, herramientas y bloques que pueden ejecutarse instantáneamente
- Copilot integrado: Un asistente que genera nodos, corrige errores e itera sobre flujos directamente desde lenguaje natural
- Bases de datos vectoriales: Permite subir documentos a un almacén vectorial para que los agentes respondan preguntas basadas en contenido específico
Opción Cloud sim.ai
La forma más rápida de comenzar con Sim es utilizando la versión alojada en la nube. Esta opción no requiere configuración local ni instalación de dependencias.
Acceso directo: https://sim.ai
La plataforma cloud proporciona acceso inmediato a todas las funcionalidades de Sim sin necesidad de gestionar infraestructura. Los enlaces oficiales del proyecto incluyen:
| Recurso | URL |
|---|---|
| Plataforma Cloud | https://sim.ai |
| Comunidad Discord | https://discord.gg/Hr4UWYEcTT |
| Twitter/X | https://x.com/simdotai |
| Documentación | https://docs.sim.ai |
(README.md:41-45, README.md:9-14)
Opción Self-hosted Paquete NPM
Para despliegues locales rápidos, Sim ofrece un paquete NPM que automatiza la configuración mediante contenedores Docker.
Instalación Rápida
bash1npx simstudio
Después de la ejecución, la aplicación estará disponible en: http://localhost:3000
Requisito Obligatorio
Docker debe estar instalado y ejecutándose en la máquina antes de ejecutar el comando npx simstudio (README.md:54-55).
Opciones de Configuración
| Flag | Descripción |
|---|---|
-p, --port <port> | Puerto para ejecutar Sim (por defecto 3000) |
--no-pull | Omitir la descarga de las últimas imágenes Docker |
Opción Self-hosted Docker Compose
El despliegue mediante Docker Compose proporciona control total sobre la configuración y los servicios.
Instalación Estándar
bash1git clone https://github.com/simstudioai/sim.git && cd sim 2docker compose -f docker-compose.prod.yml up -d
Una vez completado, acceder a: http://localhost:3000
Arquitectura de Servicios
El archivo docker-compose.prod.yml define cuatro servicios principales:
| Servicio | Imagen | Puerto | Función |
|---|---|---|---|
simstudio | ghcr.io/simstudioai/simstudio:latest | 3000 | Aplicación principal |
realtime | ghcr.io/simstudioai/realtime:latest | 3002 | Servidor de sockets en tiempo real |
migrations | ghcr.io/simstudioai/migrations:latest | - | Migraciones de base de datos |
db | pgvector/pgvector:pg17 | 5432 | PostgreSQL con extensión pgvector |
(docker-compose.prod.yml:1-38)
Configuración de Recursos
El servicio principal simstudio tiene un límite de memoria de 8GB, mientras que el servidor realtime tiene un límite de 1GB (docker-compose.prod.yml:7-10, docker-compose.prod.yml:45-48).
Uso con Modelos Locales (Ollama)
Sim soporta modelos AI locales mediante Ollama, eliminando la necesidad de APIs externas:
bash1# Iniciar con soporte GPU (descarga automáticamente el modelo gemma3:4b) 2docker compose -f docker-compose.ollama.yml --profile setup up -d 3 4# Para sistemas solo CPU: 5docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d
Esperar a que el modelo se descargue y luego visitar http://localhost:3000.
Para agregar modelos adicionales:
bash1docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b
Instancia Ollama Externa
Si Ollama se ejecuta en la máquina host, utilizar host.docker.internal en lugar de localhost:
bash1OLLAMA_URL=http://host.docker.internal:11434 docker compose -f docker-compose.prod.yml up -d
En Linux, usar la dirección IP del host o agregar extra_hosts: ["host.docker.internal:host-gateway"] al archivo compose (README.md:90-98).
Variables de Entorno y Requisitos
Variables de Entorno Obligatorias
Para despliegues self-hosted, las siguientes variables de entorno son obligatorias:
| Variable | Requerido | Descripción |
|---|---|---|
DATABASE_URL | Sí | Cadena de conexión PostgreSQL con pgvector |
BETTER_AUTH_SECRET | Sí | Secreto de autenticación (generar con openssl rand -hex 32) |
BETTER_AUTH_URL | Sí | URL de la aplicación (ej: http://localhost:3000) |
NEXT_PUBLIC_APP_URL | Sí | URL pública de la aplicación (igual que arriba) |
ENCRYPTION_KEY | Sí | Encripta variables de entorno (openssl rand -hex 32) |
INTERNAL_API_SECRET | Sí | Encripta rutas API internas (openssl rand -hex 32) |
API_ENCRYPTION_KEY | Sí | Encripta claves API (openssl rand -hex 32) |
COPILOT_API_KEY | No | Clave API desde sim.ai para características de Copilot |
Requisitos Técnicos para Instalación Manual
Para instalaciones manuales sin Docker, se requieren:
Configuración de Base de Datos
Para configurar PostgreSQL con pgvector mediante Docker:
bash1docker run --name simstudio-db \ 2 -e POSTGRES_PASSWORD=your_password \ 3 -e POSTGRES_DB=simstudio \ 4 -p 5432:5432 \ 5 -d pgvector/pgvector:pg17
Verificación y Salud del Sistema
Verificación de Servicios
El archivo docker-compose.prod.yml define healthchecks para cada servicio crítico:
Servicio simstudio:
- Comando:
wget --spider --quiet http://127.0.0.1:3000 - Intervalo: 90 segundos
- Tiempo de espera: 5 segundos
- Reintentos: 3
(docker-compose.prod.yml:33-38)
Servicio realtime:
- Endpoint de salud:
http://127.0.0.1:3002/health - Intervalo: 90 segundos
(docker-compose.prod.yml:60-65)
Base de datos PostgreSQL:
- Comando:
pg_isready -U postgres - Intervalo: 5 segundos
- Reintentos: 5
(docker-compose.prod.yml:89-93)
Comandos de Verificación
Para verificar el estado de todos los contenedores:
bash1docker compose -f docker-compose.prod.yml ps
Esperar a que todos los contenedores muestren estado "healthy" (esto puede tomar 1-2 minutos).
Problemas Comunes y Soluciones
Puerto 3000, 3002 o 5432 ya en Uso
Síntoma: Error al iniciar los contenedores indicando que el puerto está ocupado.
Solución:
- Identificar el proceso que usa el puerto:
lsof -i :3000(macOS/Linux) onetstat -ano | findstr :3000(Windows) - Detener el proceso conflictivo o modificar los puertos en el archivo docker-compose
- Para el puerto de la aplicación, usar el flag
-p:npx simstudio -p 3001
Docker no está Ejecutándose
Síntoma: Error "Cannot connect to the Docker daemon".
Solución:
- Verificar que Docker esté instalado:
docker --version - Iniciar el servicio Docker Desktop o el daemon de Docker
- Verificar el estado:
docker info
Memoria Insuficiente
Síntoma: Los contenedores se reinician o fallan con errores de memoria.
Solución:
- El sistema requiere mínimo 12GB+ de RAM disponible
- El servicio
simstudiotiene un límite configurado de 8GB (docker-compose.prod.yml:7-10) - Ajustar los límites en docker-compose si es necesario, pero no se recomienda bajar de 6GB para el servicio principal
Migraciones de Base de Datos Fallidas
Síntoma: El contenedor migrations falla y la aplicación no inicia.
Solución:
- Verificar que la base de datos esté saludable antes de las migraciones
- Revisar los logs:
docker compose -f docker-compose.prod.yml logs migrations - Asegurar que
DATABASE_URLesté correctamente configurado
Próximos Pasos
Una vez que Sim esté funcionando correctamente:
- Configurar proveedores LLM: Acceder a la configuración para añadir claves API de OpenAI, Anthropic, u otros proveedores
- Explorar el constructor de flujos: Crear el primer workflow utilizando el editor visual
- Configurar Copilot: Si se usa la versión self-hosted, obtener una clave API desde sim.ai → Settings → Copilot y configurar
COPILOT_API_KEY(README.md:153-158) - Consultar la documentación: Visitar https://docs.sim.ai para guías detalladas sobre uso avanzado
- Unirse a la comunidad: Participar en Discord para soporte y discusiones
