- 🔍 Visión general
- ✨ Características
- 🖥️ Requisitos del sistema
- 📦 Instalación rápida
- 🛠️ Configuración avanzada
- 🤖 Modelos compatibles
- 🔐 Seguridad
- 🔄 Actualización
- ❓ Preguntas frecuentes
- 👥 Contribución
- 📜 Licencia
Private LLM Stack te permite desplegar tu propio ChatGPT autónomo, privado y seguro en cualquier servidor VPS, utilizando modelos de lenguaje avanzados como LLaMA, Mistral y otros. Todo con una interfaz web moderna similar a ChatGPT, protegida con HTTPS y autenticación.
¿Por qué usar Private LLM Stack? Mantén tus datos sensibles bajo tu control, evita dependencias externas, y opera completamente sin conexión a internet tras la instalación inicial.
- 🧠 IA localmente instalada: Ollama AI runtime con soporte para múltiples modelos de lenguaje
- 🎭 Múltiples modelos según tu hardware: Desde opciones ligeras (2GB RAM) hasta modelos avanzados (16GB+)
- 🖌️ Interfaz moderna web: Open WebUI con diseño similar a ChatGPT, compatible con móvil
- 🔒 Seguridad integrada: NGINX como proxy inverso, HTTPS con SSL automático y autenticación básica
- 🚀 Instalación en un paso: Script automatizado que configura todo el stack
- 📱 Acceso multiplataforma: Accede desde cualquier dispositivo a través de tu dominio seguro
- 🔄 API compatible: Expone endpoints compatibles con la API de OpenAI para integraciones
- 💾 Sin datos en la nube: Toda la información se procesa y almacena localmente
- 🛠️ Fácil mantenimiento: Comandos sencillos para actualizar y gestionar el sistema
Recurso | Requisito mínimo | Recomendado |
---|---|---|
CPU | 2 vCPU | 4+ vCPU (AVX2 soportado) |
RAM | 2GB (modelos ligeros) | 8-16GB (modelos avanzados) |
Almacenamiento | 10GB libre | 20GB+ SSD |
SO | Ubuntu 20.04/22.04 | Ubuntu 22.04+ o Debian 11+ |
Red | Puerto 80, 443 abiertos | Velocidad de subida estable |
Dominio | Requerido para SSL | Con DNS configurado hacia tu servidor |
# 1. Descarga el script de instalación
curl -sSL https://raw.github.com/badi21/private-llm-stack/main/install.sh -o install.sh
# 2. Haz el script ejecutable
chmod +x install.sh
# 3. Ejecuta el instalador
./install.sh
El script te guiará a través de un proceso interactivo para elegir tu modelo, configurar tu dominio y establecer credenciales de acceso.
Para personalizar la instalación, puedes ejecutar el script con opciones:
./install.sh --model mistral:7b-instruct --domain ia.tudominio.com --username admin
Parámetros disponibles:
--model
: Selecciona el modelo de IA (ver modelos compatibles)--domain
: Especifica el dominio para acceso web--username
: Define el nombre de usuario para la autenticación--port
: Cambia el puerto predeterminado (por defecto: 3000)--no-ssl
: Omite la configuración de SSL (no recomendado)--help
: Muestra todas las opciones disponibles
Private LLM Stack es compatible con todos los modelos de Ollama. Recomendamos:
Modelo | RAM mínima | Caso de uso |
---|---|---|
phi | 2GB | Chatbot básico, dispositivos de recursos limitados |
gemma:2b | 4GB | Asistente general, buena relación rendimiento/recursos |
tinyllama | 2GB | Asistente ligero para VPS económicos |
llama2:7b-chat | 8GB | Conversación avanzada, mejor comprensión |
mistral:7b-instruct | 8GB | Excelente rendimiento general, instrucciones complejas |
neural-chat | 12-16GB | Experiencia conversacional premium, alta precisión |
💡 Consejo: Puedes instalar múltiples modelos y cambiar entre ellos según tus necesidades.
- HTTPS automático: Certificados Let's Encrypt autogestionados
- Autenticación: Protección con usuario/contraseña
- Aislamiento: Docker para contenerización segura
- Comunicación local: Los datos nunca salen de tu servidor
- Cambia regularmente la contraseña de autenticación
- Actualiza el sistema y componentes regularmente
- Utiliza un firewall para limitar el acceso al servidor
- Considera configurar una VPN para acceso remoto más seguro
Para actualizar el sistema a la última versión:
cd private-llm-stack
git pull
./update.sh
¿Es posible usar este sistema sin conexión a internet?
Sí, una vez instalado y descargados los modelos, el sistema puede funcionar completamente sin conexión.¿Cómo puedo añadir más usuarios?
Puedes añadir más usuarios editando el archivo de autenticación de NGINX:sudo htpasswd /etc/nginx/.htpasswd nuevo_usuario
¿Funciona en una Raspberry Pi?
Sí, con modelos ligeros (phi, tinyllama) puede funcionar en Raspberry Pi 4 con 4GB+ RAM.¿Puedo usar esto para fines comerciales?
Sí, pero debes verificar las licencias de los modelos específicos que utilices, ya que varían.¡Las contribuciones son bienvenidas! Si quieres mejorar Private LLM Stack:
- Haz fork del repositorio
- Crea una rama para tu funcionalidad (
git checkout -b feature/amazing-feature
) - Haz commit de tus cambios (
git commit -m 'Add: amazing feature'
) - Push a la rama (
git push origin feature/amazing-feature
) - Abre un Pull Request
También puedes reportar problemas o sugerir mejoras.
Este proyecto está bajo la licencia MIT - ver el archivo LICENSE para más detalles.
¿Te gusta este proyecto? ¡Dale una estrella! ⭐
Creado con 💻 por Badar - بدر دين | Software Engineer & Inspiration