Guía paso a paso sobre Ollama
Ollama es una herramienta que permite ejecutar modelos de lenguaje de forma local en tu propio equipo. Es una opción muy popular para quienes buscan usar IA sin depender de servicios en la nube, con más control sobre sus datos y una instalación bastante sencilla.
¿Qué es Ollama y para qué sirve?
Con Ollama puedes descargar, gestionar y ejecutar modelos de IA directamente en Windows, macOS o Linux. Esto permite trabajar con asistentes de texto, herramientas de programación, resúmenes, análisis y automatizaciones sin enviar tus prompts a servidores externos.
Requisitos de hardware recomendados
Los requisitos dependen del tamaño del modelo y de si quieres ejecutarlo en CPU o GPU.
Configuración mínima funcional
- CPU: procesador moderno de 4 núcleos o más.
- RAM: 16 GB para modelos pequeños o medianos.
- Almacenamiento: SSD con espacio libre suficiente; algunos modelos ocupan varios GB.
- GPU: no es obligatoria, pero acelera mucho la inferencia.
Configuración recomendada
- RAM: 32 GB para trabajar con más comodidad, especialmente si usas varios procesos o modelos mayores.
- GPU NVIDIA: ideal si buscas mayor velocidad de respuesta.
- VRAM: menos de 24 GB suele implicar contextos por defecto más reducidos; con 24–48 GB de VRAM Ollama puede usar contextos mayores, y con 48 GB o más puede manejar ventanas todavía más amplias.
Orientación rápida por modelo
- Mistral 7B: buena opción para equipos modestos; suele ser adecuado para empezar.
- Llama 3 8B: equilibrio muy sólido entre calidad y recursos.
- Llama 3 70B: requiere hardware muy potente y no es la opción más práctica para la mayoría de ordenadores personales.
Consejo: si vas justo de memoria, empieza con modelos cuantizados o de 7B/8B. Funcionan mucho mejor en equipos domésticos y permiten una experiencia local muy usable.
Cómo instalar Ollama paso a paso
1. Instalar Ollama
Puedes instalarlo en los principales sistemas operativos:
En Windows
Descarga el instalador oficial o usa PowerShell:
irm https://ollama.com/install.ps1 | iex
En Linux
Ejecuta este comando en la terminal:
curl -fsSL https://ollama.com/install.sh | sh
En macOS
Lo más habitual es descargar la aplicación oficial, moverla a la carpeta Applications y dejar que configure el comando ollama en tu sistema.
2. Verificar que funciona
Después de la instalación, abre la terminal y ejecuta:
ollama
Si todo va bien, verás el menú interactivo o podrás usar los comandos de la CLI.
Cómo instalar modelos en Ollama
Instalar un modelo es muy fácil: Ollama lo descarga y lo deja listo para usar con un solo comando.
Instalar Llama 3
ollama run llama3
Ese comando descarga el modelo si no está instalado y, después, abre una sesión de chat local.
Instalar Mistral
ollama run mistral
Mistral es una opción muy interesante si quieres buen rendimiento con menos consumo de recursos.
Ver modelos instalados
ollama list
Eliminar un modelo que ya no uses
ollama rm mistral
Ejemplos de uso
Pregunta simple en local
ollama run llama3 "Explícame qué es la computación cuántica en lenguaje sencillo"
Usar Mistral para redactar
ollama run mistral "Redacta un email profesional para aplazar una reunión"
Ventajas de la privacidad total con Ollama
- Los datos se quedan en tu equipo: prompts, documentos y resultados no tienen por qué salir de tu ordenador.
- Más control: tú decides qué modelo usar, cuándo actualizarlo y cómo integrarlo en tus flujos.
- Menor dependencia de terceros: no necesitas enviar información sensible a plataformas externas.
- Ideal para entornos privados: empresas, desarrolladores, despachos o equipos que tratan información confidencial pueden beneficiarse mucho de un despliegue local.
- Trabajo offline: una vez descargado el modelo, muchas tareas pueden ejecutarse sin conexión continua.
Importante: “privacidad total” depende también de cómo uses el sistema. Si conectas herramientas externas, APIs, plugins o sincronizas datos con la nube, esa privacidad deja de ser completamente local.
¿Cuándo elegir Llama 3 y cuándo Mistral?
- Elige Llama 3 si priorizas calidad general y una experiencia más potente en tareas conversacionales.
- Elige Mistral si buscas ligereza, rapidez y un uso más eficiente de recursos.
Conclusión
Ollama se ha convertido en una de las formas más sencillas de ejecutar IA local. Su instalación es rápida, permite descargar modelos como Llama 3 y Mistral con un solo comando, y aporta una ventaja clave: el control total de la privacidad al trabajar directamente en tu propio equipo.
