Ollama: Ejecuta IA en tu PC

Guía paso a paso sobre Ollama

Ollama es una herramienta que permite ejecutar modelos de lenguaje de forma local en tu propio equipo. Es una opción muy popular para quienes buscan usar IA sin depender de servicios en la nube, con más control sobre sus datos y una instalación bastante sencilla.

¿Qué es Ollama y para qué sirve?

Con Ollama puedes descargar, gestionar y ejecutar modelos de IA directamente en Windows, macOS o Linux. Esto permite trabajar con asistentes de texto, herramientas de programación, resúmenes, análisis y automatizaciones sin enviar tus prompts a servidores externos.

Requisitos de hardware recomendados

Los requisitos dependen del tamaño del modelo y de si quieres ejecutarlo en CPU o GPU.

Configuración mínima funcional

  • CPU: procesador moderno de 4 núcleos o más.
  • RAM: 16 GB para modelos pequeños o medianos.
  • Almacenamiento: SSD con espacio libre suficiente; algunos modelos ocupan varios GB.
  • GPU: no es obligatoria, pero acelera mucho la inferencia.

Configuración recomendada

  • RAM: 32 GB para trabajar con más comodidad, especialmente si usas varios procesos o modelos mayores.
  • GPU NVIDIA: ideal si buscas mayor velocidad de respuesta.
  • VRAM: menos de 24 GB suele implicar contextos por defecto más reducidos; con 24–48 GB de VRAM Ollama puede usar contextos mayores, y con 48 GB o más puede manejar ventanas todavía más amplias.

Orientación rápida por modelo

  • Mistral 7B: buena opción para equipos modestos; suele ser adecuado para empezar.
  • Llama 3 8B: equilibrio muy sólido entre calidad y recursos.
  • Llama 3 70B: requiere hardware muy potente y no es la opción más práctica para la mayoría de ordenadores personales.

Consejo: si vas justo de memoria, empieza con modelos cuantizados o de 7B/8B. Funcionan mucho mejor en equipos domésticos y permiten una experiencia local muy usable.

Cómo instalar Ollama paso a paso

1. Instalar Ollama

Puedes instalarlo en los principales sistemas operativos:

En Windows

Descarga el instalador oficial o usa PowerShell:

irm https://ollama.com/install.ps1 | iex

En Linux

Ejecuta este comando en la terminal:

curl -fsSL https://ollama.com/install.sh | sh

En macOS

Lo más habitual es descargar la aplicación oficial, moverla a la carpeta Applications y dejar que configure el comando ollama en tu sistema.

2. Verificar que funciona

Después de la instalación, abre la terminal y ejecuta:

ollama

Si todo va bien, verás el menú interactivo o podrás usar los comandos de la CLI.

Cómo instalar modelos en Ollama

Instalar un modelo es muy fácil: Ollama lo descarga y lo deja listo para usar con un solo comando.

Instalar Llama 3

ollama run llama3

Ese comando descarga el modelo si no está instalado y, después, abre una sesión de chat local.

Instalar Mistral

ollama run mistral

Mistral es una opción muy interesante si quieres buen rendimiento con menos consumo de recursos.

Ver modelos instalados

ollama list

Eliminar un modelo que ya no uses

ollama rm mistral

Ejemplos de uso

Pregunta simple en local

ollama run llama3 "Explícame qué es la computación cuántica en lenguaje sencillo"

Usar Mistral para redactar

ollama run mistral "Redacta un email profesional para aplazar una reunión"

Ventajas de la privacidad total con Ollama

  • Los datos se quedan en tu equipo: prompts, documentos y resultados no tienen por qué salir de tu ordenador.
  • Más control: tú decides qué modelo usar, cuándo actualizarlo y cómo integrarlo en tus flujos.
  • Menor dependencia de terceros: no necesitas enviar información sensible a plataformas externas.
  • Ideal para entornos privados: empresas, desarrolladores, despachos o equipos que tratan información confidencial pueden beneficiarse mucho de un despliegue local.
  • Trabajo offline: una vez descargado el modelo, muchas tareas pueden ejecutarse sin conexión continua.

Importante: “privacidad total” depende también de cómo uses el sistema. Si conectas herramientas externas, APIs, plugins o sincronizas datos con la nube, esa privacidad deja de ser completamente local.

¿Cuándo elegir Llama 3 y cuándo Mistral?

  • Elige Llama 3 si priorizas calidad general y una experiencia más potente en tareas conversacionales.
  • Elige Mistral si buscas ligereza, rapidez y un uso más eficiente de recursos.

Conclusión

Ollama se ha convertido en una de las formas más sencillas de ejecutar IA local. Su instalación es rápida, permite descargar modelos como Llama 3 y Mistral con un solo comando, y aporta una ventaja clave: el control total de la privacidad al trabajar directamente en tu propio equipo.