En este tutorial te guiaré paso a paso para que puedas instalar y ejecutar modelos de Inteligencia Artificial de código abierto directamente en tu ordenador. Es un proceso gratuito, seguro (ya que todo se ejecuta de forma local, sin conexión a internet) y compatible con Windows, macOS y Linux.
🧠 Paso 1: Instalar Ollama
Ollama es la herramienta que nos permitirá gestionar y ejecutar los modelos de IA de manera sencilla.
🔹 En Windows:
- Ve a la página oficial de descargas: ollama.com/download.
- Haz clic en el botón «Download for Windows».
- Ejecuta el archivo
.exe
que acabas de descargar. El proceso de instalación es igual al de cualquier otro programa. - Una vez finalizado, se abrirá una ventana de terminal automáticamente. Si no lo hace, puedes abrir una tú mismo (buscando «Terminal» o «PowerShell»).
🔹 En macOS:
- Accede a la página de descargas: ollama.com/download.
- Pulsa en «Download for macOS».
- Instala el archivo
.pkg
descargado como cualquier otra aplicación de Mac. - Abre la aplicación Terminal.
🤖 Paso 2: Probar que Ollama funciona
Para confirmar que la instalación se ha realizado correctamente, abre una terminal (o PowerShell en Windows) y escribe el siguiente comando:
Bash
ollama --version
Si todo ha ido bien, la terminal te devolverá la versión que tienes instalada (por ejemplo, ollama version is 0.1.28
). Esto significa que ya está todo listo para el siguiente paso.
📥 Paso 3: Descargar un modelo de IA (ej. Gemma o DeepSeek)
Ahora viene lo interesante. Vamos a descargar un modelo de IA para poder usarlo. En la sección de modelos de la web de Ollama puedes ver todos los que hay disponibles.
Los comandos para descargar y ejecutar un modelo son muy sencillos. Por ejemplo, para descargar Gemma (un modelo potente y ligero de Google) o DeepSeek Coder V2 (especializado en programación), usarías estos comandos:
Para Gemma:
Bash
ollama run gemma
Para DeepSeek Coder V2:
Bash
ollama run deepseek-coder-v2
Al introducir el comando, Ollama se encargará de todo: descargará el modelo completo desde su repositorio, lo instalará y lo dejará listo para que empieces a chatear con él en la misma terminal.
¡Y ya está! Así de fácil. Ahora puedes hacerle preguntas complejas, pedirle que analice datos o que te ayude a programar, todo de forma local y sin coste. Para salir del chat con el modelo, simplemente pulsa Ctrl + D
.