El avance de la inteligencia artificial (IA) ha permitido que herramientas como DeepSeek-R1, un modelo de IA open-source y gratuito, puedan ejecutarse directamente en tu ordenador sin necesidad de conexión a Internet. Esto no solo garantiza mayor privacidad, sino que también elimina los costos asociados a servicios en la nube. A continuación, te explicamos cómo instalar DeepSeek en tu equipo utilizando Ollama, una aplicación que simplifica la ejecución de modelos de IA en sistemas locales.
¿Qué es DeepSeek-R1?
DeepSeek-R1 es un modelo de IA diseñado para tareas que requieren un alto nivel de razonamiento, como la resolución de problemas de programación, matemáticas avanzadas o procesos lógicos complejos. Una de sus principales ventajas es que funciona de manera completamente local, sin necesidad de enviar datos a servidores externos. Además, su enfoque de aprendizaje por refuerzo le permite mejorar a través de la resolución de problemas por prueba y error, lo que lo hace especialmente eficiente en tareas que requieren autoverificación.
DeepSeek-R1 está disponible en versiones «distilled» que van desde 1.500 millones (1,5B) hasta 70.000 millones (70B) de parámetros, lo que lo hace compatible incluso con GPUs comunes. Para tareas extremadamente complejas, existe una versión completa de hasta 671.000 millones (671B) de parámetros, aunque esta requiere hardware de gama alta. Al ser open-source, este modelo ofrece flexibilidad para ser integrado, modificado o combinado con otras herramientas según las necesidades del usuario.
Paso a paso: Instalar DeepSeek con Ollama
Ollama es una aplicación que facilita la instalación y ejecución de modelos de IA, como DeepSeek, en tu ordenador. Funciona en sistemas operativos Windows, macOS y GNU/Linux y se maneja desde la consola del sistema. Aquí te explicamos cómo hacerlo:
- Descargar e instalar Ollama
Visita el sitio oficial de Ollama y descarga la versión compatible con tu sistema operativo. La instalación es similar a la de cualquier otra aplicación. - Configurar Ollama para DeepSeek
Una vez instalado, abre la consola de tu sistema operativo (CMD en Windows, Terminal en macOS o Linux) y escribe el comando necesario para cargar el modelo DeepSeek. Por ejemplo, en Linux o macOS, el comando podría ser:ollama load deepseek-r1
- Ejecutar DeepSeek
Después de cargar el modelo, podrás ejecutar DeepSeek localmente utilizando comandos específicos. Por ejemplo:ollama run deepseek-r1
Esto te permitirá interactuar con el modelo directamente desde tu ordenador, incluso sin conexión a Internet.
Compatibilidad con GPUs
Ollama es compatible con una amplia gama de tarjetas gráficas, tanto de AMD como de NVIDIA. En el caso de AMD, soporta tarjetas como la Radeon RX 7900 XTX, Instinct MI300, e incluso GPUs profesionales como la Radeon PRO W7900. Para usuarios de Linux, Ollama utiliza la biblioteca ROCm, que permite ajustes específicos para tarjetas no soportadas oficialmente, como la Radeon RX 5400, mediante variables de entorno.
En sistemas con múltiples GPUs, es posible seleccionar cuáles utilizar o incluso forzar el uso de la CPU si es necesario. Además, en dispositivos Apple, Ollama aprovecha la API Metal para acelerar el rendimiento.
Ventajas de usar DeepSeek de forma local
- Privacidad: Tus datos no salen de tu ordenador.
- Eficiencia de costos: No hay cuotas mensuales ni costos por token.
- Flexibilidad: Al ser open-source, puedes modificar el modelo según tus necesidades.
Conclusión
Instalar DeepSeek con Ollama en tu ordenador es una solución práctica para quienes buscan aprovechar las capacidades de la IA sin depender de servicios en la nube. Con una configuración sencilla y compatibilidad amplia, esta herramienta abre nuevas posibilidades para desarrolladores, investigadores y entusiastas de la tecnología.