Ubunlog Pablinux  

Cómo instalar y usar DeepSeek-R1 localmente en tu ordenador, uses Ubuntu o cualquier otro sistema

DeepSeek-R1 en Ubuntu

La inteligencia artificial sigue transformando nuestro mundo, y las opciones para trabajar con modelos de lenguaje avanzados están creciendo a pasos agigantados. Sin embargo, no todos necesitan conectarse a servicios en la nube o depender de terceros para explorar estas tecnologías. Una alternativa interesante y accesible es DeepSeek-R1, un modelo de IA que permite a los usuarios ejecutarlo de manera local en equipos modestos. En este artículo, te explicaré cómo instalar DeepSeek y aprovechar al máximo sus capacidades.

DeepSeek-R1 es un modelo de IA open-source que destaca por su eficiencia y capacidad de razonamiento avanzado. Al ejecutarlo de manera local, no solo ahorras costos recurrentes, sino que también proteges tu privacidad y obtienes flexibilidad para integrarlo en proyectos personalizados. Aunque algunos modelos requieren hardware potente, DeepSeek-R1 ofrece versiones ajustadas para diferentes recursos, desde ordenadores básicos hasta estaciones de trabajo avanzadas.

¿Qué es DeepSeek y por qué usarlo localmente?

DeepSeek-R1 es un modelo de lenguaje avanzado diseñado para tareas complejas como razonamiento lógico, resolución de problemas matemáticos y generación de código. Su principal ventaja es que es de código abiero, lo que significa que puedes instalarlo y ejecutarlo en tu propio ordenador sin depender de servidores externos.

Algunas de sus características más destacadas incluyen:

  • Flexibilidad: Puedes adaptar el modelo según tus necesidades, desde versiones ligeras hasta configuraciones avanzadas.
  • Privacidad: Todo el procesamiento se realiza localmente, evitando preocupaciones sobre la exposición de datos sensibles. Este es quizá el punto más importante, ya que preocupa a muchos qué puedan hacer las compañías con nuestros datos.
  • Ahorro: No tendrás que desembolsar dinero en suscripciones o servicios en la nube, lo que lo convierte en una opción económica para desarrolladores y empresas.

Requisitos para la instalación

Antes de comenzar con la instalación, asegúrate de cumplir con los siguientes requisitos:

  • Un ordenador con sistema operativo Linux, macOS o Windows (con soporte para WSL2 en este último caso).
  • Un mínimo de 8 GB de RAM, aunque se recomienda al menos 16 GB para un rendimiento óptimo.
  • Acceso a Internet para descargar los modelos inicialmente.
  • Conocimientos básicos de terminal o línea de comandos.

Además, necesitarás instalar una herramienta llamada Ollama, que gestiona y ejecuta los modelos de DeepSeek de forma local.

Instalación de Ollama

Ollama es una solución sencilla que permite descargar y ejecutar modelos de lenguaje como DeepSeek-R1. Para instalarla, sigue estos pasos:

  1. En Linux o macOS, abre la terminal y ejecuta el siguiente comando para instalar Ollama — el paquete curl es necesario, obviamente  –:
curl -fsSL https://ollama.com/install.sh | sh
  1. En sistemas Windows, asegúrate de contar con WSL2 habilitado previamente y luego sigue los mismos pasos en la terminal de Ubuntu que configures dentro de WSL.
  2. Verifica que Ollama se haya instalado correctamente ejecutando ollama --version. Si el comando devuelve un número de versión, estás listo para avanzar.

Descarga de DeepSeek-R1

Con Ollama instalado y ejecutándose (ollama serve en el terminal si diera error la descarga que explicamos más adelante), ahora puedes descargar el modelo de DeepSeek que mejor se adapta a tus necesidades y hardware:

  • 1.5B parámetros: Ideal para ordenadores básicos. Este modelo ocupa aproximadamente 1.1 GB.
  • 7B parámetros: Recomendado para equipos con GPUs media-altas. Este ocupa unos 4.7 GB.
  • 70B parámetros: Para tareas complejas en equipos con gran capacidad de memoria y GPU potente.

Para descargar el modelo estándar de 7B, ejecuta este comando en la terminal:

ollama run deepseek-r1

El tiempo de descarga dependerá de tu velocidad de Internet y sólo será necesario la primera vez que ejecutemos el chatbot. Una vez completada, el modelo estará listo para usar desde la línea de comandos o mediante una interfaz gráfica.

Uso de DeepSeek con una interfaz gráfica

Aunque puedes interactuar con DeepSeek directamente desde la terminal, muchos usuarios prefieren una interfaz gráfica para mayor comodidad. En este caso, puedes instalar ChatBoxAI, una aplicación gratuita que te permitirá aprovechar DeepSeek de forma visual.

  • Descarga e instala ChatBoxAI desde su página oficial.
  • Configura la aplicación para que utilice Ollama como proveedor de modelos:

En la configuración de ChatBoxAI, selecciona «Usar mi propia API» y elige el modelo de DeepSeek que descargaste previamente. Si todo está correctamente configurado, podrás realizar consultas y tareas directamente desde la interfaz gráfica.

Integración de DeepSeek en proyectos

Si eres desarrollador, puedes integrar DeepSeek en tus proyectos mediante su API compatible con OpenAI. Aquí tienes un ejemplo sencillo utilizando Python:

import openai
client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama")
response = client.chat.completions.create(model="deepseek-r1", messages=[{"role": "user", "content": "Genera un código en Python para calcular Fibonacci"}])

Este script enviará una consulta al modelo local de DeepSeek y devolverá el resultado en tu terminal o aplicación.

El modelo de IA DeepSeek-R1 representa una excelente opción para aquellos que buscan una solución avanzada y económica. Con la facilidad de acceso que proporciona Ollama, la flexibilidad de sus modelos y la capacidad de integrarse en proyectos personalizados, DeepSeek abre nuevas posibilidades para desarrolladores, estudiantes y expertos en inteligencia artificial. Con su enfoque en privacidad y rendimiento, es una herramienta que merece ser explorada a fondo.

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.