¿Sabías que se puede instalar DeepSeek R1 en tu ordenador y usarlo de forma local y gratuita? Pero no el modelo completo sino una versión «destilada».
En términos técnicos, la destilación de modelos funciona así:
- Modelo Profesor (Teacher Model): Se entrena un modelo grande, complejo y con alta capacidad (como Qwen 7B en este caso). Este modelo es el «profesor» y tiene un gran conocimiento.
- Modelo Alumno (Student Model): Se crea un modelo más pequeño y menos complejo. Este es el «alumno» que aprenderá del profesor.
- Transferencia de Conocimiento: En lugar de entrenar al modelo alumno directamente con los datos de entrenamiento originales, se le entrena para que imite el comportamiento del modelo profesor. Esto significa que el modelo alumno aprende a predecir las mismas salidas que el modelo profesor ante las mismas entradas.
No se destila información literal, sino el conocimiento implícito en el modelo grande. Esto incluye:
- Distribuciones de Probabilidad: El modelo alumno aprende a imitar las probabilidades que el modelo profesor asigna a diferentes palabras o secuencias de palabras. Esto captura la comprensión del lenguaje y las relaciones entre palabras del modelo profesor.
- Representaciones Internas: En algunos casos, se intenta que el modelo alumno imite las representaciones internas del modelo profesor, lo que le permite capturar aspectos más profundos de su conocimiento.
Ventajas de la Destilación:
- Modelos Más Pequeños: Los modelos destilados son mucho más pequeños que los modelos originales, lo que significa que requieren menos recursos computacionales para ejecutarse. Esto los hace ideales para dispositivos con menos potencia, como teléfonos móviles o dispositivos embebidos.
- Mayor Eficiencia: Los modelos destilados son más rápidos y consumen menos energía que los modelos grandes, lo que los hace más eficientes en términos de rendimiento y coste.
- Mantenimiento del Rendimiento: A pesar de ser más pequeños, los modelos destilados pueden mantener un rendimiento comparable al de sus modelos profesores en muchas tareas.
En el caso de DeepSeek R1 Distill Qwen 7B:
Esto significa que DeepSeek R1 es una versión destilada del modelo Qwen 7B. Se ha tomado el conocimiento del modelo Qwen 7B (el profesor) y se ha «destilado» en un modelo más pequeño y eficiente llamado DeepSeek R1 (el alumno).
¿Por qué es impresionante?
Es impresionante porque se logra crear un modelo mucho más ligero y eficiente sin sacrificar significativamente su rendimiento. Es como tener un resumen perfecto de un libro muy extenso: te da la información esencial sin tener que leer todo el libro.
En resumen, la destilación es una técnica poderosa que permite crear modelos de lenguaje más accesibles y eficientes sin perder gran parte de su capacidad. Que DeepSeek R1 sea un modelo destilado es una prueba de la eficacia de esta técnica.
Entonces ¿Cómo se instala DeepSeek R1 destilado en el ordenador?
Paso 1: Instalar Ollama
¿Qué es Ollama?
Ollama es una herramienta que simplifica la ejecución de modelos de lenguaje grandes de forma local en tu propia máquina. En lugar de depender de servicios en la nube, Ollama te permite usar estos modelos directamente en tu ordenador.
Cuando lo instales se te pondrá el icono del programa abajo a la derecha (en windows).
Paso 2: Extraer y ejecutar el modelo DeepSeek R1 localmente.
Ollama ofrece distintos tamaños de modelos: básicamente, los modelos más grandes tienen una IA más inteligente, pero necesitan una GPU mejor. Aquí está la lista:
Versión 1.5B (la más pequeña): ollama ejecuta deepseek-r1:1.5b Versión 8B: ollama ejecuta deepseek-r1:8b Versión 14B: Ollama ejecuta deepseek-r1:14b Versión 32B: Ollama ejecuta deepseek-r1:32b Versión 70B (más grande/más inteligente): Ollama ejecuta deepseek-r1:70b
Para instalarla, abre una terminal y ejecuta el que más se ajuste a tus necesidades. Por ejemplo así:
ollama run deepseek-r1:8b

Paso 3: Configurar un Chatbox
Consíguelo aquí: https://chatboxai.app/
¿Qué es Chatbox?
Es un cliente o interfaz unificada para interactuar con múltiples modelos de inteligencia artificial (IA). En otras palabras, en lugar de usar una aplicación diferente para cada modelo de IA (como ChatGPT, Bard, etc.), Chatbox te proporciona una plataforma centralizada para acceder a varios de ellos.
Una vez instalado verás esto:

Le damos a «Iniciar configuración»

Selecionamos «OLLAMA» en el proveedor del modelo y abajo seleccionamos el modelo que hayamos instalado, en mi caso: deepseek-r1:8b
Listo, ya tenemos DeepSeek R1 destilado funcionando en local.
Fuente de la guía: https://www.reddit.com/r/ollama/comments/1i6gmgq/got_deepseek_r1_running_locally_full_setup_guide/