by Juan Renato Noh
A raíz del lanzamiento del nuevo modelo de IA DeepSeek, en la red han proliferado los posts y tutoriales sobre cómo empezar a trabajar con Ollama desde un entorno local. El objetivo de este post es documentar qué tan cierto es todo esto, considerando el caso de un equipo promedio.
Primero daré el contexto con el cual estoy ejecutando esta prueba
Tutorial Base
A la fecha de publicación de este artículo ya existen varios posts sobre el tema, pero este me pareció más simple y rápido, justo lo que estaba buscando, sin ninguna promoción ni preferencia hacia Platzi.
Recursos en PC
Por preferencia personal realizaremos sobre una versión de ubuntu en windows (WSL)
Manos a la Obra
Primero se tiene que instalar ollama . Ollama básicamente es una herramienta para ejecutar modelos de forma local , el equivalente a lo que es docker con las imágenes .
El comando de instalación es :
| curl -fsSL https://ollama.com/install.sh | sh |
Al final al terminar la descarga pide confirmar la descarga y por lo que alcanzo a observar realiza la instalación de un usuario y grupos en el sistema. Ya solo queda corroborar que esté instalado y accesible al sistema con el comando :
ollama -v
Lo siguiente es instalar un modelo que el hardware sea capaz de ejecutar por eso tomé la decisión de instalar DeepSeek-R1-Distill-Qwen-1.5B , el cual es un modelo pequeño suficiente para la prueba .
Esto lo hacemos con el comando :
ollama run deepseek-r1:1.5b
Es importante mencionar que como bien dice la documentación este modelo pesa alrededor de 1.1 GB , por lo que es necesario esperar la descarga una vez terminado , es posible utilizarlo en la consola.
Increible !!!!!!
Lo que vendrá en los siguientes años será impresionante .
tags: