How to Easily Install DeepSeek R1 on Your Computer (without sharing your data)






El guión principal para instalar DeepSeek R1 en tu computadora, según las fuentes, implica tres pasos principales:
Paso 1: Instalar Ollama. Ollama es una plataforma de código abierto para ejecutar modelos de lenguaje grandes (LLM) en tu computadora. Para instalarlo, debes ir al sitio web de Ollama, descargar el archivo correspondiente a tu sistema operativo, descomprimirlo y abrirlo. Luego, sigue las instrucciones en la ventana "Welcome to Ollama" para completar la instalación de la línea de comandos.
Paso 2: Instalar DeepSeek en tu terminal. En el sitio de Ollama, busca el modelo deepseek-r1 y selecciona la versión que deseas descargar según las especificaciones de tu computadora. El modelo 7b se recomienda para pruebas. Copia el comando que se muestra (por ejemplo, ollama run deepseek-r1:7b), abre una terminal, pega el comando y presiona enter para descargar el modelo. Una vez completada la instalación, puedes comenzar a interactuar con el modelo a través de la terminal escribiendo "hi" y presionando enter.
Paso 3: Instalar Docker y Open WebUI. Instala Docker Desktop desde el sitio web oficial y ábrelo después de la instalación. Luego, ve a Open WebUI y copia el comando que se indica en la sección "Quick Start with Docker" para cuando Ollama está instalado en tu computadora. El comando es algo como: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main. Abre una terminal, pega el comando y presiona enter. Después de que el comando se ejecute correctamente, abre Docker y dentro de los contenedores, verás un nuevo elemento llamado "open-webui". Selecciónalo y haz clic en "Open in browser" para abrir un localhost en tu navegador. La dirección debería ser http://localhost:3000/. Luego, crea una nueva cuenta o inicia sesión para poder interactuar con DeepSeek-R1 a través de una interfaz de usuario. Selecciona el modelo deepseek-r1 en el menú desplegable y ¡empieza a usarlo!


Step 1: Install Ollama
Ollama is an open-source project that serves as a powerful and user-friendly platform for running LLMs on your computer. To work with DeepSeek-R1, first, we need to install Ollama.
Go to Ollama, click on download, and choose your operating system to download the file.
Once the file is downloaded, unzip it and open it. You’ll see the “Welcome to Ollama“ window below. Just click on next and install the command line.
Finally, click on “Finish”
Step 2: Install DeepSeek in your terminal
On the Ollama site, click on models. Then search for deepseek-r1 and click on it. You’ll see that DeepSeek comes in different sizes. Based on your computer’s specs, choose the version you want to download from the dropdown.
If you just want to give a test, I recommend you start with the 7b model.
After you select the version, copy the command located on the right. Here’s the command I got for 7b.
ollama run deepseek-r1:7b
Now, open a terminal and paste the command. The model will be downloaded.
Once the installation is completed, you can start with your first test! I’ll type “hi“ and press enter.
So far, we’ve successfully installed DeepSeek on our computer and we can work with it through the terminal. That’s cool, but if you want to have a similar experience you have with ChatGPT’s UI, follow the next step.
Step 3: Install Docker and Open WebUI
Go to docker, click on download docker desktop, and install it. Once Docker is successfully installed, open it.
Then, go to Open WebUI, go to the section “Quick Start with Docker“ and copy the command below the message “If Ollama is on your computer.” Here’s the command to copy (in case you couldn’t find it)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Open up a terminal, paste the command, and press enter.
After the command successfully runs, open Docker. Inside containers, a new element “open-webui“ will be listed. Select it and click on “Open in browser” to open a localhost.
Then you should see http://localhost:3000/ with a “Get started“ option on the bottom (in case the site doesn’t load or you get an error, try restarting docker).
After clicking on “Get started,“ you’ll have to log in or create a new account.
After logging in, you can finally work with DeepSeek-R1 through a nice UI. Just click on the dropdown to select the model deepseek-r1!
Go ahead and give it your first prompt!

Entradas populares de este blog

Autohospedaje de n8n con Docker: Tutorial paso a paso

Crear un canal de YouTube sobre la _lo_que_sea utilizando herramientas de IA gratuitas

Personalización de Notebooklm para generar podcast en español