Treceți la conținutul principal

Cum să rulați DeepSeek-R1 local pe computerul dvs

 

Sursa: Imagine după autor

Este ora 23:30 când scriu asta. Lucrez la o automatizare a fluxului de lucru și am avut nevoie de asistență de la DeepSeek-R1 cu unele probleme provocatoare. Dar, din păcate, continuă să spună „ Serverul este ocupat; vă rugăm să încercați din nou mai târziu. „Devin nerăbdător și frustrat.

Ai mai fost și tu în această situație, nu? Deci, să abordăm această problemă rulând modelul pe computerul nostru local. Dar cum?

Credeți-mă, este un proces simplu în trei pași care nu ar trebui să vă ia mai mult de 15 minute.

În acest articol, nu voi descărca pur și simplu modelul și nu voi începe să-l întreb în terminal, deoarece nu este foarte ușor de utilizat și avem nevoie de o interfață de utilizare precum ChatGPT în care să putem introduce intrări și să obținem rezultate într-un mod foarte atrăgător din punct de vedere vizual.

Nu sună grozav? Iată cum plănuim să o facem:

  1. Instalați Ollama, care ne permite să descărcam orice model și să lucrăm cu el local pe computerul nostru.
  2. Apoi, folosind Docker, vom instala un Open WebUI care oferă o experiență de chat bazată pe browser. Deci, avem nevoie de Docker...
  3. Asta este; pur și simplu găzduim pe localhost, selectăm modelul pe care îl dorim și începem să folosim modelul pentru munca noastră.

Pasul 1: Instalarea Ollama (coloana vertebrală AI locală)

Ollama oferă baza pentru rularea locală a modelelor precum DeepSeek-R1. Ollama funcționează perfect cu instrumente precum FlowWise și N8N, ceea ce îl face excelent pentru dezvoltatori.

Descărcați Ollama . Vizitați site-ul oficial Ollama și descărcați versiunea corespunzătoare pentru sistemul dvs. de operare.

Obțineți modelul DeepSeek:

  • Deschideți interfața Ollama, apoi accesați Modele și alegeți DeepSeek R1.
Sursa: Imagine după autor
  • Sfat profesionist: Începeți să utilizați modelul de parametri 7B (potrivit pentru GPU-uri de nivel mediu, cum ar fi RTX 4070). Dacă nu aveți hardware de nivel enterprise, evitați versiunea mare 671B.
Sursa: Imagine după autor
  • Copiați și inserați comanda de descărcare a modelului (de exemplu, ollama pull deepseek-r1–7b) în terminalul dvs.
ollama run deepseek-r1:7b 

#sau asta:
ollama pull deepseek-r1:7b

Pasul 2: Configurați Open WebUI (Interfața magică)

Open WebUI convertește rezultatul terminalului Ollama într-o interfață de chat fluidă, bazată pe browser. Iată cum să-l implementați cu Docker:

Instalați Docker : descărcați și rulați Docker Desktop.

Implementați Open WebUI : apoi copiați următoarea comandă Docker (schimbați portul după cum este necesar):

docker run -d -p 5000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

De ce portul 5000? Evitați problemele cu aplicațiile care folosesc portul 3000 (care este popular pentru instrumentele de dezvoltare web).

Lansare și autentificare:

  1. Open WebUI poate fi accesat la http://localhost:5000.
  2. Creați un cont local ( nu este necesar internetul! ).

Pasul 3: Utilizați DeepSeek R1 ca un profesionist.

La conectare:

  1. Selectați modelul dvs.: selectați varianta DeepSeek pe care ați descărcat-o (de exemplu, DeepSeek-R1–7B).
  2. Începeți să discutați: puneți întrebări, generați idei și testați interogări complexe.

Astfel: „ Rezumați legile de scalare ale modelelor de învățare prin întărire .”

Sursa: Imagine după autor

Caracteristici interesante:

  • Pași de raționament: Extindeți „gândirea” modelului pentru a-și dezvălui logica în mijlocul unui răspuns.
  • Gestionarea conversațiilor: puteți redenumi cu ușurință chaturile, puteți începe fire noi sau le puteți revedea pe cele existente.

De ce această configurație este foarte bună

  • În primul rând confidențialitatea : datele dvs. rămân pe computer.
  • Flexibilitate hardware : modele la scară bazate pe puterea GPU-ului dumneavoastră.
  • Utilizabil pentru dezvoltatori : Integrați cu instrumente de automatizare precum N8N pentru fluxuri de lucru avansate.

În concluzie, rularea DeepSeek-R1 local pe computerul dvs. este un proces simplu care vă îmbunătățește fluxul de lucru, oferind o interfață ușor de utilizat și menținând confidențialitatea datelor.

Prin instalarea Ollama și configurarea Open WebUI cu Docker , puteți implementa și utiliza cu ușurință modelul pe mașina dvs. locală. Această configurație oferă flexibilitate, confidențialitate și integrare cu instrumente de automatizare, ceea ce o face o alegere excelentă pentru dezvoltatori, pasionații de date și pasionații de AI.

Articol tradus dupa https://blog.gopenai.com/how-to-run-deepseek-r1-locally-on-your-computer-c0a297bfd59e

Comentarii

Postări populare de pe acest blog

Containerizare nativă pe macOS: Apple lansează propriul „Distrobox”

  Editorial de: Andrei Popescu, Penguin Reviews În cadrul Conferinței Globale a Dezvoltatorilor (WWDC25), Apple a prezentat „Containerization” – un nou framework open‑source care aduce pe macOS, bazat pe Apple Silicon, un mecanism performant și sigur pentru rularea distribuțiilor Linux in containere, similar ideii de Distrobox sau WSL . 🔹 Ce este Containerization? Framework în Swift : scris integral într-un limbaj modern, se bazează pe Virtualization.framework și rulează fiecare container Linux într‑o mașină virtuală ultra‑ușoară , asigurând izolare completă la nivel de kernel . Performanţă ridicată : containerele pornesc în câteva milisecunde, folosind dinamic doar resursele necesare, datorită accelerării hardware oferite de cipurile ARM Apple . Protecție avansată : fiecare container rulează separat, eliminând riscurile asociate scăpărilor de procese între medii sau către sistemul gazdă . 🛠 Funcționalități cheie Funcționalitate Detalii Imagini OCI standard Compatibile c...

Kali GPT: asistentul AI care transformă pentesting‑ul

  Editorial de: Elena Marinescu, Penguin Reviews Într‑o mișcare revoluționară pentru comunitatea de securitate cibernetică, XIS10CIAL a lansat Kali GPT , un asistent AI conceput special pentru Kali Linux, bazat pe GPT‑4, care integrează inteligența artificială direct în terminal, redefinind modul în care se realizează testele de penetrare . 🔍 Ce aduce Kali GPT? Integrare în terminalul Kali – Kali GPT înțelege comenzi în limbaj natural, generează payloads, interpretează scanări Nmap, configurează Metasploit și explică tool‑uri precum Burp Suite, fără să părăsești shell‑ul . Asistent contextual – adaptează răspunsurile în funcție de nivel (începători vs. experți), oferind explicații simplify sau tehnice avansate . Automatizare AI – generează comenzi, script‑uri și payloads, reduce erorile umane și accelerează ciclul pentesting‑ului . Beneficii clare Productivitate sporită – reducerea semnificativă a timpului de research și documentare Învățare accelerată – e...

De ce Danemarca renunță la Microsoft Office și Windows în favoarea LibreOffice și Linux

  de Mihai Georgescu, editor colaborator Danemarca face un pas major în orientarea către suveranitatea digitală: sectorul public a început să înlocuiască Microsoft Office și Windows cu LibreOffice și distribuții Linux. Misunea este de a readuce controlul datelor în spațiul UE și de a diminua dependența de furnizori extra-comunitari. Motivele deciziei Guvernul danez a început tranziția pe baza a trei obiective prioritare: Suveranitate digitală – datele rămân sub control european, nu sunt transmise către servere non‑UE . Reducerea costurilor – eliminarea licențelor Microsoft și direcționarea fondurilor către dezvoltatori și companii locale. Securitate și interoperabilitate – standardizarea pe formate deschise (ODF) pentru o colaborare mai eficientă între instituții și cetățeni . Strategia de implementare Pilot gradual – implementări în etape, începând cu LibreOffice și Windows, urmate de trecerea la Linux — fără tranziția “brutală” în toate birourile deodată . Form...