دیپ سیک چگونه نصب می شود؟
دیپ سیک چگونه نصب می شود؟

دیپ سیک چگونه نصب می شود

اپلیکیشن دیپ سیک (Deep Seek) یکی از ابزارهای کارآمد در حوزه جستجو و تحلیل اطلاعات است که به کاربران این امکان را می‌دهد تا به راحتی و با سرعت بالا به اطلاعات مورد نظر خود دسترسی پیدا کنند. این اپلیکیشن به ویژه برای افرادی که به دنبال راه‌حل‌های دقیق و سریع برای جستجو در داده‌ها و تحلیل محتوا هستند، طراحی شده است. نصب و راه‌اندازی این اپلیکیشن ممکن است برای برخی کاربران چالش‌برانگیز باشد، اما با توجه به رابط کاربری ساده و مراحل مشخص نصب، به راحتی می‌توان آن را بر روی دستگاه خود نصب و شروع به استفاده کرد.

در این مقاله، به شما مطالب آموزشی گام به گام نحوه نصب اپلیکیشن دیپ سیک را خواهیم داد و مراحل آن را به صورت واضح و قابل فهم توضیح خواهیم داد. از انتخاب سیستم عامل مناسب گرفته تا فرآیند دانلود و نصب، تمامی مراحل را پوشش خواهیم داد تا هیچ نکته‌ای از قلم نیفتد. در کنار این موارد، نکات مهمی که در حین نصب ممکن است با آن‌ها مواجه شوید نیز مورد بررسی قرار خواهند گرفت.

برای آشنایی کامل با روش نصب و نحوه استفاده از اپلیکیشن دیپ سیک، دعوت می‌کنیم تا با آکادمی آموزشی وب نگاران پارسه در این آموزش گام به گام همراه باشید.

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

آموزش گام به گام اپلیکیشن دیپ سیک

DeepSeek-R1 یک مدل AI منبع باز قدرتمند است که برای استدلال پیچیده، کدنویسی، ریاضیات و حل مسئله طراحی و بهینه شده است. این بر اساس معماری ترکیبی از کارشناسان (MoE) ساخته شده است و به صورت پویا منابع را به مدل های فرعی مختلفی به نام متخصصان تخصیص می دهد. این رویکرد عملکرد بالا را حفظ می کند و کارایی آن را افزایش می دهد.

DeepSeek-R1 برای محققان و شرکت هایی که به دنبال ایجاد تعادل بین بهینه سازی منابع و مقیاس پذیری هستند ایده آل است.

این راهنما نحوه نصب DeepSeek-R1 را به صورت محلی با استفاده از Olama نشان می دهد و استراتژی های بهینه سازی را ارائه می دهد. همچنین نحوه تنظیم یک رابط وب با استفاده از Open WebUI را نشان خواهیم داد.

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

نحوه نصب DeepSeek-R1

پیش نیازها:

  • Linux ، macOS یا Windows ( WSL2 توصیه می‌شود.)
  • حداقل 16 گیگابایت رم برای مدل های کوچکتر (1.5B-7B). برای مدل های بزرگتر، حداقل 32 گیگابایت رم.
  • حداقل 50 گیگابایت فضای خالی برای مدل های کوچکتر و حداکثر 1 ترابایت برای نسخه های بزرگتر.
  • (اختیاری) پردازنده گرافیکی NVIDIA با پشتیبانی از CUDA برای نتایج سریع.

DeepSeek-R1 چیست؟

DeepSeek-R1 یک مدل زبانی است که از استدلال پیشرفته استفاده می کند. بر خلاف مدل‌های زبان سنتی، معماری مبتنی بر MoE آن تنها «متخصص» مورد نیاز را در هر کار فعال می‌کند. این روش تاخیر و بار غیرضروری را کاهش می دهد و در عین حال دقیق است.

LLM هر دو مدل مقطر و تقطیر نشده را ارائه می دهد . تقطیر فرآیندی است که مدل های کوچکتری تولید می کند که رفتار مدل های بزرگ را تقلید می کند. اندازه کوچک آنها همچنین نیازهای سخت افزاری را کاهش می دهد در حالی که رفتارهای کلیدی هنوز وجود دارد.

اندازه های مختلف مدل انعطاف پذیری را ارائه می دهد و به کاربران امکان می دهد گزینه ایده آل را برای حجم کاری و محیط خود انتخاب کنند:

  • مدل های بزرگتر در کارهای پیچیده بهتر عمل می کنند اما به قدرت محاسباتی قابل توجهی ( CPU یا GPU ) و حافظه (RAM یا VRAM) نیاز دارند.
  • مدل های کوچکتر سبک وزن هستند و برای کارهای اساسی در سخت افزار مصرف کننده مناسب هستند.
  • DeepSeek-R1 در حال حاضر از چندین اندازه مدل، از 1.5B تا 671B (میلیارد) پارامتر پشتیبانی می کند.

چرا از DeepSeek-R1 استفاده کنیم؟

دلایل اصلی استفاده از DeepSeek-R1 عبارتند از:

  • کارایی : معماری MOE استفاده از منابع را به حداقل می رساند. برای کارهای با توان بالا ایده آل است.
  • منبع باز : DeepSeek-R1 به صورت رایگان برای سفارشی سازی و استفاده تجاری در دسترس است.
  • تطبیق پذیری : این مدل در کدنویسی، ریاضی و وظایف حل مسئله برتر است،
  • مقیاس پذیری : برای سخت افزارهای کوچک مقیاس و سرورهای درجه یک سازمانی در دسترس است.
  • معماری: DeepSeek-R1 ویژگی اصلی آن است و چیزی که آن را از مدل های ترانسفورماتور سنتی مانند GPT-4، LLLaMA و موارد مشابه متمایز می کند.

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

ویژگی های Deepseek-R1

LLM های سنتی از ترانسفورماتورهای یکپارچه استفاده می کنند ، به این معنی که تمام پارامترها برای هر پرس و جو فعال هستند. حتی کارهای ساده نیز ناکارآمد می شوند زیرا به توان محاسباتی و مصرف حافظه بالایی نیاز دارند.

معماری MoE این رویکرد را با استفاده از:

  • کارشناسان : شبکه های فرعی که برای کارهای تخصصی مختلف آموزش دیده اند.
  • انتخاب پویا : به جای فعال کردن کل مدل برای هر پرس و جو، مناسب ترین متخصص را برای کار انتخاب می کند.
  • کاهش پارامتر : با اعمال کاهش پارامتر، DeepSeek-R1 منجر به پردازش سریعتر و کاهش استفاده از منابع می شود.
  • هدف معماری: بهبود عملکرد پرس و جو و مصرف منابع در حالی که دقیق باقی می ماند.

نحوه نصب DeepSeek-R1 به صورت محلی

مراحل زیر نحوه نصب DeepSeek-R1 را بر روی دستگاه محلی خود نشان می دهد. این فرآیند شامل راه اندازی Olama، کشیدن مدل و اجرای آن به صورت محلی است. همچنین نکاتی برای بهینه سازی عملکرد وجود دارد که می تواند به ارائه عملیات روان تر کمک کند.

سخت افزار مورد نیاز بستگی به مدلی دارد که قصد استفاده از آن را دارید. جدول زیر فضای دیسک، VRAM (GPU) و RAM (CPU) مورد نیاز برای هر مدل را نشان می دهد:

مدل سایز مدل اندازه روی دیسک VRAM (GPU) RAM (CPU) استفاده از مورد
DeepSeek-R1-Distill-Qwen-1.5B 1.5b 1.1 گیگابایت ~ 3.5 گیگابایت ~ 7 گیگابایت پروژه های شخصی و کارهای سبک وزن.
DeepSeek-R1-Distill-Qwen-7B 7b 4.7 گیگابایت ~ 16 گیگابایت ~ 32 گیگابایت توسعه هوش مصنوعی در مقیاس کوچک
DeepSeek-R1-Distill-Llama-8B 8b 4.9 گیگابایت ~ 18 گیگابایت ~ 36 گیگابایت کدنویسی و تحقیق متوسط.
DeepSeek-R1-Distill-Qwen-14B 14 ب 9 گیگابایت ~ 32 گیگابایت ~64 گیگابایت حل مسئله پیشرفته
DeepSeek-R1-Distill-Qwen-32B 32b 20 گیگابایت ~ 74 گیگابایت ~ 148 گیگابایت بارهای کاری هوش مصنوعی درجه سازمانی.
DeepSeek-R1-Distill-Llama-70B 70b 43 گیگابایت ~ 161 گیگابایت ~ 322 گیگابایت برنامه های کاربردی هوش مصنوعی در مقیاس بزرگ.
DeepSeek-R1 671b 404 گیگابایت ~ 1342 گیگابایت ~ 2684 گیگابایت خوشه های چند GPU و بارهای کاری HPC AI .

 

برای مدل های بالاتر از 7b، از موارد زیر استفاده کنید:

پردازنده های گرافیکی اختصاصی مدل‌های NVIDIA با حداقل ۲۴ تا ۴۰ گیگابایت VRAM عملکرد روان‌تری را تضمین می‌کنند.

ذخیره سازی . از NVMe SSD برای جلوگیری از کند شدن زمان بارگذاری استفاده کنید .

CPU : ( CPUهایی با تعداد هسته بالاتر (مانند Intel Xeon : برای مدیریت بارهای استنتاج بزرگ انتخاب کنید.

توجه: اگرچه این مدل می تواند بدون GPU اختصاصی اجرا شود، به دلیل کاهش قابل توجه عملکرد توصیه نمی شود.

مرحله 1: اوللاما را نصب کنید

Ollama یک چارچوب سبک وزن است که نصب و استفاده از LLM های مختلف را به صورت محلی ساده می کند. برای نصب آن در لینوکس، ترمینال را باز کرده و اجرا کنید:

curl -fsSL https://ollama.com/install.sh | sh

آدرس بالا را کپی کنید

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

olama را بارگیری کنید و خروجی ترمینال اسکریپت را اجرا کنید

دستور دانلود می شود و بلافاصله اسکریپت نصب را اجرا می کند.

توجه: دستور curl به طور پیش فرض در اوبونتو در دسترس نیست. آن را با: نصب کنید sudo apt install curl.

همچنین، نصب کننده Olama را برای macOS دانلود کنید و فایل ها را در مکان دلخواه استخراج کنید. کاربران ویندوز می توانند فایل Olama .exe را دانلود و اجرا کنند .

مرحله 2: مدل DeepSeek-R1 را بکشید

پس از نصب Olama، مدل DeepSeek-R1 را به صورت محلی دانلود کنید. نحو عبارت است از:

ollama pull deepseek-r1:[size]

قطعه کد بالا را کپی کنید

خروجی ترمینال olama pull deepseek-r1 7b

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود
[size]اندازه پارامتر واقعی را جایگزین کنید و فضای دیسک کافی را ایمن کنید .

توجه: راه اندازی GPU برای سرعت بخشیدن به پردازش بسیار توصیه می شود. درباره محاسبات GPU و چرایی آینده یادگیری ماشین و هوش مصنوعی بیشتر بدانید .

مرحله 3: مدل را اجرا کنید

مدل را به صورت محلی با این موارد شروع کنید:

ollama run deepseek-r1:[size]

کپی کنید

خروجی ترمینال olama اجرای deepseek-r1 7b

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

اعلان به یک چت آماده برای تعامل تغییر می کند.

مرحله 4: بهینه سازی عملکرد

برای به حداکثر رساندن عملکرد، نکات بهینه سازی زیر را در نظر بگیرید:

ثبت تفصیلی . –verboseبرای نشان دادن زمان پاسخ و ارزیابی، آرگومان را اضافه کنید . به عنوان مثال:

ollama run –verbose deepseek-r1:[size]

کپی کنید

خروجی پرمخاطب olama اجرا deepseek-r1:1.5b

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

شتاب پردازنده گرافیکی اگر از پردازنده گرافیکی NVIDIA استفاده می کنید، –gpu allپرچم را اضافه کنید:

ollama run –gpu all deepseek-r1:[size]

کپی کنید

این به درایورهای NVIDIA نیاز دارد تا کار کنند.

توجه: برای نصب درایورهای NVIDIA، یکی از راهنماهای ما را دنبال کنید:

  • درایورهای NVIDIA را روی اوبونتو نصب کنید .
  • درایورهای NVIDIA را روی دبیان نصب کنید .
  • شتاب CPU تعداد رشته ها را با متغیر محیطی زیر تنظیم کنید :

export OLLAMA_NUM_THREADS=[threads]

کپی کنید

[threads]تعداد رشته های CPU مورد نظر را جایگزین کنید .

 

رد پای حافظه را کاهش دهید . از پرچم های بهینه سازی حافظه استفاده کنید:

export OLLAMA_MEMORY_OPTIMIZATION=1

کپی کنید

در صورت استفاده از چندین مدل، پرچم را فعال کنید.

نحوه تنظیم رابط وب برای DeepSeek-R1

ادغام یک رابط وب با DeepSeek-R1 یک راه بصری و در دسترس برای تعامل با مدل فراهم می کند. این رابط ارسال پیام، مشاهده پاسخ ها و سفارشی کردن تعاملات را از طریق مرورگر وب امکان پذیر می کند .

این بخش نحوه نصب و راه اندازی Open WebUI با DeepSeek-R1 را نشان می دهد.

مرحله 1: پیش نیازها را نصب کنید

بسته به روش نصب ترجیحی چندین پیش نیاز وجود دارد. روش های زیر در دسترس هستند:

  • داکر . برای اکثر کاربران توصیه می شود و به طور رسمی پشتیبانی می شود.
  • پایتون 3.11 . بهترین گزینه برای محیط های کم منابع و تنظیمات دستی.
  • کوبرنتیس ​مناسب برای استقرارهایی که نیاز به ارکستراسیون و مقیاس بندی دارند.

این راهنما از Docker برای نشان دادن تنظیمات استفاده می کند.

توجه: برای نصب Docker در سیستم لینوکس، یکی از راهنماهای ما را دنبال کنید:

Docker را در اوبونتو نصب کنید .

Docker را روی دبیان نصب کنید .

مرحله 2: Open WebUI Image را اجرا کنید

تصویر Open WebUI را اجرا کنید. دستور اجرای docker بسته به اینکه Ollama قبلاً نصب شده باشد یا خیر متفاوت است:

اگر Olama بر روی دستگاه نصب شده است، از موارد زیر استفاده کنید:

sudo docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main

کپی کنید

اگر Olama نصب نشده است، Olama را در کنار Open WebUI بکشید و اجرا کنید:

sudo docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama

کپی کنید

–gpus=allپرچم را برای اجرا در حالت GPU اضافه کنید . بدون پرچم، دستورات ظرف را در حالت CPU اجرا می کنند.

برای تأیید اینکه آیا کانتینر شروع شده است یا خیر، از دستور Docker زیر استفاده کنید :

sudo docker ps

کپی کنید

sudo docker ps WebUI را باز کنید Olama سالم در حال اجرا است

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

دستور اطلاعات کانتینر در حال اجرا را نشان می دهد.

مرحله 3: به Open WebUI دسترسی پیدا کنید

برای دسترسی به Open WebUI، موارد زیر را انجام دهید:

  • یک مرورگر وب باز کنید و به لوکال هاست در پورت 3000 دسترسی پیدا کنید:

localhost:3000

کپی کنید

برای شروع، لوکال هاست صفحه فرود WebUI را باز کنید

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

صفحه فرود Open WebUI ظاهر می شود.

  • برای شروع مراحل ثبت نام روی Get Started کلیک کنید.
  • جزئیات را برای ایجاد یک حساب کاربری (نام، ایمیل، رمز عبور) پر کنید.

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

ثبت نام مدیر WebUI را باز کنید

این جزئیات در سرور محلی باقی می ماند. پس از آماده شدن روی ایجاد حساب مدیریت کلیک کنید .

  • صفحه یک رابط چت را نشان می دهد که نشان می دهد حساب با موفقیت ایجاد شده است.

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

رابط WebUI را باز کنید

این رابط همچنین شامل ورودی صدا یا فایل و خروجی متن به گفتار است.

مرحله 4: مدل DeepSeek-R1 را نصب کنید

برای نصب مدل DeepSeek-R1:

  • رابط Select a Model را در نوار ناوبری باز کنید.

مدل انتخابی WebUI را باز کنید

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود
  • اندازه مدل DeepSeek-R1 مناسب را جستجو کنید و برای دانلود مدل روی Pull کلیک کنید.

WebUI deepseek-r1:8b pull model را باز کنید

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود
  • صبر کنید تا دانلود کامل شود. اگر قطع شد، فرآیند را مجدداً راه اندازی کنید و از همان جایی که متوقف شد ادامه خواهد یافت.
  • مدل در لیست ظاهر می شود. روی نام مدل کلیک کنید تا آن را انتخاب کنید و شروع به استفاده از آن کنید.

WebUI deepseek-r1:8b نصب شده را باز کنید

 

دیپ سیک چگونه نصب می شود
دیپ سیک چگونه نصب می شود

مدل های اضافی را نصب کنید و بین آنها جابجا شوید تا تفاوت ها را آزمایش کنید.

جمع بندی

در این آموزش، نحوه نصب اپلیکیشن دیپ سیک به صورت گام به گام و با جزئیات کامل بررسی شد. با دنبال کردن مراحل توضیح داده شده، شما می‌توانید به راحتی این اپلیکیشن را بر روی دستگاه خود نصب کنید. همچنین، نکات مهم و مشکلات احتمالی در حین نصب نیز مطرح شد تا تجربه نصب به ساده‌ترین شکل ممکن باشد. برای دسترسی به تمامی مراحل دقیق و کاربردی، از شما دعوت می‌کنیم تا مقاله را در وب سایت وب نگاران مطالعه کنید.

این راهنما نحوه راه اندازی و آزمایش DeepSeek-R1 را به صورت محلی نشان می دهد. مدل قدرتمند هوش مصنوعی با استفاده از Olama آسان است. ما همچنین نحوه تنظیم یک رابط کاربری تعاملی با استفاده از Open WebUI را نشان دادیم.

سوالات متداول

  1. دیپ سیک چیست و چرا باید آن را نصب کنیم؟ دیپ سیک یک کتابخانه و ابزار برای تحلیل و پردازش داده‌های پیچیده است که می‌تواند در پروژه‌های هوش مصنوعی و یادگیری ماشین مفید باشد. نصب آن به شما این امکان را می‌دهد تا از الگوریتم‌های پیشرفته در پروژه‌های خود استفاده کنید.
  2. چگونه می‌توانم دیپ سیک را نصب کنم؟ برای نصب دیپ سیک، می‌توانید از دستور pip install deepseek در محیط پایتون استفاده کنید. پس از نصب، می‌توانید از آن در پروژه‌های هوش مصنوعی خود بهره‌برداری کنید.
  3. آیا نیاز به پیش‌نیاز خاصی برای نصب دیپ سیک وجود دارد؟ بله، قبل از نصب دیپ سیک، باید اطمینان حاصل کنید که پایتون و pip به درستی بر روی سیستم شما نصب شده‌اند.
  4. آکادمی آموزشی وب نگاران چگونه به آموزش دیپ سیک پرداخته است؟ آکادمی آموزشی وب نگاران در دوره‌های خود مباحث مربوط به تحلیل داده‌ها، یادگیری ماشین و نصب ابزارهای مرتبط از جمله دیپ سیک را آموزش می‌دهد. این دوره‌ها به شما کمک می‌کند تا مهارت‌های لازم برای استفاده از دیپ سیک در پروژه‌های خود را به دست آورید.
  5. آیا آکادمی وب نگاران  پشتیبانی از مشکلات نصب دیپ سیک دارد؟ بله، آکادمی وب نگاران پارسه در دوره‌های آموزشی خود، پشتیبانی فنی برای حل مشکلات نصب و استفاده از ابزارهایی مانند دیپ سیک ارائه می‌دهد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مشابه