اپلیکیشن دیپ سیک (Deep Seek) یکی از ابزارهای کارآمد در حوزه جستجو و تحلیل اطلاعات است که به کاربران این امکان را میدهد تا به راحتی و با سرعت بالا به اطلاعات مورد نظر خود دسترسی پیدا کنند. این اپلیکیشن به ویژه برای افرادی که به دنبال راهحلهای دقیق و سریع برای جستجو در دادهها و تحلیل محتوا هستند، طراحی شده است. نصب و راهاندازی این اپلیکیشن ممکن است برای برخی کاربران چالشبرانگیز باشد، اما با توجه به رابط کاربری ساده و مراحل مشخص نصب، به راحتی میتوان آن را بر روی دستگاه خود نصب و شروع به استفاده کرد.
در این مقاله، به شما مطالب آموزشی گام به گام نحوه نصب اپلیکیشن دیپ سیک را خواهیم داد و مراحل آن را به صورت واضح و قابل فهم توضیح خواهیم داد. از انتخاب سیستم عامل مناسب گرفته تا فرآیند دانلود و نصب، تمامی مراحل را پوشش خواهیم داد تا هیچ نکتهای از قلم نیفتد. در کنار این موارد، نکات مهمی که در حین نصب ممکن است با آنها مواجه شوید نیز مورد بررسی قرار خواهند گرفت.
برای آشنایی کامل با روش نصب و نحوه استفاده از اپلیکیشن دیپ سیک، دعوت میکنیم تا با آکادمی آموزشی وب نگاران پارسه در این آموزش گام به گام همراه باشید.

آموزش گام به گام اپلیکیشن دیپ سیک
DeepSeek-R1 یک مدل AI منبع باز قدرتمند است که برای استدلال پیچیده، کدنویسی، ریاضیات و حل مسئله طراحی و بهینه شده است. این بر اساس معماری ترکیبی از کارشناسان (MoE) ساخته شده است و به صورت پویا منابع را به مدل های فرعی مختلفی به نام متخصصان تخصیص می دهد. این رویکرد عملکرد بالا را حفظ می کند و کارایی آن را افزایش می دهد.
DeepSeek-R1 برای محققان و شرکت هایی که به دنبال ایجاد تعادل بین بهینه سازی منابع و مقیاس پذیری هستند ایده آل است.
این راهنما نحوه نصب DeepSeek-R1 را به صورت محلی با استفاده از Olama نشان می دهد و استراتژی های بهینه سازی را ارائه می دهد. همچنین نحوه تنظیم یک رابط وب با استفاده از Open WebUI را نشان خواهیم داد.

نحوه نصب DeepSeek-R1
پیش نیازها:
- Linux ، macOS یا Windows ( WSL2 توصیه میشود.)
- حداقل 16 گیگابایت رم برای مدل های کوچکتر (1.5B-7B). برای مدل های بزرگتر، حداقل 32 گیگابایت رم.
- حداقل 50 گیگابایت فضای خالی برای مدل های کوچکتر و حداکثر 1 ترابایت برای نسخه های بزرگتر.
- (اختیاری) پردازنده گرافیکی NVIDIA با پشتیبانی از CUDA برای نتایج سریع.
DeepSeek-R1 چیست؟
DeepSeek-R1 یک مدل زبانی است که از استدلال پیشرفته استفاده می کند. بر خلاف مدلهای زبان سنتی، معماری مبتنی بر MoE آن تنها «متخصص» مورد نیاز را در هر کار فعال میکند. این روش تاخیر و بار غیرضروری را کاهش می دهد و در عین حال دقیق است.
LLM هر دو مدل مقطر و تقطیر نشده را ارائه می دهد . تقطیر فرآیندی است که مدل های کوچکتری تولید می کند که رفتار مدل های بزرگ را تقلید می کند. اندازه کوچک آنها همچنین نیازهای سخت افزاری را کاهش می دهد در حالی که رفتارهای کلیدی هنوز وجود دارد.
اندازه های مختلف مدل انعطاف پذیری را ارائه می دهد و به کاربران امکان می دهد گزینه ایده آل را برای حجم کاری و محیط خود انتخاب کنند:
- مدل های بزرگتر در کارهای پیچیده بهتر عمل می کنند اما به قدرت محاسباتی قابل توجهی ( CPU یا GPU ) و حافظه (RAM یا VRAM) نیاز دارند.
- مدل های کوچکتر سبک وزن هستند و برای کارهای اساسی در سخت افزار مصرف کننده مناسب هستند.
- DeepSeek-R1 در حال حاضر از چندین اندازه مدل، از 1.5B تا 671B (میلیارد) پارامتر پشتیبانی می کند.
چرا از DeepSeek-R1 استفاده کنیم؟
دلایل اصلی استفاده از DeepSeek-R1 عبارتند از:
- کارایی : معماری MOE استفاده از منابع را به حداقل می رساند. برای کارهای با توان بالا ایده آل است.
- منبع باز : DeepSeek-R1 به صورت رایگان برای سفارشی سازی و استفاده تجاری در دسترس است.
- تطبیق پذیری : این مدل در کدنویسی، ریاضی و وظایف حل مسئله برتر است،
- مقیاس پذیری : برای سخت افزارهای کوچک مقیاس و سرورهای درجه یک سازمانی در دسترس است.
- معماری: DeepSeek-R1 ویژگی اصلی آن است و چیزی که آن را از مدل های ترانسفورماتور سنتی مانند GPT-4، LLLaMA و موارد مشابه متمایز می کند.

ویژگی های Deepseek-R1
LLM های سنتی از ترانسفورماتورهای یکپارچه استفاده می کنند ، به این معنی که تمام پارامترها برای هر پرس و جو فعال هستند. حتی کارهای ساده نیز ناکارآمد می شوند زیرا به توان محاسباتی و مصرف حافظه بالایی نیاز دارند.
معماری MoE این رویکرد را با استفاده از:
- کارشناسان : شبکه های فرعی که برای کارهای تخصصی مختلف آموزش دیده اند.
- انتخاب پویا : به جای فعال کردن کل مدل برای هر پرس و جو، مناسب ترین متخصص را برای کار انتخاب می کند.
- کاهش پارامتر : با اعمال کاهش پارامتر، DeepSeek-R1 منجر به پردازش سریعتر و کاهش استفاده از منابع می شود.
- هدف معماری: بهبود عملکرد پرس و جو و مصرف منابع در حالی که دقیق باقی می ماند.
نحوه نصب DeepSeek-R1 به صورت محلی
مراحل زیر نحوه نصب DeepSeek-R1 را بر روی دستگاه محلی خود نشان می دهد. این فرآیند شامل راه اندازی Olama، کشیدن مدل و اجرای آن به صورت محلی است. همچنین نکاتی برای بهینه سازی عملکرد وجود دارد که می تواند به ارائه عملیات روان تر کمک کند.
سخت افزار مورد نیاز بستگی به مدلی دارد که قصد استفاده از آن را دارید. جدول زیر فضای دیسک، VRAM (GPU) و RAM (CPU) مورد نیاز برای هر مدل را نشان می دهد:
مدل | سایز مدل | اندازه روی دیسک | VRAM (GPU) | RAM (CPU) | استفاده از مورد |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5b | 1.1 گیگابایت | ~ 3.5 گیگابایت | ~ 7 گیگابایت | پروژه های شخصی و کارهای سبک وزن. |
DeepSeek-R1-Distill-Qwen-7B | 7b | 4.7 گیگابایت | ~ 16 گیگابایت | ~ 32 گیگابایت | توسعه هوش مصنوعی در مقیاس کوچک |
DeepSeek-R1-Distill-Llama-8B | 8b | 4.9 گیگابایت | ~ 18 گیگابایت | ~ 36 گیگابایت | کدنویسی و تحقیق متوسط. |
DeepSeek-R1-Distill-Qwen-14B | 14 ب | 9 گیگابایت | ~ 32 گیگابایت | ~64 گیگابایت | حل مسئله پیشرفته |
DeepSeek-R1-Distill-Qwen-32B | 32b | 20 گیگابایت | ~ 74 گیگابایت | ~ 148 گیگابایت | بارهای کاری هوش مصنوعی درجه سازمانی. |
DeepSeek-R1-Distill-Llama-70B | 70b | 43 گیگابایت | ~ 161 گیگابایت | ~ 322 گیگابایت | برنامه های کاربردی هوش مصنوعی در مقیاس بزرگ. |
DeepSeek-R1 | 671b | 404 گیگابایت | ~ 1342 گیگابایت | ~ 2684 گیگابایت | خوشه های چند GPU و بارهای کاری HPC AI . |
برای مدل های بالاتر از 7b، از موارد زیر استفاده کنید:
پردازنده های گرافیکی اختصاصی مدلهای NVIDIA با حداقل ۲۴ تا ۴۰ گیگابایت VRAM عملکرد روانتری را تضمین میکنند.
ذخیره سازی . از NVMe SSD برای جلوگیری از کند شدن زمان بارگذاری استفاده کنید .
CPU : ( CPUهایی با تعداد هسته بالاتر (مانند Intel Xeon : برای مدیریت بارهای استنتاج بزرگ انتخاب کنید.
توجه: اگرچه این مدل می تواند بدون GPU اختصاصی اجرا شود، به دلیل کاهش قابل توجه عملکرد توصیه نمی شود.
مرحله 1: اوللاما را نصب کنید
Ollama یک چارچوب سبک وزن است که نصب و استفاده از LLM های مختلف را به صورت محلی ساده می کند. برای نصب آن در لینوکس، ترمینال را باز کرده و اجرا کنید:
curl -fsSL https://ollama.com/install.sh | sh
آدرس بالا را کپی کنید

olama را بارگیری کنید و خروجی ترمینال اسکریپت را اجرا کنید
دستور دانلود می شود و بلافاصله اسکریپت نصب را اجرا می کند.
توجه: دستور curl به طور پیش فرض در اوبونتو در دسترس نیست. آن را با: نصب کنید sudo apt install curl.
همچنین، نصب کننده Olama را برای macOS دانلود کنید و فایل ها را در مکان دلخواه استخراج کنید. کاربران ویندوز می توانند فایل Olama .exe را دانلود و اجرا کنند .
مرحله 2: مدل DeepSeek-R1 را بکشید
پس از نصب Olama، مدل DeepSeek-R1 را به صورت محلی دانلود کنید. نحو عبارت است از:
ollama pull deepseek-r1:[size]
قطعه کد بالا را کپی کنید
خروجی ترمینال olama pull deepseek-r1 7b

توجه: راه اندازی GPU برای سرعت بخشیدن به پردازش بسیار توصیه می شود. درباره محاسبات GPU و چرایی آینده یادگیری ماشین و هوش مصنوعی بیشتر بدانید .
مرحله 3: مدل را اجرا کنید
مدل را به صورت محلی با این موارد شروع کنید:
ollama run deepseek-r1:[size]
کپی کنید
خروجی ترمینال olama اجرای deepseek-r1 7b

اعلان به یک چت آماده برای تعامل تغییر می کند.
مرحله 4: بهینه سازی عملکرد
برای به حداکثر رساندن عملکرد، نکات بهینه سازی زیر را در نظر بگیرید:
ثبت تفصیلی . –verboseبرای نشان دادن زمان پاسخ و ارزیابی، آرگومان را اضافه کنید . به عنوان مثال:
ollama run –verbose deepseek-r1:[size]
کپی کنید
خروجی پرمخاطب olama اجرا deepseek-r1:1.5b

شتاب پردازنده گرافیکی اگر از پردازنده گرافیکی NVIDIA استفاده می کنید، –gpu allپرچم را اضافه کنید:
ollama run –gpu all deepseek-r1:[size]
کپی کنید
این به درایورهای NVIDIA نیاز دارد تا کار کنند.
توجه: برای نصب درایورهای NVIDIA، یکی از راهنماهای ما را دنبال کنید:
- درایورهای NVIDIA را روی اوبونتو نصب کنید .
- درایورهای NVIDIA را روی دبیان نصب کنید .
- شتاب CPU تعداد رشته ها را با متغیر محیطی زیر تنظیم کنید :
export OLLAMA_NUM_THREADS=[threads]
کپی کنید
[threads]تعداد رشته های CPU مورد نظر را جایگزین کنید .
رد پای حافظه را کاهش دهید . از پرچم های بهینه سازی حافظه استفاده کنید:
export OLLAMA_MEMORY_OPTIMIZATION=1
کپی کنید
در صورت استفاده از چندین مدل، پرچم را فعال کنید.
نحوه تنظیم رابط وب برای DeepSeek-R1
ادغام یک رابط وب با DeepSeek-R1 یک راه بصری و در دسترس برای تعامل با مدل فراهم می کند. این رابط ارسال پیام، مشاهده پاسخ ها و سفارشی کردن تعاملات را از طریق مرورگر وب امکان پذیر می کند .
این بخش نحوه نصب و راه اندازی Open WebUI با DeepSeek-R1 را نشان می دهد.
مرحله 1: پیش نیازها را نصب کنید
بسته به روش نصب ترجیحی چندین پیش نیاز وجود دارد. روش های زیر در دسترس هستند:
- داکر . برای اکثر کاربران توصیه می شود و به طور رسمی پشتیبانی می شود.
- پایتون 3.11 . بهترین گزینه برای محیط های کم منابع و تنظیمات دستی.
- کوبرنتیس مناسب برای استقرارهایی که نیاز به ارکستراسیون و مقیاس بندی دارند.
این راهنما از Docker برای نشان دادن تنظیمات استفاده می کند.
توجه: برای نصب Docker در سیستم لینوکس، یکی از راهنماهای ما را دنبال کنید:
Docker را در اوبونتو نصب کنید .
Docker را روی دبیان نصب کنید .
مرحله 2: Open WebUI Image را اجرا کنید
تصویر Open WebUI را اجرا کنید. دستور اجرای docker بسته به اینکه Ollama قبلاً نصب شده باشد یا خیر متفاوت است:
اگر Olama بر روی دستگاه نصب شده است، از موارد زیر استفاده کنید:
sudo docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main
کپی کنید
اگر Olama نصب نشده است، Olama را در کنار Open WebUI بکشید و اجرا کنید:
sudo docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
کپی کنید
–gpus=allپرچم را برای اجرا در حالت GPU اضافه کنید . بدون پرچم، دستورات ظرف را در حالت CPU اجرا می کنند.
برای تأیید اینکه آیا کانتینر شروع شده است یا خیر، از دستور Docker زیر استفاده کنید :
sudo docker ps
کپی کنید
sudo docker ps WebUI را باز کنید Olama سالم در حال اجرا است

دستور اطلاعات کانتینر در حال اجرا را نشان می دهد.
مرحله 3: به Open WebUI دسترسی پیدا کنید
برای دسترسی به Open WebUI، موارد زیر را انجام دهید:
- یک مرورگر وب باز کنید و به لوکال هاست در پورت 3000 دسترسی پیدا کنید:
localhost:3000
کپی کنید
برای شروع، لوکال هاست صفحه فرود WebUI را باز کنید

صفحه فرود Open WebUI ظاهر می شود.
- برای شروع مراحل ثبت نام روی Get Started کلیک کنید.
- جزئیات را برای ایجاد یک حساب کاربری (نام، ایمیل، رمز عبور) پر کنید.

ثبت نام مدیر WebUI را باز کنید
این جزئیات در سرور محلی باقی می ماند. پس از آماده شدن روی ایجاد حساب مدیریت کلیک کنید .
- صفحه یک رابط چت را نشان می دهد که نشان می دهد حساب با موفقیت ایجاد شده است.

رابط WebUI را باز کنید
این رابط همچنین شامل ورودی صدا یا فایل و خروجی متن به گفتار است.
مرحله 4: مدل DeepSeek-R1 را نصب کنید
برای نصب مدل DeepSeek-R1:
- رابط Select a Model را در نوار ناوبری باز کنید.
مدل انتخابی WebUI را باز کنید

- اندازه مدل DeepSeek-R1 مناسب را جستجو کنید و برای دانلود مدل روی Pull کلیک کنید.
WebUI deepseek-r1:8b pull model را باز کنید

- صبر کنید تا دانلود کامل شود. اگر قطع شد، فرآیند را مجدداً راه اندازی کنید و از همان جایی که متوقف شد ادامه خواهد یافت.
- مدل در لیست ظاهر می شود. روی نام مدل کلیک کنید تا آن را انتخاب کنید و شروع به استفاده از آن کنید.
WebUI deepseek-r1:8b نصب شده را باز کنید

مدل های اضافی را نصب کنید و بین آنها جابجا شوید تا تفاوت ها را آزمایش کنید.
جمع بندی
در این آموزش، نحوه نصب اپلیکیشن دیپ سیک به صورت گام به گام و با جزئیات کامل بررسی شد. با دنبال کردن مراحل توضیح داده شده، شما میتوانید به راحتی این اپلیکیشن را بر روی دستگاه خود نصب کنید. همچنین، نکات مهم و مشکلات احتمالی در حین نصب نیز مطرح شد تا تجربه نصب به سادهترین شکل ممکن باشد. برای دسترسی به تمامی مراحل دقیق و کاربردی، از شما دعوت میکنیم تا مقاله را در وب سایت وب نگاران مطالعه کنید.
این راهنما نحوه راه اندازی و آزمایش DeepSeek-R1 را به صورت محلی نشان می دهد. مدل قدرتمند هوش مصنوعی با استفاده از Olama آسان است. ما همچنین نحوه تنظیم یک رابط کاربری تعاملی با استفاده از Open WebUI را نشان دادیم.
سوالات متداول
- دیپ سیک چیست و چرا باید آن را نصب کنیم؟ دیپ سیک یک کتابخانه و ابزار برای تحلیل و پردازش دادههای پیچیده است که میتواند در پروژههای هوش مصنوعی و یادگیری ماشین مفید باشد. نصب آن به شما این امکان را میدهد تا از الگوریتمهای پیشرفته در پروژههای خود استفاده کنید.
- چگونه میتوانم دیپ سیک را نصب کنم؟ برای نصب دیپ سیک، میتوانید از دستور
pip install deepseek
در محیط پایتون استفاده کنید. پس از نصب، میتوانید از آن در پروژههای هوش مصنوعی خود بهرهبرداری کنید. - آیا نیاز به پیشنیاز خاصی برای نصب دیپ سیک وجود دارد؟ بله، قبل از نصب دیپ سیک، باید اطمینان حاصل کنید که پایتون و pip به درستی بر روی سیستم شما نصب شدهاند.
- آکادمی آموزشی وب نگاران چگونه به آموزش دیپ سیک پرداخته است؟ آکادمی آموزشی وب نگاران در دورههای خود مباحث مربوط به تحلیل دادهها، یادگیری ماشین و نصب ابزارهای مرتبط از جمله دیپ سیک را آموزش میدهد. این دورهها به شما کمک میکند تا مهارتهای لازم برای استفاده از دیپ سیک در پروژههای خود را به دست آورید.
- آیا آکادمی وب نگاران پشتیبانی از مشکلات نصب دیپ سیک دارد؟ بله، آکادمی وب نگاران پارسه در دورههای آموزشی خود، پشتیبانی فنی برای حل مشکلات نصب و استفاده از ابزارهایی مانند دیپ سیک ارائه میدهد.