آموزش جامع LM Studio: نصب و اجرای آفلاین مدل‌های هوش مصنوعی (LLM)

108 بازدید
۱۴۰۵-۰۱-۱۶
6 دقیقه
  • نویسنده: احسان شهنازی
  • درباره نویسنده: کارشناسی ارشد مکاترونیک دوستدار الکترونیک و دنیای دیجیتال http://mecha.ir
LM Studio چیست؟

LM Studio یک ابزار متن‌باز (Open Source) است که به کاربران امکان می‌دهد مدل‌های زبانی بزرگ (Large Language Model – LLMs)  را به صورت محلی (روی سیستم خود) و حتی در حالت آفلاین (Offline) اجرا کنند. این پروژه برای متخصصانی طراحی شده که به دلایل امنیتی یا دسترسی محدود به اینترنت نمی‌توانند از ابزارهای آنلاین استفاده کنند، اما همچنان نیاز به هوش مصنوعی پیشرفته دارند.

سایت رسمی پروژه: lmstudio.ai

روش نصب LM Studio بر روی ویندوز

lm studio

lm studio

1- از سایت زیر نسخه مناسب سیستم عامل تان را انتخاب کنید:

https://p30download.ir/fa/entry/112975/lm-studio

نرم افزار را مشابه سایر نرم افزارهای معمول نصب کنید.

2- بعد از نصب نرم افزار نیاز هست مدل هوش مصنوعی را دانلود کنید. از همین لینک بالا در قسمت (دانلود مدل ها) با توجه به سخت افزار رایانه مدلی را دانلود کنید.
3- مدل زبانی که دانلود کرده اید را از حالت فشرده خارج کنید.
4- در قسمت Run ویندوز عبارت زیر را وارد و Enter را بزنید.

%HOMEPATH%\.lmstudio\models

5- یک پوشه با نام lmstudio-community  در مسیر بالا ایجاد کنید.
6- مدل زبانی که از حالت فشرده خارج شده شامل یک پوشه با نامی هست که به GGUF ختم می‌شود، پوشه مذکور را به درون پوشه lmstudio-community منتقل کنید.
توجه: اگر چند مدل را دانلود کرده اید به همین طریق پوشه سایر مدل ها را در کنار مدل فعلی درون پوشه‌ lmstudio-community منتقل کنید.

 

 » » توجه شود منظور از رم در توضیحات زیر Vram هست که مربوط به کارت گرافیک هست. طبق تجربه و توضیحات نرم افزار lm studio حداقل رم گرافیک ترجیحا باید 8 گیگ باشه تا بتونید تجربه نسبتا خوبی را از کار با این مدل های هوش مصنوعی آفلاین داشته باشید.

»» این توضیحات از قول کاربری در سایت git.ir جهت آگاهی از نحوه انتخاب مدل های مناسب با توجه به سیستم استفاده شده ارایه شده است :

برای محاسبه دقیق رم (RAM) و حافظه گرافیکی (VRAM) مورد نیاز برای اجرا(Inference)  و بارگذاری (Loading)  مدل‌های هوش مصنوعی چقدر فضا نیاز دارید ؟ از این فرمول ساده استفاده کنید:

RAM/VRAM حجم مورد نیاز = (p × q ÷ 8) × 1.2

که در اون:
p : پارامتر های مدل
q : عدد کوانتایز مدل
عدد 1.2 هم مقداری خارج از فرمول اصلی و صرفا برای سربار سیستم و فریم‌ورک و …

مثال:
برای اجرای مدل DeepSeek-R1 – Qwen3 8B اسم کاملش که تولینک دانلود هست به این صورته:

DeepSeek-R1-0528-Qwen3-8B-Q3_K_L.gguf
p=8
q=3

((8*3)/8)*1.2 = 3.6 گیگا بایت حافظه لازم دارید.

راهنمای انتخاب مدل هوش مصنوعی آفلاین

سیستم‌های ضعیف یا معمولی (۴ تا ۸ گیگابایت رم)
اگر از یک لپ‌تاپ یا سیستم خانگی معمولی استفاده می‌کنید، بهترین انتخاب شما مدل‌های 1B تا 4B است.
این مدل‌ها سبک هستند و معمولاً روی CPU هم اجرا می‌شوند (اغلب به‌صورت کوانتایز شده).
برای کارهایی مثل:

  • چت روزمره
  • خلاصه‌سازی متن
  • ترجمه‌های ساده
  • تولید متن سبک

سیستم‌های متوسط۱۶ تا ۳۲ گیگابایت رم )

در این سطح سخت‌افزاری، مدل‌های 7B تا 12B  بهترین تعادل بین کیفیت پاسخ و مصرف منابع را ارائه می‌دهند.
این مدل‌ها:

  • درک متن و استدلال بهتری دارند
  • پاسخ‌های طبیعی‌تر و دقیق‌تری تولید می‌کنند
  • برای اکثر کاربران بهترین و منطقی‌ترین انتخاب هستند

مدل‌های 7B معمولاً نقطه‌ی تعادل ایده‌آل محسوب می‌شوند و 12B کیفیت بالاتری ارائه می‌دهد، البته با مصرف منابع بیشتر

در ادامه لیست مدل‌های موجود برای استفاده در LM Studio  (ترتیب از سبک تا قدرتمند) از سایت git.ir ارایه شده است:

1- Gemma 3 – 270M  (سبک‌ترین مدل)

  • کاربرد: مناسب سیستم‌های ضعیف، تست سریع، چت ساده
  • لینک دانلود (230MB)

مناسب برای لپ‌تاپ‌های ضعیف یا شروع آشنایی با مدل‌های هوش مصنوعی.

2- Qwen3 – 4B Thinking ( متعادل و متفکر)

  • کاربرد: تولید متن بهتر، استدلال، پاسخ‌های دقیق‌تر
  • لینک دانلود (2.1GB)

ترکیب خوب از کیفیت مناسب و مصرف منابع معقول.

3- DeepSeek-R1 – Qwen3 8B ( کیفیت بالاتر )

  • کاربرد: تولید متن حرفه‌ای، تحلیل‌های دقیق‌تر، مکالمه بهتر
  • لینک دانلود (4.12GB)

اگر حداقل ۱۲۱۶ گیگابایت RAM دارید، این مدل بسیار بهتر از مدل‌های سبک عمل می‌کند.

4- GLM-4.6V Flash (سریع و بهینه)

  • کاربرد: چت سریع، پاسخ‌های روان، مصرف منابع معقول
  • لینک دانلود (5.74GB)

برای کاربردهای معمولی و پاسخ‌های سریع گزینه قابل‌توجهی است.

5- GPT-OSS-20B (مدل قدرتمند عمومی)

  • کاربرد: تحلیل پیچیده، تولید متن پیشرفته
  • لینک دانلود (11.27GB)

برای سیستم‌های قوی با RAM ≥ 32 گیگابایت مناسب است.

6- Qwen3-Coder-30B (مدل تخصصی کدنویسی)

  • کاربرد: تولید و تحلیل کد، برنامه‌نویسی پیشرفته
  • لینک دانلود (13.58GB)

اگر هدف شما استفاده تخصصی در حوزه کدنویسی و تحلیل‌های سنگین باشد، این مدل مناسب است.

7- Hunyuan-MT-Chimera-7B (مدل تخصصی ترجمه)

  • کاربردمدل Hunyuan-MT-Chimera-7B یک مدل مخصوص ترجمه است که برای انتقال درست معنی و جمله‌بندی طبیعی ساخته شده. این مدل توی ترجمه متن‌های معمولی و نیمه‌تخصصی خروجی روان و قابل قبولی می‌دهد و اشتباهات رایج ترجمه رو تا حد خوبی کم می‌کند. ما ترجمه انگلیسی به فارسیش رو تست کردیم و کیفیتش خوب بود.
  • لینک دانلود (7.4GB)
شاید برای شما مفید باشد:
برنامه ای ساده برای کدویژن و بسکام

مدل های متنوع دیگه رو میتونید از لینک زیر ببینید. (این مدلها توسط کانال @ai_src در اپلیکیشن بله جمع آوری شده است.)

https://my.uupload.ir/f/dlmech/LLMs

شروع به کار با lm studio

بعد از نصب برنامه و کپی کردن هوش های مصنوعی در پوشه گفته شده، نوبت به چت با هوش مصنوعی افلاین میرسد.

  1. میزان رم و گرافیک مصرفی توسط برنامه        
  2.  انتخاب مدل هوش مصنوعی

محیط چت به شکل زیر هست.

lm studio

lm studio

انتخاب یکی از مدل های هوش مصنوعی

lm studio

lm studio

در شکل زیر مقدار حافظه در دسترس  هوش مصنوعی،  تعداد هسته گرافیک  و همچنین تعداد رشته های سی پی یو مورد استفاده نمایش داده شده است.

در این مرحله میتونید با توجه به مدل هوش مصنوعی و سیستمتون این اعداد رو کم و زیاد کنید تا به مقدار بهینه برسید.

در انتها گزینه load model رو جهت ورود به صفحه چت بزنید.

lm studio

lm studio

تنظیمات LM Studio

lm studio

منوی تنظیمات در ال ام استودیو

lm studio

منوی دولوپر مد روشن شود

lm studio

دو گزینه ترجیحا فعال باشند

lm studio

انتخاب میزان استفاده از منابع سیستم جهت جلوگیری از اورلود

lm studio

کارت گرافیک شناسایی شده توسط برنامه و میزان رم در دسترس در منوی Hardware نمایش داده می شود.

lm studio

اگر کارت گرافیک فعال از نوع nvidia باشدگزینه  cuda فعال گردد

راهکارهایی جهت افزایش سرعت

  • هر چقدر که هسته های cuda بیشتری داشته باشید روی پردازنده گرافیکی سرعت تولید توکن در ثانیه بالاتر خواهد رفت 
  • هر چقدر حافظه گرافیکی بیشتری داشته باشید مدل های بزرگتر و با دقت بیشتری رو میتوانید بارگزاری کنید
  • هرچی رم بیشتری داشته باشید با سرعت کم تر میتونید مدل ها بزرگ رو بارگزاری کنید، حافظه بیشتر روی کارت گرافیکی بهتره و سریع تر هست اما اگه کم بیاره از رم سیستم بر میداره
  • یک مقدار ثابت بیشتری رو همیشه براش در نظر بگیرید و با نتیجه این فرمول جمع کنید من خودم 2 گیگ در نظر میگیرم
  • اگر کارت گرافیک NVIDIA دارید، اطمینان حاصل کنید که درایورهای CUDA نصب شده‌اند. با نصب درایور در برنامه lm studio قسمت تنظیمات مدل، گزینه GPU Offload  فعال می شود.
  • اگر مقدار Evaluation Batch Size رومثلا به  204800 و مقدار Max Concurrent Predictions به 200 تغییر بدید توی سرعت پاسخگویی مدل جواب بهتری میگیرید.
  • برای جلوگیری از لوپ افتادن مدل ها توی تنظیمات اینترفیس توی بخش sampling من تیک repeat penalty رو برداشتم که تاثیر خوبی گذاشت و دیگه شاهد لوپ و بی جوابی مدل نبودم.
  • برای اینکه lm studio از حداکثر قدرت کارت گرافیک استفاده کند مطابق عکس زیر graphic setting را تنظیم کنید. (برای دسترسی به این صفحه graphic setting را در منوی استارت سرچ کنید)

lm studio

  • اگر کارت گرافیک از نوع nvidia هست، مطابق عکس زیر برای برنامه lm studio حداکثر بازدهی (high performanc ) انتخاب گردد. با راست کلیک روی دسکتاپ و انتخاب گزینه NVIDIA control panel   صفحه زیر باز می شود. اگر برنامه lm studio در لیست برنامه ها نبود به صورت دستی از منوی browse آن را اضافه کنید.
lm studio

lm studio

در قسمت بعدی به راه اندازی LM studio روی لوکال سرور می پردازیم.

اطلاعات
108
0
0
اشتراک و حمایت
profile نویسنده: احسان شهنازی متخصص الکترونیک

کارشناسی ارشد مکاترونیک دوستدار الکترونیک و دنیای دیجیتال http://mecha.ir


ویراستار: حسین زنجانی زاده
مقالات بیشتر

slide

پالت | بازار خرید و فروش قطعات الکترونیک

قطعات اضافه و بدون استفاده همیشه یکی از سرباره‌‌های شرکتها و طراحان حوزه برق و الکترونیک بوده و هست. پالت سامانه‌ای است که بصورت تخصصی اجازه خرید و فروش قطعات مازاد الکترونیک را فراهم می‌کند. فروش در پالت
family

آیسی | موتور جستجوی قطعات الکترونیک

سامانه آی سی سیسوگ (Isee) قابلیتی جدید و کاربردی از سیسوگ است. در این سامانه سعی شده است که جستجو، انتخاب و خرید مناسب تر قطعات برای کاربران تسهیل شود. جستجو در آیسی
family

سیسوگ‌شاپ | فروشگاه محصولات Quectel

فروشگاه سیسوگ مجموعه ای متمرکز بر تکنولوژی های مبتنی بر IOT و ماژول های M2M نظیر GSM، GPS، LTE، NB-IOT، WiFi، BT و ... جایی که با تعامل فنی و سازنده، بهترین راهکارها انتخاب می شوند. برو به فروشگاه سیسوگ
family

سیسوگ فروم | محلی برای پاسخ پرسش‌های شما

دغدغه همیشگی فعالان تخصصی هر حوزه وجود بستری برای گفتگو و پرسش و پاسخ است. سیسوگ فروم یک انجمن آنلاین است که بصورت تخصصی امکان بحث، گفتگو و پرسش و پاسخ در حوزه الکترونیک را فراهم می‌کند. پرسش در سیسوگ فرم
family

سیکار | اولین مرجع متن باز ECU در ایران

بررسی و ارائه اطلاعات مربوط به ECU (واحد کنترل الکترونیکی) و نرم‌افزارهای متن باز مرتبط با آن برو به سیکار
become a writer
نویسنده شو !

سیسوگ با افتخار فضایی برای اشتراک گذاری دانش شماست. برای ما مقاله بنویسید.

ارسال مقاله
become a writer
نویسنده شو !

سیسوگ با افتخار فضایی برای اشتراک گذاری دانش شماست. برای ما مقاله بنویسید.

ارسال مقاله

خانواده سیسوگ

سیسوگ‌شاپ

فروشگاه محصولات Quectel

پالت
سیسوگ فروم

محلی برای پاسخ پرسش‌های شما

سیسوگ جابز
سیسوگ
سیسوگ فروم
سی‌کار

اولین مرجع متن باز ECU در ایران

سیسوگ مگ
آی‌سی

موتور جستجوی قطعات الکترونیکی

سیسوگ آکادمی
پالت

بازار خرید و فروش قطعات الکترونیک

دیدگاه ها

become a writer
نویسنده شو !

سیسوگ با افتخار فضایی برای اشتراک گذاری دانش شماست. برای ما مقاله بنویسید.

ارسال مقاله
become a writer
نویسنده شو !

سیسوگ با افتخار فضایی برای اشتراک گذاری دانش شماست. برای ما مقاله بنویسید.

ارسال مقاله