آموزش راه اندازی هوش مصنوعی بدون نیاز به اینترنت

هوش مصنوعی، برنامه نویسی و هوش مصنوعی 1404/4/28
نویسنده: مدرس بهمن آبادی

آموزش نصب و راه‌اندازی مدلهای هوش مصنوعی بدون اینترنت

آموزش نصب و راه‌اندازی LM Studio روی ویندوز و اجرای مدل آفلاین

LM Studio  یک ابزار قدرتمند و کاربرپسند است که به کاربران امکان می‌دهد مدل‌های زبان بزرگ (Large Language Models یا LLMs) را به‌صورت محلی و آفلاین روی سیستم‌هایشان اجرا کنند. این ابزار برای توسعه‌دهندگان، محققان و علاقه‌مندان به هوش مصنوعی طراحی شده است تا بدون نیاز به اتصال اینترنت یا سرویس‌های ابری، از مدل‌های متن‌باز مانند Llama، Mistral یا Gemma استفاده کنند. این مقاله به‌طور جامع مراحل نصب و راه‌اندازی LM Studio روی سیستم‌عامل ویندوز و نحوه اجرای یک مدل آفلاین را توضیح می‌دهد..

چرا LM Studio؟

LM Studio به شما امکان می‌دهد مدل‌های زبان بزرگ را روی سیستم شخصی خود اجرا کنید و مزایای زیر را ارائه می‌دهد:

  • حفظ حریم خصوصی: داده‌های شما روی دستگاه محلی باقی می‌مانند و به سرورهای خارجی ارسال نمی‌شوند.
  • عملکرد آفلاین: پس از دانلود مدل‌ها، نیازی به اینترنت ندارید.
  • انعطاف‌پذیری: پشتیبانی از مدل‌های متن‌باز از مخازن مانند Hugging Face و امکان تنظیم پارامترها.
  • رابط کاربری ساده: مناسب برای کاربران مبتدی و حرفه‌ای، بدون نیاز به دانش پیچیده برای اجرا.

با این حال، برای اجرای مدل‌های بزرگ، به سخت‌افزار مناسب (مانند RAM کافی و GPU با پشتیبانی CUDA) نیاز دارید. در ادامه، مراحل نصب و راه‌اندازی را گام‌به‌گام توضیح می‌دهیم.

پیش‌نیازهای سخت‌افزاری و نرم‌افزاری

قبل از نصب LM Studio، اطمینان حاصل کنید که سیستم شما حداقل مشخصات زیر را دارد:

  • سیستم‌عامل: ویندوز 10 یا 11 (64 بیت).

  • پردازنده: پردازنده‌ای با پشتیبانی از AVX2 (اکثر پردازنده‌های مدرن این قابلیت را دارند).

  • RAM: حداقل 16 گیگابایت (برای مدل‌های بزرگ‌تر، 32 گیگابایت یا بیشتر توصیه می‌شود).

  • فضای دیسک: SSD با حداقل 50 گیگابایت فضای خالی (بسته به اندازه مدل).

  • کارت گرافیک (اختیاری): کارت گرافیک NVIDIA با پشتیبانی از CUDA برای شتاب‌دهی GPU (حداقل 8 گیگابایت VRAM توصیه می‌شود).

  • اتصال اینترنت: برای دانلود اولیه LM Studio و مدل‌ها.

گام 1: دانلود و نصب LM Studio

  1. دانلود LM Studio:

    • به وب‌سایت رسمی LM Studio (lmstudio.ai) مراجعه کنید.

    • در صفحه اصلی، بخش دانلود (Download) را پیدا کنید و نسخه مناسب برای ویندوز (x86 یا ARM) را انتخاب کنید. فایل نصبی حدود 400 مگابایت حجم دارد.

  2. اجرای فایل نصبی:

    • فایل دانلودشده (معمولاً با فرمت .exe) را از پوشه Downloads یا محل ذخیره‌سازی اجرا کنید.

    • در مرورگرهایی مانند Edge یا Chrome، ممکن است نیاز باشد تنظیمات امنیتی را بررسی کنید تا فایل‌های اجرایی بلاک نشوند.

    • در پنجره نصبی، گزینه‌های پیش‌فرض را بپذیرید و روی Next کلیک کنید تا نصب کامل شود.

    • پس از نصب، می‌توانید گزینه Launch LM Studio را انتخاب کنید تا برنامه باز شود.

  3. بررسی نصب:

    • پس از نصب، LM Studio به‌طور خودکار باز می‌شود و رابط کاربری ساده‌ای نمایش می‌دهد. اگر برنامه باز نشد، از منوی استارت یا دسکتاپ آن را اجرا کنید.

گام 2: دانلود یک مدل زبان

برای اجرای یک مدل آفلاین، ابتدا باید یک مدل زبان (مانند Llama 3.2، Gemma یا DeepSeek) را از مخازن متن‌باز مانند Hugging Face دانلود کنید. LM Studio این فرآیند را ساده کرده است.

  1. باز کردن بخش Discover:

    • در رابط کاربری LM Studio، روی تب Discover (نماد ذره‌بین در نوار کناری چپ) کلیک کنید.

  2. جستجوی مدل:

    • در نوار جستجو، نام مدل موردنظر را وارد کنید (مثلاً "Llama"، "Gemma" یا "Mistral").

    • می‌توانید از فیلترها برای انتخاب مدل‌های سازگار با سخت‌افزار خود استفاده کنید. مدل‌ها معمولاً در فرمت GGUF ارائه می‌شوند که با LM Studio سازگار است.

  3. انتخاب مدل مناسب:

    • مدل‌ها در نسخه‌های مختلف با کوانت‌سازی (Quantization) ارائه می‌شوند (مثل Q4، Q5 یا Q8). کوانت‌سازی به معنای فشرده‌سازی مدل برای کاهش مصرف منابع است:

      • Q4: مناسب برای سیستم‌های با RAM و VRAM کمتر (مثلاً 8 گیگابایت).

      • Q8: کیفیت بالاتر، اما نیاز به منابع بیشتر (مثلاً 16 گیگابایت VRAM).

    • برای شروع، مدلی کوچک مانند Llama 3.2 1B یا Gemma 2B را انتخاب کنید که به حدود 5-8 گیگابایت فضا نیاز دارد.

  4. دانلود مدل:

    • مدل موردنظر را انتخاب کنید و روی دکمه Download کلیک کنید. بسته به سرعت اینترنت و اندازه مدل، دانلود ممکن است چند دقیقه طول بکشد.

    • پس از دانلود، مدل در بخش My Models نمایش داده می‌شود.

گام 3: بارگذاری و اجرای مدل آفلاین

  1. انتخاب مدل:

    • در نوار کناری چپ، روی آیکون Chat (نماد گفت‌وگو) کلیک کنید.

    • از منوی کشویی بالای صفحه، مدل دانلودشده را انتخاب کنید (مثلاً Llama 3.2 1B).

  2. تنظیمات بارگذاری:

    • روی آیکون Settings (چرخ‌دنده) کنار مدل کلیک کنید تا تنظیمات بارگذاری را مشاهده کنید.

    • GPU Offloading: اگر کارت گرافیک NVIDIA دارید، گزینه شتاب‌دهی GPU را فعال کنید تا عملکرد بهبود یابد. برای سیستم‌های ضعیف‌تر، می‌توانید از CPU استفاده کنید.

    • Context Length: طول متن ورودی (معمولاً 2048 یا 4096 توکن کافی است).

    • Batch Size: برای سیستم‌های با منابع محدود، مقدار پیش‌فرض را نگه دارید.

  3. بارگذاری مدل:

    • روی دکمه Load کلیک کنید. بارگذاری ممکن است چند ثانیه تا چند دقیقه طول بکشد، بسته به سخت‌افزار و اندازه مدل.

    • پس از بارگذاری، مدل آماده استفاده است و می‌توانید به‌صورت آفلاین با آن تعامل کنید.

  4. گفت‌وگو با مدل:

    • در بخش Chat، در کادر پایین صفحه، سؤال یا دستور خود را تایپ کنید (مثلاً "یک داستان کوتاه بنویس").

    • مدل پاسخ را در همان پنجره تولید می‌کند. زمان پاسخ‌گویی به سخت‌افزار شما بستگی دارد (برای مثال، با GPU با 8 گیگابایت VRAM، پاسخ‌ها در حدود 10-30 ثانیه تولید می‌شوند).

گام 4: بهینه‌سازی و تنظیمات پیشرفته

برای بهبود عملکرد و استفاده بهتر از LM Studio، می‌توانید تنظیمات زیر را اعمال کنید:

  1. شتاب‌دهی GPU:

    • اگر کارت گرافیک NVIDIA دارید، اطمینان حاصل کنید که درایورهای CUDA نصب شده‌اند. در تنظیمات مدل، گزینه GPU Offload را فعال کنید.

    • برای سیستم‌های با VRAM محدود (4-8 گیگابایت)، از 10-50 لایه برای آفلود استفاده کنید. برای GPUهای قوی‌تر (24 گیگابایت VRAM)، می‌توانید آفلود کامل را انتخاب کنید.

  2. مدیریت فضای ذخیره‌سازی:

    • مدل‌های دانلودشده در پوشه پیش‌فرض LM Studio ذخیره می‌شوند. می‌توانید محل ذخیره‌سازی را از تنظیمات تغییر دهید.

    • برای صرفه‌جویی در فضا، مدل‌های غیرضروری را حذف کنید.

  3. اجرای سرور محلی:

    • LM Studio امکان راه‌اندازی یک سرور محلی سازگار با API OpenAI را فراهم می‌کند. برای فعال‌سازی:

      • در نوار کناری، روی Local Server کلیک کنید.

      • مدل موردنظر را انتخاب کنید و سرور را راه‌اندازی کنید.

      • این سرور به شما امکان می‌دهد مدل را از طریق API در برنامه‌های دیگر (مثل یک اپلیکیشن سی‌شارپ) استفاده کنید.

نمونه کد سی‌شارپ برای تعامل با سرور محلی LM Studio

برای توسعه‌دهندگانی که می‌خواهند از LM Studio در پروژه‌های خود استفاده کنند، می‌توانید با API محلی آن تعامل کنید. در زیر، یک نمونه کد سی‌شارپ برای ارسال درخواست به سرور محلی LM Studio ارائه شده است:

  • توضیحات:

    • این کد یک درخواست POST به سرور محلی LM Studio (پورت پیش‌فرض 1234) ارسال می‌کند.

    • مدل موردنظر (مثلاً llama-3.2-1b) باید با نامی که در LM Studio بارگذاری کرده‌اید مطابقت داشته باشد.

    • برای اجرای این کد، بسته Newtonsoft.Json را از NuGet نصب کنید.

    • این نمونه نشان می‌دهد چگونه می‌توانید از LM Studio در پروژه‌های سی‌شارپ استفاده کنید، اما بدون دانش برنامه‌نویسی، پیاده‌سازی چنین کدی دشوار است.

مشکلات و راه‌حل‌ها

  1. مشکل: مدل بارگذاری نمی‌شود یا کند است:

    • علت: سخت‌افزار ناکافی یا تنظیمات نادرست.

    • راه‌حل: مدل کوچک‌تری (مثل Q4) انتخاب کنید یا GPU Offload را فعال کنید.

  2. مشکل: خطای کمبود RAM یا VRAM:

    • علت: مدل انتخاب‌شده بیش از حد بزرگ است.

    • راه‌حل: از مدل‌های کوانت‌شده با حجم کمتر استفاده کنید یا RAM/VRAM سیستم را ارتقا دهید.

  3. مشکل: اتصال به API محلی کار نمی‌کند:

    • علت: سرور محلی فعال نیست یا پورت اشتباه است.

    • راه‌حل: مطمئن شوید سرور در LM Studio فعال است و پورت (معمولاً 1234) درست تنظیم شده است.

نقش دانش برنامه‌نویسی در استفاده از LM Studio

گرچه LM Studio رابط کاربری ساده‌ای دارد، اما برای استفاده پیشرفته (مثل ادغام با اپلیکیشن‌ها یا تنظیمات پیچیده)، دانش برنامه‌نویسی ضروری است. مدرس بهمن‌آبادی در دوره جامع برنامه‌نویسی وب با آموزش سی‌شارپ و ابزارهای هوش مصنوعی، به شما کمک می‌کند تا بتوانید پروژه‌های حرفه‌ای با ابزارهایی مانند LM Studio بسازید. این دوره به شما امکان می‌دهد تا با یادگیری سی‌شارپ، APIهای محلی را در پروژه‌های خود ادغام کنید و از مدل‌های آفلاین به‌صورت مؤثر استفاده کنید.

نتیجه‌گیری

نصب و راه‌اندازی LM Studio روی ویندوز فرآیندی ساده است که با چند کلیک می‌توانید مدل‌های زبان بزرگ را به‌صورت آفلاین اجرا کنید. با دانلود یک مدل مناسب از Hugging Face و تنظیم شتاب‌دهی GPU، می‌توانید از قابلیت‌های هوش مصنوعی بدون نیاز به اینترنت بهره ببرید. برای استفاده پیشرفته‌تر، مانند ادغام با اپلیکیشن‌های سی‌شارپ، دانش برنامه‌نویسی ضروری است. دوره جامع برنامه‌نویسی وب مهندس بهمن‌آبادی با آموزش‌های پروژه‌محور در سی‌شارپ و ابزارهای هوش مصنوعی، بهترین راه برای یادگیری این مهارت‌ها و توسعه پروژه‌های حرفه‌ای است. حالا وقتشه که دست به کار بشید! LM Studio را نصب کنید، یک مدل کوچک مثل Llama 3.2 1B دانلود کنید و با ثبت‌نام در دوره مهندس بهمن‌آبادی، مهارت‌های خود را به سطح بعدی ببرید! 

منابع:

وب‌سایت رسمی LM Studio