پشتیبانی از LLM ها تا 128 میلیارد پارامتر در سری Ryzen AI MAX+ 300 Strix Halo

گزارش‌های منتشر شده نشان می‌دهند که پردازنده‌های +Ryzen AI MAX شرکت AMD که به 128 گیگابایت حافظه مجهز شده‌اند، اکنون از مدل‌های زبان بزرگ (LLM) تا 128 میلیارد پارامتر پشتیبانی می‌کند. اگر در رابطه با این موضوع کنجکاو هستید در ادامه این مطلب با ما همراه باشید.

آپدیت بزرگ برای پردازنده‌های سری Ryzen AI MAX+ 300 Strix Halo شرکت AMD

کمپانی AMD به تازگی یک آپدیت بزرگ برای سری پردازنده‌های +Ryzen AI MAX خود منتشر کرده است که پشتیبانی از مدل‌های زبان بزرگ یا همان LLM ها را در سیستم‌عامل ویندوز گسترش می‌دهد. این اقدام بر اساس آنچه کمپانی AMD در رویداد CES 2025 به نمایش گذاشت بنا شده است؛ جایی که پردازنده‌های Ryzen AI برای اولین بار موفق شدند Llama 70B را با استفاده از قابلیت‌های llama.cpp و LM Studio به صورت محلی اجرا کنند. با کمک درایور جدید Adrenalin Edition 25.8.1 WHQL، پردازنده‌هایی مانند نسخه 395 +Ryzen AI MAX که از 128 گیگابایت رم پشتیبانی می‌کند، اکنون قادر خواهند بود مدل‌هایی با حداکثر 128 میلیارد پارامتر را در Vulkan llama.cpp مدیریت کنند. این امر به لطف حافظه گرافیکی متغیر (Variable Graphics Memory) شرکت AMD تحقق یافته است که امکان تخصیص حداکثر 96 گیگابایت رم را برای بارهای کاری هوش مصنوعی فراهم خواهد کرد.

علاوه بر آن، این موضوع پردازنده 395 +Ryzen AI MAX را به اولین تراشه هوش مصنوعی ویندوز تبدیل خواهد کرد که می‌تواند Meta’s Llama 4 Scout 109B (با 17 میلیارد پارامتر فعال) را به صورت محلی و با پشتیبانی کامل از قابلیت‌های vision و MCP اجرا کند. از آنجایی که Llama Scout با استفاده از mixture-of-experts پیکربندی شده است، در هر زمان تنها بخش‌های مورد نیاز مدل را فعال می‌کند‌ این رویکرد باعث حفظ عملکرد قابل قبول و دستیابی به سرعت 15 توکن در ثانیه در آزمایش‌ها خواهد شد. این پلتفرم از انواع مختلفی از اندازه‌های مدل و فرمت‌های فشرده‌سازی (کوانتیزاسیون) از جمله GGUF پشتیبانی می‌کند که آن را برای کاربردهای متنوع بسیار انعطاف‌پذیر می‌سازد.

مهم‌ترین ارتقا: پشتیبانی از اندازه‌های بزرگ متن

یکی از مهم‌ترین بهبودها، پشتیبانی از اندازه‌های بزرگ متن (context sizes) است. باید اشاره کرد که اکثر تنظیمات در حدود 4096 توکن محدود می‌شوند، با این وجود این پلتفرم قادر است با فعال‌سازی قابلیت‌های Flash Attention و Q8 KV Cache حداکثر 256,000 توکن را پردازش کند. چنین پنجره متنی وسیعی، امکان انجام کارهای پیشرفته‌تر مانند تجزیه و تحلیل و خلاصه‌سازی کل اسناد را فراهم می‌کند.

برای کاربران عادی، تنظیم طول متن 32,000 توکن با یک مدل کوچکتر، برای استفاده اولیه و اساسی از ابزار کافی خواهد بود. با این حال برای انجام کارهای پیچیده‌تر، مانند جریان‌های کاری که شامل استفاده همزمان از چندین ابزار هوش مصنوعی (multi-tool workflows) یا پردازش حجم بسیار زیادی از توکن‌ها (high-volume token streams) هستند، به سخت‌افزار بسیار قدرتمندتری نیاز خواهید داشت. این نوع کاربردها فشار زیادی بر سیستم وارد می‌کنند و نیازمند منابع محاسباتی قوی و پایدار هستند. دقیقاً در این نقطه است که محصولاتی مانند پردازنده Ryzen AI Max+ 395 با پشتیبانی از 128 گیگابایت حافظه رم وارد عمل می‌شوند. این نوع سخت‌افزارها برای پاسخگویی به نیازهای سنگین و پیچیده طراحی شده‌اند. متأسفانه، چنین پیکربندی قدرتمندی به طور قابل توجهی گران‌قیمت است و حداقل 2000 دلار هزینه دارد که آن را برای بسیاری از کاربران غیرقابل دسترس می‌کند.

امکان ارتقاء حافظه رم وجود ندارد

نکته قابل توجه این است که در اکثر (تقریبا همه) پردازنده‌های Ryzen AI MAX که تاکنون معرفی و به بازار عرضه شده‌اند، امکان ارتقاء حافظه رم وجود ندارد. این محدودیت به دلیل استفاده از فناوری LPDDR5X به وجود آمده است که معمولاً حافظه را مستقیماً روی مادربرد لحیم می‌کند. با این حال، امیدواریم که در آینده برخی شرکت‌ها راه‌حل‌های جایگزینی برای این محدودیت ارائه دهند و امکان ارتقاء حافظه را فراهم آورند.

کسانی که پردازنده‌های جدید Ryzen AI MAX دارند، اکنون می‌توانند پیش‌نمایش درایور ویژه را دانلود کنند که حافظه گرافیکی متغیر بزرگتری را فعال می‌کند.

Leave a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *