هوش مصنوعی جدید در دنیای برنامه نویسی؛ علی‌بابا از Qwen۳.۶ رونمایی کرد

|
۱۴۰۵/۰۲/۰۴
|
۰۸:۰۰:۰۲
| کد خبر: ۲۳۳۳۲۱۵
هوش مصنوعی جدید در دنیای برنامه نویسی؛ علی‌بابا از Qwen۳.۶ رونمایی کرد
برنا - گروه علمی و فناوری: علی‌بابا مدل جدید Qwen۳.۶-۲۷B را با تمرکز بر کدنویسی ایجنت‌محور و اجرای رایگان محلی عرضه کرد.

تیم توسعه‌دهنده Qwen در شرکت علی‌بابا از مدل جدید هوش مصنوعی Qwen۳.۶-۲۷B رونمایی کرد؛ مدلی ۲۷ میلیارد پارامتری که به‌عنوان نخستین نسخه Dense در خانواده Qwen۳.۶ عرضه می‌شود و به‌صورت رایگان برای اجرای محلی در دسترس قرار گرفته است. 

به گزارش برنا، به گفته توسعه‌دهندگان این مدل یکی از قدرتمندترین مدل‌های ۲۷ میلیارد پارامتری در حوزه برنامه‌نویسی به شمار می‌رود و با تمرکز ویژه بر کاربرد‌های واقعی توسعه نرم‌افزار طراحی شده است.

نخستین مدل Dense در خانواده Qwen۳.۶

برخلاف نسخه‌های مبتنی بر معماری Mixture of Experts (MoE)، مدل Qwen۳.۶-۲۷B از معماری Dense بهره می‌برد؛ به این معنا که تمامی پارامتر‌ها در هر مرحله استنتاج فعال هستند. این رویکرد معمولا به پایداری بیشتر در خروجی‌ها و رفتار قابل پیش‌بینی‌تر مدل منجر می‌شود؛ موضوعی که به‌ویژه در سناریو‌های عملیاتی و تولیدی اهمیت بالایی دارد.

این مدل به‌صورت رایگان منتشر شده و امکان اجرای محلی آن فراهم است؛ قابلیتی که برای توسعه‌دهندگان، شرکت‌ها و تیم‌هایی که به‌دنبال حفظ حریم خصوصی داده‌ها و کاهش وابستگی به سرویس‌های ابری هستند اهمیت ویژه‌ای دارد.

 بهبود چشمگیر در کدنویسی ایجنت‌محور

به گفته تیم Qwen نسخه ۳.۶-۲۷B نسبت به نسل‌های قبلی پیشرفت قابل توجهی در حوزه کدنویسی ایجنت‌محور (Agentic Coding) داشته است. در این رویکرد مدل صرفا به تولید قطعه‌کد‌های منفرد محدود نمی‌شود بلکه می‌تواند همانند یک ایجنت نرم‌افزاری ساختار پروژه را تحلیل کند، وابستگی‌ها را درک کند و تغییرات هماهنگ را در چندین فایل به‌طور هم‌زمان اعمال کند.

این مدل به‌طور خاص برای سناریو‌هایی بهینه شده که شامل:

- درک ساختار کامل یک مخزن (Repository)

- ویرایش هم‌زمان چند فایل مرتبط

- حفظ انسجام میان ماژول‌ها

- تولید خروجی نهایی قابل اجرا و تست‌پذیر

می‌شود؛ قابلیتی که آن را به ابزاری مناسب برای توسعه نرم‌افزار در مقیاس واقعی تبدیل می‌کند.

استفاده از مکانیزم حفظ تفکر

یکی از ویژگی‌های فنی مهم Qwen۳.۶-۲۷B بهره‌گیری از مکانیزمی موسوم به حفظ تفکر یا Thinking Preservation است. این مکانیزم با هدف ارتقای انسجام استدلالی مدل در فرآیند حل مسئله طراحی شده و تلاش می‌کند جریان منطقی تفکر مدل در مراحل مختلف پردازش حفظ شود.

بر اساس توضیحات تیم توسعه این قابلیت به بهبود کیفیت تصمیم‌گیری مدل در مسائل پیچیده به‌ویژه در فرآیند‌های چندمرحله‌ای مانند طراحی و بازآرایی کد کمک می‌کند و از بروز ناهماهنگی‌های رایج در مدل‌های زبانی جلوگیری می‌کند.

مقایسه با نسخه‌های MoE و مدل‌های بزرگ‌تر

انتشار Qwen۳.۶-۲۷B تنها چند هفته پس از معرفی مدل MoE این خانواده با نام Qwen۳.۶-۳۵B-A۳B صورت گرفته است. مدل ۳۵B-A۳B اگرچه از نظر تعداد کل پارامتر‌ها بزرگ‌تر است، اما در هر بار اجرا تنها حدود ۳ میلیارد پارامتر فعال دارد. این در حالی است که مدل ۲۷B Dense تمامی پارامتر‌های خود را به‌طور کامل درگیر می‌کند.

به گفته تیم Qwen نسخه ۲۷B در برخی بنچمارک‌ها عملکردی بهتر از مدل ۳۵B-A۳B و حتی مدل بزرگ‌تر Qwen۳.۵-۳۹۷B-A۱۷B از خود نشان داده است. این موضوع نشان می‌دهد که تمرکز بر بهینه‌سازی معماری و کاربرد‌های عملی می‌تواند در برخی سناریو‌ها از افزایش صرف تعداد پارامتر‌ها موثرتر باشد.

توسعه‌دهندگان تاکید کرده‌اند که Qwen۳.۶-۲۷B با هدف دستیابی به پایداری، قابلیت اطمینان و عملکرد قابل استفاده در محیط‌های واقعی توسعه یافته است؛ نه صرفا کسب امتیاز بالاتر در بنچمارک‌های آزمایشگاهی. این رویکرد نشان‌دهنده حرکت تدریجی رقابت در حوزه مدل‌های زبانی از بزرگ‌تر بودن به سمت کاربردی‌تر بودن است.

با توجه به انتشار رایگان و قابلیت اجرای محلی انتظار می‌رود این مدل به‌سرعت مورد توجه جامعه توسعه‌دهندگان، پروژه‌های متن‌باز و شرکت‌های فعال در حوزه ابزار‌های برنامه‌نویسی مبتنی بر هوش مصنوعی قرار گیرد.

انتهای پیام/

نظر شما
captcha
پیشنهاد سردبیر