8 دقیقه
سامسونگ پژوهشگری را معرفی کرده که ممکن است دید ما نسبت به اندازهٔ مدلهای زبانی را تغییر دهد: Tiny Recursion Model یا TRM. این مدل تنها با هفت میلیون پارامتر طراحی شده، اما با روشهای استدلال بازگشتی و بازنگری پیوستهٔ پاسخها نشان میدهد که «بزرگتر همیشه بهتر نیست». در این گزارش مفصل به معماری، جزئیات فنی، نتایج بنچمارک و پیامدهای عملی TRM میپردازیم و توضیح میدهیم چرا این نوع مدلهای کمحجم برای آیندهٔ هوش مصنوعی اهمیت دارند.
چرا یک مدل کوچک میتواند بهتر از غولها عمل کند؟
ایدهٔ ساده اما تأثیرگذار TRM این است که به جای افزایش شمار لایهها و پارامترها یا ترکیب چند شبکهٔ بزرگ، از فرایند بازگشتی برای بهبود گامبهگام خروجی استفاده کند. به عبارتی مدل خودش را اصلاح میکند: خروجی را تولید میکند، آن را بازبینی میکند، و دوباره تا زمانی که پاسخ پایدار شود ادامه میدهد. این حلقهٔ فیدبکِ سبک به TRM امکان میدهد با مصرف محاسباتی بسیار کمتر به دقت و کیفیتی نزدیک یا در برخی تستها بهتر از مدلهای بسیار بزرگ مثل o3 Mini از OpenAI و Gemini 2.5 Pro از گوگل دست یابد.
یک نکتهٔ طراحی: بازگشت کنترلشده
TRM با استفاده از یک شبکهٔ دو لایه و یک مکانیزم توقف سبک (halting mechanism) تصمیم میگیرد چه زمانی پاسخ «کافی» است. این مکانیزم شبیه به اندکی هوش متقابل درون مدل عمل میکند: هر بار پیشبینی انجام میشود، سیگنالی ساده تعیین میکند آیا باید یک مرحلهٔ بازبینی دیگر انجام شود یا خیر. این کنترلِ توقف، هم از نظر پیچیدگی محاسباتی و هم از نظر ثبات پاسخ اهمیت دارد.
معماری و مکانیسم ریکرسیو: سادگی که مقیاسپذیر میشود
در اوایل سال جاری مدل دیگری به نام Hierarchical Reasoning Model (HRM) نشان داده بود که هماهنگی بین فرکانسهای پردازش سریع و کند میتواند استدلال را بهبود بخشد. TRM آن ایده را به شکل جمع و جورتری اجرا میکند: به جای چند شبکهٔ موازی با سرعتهای مختلف، یک شبکهٔ دو لایه تکرار شونده قرار دارد که پیشبینیهای خودش را بازخورد میدهد و با هر تکرار، پاسخ را پالایش میکند.
مزایای فنی این رویکرد
- کاهش پارامتر: با هفت میلیون پارامتر، TRM در محدودهٔ مدلهای خیلی سبک قرار میگیرد و هزینهٔ حافظه و محاسبات را پایین نگه میدارد.
- رفتار قابل تفسیرتر: حلقهٔ بازخورد و مکانیزم توقف سازوکاری شفافتر برای پیگیری فرایند استدلال فراهم میآورد تا عملیات «جعبهسیاهِ صرف».
- پالایش تدریجی: به جای تولید یک جواب یکباره، مدل میتواند پاسخ را مرحلهبهمرحله بهتر کند، که در وظایف پیچیدهٔ استدلالی مفید است.
نتایج و بنچمارکها: وقتی کوچکتر یعنی سریعتر و مؤثرتر
تیم تحقیقاتی سامسونگ گزارش داده که TRM در برخی بنچمارکهای استدلالی، از جمله تستهایی که مشکلهایی مانند حل معما، استدلال چندمرحلهای و برخی زیرمجموعههای ارزشیابی زبان طبیعی را بررسی میکنند، توانسته عملکردی رقابتی با مدلهای بزرگتر نشان دهد. در برخی آزمونها حتی بهتر از o3 Mini و Gemini 2.5 Pro ظاهر شده است—موضوعی که نشان میدهد ترکیب معماری مناسب و الگوریتمهای بازخوردی میتواند مزیتهای واقعی ایجاد کند.
مثال عملی: حل سودوکو و آزمونهای ARC-AGI
به عنوان مثال، تیم سامسونگ اشاره کرده که برای آموزش مدل در یک وظیفهٔ مرتبط با سودوکو از GPUs مانند Nvidia L40S استفاده کردهاند؛ همچنین برای چالشهای سنگینتر شبیه ARC-AGI از Nvidia H100 نام برده شده است. این اشارهها نشان میدهد که علیرغم تمرکز بر حداقل محاسبه برای نمونههای پایه، برای آزمایشهای مقیاسی یا ارزیابیهای دشوارتر از سختافزار قدرتمند نیز استفاده شده است.
چرا کارایی محاسباتی اهمیت دارد؟
افزایش هزینهٔ انرژی و نیاز به زیرساختِ محاسباتی گسترده، توسعهٔ مدلهای بسیار بزرگ را برای بسیاری از شرکتها و پژوهشگران غیرعملی کرده است. مدلهای کمپارامتر و کممصرف مانند TRM این امکان را فراهم میکنند که هوش مصنوعی استدلالی روی سختافزار محدودتر و حتی دستگاههای لبهای (edge devices) به کار گرفته شود. تصور کنید یک مدل با توان استدلالی روی لپتاپهای معمولی، تلفنهای هوشمند یا دستگاههای IoT؛ این همان دریچهای است که TRM به روی کاربردهای واقعی باز میکند.
مزایای زیستمحیطی و اقتصادی
- کاهش مصرف انرژی و ردپای کربنی در آموزش و استقرار مدل.
- کاهش هزینههای سرویسدهی و نگهداری برای شرکتهایی که نمیخواهند به خوشههای عظیم GPU وابسته باشند.
- دسترسی بهتر به هوش مصنوعی برای شرکتهای کوچک، استارتآپها و مؤسسات تحقیقاتی با منابع محدود.
کد باز و نکات عملی برای توسعهدهندگان
یکی از نکات مهم دربارهٔ TRM این است که سامسونگ کد آن را تحت مجوز MIT در گیتهاب منتشر کرده است. این مخزن شامل اسکریپتهای آموزش و ارزیابی، سازندههای مجموعهداده و پیکربندیهایی است که در آزمایشها استفاده شدهاند. آزادی استفاده و تغییر بر اساس مجوز MIT باعث میشود پژوهشگران و شرکتها بتوانند مدل را تکرار کنند، برای وظایف خودشان تنظیم نمایند و یا ایدهها را گسترش دهند.
چگونه از TRM در پروژههای واقعی استفاده کنیم؟
اگر میخواهید TRM را در کار خود پیاده کنید، چند نکتهٔ عملی مفید است:
- شروع با پیکربندی مرجع: از پیکربندیهایی که تیم منتشر کرده استفاده کنید تا نتایج پایه را بازتولید کنید.
- آزمایش با حلقههای بازخورد: تعداد تکرارها و آستانهٔ توقف را براساس وظیفهٔ خود تنظیم کنید تا توازن بین کیفیت و هزینهٔ محاسباتی برقرار شود.
- انتقال یادگیری و فاینتیون: با توجه به کوچک بودن مدل، فاینتیون روی مجموعهدادههای تخصصی معمولاً سریع و مقرونبهصرفه است.
- پلتفرمهای استقرار سبک: برای کاربردهای لبهای، مدل را با ابزارهای کمحجم مانند ONNX یا نسخههای کوچکشدهٔ فریمورکها بهینه کنید.
پیامدها برای اکوسیستم هوش مصنوعی
TRM یادآوری میکند که نوآوری معماری میتواند به اندازهٔ افزایش مقیاس ارزشمند باشد. در یک دههٔ اخیر تمرکز زیادی بر افزایش پارامترها و مقیاس مدلها بوده است؛ اما اکنون با افزایش هزینههای محاسباتی و نگرانیهای زیستمحیطی، راهحلهای سبک و هوشمندانه مانند TRM جذابیت بیشتری پیدا کردهاند.
آیا TRM میتواند پایهٔ نسل جدید مدلها شود؟
جواب کوتاه: احتمالا. TRM نشان میدهد که ترکیب استدلال بازگشتی، پالایش مرحلهای و مکانیزم توقف میتواند به معماریهایی منجر شود که از نظر عملکردی بهینه و از نظر عملیاتی منعطف هستند. طراحان معماری میتوانند از این ایده برای توسعهٔ مدلهای هیبریدی بهره ببرند: مدلهایی که در لبه سبک هستند اما در صورت نیاز به سرورهای قدرتمند متصل میشوند تا کارهای پیچیدهتر را انجام دهند.
مقایسه با رویکردهای دیگر: کجا TRM برتری دارد و کجا نه
TRM در زمینهٔ بهینگیِ مصرف منابع و توانایی اجرای روی سختافزار محدود امتیاز بالایی دارد. اما در برخی وظایف که نیازمند ذخیرهٔ مقادیر عظیم دانش یا پردازشهای زبانی بسیار پیچیده هستند، مدلهای خیلی بزرگ همچنان مزیت خواهند داشت. انتخاب بین TRM و مدلهای بزرگ بستگی به معیارهایی مثل هدف کاربرد، بودجهٔ محاسباتی، نیازهای پاسخدهی لحظهای و الزامات حریم خصوصی دارد.
یک مقایسهٔ کاربردمحور
- رباتهای مکالمه در دستگاههای تلفن همراه: TRM میتواند گزینهٔ مناسبتری باشد چون مصرف کمتر و پاسخ سریعتر دارد.
- تحلیلهای عظیم داده و تولید متن طولانی: مدلهای بزرگتر هنوز معمولاً عملکرد بهتری ارائه میدهند.
- سیستمهای ترکیبی (edge+cloud): TRM میتواند در لبه وظایف پیشپردازشی یا استدلال سبک را انجام دهد و در صورت نیاز از ابر برای مراحل سنگینتر کمک بگیرد.
نکات امنیتی و اخلاقی
هرچند مدلهای کوچکتر خطرات کمتری از لحاظ مصرف انرژی دارند، اما مسائل امنیتی و اخلاقی همچنان پابرجا هستند. منتشر شدن کد تحت مجوز MIT به معنای دسترسی آزاد است؛ از این رو باید مراقبتهایی در استفادهٔ تجاری، جلوگیری از سوءاستفاده و ارزیابی تعصبات دادهای انجام شود. پژوهشگران باید مجموعهدادهها را بررسی کنند، آزمایشهای رفتارگرایانه و ایمنی را انجام دهند و کنترلهایی برای جلوگیری از تولید محتوی مضر پیاده کنند.
نتیجهگیری ضمنی: رویکردی متعادل به آیندهٔ AI
TRM نشان میدهد که مسیر پیشرفت در هوش مصنوعی تنها از طریق افزایش بیوقفهٔ پارامترها و توان محاسباتی طی نمیشود؛ نوآوری در معماری و الگوریتمها میتواند دسترسیپذیری، کارایی و مقرونبهصرفگی را بهبود دهد. برای شرکتها، پژوهشگران و توسعهدهندگانی که به دنبال هوش مصنوعی قابل استقرار در دنیای واقعی هستند، مدلهایی مانند TRM انگیزهٔ جدیدی فراهم میکنند تا تفکر خود را به سمت طراحیهای هوشمندانهتر معطوف سازند.
تصور کنید دستگاههایی که امروز به خاطر محدودیت سختافزاری از داشتن «هوش استدلالی» محروماند، فردا با مدلهای کمحجم و بهینهسازی شده قادر به انجام وظایف پیچیدهٔ تصمیمگیری و تحلیل باشند؛ چنین آیندهای با رویکردهایی شبیه TRM نزدیکتر به نظر میرسد.
منبع: sammobile
ارسال نظر