رویکرد جدید استدلال ماشینی الهام گرفته از ساختار مغز

رویکرد جدید استدلال ماشینی الهام گرفته از ساختار مغز

0 نظرات نگار بابایی

5 دقیقه

هوش مصنوعی الهام‌گرفته از مغز رویکردی جدید برای استدلال ماشینی ارائه می‌دهد

محققان شرکت Sapient در سنگاپور معماری‌ای الهام‌گرفته از مغز برای هوش مصنوعی معرفی کرده‌اند که «مدل استدلال سلسله‌مراتبی» (HRM) نام دارد. بر خلاف مدل‌های زبانی بزرگ (LLM) مرسوم که بر محرک‌های زنجیرهٔ تفکر (CoT) و شمار زیادی پارامتر تکیه می‌کنند، HRM پردازش اطلاعات را به‌صورت سلسله‌مراتبی و در بازه‌های زمانی متعدد شبیه‌سازی می‌کند؛ همان‌طور که در مغز انسان مشاهده می‌شود. طبق پیش‌چاپی که در 26 ژوئن در arXiv منتشر شد، HRM با استفاده از پارامترها و مثال‌های آموزشی بسیار کمتر، عملکرد قوی‌ای روی بنچمارک‌های سخت استدلالی نشان می‌دهد. مطالعه گزارش می‌دهد که HRM تقریباً با 27 میلیون پارامتر و آموزش روی حدود 1,000 مثال اجرا شده است که در مقابل مدل‌های مدرن LLM که غالباً میلیاردها یا حتی تریلیون‌ها پارامتر دارند، تفاوت چشم‌گیری است.

تیم تحقیق HRM را روی بنچمارک ARC-AGI، مجموعه‌ای چالش‌برانگیز برای ارزیابی پیشرفت در جهت هوش مصنوعی عمومی (AGI)، آزمایش کردند. HRM در ARC-AGI-1 نمرهٔ 40.3٪ و در ARC-AGI-2 نمرهٔ 5٪ کسب کرد — نتایجی که در مقایسه با چندین مدل معاصر از جمله OpenAI's o3-mini-high، Anthropic's Claude 3.7 و Deepseek R1 برتری داشت. این ارقام نشان می‌دهد که معماری و استراتژی آموزش می‌توانند به‌طور قابل‌توجهی توانایی استدلال را تحت‌تأثیر قرار دهند بدون نیاز به افزایش مقیاس مدل یا حجم داده‌ها.

نحوهٔ کار HRM: ماژول‌های سلسله‌مراتبی و پالایش تکراری

HRM به‌جای شکستن صریح مسئله به مراحل زبانی‌پذیر مانند زنجیرهٔ تفکر، از یک عبور پیشرو دوماژوله استفاده می‌کند که پردازش سلسله‌مراتبی در سیستم‌های عصبی را منعکس می‌کند. یک ماژول سطح‌بالا برنامه‌ریزی انتزاعی و کندتر را در بازه‌های زمانی طولانی‌تر انجام می‌دهد، در حالی که ماژول سطح‌پایین محاسبات سریع و جزئی‌تر را اجرا می‌کند. به‌جای تولید گام‌های میانی آشکار به زبان طبیعی، HRM پالایش تکراری را در دوره‌های کوتاه محاسباتی به‌کار می‌گیرد. هر دوره بررسی می‌کند که آیا باید به پالایش ادامه داد یا پاسخ نهایی صادر شود. این روش — پالایش تکراری — یک استراتژی عددی شناخته‌شده است که با به‌روزرسانی مکرر تقریب، دقت راه‌حل را افزایش می‌دهد.

مقایسه با زنجیرهٔ تفکر

بیشتر LLMهای پیشرفته از CoT برای شکستن مسائل پیچیده به زیرمراحل قابل‌خواندن توسط انسان استفاده می‌کنند. CoT می‌تواند مؤثر باشد اما محدودیت‌های ثبت‌شده‌ای دارد: تجزیهٔ وظایف شکننده، نیاز داده‌ای قابل‌توجه، و افزایش تأخیر ناشی از تولید چندمرحله‌ای. طراحی HRM می‌کوشد این مشکلات را با جاسازی کنترل سلسله‌مراتبی و پالایش مستقیماً در محاسبهٔ پیشرو دور بزند و نیاز به برچسب‌های میانی نظارت‌شدهٔ گسترده را کاهش دهد.

عملکرد در بنچمارک‌ها، بازتولید و نکات احتیاطی

HRM عملکرد قوی‌ای در وظایفی نشان داد که نیاز به استدلال ساخت‌یافته دارند، از جمله نتایج نزدیک به کامل در مسائل پیچیدهٔ سودوکو و بهبود در مسیریابی معما در مقایسه با LLMهای معمول. نویسندگان پیاده‌سازی خود را در GitHub متن‌باز کردند تا امکان تایید مستقل فراهم شود. پس از بازتولید نمرات ارسال‌شده، برگزارکنندگان ARC-AGI یافته‌های اضافی را گزارش کردند: به‌نظر می‌رسد برخی از بهبودهای HRM عمدتاً ناشی از یک فرایند پالایش اعمال‌شده در زمان آموزش است که در گزارش اولیه به‌طور کامل مستندسازی نشده بود. نکتهٔ مهم این است که مقالهٔ arXiv هنوز مورد بازبینی همتا قرار نگرفته است، بنابراین جامعهٔ گسترده باید نتایج را موقتی تلقی کند تا مطالعات پیگیری و حسابرسی کد مشخص کنند کدام عوامل برای عملکرد حیاتی‌اند.

تفاوت بین اندازهٔ جمع‌و‌جور مدل HRM و مقیاس عظیم انتشارهای اخیر LLM یک موضوع تحقیقاتی جاری را برجسته می‌کند: بهبودهای الگوریتمی و طراحی معماری گاهی می‌توانند جایگزین افزایش خام پارامترها شوند. این موضوع پیامدهایی برای کارایی محاسباتی، مصرف انرژی و دسترسی پژوهشگران و مؤسسات بدون بودجهٔ زیرساختی عظیم به قابلیت‌های پیشرفتهٔ هوش مصنوعی دارد.

دیدگاه کارشناسان

«HRM نشان می‌دهد که طراحی ساختاریافته و الهام‌گرفته از مغز می‌تواند استدلال رقابتی را بدون مقیاس‌گذاری افراطی فراهم کند»، دکتر لینا مورنو، نوروساینتیست محاسباتی (شخصیت ساختگی)، می‌گوید. «سؤالات کلیدی اکنون قابلت reproducibility و تعمیم‌پذیری هستند: آیا آموزش و پالایش به‌سبک HRM قابل انتقال به دامنهٔ وسیع‌تری از وظایف و مجموعه‌داده‌ها است؟ اگر چنین باشد، ممکن است شاهد گرایشی به‌سوی سیستم‌های استدلالی کارآمدتر و قابل‌فهم‌تر باشیم.»

نتیجه‌گیری

HRM یک جایگزین امیدوارکننده و الهام‌گرفته از مغز برای استدلال مبتنی بر زنجیرهٔ تفکر در مدل‌های زبانی بزرگ ارائه می‌دهد. نتایج اولیه در بنچمارک ARC-AGI بهبود استدلال را با پارامترها و مثال‌های آموزشی بسیار کمتر نشان می‌دهد، اما این یافته‌ها تا زمان بازبینی همتا و تحلیل‌های مستقل موقتی باقی می‌مانند. اینکه طراحی سلسله‌مراتبی HRM یا مراحل پالایشِ مستندسازی‌نشده محرک اصلی موفقیت باشند، تعیین‌کنندهٔ نحوهٔ پذیرش و گسترش این رویکرد توسط جامعه خواهد بود. فعلاً HRM تأکید می‌کند که معماری‌ها و تکنیک‌های آموزشی هوشمندانه می‌توانند نیاز به مقیاس‌های فزایندهٔ مدل را در پیشبرد توانایی‌های استدلالی هوش مصنوعی تکمیل یا گاه کاهش دهند.

منبع: livescience

من نگارم، عاشق آسمون و کشف ناشناخته‌ها! اگر مثل من از دیدن تلسکوپ و کهکشان‌ها ذوق‌زده می‌شی، مطالب من رو از دست نده!

نظرات

ارسال نظر

مطالب مرتبط