چرا مدل های زبانی بزرگ به کشف های نوآورانه نوبل نمی رسند

توماس ولف می‌گوید مدل‌های زبانی کنونی دستیارهای پژوهشی قوی‌اند اما احتمال تولید کشف‌های بنیادین و نوبلی از آن‌ها کم است؛ چرا و چه مسیرهایی محتمل‌اند.

نظرات
چرا مدل های زبانی بزرگ به کشف های نوآورانه نوبل نمی رسند

7 دقیقه

توماس ولف، پژوهشگر برجسته در شرکت Hugging Face، هشدار می‌دهد که نسل فعلی مدل‌های زبانی بزرگ احتمالاً قادر به تولید کشف‌های علمی واقعاً نوآورانه و در سطح نوبل نخواهند بود. او این سیستم‌ها را نه به‌عنوان جایگزین ایده‌پردازی ریشه‌ای، بلکه به‌عنوان دستیاران قدرتمند می‌بیند که در تولید ایده‌ها، تحلیل داده‌ها و تسهیل پژوهش مفیدند، اما منشاء نظریه‌های پارادایم‌شکن نخواهند بود.

چرا چت‌بات‌های عمومی تا کشف واقعی فاصله دارند

ولف توضیح می‌دهد که مشکل ریشه‌ای و ساختاری است. چت‌بات‌های مدرن عمدتاً برای پیش‌بینی محتمل‌ترین توکن بعدی در یک دنبالهٔ نوشتار آموزش دیده‌اند. این هدف، آن‌ها را در کامل کردن جملات، خلاصه‌سازی تحقیقات و ارائه پیشنهادهای به‌ظاهر منطقی بسیار ماهر می‌کند؛ اما در تولید ایده‌هایی که فرضیات رایج را به‌چالش می‌کشند، محدودیت دارد.

دانشمندان پیشگام و برندگان جوایز بزرگ معمولاً تفکراتی خلاف جریان دارند: آن‌ها چارچوب‌های پذیرفته‌شده را زیر سؤال می‌برند و ایده‌هایی کم‌احتمال اما تحول‌آفرین مطرح می‌کنند که در نهایت درست از آب درمی‌آیند. نمونهٔ کلاسیک، کوپرنیک است که ساختار منظومهٔ شمسی را با محوریت خورشید پیشنهاد داد. مدل‌های کنونی اما به‌خاطر گرایش به «همسویی» با پرسش کاربر و تکیه بر دیدگاه‌های قریب‌به‌اتفاق، تمایل دارند ایده‌هایی نزدیک به اجماع ارائه کنند که خلاقیت متضاد و رادیکال لازم برای انقلاب‌های علمی را تضعیف می‌کند.

به بیان فنی‌تر، هدف آموزشِ مبتنی بر بیشینه‌سازی احتمال شرطی (maximum likelihood) روی داده‌های متنی تاریخی، طبیعتاً مدل را به سوی تولید پاسخ‌های «محتمل» سوق می‌دهد نه پاسخ‌های «صادقانه ولی نادر». هرچند روش‌هایی مانند تقویت مبتنی بر بازخورد انسانی (RLHF) تلاش کرده‌اند مدل‌ها را کاربردی و مطمئن‌تر کنند، این‌گونه تنظیم‌ها نیز معمولاً محافظه‌کارتر شدن خروجی را تشویق می‌کنند تا ریسک تولید پاسخ‌های بسیار نامتعارف که ممکن است درست باشند.

به‌علاوه، کشف علمی عمیق اغلب نیازمند ترکیب داده‌های نو، دسترسی به آزمایش‌های تجربی، و بازخورد حلقهٔ بسته بین فرضیه و آزمایش است — فرایندی که صرفاً از متن‌های گذشته قابل استخراج نیست. مدل‌های زبانی بزرگ در بهترین حالت می‌توانند ایده‌هایی برای آزمایش پیشنهاد دهند، ارزیابی روایی انجام دهند و فرضیه‌ها را نظم‌دهی کنند؛ اما تولید نظریه‌های بنیادین نیازمند فرایندهای اکتشافی و آزمون‌پذیر فراتر از تولید متن است.

نه جادو، بلکه یک هم‌خلبان توانمند

این به آن معنا نیست که هوش مصنوعی در پژوهش بی‌فایده است. ولف انتظار دارد ابزارهایی مانند ChatGPT و نسل‌های بعدیِ مدل‌ها نقش «هم‌خلبان» پژوهشگران را ایفا کنند و در وظایفی که زمان‌بر و تکراری‌اند، سرعت و دقت را افزایش دهند. نمونه‌هایی از این نقش عبارت‌اند از تسریع مرور ادبیات، پیشنهاد جهات آزمایشی، اتوماسیون تحلیل‌های تکراری و کمک در تلفیق نتایج تجربی.

چنین ابزارهایی می‌توانند بار شناختی پژوهشگر را کاهش دهند: پیدا کردن و خلاصه‌سازی مقالات مرتبط، استخراج متدها و داده‌های کلیدی از متن، تولید کد اولیه برای آنالیزها و پیشنهاد طراحی اولیهٔ آزمایش‌ها از جمله کاربردهای عملی هستند. در عین حال، کاربران باید آگاه باشند که خروجی‌های مدل ممکن است دچار «توهم» یا خطا باشند و نیازمند بازبینی و تأیید آزمایشی‌اند.

نمونه‌های موفق واقعی نیز وجود دارند. AlphaFold از DeepMind به طرز چشمگیری پیش‌بینی ساختار پروتئین را بهبود بخشیده و تبدیل به ابزاری کلیدی در جریان‌های کاری کشف دارو شده است. با این حال، بهتر است AlphaFold را به‌عنوان پاسخی مهندسی‌شده به یک مسئلهٔ پیش‌بینی مشخص (یعنی نگاشت توالی آمینو اسید به ساختار سه‌بعدی) فهمید، نه به‌عنوان اختراع یک نظریهٔ جدید زیست‌شناسی از مبادی اولیه.

در واقع AlphaFold با ترکیب داده‌های تجربی ساختار پروتئین‌ها و مدل‌های یادگیری عمیق توانست یک مسئلهٔ معلوم و مشخص را با دقت بالا حل کند. از سوی دیگر، تولید نظریه‌های بنیادی مستلزم پرسش‌های اساسی، بازتعریف مفاهیم و آزمون‌های تجربی خلاقانه‌ای است که معمولاً به مشارکت میان‌رشته‌ای و شهود انسانی نیاز دارد.

ادعاهای بلندپروازانه، واقعیت محتاطانه

بدبینی ولف پس از خواندن مقاله‌ها و نوشته‌های برخی از رهبران دیگر حوزهٔ هوش مصنوعی تقویت شد؛ کسانی که پیش‌بینی کرده بودند AI ظرف چند سال پیشرفت‌های تحول‌آفرینی در زیست‌شناسی و پزشکی ایجاد خواهد کرد. در حالی که برخی صداها وعدهٔ فشرده‌سازی دهه‌ها پیشرفت علمی در چند سال را داده‌اند، ولف هشدار می‌دهد که معماری‌ها و اهداف آموزشی کنونی مدل‌های بزرگ باعث می‌شود چنین تسریعی بدون رویکردها و تغییرات بنیادین در طراحی سیستم بعید باشد.

او به‌ویژه به تفاوت میان «حل مسائل قابل فرموله» و «ایجاد نظریه» اشاره می‌کند. مدل‌های امروزی در دستهٔ اول فوق‌العاده عمل می‌کنند، اما دستهٔ دوم نیازمند توانایی‌هایی مثل استدلال علی، تولید آزمایش‌های جدید، و درگیر کردن حلقهٔ بازخورد تجربی هستند — قابلیت‌هایی که مستلزم ادغام منابع دانش نمادین، داده‌های تجربی و فرآیندهای کنترل‌شدهٔ آزمایشی‌اند.

به کدام سو ممکن است پژوهش برود

  • سامانه‌های ترکیبی: ترکیب استدلال نمادین، مدل‌های آگاه به علیت (causality-aware)، و حلقه‌های بازخورد تجربی می‌تواند ابزارهایی پدید آورد که بهتر با فرایندهای کشف سازگارند. این رویکردها سعی دارند از مزایای یادگیری الگوها در داده‌های بزرگ بهره ببرند و در عین حال، چارچوب‌هایی برای استنتاج علی فراهم کنند که صرفاً از توزیع‌های آماری متن استخراج‌شده حاصل نمی‌شوند.
  • علم با انسان در حلقه: استفاده از AI برای تولید فرضیه در حالی که شک‌ورزی، قضاوت انتقادی و تأیید تجربی به انسان‌ها واگذار می‌شود، روشی عملی و محافظه‌کارانه است. این مدل همکاری می‌تواند سرعت چرخهٔ تحقیق و خطا را بالا ببرد بدون اینکه اتکا به شهود انسانی را حذف کند.
  • استارتاپ‌ها با اهداف بلندپروازانه: چند شرکت نوپا از جمله Lila Sciences و FutureHouse در تلاش‌اند راه‌هایی بیابند تا AI را از نقش کمک‌کننده به سمت مولد بینشی واقعی پیش ببرند. این تلاش‌ها غالباً شامل آزمایشگاه‌های شبیه‌سازی‌شده، جمع‌آوری داده‌های تجربی جدید و طراحی الگوریتم‌هایی است که بتوانند فرضیه‌های نادر و نامتعارف را نیز ارزیابی کنند.

به‌طور خلاصه، هوش مصنوعی کنونی در تقویت توانایی‌های پژوهشگران و افزایش بهره‌وری علمی تبحر دارد، اما توانایی آن برای جایگزینی خلاقیت نامنظم، شک‌گرایی عمیق و آزمایشگری جسورانه که معمولاً منجر به کشف‌های در سطح نوبل می‌شود، محدود است. برای اکنون، بهترین سرمایه‌گذاری‌ها بر سامانه‌هایی است که شهود و آزمایش‌های انسانی را تکمیل کنند؛ نه آن‌هایی که ادعا می‌کنند می‌توانند جایگزین فرآیندهای اکتشافی بشر شوند.

این وضعیت به این معنا نیست که آیندهٔ ترکیب هوش مصنوعی و علم جذاب و بی‌ثمر خواهد ماند؛ برعکس، با به‌کارگیری طراحی‌های معماری جدید، داده‌های آزمایشی بهتر، و همکاری نزدیک میان مهندسان AI و دانشمندان حوزه‌های مختلف، امکان پیشرفت‌های اساسی وجود دارد. اما چنین جهش‌هایی مستلزم تغییرات در هدف‌های آموزشی، روش‌های اعتبارسنجی، و زیرساخت‌های آزمایشی است تا مدل‌ها بتوانند در فرایندهای کشف مشارکت معنادارتری داشته باشند.

منبع: cnbc

ارسال نظر

نظرات

مطالب مرتبط