7 دقیقه
توماس ولف، پژوهشگر برجسته در شرکت Hugging Face، هشدار میدهد که نسل فعلی مدلهای زبانی بزرگ احتمالاً قادر به تولید کشفهای علمی واقعاً نوآورانه و در سطح نوبل نخواهند بود. او این سیستمها را نه بهعنوان جایگزین ایدهپردازی ریشهای، بلکه بهعنوان دستیاران قدرتمند میبیند که در تولید ایدهها، تحلیل دادهها و تسهیل پژوهش مفیدند، اما منشاء نظریههای پارادایمشکن نخواهند بود.
چرا چتباتهای عمومی تا کشف واقعی فاصله دارند
ولف توضیح میدهد که مشکل ریشهای و ساختاری است. چتباتهای مدرن عمدتاً برای پیشبینی محتملترین توکن بعدی در یک دنبالهٔ نوشتار آموزش دیدهاند. این هدف، آنها را در کامل کردن جملات، خلاصهسازی تحقیقات و ارائه پیشنهادهای بهظاهر منطقی بسیار ماهر میکند؛ اما در تولید ایدههایی که فرضیات رایج را بهچالش میکشند، محدودیت دارد.
دانشمندان پیشگام و برندگان جوایز بزرگ معمولاً تفکراتی خلاف جریان دارند: آنها چارچوبهای پذیرفتهشده را زیر سؤال میبرند و ایدههایی کماحتمال اما تحولآفرین مطرح میکنند که در نهایت درست از آب درمیآیند. نمونهٔ کلاسیک، کوپرنیک است که ساختار منظومهٔ شمسی را با محوریت خورشید پیشنهاد داد. مدلهای کنونی اما بهخاطر گرایش به «همسویی» با پرسش کاربر و تکیه بر دیدگاههای قریببهاتفاق، تمایل دارند ایدههایی نزدیک به اجماع ارائه کنند که خلاقیت متضاد و رادیکال لازم برای انقلابهای علمی را تضعیف میکند.
به بیان فنیتر، هدف آموزشِ مبتنی بر بیشینهسازی احتمال شرطی (maximum likelihood) روی دادههای متنی تاریخی، طبیعتاً مدل را به سوی تولید پاسخهای «محتمل» سوق میدهد نه پاسخهای «صادقانه ولی نادر». هرچند روشهایی مانند تقویت مبتنی بر بازخورد انسانی (RLHF) تلاش کردهاند مدلها را کاربردی و مطمئنتر کنند، اینگونه تنظیمها نیز معمولاً محافظهکارتر شدن خروجی را تشویق میکنند تا ریسک تولید پاسخهای بسیار نامتعارف که ممکن است درست باشند.
بهعلاوه، کشف علمی عمیق اغلب نیازمند ترکیب دادههای نو، دسترسی به آزمایشهای تجربی، و بازخورد حلقهٔ بسته بین فرضیه و آزمایش است — فرایندی که صرفاً از متنهای گذشته قابل استخراج نیست. مدلهای زبانی بزرگ در بهترین حالت میتوانند ایدههایی برای آزمایش پیشنهاد دهند، ارزیابی روایی انجام دهند و فرضیهها را نظمدهی کنند؛ اما تولید نظریههای بنیادین نیازمند فرایندهای اکتشافی و آزمونپذیر فراتر از تولید متن است.
نه جادو، بلکه یک همخلبان توانمند
این به آن معنا نیست که هوش مصنوعی در پژوهش بیفایده است. ولف انتظار دارد ابزارهایی مانند ChatGPT و نسلهای بعدیِ مدلها نقش «همخلبان» پژوهشگران را ایفا کنند و در وظایفی که زمانبر و تکراریاند، سرعت و دقت را افزایش دهند. نمونههایی از این نقش عبارتاند از تسریع مرور ادبیات، پیشنهاد جهات آزمایشی، اتوماسیون تحلیلهای تکراری و کمک در تلفیق نتایج تجربی.
چنین ابزارهایی میتوانند بار شناختی پژوهشگر را کاهش دهند: پیدا کردن و خلاصهسازی مقالات مرتبط، استخراج متدها و دادههای کلیدی از متن، تولید کد اولیه برای آنالیزها و پیشنهاد طراحی اولیهٔ آزمایشها از جمله کاربردهای عملی هستند. در عین حال، کاربران باید آگاه باشند که خروجیهای مدل ممکن است دچار «توهم» یا خطا باشند و نیازمند بازبینی و تأیید آزمایشیاند.

نمونههای موفق واقعی نیز وجود دارند. AlphaFold از DeepMind به طرز چشمگیری پیشبینی ساختار پروتئین را بهبود بخشیده و تبدیل به ابزاری کلیدی در جریانهای کاری کشف دارو شده است. با این حال، بهتر است AlphaFold را بهعنوان پاسخی مهندسیشده به یک مسئلهٔ پیشبینی مشخص (یعنی نگاشت توالی آمینو اسید به ساختار سهبعدی) فهمید، نه بهعنوان اختراع یک نظریهٔ جدید زیستشناسی از مبادی اولیه.
در واقع AlphaFold با ترکیب دادههای تجربی ساختار پروتئینها و مدلهای یادگیری عمیق توانست یک مسئلهٔ معلوم و مشخص را با دقت بالا حل کند. از سوی دیگر، تولید نظریههای بنیادی مستلزم پرسشهای اساسی، بازتعریف مفاهیم و آزمونهای تجربی خلاقانهای است که معمولاً به مشارکت میانرشتهای و شهود انسانی نیاز دارد.
ادعاهای بلندپروازانه، واقعیت محتاطانه
بدبینی ولف پس از خواندن مقالهها و نوشتههای برخی از رهبران دیگر حوزهٔ هوش مصنوعی تقویت شد؛ کسانی که پیشبینی کرده بودند AI ظرف چند سال پیشرفتهای تحولآفرینی در زیستشناسی و پزشکی ایجاد خواهد کرد. در حالی که برخی صداها وعدهٔ فشردهسازی دههها پیشرفت علمی در چند سال را دادهاند، ولف هشدار میدهد که معماریها و اهداف آموزشی کنونی مدلهای بزرگ باعث میشود چنین تسریعی بدون رویکردها و تغییرات بنیادین در طراحی سیستم بعید باشد.
او بهویژه به تفاوت میان «حل مسائل قابل فرموله» و «ایجاد نظریه» اشاره میکند. مدلهای امروزی در دستهٔ اول فوقالعاده عمل میکنند، اما دستهٔ دوم نیازمند تواناییهایی مثل استدلال علی، تولید آزمایشهای جدید، و درگیر کردن حلقهٔ بازخورد تجربی هستند — قابلیتهایی که مستلزم ادغام منابع دانش نمادین، دادههای تجربی و فرآیندهای کنترلشدهٔ آزمایشیاند.
به کدام سو ممکن است پژوهش برود
- سامانههای ترکیبی: ترکیب استدلال نمادین، مدلهای آگاه به علیت (causality-aware)، و حلقههای بازخورد تجربی میتواند ابزارهایی پدید آورد که بهتر با فرایندهای کشف سازگارند. این رویکردها سعی دارند از مزایای یادگیری الگوها در دادههای بزرگ بهره ببرند و در عین حال، چارچوبهایی برای استنتاج علی فراهم کنند که صرفاً از توزیعهای آماری متن استخراجشده حاصل نمیشوند.
- علم با انسان در حلقه: استفاده از AI برای تولید فرضیه در حالی که شکورزی، قضاوت انتقادی و تأیید تجربی به انسانها واگذار میشود، روشی عملی و محافظهکارانه است. این مدل همکاری میتواند سرعت چرخهٔ تحقیق و خطا را بالا ببرد بدون اینکه اتکا به شهود انسانی را حذف کند.
- استارتاپها با اهداف بلندپروازانه: چند شرکت نوپا از جمله Lila Sciences و FutureHouse در تلاشاند راههایی بیابند تا AI را از نقش کمککننده به سمت مولد بینشی واقعی پیش ببرند. این تلاشها غالباً شامل آزمایشگاههای شبیهسازیشده، جمعآوری دادههای تجربی جدید و طراحی الگوریتمهایی است که بتوانند فرضیههای نادر و نامتعارف را نیز ارزیابی کنند.
بهطور خلاصه، هوش مصنوعی کنونی در تقویت تواناییهای پژوهشگران و افزایش بهرهوری علمی تبحر دارد، اما توانایی آن برای جایگزینی خلاقیت نامنظم، شکگرایی عمیق و آزمایشگری جسورانه که معمولاً منجر به کشفهای در سطح نوبل میشود، محدود است. برای اکنون، بهترین سرمایهگذاریها بر سامانههایی است که شهود و آزمایشهای انسانی را تکمیل کنند؛ نه آنهایی که ادعا میکنند میتوانند جایگزین فرآیندهای اکتشافی بشر شوند.
این وضعیت به این معنا نیست که آیندهٔ ترکیب هوش مصنوعی و علم جذاب و بیثمر خواهد ماند؛ برعکس، با بهکارگیری طراحیهای معماری جدید، دادههای آزمایشی بهتر، و همکاری نزدیک میان مهندسان AI و دانشمندان حوزههای مختلف، امکان پیشرفتهای اساسی وجود دارد. اما چنین جهشهایی مستلزم تغییرات در هدفهای آموزشی، روشهای اعتبارسنجی، و زیرساختهای آزمایشی است تا مدلها بتوانند در فرایندهای کشف مشارکت معنادارتری داشته باشند.
منبع: cnbc
ارسال نظر