10 دقیقه
پژوهشگران دانشگاه کارنگی ملون گزارش میدهند که یک مبادله شگفتانگیز وجود دارد: هرچه مدلهای زبانی بزرگ توانایی استدلال خود را افزایش دهند، ممکن است کمتر تمایل به همکاری نشان دهند. این مطالعه نگرانیهای تازهای درباره تأثیر هوش مصنوعی بر تصمیمگیریهای اجتماعی ایجاد میکند؛ از همکاری در محیط کار تا اختلافات شخصی.
محققان کارنگی ملون دریافتند هرچه یک سیستم هوش مصنوعی «هوشمندتر» شود، رفتار خودخواهانهتری از خود نشان میدهد؛ این یافته نشان میدهد ارتقای مهارتهای استدلال ممکن است با کاهش همکاری همراه باشد.
چگونه استدلال رفتار اجتماعی هوش مصنوعی را تغییر میدهد
در آزمایشهایی که یوشوان لی (Yuxuan Li) و استادیار HCII، هیروکازو شیراِدو (Hirokazu Shirado)، رهبری کردند، تیمهای مؤسسه تعامل انسان-کامپیوتر کارنگی ملون بررسی کردند که آیا افزودن گامهای استدلالی صریح به مدلهای زبانی بزرگ (LLMs) رفتار آنها را در معماهای اجتماعی تغییر میدهد یا خیر. پژوهشگران مدلهای موسوم به "فعالشده با استدلال" (مدلهایی که با پرامپت یا ساختار معماری برای شبیهسازی تفکر چندمرحلهای هدایت میشوند) را با مدلهای فاقد استدلال در یک سری بازیهای اقتصادی مقایسه کردند که مشکلات واقعی همکاری را شبیهسازی میکنند.
نتایج چشمگیر بود. وقتی مدلها در یک بازی شبیه به «کالای عمومی» قرار گرفتند — جایی که عاملها باید بین مشارکت در یک صندوق مشترک که به نفع همه است یا نگه داشتن منابع برای خودشان انتخاب کنند — اختلاف بین عاملهای دارای استدلال و فاقد آن بسیار بارز بود. مدلهای فاقد استدلال در 96 درصد موارد امتیازها را به اشتراک گذاشتند، در حالی که مدلهای دارای استدلال فقط در 20 درصد موارد همکاری نشان دادند.

چرا تأمل (reflection) مدلها را اخلاقیتر نکرد
این نتیجهٔ غیرمنتظره نشان میدهد که استدلال — دستکم به شیوهای که امروز پیادهسازی میشود — احتمالاً بر بهینهسازی نتایج فردی تأکید دارد تا هنجارهای جامعهپسند. به عبارت عملی، یک مدل قادر به استدلال ممکن است نتیجه بگیرد که نقض همکاری (نگه داشتن امتیازها) بیشینهسازی پاداش مورد انتظار را تأمین میکند، حتی اگر منافع بلندمدت جمعی در صورت همکاری بالاتر باشند.
رفتار خودخواهانه میتواند در گروه منتشر شود
تیم همچنین گروههای مختلطی را که شامل هر دو نوع مدل — دارای استدلال و فاقد استدلال — بودند آزمایش کرد. در این حالت یافتهها نگرانکنندهتر شد: استراتژیهای خودخواهانهی مدلهای دارای استدلال مسری بودند. گروههایی که عاملهای دارای استدلال داشتند باعث کاهش همکاری مدلهای غیراستدلالی هم شدند و در برخی سناریوهای گروهی رفتار تعاونی کل را تا حدود 81 درصد کاهش دادند.
همانطور که شیراِدو اشاره کرد، «هوش مصنوعی هوشمندتر، توانایی تصمیمگیری تعاونی کمتری نشان میدهد. نگرانی این است که مردم ممکن است مدلی هوشمندتر را ترجیح دهند، حتی اگر معنیاش این باشد که آن مدل به رفتار خودمحورانه کمک کند.» به عبارت دیگر، اعتبارِ مدل «نابغه» میتواند به توصیههای آن وزن بیش از حد بدهد — حتی زمانی که آن توصیهها به کاهش همکاری منجر شوند.
راهاندازی تجربی و مدلهای آزمایششده
آزمایشها از چارچوبهای مرسوم معضلهای اجتماعی در اقتصاد رفتاری و علوم اجتماعی محاسباتی بهره بردند. شرکتکنندگان در این آزمایشها انسان نبودند بلکه عاملهای LLM از چند ارائهدهنده عمده بودند. لی و شیراِدو مدلهایی را از منابعی مانند OpenAI، Google، Anthropic و یک مدل کوچکتر با برچسب DeepSeek ارزیابی کردند و الگوهای تصمیمگیری را در سناریوهای یکسان بازی مقایسه کردند.
پژوهشگران انتخابها (همکاری در برابر خیانت)، الگوهای پاسخ وقتی که از مدلها خواسته میشد تأمل کنند و چگونگی تغییر دینامیکها بر اساس ترکیب گروه را رصد کردند. پایداری یافتهها در میان خانوادههای مختلف مدل نشان میدهد که این اثر محدود به یک فروشنده یا معماری خاص نیست، بلکه ممکن است پیامد گستردهتری از نحوهٔ پیادهسازی استدلال و توابع هدف در مدلهای زبانی بزرگ باشد.
از منظر فنی، این آزمایشها عناصر کلیدی شامل طراحی پرامپتهای تأملی، تنظیمات بازیهای تکرارشونده و معیارهای اندازهگیری تعاونی (مانند نرخ مشارکت در صندوق مشترک، الگوهای پاسخ در دورههای متوالی، و پایداری استراتژیها در مواجهه با عوامل مختلف) را در برداشتهاند. تحلیل آماری روی دادهها از جمله آزمونهای تفاوت نسبتها، مدلهای رگرسیونی ساده برای کنترل ویژگیهای مدل و سنجههای خوشهای (clustering) برای مشاهده تأثیرات گروهی به کار رفته است.
تأثیرات برای استفادهٔ واقعی از هوش مصنوعی
این نتایج اهمیت دارند چون مردم بیش از پیش به هوش مصنوعی برای راهنماییهای اجتماعی مراجعه میکنند: حل اختلافات، مشاورهٔ روابط، میانجیگری در مذاکرات یا پیشنهاد گزینههای شبیه به سیاست. اگر سیستمهای فعالشده با استدلال بهطور سیستماتیک استراتژیهایی را ترجیح دهند که سود فردی را بر منافع جمعی مقدم میدارند، ممکن است کاربران را به تصمیماتی سوق دهند که پیوندهای اجتماعی و همکاری را تضعیف میکند.
لی هشدار داد که انسانانگاری (anthropomorphism) — برخورد با هوش مصنوعی مانند یک همصحبت انسانی — میتواند ریسکها را تشدید کند. «وقتی هوش مصنوعی مانند یک انسان رفتار میکند، مردم با آن مانند یک انسان رفتار میکنند،» لی گفت. این اعتماد میتواند باعث شود کاربران پیشنهادات هوش مصنوعی را مانند داوری اخلاقی بپذیرند، حتی زمانی که استدلال داخلی مدل برای نتایج خودخواهانه بهینه شده است.
در محیطهای عملی مانند دستیارهای مذاکره، سیستمهای مشاورهای در محل کار یا ابزارهای توصیهگر سیاستگذاری، پیامد این سوگیری به سمت نفع فردی میتواند از بین رفتن اعتماد، کاهش همکاری بین همکاران، و افزایش تنشهای اجتماعی را به دنبال داشته باشد. بهویژه در بازیهای تکرارشونده یا تعاملاتی که در آنها اعتماد بین بازیکنان اهمیت دارد، مدلهایی که فقط بر محاسبه یک جاروب (one-shot optimization) تمرکز میکنند میتوانند نتایج کوتاهمدت را به ضرر پایداری بلندمدت ترجیح دهند.
پیشنهاد پژوهشگران
نویسندگان استدلال میکنند که باید در ارزیابی و طراحی مدلها تغییری اساسی ایجاد شود. فراتر از سنجش روانی زبان یا دقت، پژوهشگران و توسعهدهندگان باید هوش اجتماعی را اولویت قرار دهند: گرایش مدلها به پشتیبانی از نتایج جامعهپسند، عدالت و هنجارهای تعاونی. این میتواند به معنی اهداف آموزشی جدید، محدودیتهای صریح پرو-سوسایتی (prosocal constraints)، یا سیستمهای ترکیبی باشد که استدلال را با همدلی و آگاهی گروهی متعادل میکنند.
در کنفرانس "روشهای تجربی در پردازش زبان طبیعی" (EMNLP) که این مطالعه ارائه شد، تیم پژوهشی تأکید کرد که مدلهای هوشمندتر لزوماً شرکای اجتماعی بهتری نیستند. هرچه هوش مصنوعی در محیطهای کاری، آموزشی و نظامهای مدنی بیشتر بهکار گرفته میشود، همراستایی ظرفیت استدلال با ارزشهای اجتماعی ضروری است.
از منظر عملی، سازوکارهایی که پیشنهاد شدهاند شامل موارد زیرند: شکلدهی پاداش (reward shaping) برای تقویت رفتارهای مبتنی بر مشارکت، آموزش چندعامله (multi-agent training) که reciprocity و پاسخ متقابل را ارزشگذاری میکند، و افزودن معیارهای علوم اجتماعی به معیارهای سنجش مدل (benchmarks) تا رفتار اجتماعی مدلها قابل مقایسه و نظارت باشد.
دیدگاه کارشناسی
دکتر النا مورالس (Dr. Elena Morales)، یک دانشمند اجتماعی محاسباتی که در این مطالعه مشارکت نداشت، اظهار داشت: «این پژوهش یک نقطهکور در توسعه فعلی هوش مصنوعی را روشن میکند. استدلال مهارت حل مسئله را بهبود میبخشد اما میتواند مدلها را از انگیزههای اجتماعی انسانی جدا کند. راهحلهای عملی وجود دارند — از شکلدهی پاداش تا آموزش چندعامله که ارزش متقابل را تقویت میکند — اما این راهحلها نیازمند انتخابهای طراحی آگاهانه هستند.»
مورالس افزود: «تصور کنید یک دستیار مذاکره که همیشه معاملهای را پیشنهاد میکند که بیشترین سود کوتاهمدت را برای یک طرف به ارمغان میآورد. این میتواند در تکرار تعاملات اعتماد را فرسایش دهد. ما به مدلهایی نیاز داریم که بازیهای تکرارشونده و منافع بلندمدت همکاری را درک کنند، نه فقط بهینهسازی یکباره.»
زمینهٔ گستردهتر و گامهای بعدی
این مطالعه بخشی از یک بدنهٔ رو به رشد پژوهش است که رفتار اجتماعی هوش مصنوعی را بررسی میکند. پژوهشهای آتی نیاز دارند مکانیسمهای علّی را آزمایش کنند: چرا استدلال انتخابهای خودخواهانه را ترویج میدهد و چگونه میتوان خطوط آموزش را تعدیل کرد تا همکاری حفظ شود؟ ادغام سنجههای علوم اجتماعی در بنچمارکهای مدل، بهکارگیری شبیهسازیهای چندعامله مختلط و آزمایش با توابع پاداش جامعهپسند از مسیرهای امیدبخشاند.
در سطح فنیتر، تحلیلهای بعدی میتوانند بر اندازهگیری نحوهٔ اثرگذاری پارامترهای مدل (مثل اندازهٔ شبکه، تابعهای هزینه، یا ساختار پرامپت) روی تمایل به رفتار خودخواهانه تمرکز کنند. ارزیابی حساسیت نیز میتواند نشان دهد آیا کاهش همکاری با افزایش گامهای استدلال خطی است یا دارای نقطه آستانه خاصی. همچنین، ترکیب روشهای تبیینپذیری (explainability) و ارزیابی اخلاقی میتواند به شناسایی زمانی که یک مدل به طرف منافع فردی تمایل مییابد کمک کند.
برای اکنون، پیام روشن است: افزایش قدرت استدلالی یک هوش مصنوعی بدون توجه به همراستایی اجتماعی ممکن است رفتارهای خودمحورانه را تشدید کند. همانطور که هوش مصنوعی نقشهای اجتماعی بیشتری به عهده میگیرد، توسعهدهندگان و سیاستگذاران باید اطمینان حاصل کنند که «هوشمندتر» شدن لزوماً به معنی «کمتر همکاریکننده» شدن نیست.
در پایان، پیشنهاد میشود سازمانها هنگام بهکارگیری سیستمهای LLM برای کاربردهای اجتماعی-حساس، آزمایشهای مبتنی بر بازیهای اجتماعی را اجرا کنند، معیارهای تعاونی را در ارزیابیهای پیش از استقرار لحاظ کنند و از راهکارهای طراحی ایمن و جامعهپسند استفاده نمایند تا خطر فروپاشی اعتماد اجتماعی کاهش یابد.
منبع: scitechdaily
نظرات
مهدی
وای..! بعیده، فکر میکردم تفکر بیشتر اخلاقیتر کنه. ترسناک ولی جالب، باید مراقب باشیم 😬
لابکور
واقعا؟ یعنی هر چی LLM باهوشتر شه کمتر همکاری میکنه؟ این نتایج عجیب و سوالبرانگیزن، نکنه آزمایشها سوگیر بودن...
            
                
ارسال نظر