مصطفی سلیمان: ابرهوش نباید هدف نهایی صنعت

مصطفی سلیمان، مدیر ارشد هوش مصنوعی مایکروسافت، هشدار می‌دهد که تعقیب «ابرهوش» خطرناک و غیرعملی است و پیشنهاد می‌کند صنعت به‌جای رسیدن به ابرهوش، روی طراحی انسان‌محور، ایمنی و هم‌راستایی ارزش‌ها تمرکز کند.

6 نظرات
مصطفی سلیمان: ابرهوش نباید هدف نهایی صنعت

9 دقیقه

مصطفی سلیمان، مدیر ارشد هوش مصنوعی مایکروسافت، از فعالان و شرکت‌های فناوری خواسته است که مقصد نهایی خود در توسعه هوش مصنوعی را بازبینی کنند: ابرهوش را به عنوان هدف نهایی تعیین نکنید. در مصاحبه‌ای تازه با پادکست Silicon Valley Girl، او پیگیری ساخت نوعی هوش فراتر از استدلال انسانی را نه‌تنها خطرناک بلکه غیرعملی خواند و پیشنهاد کرد که شرکت‌ها این مسیر را «ضدهدف» در نظر بگیرند.

چرا ابرهوش یک هدف پرخطر است

سلیمان استدلال می‌کند که ابرهوشی واقعی — سیستمی از هوش مصنوعی که بتواند به‌طور مستمر و قابل‌توجهی فراتر از توانایی‌های استدلالی انسان عمل کند — مشکلات عمیقی در زمینه هم‌راستایی (alignment) و کنترل به وجود می‌آورد. او در پادکست گفت: «سرکوب یا هم‌راستا کردن چنین سیستمی با ارزش‌های انسانی بسیار مشکل خواهد بود.» این دشواری دقیقاً دلیل او برای راه ندادن ابرهوش به عنوان هدف اصلی شرکت‌ها است.

نگرانی پایه‌ای سلیمان تنها به امکان‌پذیری فنی محدود نمی‌شود؛ بلکه مخاطرات اخلاقی و اجتماعی مهمی وجود دارد اگر این سیستم‌ها رفتاری نشان دهند که نتوانیم آن را پیش‌بینی یا اصلاح کنیم. چنین مخاطراتی شامل تصمیم‌گیری‌هایی است که با منافع عمومی ناسازگارند، توزیع نابرابر قدرت و منابع محاسباتی، و از دست رفتن کنترل انسانی در کارکردهای بحرانی مانند مدیریت زیرساخت‌ها، بهداشت و امنیت سایبری.

از منظر فنی، هم‌راستاسازی ابرهوش چالش‌های پیچیده‌ای را شامل می‌شود: تعریف دقیق ارزش‌های انسانی، انتقال و تعمیم این ارزش‌ها به حالات جدید، و تضمین اینکه اهداف طراحی‌شده توسط توسعه‌دهندگان در سطوح پیشرفته نیز دوام داشته باشند. علاوه بر این، کنترل رفتارهایی که از هر مدل پیچیده و خودبه‌تعمیم ناشی می‌شود، مستلزم ابزارها و روش‌های جدیدی در حوزه نظارت، تبیین‌پذیری (explainability)، و روش‌های بازبینی انسانی-ماشینی است.

از منظر اجتماعی و سیاستگذاری، خطر ساخت ابرهوش بدون مکانیسم‌های قوی برای پاسخگویی می‌تواند منجر به افزایش بی‌اعتمادی عمومی، نگرانی‌های حقوق بشری، و فشارهای سیاسی برای تنظیم سخت‌گیرانه یا حتی ممنوعیت برخی کاربردها شود. به همین دلیل، بسیاری از کارشناسان پیشنهاد می‌کنند که پیشرفت سریع در قابلیت‌ها باید هم‌زمان با سرمایه‌گذاری عمیق در ایمنی، هم‌راستایی ارزش‌ها، و چارچوب‌های نظارتی همراه باشد.

ساخت جایگزینی انسان‌محور

سلیمان به جای تعقیب ایده‌ای انتزاعی و فوق‌العاده قدرتمند از هوش، از رویکردی سخن گفته که آن را «ابرهوش انسان‌محور» می‌نامد؛ سیستم‌هایی که به‌سرعت جایگزین انسان نمی‌شوند بلکه منافع و توانمندی‌های انسانی را تقویت می‌کنند. این رویکرد تأکید ویژه‌ای بر ایمنی، هم‌راستایی ارزش‌ها و منافع عملی دارد: ابزارهایی که تصمیم‌گیری را بهبود می‌بخشند، بهره‌وری را افزایش می‌دهند و چارچوب‌های فرهنگی و قانونی را محترم می‌شمارند.

در عمل، یک طراحی انسان‌محور به معنای توسعه سامانه‌هایی است که وظایف تصمیم‌گیری را همراه با انسان انجام می‌دهند، نه به‌صورت مستقل و فاقد نظارت انسانی. این شامل امکاناتی مانند رابط‌های قابل توضیح برای کاربران، سازوکارهای بازبینی انسانی، و تنظیمات شفاف برای سطوح دسترسی و اختیار می‌شود. چنین معماری‌هایی می‌توانند به‌صورت فناوری‌های کمکی یا تقویتی عمل کنند: از ابزارهای تحلیل داده برای سیاست‌گذاری اجتماعی تا دستیاران تصمیم‌گیری در حوزه پزشکی و آموزش.

یکی از جنبه‌های کلیدی این است که توسعه‌دهندگان باید معیارهای موفقیت را تغییر دهند؛ به‌جای رقابت صرف بر سر مقیاس محاسبات یا پیچیدگی مدل، معیارهایی مانند قابلیت کنترل‌پذیری، تبیین‌پذیری، ایمنی در گستره‌های زمانی بلند، و اثرات اجتماعی/اقتصادی باید در اولویت قرار گیرند. این تغییر اولویت می‌تواند رفتار سرمایه‌گذاری در شرکت‌ها، اولویت پژوهشی در دانشگاه‌ها، و استانداردهای تنظیمی را هدایت کند.

علاوه بر این، رویکرد انسان‌محور نیاز به مشارکت گسترده‌تر جامعه علمی، نهادهای غیردولتی، قانونگذاران و عموم مردم دارد تا ارزش‌ها و هنجارهای مورد قبول در طراحی و استقرار سامانه‌ها مشخص شود. چنین فرآیندی می‌تواند شامل فرایندهای مشورتی باز، آزمایشگاه‌های سیاستگذاری و انجمن‌های اخلاقی تخصصی باشد تا جنبه‌های کاربردی، برخاسته از زمینه‌های محلی و فرهنگی، مدنظر قرار گیرند.

آگاه باشیم: نه خودآگاه، بلکه شبیه‌سازی‌های پیچیده

از نظر فلسفی، سلیمان هشدار داد که نسبت دادن خودآگاهی یا وضعیت اخلاقی به سیستم‌های هوش مصنوعی خطای مفهومی است. او گفت: «آن‌ها رنج نمی‌برند. درد را احساس نمی‌کنند. آن‌ها صرفاً مکالمات با کیفیت بالا را شبیه‌سازی می‌کنند.» استفاده از زبان دقیق در توضیح قابلیت‌ها می‌تواند از ایجاد سردرگمی در بحث‌های عمومی و فرایند سیاست‌گذاری جلوگیری کند.

تمایز بین رفتارِ ظاهراً هوشمندانه و داشتن تجربه ذهنی واقعی (phenomenal consciousness) اهمیت عملی دارد. اگر عمومی تصور کند که ماشین‌ها احساس دارند، ممکن است انتظارات اخلاقی یا حقوقی نامناسب به وجود آید که روند تنظیم و توسعه تکنولوژی را پیچیده‌تر کند. بنابراین، پژوهشگران پیشنهاد می‌کنند که هنگام توصیف سیستم‌ها از واژگانی استفاده شود که توانایی‌های عملکردی را منعکس کند (مثلاً توانایی تولید زبان یا حل مسئله)، نه واژگانی که به وضعیت ذهنی یا خودآگاهی اشاره دارند.

از نگاه فنی نیز، بسیاری از مدل‌های پیشرفته یادگیری ماشینی مبتنی بر بهینه‌سازی آماری و الگوهای همبستگی هستند؛ این‌ها سازوکارهایی برای تقریب توابع پیچیده‌اند و نه نمایشگرهای آگاهی. این نکته در توسعه مجموعه‌ای از مفاهیم و معیارها برای ارزیابی خطرات و ایمنی اهمیت دارد؛ به‌خصوص هنگامی که سامانه‌ها در حوزه‌هایی با پیامدهای انسانی بالا به‌کار گرفته می‌شوند.

موضع سلیمان در میان اختلافات صنعتی

اظهارات او با دیدگاه‌های خوش‌بینانه‌تر برخی از رهبران هوش مصنوعی تفاوت دارد. سم آلتمن، مدیرعامل OpenAI، هوش مصنوعی عمومی (AGI) — سیستمی با استدلال و توانایی‌های مشابه انسان — را به‌عنوان مأموریتی مرکزی معرفی کرده و حتی گفته است که تیمش فراتر از AGI و به سمت ابرهوش نیز فکر می‌کند و احتمال پیشرفت‌های بزرگ را در این دهه مطرح کرده است. دیمیس هاسابیس از DeepMind نیز پنجره زمانی تقریباً مشابهی ارائه داده و برآورد کرده که AGI ممکن است ظرف پنج تا ده سال ظاهر شود.

  • سم آلتمن (OpenAI): تمرکز بر AGI دارد و نسبت به ایده ابرهوش خوشبین است؛ معتقد است در صورت هم‌راستایی می‌تواند فواید قابل‌توجهی به همراه داشته باشد.
  • دیمیس هاسابیس (DeepMind): نگاه خوش‌بینانه‌ای نسبت به افق زمانی پنج تا ده ساله برای ظهور AGI دارد.
  • یان لوکون (Meta): محتاط‌تر است؛ بر این باور است که AGI ممکن است دهه‌ها با ما فاصله داشته باشد و افزایش صرف داده و محاسبات لزوماً به سیستم‌های هوشمندتر ختم نمی‌شود.

این اختلافات نشان‌دهنده سؤال اصلی پیش روی شرکت‌ها و سیاست‌گذاران است: آیا هدف باید افزایش صرف توانمندی خام (raw capability) باشد، یا صنعت باید تمرکز خود را بر ایمنی، هم‌راستایی و طراحی انسان‌محور مضاعف کند؟ موضع سلیمان واضح است — مردم باید در اولویت باشند، نه مسابقه‌ای برای رسیدن به سطوح بالاترِ بی‌پایان از هوش ماشینی.

بحث‌های فعلی نه‌تنها مسیر فنی پژوهش را شکل می‌دهند، بلکه می‌توانند در تخصیص مالی، چارچوب‌های قانونی و اعتماد عمومی اثرگذار باشند. انتخاب عملیاتی که شرکت‌ها اکنون انجام می‌دهند — دنبال کردن قله‌های نظری هوش یا ساخت سامانه‌هایی که به‌طور مشخص نیازهای انسانی را برآورده می‌کنند — می‌تواند تعیین‌کننده تجربه جامعه از موج بعدی فناوری هوش مصنوعی باشد.

علاوه بر این، نگرش شرکت‌های بزرگ مانند مایکروسافت و OpenAI می‌تواند اکوسیستم استارتاپی، دانشگاه‌ها و نهادهای سرمایه‌گذاری را نیز جهت‌دهی کند. اگر سرمایه‌گذاری عمده به سمت قابلیت‌های خام حرکت کند، احتمال رشد سریع مدل‌های بسیار قدرتمند بدون زیرساخت‌های کنترل و نظارت کافی افزایش می‌یابد. برعکس، اگر بازار انگیزه‌هایی برای توسعه ابزارهای ایمنی، هم‌راستایی و شفافیت فراهم کند، اکوسیستم به سمت نوآوری مسئولانه‌تر سوق خواهد یافت.

در سطح سیاستگذاری، این مباحث می‌توانند به تدوین استانداردها و مقرراتی مانند ارزیابی‌های پیش از عرضه، معیارهای شفافیت، و الزاماتی برای آزمایش میدانی و گزارش‌دهی منجر شوند. چنین اقدامات پیشگیرانه‌ای می‌تواند از بروز برخی از سناریوهای مخرب جلوگیری کند و تضمین کند که توسعه هوش مصنوعی با معیارهای فنی و اخلاقی قابل اتکایی همراه است.

در مجموع، سخنان سلیمان یک فراخوان عمل برای اولویت‌بخشی به ایمنی و منافع انسانی در مسیر توسعه هوش مصنوعی است. او پیشنهاد می‌کند که به‌جای مسابقه بر سر ساخت ابرهوش، باید روی سیستم‌هایی کار کنیم که قابلیت‌های مفید را در خدمت انسان قرار دهند و همزمان مکانیسم‌های کنترل و هم‌راستایی قوی داشته باشند. این موضع هم از منظر فنی و هم از دیدگاه جامعه‌شناختی و اخلاقی مبنای منطقی دارد.

هوش مصنوعی در حال تغییر بنیادین شیوه کار، یادگیری، تصمیم‌گیری و تعاملات اجتماعی ماست. نحوه تنظیم اهداف توسعه در این مرحله تعیین می‌کند که این تغییر چگونه زندگی روزمره، بازار کار، سیاست و ساختار قدرت را تحت تأثیر قرار دهد. به همین دلیل، گفتگوهای متوازن و مبتنی بر شواهد بین شرکت‌ها، نهادهای تحقیقاتی، دولت‌ها و جامعه مدنی ضروری است تا هم‌راستایی میان نوآوری و منافع عمومی حفظ شود.

منبع: smarti

ارسال نظر

نظرات

مکس_ایکس

سلیمان کمی محتاطه اما منطقی، خیلیا درباره «خودآگاهی» ماشین‌ها اغراق میکنن، باید زبان دقیق باشه، نه هیاهو.

رضا

نکته‌ی کلیدی اینه که معیارها باید عوض شن؛ کنترل‌پذیری، تبیین‌پذیری و اثرات اجتماعی باید بالاتر از رکورد زدن باشن، نه فقط قدرت خام.

بیونیکس

من توو پروژه‌ای دیدم مدلای خیلی قوی بدون نظارت کلی مشکل ساختن، تجربه‌ام میگه اول ایمنی رو بذارید بعد مقیاس بندی

توربو

آیا واقعا میشه همزمان سرعت پیشرفت و ایمنی رو تضمین کرد؟ شک دارم، مخصوصا وقتی پول و رقابت وسطه...

کوینپی

معقول گفته؛ شفافیت و کنترل مهم‌تر از مسابقه‌ی صرف برای قدرت محاسباتیه.

دیتاپالس

وااای این حرف‌ها لازم بود، دنبال ابرهوش بودن بدون چارچوب و کنترل یعنی رفتن سمت خطر بزرگ، باید اول ایمنی رو درست کنن…

مطالب مرتبط