9 دقیقه
مصطفی سلیمان، مدیر ارشد هوش مصنوعی مایکروسافت، از فعالان و شرکتهای فناوری خواسته است که مقصد نهایی خود در توسعه هوش مصنوعی را بازبینی کنند: ابرهوش را به عنوان هدف نهایی تعیین نکنید. در مصاحبهای تازه با پادکست Silicon Valley Girl، او پیگیری ساخت نوعی هوش فراتر از استدلال انسانی را نهتنها خطرناک بلکه غیرعملی خواند و پیشنهاد کرد که شرکتها این مسیر را «ضدهدف» در نظر بگیرند.
چرا ابرهوش یک هدف پرخطر است
سلیمان استدلال میکند که ابرهوشی واقعی — سیستمی از هوش مصنوعی که بتواند بهطور مستمر و قابلتوجهی فراتر از تواناییهای استدلالی انسان عمل کند — مشکلات عمیقی در زمینه همراستایی (alignment) و کنترل به وجود میآورد. او در پادکست گفت: «سرکوب یا همراستا کردن چنین سیستمی با ارزشهای انسانی بسیار مشکل خواهد بود.» این دشواری دقیقاً دلیل او برای راه ندادن ابرهوش به عنوان هدف اصلی شرکتها است.
نگرانی پایهای سلیمان تنها به امکانپذیری فنی محدود نمیشود؛ بلکه مخاطرات اخلاقی و اجتماعی مهمی وجود دارد اگر این سیستمها رفتاری نشان دهند که نتوانیم آن را پیشبینی یا اصلاح کنیم. چنین مخاطراتی شامل تصمیمگیریهایی است که با منافع عمومی ناسازگارند، توزیع نابرابر قدرت و منابع محاسباتی، و از دست رفتن کنترل انسانی در کارکردهای بحرانی مانند مدیریت زیرساختها، بهداشت و امنیت سایبری.
از منظر فنی، همراستاسازی ابرهوش چالشهای پیچیدهای را شامل میشود: تعریف دقیق ارزشهای انسانی، انتقال و تعمیم این ارزشها به حالات جدید، و تضمین اینکه اهداف طراحیشده توسط توسعهدهندگان در سطوح پیشرفته نیز دوام داشته باشند. علاوه بر این، کنترل رفتارهایی که از هر مدل پیچیده و خودبهتعمیم ناشی میشود، مستلزم ابزارها و روشهای جدیدی در حوزه نظارت، تبیینپذیری (explainability)، و روشهای بازبینی انسانی-ماشینی است.
از منظر اجتماعی و سیاستگذاری، خطر ساخت ابرهوش بدون مکانیسمهای قوی برای پاسخگویی میتواند منجر به افزایش بیاعتمادی عمومی، نگرانیهای حقوق بشری، و فشارهای سیاسی برای تنظیم سختگیرانه یا حتی ممنوعیت برخی کاربردها شود. به همین دلیل، بسیاری از کارشناسان پیشنهاد میکنند که پیشرفت سریع در قابلیتها باید همزمان با سرمایهگذاری عمیق در ایمنی، همراستایی ارزشها، و چارچوبهای نظارتی همراه باشد.
ساخت جایگزینی انسانمحور
سلیمان به جای تعقیب ایدهای انتزاعی و فوقالعاده قدرتمند از هوش، از رویکردی سخن گفته که آن را «ابرهوش انسانمحور» مینامد؛ سیستمهایی که بهسرعت جایگزین انسان نمیشوند بلکه منافع و توانمندیهای انسانی را تقویت میکنند. این رویکرد تأکید ویژهای بر ایمنی، همراستایی ارزشها و منافع عملی دارد: ابزارهایی که تصمیمگیری را بهبود میبخشند، بهرهوری را افزایش میدهند و چارچوبهای فرهنگی و قانونی را محترم میشمارند.
در عمل، یک طراحی انسانمحور به معنای توسعه سامانههایی است که وظایف تصمیمگیری را همراه با انسان انجام میدهند، نه بهصورت مستقل و فاقد نظارت انسانی. این شامل امکاناتی مانند رابطهای قابل توضیح برای کاربران، سازوکارهای بازبینی انسانی، و تنظیمات شفاف برای سطوح دسترسی و اختیار میشود. چنین معماریهایی میتوانند بهصورت فناوریهای کمکی یا تقویتی عمل کنند: از ابزارهای تحلیل داده برای سیاستگذاری اجتماعی تا دستیاران تصمیمگیری در حوزه پزشکی و آموزش.
یکی از جنبههای کلیدی این است که توسعهدهندگان باید معیارهای موفقیت را تغییر دهند؛ بهجای رقابت صرف بر سر مقیاس محاسبات یا پیچیدگی مدل، معیارهایی مانند قابلیت کنترلپذیری، تبیینپذیری، ایمنی در گسترههای زمانی بلند، و اثرات اجتماعی/اقتصادی باید در اولویت قرار گیرند. این تغییر اولویت میتواند رفتار سرمایهگذاری در شرکتها، اولویت پژوهشی در دانشگاهها، و استانداردهای تنظیمی را هدایت کند.
علاوه بر این، رویکرد انسانمحور نیاز به مشارکت گستردهتر جامعه علمی، نهادهای غیردولتی، قانونگذاران و عموم مردم دارد تا ارزشها و هنجارهای مورد قبول در طراحی و استقرار سامانهها مشخص شود. چنین فرآیندی میتواند شامل فرایندهای مشورتی باز، آزمایشگاههای سیاستگذاری و انجمنهای اخلاقی تخصصی باشد تا جنبههای کاربردی، برخاسته از زمینههای محلی و فرهنگی، مدنظر قرار گیرند.

آگاه باشیم: نه خودآگاه، بلکه شبیهسازیهای پیچیده
از نظر فلسفی، سلیمان هشدار داد که نسبت دادن خودآگاهی یا وضعیت اخلاقی به سیستمهای هوش مصنوعی خطای مفهومی است. او گفت: «آنها رنج نمیبرند. درد را احساس نمیکنند. آنها صرفاً مکالمات با کیفیت بالا را شبیهسازی میکنند.» استفاده از زبان دقیق در توضیح قابلیتها میتواند از ایجاد سردرگمی در بحثهای عمومی و فرایند سیاستگذاری جلوگیری کند.
تمایز بین رفتارِ ظاهراً هوشمندانه و داشتن تجربه ذهنی واقعی (phenomenal consciousness) اهمیت عملی دارد. اگر عمومی تصور کند که ماشینها احساس دارند، ممکن است انتظارات اخلاقی یا حقوقی نامناسب به وجود آید که روند تنظیم و توسعه تکنولوژی را پیچیدهتر کند. بنابراین، پژوهشگران پیشنهاد میکنند که هنگام توصیف سیستمها از واژگانی استفاده شود که تواناییهای عملکردی را منعکس کند (مثلاً توانایی تولید زبان یا حل مسئله)، نه واژگانی که به وضعیت ذهنی یا خودآگاهی اشاره دارند.
از نگاه فنی نیز، بسیاری از مدلهای پیشرفته یادگیری ماشینی مبتنی بر بهینهسازی آماری و الگوهای همبستگی هستند؛ اینها سازوکارهایی برای تقریب توابع پیچیدهاند و نه نمایشگرهای آگاهی. این نکته در توسعه مجموعهای از مفاهیم و معیارها برای ارزیابی خطرات و ایمنی اهمیت دارد؛ بهخصوص هنگامی که سامانهها در حوزههایی با پیامدهای انسانی بالا بهکار گرفته میشوند.
موضع سلیمان در میان اختلافات صنعتی
اظهارات او با دیدگاههای خوشبینانهتر برخی از رهبران هوش مصنوعی تفاوت دارد. سم آلتمن، مدیرعامل OpenAI، هوش مصنوعی عمومی (AGI) — سیستمی با استدلال و تواناییهای مشابه انسان — را بهعنوان مأموریتی مرکزی معرفی کرده و حتی گفته است که تیمش فراتر از AGI و به سمت ابرهوش نیز فکر میکند و احتمال پیشرفتهای بزرگ را در این دهه مطرح کرده است. دیمیس هاسابیس از DeepMind نیز پنجره زمانی تقریباً مشابهی ارائه داده و برآورد کرده که AGI ممکن است ظرف پنج تا ده سال ظاهر شود.
- سم آلتمن (OpenAI): تمرکز بر AGI دارد و نسبت به ایده ابرهوش خوشبین است؛ معتقد است در صورت همراستایی میتواند فواید قابلتوجهی به همراه داشته باشد.
- دیمیس هاسابیس (DeepMind): نگاه خوشبینانهای نسبت به افق زمانی پنج تا ده ساله برای ظهور AGI دارد.
- یان لوکون (Meta): محتاطتر است؛ بر این باور است که AGI ممکن است دههها با ما فاصله داشته باشد و افزایش صرف داده و محاسبات لزوماً به سیستمهای هوشمندتر ختم نمیشود.
این اختلافات نشاندهنده سؤال اصلی پیش روی شرکتها و سیاستگذاران است: آیا هدف باید افزایش صرف توانمندی خام (raw capability) باشد، یا صنعت باید تمرکز خود را بر ایمنی، همراستایی و طراحی انسانمحور مضاعف کند؟ موضع سلیمان واضح است — مردم باید در اولویت باشند، نه مسابقهای برای رسیدن به سطوح بالاترِ بیپایان از هوش ماشینی.
بحثهای فعلی نهتنها مسیر فنی پژوهش را شکل میدهند، بلکه میتوانند در تخصیص مالی، چارچوبهای قانونی و اعتماد عمومی اثرگذار باشند. انتخاب عملیاتی که شرکتها اکنون انجام میدهند — دنبال کردن قلههای نظری هوش یا ساخت سامانههایی که بهطور مشخص نیازهای انسانی را برآورده میکنند — میتواند تعیینکننده تجربه جامعه از موج بعدی فناوری هوش مصنوعی باشد.
علاوه بر این، نگرش شرکتهای بزرگ مانند مایکروسافت و OpenAI میتواند اکوسیستم استارتاپی، دانشگاهها و نهادهای سرمایهگذاری را نیز جهتدهی کند. اگر سرمایهگذاری عمده به سمت قابلیتهای خام حرکت کند، احتمال رشد سریع مدلهای بسیار قدرتمند بدون زیرساختهای کنترل و نظارت کافی افزایش مییابد. برعکس، اگر بازار انگیزههایی برای توسعه ابزارهای ایمنی، همراستایی و شفافیت فراهم کند، اکوسیستم به سمت نوآوری مسئولانهتر سوق خواهد یافت.
در سطح سیاستگذاری، این مباحث میتوانند به تدوین استانداردها و مقرراتی مانند ارزیابیهای پیش از عرضه، معیارهای شفافیت، و الزاماتی برای آزمایش میدانی و گزارشدهی منجر شوند. چنین اقدامات پیشگیرانهای میتواند از بروز برخی از سناریوهای مخرب جلوگیری کند و تضمین کند که توسعه هوش مصنوعی با معیارهای فنی و اخلاقی قابل اتکایی همراه است.
در مجموع، سخنان سلیمان یک فراخوان عمل برای اولویتبخشی به ایمنی و منافع انسانی در مسیر توسعه هوش مصنوعی است. او پیشنهاد میکند که بهجای مسابقه بر سر ساخت ابرهوش، باید روی سیستمهایی کار کنیم که قابلیتهای مفید را در خدمت انسان قرار دهند و همزمان مکانیسمهای کنترل و همراستایی قوی داشته باشند. این موضع هم از منظر فنی و هم از دیدگاه جامعهشناختی و اخلاقی مبنای منطقی دارد.
هوش مصنوعی در حال تغییر بنیادین شیوه کار، یادگیری، تصمیمگیری و تعاملات اجتماعی ماست. نحوه تنظیم اهداف توسعه در این مرحله تعیین میکند که این تغییر چگونه زندگی روزمره، بازار کار، سیاست و ساختار قدرت را تحت تأثیر قرار دهد. به همین دلیل، گفتگوهای متوازن و مبتنی بر شواهد بین شرکتها، نهادهای تحقیقاتی، دولتها و جامعه مدنی ضروری است تا همراستایی میان نوآوری و منافع عمومی حفظ شود.
منبع: smarti
نظرات
مکس_ایکس
سلیمان کمی محتاطه اما منطقی، خیلیا درباره «خودآگاهی» ماشینها اغراق میکنن، باید زبان دقیق باشه، نه هیاهو.
رضا
نکتهی کلیدی اینه که معیارها باید عوض شن؛ کنترلپذیری، تبیینپذیری و اثرات اجتماعی باید بالاتر از رکورد زدن باشن، نه فقط قدرت خام.
بیونیکس
من توو پروژهای دیدم مدلای خیلی قوی بدون نظارت کلی مشکل ساختن، تجربهام میگه اول ایمنی رو بذارید بعد مقیاس بندی
توربو
آیا واقعا میشه همزمان سرعت پیشرفت و ایمنی رو تضمین کرد؟ شک دارم، مخصوصا وقتی پول و رقابت وسطه...
کوینپی
معقول گفته؛ شفافیت و کنترل مهمتر از مسابقهی صرف برای قدرت محاسباتیه.
دیتاپالس
وااای این حرفها لازم بود، دنبال ابرهوش بودن بدون چارچوب و کنترل یعنی رفتن سمت خطر بزرگ، باید اول ایمنی رو درست کنن…
ارسال نظر