5 دقیقه
تحقیقات رسمی سنا درباره عملکرد هوش مصنوعی تولیدی متا آغاز شد
یک سناتور آمریکایی تحقیقات تازهای را در خصوص سیاستهای متا در زمینه هوش مصنوعی مولد آغاز کرده است؛ این اقدام پس از افشای یک سند داخلی صورت گرفت که به گفته منتقدان، نمونههایی از تعاملات نامناسب بین چتباتهای هوش مصنوعی و کودکان را مجاز میشمرد. این سند که به گزارش رویترز «استانداردهای ریسک محتوای GenAI» نامیده شده، واکنش شدید کاربران فضای مجازی را برانگیخت و خواستار ارائه اسناد و ارتباطات داخلی توسط مدیریت متا شد.
دلیل آغاز تحقیقات چیست؟
سناتور جاش هاولی (جمهوریخواه-میسوری) اعلام کرد برای انجام این بررسی از اختیارات خود به عنوان رئیس زیرکمیته قضایی سنا در حوزه جرم و مبارزه با تروریسم استفاده میکند. طبق نامههاولی به مارک زاکربرگ، مدیرعامل متا، راهنمایی افشاشده شامل فرضیاتی از پاسخهای چتبات بود که بیانگر تحمل نگرانکننده نسبت به محتوای جنسی مربوط به افراد خردسال بود. هاولی این مطالب را هشداردهنده خواند و از متا خواست تمامی نسخههای این سند سیاستی، گزارشهای مربوط و هویت کارکنانی که در موضوع تصمیمگیری محتواسازی دخیل بودند را حفظ و ارائه نماید.
واکنش متا و فضای سیاستی
شرکت متا تاکید کرد سیاستهای رسمی آن هرگونه جنسیسازی کودکان و ایفای نقشهای جنسی میان بزرگسالان و خردسالان را ممنوع میکند. به گفته متا، مثالها و یادداشتهای داخلی مورد بحث با سیاست رسمی متناقض بوده و اکنون حذف شدهاند. همچنین متا خاطرنشان کرد تیمها در توسعه استانداردهای ایمنی هوش مصنوعی، مثالهای متعددی تولید میکنند که برخی از آنها اشتباه بودهاند و نماینده رفتار مجاز نیستند.
ارسالهای بحثبرانگیز و نگرانیها
گزارشها نشان میدهند که راهنمای افشاشده شامل مکالمات فرضی بود که برای منتقدین بشدت نگرانکننده بود، علاوه بر آن، موضعگیریهای سهلگیرانهای مانند مجاز دانستن شایعات ساختگی درباره افراد مشهور با درج هشدار نیز در سند وجود داشت. بر اساس قوانین توضیح داده شده، سیاست مذکور به طور مشخص سخنان تنفرآمیز را مسدود و ارائه مشاورههایی با قطعیت حرفهای توسط چتباتها را محدود میکرد؛ اما نمونههای سهلگیرانه ذکرشده منجر به بررسیهای نظارتی فعلی شدند.
ویژگیهای محصول و عملکرد هوش مصنوعی متا
محصولات هوش مصنوعی مولد متا همچون چتباتها، دستیارهای مجازی و ابزارهای تولید محتوای دیجیتال، بر پایه مدلهای یادگیری ماشینی و دادههای وسیع ساخته شدهاند. این محصولات اغلب شامل عاملهای مکالمهای، شخصیتهای هوش مصنوعی و پیشنهادهای خودکار محتوا هستند و هدف آنها افزایش تعامل کاربران، شخصیسازی خدمات و پشتیبانی از مواردی مانند پشتیبانی مشتریان، شخصیتهای بازی و محتوای خلاقانه است.
حفاظتهای ایمنی و نظارت بر محتوا
نظارت کارآمد بر محتوا در سامانههای هوش مصنوعی مولد مستلزم کنترلهای چندسطحی است: پالایش دیتاست در زمان آموزش، فیلترهای ورودی و خروجی، بررسی انسانی و تعریف خطمشیهای شفاف. این چالش بیانگر آن است که مثالهای مبهم یا یادداشتهای داخلی میتواند اعتماد به روند نظارت را دچار آسیب کند و نیازمند حاکمیت قوی در سطح تحقیق، محصول و تیمهای حقوقی است.
مقایسه متا با سایر شرکتهای حوزه هوش مصنوعی
در مقایسه با سایر بازیگران بزرگ حوزه هوش مصنوعی، متا نیز با مسائلی مشابه درباره توازن بین قابلیت و سیاست مواجه است. شرکتهایی نظیر OpenAI و گوگل همواره با چالش میان توان خلاقیت محاورهای و محدودیتهای ایمنی روبرو شدهاند. تفاوت عمدتاً در شفافیت، نگهداری مستندات و دقت تستهای پیش از انتشار است. این رویداد، لزوم استقرار استانداردهای اخلاقی قویتر و سیاستهای شفافتر را در بازار دوچندان میکند.
مزایا، ریسکها و کاربردهای عملی
مزایای هوش مصنوعی مولد واضح است: پشتیبانی محاورهای مقیاسپذیر، تولید خودکار محتوا، قابلیتهای افزایش دسترسی و تعامل بیشتر کاربران. موارد استفاده شامل معلمان مجازی، دستیارهای درونبرنامهای و ابزارهای طراحی مولد است. با این حال، ریسکهایی چون جنسیسازی ناخواسته، نشر اطلاعات غلط و آسیب اعتباری در صورت تعامل با کودکان وجود دارد. شرکتها باید میان نوآوری و ایمنی، از جمله اعمال فیلترهای سنی و محدودیتهای سخت برای شخصیتها توازن برقرار کنند.
اهمیت بازار و اثرات قانونی
این تحقیق در دورهای از تشدید نظارت قانونی بر غولهای فناوری اتفاق میافتد. نتایج این روند میتواند شکلدهنده قوانین آتی هوش مصنوعی، خواهان شفافیت بیشتر در مستندسازی AI و تاثیرگذار بر نحوه انتشار استانداردهای داخلی ریسک محتوا برای شرکتها باشد. ذینفعان، از والدین تا سرمایهگذاران، موضوع را با دقت دنبال میکنند و فاصلهگیری چهرههای مشهور از این پلتفرم نشانه افزایش ریسک اعتباری برای پلتفرمهایی است که ویژگیهای هوش مصنوعی مولد ارائه میکنند.
با ادامه تحقیقات، جامعه فناوری شاهد خواهد بود که آیا قانونگذاران تغییرات اساسی در فرایند توسعه، مستندسازی و ارائه سیستمهای هوش مصنوعی مولد، به ویژه آنهایی که با جمعیتهای آسیبپذیر نظیر کودکان سروکار دارند، مطالبه خواهند کرد یا خیر.
منبع: gizmodo

نظرات