تحقیقات مجلس سنا بر روی سیاست های هوش مصنوعی مولد متا

تحقیقات مجلس سنا بر روی سیاست های هوش مصنوعی مولد متا

۱۴۰۴-۰۵-۲۵
0 نظرات سارا احمدی

5 دقیقه

تحقیقات رسمی سنا درباره عملکرد هوش مصنوعی تولیدی متا آغاز شد

یک سناتور آمریکایی تحقیقات تازه‌ای را در خصوص سیاست‌های متا در زمینه هوش مصنوعی مولد آغاز کرده است؛ این اقدام پس از افشای یک سند داخلی صورت گرفت که به گفته منتقدان، نمونه‌هایی از تعاملات نامناسب بین چت‌بات‌های هوش مصنوعی و کودکان را مجاز می‌شمرد. این سند که به گزارش رویترز «استانداردهای ریسک محتوای GenAI» نامیده شده، واکنش شدید کاربران فضای مجازی را برانگیخت و خواستار ارائه اسناد و ارتباطات داخلی توسط مدیریت متا شد.

دلیل آغاز تحقیقات چیست؟

سناتور جاش هاولی (جمهوری‌خواه-میسوری) اعلام کرد برای انجام این بررسی از اختیارات خود به عنوان رئیس زیرکمیته قضایی سنا در حوزه جرم و مبارزه با تروریسم استفاده می‌کند. طبق نامه‌هاولی به مارک زاکربرگ، مدیرعامل متا، راهنمایی افشاشده شامل فرضیاتی از پاسخ‌های چت‌بات بود که بیانگر تحمل نگران‌کننده نسبت به محتوای جنسی مربوط به افراد خردسال بود. هاولی این مطالب را هشداردهنده خواند و از متا خواست تمامی نسخه‌های این سند سیاستی، گزارش‌های مربوط و هویت کارکنانی که در موضوع تصمیم‌گیری محتواسازی دخیل بودند را حفظ و ارائه نماید.

واکنش متا و فضای سیاستی

شرکت متا تاکید کرد سیاست‌های رسمی آن هرگونه جنسی‌سازی کودکان و ایفای نقش‌های جنسی میان بزرگسالان و خردسالان را ممنوع می‌کند. به گفته متا، مثال‌ها و یادداشت‌های داخلی مورد بحث با سیاست رسمی متناقض بوده و اکنون حذف شده‌اند. همچنین متا خاطرنشان کرد تیم‌ها در توسعه استانداردهای ایمنی هوش مصنوعی، مثال‌های متعددی تولید می‌کنند که برخی از آن‌ها اشتباه بوده‌اند و نماینده رفتار مجاز نیستند.

ارسال‌های بحث‌برانگیز و نگرانی‌ها

گزارش‌ها نشان می‌دهند که راهنمای افشاشده شامل مکالمات فرضی بود که برای منتقدین بشدت نگران‌کننده بود، علاوه بر آن، موضع‌گیری‌های سهل‌گیرانه‌ای مانند مجاز دانستن شایعات ساختگی درباره افراد مشهور با درج هشدار نیز در سند وجود داشت. بر اساس قوانین توضیح داده شده، سیاست مذکور به طور مشخص سخنان تنفرآمیز را مسدود و ارائه مشاوره‌هایی با قطعیت حرفه‌ای توسط چت‌بات‌ها را محدود می‌کرد؛ اما نمونه‌های سهل‌گیرانه ذکرشده منجر به بررسی‌های نظارتی فعلی شدند.

ویژگی‌های محصول و عملکرد هوش مصنوعی متا

محصولات هوش مصنوعی مولد متا همچون چت‌بات‌ها، دستیارهای مجازی و ابزارهای تولید محتوای دیجیتال، بر پایه مدل‌های یادگیری ماشینی و داده‌های وسیع ساخته شده‌اند. این محصولات اغلب شامل عامل‌های مکالمه‌ای، شخصیت‌های هوش مصنوعی و پیشنهادهای خودکار محتوا هستند و هدف آن‌ها افزایش تعامل کاربران، شخصی‌سازی خدمات و پشتیبانی از مواردی مانند پشتیبانی مشتریان، شخصیت‌های بازی و محتوای خلاقانه است.

حفاظت‌های ایمنی و نظارت بر محتوا

نظارت کارآمد بر محتوا در سامانه‌های هوش مصنوعی مولد مستلزم کنترل‌های چندسطحی است: پالایش دیتاست در زمان آموزش، فیلترهای ورودی و خروجی، بررسی انسانی و تعریف خط‌مشی‌های شفاف. این چالش بیانگر آن است که مثال‌های مبهم یا یادداشت‌های داخلی می‌تواند اعتماد به روند نظارت را دچار آسیب کند و نیازمند حاکمیت قوی در سطح تحقیق، محصول و تیم‌های حقوقی است.

مقایسه متا با سایر شرکت‌های حوزه هوش مصنوعی

در مقایسه با سایر بازیگران بزرگ حوزه هوش مصنوعی، متا نیز با مسائلی مشابه درباره توازن بین قابلیت و سیاست مواجه است. شرکت‌هایی نظیر OpenAI و گوگل همواره با چالش میان توان خلاقیت محاوره‌ای و محدودیت‌های ایمنی روبرو شده‌اند. تفاوت عمدتاً در شفافیت، نگهداری مستندات و دقت تست‌های پیش از انتشار است. این رویداد، لزوم استقرار استانداردهای اخلاقی قوی‌تر و سیاست‌های شفاف‌تر را در بازار دوچندان می‌کند.

مزایا، ریسک‌ها و کاربردهای عملی

مزایای هوش مصنوعی مولد واضح است: پشتیبانی محاوره‌ای مقیاس‌پذیر، تولید خودکار محتوا، قابلیت‌های افزایش دسترسی و تعامل بیشتر کاربران. موارد استفاده شامل معلمان مجازی، دستیارهای درون‌برنامه‌ای و ابزارهای طراحی مولد است. با این حال، ریسک‌هایی چون جنسی‌سازی ناخواسته، نشر اطلاعات غلط و آسیب اعتباری در صورت تعامل با کودکان وجود دارد. شرکت‌ها باید میان نوآوری و ایمنی، از جمله اعمال فیلترهای سنی و محدودیت‌های سخت برای شخصیت‌ها توازن برقرار کنند.

اهمیت بازار و اثرات قانونی

این تحقیق در دوره‌ای از تشدید نظارت قانونی بر غول‌های فناوری اتفاق می‌افتد. نتایج این روند می‌تواند شکل‌دهنده قوانین آتی هوش مصنوعی، خواهان شفافیت بیشتر در مستندسازی AI و تاثیرگذار بر نحوه انتشار استانداردهای داخلی ریسک محتوا برای شرکت‌ها باشد. ذینفعان، از والدین تا سرمایه‌گذاران، موضوع را با دقت دنبال می‌کنند و فاصله‌گیری چهره‌های مشهور از این پلتفرم نشانه افزایش ریسک اعتباری برای پلتفرم‌هایی است که ویژگی‌های هوش مصنوعی مولد ارائه می‌کنند.

با ادامه تحقیقات، جامعه فناوری شاهد خواهد بود که آیا قانون‌گذاران تغییرات اساسی در فرایند توسعه، مستندسازی و ارائه سیستم‌های هوش مصنوعی مولد، به ویژه آن‌هایی که با جمعیت‌های آسیب‌پذیر نظیر کودکان سروکار دارند، مطالبه خواهند کرد یا خیر.

منبع: gizmodo

سلام! من سارا هستم، عاشق دنیای فناوری و گجت‌های جدید. از بچگی شیفته موبایل و لپ‌تاپ بودم و حالا خوشحالم که می‌تونم آخرین اخبار و ترندهای دنیای تکنولوژی رو باهاتون به اشتراک بذارم.

نظرات

ارسال نظر