کنترل والدین اینستاگرام برای چت هوش مصنوعی نوجوانان

متا ابزارهای جدید کنترل والدین در اینستاگرام را معرفی می‌کند تا دسترسی نوجوانان به چت‌بات‌های هوش مصنوعی را محدود کند؛ شامل مسدودسازی چت‌های خصوصی، گزارش‌دهی موضوعات گفتگو و تنظیم پاسخ‌های متناسب با سن.

نظرات
کنترل والدین اینستاگرام برای چت هوش مصنوعی نوجوانان

6 دقیقه

اینستاگرام در حال ارائهٔ مجموعه‌ای از ابزارهای کنترل والدین است که هدف آن محدودسازی نحوهٔ تعامل نوجوانان با چت‌بات‌های مبتنی بر هوش مصنوعی در پلتفرم‌های متا است. این تغییر به والدین نظارت و امکان مسدودسازی گفتگوهای خصوصی با هوش مصنوعی را می‌دهد، در حالی که دسترسی به قابلیت‌های اصلی Meta AI حفظ می‌شود. در عین حال شرکت تلاش می‌کند بین محافظت از حریم خصوصی نوجوانان و بهره‌مندی آن‌ها از قابلیت‌های هوش مصنوعی تعادل برقرار کند.

What’s changing — and how it works

متا در حال توسعهٔ ابزارهایی است که به والدین اجازه می‌دهد به‌صورت کامل دسترسی نوجوانان خود به چت‌بات‌های هوش مصنوعی در گفتگوهای خصوصی را مسدود کنند. وقتی این گزینه فعال شود، نوجوان قادر نخواهد بود در فضای خصوصی با شخصیت‌های هوش مصنوعی مبتنی بر Meta گفتگو کند؛ با این وجود ممکن است همچنان بتواند از تجربهٔ اصلی Meta AI استفاده کند که در فضای عمومی یا امکانات پایه ارائه می‌شود. والدین همچنین می‌توانند به‌جای اعمال یک مسدودسازی کلی، دسترسی به شخصیت‌های خاص هوش مصنوعی یا «پرسونا»های مشخص را محدود کنند. این طراحی به والدین انعطاف لازم را می‌دهد تا بر اساس سن، بلوغ و نیازهای فرزندشان تنظیمات متفاوتی اعمال کنند.

  • مسدودسازی کامل گفتگوهای خصوصی هوش مصنوعی برای نوجوانان
  • محدود کردن دسترسی به پرسوناها یا شخصیت‌های مشخص هوش مصنوعی
  • دریافت گزارش‌های خلاصه از موضوعاتی که نوجوانان با چت‌بات‌های متا مطرح کرده‌اند

Why Meta is taking this step

هدف از این اقدامات این است که والدین بتوانند تصویری کلی از موضوعاتی که فرزندشان با هوش مصنوعی مطرح کرده مشاهده کنند — یعنی ارائهٔ زمینهٔ بیشتر و کنترل بهتر. این قدم‌ها پس از انتشار اسناد داخلی در اوایل سال جاری اتخاذ شد که نشان می‌داد برخی از چت‌بات‌های متا پاسخ‌های نامناسب یا حساس در گفتگو با کودکان تولید کرده‌اند. این افشاگری موجی از انتقادات را برانگیخت و فشار ناظران، گروه‌های مدافع حقوق کودک و مقامات قانونی را افزایش داد.

چهل و چهار دادستان کل ایالت‌های آمریکا از شرکت‌های فناوری خواسته‌اند تا حفاظت از کودکان در برابر مخاطرات مرتبط با محصولات مبتنی بر هوش مصنوعی را تقویت کنند. هم‌زمان، یک زیرکمیته سنای آمریکا به ریاست سناتور جاش هولی نیز تحقیقات و پرس‌وجوهایی را دربارهٔ رویه‌های متا آغاز کرده است. در واکنش به این فشارها، متا اعلام کرده مدل‌های هوش مصنوعی خود را بازآموزی کرده و لایه‌های حفاظتی بیشتری اضافه می‌کند تا دسترسی کاربران کم‌سن‌تر به محتوای نامناسب محدود شود. این اقدامات شامل تجدیدنظر در سوگیری‌ها، بهبود فیلترها و تنظیم خطوط راهنمای اخلاقی برای پاسخ‌های تولیدشده توسط ربات‌ها است.

Safety settings and age-appropriate responses

به‌عنوان بخشی از این به‌روزرسانی، متا در حال تعدیل پاسخ‌های چت‌بات برای کاربران نوجوان است تا هماهنگ با سطح محتواى دسته‌بندی شدهٔ PG-13 باشد؛ به این معنی که پاسخ‌هایی که به مخاطبان کم‌سال‌تر ارائه می‌شود از زبان و موضوعات بزرگسالانه اجتناب خواهند کرد. این تنظیمات شامل اعمال فیلترهای واژگانی، محدود کردن دسترسی به موضوعات حساس و تنظیمات پیش‌فرض محافظه‌کارانه برای گروه‌های سنی پایین‌تر است. علاوه بر این، سیستم‌های شخصی‌سازی پاسخ تلاش می‌کنند بین امنیت و سودمندی ابزارهای هوش مصنوعی تعادل برقرار کنند تا نوجوانان بتوانند از قابلیت‌هایی مثل کمک در تکالیف، آموزش مهارت‌های دیجیتال یا مشاورهٔ عمومی بهره ببرند بدون این‌که در معرض محتوای نامناسب قرار گیرند.

در عمل این سیاست‌ها می‌تواند شامل چند مؤلفه فنی و اجرایی باشد: تنظیمات پیش‌فرض حساب‌های کاربری نوجوانان به‌گونه‌ای انتخاب شود که دسترسی به برخی APIها یا کلاس‌های پاسخ محدود گردد؛ سیستم‌های یادگیری ماشین بازآموزی شوند تا سیگنال‌های حساسیت را بهتر تشخیص دهند؛ و مکانیزم‌های گزارش‌دهی و بازبینی انسانی برای پاسخ‌های مشکوک تقویت شود. همچنین، متا وعده داده است که از متخصصان حقوق کودک، روان‌شناسان نوجوان و کارشناسان حریم خصوصی برای بازبینی و بهبود مداوم معیارهای ایمنی استفاده کند.

When and where the features will appear

متا برنامه‌ریزی کرده است که نمونهٔ اولیهٔ محدود ابزارهای والدین را اوایل سال آینده به اجرا بگذارد. این آزمایشی محدود ابتدا روی اینستاگرام به زبان انگلیسی اجرا خواهد شد و جمعیت هدف اولیه کاربران در ایالات متحده، بریتانیا، کانادا و استرالیا خواهند بود. شرکت خاطرنشان کرده طراحی نهایی این کنترل‌ها هنوز در دست توسعه است و ممکن است پیش از عرضهٔ گسترده تغییراتی در آن ایجاد شود. اجرای آزمایشی (pilot) معمولاً شامل ارزیابی واکنش کاربران، تحلیل داده‌های استفاده، و بازخوردگیری از والدین و نوجوانان است تا بر اساس نتیجهٔ این فاز اولیه اصلاحات لازم اعمال شود.

در این مرحله آزمایشی، متا احتمالاً به جمع‌آوری معیارهای کلیدی مانند نرخ استفاده از ابزار، تعداد گفتگوهای مسدودشده، شکایات گزارش‌شده، و اثربخشی تنظیمات سنی خواهد پرداخت. همچنین ممکن است با سازمان‌های ناظر بر محافظت از کودکان و گروه‌های بین‌المللی همکاری کند تا اطمینان حاصل شود راهکارها با مقررات محلی سازگارند. بسته به بازخوردها و نتایج فنی، زمان‌بندی عرضهٔ جهانی یا افزوده شدن زبان‌ها و بازارهای دیگر متغیر خواهد بود.

Trade-offs and what parents should know

این کنترل‌ها گزینه‌های بیشتری در اختیار خانواده‌ها قرار می‌دهند، اما نباید آن‌ها را یک راه‌حل کامل دانست. مسدودسازی گفتگوهای خصوصی با هوش مصنوعی یک مسیر تعامل را می‌بندد، اما نوجوانان ممکن است همچنان در ویژگی‌های عمومی پلتفرم یا از طریق ربات اصلی Meta AI با هوش مصنوعی مواجه شوند. علاوه بر این، ابزارهای کنترلی تکنیکی معمولاً نیازمند مدیریت و بازنگری مداوم هستند؛ بنابراین والدین باید این تنظیمات را همراه با گفتگوهای صادقانه دربارهٔ امنیت دیجیتال، حریم خصوصی و تشویق نوجوانان به گزارش هر تجربهٔ ناراحت‌کننده ترکیب کنند.

والدین بهتر است چند اقدام عملی را نیز در نظر بگیرند: آشنایی با تنظیمات حریم خصوصی حساب‌ها، نظارت بر زمان‌های صرف‌شده در اپلیکیشن، گفتگوهای منظم دربارهٔ محتوایی که نوجوانان با آن برخورد می‌کنند، و آموزش نشانه‌های خطرناک آنلاین. همچنین توصیه می‌شود والدین از ابزارهای گزارش‌دهی و تاریخچهٔ تعاملات استفاده کنند تا در صورت نیاز بتوانند موضوعات را پیگیری و در صورت لزوم با متخصصان مربوطه مشورت کنند.

اعلامیهٔ متا یادآور این است که حاکمیت هوش مصنوعی (AI governance) در حال تحول است و راهکارها به‌مرور تکامل خواهند یافت. انتظار می‌رود با پیشروی فاز آزمایشی و ادامهٔ بررسی‌ها توسط ناظران و قانون‌گذاران، به‌روزرسانی‌ها و پالایش‌های بیشتری ارائه شود تا شرکت‌های بزرگ فناوری روش‌های خود برای حفاظت از کاربران جوان را بهبود بخشند. از سوی دیگر، شفافیت بیشتر در سیاست‌ها، گزارش‌های دوره‌ای و مشارکت مستقل می‌تواند به افزایش اعتماد عمومی نسبت به استفادهٔ ایمن از فناوری‌های هوش مصنوعی کمک کند.

منبع: smarti

ارسال نظر

نظرات

مطالب مرتبط