8 دقیقه
متا در حال افزودن قابلیتهای کنترل والدین به چتبات مبتنی بر هوش مصنوعی اینستاگرام است تا مراقبان و والدین نظارت بیشتری بر نحوه تعامل نوجوانان با هوش مصنوعی مولدی (Generative AI) داشته باشند. این اقدام در واکنش به گزارشهایی صورت میگیرد که نشان میداد برخی کاربران خردسال در گفتگوهای عاشقانه یا نامناسب با چتباتها وارد شدهاند و شرکت را واداشت تا با تمرکز بر ایمنی، ابزارهایی در اختیار خانوادهها قرار دهد. هدف متا ایجاد تعادل میان نوآوری در خدمات هوش مصنوعی و محافظت از کاربران آسیبپذیر، بهویژه نوجوانان، اعلام شده است.
چرا متا کنترلها را تشدید میکند
تصور کنید نوجوانی نیمهشب با یک مدل گفتگوکننده هوش مصنوعی گفتوگو میکند؛ در ظاهر بیخطر به نظر میرسد اما مکالمات میتوانند در جهاتی جابجا شوند که برای سلامت عاطفی یا امنیت نوجوان مضر باشند. متا میگوید ابزارهای جدید پاسخی به همین ریسکها هستند و بخشی از تلاش گستردهتری برای ایجاد تعادل میان عرضه قابلیتهای مفید هوش مصنوعی و کاهش آسیبهای احتمالی به کاربران هستند. آدام ماسری، مسئول ارشد محصول و مدیر ارشد هوش مصنوعی در متا، در بهروزرسانی اخیر خود از برنامههای شرکت برای ارائه این ویژگیها خبر داد و تاکید کرد که هدف حفظ دسترسی مفید به هوش مصنوعی همراه با کاهش خطرات ممکن است.
در سطح فنی و استراتژیک، این تصمیم نشاندهنده درک متا از چالشهای حریم خصوصی، ایمنی آنلاین و مسئولیتپذیری در برابر گروههای سنی آسیبپذیر است. شرکتهای فناوری که مدلهای زبانی بزرگ و سیستمهای مولد را در دسترس عموم میگذارند، باید مکانیسمهای کنترلی و سیاستهای مدریت ریسک را توسعه دهند تا موارد سوءاستفاده یا تعاملات نامناسب کاهش یابد. افزون بر این، تنظیمکنندگان قوانین و نهادهای مدنی نیز از شرکتها انتظار دارند شفافیت و راهکارهای محافظتی بیشتری برای نوجوانان ارائه دهند، که این اقدام متا را در چارچوب پاسخ به خواستههای گستردهتری قرار میدهد.
والدین چه امکاناتی خواهند داشت
قابلیتهای کنترلی که قرار است اوایل سال آینده عرضه شوند، چند گزینه مدیریتی در اختیار والدین قرار میدهند. والدین قادر خواهند بود دسترسی فرزندشان به شخصیتهای خاص چتبات را مسدود کنند یا در صورت نیاز کل قابلیت متا AI را برای حساب کاربری نوجوان غیرفعال سازند. این مکانیزمها به خانوادهها اجازه میدهد کنترل دقیقتری روی نوع تعاملات و محتوای مورد دسترسی نوجوانان داشته باشند و انتخابهای سفارشیتری برای محافظت فراهم شود.
علاوه بر گزینه مسدودسازی و غیرفعالسازی، متا اعلام کرده که خلاصههایی هم از موضوعاتی که نوجوانان با چتبات مطرح میکنند در اختیار والدین قرار میگیرد. این خلاصهها به گونهای طراحی شدهاند که نشانی از موضوعات و جهتگیریهای کلی گفتگوها بدهند بدون آنکه کل متن گفتگو یا ترانکریپت کامل افشا شود؛ هدف حفظ حریم خصوصی نوجوان در عین ارائه دیدی عملی برای والدین است. آدام ماسری گفته است که جزئیات فنی بیشتر در آینده نزدیک منتشر خواهد شد، از جمله نحوه ایجاد و ارایه این خلاصهها، مدت زمان نگهداری دادهها، و سطوح دسترسی والدین.
از منظر فنی، این نوع خلاصهسازی معمولاً شامل پردازش خودکار محتوای گفتگو با استفاده از مدلهای طبقهبندی و استخراج موضوع (topic extraction) است که پیامهای حساس یا شخصی را فیلتر کرده و تنها اطلاعات کلیتری درباره محورهای گفتگو ارائه میدهد. مهم است که چنین سامانههایی به شیوهای امن و قابل توضیح عمل کنند تا هم اشتباهات طبقهبندی کاهش یابد و هم والدین بتوانند تصمیمات درستتری برای حفاظت نوجوانان اتخاذ کنند.

تمام مسئولیت به خانوادهها منتقل نمیشود
متا تاکید دارد که مسئولیت ایمنی صرفاً به والدین محول نخواهد شد. شرکت میگوید چتبات برای نوجوانان با محافظهای سنی تعبیهشده عرضه خواهد شد تا حتی در صورت فعال بودن یا غیرفعال بودن کنترل والدین، لایههایی از نظارت و تنظیم محتوا وجود داشته باشد. به عبارت دیگر، مدل عملی متا ترکیبی خواهد بود: اتوماسیون و مکانیسمهای خودکار برای جلوگیری از محتوای نامناسب همراه با گزینههای نظارتی والدین تا یک رویکرد هیبریدی میان حفاظت خودکار و کنترل توسط مراقبان ایجاد شود.
این رویکرد هیبریدی مزایای متعددی دارد؛ از جمله کاهش بار تصمیمگیری بر دوش خانوادهها، حفظ استانداردهای ایمنی در سطح سرویس و فراهم آوردن تجربهای که متناسب با سن کاربر تنظیم شده است. در عمل، این میتواند شامل قواعد فیلترینگ مبتنی بر محتوا، محدودیتهایی برای شکلگیری روابط عاطفی با شخصیتهای مصنوعی، و الگوریتمهایی برای شناسایی سیگنالهای گفتاری یا محتوایی که ممکن است نشانه بروز آسیب روحی یا آزار باشند، باشد.
بعلاوه، نگهداشتن لایههای محافظتی در سمت سرویسدهنده باعث میشود اگر والدین تنظیمات را فراموش کنند یا ندانند چگونه از آن استفاده کنند، دستکم یک خط دفاعی برای محافظت از نوجوانان موجود باشد. این امر برای تطابق با استانداردهای حقوقی و اخلاقی نیز اهمیت دارد؛ شرکتها با اعمال محافظتهای پایه میتوانند مسئولیت اجتماعی خود را در قبال کاربران جوان بهتر نشان دهند.
این کنترلها کجا و چه زمانی فعال میشوند
در فاز اول، کنترلهای جدید بهصورت محدود و تنها در اینستاگرام عرضه میشوند. مرحله اولیه هدفگذاری بر کاربران انگلیسیزبان در ایالات متحده، کانادا، بریتانیا و استرالیا است و سپس گسترش به سایر مناطق و پلتفرمهای متا در برنامه قرار دارد. برای خانوادههایی که در این کشورها زندگی میکنند، انتظار میرود عرضه رسمی این قابلیتها اوایل سال آینده آغاز شود و سپس طی ماهها و فصلهای بعدی به بازارهای بیشتر و زبانهای دیگر توسعه یابد.
زمانبندی عرضه گامبهگام به متا اجازه میدهد بازخورد کاربران و دادههای عملکردی را جمعآوری کند، مسائل فنی یا نگرانیهای حریم خصوصی را رفع کند و تجربه کاربری را قبل از توزیع جهانی بهبود بخشد. همچنین این چرخه انتشار به شرکت امکان میدهد با نهادهای قانونگذاری در بازارهای مختلف همکاری کند تا مطابقت با الزامات محلی و مقررات حفاظتی را تضمین نماید.
در کنار صحت فنی، متا باید به مسائل مربوط به زبانشناسی و تفاوتهای فرهنگی نیز توجه کند؛ موضوعی که به ویژه در زمینه کلمات حساس و تفسیرهای محتوایی اهمیت دارد. لذا نسخههای بعدی احتمالاً شامل تنظیمات محلیسازیشده، گزینههای زبانی بیشتر برای خلاصههای گفتگو و سیاستهای تفصیلیتر برای سنجههای محافظتی خواهند بود.
این تغییر برای والدین و نوجوانان چه معنایی دارد
برای والدین، این ویژگیها گامهایی عملی و قابل اجرا برای مدیریت دسترسی نوجوانان به گفتگوهای هوش مصنوعی فراهم میکنند. داشتن ابزارهایی که امکان مسدودسازی شخصیتهای خاص، خاموشکردن کامل هوش مصنوعی یا دریافت خلاصههای موضوعی را میدهد، والدین را توانمند میسازد تا کنترل بیشتری بر محیط دیجیتال فرزندان خود داشته باشند بدون آنکه نیاز به نفوذ کامل در حریم خصوصی نوجوان باشد. این امکان یکی از راهکارهای میانهرو بین محافظت کامل و احترام به استقلال نوجوانان است.
برای نوجوانان نیز هدف متا حفظ دسترسی به قابلیتهای مفید هوش مصنوعی—مانند کمک به تکالیف، ایدهپردازی، اطلاعات آموزشی و امکانات خلاقانه—در حالی است که تعاملات بالقوه نامناسب یا پرریسک را کاهش میدهد. این تعادل به نوجوانان اجازه میدهد از مزایای فناوری نوین بهره ببرند و در عین حال در معرض خطرات روحی یا رفتاری کمتر قرار گیرند.
در سطح اجتماعیتر، این اقدام نشاندهنده گامی عملی به سوی استفاده مسئولانه از هوش مصنوعی در اپلیکیشنهای اجتماعی است؛ رویکردی که هم منافع فناوری و هم نقاط ضعف احتمالی چتباتها را میپذیرد و سعی میکند با ابزارهای مدیریتی و سیاستهای محافظتی به هر دو پاسخ دهد. برای والدین، معلمان و کارشناسان ایمنی آنلاین، این نوع امکانات میتواند به عنوان بخشی از استراتژیهای گستردهتر آموزش دیجیتال و محافظت از نوجوانان در فضای مجازی به کار رود.
بهروزرسانی متا یادآور این است که با انتقال هوش مصنوعی از محیطهای آزمایشگاهی به اپلیکیشنهای روزمره، ابزارهای حاکمیتی، نظارتی و آموزشی برای مدیریت استفاده از آن نیاز به رشد و تغییر دارند. بنابراین انتظار میرود در ماههای آینده جزئیات بیشتری از متا دریافت کنیم—از نحوه کارکرد خلاصهها و مولفههای فنی آنها تا چگونگی اعمال بلوکها و محافظتهای سنی—زیرا شرکت فرایند نهاییسازیِ این امکانات را ادامه میدهد و بازخوردها را در طراحی نهایی لحاظ خواهد کرد.
منبع: gsmarena
ارسال نظر