4 دقیقه
X بار دیگر به دلیل محتوای سوءاستفاده جنسی کودکان در پلتفرمش مورد انتقاد قرار گرفت
شبکه اجتماعی X (که پیشتر با نام توییتر شناخته میشد) بار دیگر درگیر چالشهای حقوقی تازهای شد؛ چرا که یک حکم مهم قضایی این شرکت را موظف میداند تا به اتهامات قصور در مواجهه با محتوای سوءاستفاده جنسی از کودکان (CSAM) در پلتفرمش پاسخ دهد. روز جمعه، قاضی دنیل فارست از دادگاه تجدیدنظر ایالات متحده اعلام کرد X باید با ادعاهایی مواجه شود که معتقدند اقدامات این شرکت برای شناسایی، گزارشدهی و حذف CSAM کافی نبوده و سامانههای گزارشدهی آن نتوانستهاند امنیت کافی برای کاربران نوجوان فراهم کنند.
چشمانداز حقوقی: ادامه مجادله پیرامون مسئولیت پلتفرمها
این تحول جدید بخشی از شکایتی است که نخستین بار در سال 2021 علیه توییتر – پیش از تغییر نام آن به X – مطرح شد. شاکیان این پرونده دو نوجوان هستند که بر این باورند شرکت در واکنش به گزارشهایی درباره انتشار محتوای صریح مربوط به آنان که توسط یک قاچاقچی آنلاین از آنها اخذ شده بود، تأخیر داشت. طبق ادعای آنان، X در حذف این تصاویر بهموقع عمل نکرد و همچنین سامانههای گزارشدهی آن نیز نتوانستند به طور مؤثر موارد فوری سوءاستفاده را مدیریت کنند.
در گذشته، رأی دادگاه قبلی به نفع X بود و به ماده 230 قانون شایستگی ارتباطات استناد میکرد؛ بندی اساسی از حقوق اینترنتی که عمدتاً پلتفرمهای آنلاین را از مسئولیت محتوای تولیدشده توسط کاربران معاف میکند. رای جدید قاضی فارست در بخشی با تصمیم پیشین موافق است، اما همچنین اذعان دارد شواهد کافی وجود دارد تا نشان دهد X ممکن است در اجرای سیاستهای داخلی و محافظت از کاربران خود قصور ورزیده باشد.
ارزیابی سیستمهای گزارشدهی X
بر پایه اسناد دادگاه، محور پرونده مربوط به نوجوانی سیزده ساله و نوجوانی چهارده ساله است که توسط افرادی سودجو وادار به ارسال تصاویر صریح از خود شدهاند. پس از انتشار این تصاویر در پلتفرم، گزارشهایی وجود دارد مبنی بر اینکه نوجوان سیزده ساله از ابزارهای داخلی گزارشدهی توییتر برای علامتگذاری این محتوای غیرقانونی استفاده کرد. مادر او نیز شکایتی ارسال نمود، اما در ابتدا فقط پاسخ خودکار دریافت کرد؛ موضوعی که نگرانیهای گستردهتری را نسبت به نحوه پاسخگویی و تجربه کاربری در این پلتفرم برجسته میکند. با وجود تلاشهای مکرر برای گزارش تخلف، هر دو شاکی بیان کردهاند که مجبور شدند نه روز منتظر بمانند تا نهایتاً پست مشکلساز حذف شود. تنها پس از این تاخیر بود که حساب کاربری متخلف تعلیق شد و تخلف طبق قوانین فدرال به مرکز ملی کودکان گمشده و قربانی سوءاستفاده گزارش گردید.
مقایسه با دیگر شبکههای اجتماعی
اکنون رویکرد X در شناسایی و گزارش CSAM با استانداردهایی که در دیگر شبکههای اجتماعی بزرگ از جمله فیسبوک و اینستاگرام (متا) و یوتیوب (گوگل) جریان دارد مقایسه میشود. بسیاری از فعالان حوزه فناوری بر این باورند که استفاده از ابزارهای هوش مصنوعی برای پایش محتوا، واکنش سریع و شفافیت در مدیریت رخدادها برای محافظت کاربران بسیار حیاتی است. تاخیر مشاهدهشده در این پرونده نقاط ضعف احتمالی در فرآیندهای X را برجسته میکند و پرسشهای مهمی درباره مسئولیتپذیری پلتفرم و ویژگیهای محصولات آن مطرح میسازد.
اهمیت بازار و پیامدهای گستردهتر
این دعوای حقوقی همچنان میتواند تاثیر زیادی بر تعیین استانداردهای نحوه شناسایی، گزارشدهی و حذف محتوای غیرقانونی توسط شبکههای اجتماعی بگذارد. اگر این پرونده در دادگاه عالی مورد رسیدگی قرار گیرد، حکم صادرشده ممکن است بر آینده فناوریهای پایش محتوا، ابزارهای گزارشدهی کاربران و الزامات حقوقی شرکتهای شبکههای اجتماعی در سطح جهان اثرگذار باشد. برای X، چنین شرایطی میتواند منجر به تغییرات مهمی در طراحی محصولات، پشتیبانی مشتریان و انطباق با مقررات جدید ایمنی دیجیتال شود.
برای مدیران پلتفرمها، والدین و متخصصان فناوری، این اختلاف حقوقی پرسر و صدا ضرورت سرمایهگذاری بر توسعه ابزارهای هوشمند پایش محتوا، سامانههای کاربرپسند گزارشدهی و مسیرهای شفاف پیگیری گزارشها را پررنگتر میسازد. با بازگشت پرونده به دادگاه ناحیهای، نگاهها به سمت گامهای بعدی X معطوف شده است؛ گامهایی که میتواند نقشی تعیینکننده در جلب اعتماد دیجیتال و ارتقاء امنیت کاربران در این پلتفرم پرتحول ایفا کند.
منبع: engadget

نظرات