9 دقیقه
کمیسیون اروپا X (که قبلاً با نام توییتر شناخته میشد) را بهخاطر نقض قوانین مربوط به قانون خدمات دیجیتال (Digital Services Act یا DSA) به پرداخت جریمهای سنگین معادل ۱۲۰ میلیون یورو محکوم کرده است و پاول دوروف، مدیرعامل تلگرام، واکنشی تند نشان داده است. دوروف این مجازاتها را سیاسی خوانده و میگوید هدف، پلتفرمهایی هستند که میزبان صداهای مخالف و بحثهای «ناخوشایند»ند — اتهامی که بحث گستردهتری درباره آزادی بیان، مسئولیت پلتفرمها و تعصب احتمالیِ سیاستگذاری را دوباره برانگیخته است.
چرا دوروف میگوید اتحادیه اروپا بهدنبال سرکوب مخالفت است
بروکسل در بیانیههای خود اعلام کرده که X با تبدیل نشان تأیید آبیرنگ به یک محصول پولی، کاربران را گمراه کرده و تشخیص حسابهای اصیل را دشوار ساخته است. هانا ویرکونِن (Hanna Virkunen)، مسئول پرونده و از مقامات فنی اتحادیه اروپا، شرکت را به نقض حقوق کاربران و طفرهرفتن از پاسخگویی متهم کرده است. کمیسیون جریمه را ۱۲۰ میلیون یورو تعیین کرد (حدود ۱۴۰ میلیون دلار) و به X مهلت ۶۰ روز داد تا اصلاحات لازم را اجرا کند. در صورت امتناع پلتفرم، جریمه میتواند تا ۶ درصد از درآمد جهانی شرکت افزایش یابد — تهدیدی که میتواند عملیات شرکتها را در سراسر اروپا دگرگون کند و هزینههای تبعیت از قانون خدمات دیجیتال را بهشکل جدی بالا ببرد.
دوروف در واکنش خود در تلگرام و X نوشت که اجرای قوانین گزینشی است. او تصریح کرد «اتحادیه اروپا پلتفرمهایی را هدف میگیرد که میزبان گفتگوهای ناخوشایندند» و نامهایی مانند تلگرام، X و تیکتاک را مثال آورد. به گفته او، پلتفرمهایی که بهصورت خاموش و از طریق الگوریتمها سخن را سرکوب میکنند — حتی زمانی که میزبان محتوای غیرقانونی بسیار جدیتر هستند — اغلب از زیر ذرهبین ناظران خارج میمانند.
زمینه قانونی و معنای نقض DSA
قانون خدمات دیجیتال (DSA) از جمله قوانین کلیدی اتحادیه اروپا برای تنظیم بازار پلتفرمهای آنلاین است. هدف این قانون افزایش شفافیت در مدیریت محتوا، حفاظت از حقوق کاربران و تعیین وظایف جدید برای پلتفرمهای بزرگ است. یکی از محورهای اصلی DSA الزام پلتفرمها به شفافسازی شیوههای توصیهگر و حذف یا محدودسازی محتوای غیرقانونی است. در پرونده X، محور بحث درباره «نشان تأیید» و نحوهٔ پولیسازی آن است؛ موضوعی که میتواند روی تشخیص هویت حسابها و انتشار اطلاعات تأثیر بگذارد.
از منظر حقوقی، کمیسیون اروپا باید نشان دهد که سیاستهای شرکت موجب خطر واقعی برای کاربران شده یا حقوق آنها را نقض کرده است. اشاره به امکان افزایش جریمه تا ۶ درصد از درآمد جهانی، بخش دیگری از ابزارهای تنبیهی DSA را نمایان میسازد که با هدف ایجاد بازدارندگی برای شرکتهای بزرگ طراحی شدهاند.
واکنشهای عمومی و رسانهای
واکنشها به این حکم در میان گروههای مدنی، روزنامهنگاران و تحلیلگران فناوری متنوع بوده است. برخی این اقدام را گامی ضروری در جهت مسئولشدن پلتفرمها برای حفاظت از کاربران و جلوگیری از فریبکاری میدانند؛ در حالی که دیگران نگرانند چنین مجازاتهایی ممکن است به سرکوب آزادی بیان یا استفاده سیاسی از ابزارهای قانونی منجر شود. سازمانهای مدافع آزادیهای مدنی بر لزوم شفافیت در تصمیمگیریهای اجرایی و معیارهای اعمال جریمه تاکید میکنند.

بخش بزرگی از بحث عمومی بر این نکته متمرکز است که چگونه معیارهای تشخیصِ محتوای «مخرب» یا «نقضکننده» تعریف میشوند و چه نهادهایی بر اجرای این تعریفها نظارت دارند. هنگامی که موضوع شفافیت الگوریتمها، سیاستهای حذف و قراردادهای پشتپرده با مقامات مطرح میشود، اعتماد عمومی به پلتفرمها و نهادهای ناظر در مرکز توجه قرار میگیرد.
ادعاهای مربوط به «توافقهای پنهانی» با نهادهای دولتی
دوروف بار دیگر ادعاهایی را مطرح کرد که برخی از تنظیمکنندگان اروپایی و پلتفرمها بهصورت پنهانی با هم «توافق» کردهاند. او به ادعای قبلی ایلان ماسک اشاره کرد که در سال ۲۰۲۴ گفته بود کمیسیون ممکن است به برخی شبکههای اجتماعی پیشنهاداتی برای سانسور پنهان محتوا در ازای برخورد نرمتر ارائه داده باشد. دوروف همچنین روایت شخصیتری از فرایندی در فرانسه نقل کرد و گفت مقامات پیشنهادی مبنی بر ارائهٔ کمک اطلاعاتی مطرح کردند به شرطی که تلگرام در رومانی و مولداوی محدودیتهایی اعمال کند.
این نوع اتهامات، حتی اگر بهطور کامل اثباتنشده باشند، بر نگرانیهای مربوط به استقلال نهادهای ناظر و امکانِ سوءاستفادهٔ سیاسی از ابزارهای قانونی دلالت دارند. از سوی دیگر، نهادهای رسمی معمولاً تأکید میکنند که تصمیماتشان بر مبنای قواعد و شواهد حقوقی گرفته میشود و هر گونه همکاری امنیتی باید با چارچوبهای قانونی و شفاف انجام پذیرد.
تحلیل فنی: نقش الگوریتمها و تأثیر بر آزادی اطلاعات
یکی از نقاط تمرکز در این مناقشه نقش الگوریتمهای توصیهگر و رتبهبندی محتوا است. الگوریتمها میتوانند بهطور ناخواسته یا عمدی محتواهای معینی را تقویت یا تضعیف کنند؛ فرایندی که پیامدهای سیاسی و فرهنگی دارد. وقتی الگوریتمها محتواهای «ناخوشایند» را کمنمایش میکنند ولی محتوای آسیبزننده یا غیرقانونی را بهصورت گسترده منتشر میکنند، پرسشهایی درباره استانداردهای ارزیابی خطر و اولویتبندی حذف مطرح میشود.
از منظر امنیت سایبری و حقوقی، پیادهسازی تغییرات فنی برای رعایت DSA میتواند شامل شفافسازی درباره معیارهای توصیه، فراهمکردن مکانیسمهای تجدیدنظر برای کاربران، و اجرای کنترلهای داخلی برای نظارت بر عملکرد الگوریتمها باشد. هزینه و پیچیدگی فنی این تغییرات برای شرکتهای بزرگ میتواند قابل توجه باشد و لذا بحث درباره تعادل میان نوآوری، حفاظت از کاربران و آزادی بیان اهمیت مییابد.
- جریمه: ۱۲۰ میلیون یورو (حدود ۱۴۰ میلیون دلار) تحت DSA.
- مهلت اجرا: ۶۰ روز به X برای اعمال اصلاحات داده شده است.
- ریسک تشدید: در صورت عدم رعایت، جریمه میتواند تا ۶٪ از درآمد جهانی افزایش یابد.
برای شرکتهایی مانند X و تلگرام، این پرونده بیش از یک اختلاف مالی است؛ این یک آزمون برای تعیین چارچوب تعامل میان مقررات کشوری و فعالیت پلتفرمهای جهانی نیز هست. نحوهٔ واکنش X به این حکم و دفاع قانونی یا اقدامات اصلاحی آن، میتواند الگوی عمل برای سایر بازیگران بازار فناوری باشد و چشمانداز تطبیق با DSA را برای همه شرکتها روشنتر یا مبهمتر سازد.
پیامدهای گستردهتر برای پلتفرمها و سیاستگذاران
اگر اتحادیه اروپا در اجرای این نوع احکام مصمم باقی بماند، پلتفرمهای بینالمللی مجبور خواهند شد سیاستهای خود را بازطراحی کنند تا با انتظارات شفافیت، پاسخگویی و حفاظت از حقوق کاربران منطبق شوند. در نتیجه، شاهد افزایش سرمایهگذاری در تیمهای حقوقی، مهندسی شفافیت و واگذاری منابع برای تحلیل ریسکهای تنظیمی خواهیم بود. این فشار میتواند منجر به تغییرات در مدلهای کسبوکار، کاهش برخی درآمدها یا بازتعریف نشانهای تأیید و خدمات پولی مرتبط با حسابها شود.
از سوی سیاستگذاران، این پرونده یک فرصت برای تدوین رویههای روشنتر نظارتی است: نحوه رسیدگی به ادعاهای نقض، استانداردهای شفافیت برای الگوریتمها، و چارچوبِ همکاری میان دولتها و پلتفرمها در مقابله با محتوای غیرقانونی یا مضر. همزمان، گروههای مدافع حقوق دیجیتال خواستار تضمین مکانیزمهای حقوقی برای حفاظت از آزادی بیان و جلوگیری از کاربرد سیاسی مقررات هستند.
مسیرهای احتمالی پیش رو
X ممکن است از رای کمیسیون تجدیدنظر بخواهد، با دلایل حقوقی و شواهد فنی دفاع کند، یا ظرف مهلت ۶۰ روز اصلاحات ساختاری و فنی را اعمال نماید. اگر پرونده به مراحل قضایی کشیده شود، دادگاههای اروپا باید نقش ثباتدهندهای در تفسیر دامنهٔ اختیارات DSA و تبیین معیارهای قابل اجرا ایفا کنند. از منظر بینالمللی، شرکتها و ناظران مناطق دیگر نیز از نتایج این پرونده الگوبرداری خواهند کرد.
در سطح عملی، شفافیت بیشتر درباره جزئیات تصمیم (از جمله شواهد مورد استناد و معیارهای ارزیابی خطر) میتواند به کاهش اتهامات سیاسیبودن اجرای قانون کمک کند. علاوه بر این، طراحی فرآیندهای مورد قبول برای مشارکت جامعه مدنی، محققان و متخصصان مستقل در بررسی عملکرد پلتفرمها میتواند اعتبار تصمیمات را تقویت کند.
اگر درخواست تجدیدنظر مطرح نشود یا اجراییات اصلاحی بهطور کامل انجام پذیرد، این پرونده بهعنوان یک نمونهٔ مهم در تاریخ اجرای قانون خدمات دیجیتال ثبت خواهد شد. در غیر این صورت، دعواهای حقوقی طولانی ممکن است ابهام موجود را تشدید کنند و پرسشهای مرتبط با تاثیر سیاسیگذاری و هماهنگی میان پلتفرمها و دولتها را برجستهتر سازند.
در مجموع، این مناقشه نشاندهندهٔ تنش مداوم میان اهداف حفاظت از کاربران، حفظ آزادی اطلاعات و الزامات نظارتی است. برای کاربران، قانونگذاران و شرکتها، پیام روشن است: حفاظت از حقوق دیجیتال، شفافیت الگوریتمی و پاسخگویی پلتفرمها باید همزمان مورد توجه قرار گیرد تا از بروز سوءاستفادههای احتمالی چه از طرف بازیگران تجاری و چه از طرف نهادهای قدرت جلوگیری شود.
همانطور که X در حال وزنکردن پاسخ خود است و تلگرام به مخالفت ادامه میدهد، این تقابل مورد توجه دقیق سایر پلتفرمها، گروههای مدنی و ناظران اروپایی قرار خواهد گرفت. نتیجهٔ این تقابل میتواند سوابق مهمی برای شیوهٔ اجرای قانون خدمات دیجیتال، محدودهٔ نفوذ سیاستگذاری سیاسی و تعریف عملی آزادی بیان در فضای دیجیتال تعیین کند.
منبع: smarti
ارسال نظر