11 دقیقه
خلاصه تصمیم
آنها یک کلید را خاموش کردند. بهطریقِ بیسر و صدا. تیم فناوری اطلاعات پارلمان اروپا قابلیتهای مبتنی بر هوش مصنوعی را روی دستگاههای کاری نمایندگان و کارکنان غیرفعال کرده است و دلیلش خطرات آشکار و قابلتوجه در زمینه امنیت و حریم خصوصی اعلام شده است. این اقدام نه بهصورت یک حکم جنجالی در تیتر خبرها، بلکه بهعنوان یک تذکر عملی مطرح شد: اسناد داخلی را در سرویسهای خارجی هوش مصنوعی بارگذاری نکنید.
ریشهٔ نگرانی: چگونه اطلاعات حساس لو میرود
مسئله ساده و سرسخت است. زمانی که یک کارمند یا مشاور، یک یادداشت محرمانه یا محتوای داخلی را در یک چتبات تجاری کپی-پیست میکند، آن داده اغلب روی سرورهای شخص ثالث ذخیره میشود. شرکتهای ارائهدهنده مدلهایی مانند ChatGPT از OpenAI، Copilot از مایکروسافت یا Claude از Anthropic معمولاً از ورودیهای کاربران برای بهبود و آموزش مدلهای خود استفاده میکنند. این مسیر آموزشی میتواند متنهای حساس را در معرض دید گستردهتر یا سیاستهای نگهداری دادهای قرار دهد که خارج از کنترل پارلمان است.
چرا متنهای داخلی خطر دارند
متون اداری ممکن است حاوی اطلاعات مربوط به مذاکرات پشت درهای بسته، مشاورههای حقوقی، استراتژیهای سیاسی یا دادههای شخصی شهروندان باشند. این اطلاعات در مواجهه با فرایندهای آموزش مدل یا لاگبرداری سیستم میتوانند به صورت مستقیم یا ضمنی بازیابی شوند یا در تحلیلهای بعدی مورد استفاده قرار بگیرند و بدینترتیب ریسک نشت، سوءاستفاده یا افشای غیرمجاز افزایش مییابد.
پیام داخلی و استدلال فنی
نشریه Politico یک ایمیل داخلی از بخش فناوری اطلاعات پارلمان بهدست آورد که در آن دلایل این تصمیم تشریح شده است. پیام هشدار داده که مؤسسه نمیتواند امنیت مطالبی را که به سرورهای فروشندگان هوش مصنوعی آپلود میشود تضمین کند. از آنجا که گستره اطلاعاتی که تاکنون با این شرکتها به اشتراک گذاشته شده هنوز در حال ارزیابی است، مسیر ایمنتر این بود که قابلیتهای مبتنی بر هوش مصنوعی خاموش نگه داشته شوند.

پیچیدگی قضایی و حاکمیت داده
یک پیچیدگی دیگر «قلمرو قضایی» است. دادههایی که توسط بسیاری از ارائهدهندگان هوش مصنوعی مستقر در ایالات متحده ذخیره میشوند ممکن است تحت دسترس مقامات آمریکایی قرار گیرند. در هفتههای اخیر وزارت امنیت داخلی ایالات متحده و دیگر نهادها صدها احضاریه و درخواست اطلاعات به پلتفرمهای بزرگ فناوری ارسال کردهاند. طبق گزارشها، برخی شرکتها حتی زمانی که این درخواستها فوراً پشتوانهٔ قضایی نداشتند به آنها تن دادهاند. این واقعیت باعث شده تا بروکسل در استفاده از سرویسهای خارجی برای امور داخلی محتاطتر رفتار کند.
پیامدهای حقوقی و قراردادی
این وضعیت پرسشهایی دربارهی تعهدات قراردادی با پردازشگران داده، نقش کنترلکنندهها و پردازشکنندهها بر اساس قوانین حفاظت دادهای مانند GDPR، و نیاز به ضوابط نگهداری و افشای اطلاعات را مطرح میکند. حتی اگر شرکتها سیاستهایی برای عدم استفاده از دادههای مشتری در آموزش مدل اعلام کنند، داوری دربارهٔ کارایی و قابلیت اجرایی این سیاستها در مواجهه با پروندههای قضایی و درخواستهای دولتی دشوار است.
قوانین حفاظت از داده در اروپا و پیشنهادات کمیسیون
برای سالها اروپا بعضی از سختگیرانهترین قواعد حفاظت از داده در جهان را اعمال کرده است. قوانین مانند GDPR چارچوبی محکم برای پردازش دادههای شخصی ارائه میدهند و الزامات گزارشدهی، حداقلسازی داده و حقوق شهروندان را شامل میشوند. در عین حال، کمیسیون اروپا پیشنهاداتی مطرح کرده که میتواند برخی از موانع را برای آموزش مدلهای هوش مصنوعی بر پایهٔ مجموعهدادههای اروپایی کاهش دهد.
چشمانداز تطبیق قانون و نوآوری
حامیان این تغییرات میگویند تسهیل قوانین میتواند نوآوری محلی را تقویت کند و رقابت در توسعه هوش مصنوعی را حفظ نماید. منتقدان آن را امتیازی به غولهای سیلیکونولی و معاملهای پرخطر برای حریم خصوصی شهروندان توصیف میکنند. سوال اصلی این است که چگونه میتوان بین حمایت از نوآوری و حفاظت از دادههای حساس تعادل برقرار کرد.
تغییرات عملی در روی زمین
در عمل، قابلیتهایی که به کارکنان اجازه میدهد مستقیم با دستیاران ابری تعامل کنند، روی دستگاههای رسمی غیرفعال شدهاند. هدف جلوگیری از بارگذاریهای تأییدنشدهٔ اسناد و مکاتبات—مطالبی که ممکن است مذاکرات، مشاورههای حقوقی یا مواضع سیاسی حساس را نشان دهند—در سیستمهایی است که پارلمان بر آنها کنترلی ندارد.
محدودیتها و راهحلهای موقت
این اقدام معمولاً شامل محدود کردن دسترسی به افزونهها و پلاگینهای مبتنی بر هوش مصنوعی، غیرفعال کردن امکانات اشتراکگذاری مستقیم فایل با سرویسهای خارجی و بهروزرسانی سیاستهای استفاده از ابزارهای غیررسمی میشود. در برخی موارد، فراهمآوردن نسخههای داخلی (on-premise) یا سرویسهای مدیریتشدهٔ تحت کنترل مستقیم سازمان بهعنوان جایگزین مطرح میگردد.
آیا این یک ممنوعیت کامل برای هوش مصنوعی است؟
نه دقیقا. این یک اقدام محدودکننده و احتیاطی است. پارلمان هنوز به مزایای خودکارسازی و ابزارهای تسهیلگر نیاز دارد، اما دارد تعیین میکند که دادهها کجا و چگونه پردازش شوند. میتوان این تصمیم را بهمثابه قفلکردن درِ ورودی منزل دانست در حالی که دربارهٔ اینکه چه کلیدهایی به چه کسانی داده شود، تصمیمگیری میشود.
تفکیک میان ممنوعیت و مدیریت ریسک
بسیاری از نهادها به دنبال رویکردی میانهاند: نه اعمال ممنوعیت کلی، بلکه تعریف چارچوبهای امنیتی، دستهبندی داده (data classification)، سیاستهای جلوگیری از نشتی داده (DLP)، و استفاده از مدلهای خصوصی یا مجازیسازیشده که تحت کنترل کامل سازمان باشند. این اقدامات بهعنوان مدیریت ریسک عمل میکنند و امکان بهرهمندی از هوش مصنوعی را در عین حفاظت از اطلاعات فراهم میآورند.
پیامدها برای سیاستگذاری و نهادهای عمومی
این اتفاق بازتاب یک تنش گستردهتر را نشان میدهد: دولتها میخواهند از ظرفیتهای هوش مصنوعی بهره ببرند اما در عین حال باید از دادههای شهروندان و حاکمیت نهادی دفاع کنند. نحوهٔ برقرار کردن این تعادل، مباحث سیاسی و مقرراتی در بروکسل و فراتر از آن را تعیین خواهد کرد. برای لحظهای، قانونگذاران اروپایی احتیاط را بر راحتی ترجیح دادهاند و این انتخاب ممکن است بر نحوهٔ ادغام هوش مصنوعی مولد در نهادهای عمومی سراسر جهان تأثیر بگذارد.
جزییات فنی و راهکارهای پیشنهادی
از منظر فنی، چند راهبرد مشخص وجود دارد که نهادهای عمومی و سازمانها میتوانند برای کاهش ریسک و همزمان بهرهگیری از هوش مصنوعی به کار بگیرند:
- اجرای مدلهای محلی و مبتنی بر زیرساختهای سازمانی (on-premise) یا در فضای ابری تحت کنترل انحصاری سازمان؛
- استفاده از نسخههای fine-tuned محلی با دادههای ناشناسشده و منعطفسازی رویههای حریم خصوصی؛
- اعمال سیاستهای جلوگیری از نشتی داده (DLP) و ابزارهای کنترل ورودی برای جلوگیری از ارسال محتوای حساس به سرویسهای خارجی؛
- رمزنگاری نقاط انتهایی و کانالهای ارتباطی و مدیریت کلیدهای رمزنگاری (KMS) در سطح سازمان؛
- قراردادهای شفاف با فروشندگان که شامل محدودیتهای استفاده از داده برای آموزش مدل، تعهدات نگهداری و پاسخگویی در برابر درخواستهای قانونی میشود؛
- ارزیابیهای ریسک امنیتی و حریم خصوصی (PIA/DPIA) برای هر پروژهٔ مرتبط با هوش مصنوعی؛
- طبقهبندی دادهها و آموزش کارکنان در خصوص مدیریت اطلاعات حساس و الگوهای استفادهٔ امن از ابزارهای هوش مصنوعی.
مسائل خاص مدلهای زبانی بزرگ
مدلهای زبانی بزرگ (LLMs) میتوانند متن را بهصورت غیرقابلپیشبینی نسلدهی کنند و گاهی اطلاعاتی را که در دادههای آموزشیشان وجود داشته بازتولید کنند. خطر memorization (حافظهسازی ضمنی اطلاعات حساس) و حملاتی مانند model inversion وجود دارد که میتواند منجر به افشای اطلاعات خصوصی شود. بنابراین، از منظر فنی، پیادهسازی مکانیزمهایی مانند قطع ثبت دادههای ورودی کاربران، حذف لاگهای حساس و اعمال روشهای anonymization و differential privacy میتواند ضروری باشد.
چگونه این موضوع میتواند روی توسعهٔ بازار AI در اروپا تأثیر بگذارد
محدودیتهای عملیاتی در نهادهای دولتی میتواند دو نتیجهٔ متضاد داشته باشد: از یک سو ممکن است سرعت پذیرش برخی خدمات مبتنی بر هوش مصنوعی را کاهش دهد؛ از سوی دیگر میتواند فرصتی برای بازیگران محلی و ارائهدهندگان راهکارهای امن و انطباقپذیر ایجاد کند تا پیشنهادات با ارزش افزودهٔ بیشتر و متناسب با استانداردهای حفاظت دادهٔ اروپا ارائه دهند. به عبارت دیگر، یک محیط مقرراتی سختگیرانه میتواند محرکی برای رشد راهحلهای امن، قابل اطمینان و بومی باشد.
پیشنهادات سیاستی برای نهادهای عمومی
برای مدیریت بهتر ریسک و بهرهگیری از پتانسیلهای هوش مصنوعی، نهادهای عمومی باید ترکیبی از اقدامات فنی، قراردادی و آموزشی را اتخاذ کنند:
- تهیه و بهروزرسانی سیاستهای روشن در مورد استفاده از ابزارهای هوش مصنوعی و اجرای آموزشهای اجباری برای کارکنان؛
- ایجاد چارچوبهای قراردادی قوی با فروشندگان که شامل حقوق بازرسی مستقل، محدودیتهای استفادهٔ داده و رویههای پاسخگویی در برابر درخواستهای قانونی شود؛
- سرمایهگذاری در زیرساختهای امن محلی و آغاز برنامههای همکاری با ارائهدهندگان اروپایی برای توسعهٔ مدلهای قابل کنترل و شفاف؛
- تعامل با مراجع تنظیمی و نهادهای حفاظت داده جهت تعریف استانداردهای صنفی و راهنماییهای عملی مرتبط با پردازش دادهها در سیستمهای هوش مصنوعی.
نمونههای عملی و مطالعات موردی
چند کشور و نهاد در اروپا پیش از این نمونههایی از راهکارهای محافظهکارانه را اجرا کردهاند: برخی دولتها از نسخههای داخلی ابزارهای هوش مصنوعی برای پاسخگویی به شهروندان استفاده میکنند، برخی دیگر از راهکارهای ترکیبی بهره میبرند که در آن دادههای حسّاس ابتدا پاکسازی یا ناشناسسازی شده و سپس برای پردازش به محیطهای ابری ارسال میشوند. این الگوها نشان میدهند که راهکار واحدی برای همه وجود ندارد و انتخاب معماری فنی باید بر اساس نوع داده و سطح حساسیت آن تعیین گردد.
نتیجهگیری و چشمانداز
اقدام پارلمان اروپا مبنی بر غیرفعالسازی قابلیتهای هوش مصنوعی روی دستگاههای کاری نمادی از اولویتبندی امنیت و حریم خصوصی در برابر سهولت استفاده است. این تصمیم نه صرفاً یک محدودیت کوتاهمدت، که یک هشدار است: نهادهای عمومی باید قبل از گسترش سریع ابزارهای مولد هوش مصنوعی، چارچوبهای حقوقی، فنی و قراردادی لازم را فراهم سازند. نتیجهٔ این تدابیر و نحوهٔ پاسخ سیاستگذاران به این چالشها، نقش تعیینکنندهای در نحوهٔ توسعه و استقرار هوش مصنوعی در اروپا و فراتر از آن خواهد داشت.
نکات کلیدی برای مدیران فناوری نهادها
- اجرای ارزیابیهای DPIA پیش از آغاز پروژههای هوش مصنوعی؛
- ایجاد رویههای واضح برای دستهبندی و مدیریت دسترسی به دادهها؛
- مذاکره روی مفاد خاص در قراردادها با فروشندگان (عدم استفاده برای آموزش مدل، تعهد به حذف لاگها، بازرسی مستقل)؛
- سرمایهگذاری در آموزش کارکنان برای تشخیص موارد حساس و پیروی از سیاستها.
در نهایت، انتخاب میان سرعت و احتیاط هیچ پاسخ «یکسایز برای همه» ندارد. بااینحال رویکرد مبتنی بر مدیریت ریسک، شفافیت قراردادی و توسعهٔ راهکارهای بومی یا تحت کنترل سازمانی میتواند راهِ میانیِ منطقی و قابل دفاعی برای نهادهایی چون پارلمان اروپا باشد که هم باید از ظرفیتهای هوش مصنوعی بهرهمند شوند و هم از حریم خصوصی و حاکمیت دادهٔ شهروندان دفاع کنند.
منبع: smarti
ارسال نظر