9 دقیقه
گوگل بار دیگر با موجی از نگرانیهای مرتبط با حریم خصوصی مواجه شده است، پس از آنکه پستهای ویروسی نشان دادند شرکت ممکن است بهصورت پنهانی از پیامهای جیمیل برای آموزش مدلهای هوش مصنوعی Gemini استفاده کند. این ادعاها بهسرعت در شبکههای اجتماعی منتشر شد و نگرانیها را درباره استخراج ایمیلها و پیوستها برای توسعه هوش مصنوعی تشدید کرد — ادعایی که گوگل بهطور قاطع آن را رد میکند.
What set off the backlash?
مناقشه از زمانی آغاز شد که یک پست در بلاگ شرکت Malwarebytes تغییر ظاهری در سیاستها را بهعنوان مجوز استفاده گوگل از محتوای جیمیل برای آموزش Gemini تفسیر کرد. اسکرینشاتهایی که در شبکههای اجتماعی منتشر شد نشان میداد «ویژگیهای هوشمند» مانند تکمیل هوشمند متن و یکپارچهسازی تقویم بهصورت پیشفرض فعال هستند. گزارشهایی هم منتشر شد که برخی از کاربران بعد از غیر فعال کردن این ویژگیها دیدند دوباره فعال شدهاند؛ واکنشی که سطح هشدار را بیشتر کرد.
برای درک کاملتر علت واکنش عمومی باید به چند عامل توجه کرد: سرعت انتشار اطلاعات در شبکههای اجتماعی، عدم شفافیت در برداشت برخی کاربران از متن سیاستها، و سابقه موضوعات مربوط به حریم خصوصی در حوزه فناوری که حساسیت عمومی را بالا برده است. وقتی کاربران با تغییرات بهظاهر ناگهانی در تنظیمات روبهرو میشوند، بهویژه در سرویسهایی که ایمیل و پیامهای حساس را مدیریت میکنند، واکنشها سریع و گاه شدید خواهد بود.
در کنار اینها، نقش توضیحات فنی و اصطلاحات تخصصی در اسناد حقوقی و حریم خصوصی نیز به سردرگمی کمک میکند. کاربران عادی ممکن است «شخصیسازی» و «آموزش مدل» را یکسان تفسیر کنند، در حالی که از منظر فنی این دو فرایند میتوانند کاملاً جدا باشند. این عدم تفکیک مفهومی یکی از دلایل اصلی تشدید واکنشها بود.
Google pushes back: personalization ≠ training
گوگل سریعاً پاسخی صادر کرد. «این گزارشها گمراهکننده است. ما تنظیمات هیچ کاربری را تغییر ندادهایم، ویژگیهای هوشمند جیمیل سالهاست وجود دارند، و ما از محتوای جیمیل شما برای آموزش مدل هوش مصنوعی Gemini استفاده نمیکنیم»، سخنگوی شرکت، جنی تامسون، در گفتگو با The Verge بیان کرد. شرکت تأکید میکند که «شخصیسازی» ابزارها و «آموزش مدل» فرایندهایی جدا هستند.
این تمایز از منظر فنی مهم است: شخصیسازی معمولاً شامل تحلیل محلیتر و استفاده از سیگنالهای کاربر برای ارائه پیشنهادهای مرتبط به خودِ آن کاربر است؛ اما آموزش مدل به معنای افزودن دادهها به مجموعههای بزرگ آموزشی است که برای توسعه و بهینهسازی مدلهای عمومی مورد استفاده قرار میگیرد. گوگل میگوید دادههای محلی و اطلاعات تنظیمات Workspace برای شخصیسازی استفاده میشوند، نه برای تغذیه مجموعهدادههای جهانی آموزش مدلها.
با این حال، حتی وقتی شرکتها چنین تفکیکی را توضیح میدهند، چالش برقراری اعتماد باقی میماند. بیانیههای رسمی لازم اما گاهی کافی نیستند؛ کاربران و نهادهای نظارتی خواهان شفافیت بیشتر، توضیحات فنی قابلفهم برای عموم و مکانیزمهای گزارشدهی قابلاعتماد هستند تا از سوءبرداشتها جلوگیری شود.

How Gmail's smart features actually work
ابزارهایی مانند Smart Compose (تکمیل هوشمند)، اعلانهای ردیابی پرواز و طبقهبندی خودکار ایمیلها طراحی شدهاند تا تجربه شما در جیمیل را شخصیتر و کارآمدتر کنند. بر اساس توضیحات گوگل، این ویژگیها بر تحلیلهای محلی، سیگنالهای حساب کاربری و دادههای Workspace تکیه دارند تا امکانات را میان اپها تنظیم کنند — و هدف آنها تغذیه مجموعهدادههای جهانی آموزش هوش مصنوعی نیست.
از منظر فنی، چند روش رایج برای پیادهسازی ویژگیهای هوشمند وجود دارد:
- پردازش محلی یا دروندستگاهی: بخشی از تحلیلها میتواند مستقیماً روی دستگاه کاربر انجام شود تا دادهها هرگز از محیط کاربر خارج نشوند.
- تحلیل در سمت سرور با حفاظتهای محتوایی: وقتی تحلیل در سرور انجام میشود، معمولاً از تکنیکهایی مانند پاکسازی شناسهها، خلاصهسازی یا آنونیمسازی دادهها استفاده میشود تا مخاطرات ناشی از افشای اطلاعات حساس کاهش یابد.
- استفاده از سیگنالهای متا: بعضی از ویژگیها فقط از متادیتا (مثلاً فرستنده، فراداده زمان یا ساختار پیام) بهره میبرند و نه از محتوای کامل پیام.
گوگل میگوید ویژگیهای هوشمند جیمیل از ترکیبی از این روشها بهره میبرند. بهعنوان مثال، پیشنهادات تکمیل سریع معمولاً بر اساس الگوهای نوشتاری عمومی و تنظیمات شخصی در همان حساب ساخته میشوند، بدون اینکه متن کامل ایمیلها به مجموعهدادهای اضافه شود که برای آموزش مدلهای سراسری استفاده شود. این تمایز فنی برای حفاظت از حریم خصوصی کاربر و رعایت قوانین داده اهمیت دارد.
در عین حال، وابستگی به Workspace و یکپارچهسازی میان سرویسها سوالاتی درباره محدوده دسترسی دادهها مطرح میکند: چه دادههایی بین اپها به اشتراک گذاشته میشود، چه مکانیسمهایی برای کنترل دسترسی وجود دارد، و چگونه کاربران میتوانند سطح اشتراکگذاری را بررسی و محدود کنند؟ پاسخ به این پرسشها برای کاهش نگرانیهای کاربران و نهادهای ناظر حیاتی است.
Legal pressure and a trust problem
با وجود تکذیبهای گوگل، ماجرا وارد فاز حقوقی شد. یک دادخواست گروهی که در ماه جاری ثبت شد ادعا میکند گوگل به Gemini دسترسی به محتوای جیمیل، Chat و Meet را داده است — اتهامی که شرکت رد میکند. با معرفی Gemini 3 بهعنوان یکی از پیشرفتهترین مدلهای گوگل تاکنون، بحثها درباره مرز میان شخصیسازی و استثمار دادهها شدت گرفته است.
از منظر حقوقی، چند محور قابلتوجه وجود دارد:
- قوانین حفاظت داده: در حوزههایی مانند اتحادیه اروپا قوانین سختگیرانهای مانند GDPR وجود دارد که پردازش دادههای شخصی را به محدودههای مشخص محدود میکند و شرکتها باید مبنای قانونی روشن برای هر نوع پردازش ارائه دهند.
- توافقنامههای سرویس و سیاستهای حریم خصوصی: تغییرات ظاهری یا تفاسیر متفاوت از بندهای این اسناد میتواند زمینهساز اختلاف حقوقی و شکایت کاربران شود، بهویژه اگر کاربران احساس کنند اطلاعرسانی کافی نشده است.
- سیاستهای شرکت و نمونهبرداری داده: محاکم و ناظران ممکن است در خصوص تفاوت میان دادههایی که برای بهبود سرویسها بهصورت جمعی استفاده میشوند و دادههایی که برای آموزش مدلهای عمومی جمعآوری میشوند، پرسش کنند.
علاوه بر جنبههای حقوقی، این موضوع یک مشکل اعتماد عمومی برای گوگل ایجاد کرده است. شرکتهایی که خدمات ابری و ایمیل ارائه میدهند، باید بهطور مداوم تضمینهایی برای امنیت دادهها، کنترلهای دسترسی و شفافیت درباره نحوه استفاده از دادهها ارائه کنند تا هم کاربران و هم سازمانهای تنظیمکننده احساس اطمینان کنند.
Why this matters to users
این موضوع برای کاربران اهمیت زیادی دارد، زیرا مردم امروز نسبت به گذشته حساسیت بیشتری نسبت به حریم خصوصی نشان میدهند. وقتی ویژگیهای خودکار رفتارشان را تغییر میدهند یا بهنظر میرسد بدون اطلاع دوباره فعال شدهاند، این امر شک و بدگمانی را تغذیه و اعتماد را تضعیف میکند. این رویداد یادآور ضرورت بازبینی تنظیمات حریم خصوصی و آشنایی با عملکرد هر گزینه است.
برای کاربران توصیه میشود:
- تنظیمات حریم خصوصی و ویژگیهای هوشمند در جیمیل و حساب گوگل را بررسی و مستندسازی کنید.
- از ابزارهای گزارش رویدادهای امنیتی و اعلانیهها برای پیگیری هرگونه تغییر غیرمنتظره استفاده کنید.
- اگر به خدمات Workspace وابسته هستید، سیاستهای اشتراکگذاری داده در سطح سازمانی را مرور کنید و در صورت نیاز سیاستهای محدودکنندهتری اعمال کنید.
- در صورت وجود نگرانی جدی، از گزینههایی مانند رمزنگاری سطح بالاتر یا سرویسهای ایمیل متمرکز بر حریم خصوصی بهره ببرید.
سوال اصلی که کاربران باید از خود بپرسند این است: آیا من ویژگیهایی را فعال میکنم که راحتی بیشتری فراهم میکنند، یا بهطور ناخودآگاه دامنه اشتراکگذاری دادهها را گسترش میدهم؟ پاسخ به این پرسش نیازمند ترکیبی از دانش فنی پایه، آگاهی از تنظیمات حساب و توجه به اعلامیههای رسمی شرکتها است.
A small but notable update: Pixel 10 gains AirDrop-style sharing
در حرکتی مجزا، گوگل ویژگی کاربردی جدیدی را برای دارندگان Pixel 10 اضافه کرده است: اشتراکگذاری مستقیم فایل با آیفونها، آیپدها و مکها از طریق سازگاری با AirDrop. حالا انتقالها سریعتر انجام میشود و نیازی به نصب اپ اضافی یا تنظیمات پیچیده نیست — یک مزیت عملیاتی حتی در زمانی که شرکت با پرسشهای پیچیدهای درباره حریم خصوصی روبهرو است.
این قابلیت معمولاً از ترکیب بلوتوث برای کشف دستگاهها و یک مسیر ارتباطی محلی امن برای انتقال فایل (مانند Wi‑Fi مستقیم یا رمزنگاری نقطهبهنقطه) استفاده میکند. بهطور کلی، پیادهسازی این نوع امکانات باید هم روی سهولت استفاده تمرکز داشته باشد و هم تضمینهای امنیتی لازم را فراهم کند تا دادهها در مسیر انتقال محافظت شوند.
با افزایش تلفیق هوش مصنوعی در ابزارهای روزمره، وضوح در اطلاعرسانی و مکانیسمهای حفاظتی از اهمیت بیشتری برخوردار خواهند شد. کاربران انتظار دارند هم خدمات یکپارچه و بیدردسر دریافت کنند و هم مرزهای شفاف و قابلدرک در خصوص استفاده از دادههایشان وجود داشته باشد. شرکتها باید برای پاسخگویی آماده باشند: نه تنها در سطح فنی، بلکه در سطح ارتباطی و حقوقی نیز.
در پایان، این رویداد بهعنوان نمونهای از کشمکش میان نوآوری محصولات مبتنی بر هوش مصنوعی و الزامات حفاظت از حریم خصوصی مطرح میشود. گوگل و سایر بازیگران اکوسیستم فناوری باید بهصورت همزمان روی توسعه قابلیتهای کاربردی، شفافیت سیاستها و تضمینهای فنی برای حفاظت از دادهها کار کنند تا تعادل میان نوآوری و اعتماد کاربران حفظ شود.
منبع: gizmochina
نظرات
نووا_ک
انگار هر خبر کوچیک تو شبکهها فوری تبدیل میشه به بُغض، بعضیا بیش از حد هیجان زده میشن، ولی حق دارن یه کم محتاط باشیم
رضا
خلاصه: شرکتها باید هم فن و هم شفافیت رو تقویت کنن. حرفای گوگل تا یه حد قابل قبوله اما کافی نیست
بیونیکس
تو محل کارمون هم یه بار آپدیت تنظیمات خودبهخودی برگشت، فهمیدم مردم حق دارن نگران باشن 😕
توربو
این واقعاً اتفاق افتاده؟ عکسها و اسکرینشاتها چقدر قابل استنادن؟
کوینفلو
به نظرم منطقیه ولی شفافیت لازمه. گوگل باید واضحتر بگه چی استفاده میشه
دیتاپال
وای جدی؟ یعنی گوگل داره پشت پرده ایمیلامونو میخونه؟ این خیلی ترسناکه، اعتماد خورد خورد داره میپره...
ارسال نظر