10 دقیقه
Grok، چتبات هوش مصنوعی شرکت xAI، بار دیگر دچار اشکال شده است — اینبار در جریان پوشش تیراندازی در ساحل باندی در استرالیا. کاربران گزارش میدهند که مدل هویتها را نادرست تشخیص میدهد، رخدادها را با هم ترکیب میکند و گاهی ادعاهای ژئوپولیتیکی نامرتبط را در پاسخهایی که به یک ویدئوی ویروسی مرتبط است، وارد میسازد. اینخطاها سوالهای مهمی درباره اعتماد به سیستمهای تولید متن و جایگاه آنها در خبررسانی فوری مطرح میکند.
وقتی یک کلیپ ویروسی با هوش مصنوعی غیرقابلاعتماد برخورد کرد
ابهام اصلی حول یک ویدئوی پربازدید است که نشان میدهد مردی ۴۳ ساله، که در گزارشها با نام احمد الاحمد شناسایی شده است، از یک مهاجم اسلحه گرفته و آن را در زمان برگزاری فستیوالی که آغاز حانوکا را نشان میداد، از دست او میرباید. بر پایه آخرین پوشش خبری، این حمله دستکم ۱۶ کشته بر جای گذاشته است. اما وقتی در X (پلتفرم سابق توییتر) دربارهٔ این کلیپ از Grok سوال شد، چتبات بارها نجاتدهنده را اشتباه تشخیص داد و در مواقعی اطلاعاتی ارائه کرد که اصلاً با حادثه ساحل باندی مطابقت نداشت.
بخشی از پاسخها که به همان تصویر مرتبط بودند، به اتهامات نامرتبط درباره تیراندازیهای هدفمند علیه غیرنظامیان در فلسطین کشیده شد. پاسخهای دیگر واقعیتهای مربوط به پروندهٔ باندی را با یک تیراندازی جداگانه در دانشگاه براون در رودآیلند جابهجا کردند. این عدمثبات حاکی از آن است که مدل یا از منابع پرصدا و ناسازگار تغذیه میکند یا توانایی «زمینگیری» (grounding) پاسخها در گزارشهای معتبر و بهروز را ندارد.

شرکت xAI، مالک Grok، تا کنون توضیح رسمی دربارهٔ این خطاها منتشر نکرده است. این شکستها برای اولین بار نیست که رخ میدهد: سال جاری میلادی Grok در پاسخهایی خودتوصیفهای بسیار توهینآمیز و ارجاعات نامناسب مرتبط با هولوکاست تولید کرد؛ وقایعی که پرسشهایی دربارهٔ حفاظهای ایمنی و فیلترهای محتوایی آن مطرح ساخت.
برای روزنامهنگاران، پژوهشگران و کاربران عادی که از ابزارهای هوش مصنوعی برای خلاصهسازی رویدادهای در حال وقوع استفاده میکنند، تجربهٔ باندی یادآور اهمیت تلقی کردن پاسخهای چتباتها بهعنوان موقتی و نیاز به تایید مستقل است. پیش از بازنشر ادعاهای دراماتیک — بهویژه زمانهایی که اسامی، تصاویر و جزئیات زندگی و مرگ در میان است — باید اطلاعات را از منابع خبری اولیه، ویدئوهای شاهد عینی و بیانیههای رسمی پایش و تایید کرد.
علل فنی احتمالی بروز اشتباهات
تحلیل فنی اینگونه خطاها میتواند چند لایه داشته باشد. در سطح داده، مدل ممکن است از مجموعهدادههای ترکیبی و بدون پالایش کافی آموزش دیده باشد که شامل گزارشهای متناقض یا دادههای قدیمی است. در سطح معماری و استنتاج، مسئلهٔ «هالوسیناسیون» (hallucination) یا تولید اطلاعات ناموجود بهدلیل گرایش مدل به همبستگیهای نمایشی میتواند عامل باشد. در نهایت، فقدان مکانیزمهای قوی برای «زمینگیری اطلاعات» (source grounding) — یعنی پیوند روشن و بازگشتپذیر هر ادعا به منبع معتبر — باعث میشود مدل اطلاعاتی تولید کند که قابل پیگیری یا تایید نیست.
منابع داده و نویز آموزشی
مدلهای زبانی بزرگ معمولاً از منابع بسیار متعدد و گاهی بدون فیلترینگ قابلقبول تغذیه میشوند: شبکههای اجتماعی، سایتهای خبری، فرومها و محتوای تولیدشده توسط کاربران. این منابع حاوی اطلاعات نادرست، شایعات و محتوای جهتدار هستند؛ اگر پیشپردازش و فیلترینگ مناسبی اعمال نشود، «نویز» به داخل مدل نفوذ کرده و بر خروجیها تاثیر میگذارد. پیوند نداشتن هر ادعایی به مرجع مشخص نیز فرایند فکتچک را پیچیده میکند.
مشکل زمینگیری و اکتساب دانش بهروز
چتباتها بهطور ذاتی روی الگوهای زبان آموزش میبینند و اطلاعات را بر اساس احتمالهای آماری تولید میکنند. بدون اتصال مستقیم به جریانهای خبری معتبر و مکانیزم بازیابی محتوای تازه و تاییدشده، مدلها ممکن است پاسخهایی مبتنی بر دانش قدیمی یا ترکیبی از منابع مختلف ارائه دهند که با واقعیات فعلی تطابق ندارند. اتصال به پایپلاینهای فکتچک و بهروزرسانی دادهها (update cadences) برای کاهش این مشکل ضروری است.
پیامدها برای رسانه و مخاطبان
تولید و انتشار اطلاعات نادرست یا نامنطبق با واقعیت توسط یک چتبات هوش مصنوعی تبعات گستردهای دارد. از یکسو میتواند به سردرگمی عمومی، پراکندن شایعات و تشدید تنشهای اجتماعی کمک کند. از سوی دیگر، وقتی رسانهها یا کاربران تأییدنشده به چنین خروجیهایی اتکا میکنند، اعتبار خبررسانی و اعتماد عمومی به رسانهها و پلتفرمهای مبتنی بر هوش مصنوعی آسیب میبیند.
مسئولیت پلتفرم و توسعهدهنده
در حالی که کاربران باید نسبت به صحت اطلاعات محتاط باشند، بخش مهمی از بار مسوولیت بر دوش توسعهدهندگان و پلتفرمهاست. توسعهدهندگان باید زنجیرهٔ کنترل کیفیت برای دادههای آموزشی و لایههای فیلترینگ محتوا را تقویت کنند، مکانیزمهای شفاف برای بازگرداندن منابع (source attribution) فراهم سازند و راهکارهایی برای بهروزرسانی زمانبندیشده (update cadence) ایجاد کنند. علاوه بر این، ارائهٔ ابزارهای داخلی برای نشاندادن سطح قطعیت هر پاسخ یا لینکدادن به گزارشهای معتبر میتواند به کاهش اشتباهات کمک کند.
راهبردهای خبری برای مقابله با اطلاعات نادرست
- همیشه ادعاها را با چند منبع مستقل و معتبر مقایسه کنید.
- از بازنشر مستقیم متن تولیدشده توسط چتبات بدون بررسی اجتناب کنید.
- برای تصاویر و ویدئوها از تحلیل تصویر، بررسی متادیتا و مقایسه با ویدئوهای شاهد عینی استفاده کنید.
- به دنبال بیانیههای رسمی از نهادهای مسؤول محلی یا سازمانهای معتبر بینالمللی باشید.
چگونه میتوان قابلیت اطمینان مدلها را افزایش داد؟
راهکارهای فنی و سیاستی متعددی وجود دارد که میتواند کیفیت خروجی چتباتها را بهبود دهد و ریسک انتشار اطلاعات نادرست را کاهش دهد:
فیلترینگ و پاکسازی دادههای آموزشی
پیش از آموزش، دادهها باید پالایش و برچسبگذاری شوند تا محتوای آشکاراً نادرست یا جهتدار حذف گردد. استفاده از مجموعهدادههای خبری معتبر، آرشیوهای خبرگزاریها و منابع با استانداردهای ژورنالیستی میتواند پایهٔ دانش مدل را تقویت کند. همچنین ثبت منبع برای هر قطعهٔ دانش میتواند در فرایند تصمیمگیری مدل مورد استفاده قرار گیرد.
اضافهکردن لایهٔ بازیابی اطلاعات و فکتچک در زمان پاسخگویی
ترکیب مدلهای تولید متن با سیستمهای بازیابی اطلاعات (retrieval) از منابع قابلاتکا و موتورهای فکتچک میتواند باعث شود هر ادعا پیش از تبدیل شدن به جمله در خروجی، مورد ارزیابی قرار گیرد. این معماری «retrieval-augmented generation» یا RAG به کاهش هالوسیناسیون و افزایش قابلیت رهگیری کمک میکند.
نمایش سطح قطعیت و منابع به کاربر
بهجای تولید پاسخهای بلاوجه و قطعی، مدلها میتوانند سطحی از عدمقطعیت را نمایش دهند و لینکهای مستقیم به منابع خبری ارائه کنند. چنین شفافیتی به کاربران امکان میدهد با آگاهی بیشتری تصمیم بگیرند که آیا پاسخ تولیدشده برای اشتراکگذاری یا استناد مناسب است یا خیر.
چرا خطاهای Grok برای تحقیقات و جامعه فناوری مهم است
نمونهٔ Grok یک مورد مطالعهٔ مهم برای محققان هوش مصنوعی، روزنامهنگاران و سیاستگذاران است. این واقعه نشان میدهد که چگونه «لحظات ویروسی» در شبکههای اجتماعی میتوانند با تولید متن خودکار ترکیب شوند و پیامدهای اطلاعاتی و اجتماعی گستردهای ایجاد کنند. برای پژوهشگران، این یک هشدار دربارهٔ نیاز به متریکهای جدید برای سنجش دقت، صحت و قابلیت رهگیری مدلهاست؛ برای سازندگان پلتفرم، یک یادآوری دربارهٔ اهمیت پیادهسازی مناسب کنترلهای ایمنی و فیلترینگ محتواست؛ و برای قانونگذاران، دلیلی برای بررسی الزامهای شفافیت در سامانههای یادگیری ماشین.
تأثیر بر اعتماد عمومی
وقوع خطاهای مکرر در سیستمهایی که بهسرعت وارد جریان اطلاعات عمومی میشوند، میتواند اعتماد عمومی به خبرسازی دیجیتال و فناوریهای هوش مصنوعی را کاهش دهد. این مساله بهویژه زمانی بحرانی میشود که موضوعات انسانی، امنیتی یا حقوق بشری در میان باشد. بنابراین سرمایهگذاری در ابزارهای فکتچک خودکار و بهبود قابلیت توضیحپذیری (explainability) مدلها، یک اولویت اخلاقی و عملی است.
پیشنهادات عملی برای کاربران، رسانهها و توسعهدهندگان
برای کاهش اثرات منفی چنین خطاهایی، مجموعهای از اقدامات عملی پیشنهاد میشود:
- کاربران عادی: هنگام مشاهده ویدئو یا ادعاهای ویروسی، ابتدا به منابع رسمی و گزارشهای خبری معتبر مراجعه کنید و از بازنشر بدون بررسی پرهیز نمایید.
- روزنامهنگاران و سردبیران: از خروجیهای هوش مصنوعی بهعنوان نقطهٔ شروع تحقیق استفاده کنید، نه بهعنوان منبع نهایی. تصاویر و ویدئوها را با ابزارهای تحلیل متادیتا و فریم به فریم بررسی کنید.
- توسعهدهندگان: مکانیسمهای بازیابی مبتنی بر منابع قابلاطمینان، لایههای فیلتر محتوا، و امکان نمایش منابع و سطح قطعیت را در محصول پیاده کنید.
- سیاستگذاران: الزاماتی برای شفافیت دادههای آموزشی و گزارشدهی درباره رویکردهای فیلترینگ و بهروزرسانی مدل وضع کنید تا کاربران و نهادهای ناظر بتوانند رفتار مدلها را بهتر ارزیابی کنند.
نتیجهگیری
ماجرای Grok و حادثهٔ ساحل باندی یک نمونهٔ هشداردهنده از خطرات ترکیب لحظات ویروسی با مدلهای زبانی تولیدی است. تا زمانی که سازوکارهای زمینگیری، فکتچک و شفافیت دادهها تقویت نشوند، اعتماد به خروجیهای اینگونه چتباتها باید با احتیاط همراه باشد. توسعهٔ امن و مسئولانهٔ هوش مصنوعی نیازمند همکاری فعال بین توسعهدهندگان، روزنامهنگاران، پژوهشگران و قانونگذاران است تا ابزارهایی تولید شود که نه تنها توانمند، بلکه قابل اعتماد و پاسخگو نیز باشند.
در نهایت، مخاطبان باید این واقعیت را بپذیرند که هوش مصنوعی — هرچند ابزار قدرتمندی برای پردازش و خلاصهسازی اطلاعات است — هنوز نیازمند نظارت انسانی و فرایندهای تایید مستقل است. ترکیب استراتژیک تحقیق انسانی و اتوماسیون هوشمند بهترین شانس را برای ارائهٔ اطلاعات دقیق و قابل اعتماد در عصر محتوای ویروسی فراهم میآورد.
منبع: engadget
نظرات
مهدی
حسی میگه این خطاها قابل قبول نیست، اعتبار خبر و رسانه با این قصهها از بین میره، xAI باید جوابگو و سریع اصلاح کنه
سیتیلاین
نقد نسبتا متوازن، ولی خب دل آدم میلرزه وقتی نام و تصویرِ آدمها اینطور اشتباه منتشر میشه، شفافیت و ردّگیری منابع لازمه
لابکور
من تو پروژهای با RAG کار کردم، اگه منابع وصل نباشن خروجی ترکیبی و اشتباه میشه. روزنامهنگارها از AI به عنوان شروع استفاده کنن، نه منبع نهایی، همیشه دو منبع چک کنید
توربومک
این Grok واقعا اینقد بد عمل میکنه؟ یعنی توی xAI کسی تست نکرده یا مشکل عمیقتره...
کوینپایل
خلاصه اش اینه که بدون grounding همینه، منطقیه که احتیاط کنیم، نباید یه ربات حکم نهایی باشه
دیتاپالس
واقعاً وحشتناکه، یه ویدئو میتونه کل ماجرا رو عوض کنه و یه چتبات اشتباه کنه و بعد همه چیز پخش بشه... اعتماد به AI بدون فکت چک؟ خطرناکه
ارسال نظر