3 دقیقه
استارتاپ نوظهور هوش مصنوعی DeepSeek اخیراً جدیدترین مدل خود به نام R1 را معرفی کرده است؛ مدلی که در زمینه استدلال ریاضی و وظایف برنامهنویسی عملکرد قابل توجهی از خود نشان داده است. با این حال، منابع دادهای که برای آموزش مدل DeepSeek R1 مورد استفاده قرار گرفتهاند، به طور عمومی منتشر نشدهاند که این موضوع موجب گمانهزنی میان پژوهشگران هوش مصنوعی شده است. برخی معتقدند بخشی از این دادهها از مدلهای گوگل Gemini استخراج شدهاند.
ادعاهایی پیرامون استفاده از دادهها سم پیچ، توسعهدهندهای مستقر در ملبورن که آزمونهایی برای سنجش «هوش هیجانی» مدلهای هوش مصنوعی طراحی میکند، ادعا کرده است که به شواهدی دست یافته که نشان میدهد مدل DeepSeek R1-0528 تمایل به استفاده از واژگان و ساختارهای مشابه مدل Gemini 2.5 Pro دارد. پیچ در شبکه اجتماعی X مطرح کرد که مدل DeepSeek R1-0528 الگوهای زبانی خاصی را ترجیح میدهد که در Gemini 2.5 Pro نیز دیده میشود.
هرچند اظهارات پیچ به تنهایی به معنای اثبات قطعی این موضوع نیست، توسعهدهندهای با نام مستعار SpeechMap که ارزیابیهایی در زمینه «آزادی بیان» مدلهای هوش مصنوعی انجام میدهد، بیان میکند که فرآیندهای استدلالی DeepSeek هنگام پاسخدهی شباهت چشمگیری به مدلهای Gemini دارد.
سابقه و اتهامات قبلی این نخستینبار نیست که DeepSeek بهدلیل شیوههای آموزش مدل خود با اتهامات مواجه میشود. پیشتر برخی توسعهدهندگان گزارش دادهاند که مدل DeepSeek V3 گاهی خود را به عنوان ChatGPT معرفی میکرد؛ نشانهای که میتواند حاکی از استفاده از لاگهای گفتوگوهای ChatGPT در دادههای آموزشی باشد. همچنین OpenAI پیش از این اعلام کرده بود شواهدی وجود دارد که DeepSeek از روشی به نام «دانش انتقالی (distillation)» برای آموزش بهره میبرد؛ روشی که در آن دادههایی از مدلهای قدرتمندتر برای بهبود عملکرد مدلهای کوچکتر استخراج میشود.
چالشهای آموزش مدلهای هوش مصنوعی جامعه هوش مصنوعی اذعان دارد که بسیاری از مدلها ممکن است به طور ناخواسته خود را اشتباه معرفی کنند یا از الگوهای زبانی مشابه استفاده کنند؛ چرا که حجم وسیع محتوای تولید شده توسط هوش مصنوعی در اینترنت، منبع اصلی دادههای آموزشی این مدلهاست. چنین اشباعی از دادههای مشابه منجر به همپوشانی در زبان و رفتار مدلها میشود و تشخیص مدلهایی که به طور مستقل توسعه یافتهاند از آنهایی که متأثر از مدلهای موجود هستند را دشوار میسازد.
جمعبندی ادعاهای مربوط به مدل DeepSeek R1 نشاندهنده پیچیدگیها و دغدغههای اخلاقی موجود در فرایند آموزش مدلهای هوش مصنوعی است. با گسترش فناوری هوش مصنوعی، شفافیت در منابع داده و روشهای آموزشی اهمیت بیشتری پیدا میکند تا اعتماد و سلامت جامعه تخصصی حفظ شود. نظارت مستمر و گفتوگوی فعال، راهکاری مهم برای رفع نگرانیها و تضمین توسعه مسئولانه فناوریهای هوش مصنوعی خواهد بود.
منبع: smarti

نظرات