شایعات درباره استفاده داده ها در مدل هوش مصنوعی DeepSeek R1 | دینگ نیوز – اخبار فوری مبتنی بر هوش مصنوعی در حوزه فناوری، خودرو، اقتصاد، دانش و...
شایعات درباره استفاده داده ها در مدل هوش مصنوعی DeepSeek R1

شایعات درباره استفاده داده ها در مدل هوش مصنوعی DeepSeek R1

۱۴۰۴-۰۳-۱۴
0 نظرات سارا احمدی

3 دقیقه

استارتاپ نوظهور هوش مصنوعی DeepSeek اخیراً جدیدترین مدل خود به نام R1 را معرفی کرده است؛ مدلی که در زمینه استدلال ریاضی و وظایف برنامه‌نویسی عملکرد قابل توجهی از خود نشان داده است. با این حال، منابع داده‌ای که برای آموزش مدل DeepSeek R1 مورد استفاده قرار گرفته‌اند، به طور عمومی منتشر نشده‌اند که این موضوع موجب گمانه‌زنی میان پژوهشگران هوش مصنوعی شده است. برخی معتقدند بخشی از این داده‌ها از مدل‌های گوگل Gemini استخراج شده‌اند.

ادعاهایی پیرامون استفاده از داده‌ها سم پیچ، توسعه‌دهنده‌ای مستقر در ملبورن که آزمون‌هایی برای سنجش «هوش هیجانی» مدل‌های هوش مصنوعی طراحی می‌کند، ادعا کرده است که به شواهدی دست یافته که نشان می‌دهد مدل DeepSeek R1-0528 تمایل به استفاده از واژگان و ساختارهای مشابه مدل Gemini 2.5 Pro دارد. پیچ در شبکه اجتماعی X مطرح کرد که مدل DeepSeek R1-0528 الگوهای زبانی خاصی را ترجیح می‌دهد که در Gemini 2.5 Pro نیز دیده می‌شود.

هرچند اظهارات پیچ به تنهایی به معنای اثبات قطعی این موضوع نیست، توسعه‌دهنده‌ای با نام مستعار SpeechMap که ارزیابی‌هایی در زمینه «آزادی بیان» مدل‌های هوش مصنوعی انجام می‌دهد، بیان می‌کند که فرآیندهای استدلالی DeepSeek هنگام پاسخ‌دهی شباهت چشمگیری به مدل‌های Gemini دارد.

سابقه و اتهامات قبلی این نخستین‌بار نیست که DeepSeek به‌دلیل شیوه‌های آموزش مدل خود با اتهامات مواجه می‌شود. پیش‌تر برخی توسعه‌دهندگان گزارش داده‌اند که مدل DeepSeek V3 گاهی خود را به عنوان ChatGPT معرفی می‌کرد؛ نشانه‌ای که می‌تواند حاکی از استفاده از لاگ‌های گفت‌وگوهای ChatGPT در داده‌های آموزشی باشد. همچنین OpenAI پیش از این اعلام کرده بود شواهدی وجود دارد که DeepSeek از روشی به نام «دانش انتقالی (distillation)» برای آموزش بهره می‌برد؛ روشی که در آن داده‌هایی از مدل‌های قدرتمندتر برای بهبود عملکرد مدل‌های کوچکتر استخراج می‌شود.

چالش‌های آموزش مدل‌های هوش مصنوعی جامعه هوش مصنوعی اذعان دارد که بسیاری از مدل‌ها ممکن است به طور ناخواسته خود را اشتباه معرفی کنند یا از الگوهای زبانی مشابه استفاده کنند؛ چرا که حجم وسیع محتوای تولید شده توسط هوش مصنوعی در اینترنت، منبع اصلی داده‌های آموزشی این مدل‌هاست. چنین اشباعی از داده‌های مشابه منجر به همپوشانی در زبان و رفتار مدل‌ها می‌شود و تشخیص مدل‌هایی که به طور مستقل توسعه یافته‌اند از آن‌هایی که متأثر از مدل‌های موجود هستند را دشوار می‌سازد.

جمع‌بندی ادعاهای مربوط به مدل DeepSeek R1 نشان‌دهنده پیچیدگی‌ها و دغدغه‌های اخلاقی موجود در فرایند آموزش مدل‌های هوش مصنوعی است. با گسترش فناوری هوش مصنوعی، شفافیت در منابع داده و روش‌های آموزشی اهمیت بیشتری پیدا می‌کند تا اعتماد و سلامت جامعه تخصصی حفظ شود. نظارت مستمر و گفت‌وگوی فعال، راهکاری مهم برای رفع نگرانی‌ها و تضمین توسعه مسئولانه فناوری‌های هوش مصنوعی خواهد بود.

منبع: smarti

سلام! من سارا هستم، عاشق دنیای فناوری و گجت‌های جدید. از بچگی شیفته موبایل و لپ‌تاپ بودم و حالا خوشحالم که می‌تونم آخرین اخبار و ترندهای دنیای تکنولوژی رو باهاتون به اشتراک بذارم.

نظرات

ارسال نظر