سورا ۲: بهبود واقع گرایی، کنترل پیشرفته و شبکه اجتماعی نوآورانه

سورا ۲: بهبود واقع گرایی، کنترل پیشرفته و شبکه اجتماعی نوآورانه

نظرات

8 دقیقه

OpenAI نسخهٔ جدیدی از مدل تولید صدا و ویدیو خود را با نام Sora 2 معرفی کرده و هم‌زمان یک اپلیکیشن اجتماعی جدید منتشر کرده که کلیپ‌های ساخته‌شده توسط هوش مصنوعی را در قالب فید عمودی نمایش می‌دهد. این عرضه وعدهٔ واقع‌گرایی حرکتی بیشتر و کنترل دقیق‌تر را می‌دهد — اما هم‌زمان پرسش‌های تازه‌ای دربارهٔ شباهت چهره‌ها، مدیریت محتوا و روش‌های کسب درآمد نیز مطرح می‌شود.

چه چیزهای جدیدی در Sora 2 وجود دارد: واقع‌گرایی بهتر و کنترل دقیق‌تر

Sora 2 بر چیزی که OpenAI آن را «شبیه‌سازی جهان» می‌نامد تمرکز دارد؛ هدف بازتولید دقیق‌تر حرکت‌های فیزیکی و رفتارهای محیطی نسبت به مدل‌های قبلی است. شرکت بهبودهایی را در نحوهٔ حرکت انسان‌ها، تعامل میان اشیاء و توانایی مدل در پیروی از دستورالعمل‌های چندلقطه‌ای و پیچیده برجسته کرده است. OpenAI خود اذعان می‌کند که Sora 2 کامل نیست، اما می‌گوید که این نسخه قوانین فیزیک را بهتر رعایت می‌کند و می‌تواند با یک پرامپت واحد زوایا یا توالی‌های فیلم‌برداری متنوعی را تولید کند.

برای روشن‌تر شدن موضوع، Sora 2 تلاش می‌کند تا ویژگی‌های زیر را ملموس‌تر کند:

  • همگامی بهتر بین حرکت اندام‌ها و نیروی جاذبه و برخورد با سطوح، به‌طوری که اجسام و افراد در صحنه رفتار طبیعی‌تری نشان می‌دهند.
  • قابلیت تولید تغییرات دوربین و نماهای پویا از یک توضیح متنی واحد — از نماهای بسته تا نماهای کلی و حرکت‌های دوربین.
  • پیروی قابل‌اطمینان‌تر از دستورالعمل‌های چندمرحله‌ای که شامل تعاملات پیچیده بین سوژه‌ها و اشیاء است.

OpenAI نمونه‌هایی را منتشر کرده که ادعا می‌کند کاملاً توسط مدل تولید شده‌اند — از جمله یک کلیپ شبیه‌سازی‌شده که نسخهٔ ساختگی از مدیرعامل شرکت، سم آلتمن، در آن ظاهر می‌شود. این دمو هم پتانسیل خلاقانهٔ Sora 2 را نشان می‌دهد و هم خطرات واقعیِ تولید deepfake با کیفیت بالاتر را برجسته می‌کند؛ یعنی وقتی تولید ویدیوها قانع‌کننده‌تر می‌شود، خطر سوءاستفاده از شباهت چهره‌ها و جعل واقعیت نیز افزایش پیدا می‌کند.

یک فید اجتماعی مبتنی بر ویدیوهای تولیدشده توسط هوش مصنوعی

همزمان با عرضهٔ مدل، OpenAI اپلیکیشنی به نام Sora را نیز راه‌اندازی کرده است: یک پلتفرم اجتماعی فقط با دعوت که فید آن صرفاً از ویدیوهایی تشکیل شده که با مولد ویدیوی Sora ساخته شده‌اند. رابط کاربری اپ از پیمایش عمودی استفاده می‌کند و یک سیستم پیشنهاددهی دارد که مطالب را طبق سلیقهٔ کاربران ارائه می‌دهد. سازندگان می‌توانند از مدل بخواهند سبک‌ها، تم‌ها یا فرمت‌های خاصی را نمایش دهد و اپلیکیشن تأکید زیادی بر خلق محتوا دارد تا مصرف صرف و غیرفعال.

ویژگی قابل توجهی به نام "Cameo" وجود دارد که به کاربران اجازه می‌دهد یک کلیپ کوتاه از خود ضبط کنند تا اپلیکیشن بتواند شباهت ظاهری آن‌ها را برای استفاده در ویدیوهای تولیدشده ثبت کند. OpenAI می‌گوید استفاده از Cameo تحت کنترل کاربر است: شما تعیین می‌کنید چه کسی می‌تواند از cameo شما استفاده کند، می‌توانید دسترسی را لغو کنید و ویدیوهایی که شامل شباهت شما هستند را حذف کنید. با این حال، شرکت هشدار می‌دهد که اگر شخصی اجازه دسترسی به شباهت خود را بدهد، دیگران ممکن است بتوانند از آن استفاده کنند؛ موضوعی که نگرانی‌های مشخصی در زمینهٔ حریم خصوصی و رضایت ایجاد می‌کند.

نکات عملی دربارهٔ Cameo و نحوهٔ کاربرد آن:

  • کاربران می‌توانند محدودهٔ استفاده از cameo را انتخاب کنند (مثلاً فقط برای دوستان یا عموم) و هر زمان که بخواهند این مجوز را پس بگیرند.
  • اپلیکیشن مکانیزم‌هایی برای حذف محتوا و گزارش تخلف دارد، اما اثربخشی این مکانیسم‌ها به سرعت و دقت تیم‌های نظارتی بستگی دارد.
  • در آینده ممکن است نیاز به احراز هویت قوی‌تر برای جلوگیری از جعل‌های صوری و سوءاستفاده‌های هویتی وجود داشته باشد.

ایمنی، محدودیت‌ها و چشم‌انداز کسب درآمد

OpenAI اعلام کرده که اپ Sora را "با مسئولیت" عرضه می‌کند و کنترل‌هایی را برای رفاه کاربران و حفاظت از گروه‌های سنی پایین‌تر اضافه می‌کند. حساب‌های نوجوانان محدودیت‌های روزانه برای مشاهده خواهند داشت و قوانین سختگیرانه‌تری در مورد نحوهٔ استفاده از شباهت چهرهٔ آن‌ها اعمال می‌شود. علاوه بر این، کاربران می‌توانند با دستور دادن به مدل، به نوع محتوایی که در فیدشان ظاهر می‌شود جهت بدهند؛ قابلیتی که امکان سفارشی‌سازی تجربهٔ کاربری را افزایش می‌دهد.

در بخش کسب درآمد، OpenAI می‌گوید برنامهٔ فوری برای نمایش تبلیغات ندارد، اما انتظار دارد در صورتی که تقاضا از ظرفیت محاسباتی فعلی فراتر رود، گزینه‌های پولی معرفی کند. رویکرد اعلام‌شدهٔ شرکت این است که به کاربران امکان پرداخت برای تولید ویدیوهای اضافی را بدهد وقتی که ظرفیت محدود باشد. OpenAI همچنین تأکید می‌کند که تغییرات مربوط به سیاست‌ها و مدل کسب درآمد را به‌صورت شفاف با کاربران در میان خواهد گذاشت.

چالش‌ها و ملاحظات فنی و تجاری شامل موارد زیر است:

  • هزینهٔ محاسباتی: تولید ویدیوهای با کیفیت بالا هزینه‌بر است و توزیع گستردهٔ این خدمات به زیرساخت بزرگ و بهینه‌سازی‌های نرم‌افزاری نیاز دارد.
  • نظارت محتوا: با افزایش حجم ویدیوها، نیاز به سیستم‌های اتوماتیک و انسانی برای فیلتر، برچسب‌گذاری و مدیریت محتوا بیشتر می‌شود تا از انتشار محتوای آسیب‌زننده جلوگیری شود.
  • قوانین و مقررات: دولت‌ها و نهادهای قانون‌گذاری در حوزهٔ deepfake و حریم خصوصی ممکن است مقررات تازه‌ای وضع کنند که نحوهٔ استفاده و توزیع چنین فناوری‌هایی را محدود کند.

OpenAI همچنین روی مکانیسم‌هایی کار می‌کند که تشخیص و برچسب‌گذاری محتوای تولیدشدهٔ مصنوعی را تسهیل کند — از جمله ارائهٔ متادیتا دربارهٔ منشأ و پارامترهای تولید که می‌تواند به رسانه‌ها و پلتفرم‌ها در تشخیص و مدیریت محتوای مصنوعی کمک کند. با این حال، پیاده‌سازی چنین استانداردهایی در سطح جهانی و اطمینان از پذیرفته شدن آنها توسط بازیگران مختلف، یک چالش فنی و اجتماعی بزرگ است.

نتیجه‌گیری

Sora 2 یک گام مهم در مسیر تولید ویدیو و صدا توسط هوش مصنوعی است: واقع‌گرایی حرکتی بیشتر، کنترل دقیق‌تر و تجربهٔ اجتماعی یکپارچه که دعوت به اشتراک‌گذاری گستردهٔ محتوای مصنوعی می‌کند. ترکیب ابزارهای قدرتمند تولید و یک فید عمودی اجتماعی، هم فرصت‌های خلاقانه را افزایش می‌دهد و هم معضلات اخلاقی را تشدید می‌کند. اینکه OpenAI چگونه رضایت (consent) را اعمال کند، محتوا را مدیریت و پالایش کند و رشد را با ایمنی و مسئولیت‌پذیری متوازن سازد، تعیین خواهد کرد که آیا Sora به یک پلتفرم خلاقانهٔ پایدار تبدیل می‌شود یا محلی برای مناقشات جدی در مورد deepfake و سوءاستفاده‌های هویتی.

نکات کلیدی برای خوانندگان و سازندگان محتوا که باید در نظر داشته باشند:

  • برای سازندگان: Sora فرصت‌های جدیدی برای روایت‌های بصری و تولید محتوا با هزینهٔ کمتر نسبت به تولید سنتی فراهم می‌کند، اما نیاز به شفافیت در استفاده از شباهت‌های شخصی و رعایت حقوق دیگران دارد.
  • برای مصرف‌کنندگان: آگاهی از اینکه چه محتوایی تولید مصنوعی است و بررسی منابع و شواهد می‌تواند از گسترش اطلاعات نادرست جلوگیری کند.
  • برای سیاست‌گذاران و شرکت‌ها: تدوین استانداردها و چارچوب‌های قانونی برای حریم خصوصی، شناسایی محتوای مصنوعی و مسئولیت پلتفرم‌ها در مدیریت خطرهای ناشی از این فناوری‌ها ضروری است.

در مجموع، Sora 2 نمایانگر مرحله‌ای در تکامل مدل‌های تولید محتوای مولد است که هم پتانسیل خلاقانهٔ بالایی دارد و هم نیازمند چارچوب‌های تازهٔ فنی، حقوقی و اخلاقی است تا از سوءاستفاده‌ها و آسیب‌های اجتماعی جلوگیری شود. پیگیری شفاف سیاست‌ها، ابزارهای تشخیص و مکانیزم‌های رضایت کاربر از جمله اقداماتی هستند که می‌توانند این فناوری را به شکلی مسئولانه‌تر وارد جریان اصلی کنند.

منبع: openai

ارسال نظر

نظرات

مطالب مرتبط