8 دقیقه
OpenAI نسخهٔ جدیدی از مدل تولید صدا و ویدیو خود را با نام Sora 2 معرفی کرده و همزمان یک اپلیکیشن اجتماعی جدید منتشر کرده که کلیپهای ساختهشده توسط هوش مصنوعی را در قالب فید عمودی نمایش میدهد. این عرضه وعدهٔ واقعگرایی حرکتی بیشتر و کنترل دقیقتر را میدهد — اما همزمان پرسشهای تازهای دربارهٔ شباهت چهرهها، مدیریت محتوا و روشهای کسب درآمد نیز مطرح میشود.
چه چیزهای جدیدی در Sora 2 وجود دارد: واقعگرایی بهتر و کنترل دقیقتر
Sora 2 بر چیزی که OpenAI آن را «شبیهسازی جهان» مینامد تمرکز دارد؛ هدف بازتولید دقیقتر حرکتهای فیزیکی و رفتارهای محیطی نسبت به مدلهای قبلی است. شرکت بهبودهایی را در نحوهٔ حرکت انسانها، تعامل میان اشیاء و توانایی مدل در پیروی از دستورالعملهای چندلقطهای و پیچیده برجسته کرده است. OpenAI خود اذعان میکند که Sora 2 کامل نیست، اما میگوید که این نسخه قوانین فیزیک را بهتر رعایت میکند و میتواند با یک پرامپت واحد زوایا یا توالیهای فیلمبرداری متنوعی را تولید کند.
برای روشنتر شدن موضوع، Sora 2 تلاش میکند تا ویژگیهای زیر را ملموستر کند:
- همگامی بهتر بین حرکت اندامها و نیروی جاذبه و برخورد با سطوح، بهطوری که اجسام و افراد در صحنه رفتار طبیعیتری نشان میدهند.
- قابلیت تولید تغییرات دوربین و نماهای پویا از یک توضیح متنی واحد — از نماهای بسته تا نماهای کلی و حرکتهای دوربین.
- پیروی قابلاطمینانتر از دستورالعملهای چندمرحلهای که شامل تعاملات پیچیده بین سوژهها و اشیاء است.
OpenAI نمونههایی را منتشر کرده که ادعا میکند کاملاً توسط مدل تولید شدهاند — از جمله یک کلیپ شبیهسازیشده که نسخهٔ ساختگی از مدیرعامل شرکت، سم آلتمن، در آن ظاهر میشود. این دمو هم پتانسیل خلاقانهٔ Sora 2 را نشان میدهد و هم خطرات واقعیِ تولید deepfake با کیفیت بالاتر را برجسته میکند؛ یعنی وقتی تولید ویدیوها قانعکنندهتر میشود، خطر سوءاستفاده از شباهت چهرهها و جعل واقعیت نیز افزایش پیدا میکند.

یک فید اجتماعی مبتنی بر ویدیوهای تولیدشده توسط هوش مصنوعی
همزمان با عرضهٔ مدل، OpenAI اپلیکیشنی به نام Sora را نیز راهاندازی کرده است: یک پلتفرم اجتماعی فقط با دعوت که فید آن صرفاً از ویدیوهایی تشکیل شده که با مولد ویدیوی Sora ساخته شدهاند. رابط کاربری اپ از پیمایش عمودی استفاده میکند و یک سیستم پیشنهاددهی دارد که مطالب را طبق سلیقهٔ کاربران ارائه میدهد. سازندگان میتوانند از مدل بخواهند سبکها، تمها یا فرمتهای خاصی را نمایش دهد و اپلیکیشن تأکید زیادی بر خلق محتوا دارد تا مصرف صرف و غیرفعال.
ویژگی قابل توجهی به نام "Cameo" وجود دارد که به کاربران اجازه میدهد یک کلیپ کوتاه از خود ضبط کنند تا اپلیکیشن بتواند شباهت ظاهری آنها را برای استفاده در ویدیوهای تولیدشده ثبت کند. OpenAI میگوید استفاده از Cameo تحت کنترل کاربر است: شما تعیین میکنید چه کسی میتواند از cameo شما استفاده کند، میتوانید دسترسی را لغو کنید و ویدیوهایی که شامل شباهت شما هستند را حذف کنید. با این حال، شرکت هشدار میدهد که اگر شخصی اجازه دسترسی به شباهت خود را بدهد، دیگران ممکن است بتوانند از آن استفاده کنند؛ موضوعی که نگرانیهای مشخصی در زمینهٔ حریم خصوصی و رضایت ایجاد میکند.
نکات عملی دربارهٔ Cameo و نحوهٔ کاربرد آن:
- کاربران میتوانند محدودهٔ استفاده از cameo را انتخاب کنند (مثلاً فقط برای دوستان یا عموم) و هر زمان که بخواهند این مجوز را پس بگیرند.
- اپلیکیشن مکانیزمهایی برای حذف محتوا و گزارش تخلف دارد، اما اثربخشی این مکانیسمها به سرعت و دقت تیمهای نظارتی بستگی دارد.
- در آینده ممکن است نیاز به احراز هویت قویتر برای جلوگیری از جعلهای صوری و سوءاستفادههای هویتی وجود داشته باشد.

ایمنی، محدودیتها و چشمانداز کسب درآمد
OpenAI اعلام کرده که اپ Sora را "با مسئولیت" عرضه میکند و کنترلهایی را برای رفاه کاربران و حفاظت از گروههای سنی پایینتر اضافه میکند. حسابهای نوجوانان محدودیتهای روزانه برای مشاهده خواهند داشت و قوانین سختگیرانهتری در مورد نحوهٔ استفاده از شباهت چهرهٔ آنها اعمال میشود. علاوه بر این، کاربران میتوانند با دستور دادن به مدل، به نوع محتوایی که در فیدشان ظاهر میشود جهت بدهند؛ قابلیتی که امکان سفارشیسازی تجربهٔ کاربری را افزایش میدهد.
در بخش کسب درآمد، OpenAI میگوید برنامهٔ فوری برای نمایش تبلیغات ندارد، اما انتظار دارد در صورتی که تقاضا از ظرفیت محاسباتی فعلی فراتر رود، گزینههای پولی معرفی کند. رویکرد اعلامشدهٔ شرکت این است که به کاربران امکان پرداخت برای تولید ویدیوهای اضافی را بدهد وقتی که ظرفیت محدود باشد. OpenAI همچنین تأکید میکند که تغییرات مربوط به سیاستها و مدل کسب درآمد را بهصورت شفاف با کاربران در میان خواهد گذاشت.
چالشها و ملاحظات فنی و تجاری شامل موارد زیر است:
- هزینهٔ محاسباتی: تولید ویدیوهای با کیفیت بالا هزینهبر است و توزیع گستردهٔ این خدمات به زیرساخت بزرگ و بهینهسازیهای نرمافزاری نیاز دارد.
- نظارت محتوا: با افزایش حجم ویدیوها، نیاز به سیستمهای اتوماتیک و انسانی برای فیلتر، برچسبگذاری و مدیریت محتوا بیشتر میشود تا از انتشار محتوای آسیبزننده جلوگیری شود.
- قوانین و مقررات: دولتها و نهادهای قانونگذاری در حوزهٔ deepfake و حریم خصوصی ممکن است مقررات تازهای وضع کنند که نحوهٔ استفاده و توزیع چنین فناوریهایی را محدود کند.
OpenAI همچنین روی مکانیسمهایی کار میکند که تشخیص و برچسبگذاری محتوای تولیدشدهٔ مصنوعی را تسهیل کند — از جمله ارائهٔ متادیتا دربارهٔ منشأ و پارامترهای تولید که میتواند به رسانهها و پلتفرمها در تشخیص و مدیریت محتوای مصنوعی کمک کند. با این حال، پیادهسازی چنین استانداردهایی در سطح جهانی و اطمینان از پذیرفته شدن آنها توسط بازیگران مختلف، یک چالش فنی و اجتماعی بزرگ است.
نتیجهگیری
Sora 2 یک گام مهم در مسیر تولید ویدیو و صدا توسط هوش مصنوعی است: واقعگرایی حرکتی بیشتر، کنترل دقیقتر و تجربهٔ اجتماعی یکپارچه که دعوت به اشتراکگذاری گستردهٔ محتوای مصنوعی میکند. ترکیب ابزارهای قدرتمند تولید و یک فید عمودی اجتماعی، هم فرصتهای خلاقانه را افزایش میدهد و هم معضلات اخلاقی را تشدید میکند. اینکه OpenAI چگونه رضایت (consent) را اعمال کند، محتوا را مدیریت و پالایش کند و رشد را با ایمنی و مسئولیتپذیری متوازن سازد، تعیین خواهد کرد که آیا Sora به یک پلتفرم خلاقانهٔ پایدار تبدیل میشود یا محلی برای مناقشات جدی در مورد deepfake و سوءاستفادههای هویتی.
نکات کلیدی برای خوانندگان و سازندگان محتوا که باید در نظر داشته باشند:
- برای سازندگان: Sora فرصتهای جدیدی برای روایتهای بصری و تولید محتوا با هزینهٔ کمتر نسبت به تولید سنتی فراهم میکند، اما نیاز به شفافیت در استفاده از شباهتهای شخصی و رعایت حقوق دیگران دارد.
- برای مصرفکنندگان: آگاهی از اینکه چه محتوایی تولید مصنوعی است و بررسی منابع و شواهد میتواند از گسترش اطلاعات نادرست جلوگیری کند.
- برای سیاستگذاران و شرکتها: تدوین استانداردها و چارچوبهای قانونی برای حریم خصوصی، شناسایی محتوای مصنوعی و مسئولیت پلتفرمها در مدیریت خطرهای ناشی از این فناوریها ضروری است.
در مجموع، Sora 2 نمایانگر مرحلهای در تکامل مدلهای تولید محتوای مولد است که هم پتانسیل خلاقانهٔ بالایی دارد و هم نیازمند چارچوبهای تازهٔ فنی، حقوقی و اخلاقی است تا از سوءاستفادهها و آسیبهای اجتماعی جلوگیری شود. پیگیری شفاف سیاستها، ابزارهای تشخیص و مکانیزمهای رضایت کاربر از جمله اقداماتی هستند که میتوانند این فناوری را به شکلی مسئولانهتر وارد جریان اصلی کنند.
منبع: openai
ارسال نظر