5 دقیقه
اوپنایآی آمازون وب سرویس (AWS) را برای میزبانی و اجرای ChatGPT انتخاب کرده و یک قرارداد هفتساله به ارزش ۳۸ میلیارد دلار منعقد نموده است. این توافق به اوپنایآی دسترسی به Amazon EC2 UltraServers و خوشههای عظیم پردازنده گرافیکی انویدیا را فراهم میکند که بهطور ویژه برای پردازشهای نسلساز بزرگمقیاس طراحی شدهاند.
چرا AWS انتخاب استراتژیک بود
اوپنایآی اعلام کرده که این تصمیم بر پایه سه معیار اصلی سرعت، مقیاس و امنیت اتخاذ شده است. AWS سابقه عملیاتی گسترده در راهاندازی و مدیریت استقرارهای بزرگ هوش مصنوعی دارد و وعده میدهد که قیمت، عملکرد و پوشش جهانی مورد نیاز اوپنایآی را تأمین کند؛ بهویژه در شرایطی که تقاضا برای ChatGPT و APIهای توسعهدهندگان همچنان رو به رشد است. تصور کنید امکان تأمین صدها هزار واحد GPU بهصورت پویا و در کوتاهترین زمان، در حالی که تأخیر شبکه (latency) را در سطح پایین نگه میدارید — این همان پروفایل عملیاتی و توانمندیهایی است که AWS ارائه میکند. انتخاب AWS همچنین به معنی دسترسی به شبکه جهانی مراکز داده، خدمات مدیریت امنیتی، ابزارهای مشاهدهپذیری و زنجیره تأمین سختافزار است که برای عملیاتیسازی یک سرویس هوش مصنوعی در سطح جهانی حیاتی هستند.
چه چیزی در قرارداد ۳۸ میلیارد دلاری گنجانده شده است
این تعهد چندساله شامل زیرساخت و ظرفیتهایی است که قرار است تا پایان سال ۲۰۲۶ بهکار گرفته شوند و با گزینههایی برای گسترش از سال ۲۰۲۷ به بعد همراه است. در سطح فنی، عناصر کلیدی عبارتند از:
- سرورهای Amazon EC2 UltraServers که برای بارکاریهای generative AI بهینهسازی شدهاند.
 - دسترسی به صدها هزار واحد پردازنده گرافیکی Nvidia، از جمله سریهای GB200 و GB300.
 - قابلیت مقیاس تا دهها میلیون هسته CPU برای نیازهای ترکیبی محاسباتی.
 - طراحی معماری که خوشهبندی GPUها را در همان شبکه فراهم میکند تا عملکرد با تأخیر پایین و توان عملیاتی بالا حاصل شود.
 

چگونه این تغییر عملکرد ChatGPT را متحول میکند
با همجوار کردن تعداد زیادی GPUهای پیشرفته انویدیا روی یک بستر یکپارچه با تأخیر پایین، اوپنایآی میتواند مدلهای بزرگتر را با سرعت بالاتر تمرین داده و آنها را سریعتر در سرویس قرار دهد و همچنین زمان پاسخدهی (inference latency) برای کاربران را کاهش دهد. معماری مورد نظر برای بهبود توان عملیاتی در پاسخ به درخواستهای همزمان طراحی شده است و امکان انجام آزمایشهای پیچیدهتر روی مدلها را فراهم میآورد، بدون اینکه گلوگاههایی در میانافزار شبکه، اتصال بین نودها یا برنامهریز کارها پدیدار شود. این بهبودها شامل بهینهسازیهایی در سطح برنامهنویسی مدل (model parallelism)، تفکیک بار محاسباتی بین GPUها (tensor و pipeline parallelism)، و استفاده از اتصالهای با پهنای باند بالا مثل NVLink یا فناوریهای مشابه است که ارتباطات بین کارتهای گرافیکی را با کمترین تأخیر و بالاترین نرخ انتقال ممکن میسازد.
چرا این قرارداد فراتر از عدد ۳۸ میلیارد دلار اهمیت دارد
مبلغ ۳۸ میلیارد دلار توجهها را جلب میکند، اما پیامد بزرگتر حرکت صنعت به سمت زیرساختهای ابر-مقیاس (hyperscale) و یکپارچهسازی عمودی منابع هوش مصنوعی است. برای شرکتها و توسعهدهندگان، این بدان معنی است که دسترسی به مدلهای پیشرفته قابلاطمینانتر خواهد شد و احتمالاً سرعت عرضه قابلیتهای جدید در محصولات مبتنی بر هوش مصنوعی افزایش مییابد. برای رقبا و بازیگران دیگر اکوسیستم ابری، این قرارداد نشان میدهد که مشارکتهای عمده با ارائهدهندگان ابری چگونه میتواند محل توسعه و استقرار نسل بعدی هوش مصنوعی را تعیین کند و رقابت را به سطحی از سرمایهگذاری و مقیاس برساند که برای بسیاری از بازیگران کوچکتر ورود را دشوارتر میکند.
صرفنظر از اینکه شما بهدنبال پیگیری بهروزرسانیهای محصول در ChatGPT هستید، حرکات بازار کلود را دنبال میکنید، یا اکوسیستم GPUهای انویدیا را زیر نظر دارید، این همکاری با AWS یک نقطه عطف مهم در مسیر تجاریسازی هوش مصنوعی مولدی بزرگمقیاس است. افزون بر این، این قرارداد میتواند استانداردهای جدیدی برای قراردادهای ظرفیت بلندمدت، مدلهای قیمتگذاری مبتنی بر مصرف و شیوههای اشتراکگذاری زیرساخت بین توسعهدهندگان و سازندگان مدل تعیین کند که تأثیر قابلتوجهی بر بازار خدمات ابری و تأمینکنندگان سختافزار خواهد داشت.
منبع: gsmarena
نظرات
پمپزون
تو شرکت قبلی هم وقتی GPUها رو جمعکردن سرعت انتشار قابلیتها چند برابر شد، اما پچهای امنیتی و هزینه خیلی اذیتمون کرد، مراقب باشن.
آرمین
انصافا این ۳۸ میلیارد واقعیِ؟ یعنی انحصارِ زیرساختی که همه رو میخوره؟ کسی قراردادِ کامل یا جزئیات فنی داره؟
دیتاپال
وای، ۳۸ میلیارد... جدی؟ این یعنی ChatGPT حالا تو ابر غولهاست؛ هم هیجانزدهام هم میترسم از تمرکز قدرت.
            
                
ارسال نظر