8 دقیقه
تلگرام اخیراً سرویس Cocoon را راهاندازی کرده است؛ یک شبکه محاسبات محرمانه و غیرمتمرکز مبتنی بر بلاکچین TON که وعده میدهد inference هوش مصنوعی را بهصورت خصوصی و با هزینه کمتر فراهم کند، از طریق اتصال مستقیم مالکان GPU به توسعهدهندگان. پاول دوروف گفته است Cocoon واسطههای پرهزینه را حذف میکند و درخواستها و پاسخها را رمزنگاری میکند تا حتی میزبان نیز نتواند محتوای آنها را بخواند. این رویکرد ترکیبی از محاسبات توزیعشده، تضمینهای حریم خصوصی و تسویهحساب زنجیرهای را ارائه میدهد که میتواند الگوی اجرای مدلهای زبانی بزرگ و سرویسهای هوش مصنوعی را تغییر دهد.
چرا Cocoon میتواند شیوه اجرای هوش مصنوعی را تغییر دهد
تا کنون، توسعهدهندگان و کاربرانی که به دنبال سرویسهای قدرتمند هوش مصنوعی بودند، معمولاً دادههای خود را از طریق غولهای ابری متمرکز مسیردهی میکردند—نامهایی مانند آمازون، مایکروسافت یا گوگل در ذهن هستند. این راحتی مزایایی داشت، ولی هزینهها، وابستگی و سطح حمله را نیز افزایش میداد: تعرفههای بالا، قفل شدن در ارائهدهندهٔ خاص، و بزرگتر شدن سطح حمله برای درخواستهای حساس یا دادههای خصوصی. علاوه بر این، مسائل مربوط به مطابقت با مقررات حفاظت داده، نیازهای اقامت داده و بازرسیهای امنیتی برای سازمانها چالشزا شد.
Cocoon بر آن است که این مدل را وارونه کند. این پلتفرم با استفاده از GPUهای بیکار در یک بازار همتا به همتا و اجرای inference مدلها در داخل محیطهای اجرای مورد اعتماد (Trusted Execution Environments یا TEEs)، ورودیها و خروجیها را محرمانه نگه میدارد، سربار را کاهش میدهد و پردازش را بین تعداد زیادی از ارائهدهندگان توزیع میکند. تصور کنید اجرای یک مدل زبانی بزرگ را بدون ارسال درخواستها به سرور یک شرکت بزرگ؛ این دقیقاً همان وعدهای است که Cocoon مطرح میکند. چنین مدلی میتواند برای پردازش متن، تصویر، صدا یا پردازشهای تخصصی inference که نیاز به حریم خصوصی و هزینهٔ پایین دارند، مناسب باشد.
نحوه کار Cocoon — فناوری در زیر کاپوت
سامانه از TON بهعنوان لجر و لایه پرداخت خود استفاده میکند. یک قرارداد هوشمند روی TON یک allowlist از هشها و آدرسهای مورد تأیید را نگهداری میکند تا تنها کامپوننتهای تأییدشده و مورد اعتماد در شبکه مشارکت کنند. وقتی یک توسعهدهنده یا اپلیکیشن به محاسبات هوش مصنوعی نیاز دارد، Cocoon کار را به یک میزبان GPU در دسترس هدایت میکند که سختافزار آن در حال اجرای ایمیج Cocoon داخل یک TEE است. این مسیر یابی ترکیبِ نظارت زنجیرهای برای احراز اصالت و بازاردهی همتا به همتا برای تخصیص منابع را امکانپذیر میسازد.

TEEs تضمین مهمی برای حریم خصوصی ارائه میدهند: کد و دادههایی که در enclave پردازش میشوند از دسترسی سیستمعامل میزبان محافظت میشوند. از منظر عملی، این بدان معناست که اپراتور سرور نمیتواند درخواستها، دادههای میانی یا خروجی مدل را مشاهده کند—فقط enclave قادر به پردازش و مدیریت آنهاست. Cocoon این محرمانگی را با تسویهٔ غیرمتمرکز روی TON ترکیب میکند تا میزبانها بهصورت خودکار بابت محاسبات ارائهشده پرداخت دریافت کنند. همچنین مکانیزمهایی مانند attestations یا تایید اعتبار راهدور میتواند به توسعهدهندگان اطمینان دهد که مدل و محیط اجرا همان چیزی است که ادعا میشود؛ این ادعاها معمولاً با استفاده از امضاهای سختافزاری و هشها ثبت میشوند تا tampering کاهش یابد.
چه کسانی میتوانند بپیوندند و چگونه شروع کنند
برای Cocoon دو گروه مخاطب مشخص وجود دارد: توسعهدهندگانی که نیاز به inference خصوصی مدلها دارند و دارندگان GPU که میخواهند سختافزار بلااستفادهٔ خود را درآمدزا کنند. این تقسیمبندی ساده نشان میدهد که هم تقاضا برای محاسبات محرمانه و هم عرضهٔ ظرفیت محاسباتی میتواند در یک بازار رقابتی با قوانین شفاف گردآوری شود.
- میزبانهای GPU: ایمیج Cocoon را روی دستگاه خود نصب کنید، یک پیکربندی اولیهٔ کوتاه شامل نام مدل و آدرس کیف پول TON خود را تکمیل کنید، و گرهٔ شما ظرفیت را به شبکه اعلام خواهد کرد. فرآیند نصب و پیکربندی به گونهای طراحی شده تا برای صاحبان سختافزار معمولی قابل اجرا باشد، اما لازم است نکات مربوط به امنیت سختافزاری، پهنای باند، محدودیتهای مصرف انرژی و الزامات سختافزاری مدلها را نیز در نظر بگیرید. میزبانها معمولاً میتوانند قیمتگذاری ساعتی یا بر مبنای درخواست را تعیین کنند و با مکانیزمهای تسویه خودکار در TON پرداختها را دریافت نمایند.
- توسعهدهندگان: کارها را به Cocoon ارسال کنید؛ شبکه میزبانهای سازگار را پیدا کرده و بار کاری را داخل TEEs اجرا میکند. پرداختها و مجوزها از طریق قرارداد هوشمند TON مدیریت میشوند. توسعهدهندگان میتوانند از SDKها و APIهای فراهمشده برای یکپارچهسازی سریع استفاده کنند، مدلهای از پیش آموزشدیده یا سفارشی را بارگذاری کنند و پارامترهایی مانند تاخیر مجاز، نرخ نمونهگیری یا محدودیتهای هزینه را تعیین نمایند. همچنین مکانیزمهای تطبیق خودکار میزبان و نظارت بر کیفیت سرویس اجازه میدهد که درخواستها به میزبان مناسب هدایت شوند تا نیازهای latency و throughput برآورده شود.
پاول دوروف اعلام کرده است که در هفتههای آتی ظرفیتهای GPU و توسعهدهندگان بیشتری به شبکه خواهند پیوست، و تلگرام قصد دارد قابلیتهای مبتنی بر Cocoon را مستقیماً در اپلیکیشن وارد کند در حالی که حریم خصوصی کاربران را حفظ میکند. این ادغام میتواند شامل ابزارهای پاسخگویی هوشمند، تولید محتوا، خلاصهسازی مکالمات و امکانات مشابه باشد که بدون افشای محتوای پیامها به میزبانها پرداخته میشوند.
این برای کاربران و صنعت چه معنایی دارد
برای کاربران نهایی، فایدهٔ فوری حفظ حریم خصوصی است: قابلیتهایی که با Cocoon تأمین میشوند میتوانند متن، تصویر یا ورودیهای دیگر را پردازش کنند بدون آنکه آنها را در معرض اپراتورهای سرور قرار دهند. بهویژه در زمینه پیامرسانی، خدمات پزشکی، مالی یا هر سرویس حساس دیگری که مستلزم جلوگیری از دسترسی شخص ثالث به دادههای کاربران است، این مدل میتواند ارزش بالایی داشته باشد. برای توسعهدهندگان و تیمهای کوچک هوش مصنوعی، محاسبات غیرمتمرکز میتواند از لحاظ هزینه مقرونبهصرفهتر از ارائهدهندگان ابری سنتی باشد، بهخصوص برای بارهای کاری سنگین در زمینه inference که نیاز به پردازش تکراری و با حجم بالا دارند. با حذف واسطهها و تسویهٔ مستقیم از طریق TON، هزینهها کاهش و شفافیت افزایش مییابد.
با این حال، چالشهایی وجود دارد که باید بر آنها فائق آمد: پذیرش بازار، تضمین کیفیت سرویس (SLA)، و اطمینان از وجود یک بازار سالم از میزبانها. مواردی مانند مدلهای ارزیابی صلاحیت میزبان، سیستمهای اعتبار و بازخورد، تضمینهای latency، و مکانیسمهای مقابله با بدرفتاری یا ارائهٔ نتایج نامعتبر از جمله نیازهای عملیاتی هستند. از منظر فنی نیز تهدیداتی مانند حملات جانبی بر TEEs، باگهای امنیتی در ایمیجهای اجرایی، و نیاز به بهروزرسانی منظم نرمافزار و مدلها وجود دارد که باید با فرآیندهای بروزرسانی امن و مکانیزمهای اعتبارسنجی مقابله شوند.
با وجود این چالشها، Cocoon گامی ملموس به سمت پردازش محرمانه و توزیعشدهٔ هوش مصنوعی برداشته است که وابستگی به تعداد کمی از hyperscalerها را کاهش میدهد. این رویکرد میتواند زمینهٔ رقابت بیشتر در بازار خدمات هوش مصنوعی، تنوع در مدلهای تجاری و بهبود دسترسی به محاسبات قدرتمند را فراهم آورد. در بلندمدت، ترکیب فناوریهای دفترکل توزیعشده مانند TON با TEEs و بازارهای همتا به همتا میتواند الگوهای جدیدی برای حفظ حریم خصوصی، شفافیت هزینهها و حاکمیت داده ایجاد کند.
نکات کلیدی خلاصه
- Cocoon روی شبکه TON اجرا میشود و از TEEs برای محافظت از تسکهای هوش مصنوعی در برابر دسترسی میزبان استفاده میکند؛ این ترکیب تضمین میکند که کد و دادهها تنها در enclave قابل پردازش و خواندن باشند و حریم خصوصی کاربران حفظ شود.
- مالکان GPU میتوانند ظرفیت خالی خود را اجاره دهند و پرداختهای آنی را به کیفپول TON خود دریافت کنند؛ این مدل درآمدی میتواند هزینههای سختافزاری را جبران کند و بازار منابع محاسباتی را پویاتر سازد.
- توسعهدهندگان به inference خصوصی و ارزانتری دسترسی خواهند داشت بدون آنکه نیاز باشد دادهها را به ابرهای متمرکز ارسال کنند؛ این برای تیمهای کوچک، استارتآپها و سرویسهایی که بارهای سنگین inference دارند، مزیت اقتصادی و حریم خصوصی به همراه میآورد.
- تلگرام قصد دارد Cocoon را به قابلیتهای آیندهٔ هوش مصنوعی در داخل اپلیکیشن خود متصل کند، که میتواند امکاناتی مانند پاسخگویی هوشمند، تولید خودکار محتوا، فشردهسازی و خلاصهسازی گفتگوها و دیگر ابزارهای هوش مصنوعی را بهصورت خصوصی فراهم آورد.
منبع: smarti
نظرات
توربو
فکر میکنم غیرمتمرکز شدن خوبه، اما حفظ SLA و تضمین کیفیت تو بازار میزبانها ساده نیست؛ جایگزینی hyperscaler زمان میبره
کوینپ
این واقعاً انقدر که میگن خصوصی و امنه؟ حملات جانبی روی TEEs و باگهای ایمیج اجرایی چجوری قراره کنترل بشه... شک دارم
رودیکس
وااای، این ایده میتونه تحولی باشه! اگه واقعا TEEs امن باشن و قیمتها پایین بیان، خیلی چیزا عوض میشه...
ارسال نظر