شتاب دهی هوش مصنوعی با نور: محاسبات تنسوری آنی و کم مصرف

یک تیم بین‌المللی به رهبری دانشگاه آلتو نشان داده‌اند که یک عبور واحد از نور ساختاربندی‌شده می‌تواند محاسبات تنسوری پیچیده را به‌صورت آنی انجام دهد. این پیشرفت می‌تواند سرعت پردازش، تاخیر و مصرف انرژی مدل‌های هوش مصنوعی را به‌طور چشمگیری کاهش دهد.

6 نظرات
شتاب دهی هوش مصنوعی با نور: محاسبات تنسوری آنی و کم مصرف

8 دقیقه

پژوهشگران گامی قاطع به سوی سخت‌افزاری برداشته‌اند که هوش مصنوعی را با «سرعت نور» اجرا کند. یک تیم بین‌المللی به سرپرستی دکتر یوفنگ ژانگ از گروه فوتونیک دانشگاه آلتو نشان داده‌اند که چگونه یک عبور واحد از نور ساختاربندی‌شده می‌تواند محاسبات پیچیده تنسوری — همان نوع ریاضی که یادگیری عمیق مدرن را تغذیه می‌کند — را در یک لحظه انجام دهد. این رویکرد وعده افزایش‌های چشمگیر در سرعت و کارایی انرژی برای نسل بعدی پردازنده‌های هوش مصنوعی و شتاب‌دهنده‌های نوری را می‌دهد.

در حالی که انسان‌ها و کامپیوترهای کلاسیک باید عملیات تنسوری را گام‌به‌گام اجرا کنند، نور می‌تواند همهٔ آن‌ها را هم‌زمان انجام دهد. این ویژگی پتانسیل بنیادینی برای کاهش تأخیر (latency) و مصرف انرژی در محاسبات یادگیری ماشین فراهم می‌آورد و راه را برای طراحی شتاب‌دهنده‌های فوتونیک با چگالی بالا باز می‌کند.

چطور نور به یک محاسبه‌گر موازی تبدیل می‌شود

عملیات تنسوری — آرایه‌های چندبعدی از اعداد که با جبر خطی دستکاری می‌شوند — اسکلت محاسباتی بسیاری از سامانه‌های هوش مصنوعی است. عملیات‌هایی مانند کانولوشن‌ها، مکانیسم‌های attention و ضرب ماتریس‌ها همه بر ریاضیات تنسور مبتنی‌اند. الکترونیک متعارف این محاسبات را با اجرای قدم‌به‌قدم روی ترانزیستورها و حافظه انجام می‌دهد، که وقتی اندازهٔ داده‌ها افزایش می‌یابد، زمان و توان زیادی مصرف می‌کند و هزینهٔ عملیاتی را بالا می‌برد.

تیم تحت هدایت آلتو مسیر متفاوتی را انتخاب کرد: آن‌ها داده‌های عددی را در دامنه (amplitude) و فاز موج‌های نور رمزگذاری می‌کنند و سپس اجازه می‌دهند این امواج با یکدیگر تعامل کنند تا خود فیزیک، محاسبات را انجام دهد. با ساختاربندی میدان نوری و بهره‌گیری از چندین طول موج (multi-wavelength یا WDM)، یک عبور اپتیکی واحد می‌تواند ضرب ماتریس‌ها و ضرب‌های تنسوری مرتبه‌بالا را به طور موازی اجرا کند. به عبارت دیگر، نور ورودی‌ها را رمزگذاری می‌کند، آن‌ها را هدایت می‌کند و خروجی‌ها را تولید می‌کند بدون نیاز به سوئیچینگ الکترونیکی فعال در طول عملیات — که این همان ایدهٔ اصلی رایانش فوتونیک و محاسبات نوری است.

یک عبور، چندین عملیات

دکتر یوفنگ ژانگ این رویکرد را با یک تمثیل ساده توصیف می‌کند: به جای بررسی بسته‌ها یکی‌یکی در چندین دستگاه مجزا، سیستم اپتیکی بسته‌ها و ماشین‌ها را در یک خط بازرسی موازی واحد ادغام می‌کند — چندین «قلاب نوری» هر ورودی را به خروجی مناسبش متصل می‌کنند. حاصل کار: کانولوشن‌ها و عملیات‌های شبیه attention که امروز نیازمند صدها یا هزاران چرخهٔ GPU هستند، در یک تعامل اپتیکی آنی اتفاق می‌افتند. این تبدیل سری عملیات‌های دیجیتال به یک پردازش آنالوگ-نوری موازی می‌تواند به‌خصوص در مرحلهٔ inferencing مدل‌های یادگیری عمیق، مزایای بزرگی در تاخیر و مصرف انرژی ایجاد کند.

برای درک بهتر، می‌توان این روش را با مفاهیم چند ورودی-چند خروجی (MIMO) در مخابرات مقایسه کرد؛ با این تفاوت که در اینجا سیگنال‌ها حامل اعداد و عملگرهای خطی هستند. استفاده از چند طول موج (WDM) و تنظیم دقیق فاز و دامنه به دستگاه اجازه می‌دهد ابعاد نمایشی (representation dimensionality) را افزایش دهد و عملگرهای مرتبه‌بالاتر را بدون نیاز به زنجیره‌ای از دستگاه‌های متوالی پیاده‌سازی کند. از نظر طراحی الگوریتمی، این موضوع به توسعهٔ کرنل‌ها و ماتریس‌های اپتیکی نیاز دارد که مستقیماً با توپولوژی شبکهٔ عصبی و عملیات تنسوری متناظر باشد.

چرا این برای سخت‌افزار هوش مصنوعی اهمیت دارد

سرعت تیتر است: نور بسیار سریع‌تر از الکترون‌ها در داخل تراشه‌ها حرکت می‌کند و روش تک‌شات (single-shot) تیم از این مزیت به‌صورت مستقیم بهره‌برداری می‌کند. اما مزایا فراتر از سرعت خام هستند. از آنجا که محاسبات به‌صورت غیرفعال در حین انتشار نور انجام می‌شوند، این رویکرد می‌تواند مصرف انرژی را به‌شکل چشمگیری نسبت به مزارع GPU پرمصرف کاهش دهد. کاهش مصرف انرژی نه‌تنها هزینهٔ عملیاتی مراکز داده را پایین می‌آورد، بلکه امکان اجرای مدل‌های بزرگ هوش مصنوعی را در دستگاه‌های لبه‌ای (edge devices) با منابع محدود و باتری‌های کوچک فراهم می‌سازد.

این روش همچنین مسیری به سمت تراشه‌های فوتونیک متراکم و مقیاس‌پذیر ارائه می‌دهد که قادر به انجام بارهای محاسباتی پیچیدهٔ هوش مصنوعی با بودجهٔ حرارتی (thermal budget) بسیار کمتر هستند. پروفسور ژیپی سان، رئیس گروه فوتونیک آلتو، خاطرنشان می‌کند که این تکنیک مستقل از پلتفرم است: «این چارچوب را می‌توان روی تقریباً هر پلتفرم اپتیکی پیاده‌سازی کرد.» برنامهٔ گروه، یکپارچه‌سازی این عناصر محاسباتی روی چیپ‌های فوتونیک است تا پردازنده‌های مبتنی بر نور به عنوان یک مکمل واقعی برای شتاب‌دهنده‌های الکترونیکی یا حتی جایگزینی برای برخی از آن‌ها مطرح شوند.

زمینهٔ فنی و محدودیت‌ها

ترجمهٔ داده‌ها به دامنه و فاز نوری نیازمند سخت‌افزار دقیق مدولاسیون و آشکارسازی است و همهٔ پایه‌های اولیهٔ هوش مصنوعی به‌سادگی به اپتیک فضای آزاد یا موجبرها نگاشت‌پذیر نیستند. نویز، رزولوشن محدود آشکارسازها، عدم‌دقت در ساخت و تلرانس‌های فرایند تولید از جمله موانع عملی باقی‌مانده‌اند. تیم برای کاهش بخشی از این چالش از چندین طول موج استفاده کرد تا ابعاد نمایش نوری را افزایش دهد و بتواند عملیات تنسوری مرتبه‌بالا را بدون نیاز به آبشاری از دستگاه‌های متوالی انجام دهد؛ اما همچنان کار مهندسی برای بهبود نسبت سیگنال به نویز (SNR)، کالیبراسیون و جبران خطا لازم است.

از منظر طراحی سیستم، مدولاتورها (electro-optic modulators)، آشکارسازها با پهنای باند بالا، و عناصر مسیریابی نوری با تلفات پایین و فاز پایدار اهمیت حیاتی دارند. همچنین برای تطبیق با اکوسیستم صنعتی، نیاز به روش‌های تولید مبتنی بر CMOS-compatible photonics و فرایندهای ساخت با تلرانس‌های دقیق احساس می‌شود تا هزینهٔ تولید و مقیاس‌پذیری بهینه شود. چالش‌های دیگر شامل کنترل دما، مدیریت پراکندگی (dispersion) و تغییرات طول موجی طی زمان است که می‌تواند دقت محاسبات آنالوگ-نوری را تحت تأثیر قرار دهد.

خط زمان یکپارچه‌سازی محتاطانه اما خوش‌بینانه است. ژانگ برآورد می‌کند که این روش می‌تواند ظرف سه تا پنج سال به پلتفرم‌های تجاری موجود سازگار شود، مشروط بر پذیرش صنعتی و مهندسی بیشتر برای ساخت سیستم‌های مقاوم و قابل تولید انبوه. این بازهٔ زمانی بسته به سرمایه‌گذاری در توسعهٔ فوتونیک یکپارچه، استانداردسازی پروتکل‌های مدولاسیون/دمولاسیون و توسعهٔ ابزارهای طراحی اپتیکی متغیر است.

پیامدها و کاربردهای محتمل

  • استنتاج در زمان واقعی برای پردازش تصویر و ویدئو با تأخیر بسیار پایین و مصرف انرژی کمتر.
  • هوش مصنوعی کم‌مصرف در لبه (edge AI) برای حسگرها، سامانه‌های خودران و مراکز داده.
  • شتاب‌دهی بارهای محاسباتی علمی که به جبر خطی با ابعاد بالا وابسته‌اند، مانند حل مسائل رگرسیون چندبعدی و شبیه‌سازی‌های فیزیکی.

تصور کنید دوربین‌ها و حسگرهای هوشمندی که بدون خالی کردن سریع باتری قادرند وظایف پیچیدهٔ شبکه‌های عصبی را انجام دهند — یا رک‌های مرکز داده‌ای که شتاب‌دهنده‌های نوری گلوگاه‌های GPU را کاهش می‌دهند. فناوری می‌تواند نحوه و مکان اجرای مدل‌های هوش مصنوعی را از سرورهای ابری تا دستگاه‌های توزیع‌شده در لبه تغییر دهد. در کاربردهای صنعتی و علمی، کاهش تاخیر و مصرف انرژی می‌تواند امکان بازخورد بلادرنگ و کنترل توزیع‌شدهٔ سیستم‌های پیچیده را فراهم کند.

دیدگاه تخصصی

«این نمونه‌ای زیبا از واگذار کردن کار به فیزیک است»، می‌گوید دکتر لینا مورالس، یک مهندس سیستم‌های فوتونیک (نمونهٔ توضیحی) با تجربه در ساخت شتاب‌دهنده‌های هیبریدی اپتیکی-الکترونیکی. «سیستم‌های اپتیکی می‌توانند بسیاری از عملیات‌های متوالی را به یک عبور موازی تبدیل کنند، اما موفقیت به حل چالش‌های نسبت سیگنال به نویز، یکپارچه‌سازی و برنامه‌پذیری بستگی دارد. اگر این مشکلات برطرف شود، منافع انرژی و سرعت بسیار قانع‌کننده خواهند بود — به‌ویژه برای بارهای کاری inferencing که نوسان آنالوگ را تحمل می‌کنند.»

با بالغ‌تر شدن زمینهٔ رایانش فوتونیک، پژوهشگران انتظار تلاقی و هم‌افزایی بیشتر میان طراحی اپتیکی، علم مواد و توسعهٔ الگوریتم‌های هوش مصنوعی را دارند. هم‌طراحی (co-design) — ایجاد الگوریتم‌هایی که از ابتدا با اجرای اپتیکی سازگار باشند — گامی کلیدی خواهد بود برای باز کردن کامل پتانسیل محاسبات تنسوری تک‌شات. این شامل توسعهٔ روش‌های آموزش و تقریب عددی است که عدم قطعیت‌ها و نویز آنالوگ را در نظر می‌گیرند، همچنین چارچوب‌هایی برای تبدیلات ماتریسی قابل برنامه‌ریزی روی ماتریس‌های اپتیکی.

در نهایت، مسیر تجاری‌سازی مستلزم استانداردسازی ویژگی‌های تابعی، ابزارهای توسعهٔ نرم‌افزاری برای نگاشت شبکه‌های عصبی به عناصر اپتیکی قابل برنامه‌ریزی، و ترکیب مشوق‌های اقتصادی برای شرکت‌های سازندهٔ چیپ‌های فوتونیک و اکوسیستم نرم‌افزاری است. ترکیب این عوامل می‌تواند رایانش فوتونیک را از پژوهش به محصول تبدیل کند و بازار جدیدی برای شتاب‌دهنده‌های نوری در زمینهٔ هوش مصنوعی و محاسبات علمی ایجاد نماید.

منبع: scitechdaily

ارسال نظر

نظرات

پمپزون

معقوله، مخصوصا برای inferencing لبه. اما تجاری شدن؟ هزینه و تولید با تلرانس پایین، کار سختیه.

کوینر

برداشت متعادلی نوشته؛ مزایا و محدودیت‌ها رو پوشش دادن. حالا نوبت استاندارد و ابزارهاست تا از آزمایشگاه بیرون بیاد

کاوه

من یه نمونه کوچیک تو کارم دیدم، سرعت شگفت‌انگیز بود ولی کالیبراسیون و پایداری اذیت میکرد، مهندسی سنگین میخواد

مهران

خیلی هیاهو به نظر میاد، اما اگر SNR و کالیبراسیون حل بشه، میتونه ارزش داشته باشه. کمی اغراق توی تیترها هست

لابکور

واقعا میشه؟ این همه ادعا رو یه چیپ نوری تو ۳-۵ ساله عملی کنن؟ نویز، تولید انبوه و تلفات رو کجا حل میکنن...

دیتاپ

نفس‌گیر! ایده‌شون که با یه عبور نور کلی محاسبات انجام بشه، اگه واقعی باشه دنیا رو تکون میده. ولی هنوز کلی چالش فنی هست، باید دید 😮

مطالب مرتبط