الگوریتمی که آرشیو هابل را به نقشهٔ ناهنجاری ها تبدیل کرد

یک الگوریتم یادگیری ماشین آرشیو ۳۵ ساله هابل را جست‌وجو کرد و بیش از هزار نامزد ناهنجاری نجومی را استخراج نمود؛ یافته‌هایی که شامل لنزهای گرانشی، کهکشان‌های حلقه‌ای و نمونه‌های نادر اخترفیزیکی است.

6 نظرات
الگوریتمی که آرشیو هابل را به نقشهٔ ناهنجاری ها تبدیل کرد

8 دقیقه

یک الگوریتم دهه‌ها مشاهدات تلسکوپ هابل را به نقشه‌ای از چیزهای غیرمنتظره تبدیل کرده است. در عرض تنها چند روز، یک ابزار مبتنی بر یادگیری ماشین نزدیک به ۱۰۰ میلیون قطعهٔ تصویری را غربال کرد و بیش از هزار جرم آسمانی را بیرون کشید که در نگاه نخست مانند کنجکاوی‌هایی عجیب به نظر می‌رسند — و در بررسی دقیق‌تر، فرصت‌هایی علمی به شمار می‌روند.

شش جسم اخترفیزیکی قبلاً کشف‌نشده، عجیب و جذاب در این تصویر تازه از تلسکوپ فضایی هابل ناسا نمایش داده شده‌اند. (ناسا، آژانس فضایی اروپا (ESA)، دیوید اُرایان (ESA)، پابلو گومز (ESA)، مهدی زمانی (ESA/Hubble))

چگونه جستجو انجام شد

آرشیو تصویری هابل حدوداً به ۳۵ سال پیش بازمی‌گردد. این آرشیو بسیار بزرگ است، پراکنده است و از نظر ساختار و تنوع به‌گونه‌ای «انسانی-محور» باقی مانده که سرعت کشف را کاهش می‌دهد. در حالی که ابزارهای جدید مانند تلسکوپ فضایی جیمز وب (JWST) و رصدخانهٔ آیندهٔ ورا روبین (Vera Rubin Observatory) جریان عظیمی از داده تولید می‌کنند — در برخی برنامه‌ها تا ترابایت‌ها داده در هر شب — آرشیو تاریخی هابل به‌مثابه یک مخزن غنی از داده‌های کمتر بررسی‌شده شناخته می‌شود که پتانسیل کشفی زیادی دارد.

در این زمینه، «AnomalyMatch» وارد صحنه شد: یک چارچوبِ تشخیص ناهنجاری نیمه‌نظارتی که حول شبکه‌های عصبی مدرن ساخته شده است. برخلاف دسته‌بندهای سنتی که برای یافتن مجموعه‌ای ثابت از اشیاء شناخته‌شده آموزش می‌بینند، AnomalyMatch نمونه‌هایی را علامت‌گذاری می‌کند که از الگوهای مورد انتظار آموخته‌شده از خود آرشیو منحرف هستند. تیمی به سرپرستی دیوید اُرایان و پابلو گومز در آژانس فضایی اروپا (ESA) حدود ۱۰۰ میلیون برش تصویری (cutout) هابل را به سیستم وارد کردند. نتیجه: فهرستی مرتب‌شده از نامزدهای ناهنجاری که برای بازبینی انسانی در محدودهٔ قابل‌قبول قرار داشت.

سرعت یکی از اهداف مهم بود. توسعه‌دهندگان گزارش داده‌اند که AnomalyMatch این مجموعه داده را در حدود دو تا سه روز با استفاده از تنها یک کارت گرافیک پردازشی (GPU) پردازش کرد — کاری که برای تیم‌های انسانی بسیار طولانی‌تر خواهد بود. اما سرعت بدون دسته‌بندیِ مناسب صرفاً نویز است؛ شبکهٔ عصبی یک فهرست قابل‌مدیریت نزدیک به ۱۴۰۰ نامزد تولید کرد تا دانشمندان بتوانند با مشاهدهٔ چشمی آن‌ها را تأیید کنند. این مدل نیمه‌نظارتی کاهش تعداد بررسی‌های دستی را ممکن ساخت و در عین حال حساسیت به ناهنجاری‌های کمتر متداول را حفظ کرد.

کشف‌ها و ارزش علمی

از میان فهرست کوتاه‌شده، اُرایان و گومز حدود ۱۳۰۰ ناهنجاری واقعی را تأیید کردند. بیش از ۸۰۰ مورد از آن‌ها به‌نظر می‌رسد قبلاً مستندسازی نشده بودند. هوش مصنوعی چه چیزهایی را بیرون کشید؟ مجموعه‌ای متنوع: کهکشان‌های در تعامل و ادغام‌شونده بیشترین سهم را داشتند، به‌طوری که ۴۱۷ سیستم از این نوع ثبت شدند. آرشیو همچنین ۸۶ نامزد لنز گرانشی جدید فراهم آورد — سیستم‌هایی که در آن‌ها یک جرم سنگین جلویی، نور یک منبع پس‌زمینه را خم می‌کند. این لنزها صرفاً کنجکاوی نیستند؛ آن‌ها مانند تلسکوپ‌های طبیعی عمل می‌کنند، کهکشان‌های کم‌نور یا دور را بزرگ‌نمایی می‌کنند و به اخترفیزیکدانان امکان می‌دهند توزیع مادهٔ تاریک را بررسی، معیارهای فاصله را تصحیح و نسبیت عام را در مقیاس‌های کیهانی آزمایش کنند.

AnomalyMatch همچنین نادرهایی مانند کهکشان‌های «ژله‌ای» (jellyfish galaxies) را شناسایی کرد — کهکشان‌های خوشه‌ای که هنگام حرکت در محیطی چگال گاز خود را از دست می‌دهند و رشته‌های ستاره‌زایی دنبالِ آن‌ها کشیده می‌شود — و چندین کهکشان حلقه‌ای و حلقهٔ برخوردی (collisional-ring galaxies). سیستم چند نمونه را در آستانهٔ حساسیت هابل هم بیرون کشید: اجرامی با قرمزگرایی بالا (high-redshift) که نشانه‌های ضعیف آن‌ها نیازمند بررسی دقیق هستند. هسته‌های فعال کهکشان (AGN) با جت و پیکربندی‌های میزبانی AGN غیرمعمول نیز از جمله یافته‌ها بودند، همراه با کهکشان‌های هم‌پوشان، توده‌ای و آنهایی که از نظر مورفولوژی ساختاری نامتعارف نشان می‌دهند.

یک ناهنجاری از آرشیو هابل، که به‌عنوان یک کهکشان "حلقهٔ برخوردی" (collisional ring) طبقه‌بندی شده است — یکی از تنها دو موردی که یافت شد. (ESA/Hubble & NASA، D. O'Ryan، P. Gómez (آژانس فضایی اروپا)، M. Zamani (ESA/Hubble))

چرا به دنبال ناهنجاری‌ها می‌گردیم؟ زیرا اغلب همین داده‌های برون‌خط (outliers) بیشترین آگاهیِ جدید را به ما می‌دهند. آن‌ها رِژیم‌های فیزیکی یا مسیرهای تکاملی را روشن می‌کنند که بررسی‌های استاندارد و الگوریتم‌های انتخاب معمول از آن‌ها غافل می‌مانند. یک تعامل نادر، یک کهکشان با پوسته‌زدگی عجیب، یا یک لنز با توزیع جرم غیرمعمول — این اجرام می‌توانند محرک رصدهای پیگیری شوند که به فهم جدیدی از فیزیک نجومی منجر شوند. به‌علاوه، مستندسازی این ناهنجاری‌ها از نظر ساختن نمونه‌های آموزشی بهتر برای نسل بعدی مدل‌های یادگیری ماشین اهمیت دارد.

سياق: آرشيوها، تلسكوپ‌ها و سيل داده‌ها

آرشیو هابل تنها یک لایه از چشم‌انداز وسیع‌تری از داده‌ها است. تلسکوپ فضایی جیمز وب بسته به برنامه‌ریزی خود ده‌ها گیگابایت در روز تولید می‌کند. رصدخانهٔ ورا روبین قرار است مقیاس داده‌ها را حتی فراتر ببرد؛ هنگامی که عملیاتی شود، حدوداً ۲۰ ترابایت دادهٔ خام در هر شب تولید خواهد کرد. تلسکوپ‌های غول‌آسا مانند Giant Magellan و Extremely Large Telescope عمق و وضوح بیشتری می‌افزایند، اما جریان داده را کاهش نمی‌دهند. انسان‌ها قادر به بررسی چشمی همهٔ این اطلاعات نیستند؛ ماشین‌ها می‌توانند اولویت‌بندی کنند و نهادهای جالب را برای بررسی انسانی برجسته سازند.

این شراکت — غربال الگوریتمی به‌دنبال آن تفسیر انسانی — در حال ظهور به‌عنوان یک روند کاری عملیاتی است. هوش مصنوعی شبکهٔ گسترده را می‌گیرد؛ دانشمندان مرتب‌سازی دقیق، مدل‌سازی فیزیکی و استدلال زمینه‌ای را انجام می‌دهند. مطالعهٔ هابل نمونهٔ عینی‌ای از این رویه است: آرشیویی که با ابزارهای جدید بازنگری شد، صدها جسم علمی جالب را آشکار ساخت که پیشتر نادیده گرفته شده بودند. این رویکرد همچنین امکان توسعهٔ مقیاس‌پذیر را فراهم می‌آورد: الگوریتم‌های بهینه‌شده می‌توانند روی آرشیوهای چندطولی (multi-wavelength) و مجموعه داده‌های ترکیبی هابل و جیمز وب اجرا شوند تا پوشش طیفی و حساسیت کشف افزایش یابد.

علاوه بر این، پیوند بین داده‌های تصویری و داده‌های طیفی (spectroscopy) نقش کلیدی دارد. یافتن یک نامزد لنز گرانشی یا یک AGN مشکوک، معمولاً نقطهٔ شروع برای طیف‌نگاری به‌وسیلهٔ تلسکوپ‌های زمینیِ با دهانهٔ بزرگ (مثلاً VLT، Keck یا رصدخانه‌های رادیویی مانند ALMA) است تا خواص دینامیکی، ترکیبات شیمیایی و پارامترهای فیزیکی دقیق‌تر استخراج شوند. این فرآیند تبدیلِ ناهنجاری‌ها به نتایج فیزیکی قابل اتکا و تفسیرپذیر است.

دیدگاه کارشناسان

«این کار نشان می‌دهد چگونه جستجوی الگوریتمی می‌تواند بازده علمی داده‌های آرشیوی را به‌طور چشمگیری افزایش دهد،» می‌گوید دکتر لیلا بنرجی، کیهان‌شناس مشاهداتی در دانشگاه کمبریج. «تشخیص ناهنجاری جایگزینِ علمِ مبتنی بر فرضیه نمی‌شود؛ بلکه آن را تکمیل می‌کند و نقاطی از فضای پارامتری را نشان می‌دهد که ممکن است هرگز بررسی نکنیم. هیجان‌انگیزترین بخش این است که بسیاری از این نامزدها هدف‌های اصلی برای طیف‌نگاری و پیگیری با وضوح بالاتر خواهند بود — آن نوع رصدهایی که ناهنجاری‌ها را به فیزیک تبدیل می‌کنند.»

تیم تحقیق خاطرنشان کرده که روش مقیاس‌پذیر است. معماری پشت AnomalyMatch برای استقرار در مقیاس بزرگ طراحی شده، که به این معنی است که جستجوهای مشابه می‌توانند روی آرشیوهای دیگر مانند داده‌های گایا (Gaia) یا مجموعه‌های ترکیبی هابل-جیمز وب اجرا شوند. با بهبود مدل‌ها و اتصال آرشیوهای چندطولی، پتانسیل کشف پدیده‌های واقعاً نو رشد می‌کند. این امر همچنین امکان توسعهٔ پایگاه‌های دادهٔ ناهنجاری عمومی و فهرست‌های قابل مقایسه را فراهم می‌سازد که می‌تواند موجب هم‌افزایی بین گروه‌های تحقیقاتی شود.

در حال حاضر، فهرست ناهنجاری‌های تازه‌علامت‌گذاری‌شدهٔ هابل نقطهٔ شروعی غنی ارائه می‌دهد: نامزدهایی برای تأیید لنز گرانشی، مورفولوژی‌های puzzling که نیازمند مدل‌سازی دینامیکی هستند، و آشکارسازی‌های مرزی که ممکن است با رصدهای هدفمند روشن شوند. آرشیو، همان‌طور که معلوم شد، هنوز شگفتی‌هایی در خود دارد — اگر بدانید کجا را نگاه کنید و ابزارهای مناسب را در اختیار داشته باشید.

چه کسی در ادامه پیگیری خواهد کرد؟ پاسخ به این سؤال تعیین خواهد کرد کدام‌یک از این عجایب به اکتشافاتِ علمیِ مهم تبدیل می‌شوند و کدام‌یک تنها یادداشت‌های فرعی پژوهش خواهند بود. با ترکیب اولویت‌بندی الگوریتمی، بررسی انسانی دقیق و رصدهای پیگیری طیفی و تصویری، می‌توان امیدوار بود که چندین مورد از این ناهنجاری‌ها سرآغاز نتایج علمی عمیق باشند.

منبع: sciencealert

ارسال نظر

نظرات

دانیکس

شاید کمی هایپ شده باشه، پیدا کردن نامزد خوبه اما تا طیف‌نگاری و مدل‌سازی ثابت نشه، صرفا کنجکاوی‌ان

آسمانچرخ

آرشیوها هنوز گنج دارن، نکته اینه که پیگیری طیفی و رصدهای تکمیلی باشه، بدونش کشف‌ها نصفه می‌مونن

رامین

من با آرشیوها کار کردم، چیزای زیادی پنهون شده؛ AI در باز کردنشون عالیه، ولی بعدش تمیزکاری و تحلیل دستی سنگینه

لابکور

فقط یه GPU و ۲-۳ روز؟ واقعاً؟ دقت مدل، آلارم‌های کاذب و معیار ارزیابی رو کی گفته روشن کنن

تیربو

ایده خوبه، سرعت مهمه اما بدون تایید چشمی ارزشش کم میشه، ترکیب ماشین و آدم بهتر جواب میده

رودایکس

وااای، هزاران برش تصویری تو چند روز؟! انگار داریم وارد عصر جدیدی از کشف می‌شیم... ولی امیدوارم کنترل خطاها رو جدی گرفته باشن

مطالب مرتبط