نکسوس.ای آی؛ لایهٔ کنترل امن هوش مصنوعی برای شرکت ها

نکسوس.ای‌آی با جذب ۳۰ میلیون یورو، یک لایهٔ کنترل بی‌طرف برای استفادهٔ امن از مدل‌های زبانی بزرگ ارائه می‌دهد. این راهکار امنیت داده، حاکمیت و انطباق را برای شرکت‌ها تسهیل می‌کند.

نظرات
نکسوس.ای آی؛ لایهٔ کنترل امن هوش مصنوعی برای شرکت ها

9 دقیقه

استارتاپ لیتوانیایی Nexos.ai موفق شده است دور سرمایه‌گذاری سری A به مقدار ۳۰ میلیون یورو را ببندد تا یکی از پیچیده‌ترین چالش‌های فناوری سازمانی را حل کند: چگونه به کارکنان اجازه دهیم از ابزارهای قدرتمند هوش مصنوعی استفاده کنند بدون اینکه داده‌های حساس نشت کند. این پلتفرم که توسط Index Ventures و Evantic Capital پشتیبانی می‌شود، خود را به‌عنوان یک لایه کنترل بی‌طرف بین تیم‌ها و مدل‌های زبانی بزرگ معرفی می‌کند تا امنیت داده، حاکمیت داده و انطباق (compliance) را تضمین کند.

چرا شرکت‌ها نگران‌اند — و چرا Nexos.ai فرصت می‌بیند

بخش بزرگی از شرکت‌ها ظرفیت و پتانسیل هوش مصنوعی را می‌فهمند اما دربارهٔ حاکمیت (data governance)، انطباق با قوانین و خطر خروج کنترل‌نشدهٔ داده‌ها نگران‌اند. به‌جای ممنوعیت‌های کلی و محدودیت‌های دستوری، Nexos.ai مسیر متفاوتی پیشنهاد می‌دهد: نقش «سوئیس برای مدل‌های زبانی بزرگ» را بازی کند — یک میانجی بی‌طرف که به تیم‌ها اجازه می‌دهد از مزایای افزایش بهره‌وری استفاده کنند در حالی که داده‌های سازمانی محافظت می‌شود و حریم خصوصی اطلاعات حفظ می‌گردد.

بنیان‌گذاران، توماس اوکماناس و ایمانتاس سابالیاوسکاس — که پیش‌تر به خاطر ساخت Nord Security و دیگر پروژه‌های گروه Tesonet شناخته شده‌اند — هشدار می‌دهند که چشم‌انداز فعلی هوش مصنوعی خطر ایجاد آنچه آن‌ها «بزرگ‌ترین نشت دادهٔ سازمانی» می‌نامند را به‌وجود می‌آورد، زمانی که کارکنان اسناد حساس را در مدل‌های عمومی کپی و جای‌گذاری می‌کنند. رویکرد آن‌ها ورود یک «کنترل پلین» امن است که درخواست‌های هوش مصنوعی را لاگ می‌کند، فیلتر می‌نماید و مسیردهی می‌کند تا شرکت‌ها بتوانند سیاست‌های امنیتی و حاکمیتی را اعمال کنند بدون اینکه جریان‌های کاری روزمرهٔ هوش مصنوعی متوقف شود.

تأمین مالی، اعتبار و شبکهٔ سرمایه‌گذاران مطرح

فقط چند ماه پس از عرضهٔ مخفی که شامل یک دور ۸ میلیون دلاری بود، Nexos.ai دور سری A به ارزش ۳۰ میلیون یورو (حدود ۳۵ میلیون دلار) را با ارزش‌گذاری ۳۰۰ میلیون یورویی اعلام کرد. Index Ventures و Evantic Capital این دور را رهبری کردند؛ حامیان قبلی مانند Creandum و Dig Ventures نیز در آن شرکت داشتند. سرمایه‌گذاران فرشته شامل مدیران عامل شرکت‌هایی مانند Datadog، Klarna، Supercell و Wix هستند که علاوه بر سرمایه، اعتبار استراتژیک و مشاورهٔ شبکه‌ای به این استارتاپ می‌آورند.

شرکت Evantic که توسط مت میلر، شریک سابق Sequoia، تأسیس شده است، یک دارایی خاص به همراه دارد: شبکهٔ «افسانه‌ها» یا Legends شامل حدود ۱۴۰ اپراتور و مدیر عملیاتی است که به شرکت‌های پورتفوی مشاوره می‌دهند. اوکماناس می‌گوید او هم خود در این شبکه به‌عنوان یک Legend شناخته می‌شود و هم از تجربهٔ سایر اپراتورها بهره‌مند است، در حالی که Nexos.ai نقشهٔ راه محصول خود را شکل می‌دهد و از دانش تخصصی برای بهبود محصولات امنیت داده، کنترل دسترسی و مدیریت هزینه بهره می‌برد. این نوع همکاری شبکه‌ای به تقویت موقعیت رقابتی و پذیرش بازار کمک می‌کند.

Where the money will go

  • سرعت بخشیدن به توسعهٔ پشتیبانی از مدل‌های خصوصی برای داده‌های حساس — تکیه بر معماری‌هایی که داده را در محیط‌های تحت کنترل مشتری نگه می‌دارند و ادغام مدل‌های خصوصی را تسهیل می‌کنند.
  • گسترش قابلیت‌های AI Gateway و Workspace — بهبود ویژگی‌های حاکمیت، لاگ‌گیری قابل ردیابی، مدیریت هزینه و ابزارهای همکاری داخلی برای تیم‌های محصول و پشتیبانی.
  • افزایش نیروی فروش و مهندسی در اروپا و آمریکای شمالی — تمرکز بر توسعهٔ بازار، برقراری شراکت‌های شرکتی و پشتیبانی مشتریان سازمانی.
  • رشد نیروی انسانی تا رسیدن به تیم حدود ۱۰۰ نفر در سال اول — جذب مهندسان یادگیری ماشین، امنیت داده، مهندسی فروش و مدیران محصول برای مقیاس‌دهی سریع.

محصول: یک فضای کاری هوش مصنوعی برای کارکنان و یک دروازه برای کنترل

Nexos.ai امروز دو مولفهٔ اصلی را ارائه می‌دهد: یک فضای کاری هوش مصنوعی (AI Workspace) که کارکنان برای تعامل با مدل‌ها از آن استفاده می‌کنند، و یک دروازهٔ هوش مصنوعی (AI Gateway) که توسعه‌دهندگان و تیم‌های امنیتی با آن یکپارچه می‌شوند. دروازه به‌عنوان یک لایهٔ کنترل برای امنیت، مدیریت هزینه و انطباق عمل می‌کند و همزمان از تکه‌تکه شدن فناوری (fragmentation) که شرکت‌ها در مواجهه با ارائه‌دهندگان متعددی از مدل‌های هوش مصنوعی با آن مواجه‌اند می‌کاهد.

با هدایت درخواست‌ها از طریق یک نقطهٔ دسترسی واحد، Nexos.ai در حال حاضر از حدود ۲۰۰ مدل هوش مصنوعی پشتیبانی می‌کند و برنامه دارد ادغام‌های مربوط به مدل‌های خصوصی را تسریع کند تا داده‌های حساس در محیط‌هایی که مشتری کنترل می‌کند، باقی بماند. این معماری با هدف دادن یک نقطهٔ واحد برای اعمال حکمرانی (governance) به تیم‌های حقوقی، امنیتی و فناوری اطلاعات طراحی شده است، و در عین حال به تیم‌های محصول و پشتیبانی اجازه می‌دهد تا از جریان‌های کاری منعطف و مستقل از مدل (model-agnostic) بهره ببرند. علاوه بر این، ویژگی‌هایی مانند فیلترهای محتوایی، شناسایی فیلدهای حساس در متن و قابلیت‌های redaction (حذف یا محو اطلاعات حساس) به کاهش ریسک نشت داده کمک می‌کنند.

از منظر فنی، پیاده‌سازی چنین دروازه‌ای معمولاً شامل رمزنگاری انتها به انتها، سیاست‌های مبتنی بر نقش (RBAC)، لاگ‌های دسترسی با قابلیت جستجو و نگهداری سوابق مطابق با قوانین حفاظت از داده مانند GDPR و مقررات محلی می‌شود. Nexos.ai تلاش می‌کند تا با فراهم آوردن APIهای قابل یکپارچه‌سازی، SDKها برای توسعهٔ مشتریان و امکانات گزارش‌دهی خودکار، فرآیندهای ارزیابی ریسک، ممیزی و پاسخ به رخداد را بهبود دهد. این موضوع برای شرکت‌هایی که نیاز دارند شواهد و زنجیرهٔ تصمیم‌گیری دربارهٔ استفاده از هوش مصنوعی را به هیئت‌مدیره، حسابرسان یا نهادهای نظارتی نشان دهند، حیاتی است.

Early traction and target customers

اوکماناس می‌گوید شرکت هفته‌ای بین ۵۰ تا ۶۰ جلسهٔ دمو برگزار می‌کند که نشان‌دهندهٔ تقاضای فعال بازار برای راهکارهای حاکمیت هوش مصنوعی است. Nexos.ai دو گروه مشتری را در اولویت قرار داده است: شرکت‌های فناورانه‌ای که پیشاپیش روزانه از هوش مصنوعی استفاده می‌کنند و شرکت‌های تحت مقررات سخت‌گیرانه که نیاز به حاکمیت دقیق و کنترل محل نگهداری داده‌ها (data residency) دارند. مشتریان فاش‌شدهٔ اولیه شامل شرکت‌هایی از پورتفوی Tesonet بنیان‌گذاران و یونیکورن فین‌تک بلغاری Payhawk هستند.

نمونه‌های ملموس اهمیت دارند. در Hostinger — که بخشی از همان پورتفوی است — یک دستیار داخلی هوش مصنوعی نیاز به نیروی انسانی در پشتیبانی را کاهش داد و طبق گفتهٔ اوکماناس صرفاً در سال جاری حدود ۱۰ میلیون یورو صرفه‌جویی ایجاد کرد. چنین بازگشت سرمایهٔ قابل اندازه‌گیری (ROI) همان مدلی است که Nexos.ai تلاش دارد به سازمان‌های بزرگ‌تر ارائه دهد، سازمان‌هایی که هنوز باید هیئت‌مدیره و حسابرسان را قانع کنند که هوش مصنوعی می‌تواند هم ایمن و هم سودآور باشد. این نمونه‌ها همچنین نشان می‌دهند چگونه یک راهکار مدیریت دادهٔ سازمانی می‌تواند پیاده‌سازی‌های گستردهٔ هوش مصنوعی را سرعت بخشد و پذیرش فناوری را با حفظ رعایت قوانین همراه سازد.

این برای پذیرش هوش مصنوعی در سازمان‌ها چه معنی‌ای دارد

تصور کنید سازمانی که هر تعامل هوش مصنوعی در آن هم‌زمان هم تولیدی و هم قابل ممیزی باشد. این دقیقاً شعار Nexos.ai است: اجازه دهید کارکنان از مدل‌های مدرن استفاده کنند بدون اینکه اسرار شرکت یا اطلاعات حساس افشا شود یا قوانین انطباق نقض گردد. این راه‌حل سازشی عملیاتی بین منافع بهره‌وری هوش مصنوعی و تمایلات محافظه‌کارانهٔ حاکمیت سازمانی ایجاد می‌کند.

بنیان‌گذاران Nexos.ai شرط می‌بندند که بسیاری از شرکت‌ها ممنوعیت‌های قاطعی مانند قطع دسترسی به مدل‌های عمومی را نمی‌پذیرند و یک لایهٔ کنترل بی‌طرف و مستقل از مدل می‌تواند پذیرش گسترده‌تری را آزاد کند. با سرمایهٔ تازه، فهرست قوی سرمایه‌گذاران و پیروزی‌های اولیه در جذب مشتری، این استارتاپ قصد دارد به میانجی قابل اعتمادی تبدیل شود که بسیاری از مدیران ارشد فناوری (CIOها) و مسئولان امنیت اطلاعات (CISOها) هنگام آوردن هوش مصنوعی به فرایندهای کلیدی سازمان به آن مراجعه می‌کنند.

از جنبهٔ رقابتی، توانایی Nexos.ai در ادغام مدل‌های خصوصی و عمومی، ارائهٔ گزارش‌های شفاف برای ممیزی، و فراهم‌آوردن راهکارهای منعطف برای مدیریت هزینه و کنترل دسترسی، از مزیت‌های کلیدی آن در برابر راهکارهای یکپارچه‌ساز یا محدودکننده است. در نهایت، موفقیت در بازار سازمانی مستلزم ترکیب قابلیت‌های فنی قوی، سازگاری با چارچوب‌های قانونی و ارائهٔ شواهد اقتصادی ملموس است — مواردی که Nexos.ai در تلاش است آن‌ها را به مشتریان نشان دهد.

برای شرکت‌هایی که به دنبال پیاده‌سازی هوش مصنوعی در مقیاس سازمانی هستند، انتخاب بین «ممنوعیت کامل»، «استفادهٔ بی‌قیدوشرط» یا «مدیریت کنترل‌شده» یک تصمیم راهبردی است. Nexos.ai گزینهٔ سوم را ارائه می‌دهد: یک لایهٔ کنترل که امکان بهره‌برداری از مزایای مدل‌های زبانی بزرگ (LLMs)، اتوماسیون هوشمند و تحلیل‌های مبتنی بر هوش مصنوعی را فراهم می‌کند، در حالی که از افشای داده‌های حساس و ریسک‌های انطباق جلوگیری می‌نماید. این رویکرد برای کسب‌وکارهای بزرگ که با مسائل مربوط به حریم خصوصی داده، امنیت سایبری، و انطباق روبرو هستند می‌تواند به‌سرعت تبدیل به یک استاندارد عملیاتی شود.

منبع: techcrunch

ارسال نظر

نظرات

مطالب مرتبط