6 دقیقه
نیویورکتایمز یک دعوای حقوقی رسمی علیه استارتاپ هوش مصنوعی Perplexity مطرح کرده است و این شرکت را به بازتولید و کسب درآمد از محتوایی متهم کرده که «عیناً یا بسیار شبیه» آثار خبری روزنامه است. این اقدام قضایی نشاندهنده افزایش تنش میان ناشران سنتی خبر و سرویسهای تولید محتوای مبتنی بر هوش مصنوعی است و پرسشهای مهمی درباره حقوق نشر، اخلاق دادهکاوی و مدلهای کسبوکار در عصر هوش مصنوعی مطرح میکند.
ادعاها: جمعآوری، تکثیر و دور زدن حفاظتها
در شکایت ارائهشده آمده است که Perplexity «استخراج، کپی و توزیع» محتوای نیویورکتایمز را بدون اجازه انجام داده است. روزنامه میگوید هشدارهای مکرر بیتوجهی شده و ابزارهای جمعآوری داده شرکت عمداً تدابیر حفاظتی Times را — از جمله قوانین robots.txt که مشخص میکنند کدام بخشهای سایت قابل خزیدن هستند — دور زدهاند. این نوع ادعاها بر شیوههای فنی جمعآوری وبدیتا، استفاده از رباتهای وبخزنده (web crawlers) و تقابل با تنظیمات سرور و فایلهای متا متکی است.
نیویورکتایمز استدلال میکند که این رفتار نقض قانون کپیرایت است و انگیزهٔ مخاطبان برای بازدید از سایت ناشر یا خرید نسخهٔ چاپی را کاهش میدهد. طبق شکایت، پاسخهای Perplexity گاهی نسخههای کامل یا نزدیک به کامل مقالات را به کاربران ارائه دادهاند، بهگونهای که نیاز به دسترسی مستقیم به محتوای اصلی را تا حدی برطرف کرده یا جایگزین میکنند. از منظر حقوقی، این موضوع میتواند هم شامل ادعای نقض حق تکثیر (copyright infringement) و هم خسارت اقتصادی ناشی از کاهش بازدید، اشتراک و درآمد اشتراکگذاری باشد.

نیویورکتایمز از دادگاه چه میخواهد
علاوه بر طلب خسارت مالی، نیویورکتایمز از دادگاه درخواست حکم دائمی (permanent injunction) کرده تا Perplexity را از ادامهٔ آنچه در شکایت بهعنوان رفتار غیرقانونی توصیف شده بازدارد. پرونده چارچوبی همزمان حقوقی و اقتصادی را نمایش میدهد: از یک سو ادعاهای قانونی دربارهٔ حق تکثیر و پیروی از پروتکلهای فنی؛ از سوی دیگر مناقشهای دربارهٔ ارزش اقتصادی محتوای خبری، حق مالکیت تولید محتوای اصیل و الزام به مدلهای کسبوکاری که از سرمایهگذاری در روزنامهنگاری حمایت کند. اگر دادگاه حکم به نفع نیویورکتایمز صادر کند، این میتواند به صدور دستورهای فنی یا اجرایی منجر شود که نحوهٔ خزش (crawling)، نمایهسازی (indexing) و نمایش محتوا توسط سامانههای هوش مصنوعی را محدود کند.
واکنش Perplexity با چارچوب تاریخی
Perplexity از طریق سخنگو پاسخ داده و به وبسایت The Verge گفته است که پیگرد قضایی شرکتهای فناوری پدیدهای تازه نیست. در بیانیه آمده است: «از رادیو و تلویزیون تا اینترنت، شبکههای اجتماعی و اکنون هوش مصنوعی، ناشران بارها علیه شرکتهای فناوری جدید طرح دعوی کردهاند — و آن دعاوی به ندرت مانع پیشرفت فنآوری شدهاند.» این پاسخ در چارچوب روایت تاریخی گستردهتری قرار میگیرد که تغییرات فناورانه معمولاً با درگیریهای حقوقی و تنظیمی همراهاند و گذار صنعتها را به دنبال دارند. Perplexity همچنین احتمالاً به مباحثی مانند آزادی اطلاعات، دسترسی عمومی به وب و نقش خلاصهسازی هوش مصنوعی در افزایش دسترسی به خبر استناد خواهد کرد.
چرا این پرونده برای ناشران و ابزارهای هوش مصنوعی اهمیت دارد
این شکایت بخشی از موجی از چالشهای حقوقی است که Perplexity با آن مواجه شده است. تحقیقات نشریاتی مانند Forbes و WIRED در اوایل سال جاری نشان دادهاند که این سرویس از برخی پیوالها عبور کرده و خلاصههای تولیدشده توسط هوش مصنوعی — و در برخی موارد نسخههای نزدیک به کامل — از مقالات محافظتشده تولید کرده است. همچنین Chicago Tribune پیش از زمان طرح دعوای نیویورکتایمز شکایتی مشابه علیه Perplexity مطرح کرده بود که نشاندهندهٔ نگرانی چندین سازمان خبری دربارهٔ رویکرد این استارتاپ است. این روند بازتابدهندهٔ یک تضاد اساسی است: تا چه اندازه مدلهای مولد (generative models) میتوانند متنهای منتشرشده در وب را جذب، خلاصه و بازتولید کنند بدون آنکه متهم به نقض کپیرایت یا تضعیف کسبوکار ناشر شوند.
میزان اهمیت این پرونده از این نظر است که نتیجهٔ آن میتواند چهارچوب حقوقی و عملی برای تعامل میان منابع خبری و شرکتهای هوش مصنوعی تعیین کند. اگر دادگاه به نفع ناشران رأی دهد، شرکتهای هوش مصنوعی ممکن است با محدودیتهای سختتری مواجه شوند: الزام به کسب مجوز (licensing) برای استفاده از محتوای محافظتشده، رعایت دقیقتر فایل robots.txt و دیگر پروتکلهای سطح سایت، یا حتی پیادهسازی فنی فیلترها و سیستمهای اعتبارسنجی مبنی بر منبع محتوا. در مقابل، اگر رای به نفع Perplexity صادر شود، میتواند دسترسی مدلهای زبانی به متنهای عمومی وب را تسهیل کند و استانداردی ایجاد کند که استفاده از محتوای در دسترس عمومی بدون مجوز گستردهتر مجاز دانسته شود. هرکدام از این نتایج تأثیرات بزرگی بر مدلهای کسبوکاری ناشران، نحوهٔ عرضهٔ اشتراکها، و توسعهٔ محصولات مبتنی بر هوش مصنوعی خواهد گذاشت.
خوانندگان و توسعهدهندگان به چه چیزهایی باید توجه کنند
انتظار میرود این پرونده نه تنها بر رفتار محصولی Perplexity، بلکه بر هنجارهای صنعتی و سیاستگذاریها نیز تأثیر بگذارد. سوالاتی که باید دنبال شوند عبارتاند از: آیا شرکتهای هوش مصنوعی فیلترهای سختتری برای جلوگیری از تکثیر محتوای محافظتشده پیادهسازی میکنند؟ آیا قراردادها و توافقهای مجوزدهی جدیدی بین ناشران و توسعهدهندگان هوش مصنوعی شکل میگیرد؟ آیا استانداردهای فنی جدیدی جهت تشخیص و احترام به محدودیتهای سایت (مانند robots.txt و متا تگهای noindex، nofollow) و فهرستبندی (indexing) تدوین میشود؟ پاسخ این پرسشها مشخص خواهد کرد که خبر چگونه در دسترس، قابل جستجو، خلاصهپذیر و قابل کسب درآمد باقی میماند.
همزمان با آمادهسازی تیمهای حقوقی برای ارائهٔ لوایح و شواهد فنی، دنیای فناوری و رسانه با دقت این پرونده را دنبال میکند؛ زیرا نتیجه میتواند سابقهٔ حقوقی مهمی در مورد نحوهٔ برخورد نسل بعدی ابزارهای هوش مصنوعی با محتوای دارای حق تکثیر ایجاد کند. برای توسعهدهندگان، این لحظه فرصتی است تا استانداردهای اخلاقی و فنی را مشخص کنند: مستندسازی منابع داده، پیروی از سیگنالهای سایت و شفافسازی دربارهٔ نحوهٔ استفاده از محتوای ثالث بخشی از راهحلهایی است که میتواند ریسک حقوقی را کاهش دهد. برای ناشران نیز این موقعیت فرصتی است تا دربارهٔ مدلهای درآمدی جدید (از جمله مجوزدهی داده، محصولات API پولی و مدلهای اشتراک منطبق با ارزش روزنامهنگاری) و اقدامات حفاظتی فنی (مانند مدیریت دسترسی، علامتگذاری متادیتا و قراردادهای دسترسی) تصمیمگیری کنند.
منبع: smarti
نظرات
پمپزون
تو یه استارتاپ کوچیک دیدم گرفتن لایسنس سخته و گرونه، اما اینکه AI کامل مقاله رو جایگزین کنه یعنی ضربه به درآمد ناشر؛ تعادل لازمه؟
مهدی
نکته مهم: حکم دادگاه میتونه استانداردها رو عوض کنه. برای توسعهدهندهها مستندسازی و احترام به متا ضروریه، اما راه حل فقط حقوقی نیست
لابکور
وای... جنگ بین روزنامه و هوش مصنوعی انگار شروع شده! نگرانم برای آینده روزنامهنگاری، باید مدل کسبوکار جدید پیدا کنیم
رودکس
این ادعاها جدیه؟ اگه Perplexity عمداً robots.txt رو دور زده باشه باید جواب پس بده، ولی معمولا داستان پیچیدهس، جزئیات فنی رو میخوام ببینم 🤔
ارسال نظر