9 دقیقه
جایی بین یک مزرعه و کابین خلبان، ChatGPT دارد با انجام یک وظیفه فریلنسری در هر نوبت میآموزد که دنیای واقعی چگونه کار میکند.
پشت صحنه، شبکهای در حال رشد از پیمانکاران دارد دانش بسیار تخصصی را به این هوش مصنوعی تغذیه میکند. نه دادههای کلی و عمومی، بلکه نوع تخصصی که از یک خاکشناس، خلبان تجاری یا یک پزشک انتظار میرود. و برای انجام این وظایف، دستمزدهای نسبتاً خوبی پرداخت میشود.
اسنادی که Business Insider بررسی کرده نشان میدهد یک ابتکار مرتبط با OpenAI—که درونی با نام پروژه Stagecraft شناخته میشود—هزاران فریلنسر را درگیر کرده تا شکلگیری درک هوش مصنوعی از مشاغل واقعی را هدایت کنند. هماهنگی این کار از طریق Handshake AI انجام میشود، استارتاپی در سانفرانسیسکو که بهطور نرم از یک پلتفرم کاریابی به بازیگری مهم در اقتصاد برچسبگذاری داده تغییر نقش داده است.
آموزش هوش مصنوعی برای اندیشیدن مانند یک حرفهای
این کار شبیه کار معمول برچسبگذاری داده نیست. از پیمانکاران خواسته میشود که وارد نقشی مثل پرستار عملی یا کارگردان موسیقی شوند و سناریوهای واقعی و باورپذیر را از ابتدا بسازند. آنها دستوراتی مینویسند که جریانهای کاری واقعی را منعکس میکند: نگارش گزارشها، تحلیل مجموعهدادهها یا آمادهسازی خروجیهایی که انتظارات دنیای واقعی را نشان میدهد.
نکته مهم؟ همه چیز باید طوری انجام شود که انگار کار را به یک همکار انسانی واگذار میکنید، نه به یک هوش مصنوعی. هیچ سادهسازی و هیچ «کوتاهسازی» اطلاعات مجاز نیست. هدف اصالت و واقعنمایی است.
یک راهنمای آموزشی بهصورت صریح میگوید: تمرکز بر کارهای دانشمحور باشد، نه کارهای یدی. یعنی شبیهسازی تصمیمگیری، تفکر نقادانه و تخصص حوزهای—مهارتهایی که مشاغل مدرن را تعریف میکنند.
در یکی از مثالها، مشارکتکنندگان از آنها خواسته میشود که بهعنوان مدیر مالی یک شرکت تئاتر عمل کنند و صفحات حقوق و دستمزد را بر اساس توافقات اتحادیهای بسازند. در مورد دیگری ممکن است یک مرور 10 صفحهای از ادبیات پزشکی تولید کنند. اینها مسائل نمایشی و بازیچه نیستند؛ آنها تکههایی از مشاغل واقعیاند.
نحوه کار: از سناریوسازی تا تولید دستورالعمل
پیمانکاران ابتدا باید نقش را کامل درک کنند، سپس سناریوی کاری واقعی را طراحی کنند و دستورالعملهایی ایجاد کنند که رفتار و خروجی یک حرفهای را بازتولید کند. این فرایند شامل تعیین معیارهای کیفیت، شرح پیشزمینه، تعیین ورودیها و خروجیهای مورد انتظار و ارائه نمونههای مرجع است.
دستورالعملها معمولاً شامل سؤالات کلیدی، سناریوهای متعدد با پیچیدگیهای افزایشی و نمونه پاسخهایی است که نشان میدهد چه سطحی از جزئیات و توانایی تحلیل و استدلال از مدل انتظار میرود. بهعبارتی، پیمانکاران طوری رفتار میکنند که انگار در حال آموزش یک همکار تازهکار انسانی هستند که باید به استانداردهای حرفهای برسد.
تمرکز بر اصالت و اعتبار حرفهای
هدف از این نوع آموزش فراتر از ساخت یک چتبات با پاسخهای سطحی است؛ این تلاش برای پدید آوردن مدلهایی است که در تصمیمگیریهای حرفهای، تحلیل دادهها و تولید مدارک شبیه به آنچه یک متخصص انسانی تولید میکند، معتبر و قابلاعتماد باشند. به همین دلیل، تأکید روی جزئیات حوزهای، ملاحظات قانونی و اخلاقی، و استانداردهای مستندسازی حرفهای بالا است.
نیروی کاریای که به هزاران نفر مقیاس یافته است
تخمین زده میشود که تا کنون حدود 3,000 تا 4,000 فریلنسر در این پروژه دخیل شدهاند. پرداختها از حدود 50 دلار در ساعت شروع میشود، اما برای تخصصهای بسیار بالا، نرخها میتوانند بهطور چشمگیری افزایش یابند—گاهی تا 500 دلار در ساعت—بر اساس آگهیهایی که در پلتفرم Handshake منتشر شده است.
دامنهٔ مشاغل بسیار متنوع است. از خلبانان تجاری، زمینشناسان، داروسازان، کشاورزان، متخصصان منابع انسانی تا مجسمهسازان. یک صفحه گستردهٔ فاششده که به این پروژه مرتبط بود صدها نقش در صنایع مختلف را فهرست کرده و بههمراه جزئیات تماس پیمانکاران آمده بود—موضوعی که نگرانیهایی درباره افشای دادهها ایجاد کرد.
هر ارسال از چند لایه بازبینی عبور میکند: ابتدا بازبینی داخلی، سپس توسط کارشناسان حوزه و در نهایت بررسی توسط خود OpenAI. ایده این است که مطمئن شوند مدل تنها «هوشمند بهنظر نرسد»؛ بلکه رفتاری داشته باشد که نشان دهد واقعاً با اصول و جزئیات شغل آشناست.
نتیجه یک تغییر در روش آموزش هوش مصنوعی است: کمتر تمرکز بر هوش عمومی و بیشتر تمرکز بر اعتبار حرفهای.
تنوع تخصصها و مقیاس حقوق
این پروژه نشاندهنده تغییر در بازار کار مهارتمحور است: کارهای میکروتسک و برچسبگذاری ساده جای خود را به تولید محتوای تخصصی و مشاورهای دادهاند که نیازمند تجربه عمیق است. پرداخت ساعتی زمانی تا 500 دلار نشان میدهد که خریداران داده و مدلسازان حاضرند برای تخصص واقعی هزینه کنند، بهویژه وقتی خطاها میتواند پیامدهای مالی یا ایمنی داشته باشد.
فرایند کنترل کیفیت و بازبینی چندمرحلهای
اینکه هر قطعه محتوا سه چهارچوب بازبینی ببیند، نشان میدهد که بازیگران پروژه میدانند کیفیت بالا هزینه و فرایند میطلبد. بازبینی یکپارچهٔ داخلی معمولاً روی وضوح دستورالعمل و رعایت قالبها تمرکز دارد؛ بازبینی کارشناسی بیشتر به عمق فنی، استانداردهای حرفهای و صحت محتوا میپردازد؛ و در انتها OpenAI معیارهای نهایی در همخوانی با اهداف محصول را اعمال میکند.
این ساختار سهمرحلهای برای کاهش خطاها، جلوگیری از تولید اطلاعات نادرست و افزایش اطمینانپذیری مدل در موقعیتهای حساس طراحی شده است.
تنشهای اخلاقی، امنیت داده و آیندهٔ مشاغل
با اینکه روند بهسرعت پیش میرود، صدایی از نارضایتی نیز شنیده میشود. برخی مشارکتکنندگان کاملاً از این پارادوکس آگاهاند: آنها عملاً در حال آموزش سیستمهایی هستند که ممکن است روزی جای آنها را بگیرند.
این تنش با گزارشهای اخیر دربارهٔ اختلافات پرداخت شدیدتر شده است. چندین پیمانکار ادعا کردهاند که بهخاطر نقض قواعد پلتفرم هزاران دلار پرداخت نشده برای کارهای تکمیلشده دریافت نکردهاند—تصمیماتی که به گفتهٔ آنها بدون امکان تجدیدنظر اتخاذ شده است. Handshake از اظهار نظر عمومی خودداری کرده و OpenAI نیز سکوت اختیار کرده است.
خطرات افشای داده و حریم خصوصی
فاش شدن صفحهگستردهای که شامل صدها نقش و جزئیات تماس پیمانکاران بود، نگرانیهایی درباره مدیریت دادهها و حفاظت از حریم خصوصی ایجاد کرد. وقتی دادههای آموزش شامل اطلاعات تماس یا نمونههای کاری اختصاصی افراد میشود، نیاز به سیاستهای شفاف برای محافظت از حقوق قراردادها و محرمانگی بسیار مهم است.
علاوه بر این، هنگام تولید محتوای حوزههای حساس مانند پزشکی یا مسائل حقوقی، ضروری است تا منابع و مراجع معتبر و سیاستهای بازبینی قانونی در فرایند لحاظ شود تا از تولید اطلاعات نادرست و پیامدهای آن جلوگیری شود.
پیامد برای بازار کار و سیاستگذاری
این مدل آموزش میتواند هم فرصت و هم تهدید باشد. از یکسو، پرداخت برای مهارتهای تخصصی و مشارکت در پروژههای بزرگ درآمد جدیدی ایجاد میکند؛ از سوی دیگر، اتکا به مدلهای آموزشدیده توسط همین نیروی کار میتواند در بلندمدت به جایگزینی برخی وظایف انسانی منجر شود.
سوالات سیاستگذاری مطرحاند: آیا باید برای حفاظت از حقوق فریلنسرها و شفافیت قراردادها مقرراتی وضع شود؟ چگونه میتوان اطمینان یافت که مدلهای تولیدشده مسئولانه، ایمن و مطابق با استانداردهای حرفهای عمل میکنند؟ اینها پرسشهایی هستند که هم کارفرمایان، هم قانونگذاران و هم جامعه حرفهای باید به آنها بپردازند.
چرا این تحول مهم است
حرکت به سمت آموزش هوش مصنوعی با استفاده از مهارتهای انسانی واقعی نشاندهنده یک مرحلهٔ جدید در تکامل فناوریهای زبانی است. بهجای تولید مدلهایی که تنها در پاسخگویی کلی خوباند، تمرکز اکنون بر ایجاد مدلهایی است که در وظایف تخصصی معتبر و قابلاستناد عمل کنند—از تحلیل مالی تا تشخیصهای پزشکی و مدیریت زنجیره تأمین.
برای سازمانها این یک فرصت رقابتی است: مدلهایی که بتوانند دانش حرفهای را با دقت بازتولید کنند میتوانند کارایی را بالا ببرند، هزینهها را کاهش دهند و در تصمیمگیریهای پیچیده کمک کنند. اما برای نیروی کار، این یک هشدار است که مهارتها و جایگاههای شغلی ممکن است تحول یابند و نیازمند بازآموزی، تنظیم قوانین و مذاکرات جدید در مورد مالکیت دانش و دستمزد شوند.
نکات کلیدی برای خوانندگان و تصمیمگیران
- شفافیت قراردادها: فریلنسرها باید بدانند دادهها چگونه استفاده میشود و حقوقشان در قراردادها بهروشنی مطرح باشد.
- کیفیت و اعتبار: سازمانها باید استانداردهای بازبینی و اعتبارسنجی را برای محتوای تخصصی برقرار کنند تا ریسک خطا کاهش یابد.
- حفظ کار انسانی: ترکیب مهارت انسانی و هوش مصنوعی مؤثرتر و اخلاقیتر از جایگزینی کامل است؛ سیاستها باید این تعادل را حفظ کنند.
- آموزش و ارتقاء مهارت: سرمایهگذاری در بازآموزی و توسعهٔ مهارتهای تخصصی میتواند نیروی کار را در برابر تغییرات محافظت کند.
جمعبندی
شتاب این نوع آموزش نشان میدهد که با نفوذ عمیقتر سیستمهای هوش مصنوعی در حوزههای تخصصی، تقاضا برای تخصص انسانی نه کاهش مییابد و نه به همان شکل سابق باقی میماند—بلکه در حال تحول است. کسانی که نزدیکترین افراد به انجام کار هستند در واقع دارند تعیین میکنند این مدلها چه میشوند.
و در این فرایند، ممکن است که آنها در حال تعریف آیندهٔ حرفهٔ خود نیز باشند؛ آیندهای که در آن ترکیبی از مهارتهای انسانی، نظارت دقیق انسانی و مدلهای هوشمند، فعالیتهای حرفهای را شکل خواهد داد.
نظرات
کامران_
معقول به نظر میاد، ولی ترسم اینه که مالکیت دانش چه میشه و حقوق فریلنسرها؟ عجلهای شده انگار، باید آهسته و قانونمند پیش برن.
اتو_ر
من خودم فریلنس بودم، این حس رو دارم؛ داریم عملا ابزار تولید میکنیم که بعد ممکنه جای ما رو بگیره، ولی هیچ چارچوب حقوقی شفاف نیست
کوینپایل
احتمالا بخشی حقیقت داره ولی کمی بزرگنمایی شده؛ ۵۰۰ دلار ساعت؟ شاید برای نخبگان. ریسکهای افشا و پرداختنشدن حقیقتا جدیه.
بیونیکس
نکته خوبه که سه مرحله بازبینی هست، ولی شفافیت قراردادها کمه، باید قوانین جدید و روشن باشه. ترکیب انسان و ماشین باید با نظارت باشه.
امیر
این که واقعیه؟ یعنی فریلنسرها دارن مدلهایی رو تربیت میکنن که ممکنه شغلشون رو بگیره، و بعد پولشون هم ندهند؟ خیلی مشکوکه
دیتاپالس
وای، یعنی دارن به ChatGPT میگن مثل یه همکار حرفهای فکر کن؛ هم جذابه هم ترسناک... کی جوابگو میشه وقتی خطا پیش بیاد؟
ارسال نظر