هوش مصنوعی، تحلیل چهره و پیش بینی نتایج شغلی و ریسک ها

تحقیق دانشگاه پنسیلوانیا نشان می‌دهد هوش مصنوعی می‌تواند از تصاویر چهره صفات شخصیتی را استنتاج کرده و به پیش‌بینی نتایج شغلی بپردازد. مقاله پیامدهای استخدامی، حقوقی و اخلاقی تحلیل چهره، ریسک‌های تبعیض الگوریتمی و نیاز به شفافیت و مقررات را بررسی می‌کند.

4 نظرات
هوش مصنوعی، تحلیل چهره و پیش بینی نتایج شغلی و ریسک ها

10 دقیقه

تحقیقات جدید دانشگاه پنسیلوانیا نشان می‌دهد که هوش مصنوعی می‌تواند از تصاویر چهره نشانه‌های مرتبط با شخصیت استخراج کند و از این طریق نتایج شغلی افراد را پیش‌بینی نماید. این یافته سؤالات مهمی درباره خودکارسازی روندهای استخدام، تصمیم‌گیری در اعطای اعتبار و اخلاق استفاده از تحلیل چهره به‌عنوان شاخص قابلیت اشتغال مطرح می‌کند. در مواجهه با این فناوری، پرسش‌هایی درباره حریم خصوصی، تبعیض الگوریتمی و شفافیت تصمیم‌گیری خودکار بوجود می‌آید که نیازمند بررسی دقیق سیاست‌گذاران، پژوهشگران و کارفرمایان است.

چطور مطالعه انجام شد — چهره‌ها، الگوریتم‌ها و «پنج عامل بزرگ»

تیم پژوهشی یک مدل یادگیری ماشین را بر پایه پژوهش‌های قبلی که ارتباط ظاهری صورت را با صفات شخصیتی بررسی کرده بودند آموزش داد. پژوهشگران، تصاویر پروفایل حدود 96٬000 فارغ‌التحصیل برنامه MBA را از شبکه اجتماعی LinkedIn گردآوری کردند و از یک سامانه هوش مصنوعی برای برآورد پنج صفت اصلی شخصیت — گشودگی (openness)، مسئولیت‌پذیری (conscientiousness)، برون‌گرایی (extraversion)، سازگاری (agreeableness) و روان‌رنجوری (neuroticism) — که مجموعه «Big Five» نامیده می‌شود، استفاده کردند. این ترکیب داده‌محور شامل تحلیل تصویر، یادگیری الگوها و پیوند زدن نتایج با متغیرهای بازار کار بود.

در این مرحله، تیم مطالعه تلاش کرد رویکردی فنی و روان‌شناختی را ترکیب کند: از یک‌سو، روش‌های پردازش تصویر و شبکه‌های عصبی عمیق برای استخراج ویژگی‌های چهره به‌کار رفت؛ از سوی دیگر، نظریه‌ها و مقیاس‌های روان‌سنجی برای تفسیر صفات شخصیتیِ متناظر به‌عنوان متغیرهای هدف استفاده شد. برای افزایش اعتبار یافته‌ها، پژوهشگران معیارهای کنترل مانند سن، جنسیت، رشته تحصیلی و سابقه کاری را نیز در تحلیل‌های آماری لحاظ کردند تا همبستگی‌های مشاهده‌شده را نسبت به عوامل بیرونی بسنجند.

از پیکسل تا نمره‌های شخصیتی

سامانه هوش مصنوعی ویژگی‌های ظاهری چهره مانند شکل کلی صورت، نسبت‌های هندسی، حالات ظریف عضلات اطراف چشم و دهان، و الگوهای نور و سایه را اسکن کرد و بر پایه مدل‌های آماری و شبکه‌های عصبی، برآوردهایی از نمره‌های مربوط به هر یک از پنج عامل بزرگ ارائه داد. سپس پژوهشگران این برآوردهای هوش مصنوعی را با معیارهای شغلی واقعی مانند درآمد، پیشرفت شغلی و دیگر نتایج بازار کار مقایسه نمودند تا رابطه بین برآوردهای شخصیتی و خروجی‌های اقتصادی بررسی شود.

تحلیل‌ها نشان داد که همبستگی‌های آماری معنی‌داری وجود دارد: برون‌گراییِ برداشت‌شده از چهره به‌عنوان قوی‌ترین پیش‌بین مثبت درآمد بالاتر شناخته شد، در حالی که گشودگیِ برداشت‌شده در این نمونه با درآمد کمتر ارتباط داشت. این نتایج البته به معنی علت و معلول نیست؛ بلکه نشان می‌دهد که مدل توانسته الگوهایی را شناسایی کند که با تفاوت‌های درآمدی همسو هستند. پژوهشگران همچنین تاکید کردند که دقت مدل بسته به زیرگروه‌های جمعیتی و زمینه‌های فرهنگی متفاوت است و ممکن است در گروه‌های متفاوت خطاهای سیستماتیک تولید کند.

چرا این موضوع اهمیت دارد: استخدام، اعطای اعتبار و عدالت الگوریتمی

تصور کنید سیستم‌های غربالگری خودکار که علاوه بر رزومه و مصاحبه، لایه‌ای از تحلیل چهره را نیز اضافه می‌کنند. بر اساس گزارش نهایی که در SSRN منتشر شد و پوشش رسانه‌ای در مجله The Economist، شرکت‌هایی که با انگیزه‌های اقتصادی هدایت می‌شوند ممکن است از ابزارهای تحلیل چهره برای پالایش تصمیمات استخدامی، اجاره مسکن یا تخصیص اعتبارات استفاده کنند. این چشم‌انداز برای بسیاری نگران‌کننده است: رد متقاضیان به دلیل پیش‌بینی «صفات نامطلوب» از روی صورت احتمالاً باعث تثبیت سوگیری‌ها و نقض مقررات ضدتبعیض خواهد شد.

پیوند دادن نتایج گفته‌شده به خط‌مشی‌های منابع انسانی یا تعیین نهایی صلاحیت متقاضیان، می‌تواند منجر به انقباض فرصت‌های شغلی برای گروه‌های خاص شود. به‌علاوه، هنگامی که تصمیم‌گیرندگان مالی — مانند بانک‌ها یا شرکت‌های بیمه — بر پایه حدس‌های الگوریتمی از شخصیت، رفتار اقتصادی یا ریسک اعتباری را اندازه‌گیری کنند، مخاطرات نهادی و اجتماعی افزایش می‌یابد. علاوه بر این، وقتی داده‌های آموزش مدل‌ها از مجموعه‌های ناهمگون یا جانبدار انتخاب می‌شوند، الگوریتم‌ها می‌توانند تبعیضات ساختاری را بازتولید یا تشدید کنند.

مسئله عدالت الگوریتمی (algorithmic fairness) چند بعد دارد: یک بعد فنی شامل معیارهای آماری برای اندازه‌گیری تبعیض، دیگری مربوط به شفافیت و قابلیت بررسی (auditability) مدل‌هاست، و بعد سوم مربوط به اقدامات قانونی و نظارتی است که می‌تواند استفاده نادرست از این فناوری را محدود کند. سیاست‌گذاران و دانشمندان داده باید در طراحی چارچوب‌های نظارتی فعال باشند تا از همزیستی فناوری، عدالت و احترام به حقوق فردی اطمینان حاصل شود.

نویسندگان مطالعه بر احتیاط تاکید می‌کنند. آن‌ها خروجی‌های مدل را به‌عنوان یک منبع اطلاعاتی اضافی توصیف می‌کنند — نه به‌عنوان اثبات قطعی شخصیت یا سرنوشت آینده فرد. حوزه تحلیل چهره برای صفات رفتاری هنوز در مراحل اولیه توسعه است و دقت آن بین جمعیت‌ها و بسترهای مختلف متفاوت است. خطاها و برداشت‌های نادرست می‌توانند نابرابری‌های اجتماعی را تشدید کنند، به‌خصوص اگر کارفرمایان، بانک‌ها یا موجرها بی‌اجازه یا بدون بررسی نتایج الگوریتمی را به‌عنوان مرجع تصمیم‌گیری تلقی نمایند.

از منظر اخلاقی، استفاده از تحلیل تصویر برای استنتاج ویژگی‌هایی که ذاتاً خصوصی یا قابل‌تفسیر هستند، نگرانی‌های جدی ایجاد می‌کند. سازوکارهایی مانند شناسایی بایاس (bias detection)، مکانیزم‌های توضیح‌پذیری (explainability)، و سیاست‌های محافظت از داده باید همراه با هر گونه کاربرد عملی این تکنولوژی توسعه یابند تا آسیب‌های احتمالی کاهش یابد.

مزایا احتمالی، ریسک‌های واقعی و پیامدهای ناخواسته

با این حال، مقاله به پیامدهای رفتاری بلندمدت هشدار می‌دهد: استفاده گسترده از ابزارهای تحلیل چهره می‌تواند افراد را به تغییر یا دستکاری ظاهر خود، چه به‌صورت دیجیتال (مانند فیلترها و ویرایش تصاویر) و چه به‌صورت فیزیکی (مانند جراحی‌های زیبایی)، ترغیب کند تا در سامانه‌های خودکار امتیاز بهتری کسب کنند. این رفتارهای واکنشی می‌تواند مسائل عمیق‌تری در حوزه سلامت روان و همبستگی اجتماعی ایجاد کند.

از منظر حقوقی و فنی، ابزارهای شناسایی چهره و استنتاج صفات با قوانین حریم خصوصی و مقررات ضدتبعیض تداخل دارند. در بسیاری از حوزه‌ها هنوز قوانین روشنی برای استفاده از تحلیل چهره در تصمیم‌گیری‌های حساس وجود ندارد یا مقررات در حال شکل‌گیری‌اند. به‌علاوه، از دید فنی، تضمین شفافیت و امکان بررسی (audit) مدل‌های یادگیری عمیق که در چارچوب‌های مالکیتی توسعه یافته‌اند، چالش‌برانگیز است؛ فقدان شفافیت می‌تواند باعث شود شواهدی که الگوریتم‌ها ارائه می‌دهند برای افراد متضرر غیرقابل‌قبول یا غیرقابل‌دفاع به نظر برسد.

برای کاهش این ریسک‌ها، پیشنهادهایی از جمله الزامات شفافیت در مدل‌سازی، حفظ سوابق تصمیم‌گیری خودکار، بررسی‌های مستقل نسبت به مجموعه‌های داده و الگوریتم‌ها، و خطوط راهنمای اخلاقی برای کاربردهای استخدام و اعطای اعتبار مطرح شده‌اند. همچنین آموزش‌های آگاهی‌بخش برای مدیران منابع انسانی و کارشناسان اعتباری درباره محدودیت‌ها و ریسک‌های تحلیل شخصیت از روی تصویر ضروری است.

به‌علاوه، راه‌حل‌های فنی مانند محدود کردن ورودی‌ها به اطلاعات کمتر حساس، استفاده از معیارهای معادل‌سازی (equity-aware) در هنگام طراحی مدل، و به‌کارگیری تکنیک‌هایی برای کاهش بایاس در داده‌ها می‌توانند نقش ساده‌ای در کاهش پیامدهای نامطلوب داشته باشند؛ اما به‌تنهایی کافی نیستند و باید با چارچوب‌های قانونی و نظارتی همراه شوند.

چه چیزهایی را باید دنبال کرد — مسیر پژوهش و سیاست‌گذاری

پژوهشگران در حال ادامه آزمایش‌ها هستند تا مشخص شود آیا سیگنال‌های برداشت‌شده از چهره در بازارهای شغلی و گروه‌های جمعیتی مختلف ارزش پیش‌بینی‌کننده قابل‌اعتمادی دارند یا خیر. بازتولید مستقل نتایج، انتشار مجموعه‌های داده باز و بحث عمومی و سیاست‌گذاری شفاف برای تعیین مصارف مشروع — اگر هرگونه مصارف مشروعی وجود داشته باشد — حیاتی است. بدون داده‌های باز و بازتولیدپذیر، ادعاهای مربوط به عملکرد الگوریتم‌ها دشوار به‌کار برده یا بررسی می‌شوند.

مسیر پژوهشی باید شامل آزمون‌های میان‌فرهنگی، آنالیز حساسیت برای زیرگروه‌های جمعیتی و ارزیابی اثرات جانبی باشد. همچنین ضروری است که مطالعات آینده روشن سازند چه نسبتی از همبستگی‌های مشاهده‌شده ناشی از عوامل محیطی، انتخاب شغلی یا ساختارهای نهادی است، و چه نسبتی واقعاً از خصوصیات ثابت شخصیت سرچشمه می‌گیرند. برای این منظور استفاده از روش‌های تلفیقی که داده‌های طولی (longitudinal)، کیفی و کمی را ترکیب می‌کنند، توصیه می‌شود.

در سطح سیاست‌گذاری، سه محور کلیدی عبارتند از: تدوین چارچوب‌های حقوقی محافظت از حریم خصوصی بصری، تنظیم مقررات برای کاربردهای تصمیم‌گیر خودکار در حوزه‌های حساس (مانند استخدام و اعطای اعتبار)، و ایجاد زیرساخت‌های بررسی و ارزیابی مستقل برای الگوریتم‌ها. این سه مولفه می‌تواند به کاهش خطرهای اجتماعی کمک کند و در عین حال فضای نوآوری مسئولانه را نیز حفظ نماید.

فعلاً این مطالعه یادآور این نکته است که یادگیری ماشین توانایی کشف الگوهایی را دارد که انسان‌ها ممکن است آن‌ها را نادیده بگیرند — اما الگو برابر با اثبات نیست. سیاست‌گذاران، کارفرمایان و فناوران باید منفعت احتمالی را در برابر خطرات مربوط به عدالت، حریم خصوصی و اختیار فردی بسنجند و پیش از هر گونه به‌کارگیری عملی، استانداردها و مکانیسم‌های حفاظتی مناسبی را برقرار کنند.

در پایان، گفتگوهای بین‌رشته‌ای میان علوم داده، حقوق، علوم انسانی و مدیریت منابع انسانی برای شکل‌دهی رویکردهای مسئولانه نسبت به تحلیل شخصیت از روی تصویر ضروری است. تنها با ترکیب دیدگاه‌های فنی و اخلاقی می‌توان اطمینان حاصل کرد که فناوری‌هایی از این دست در خدمت عدالت اجتماعی قرار گیرند و نه به تقویت نابرابری‌ها کمک کنند.

منبع: smarti

ارسال نظر

نظرات

پمپزون

تو شرکت سابقمون یه ابزار اومد شبیه این، اول خیلی قانع‌کننده بود اما بعدا دیدم نتایج گروهی رو حذف میکنه، هشدار بدم به بقیه، مراقب باشین

لابکور

خوب مطالعه جالبیه، ولی احساس میکنم اغراق دارن... داده‌هاو مدل‌ها نیاز به بررسی بیشتر دارن، توضیح‌پذیری کجاست؟

آرمین

واقعا؟ این روش چطور با تفاوت‌های فرهنگی کنار میاد، اگه داده‌ها جانبدار باشن نتیجه‌ها الکیه, یا من اشتباه می‌کنم؟

دیتاپالس

وای، این دیگه خیلی ترسناکه... اینکه از عکس بتونن شخصیت و بعد درآمد رو پیش‌بینی کنن، یعنی کلی تبعیض پنهان ممکنه رخ بده، باید قانون باشه.

مطالب مرتبط