استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟ + راهکار_آفتاب شرق

مریم یزدانی
6 Min Read


به گزارش آفتاب شرق

درحالی‌که ۹۰ درصد شرکت‌های جهان از ابزارهای هوش مصنوعی برای استخدام منفعت گیری می‌کنند، یک سوال اساسی ذهن مدیران را دچار کرده است: «آیا هوش مصنوعی عدل بیشتری نسبت به انسان‌ها دارد؟» گروهی اعتقاد دارند که هوش مصنوعی تعصبات انسانی را حذف می‌کند، اما گروه دیگر هشدار خواهند داد که الگوریتم‌ها نابرابری را در مقیاس گسترده بازتولید می‌کنند. اما تحقیقات مشخص می کند که مشکل مهم جای فرد دیگر است: هوش مصنوعی تعریف ما از عدل را تحول می‌دهد و این می‌تواند خطرناک باشد. در ادامه، نگاهی می‌اندازیم به یافته‌های یک مطالعه ۳ ساله میدانی و راهکارهای مهمی که مدیران باید به کار بگیرند.

مشکلات ورود هوش مصنوعی به فرایند استخدام

مجله Harvard Business Review می‌گوید مطالعه روی یک شرکت بزرگ بین‌المللی نشان داده که هنگامی پای هوش مصنوعی به بین می‌آید، تعریف عدل از انعطاف‌پذیری به سخت‌گیری تحول می‌کند. از دیدگاه یک انسان، عدل با دقت به بافت و عرصه تعریف می‌شود. برای مثال، یک مدیر ارشد در این شرکت می‌خواست کارآموزی را استخدام کند که نمراتش پایین می بود اما انتظار می‌رفت که کارکرد مساعد داشته باشد. در نتیجه، از نظر مدیر، ردکردن او بی‌انصافی می بود.

درمقابل الگوریتم‌های هوش مصنوعی عدل را در «ارامش» می‌بینند. سیستم کارآموز را به علت نمره پایین در تست شخصیت‌شناسی، نامناسب تشخیص داد. در نتیجه با گذشت زمان، دیدگاه ماشینی غالب می‌شود و توانایی های خاص و غیرمتعارف که در قالب استاندارد نمی‌گنجند، به‌طور سیستماتیک حذف خواهد شد.

یکی از با اهمیت ترین یافته‌های این تحقیق، مفهومی به نام «رانش عدل» است. هنگامی سیستم‌های هوش مصنوعی مستقر خواهد شد، عدل به مرور زمان تحول ماهیت می‌دهد. به عبارت دیگر، چیزی که قرار می بود فقطً یک راهنما باشد، با گذشت زمان تبدیل به یک قانون می‌شود و فردی نیز جرأت نمی‌کند آن را زیر سوال ببرد، حتی اگر نادرست باشد.

برای مثال در شرکتی که مورد مطالعه قرار گرفت، کاندیداهایی که نمره بالای ۷۲ درصد داشتند، خودکار قبول می‌شدند و زیر آن نمره رد می‌شدند. مدیران نیز به مرور زمان فراموش کردند که چه استعدادهایی را برای این خط قرمز از دست خواهند داد. آنها فکر می‌کردند چون سیستم کار می‌کند و فردی شکایت نمی‌کند، بعد عادلانه است. اما درواقع، عدل به آرامی و به‌صورت نامرئی به سمت یک‌جانبه‌گرایی و حذف تنوع لغزیده می بود.

سه سوال طلایی که مدیران باید درمورد هوش مصنوعی بپرسند

برای جلوگیری از افتادن در دام عدل ماشینی مدیران باید به‌جای پرسیدن این سوال که «آیا این ابزار دقیق است؟» سؤالات عمیق‌تری بپرسند ازجمله:

۱. افراد در سازمان ما چطور عدل را تعریف می‌کنند؟

فکر نکنید که همه عدل را یک‌جور می‌فهمند. تیم منبع های انسانی امکان پذیر عدل را «فرایندی استاندارد» بداند، درحالی‌که مدیر فنی عدل را در «پیداکردن توانایی، حتی بدون مدرک» ببیند.

محققان برای حل این مشکل، «باشگاه مناظره هوش مصنوعی اخلاقی» راه انداختند. در این جلسات، تیم‌های گوناگون دور هم جمع خواهد شد و درمورد سناریوهای واقعی و تضادهای اخلاقی او گفت و گو می‌کنند تا عدل به یک چک‌لیست خشک تبدیل نشود.

۲. چه فردی به هوش مصنوعی قوت می‌دهد تا بگوید چه چیزی منصفانه است؟

هوش مصنوعی خودش تصمیم نمی‌گیرد؛ انسان‌ها به آن قوت خواهند داد. طبق معمولً فروشندگان نرم‌افزار با شعارهایی همانند «علمی» و «بدون سوگیری» مدیران را فریب خواهند داد. دراین‌باره مایکروسافت راهکاری دارد؛ این شرکت شبکه‌ای به نام «قهرمانان هوش مصنوعی مسئول» ترتیب داده است. این افراد متخصصان حوزه‌های گوناگون می باشند که ماموریت دارند در میانه ساخت سیستم‌ها، فرضیات غلط را به چالش بکشند و نگذارند تعریف عدل فقط توسط مهندسان کامپیوتر نوشته شود.

سریعترین موتور جستجوگر خبر پارسی – اخبار لحظه به لحظه از معتبرترین خبرگزاری های پارسی زبان در آفتاب شرق

۳. کدام نسخه از عدل تحکیم می‌شود و چه چیزی از دست می‌رود؟

الگوریتم‌ها عدل را دیکته می‌کنند. هنگامی یک سیستم فقط به جستوجو «کارایی» است، «تنوع» قربانی می‌شود. راهکار شرکت IBM دراین‌باره دلنشین است؛ این شرکت ابزاری به نام AI Fairness 360 دارد که به مدیران امکان می‌دهد مدل‌ها را در طول زمان بازرسی کنند. آنها می‌توانند ببینند اگر حدنصاب نمره را تحول دهند، چه اتفاقی برای گروه‌های اقلیت می‌افتد. مقصد این نیست که فقط یک‌بار بگوییم این مدل عادلانه است، بلکه باید دائماً چک کنیم که آیا مدل ما درحال انحراف است یا خیر.

هوش مصنوعی در استخدام

بااین‌حال، قضیه بنیادینی نیز وجود دارد: چطور بفهمیم تعریف عدل در سازمان ما چیست؟ محققان نظر می‌کنند از روش سایه به سایه منفعت گیری کنید. یک دانشمند داده یا مدیر پروژه را مأمور کنید تا فرایند استخدام را سایه به سایه جستوجو کند. او باید ببیند مدیران استخدام چه افرادی را «خوب» می‌دانند و چرا؟ دیدن این تفاوت‌ها در عمل (نه در جلسات) تعارضات نهان بین عدل انسانی و عدل ماشینی را آشکار می‌کند.

درکل محققان نتیجه می‌گیرند که شما به گفتن مدیر، نگهبان عدل هستید، نه تکنولوژی. تفاوت بین سیستم‌های موفق و ناکامی‌خورده در مدل ریاضی آنها نیست؛ بلکه در این است که آیا مدیران جرأت دارند فرضیات الگوریتم را به چالش بکشند یا تسلیم جادوی ریاضیات خواهد شد؟ اگر عدل را به ماشین بسپارید، احتمالا فرایندی سریع و ارزان داشته باشید، اما درنهایت سازمانی خواهید داشت که همه در آن یک‌شکل فکر می‌کنند و توانایی های ناب را از دست می‌دهید.

دسته بندی مطالب
اخبار سلامتی

اخبار اجتماعی

اخبار ورزشی

فرهنگ وهنر

اخبار تکنولوژی

کسب وکار

Share This Article