نقش هوش مصنوعی در استخدام نیروی کار
هوش مصنوعی قرار بود ابزاری باشد تا از میان انبوه متقاضیان در فرآیند جذب و استخدام، برترین گزینهها را با کمترین هزینه و در کوتاهترین زمان بیابد؛ اما اکنون پرسش تازهای مطرح شده است: آیا این فناوری در جستوجوی بهرهوری کوتاهمدت، عدالت و در نتیجه، بازدهی بلندمدت اقتصادی را قربانی نکرده است؟
تصور کنید برای یک موقعیت شغلی درخواست دادهاید و تنها چند ثانیه بعد پاسخ منفی دریافت میکنید. هیچ کارشناس یا مدیری شما را ندیده، با شما صحبت نکرده و از تواناییهایتان چیزی نمیداند؛ تنها یک الگوریتم تصمیم گرفته که شما مناسب نیستید. این همان شیوه نوین بسیاری از سازمانهاست: نخستین داور استخدامی شما عبور از فیلتر هوش مصنوعی است. از منظر کارآیی، این سیستمها طلایهدار صرفهجویی در هزینههای عملیاتی منابع انسانی هستند؛ اما اقتصاد کلان کسبوکار بر ریسکهای نهفته در این کارآیی ظاهری تاکید میکند.
استفاده از الگوریتمها در جذب نیرو برای کارفرمایان همواره جذاب است. این الگوریتمها وعده میدهند که فرآیند استخدام را تسریع و هزینههای منابع انسانی را کاهش دهند. از دید اقتصادی، این رویکرد منطقی به نظر میرسد؛ چراکه هر دقیقهای که مدیران صرف بررسی رزومهها میکنند، هزینهبر است. بنابراین، وجود یک دستیار هوشمند که در چند ثانیه دادهها را بررسی و موارد مناسب را غربال کند، میتواند به افزایش بهرهوری بینجامد. اما در پس این کارآیی، مجموعهای از ریسکهای اقتصادی پنهان نهفته است که در بلندمدت ممکن است منجر به زیان سازمان شود.
سیستمهای هوش مصنوعی معمولا با دادههای تاریخی آموزش میبینند؛ دادههایی که بازتابدهنده تصمیمات و الگوهای رفتاری گذشتهاند. اگر در گذشته جنسیت یا گروه خاصی در موقعیتهای مدیریتی بیشتر استخدام شده باشد، الگوریتم همان الگو را بهعنوان «شاخص موفقیت» یاد میگیرد. نتیجه آن است که بخشی از سرمایه انسانی بالقوه نادیده گرفته میشود. در حقیقت، الگوریتم به جای بهینهسازی به «کپیبرداری سریع» از سوگیریهای انسانی مشغول میشود و آنها را در مقیاس وسیع تکثیر میکند. اینجاست که کارآیی به خطای سیستمی تبدیل میشود.تجربه شرکت آمازون در سال ۲۰۱۸ گویای همین واقعیت است.
سیستم خودکار این شرکت بهطور ناخواسته رزومه زنان را در رتبههای پایینتر قرار میداد، زیرا دادههای آموزشیاش عمدتا از مردان تشکیل شده بود. این الگوریتم در واقع گذشته تبعیضآمیز بازار کار را بازتولید میکرد. حذف این سیستم، علاوه بر هزینههای فنی و مالی بازنگری در زیرساختهای فناوری، بیاعتمادی کارکنان و آسیب جدی به چهره برند (Brand Equity) را نیز بههمراه داشت؛ خسارتی نامحسوس اما سنگین که بازیابی آن دشوار است. این شکست، یک «شکست دادهای (Data Failure) است که مستقیما به بحران اعتماد و زیان مالی منجر شد.
در نگاه اقتصادی، چنین خطاهایی فقط مسالهای اخلاقی نیستند، بلکه پیامدهای مالی هم دارند. حذف ناعادلانه استعدادها به معنای از دست رفتن بخشی از سرمایه انسانی و کاهش بهرهوری سازمانی است. کارشناسان منابع انسانی تاکید دارند که تنوع فکری و پیشینهای، موتور نوآوری و انعطافپذیری سازمان در برابر شوکهای بازار است. در ظاهر، فرآیند استخدام بهبود یافته است، اما در عمل نیروهای خلاق و متفاوت از فیلترها عبور نمیکنند. چنین روندی تمرکز استخدام را محدود به گروهی خاص میکند و در نتیجه تحرک اجتماعی، نوآوری و رشد فراگیر اقتصادی را تضعیف میسازد. سازمانی که با معیارهای محدودکننده الگوریتمی، سبد استعدادهای خود را محدود میکند، ریسک عدم انطباق با نیازهای متحول بازار را بالا میبرد.
در مقابل، اگر هوش مصنوعی بهدرستی طراحی شود، میتواند بهرهوری استخدامی را افزایش دهد. تحلیل دادههای کلان به سازمانها کمک میکند تا الگوهای واقعی موفقیت را شناسایی کرده، سوگیریهای انسانی را کاهش دهند و فرآیند جذب را با شاخصهای عملکردی واقعی همراستا کنند. تفاوت میان خدمت و خیانت دقیقا در همینجاست: در نحوه دادهدهی، نظارت و پاسخگویی.
اگر دادهها متوازن باشند و سیستمها تحت نظارت شفاف عمل کنند، ریسک سرمایهگذاری در فناوری استخدام کاهش مییابد و بازده آن افزایش خواهد یافت. به بیان سادهتر، هوش مصنوعی میتواند به ابزار اصلاح تبدیل شود؛ ابزاری با کمترین میزان خطا و تبعیض. در این حالت، هوش مصنوعی از یک فیلتر قضاوتگر به یک ابزار کشف استعداد تبدیل میشود که ورودیهای با کیفیت بالا را با دقت و سرعت بیسابقهای در اختیار سازمان قرار میدهد، که این خود منجر به افزایش چشمگیر بازده سرمایه انسانی (ROHI) میشود.
اتحادیه اروپا با توجه به همین نگرانیها، قانونی موسوم به AI Act را تصویب کرده است. بر اساس این قانون، سیستمهای استخدامی در رده «پرریسک» قرار دارند و شرکتها موظف هستند مستند کنند که الگوریتمهایشان تبعیضآمیز نیست. این قانون نه یک مانع اخلاقی، بلکه یک مکانیسم مدیریت ریسک اقتصادی است. در آمریکا نیز کمیسیون فرصتهای برابر شغلی (EEOC) هشدار داده است که سازمانها حتی در صورت استفاده از نرمافزارهای شخص ثالث در برابر پیامدهای تبعیض نیز مسوول هستند. این رویکرد در واقع نوعی بیمه اقتصادی در برابر خطاهای پرهزینه الگوریتمی است که میتواند هزینههای حقوقی، جریمهها و آسیب به اعتبار برند را به سازمان تحمیل کند.
در ایران نیز با رشد پلتفرمهای کاریابی آنلاین و سرمایهگذاری بنگاههای بزرگ بر فیلترهای هوشمند، لازم است سیاستگذاران با تکیه بر تجربههای جهانی، دستورالعملهایی برای شفافیت و پاسخگویی الگوریتمی تدوین کنند؛ پیش از آنکه شکست دادهای به بحران اعتماد در بازار کار تبدیل شود و کارآیی کل اکوسیستم اقتصادی را تحتالشعاع قرار دهد. در نهایت، هوش مصنوعی در فرآیند استخدام را نمیتوان تنها از زاویه فناوری یا اخلاق بررسی کرد. این پدیده در ذات خود موضوعی اقتصادی است که مستقیما بر کارآیی سازمانها و تخصیص منابع انسانی اثر میگذارد.
اگر عدالت، شفافیت و فرصتهای برابر در سیاستهای سازمانی نهادینه شود، الگوریتمها میتوانند بدون تولید تبعیض، بهرهوری را افزایش دهند.در نهایت، نبرد میان کارآیی الگوریتمی و عدالت در استخدام، نه یک دوگانه اخلاقی، بلکه یک معادله سرمایهگذاری است. شرکتها باید درک کنند که اتکای کورکورانه به الگوریتمهای آموزشدیده با دادههای ناقص، در کوتاهمدت پولساز به نظر میرسد، اما در بلندمدت، منجر به استهلاک نامرئی سرمایه انسانی میشود. الگوریتمی که ناخواسته استعدادهای متفاوت را حذف میکند در واقع سازمان را از نوآوری، خلاقیت و توانایی رقابت در بازارهای پیچیده محروم میسازد.
هوش مصنوعی در استخدام، یا میتواند با بازتولید تعصبات، ریسک حقوقی و مالی سازمان را بالا ببرد، یا با شفافیت و نظارت انسانی، به موتور محرک بهرهوری تبدیل شود. اگر سازمانها به جای «تکرار گذشته»، هدف الگوریتم را بر «طراحی آینده» و کشف الگوهای واقعی موفقیت قرار دهند، آنگاه این فناوری از یک ابزار غربالگری ساده به یک مزیت رقابتی استراتژیک تبدیل خواهد شد.
آینده کسبوکار متعلق به سازمانهایی است که هوش مصنوعی را نه بهعنوان یک «قاضی بیرحم» برای حذف سریع، بلکه بهعنوان یک «داور بیطرف» برای تضمین برابری فرصتها و حداکثرسازی بازده سرمایهگذاری در استعدادها به کار میگیرند. مسوولیت این توازن، بیش از هر چیز بر عهده سردبیران منابع انسانی است که باید مطمئن شوند فناوری، ابزاری در دست استراتژی باشد، نه دیکتاتور تصمیمگیری.
* تحلیلگر حوزه کسبوکار