چرا کارکنان ترجیح میدهند مستقل به نظر برسند، حتی به قیمت کاهش دقت و بهرهوری؟
عملکرد فدای وجهه
بسیاری از تحلیلها بر موانع فنی، مانند دقت الگوریتمها، یا سوگیریهای شناختی، مانند اتکای بیش از حد انسان به قضاوت خود، تمرکز میکنند. اما این بررسیها اغلب یک نیروی قدرتمند و پنهان را نادیده میگیرند که بر رفتار انسان در محیطهای اجتماعی اثرگذار است. این نیرو نگرانیهای بابت حفظ وجهه است. واقعیت این است که انسانها نهتنها برای دستیابی به نتایج مطلوب، بلکه برای خوب به نظر رسیدن در چشم همکاران، مدیران و ارزیابان نیز انگیزه دارند.
نکته اساسی اینجاست که استفاده از هوش مصنوعی، بهویژه زمانی که در معرض دید دیگران باشد، دیگر یک اقدام صرفا فنی نبوده و به یک پیام یا سیگنال اجتماعی تبدیل میشود. این اقدام چه پیامی درباره شایستگی، میزان تلاش یا استقلال فکری فرد مخابره میکند؟
همین پرسش، افراد را در یک دوراهی پیچیده قرار میدهد. ممکن است کارمندی بداند که با پیروی از توصیه هوش مصنوعی به تصمیم دقیقتری میرسد. اما همزمان نگران است که این اتکای آشکار، او را در چشم ارزیاب، فردی فاقد قضاوت مستقل، بیش از حد وابسته یا حتی تنبل جلوه دهد. این یادداشت، که بر پایه یافتههای یک مطالعه میدانی از دیوید آلماگ است، روشن میسازد که این نگرانیهای مربوط به وجهه، یک اصطکاک روانشناختی واقعی و قابلاندازهگیری هستند.
این نگرانیها نهتنها وجود دارند، بلکه میتوانند مستقیما به تصمیمهایی منجر شوند که بهرهوری را کاهش میدهد. افراد، هنگامی که احساس میکنند در معرض دید و قضاوت هستند، ممکن است آگاهانه یا ناآگاهانه، عملکرد عینی خود را قربانی کنند تا تصویری مطلوب از شایستگی انسانی خود را حفظ نمایند.
سنجش هزینههای پنهان
برای سنجش دقیق هزینههای پنهان اتکا به هوش مصنوعی، نظرسنجیها ابزار قابلاتکایی نیستند. پرسیدن مستقیم از افراد درباره نگرانیشان از قضاوت دیگران، به ندرت به پاسخهای صادقانه میانجامد. به همین دلیل، آلماگ در پژوهش خود، این مانع را با طراحی یک آزمون میدانی در یک بازار کار آنلاین بزرگ (پلتفرم آپورک) دور میزند. این محیط، هم دقت یک آزمایش کنترلشده را دارد و هم واقعگرایی یک محیط کاری حقیقی را که در آن افراد برای کسب درآمد و شهرت رقابت میکنند، فراهم میآورد.
در این بررسی میدانی، پژوهشگر در نقش یک کارفرما، ۴۵۰ فریلنسر آمریکایی را برای یک کار دستهبندی تصاویر، با کمک دستیار هوش مصنوعی، استخدام کرد. اما این یک کار ساده نبود، چرا که یک انگیزه شغلی در آن گنجانده شده بود. به این افراد اطلاع داده شد که عملکردشان توسط یک متخصص منابع انسانی ارزیابی میشود و بهترینها پیشنهادی برای تمدید قرارداد با دستمزد دو برابر دریافت خواهند کرد. این سازوکار، ارزیابی را از مفهومی انتزاعی به عاملی حیاتی برای آینده شغلی فرد تبدیل کرد و به این ترتیب، نگرانیهای حیثیتی را به شدت برانگیخت.
در آزمایش آلماگ افراد به طور تصادفی به دو گروه اصلی تقسیم شدند که تنها در یک جنبه کلیدی با هم تفاوت داشتند.
در گروه اول، یعنی گروه کنترل، به افراد گفته شد که ارزیاب فقط به نتیجه نهایی کار آنها، یعنی دقت نهایی در دستهبندی تصاویر، دسترسی خواهد داشت. در چنین شرایطی، منطق حکم میکند که فرد تمام تمرکزش را بر کسب بالاترین دقت بگذارد؛ اینکه چگونه به آن دقت رسیده (چه با کمک هوش مصنوعی و چه بدون آن) کاملا پنهان میماند و اهمیتی ندارد.
به گروه دوم گفته شد که ارزیاب هم به دقت نهایی آنها و هم به یک معیار کلیدی دیگر دسترسی دارد. این معیار میزان اتکا به هوش مصنوعی بود که به صورت تعداد دفعاتی که فرد پاسخ اولیه خود را برای مطابقت با توصیه هوش مصنوعی تغییر میداد، تعریف میشد.
این طراحی، امکان یک مقایسه شفاف را فراهم میکند. هرگونه تفاوت رفتاری معنادار بین این دو گروه را نمیتوان به تفاوت در مهارت، انگیزه برای کسب پاداش یا دشواری کار نسبت داد، زیرا همه این موارد یکسان بودند. تنها تفاوت، قابلیت مشاهده فرآیند تصمیمگیری بود. بنابراین، هرگونه تغییری در رفتار گروه دوم، مستقیما هزینه وجهه یا مالیات اجتماعی ناشی از دیده شدن اتکا به هوش مصنوعی را اندازهگیری میکند.
بهای دیده شدن
نتایج این آزمون بهروشنی وجود این اصطکاک یا مانع اجتماعی را تایید کرد. زمانی که این افراد میدانستند میزان اتکایشان به هوش مصنوعی توسط یک ارزیاب انسانی دیده میشود، رفتار خود را بهشکل محسوسی تغییر دادند.
در گروه کنترل، یعنی جایی که ترسی از قضاوت درباره فرآیند کار وجود نداشت، شرکتکنندگان در حدود ۳۰.۵درصد موارد، پاسخ اولیه خود را برای پذیرش توصیه هوش مصنوعی تغییر دادند. این رقم، نرخ بهینه اتکا به هوش مصنوعی را در وضعیتی نشان میدهد که تنها هدف، به حداکثر رساندن دقت است.
اما در گروه دوم (گروهی که در معرض دید بودند)، این نرخ کاهش چشمگیری پیدا کرد. شرکتکنندگانی که میدانستند تحت نظر هستند، میزان پذیرش توصیه هوش مصنوعی را به ۲۶.۲درصد کاهش دادند. این کاهش ۱۴درصدی در استفاده از ابزار کمکی، نشاندهنده یک انتخاب آگاهانه یا ناآگاهانه برای فاصله گرفتن از هوش مصنوعی بود.
آنها بهوضوح نگران بودند که فردی بیش از حد وابسته به الگوریتم به نظر برسند و ترجیح دادند کمتر از این ابزار استفاده کنند تا تصویر مطلوبتری از خود ارائه دهند. این یافته، نخستین سند محکمی است که ثابت میکند نگرانی بابت وجهه اجتماعی، مستقیما باعث میشود افراد از تمام ظرفیت هوش مصنوعی استفاده نکنند.
قربانی کردن عملکرد برای حفظ وجهه
این کاهش اتکا، پرسش مهمتری را پیش میکشد. آیا ممکن است شرکتکنندگان در گروه دوم هوشمندتر عمل کرده باشند؟ شاید آنها با تلاش بیشتر، دقت اولیه خود را بهبود بخشیدند یا فقط در مواردی که برتری هوش مصنوعی آشکار بود، از آن استفاده کردند. اگر اینطور بود، کاهش اتکا یک اقدام منطقی تلقی میشد. اما دادههای آزمایش، این فرضیه خوشبینانه را کاملا رد میکند. دادهها ثابت میکند که این تغییر رفتار، یک انتخاب هوشمندانه برای بهینهسازی نبود، چرا که مستقیما به قربانی شدن عملکرد انجامید.
دقت نهایی کار، یعنی همان معیاری که مستقیما به پاداش مالی و تمدید قرارداد ربط داشت، در گروه دوم بهوضوح آسیب دید. افراد در گروه اول (کنترل) که آزادانه از هوش مصنوعی استفاده میکردند، به دقت نهایی ۷۹.۱درصد دست یافتند. در مقابل، آنهایی که در گروه دوم (در معرض دید) که اتکای خود را کاهش داده بودند، شاهد افت دقت نهایی خود به ۷۶.۴ درصد بودند. این کارکنان در عمل، عملکرد عینی خود را کاهش دادند. آنها پذیرفتند که در کار اصلی خود ۳.۴درصد عملکرد بدتری داشته باشند، صرفا برای اینکه از برچسب وابستگی به هوش مصنوعی فرار کنند.
این نشان میدهد که در تضاد میان خوب بودن (یعنی داشتن دقت بالا) و خوب به نظر رسیدن (یعنی نشان دادن وابستگی کم)، افراد حاضرند هزینه قابلتوجهی را در عملکرد واقعی خود بپردازند تا وجهه اجتماعی خود را حفظ کنند. این پدیده یک مشکل در بهرهوری ایجاد میکند. ابزاری که برای کمک به عملکرد طراحی شده، به دلیل پیامدهای اجتماعی استفاده از آن، کنار گذاشته میشود.
ترس از نداشتن قضاوت مستقل
نتایج بهروشنی تایید میکند که این افراد نگران تصویر و وجهه خود هستند. اما دقیقا نگران کدام جنبه از آن؟ آیا میترسند تنبل به نظر برسند یا فاقد مهارت تلقی شوند؟
آلماگ برای یافتن پاسخ، بخشی را در پایان کار طراحی کرد. به تمام افراد گفته شد که یک بازخورد عمومی از طرف کارفرما در پروفایل آنها ثبت میشود که کارفرمایان آینده آن را خواهند دید. سپس از آنها خواسته شد تا انتخاب کنند کدامیک از سه ویژگی مثبت در بازخوردشان برجسته شود. این گزینهها عبارت بودند از: تلاش و سختکوشی، مهارت و توانایی بالا، یا اعتماد به قضاوت شخصی.
در گروه اول (کنترل)، انتخابها نشاندهنده ترجیحات عادی بود. اکثر افراد (۵۷.۳درصد) تلاش را انتخاب کردند و پس از آن مهارت (۳۰.۸درصد) قرار داشت. اعتماد به قضاوت شخصی با تنها ۱۱.۹درصد، کمترین محبوبیت را داشت. این نتیجه منطقی است، زیرا در یک محیط کاری، معمولا نشان دادن سختکوشی و مهارت، ارزش بالایی دارد.
اما در گروه دوم، که نگران دیده شدن اتکای خود به هوش مصنوعی بودند، یک تغییر چشمگیر رخ داد. سهم افرادی که اعتماد به قضاوت شخصی را انتخاب کردند، بیش از دو برابر شد و به ۲۵.۸درصد رسید.
این تغییر ناگهانی، نشان میدهد شرکتکنندگان از این نمیترسند که لزوما تنبل یا فاقد مهارت فنی به نظر برسند. ترس اصلی آنها این است که اتکای شدید به هوش مصنوعی، حامل این پیام باشد که فرد فاقد قضاوت شخصی است. در همکاری انسان و ماشین، ارزش منحصربهفردی که انسان به میان میآورد، دقیقا همین قضاوت، شهود و استقلال در تصمیمگیری است.
آنها نگرانند که اگر هر آنچه هوش مصنوعی میگوید را بهسادگی بپذیرند، نشان میدهند که این ویژگی اساسی انسانی را ندارند و به یک مجری صرف دستورات الگوریتم تبدیل شدهاند. این ترس از تضعیف استقلال و قدرت تصمیمگیری انسانی است که آنها را وادار میکند تا حتی به بهای کاهش دقت، از هوش مصنوعی فاصله بگیرند.
چرا غلبه بر این نگرانی دشوار است؟
شاید بتوان این طور استدلال کرد که رفتار شرکتکنندگان، ناشی از یک سوءتفاهم است. شاید آنها به اشتباه فکر میکنند که ارزیابان، اتکا به هوش مصنوعی را منفی میبینند. اگر این فقط یک سوءتفاهم باشد، راهحل ساده است. کافی است به آنها اطمینان دهیم که ارزیابان منطقی هستند و فقط به عملکرد نهایی اهمیت میدهند.
پژوهشگر این فرضیه را نیز مورد آزمایش قرار داد. او یک گروه آزمایشی سوم تعریف کرد. این گروه دقیقا مانند گروه دوم بودند (یعنی اتکای آنها دیده میشد)، اما با یک تفاوت مهم. به اعضای این گروه بهصراحت گفته شد که به ارزیاب اطلاع داده شده که همه آنها سابقه درخشانی دارند و قبلا تایید شدهاند. هدف این بود که به آنها اطمینان داده شود کیفیت کارشان اثباتشده است و نیازی نیست نگران قضاوت منفی باشند.
نتیجه این آزمایش مشخص کردکه این اطلاعات اضافی و اطمینانبخشی، هیچ تاثیری نداشت. رفتار شرکتکنندگان در این گروه، کاملا مشابه گروه دوم بود. آنها همچنان به همان میزان اتکای خود به هوش مصنوعی را کاهش دادند و به همان اندازه دچار افت عملکرد شدند.
این یافته تاییدی است بر اینکه مشکل بسیار عمیقتر از یک سوءتفاهم یا کمبود اطلاعات است. این نگرانی درباره وجهه، یک هنجار اجتماعی ریشهدار است که با اطمینانبخشیهای کلامی ساده از بین نمیرود. شرکتکنندگان باور ندارند که یک ارزیاب، صرفا به دلیل اینکه به او گفته شده است، این هنجار را نادیده میگیرد.
شرکتکنندگان هم یکدیگر را جریمه میکنند
یافته نهایی این مطالعه، وجود این هنجار اجتماعی را اثبات میکند ونشانگر دشواری شکستن آن است. در ادامه پژوهشگر، جای ارزیاب و ارزیابیشونده را عوض کرد. او شرکتکنندگانی را که خودشان طعم قضاوت شدن را چشیده بودند، در نقش ارزیاب قرار داد. سپس پروفایلهای واقعی سایر شرکتکنندگان، همراه با نرخ دقت و نرخ اتکا به هوش مصنوعی آنها، را در اختیار این ارزیابان جدید قرار داد و از آنها خواست تا بر اساس عملکرد مورد انتظار در آینده، به آنها امتیاز دهند.
این ارزیابان جدید (یعنی همان شرکتکنندگان)، دقیقا همان رفتاری را نشان دادند که خودشان از آن میترسیدند. آنها افرادی را که اتکای بیشتری به هوش مصنوعی داشتند، جریمه کردند. دادهها حاکی از آن بود که به ازای هر یک درصد افزایش در دقت، ارزیابان امتیاز فرد را حدود ۱ واحد بالا میبردند. اما به ازای هر یک درصد افزایش در اتکا به هوش مصنوعی، امتیاز او را ۰.۳۶واحد کاهش میدادند.
به عبارت دیگر، از دید این ارزیابان، وزن منفی اتکا به هوش مصنوعی بیش از یکسوم وزن مثبت دقت بود. این یافته، ثابت میکند که نگرانی شرکتکنندگان از قضاوت شدن، یک توهم نیست. آنها بهدرستی پیشبینی میکنند که دیگران (حتی همتایان خودشان) اتکای زیاد به هوش مصنوعی را یک ویژگی منفی میدانند. این هنجار آنقدر قدرتمند است که حتی تجربه مستقیم قرار گرفتن در طرف دیگر ماجرا نیز آن را تغییر نمیدهد.
چالش اجتماعی در مسیر بهرهوری هوش مصنوعی
آلماگ نشان میدهد که موانع اصلی بر سر راه همکاری موثر انسان و هوش مصنوعی، لزوما فنی یا شناختی نیستند، بلکه تا حد زیادی اجتماعی و روانی هستند. نخست آنکه، صرفا بهبود الگوریتمها کافی نیست. حتی اگر یک ابزار هوش مصنوعی به دقت بینقص برسد، تا زمانی که استفاده از آن یک برچسب اجتماعی منفی به همراه داشته باشد، شرکتکنندگان، بهویژه در محیطهایی که عملکردشان بهدقت زیر نظر است، از تمام ظرفیت آن استفاده نخواهند کرد.
دوم، مداخلات ساده، مانند اطمینان دادن کلامی به شرکتکنندگان، به احتمال زیاد شکست خواهند خورد. این هنجار که اتکا به هوش مصنوعی نشانه ضعف قضاوت انسانی است، بسیار ریشهدارتر از آن است که با حرف و گفتار صِرف تغییر کند.
سوم، شفافیت که اغلب بهعنوان یک راهحل برای پذیرش هوش مصنوعی پیشنهاد میشود، میتواند مانند یک شمشیر دولبه عمل کند. درحالیکه شفافیت درباره نحوه کار الگوریتم ممکن است مفید باشد، شفافیت درباره نحوه تعامل یک کارمند با آن الگوریتم، میتواند همان نگرانیهای مربوط به وجهه اجتماعی را که منجر به کاهش عملکرد میشود، افزایش دهد.
این مطالعه روشن میسازد که سازمانها باید بهجای تمرکز صرف بر خود ابزار، بر بازتعریف معنای اجتماعی استفاده از آن نیز تمرکز کنند. این کار میتواند شامل اقداماتی مانند تغییر برداشت عمومی از اتکا به هوش مصنوعی باشد؛ یعنی آن را نه نشانه وابستگی، بلکه نشانه کارآیی و سازگاری معرفی کنند.
همچنین میتوان فرآیندهای کاری را طوری بازطراحی کرد که استفاده از هوش مصنوعی کمتر در معرض دید باشد و بیشتر در جریان عادی کار ادغام شود. تا زمانی که این موانع اجتماعی پنهان نادیده گرفته شوند، بخش قابلتوجهی از وعده بهرهوری هوش مصنوعی، به دلیل پیچیدگیهای روانشناختی انسان، تحقق نخواهد یافت.