عملکرد فدای وجهه

بسیاری از تحلیل‌ها بر موانع فنی، مانند دقت الگوریتم‌ها، یا سوگیری‌های شناختی، مانند اتکای بیش از حد انسان به قضاوت خود، تمرکز می‌کنند. اما این بررسی‌ها اغلب یک نیروی قدرتمند و پنهان را نادیده می‌گیرند که بر رفتار انسان در محیط‌های اجتماعی اثرگذار است. این نیرو نگرانی‌های بابت حفظ وجهه است. واقعیت این است که انسان‌ها نه‌تنها برای دستیابی به نتایج مطلوب، بلکه برای خوب به نظر رسیدن در چشم همکاران، مدیران و ارزیابان نیز انگیزه دارند.

نکته اساسی اینجاست که استفاده از هوش مصنوعی، به‌ویژه زمانی که در معرض دید دیگران باشد، دیگر یک اقدام صرفا فنی نبوده و به یک پیام یا سیگنال اجتماعی تبدیل می‌شود. این اقدام چه پیامی درباره شایستگی، میزان تلاش یا استقلال فکری فرد مخابره می‌کند؟

همین پرسش، افراد را در یک دوراهی پیچیده قرار می‌دهد. ممکن است کارمندی بداند که با پیروی از توصیه هوش مصنوعی به تصمیم دقیق‌تری می‌رسد. اما همزمان نگران است که این اتکای آشکار، او را در چشم ارزیاب، فردی فاقد قضاوت مستقل، بیش از حد وابسته یا حتی تنبل جلوه دهد. این یادداشت، که بر پایه یافته‌های یک مطالعه میدانی از دیوید آلماگ است، روشن می‌سازد که این نگرانی‌های مربوط به وجهه، یک اصطکاک روان‌شناختی واقعی و قابل‌اندازه‌گیری هستند.

این نگرانی‌ها نه‌تنها وجود دارند، بلکه می‌توانند مستقیما به تصمیم‌هایی منجر شوند که بهره‌وری را کاهش می‌دهد. افراد، هنگامی که احساس می‌کنند در معرض دید و قضاوت هستند، ممکن است آگاهانه یا ناآگاهانه، عملکرد عینی خود را قربانی کنند تا تصویری مطلوب از شایستگی انسانی خود را حفظ نمایند.

سنجش هزینه‌های پنهان

برای سنجش دقیق هزینه‌های پنهان اتکا به هوش مصنوعی، نظرسنجی‌ها ابزار قابل‌اتکایی نیستند. پرسیدن مستقیم از افراد درباره نگرانی‌شان از قضاوت دیگران، به ندرت به پاسخ‌های صادقانه می‌انجامد.  به همین دلیل، آلماگ در پژوهش خود، این مانع را با طراحی یک آزمون میدانی در یک بازار کار آنلاین بزرگ (پلتفرم آپ‌ورک) دور می‌زند. این محیط، هم دقت یک آزمایش کنترل‌شده را دارد و هم واقع‌گرایی یک محیط کاری حقیقی را که در آن افراد برای کسب درآمد و شهرت رقابت می‌کنند، فراهم می‌آورد.

در این بررسی میدانی، پژوهشگر در نقش یک کارفرما، ۴۵۰ فریلنسر آمریکایی را برای یک کار دسته‌بندی تصاویر، با کمک دستیار هوش مصنوعی، استخدام کرد. اما این یک کار ساده نبود، چرا که یک انگیزه شغلی در آن گنجانده شده بود. به این افراد اطلاع داده شد که عملکردشان توسط یک متخصص منابع انسانی ارزیابی می‌شود و بهترین‌ها پیشنهادی برای تمدید قرارداد با دستمزد دو برابر دریافت خواهند کرد. این سازوکار، ارزیابی را از مفهومی انتزاعی به عاملی حیاتی برای آینده شغلی فرد تبدیل کرد و به این ترتیب، نگرانی‌های حیثیتی را به شدت برانگیخت.

در آزمایش آلماگ افراد به طور تصادفی به دو گروه اصلی تقسیم شدند که تنها در یک جنبه کلیدی با هم تفاوت داشتند.

در گروه اول، یعنی گروه کنترل، به افراد گفته شد که ارزیاب فقط به نتیجه نهایی کار آن‌ها، یعنی دقت نهایی در دسته‌بندی تصاویر، دسترسی خواهد داشت. در چنین شرایطی، منطق حکم می‌کند که فرد تمام تمرکزش را بر کسب بالاترین دقت بگذارد؛ اینکه چگونه به آن دقت رسیده (چه با کمک هوش مصنوعی و چه بدون آن) کاملا پنهان می‌ماند و اهمیتی ندارد.

به گروه دوم گفته شد که ارزیاب هم به دقت نهایی آنها و هم به یک معیار کلیدی دیگر دسترسی دارد. این معیار میزان اتکا به هوش مصنوعی بود که به صورت تعداد دفعاتی که فرد پاسخ اولیه خود را برای مطابقت با توصیه هوش مصنوعی تغییر می‌داد، تعریف می‌شد.

این طراحی، امکان یک مقایسه شفاف را فراهم می‌کند. هرگونه تفاوت رفتاری معنادار بین این دو گروه را نمی‌توان به تفاوت در مهارت، انگیزه برای کسب پاداش یا دشواری کار نسبت داد، زیرا همه این موارد یکسان بودند. تنها تفاوت، قابلیت مشاهده فرآیند تصمیم‌گیری بود. بنابراین، هرگونه تغییری در رفتار گروه دوم، مستقیما هزینه وجهه یا مالیات اجتماعی ناشی از دیده شدن اتکا به هوش مصنوعی را اندازه‌گیری می‌کند.

بهای دیده شدن

نتایج این آزمون به‌روشنی وجود این اصطکاک یا مانع اجتماعی را تایید کرد. زمانی که این افراد می‌دانستند میزان اتکایشان به هوش مصنوعی توسط یک ارزیاب انسانی دیده می‌شود، رفتار خود را به‌شکل محسوسی تغییر دادند.

در گروه کنترل، یعنی جایی که ترسی از قضاوت درباره فرآیند کار وجود نداشت، شرکت‌کنندگان در حدود ۳۰.۵درصد موارد، پاسخ اولیه خود را برای پذیرش توصیه هوش مصنوعی تغییر دادند. این رقم، نرخ بهینه اتکا به هوش مصنوعی را در وضعیتی نشان می‌دهد که تنها هدف، به حداکثر رساندن دقت است.

اما در گروه دوم (گروهی که در معرض دید بودند)، این نرخ کاهش چشم‌گیری پیدا کرد. شرکت‌کنندگانی که می‌دانستند تحت نظر هستند، میزان پذیرش توصیه هوش مصنوعی را به ۲۶.۲درصد کاهش دادند. این کاهش ۱۴درصدی در استفاده از ابزار کمکی، نشان‌دهنده یک انتخاب آگاهانه یا ناآگاهانه برای فاصله گرفتن از هوش مصنوعی بود.

آنها به‌وضوح نگران بودند که فردی بیش از حد وابسته به الگوریتم به نظر برسند و ترجیح دادند کمتر از این ابزار استفاده کنند تا تصویر مطلوب‌تری از خود ارائه دهند. این یافته، نخستین سند محکمی است که ثابت می‌کند نگرانی بابت وجهه اجتماعی، مستقیما باعث می‌شود افراد از تمام ظرفیت هوش مصنوعی استفاده نکنند.

قربانی کردن عملکرد برای حفظ وجهه

این کاهش اتکا، پرسش مهم‌تری را پیش می‌کشد. آیا ممکن است شرکت‌کنندگان در گروه دوم هوشمندتر عمل کرده باشند؟ شاید آنها با تلاش بیشتر، دقت اولیه خود را بهبود بخشیدند یا فقط در مواردی که برتری هوش مصنوعی آشکار بود، از آن استفاده کردند. اگر اینطور بود، کاهش اتکا یک اقدام منطقی تلقی می‌شد. اما داده‌های آزمایش، این فرضیه خوش‌بینانه را کاملا رد می‌کند. داده‌ها ثابت می‌کند که این تغییر رفتار، یک انتخاب هوشمندانه برای بهینه‌سازی نبود، چرا که مستقیما به قربانی شدن عملکرد انجامید.

دقت نهایی کار، یعنی همان معیاری که مستقیما به پاداش مالی و تمدید قرارداد ربط داشت، در گروه دوم به‌وضوح آسیب دید. افراد در گروه اول (کنترل) که آزادانه از هوش مصنوعی استفاده می‌کردند، به دقت نهایی ۷۹.۱درصد دست یافتند. در مقابل، آنهایی که در گروه دوم (در معرض دید) که اتکای خود را کاهش داده بودند، شاهد افت دقت نهایی خود به ۷۶.۴ درصد بودند. این کارکنان در عمل، عملکرد عینی خود را کاهش دادند. آنها پذیرفتند که در کار اصلی خود ۳.۴درصد عملکرد بدتری داشته باشند، صرفا برای اینکه از برچسب وابستگی به هوش مصنوعی فرار کنند.

این نشان می‌دهد که در تضاد میان خوب بودن (یعنی داشتن دقت بالا) و خوب به نظر رسیدن (یعنی نشان دادن وابستگی کم)، افراد حاضرند هزینه قابل‌توجهی را در عملکرد واقعی خود بپردازند تا وجهه اجتماعی خود را حفظ کنند. این پدیده یک مشکل در بهره‌وری ایجاد می‌کند. ابزاری که برای کمک به عملکرد طراحی شده، به دلیل پیامدهای اجتماعی استفاده از آن، کنار گذاشته می‌شود.

ترس از نداشتن قضاوت مستقل

نتایج به‌روشنی تایید می‌کند که این افراد نگران تصویر و وجهه خود هستند. اما دقیقا نگران کدام جنبه از آن؟ آیا می‌ترسند تنبل به نظر برسند یا فاقد مهارت تلقی شوند؟

آلماگ برای یافتن پاسخ، بخشی را در پایان کار طراحی کرد. به تمام افراد گفته شد که یک بازخورد عمومی از طرف کارفرما در پروفایل آنها ثبت می‌شود که کارفرمایان آینده آن را خواهند دید. سپس از آنها خواسته شد تا انتخاب کنند کدام‌یک از سه ویژگی مثبت در بازخوردشان برجسته شود. این گزینه‌ها عبارت بودند از: تلاش و سخت‌کوشی، مهارت و توانایی بالا، یا اعتماد به قضاوت شخصی.

در گروه اول (کنترل)، انتخاب‌ها نشان‌دهنده ترجیحات عادی بود. اکثر افراد (۵۷.۳درصد) تلاش را انتخاب کردند و پس از آن مهارت (۳۰.۸درصد) قرار داشت. اعتماد به قضاوت شخصی با تنها ۱۱.۹درصد، کمترین محبوبیت را داشت. این نتیجه منطقی است، زیرا در یک محیط کاری، معمولا نشان دادن سخت‌کوشی و مهارت، ارزش بالایی دارد.

اما در گروه دوم، که نگران دیده شدن اتکای خود به هوش مصنوعی بودند، یک تغییر چشم‌گیر رخ داد. سهم افرادی که اعتماد به قضاوت شخصی را انتخاب کردند، بیش از دو برابر شد و به ۲۵.۸درصد رسید.

این تغییر ناگهانی، نشان ‌می‌دهد شرکت‌کنندگان از این نمی‌ترسند که لزوما تنبل یا فاقد مهارت فنی به نظر برسند. ترس اصلی آنها این است که اتکای شدید به هوش مصنوعی، حامل این پیام باشد که فرد فاقد قضاوت شخصی است. در همکاری انسان و ماشین، ارزش منحصربه‌فردی که انسان به میان می‌آورد، دقیقا همین قضاوت، شهود و استقلال در تصمیم‌گیری است. 

آنها نگرانند که اگر هر آنچه هوش مصنوعی می‌گوید را به‌سادگی بپذیرند، نشان می‌دهند که این ویژگی اساسی انسانی را ندارند و به یک مجری صرف دستورات الگوریتم تبدیل شده‌اند. این ترس از تضعیف استقلال و قدرت تصمیم‌گیری انسانی است که آنها را وادار می‌کند تا حتی به بهای کاهش دقت، از هوش مصنوعی فاصله بگیرند.

چرا غلبه بر این نگرانی دشوار است؟

شاید بتوان این طور استدلال کرد که رفتار شرکت‌کنندگان، ناشی از یک سوءتفاهم است. شاید آنها به اشتباه فکر می‌کنند که ارزیابان، اتکا به هوش مصنوعی را منفی می‌بینند. اگر این فقط یک سوءتفاهم باشد، راه‌حل ساده است. کافی است به آنها‌ اطمینان دهیم که ارزیابان منطقی هستند و فقط به عملکرد نهایی اهمیت می‌دهند.

پژوهشگر این فرضیه را نیز مورد آزمایش قرار داد. او یک گروه آزمایشی سوم تعریف کرد. این گروه دقیقا مانند گروه دوم بودند (یعنی اتکای آنها دیده می‌شد)، اما با یک تفاوت مهم. به اعضای این گروه به‌صراحت گفته شد که به ارزیاب اطلاع داده شده که همه آنها سابقه درخشانی دارند و قبلا تایید شده‌اند. هدف این بود که به آنها اطمینان داده شود کیفیت کارشان اثبات‌شده است و نیازی نیست نگران قضاوت منفی باشند.

نتیجه این آزمایش مشخص کردکه این اطلاعات اضافی و اطمینان‌بخشی، هیچ تاثیری نداشت. رفتار شرکت‌کنندگان در این گروه، کاملا مشابه گروه دوم بود. آنها همچنان به همان میزان اتکای خود به هوش مصنوعی را کاهش دادند و به همان اندازه دچار افت عملکرد شدند.

این یافته تاییدی است بر اینکه مشکل بسیار عمیق‌تر از یک سوءتفاهم یا کمبود اطلاعات است. این نگرانی درباره وجهه، یک هنجار اجتماعی ریشه‌دار است که با اطمینان‌بخشی‌های کلامی ساده از بین نمی‌رود. شرکت‌کنندگان باور ندارند که یک ارزیاب، صرفا به دلیل اینکه به او گفته شده است، این هنجار را نادیده می‌گیرد.

شرکت‌کنندگان هم یکدیگر را جریمه می‌کنند

یافته نهایی این مطالعه، وجود این هنجار اجتماعی را اثبات می‌کند ونشانگر دشواری شکستن آن است. در ادامه پژوهشگر، جای ارزیاب و ارزیابی‌شونده را عوض کرد. او شرکت‌کنندگانی را که خودشان طعم قضاوت شدن را چشیده بودند، در نقش ارزیاب قرار داد. سپس پروفایل‌های واقعی سایر شرکت‌کنندگان، همراه با نرخ دقت و نرخ اتکا به هوش مصنوعی آن‌ها، را در اختیار این ارزیابان جدید قرار داد و از آنها خواست تا بر اساس عملکرد مورد انتظار در آینده، به آنها امتیاز دهند.

این ارزیابان جدید (یعنی همان شرکت‌کنندگان)، دقیقا همان رفتاری را نشان دادند که خودشان از آن می‌ترسیدند. آنها افرادی را که اتکای بیشتری به هوش مصنوعی داشتند، جریمه کردند. داده‌ها حاکی از آن بود که به ازای هر یک درصد افزایش در دقت، ارزیابان امتیاز فرد را حدود ۱ واحد بالا می‌بردند. اما به ازای هر یک درصد افزایش در اتکا به هوش مصنوعی، امتیاز او را ۰.۳۶واحد کاهش می‌دادند. 

به عبارت دیگر، از دید این ارزیابان، وزن منفی اتکا به هوش مصنوعی بیش از یک‌سوم وزن مثبت دقت بود. این یافته، ثابت می‌کند که نگرانی شرکت‌کنندگان از قضاوت شدن، یک توهم نیست. آنها به‌درستی پیش‌بینی می‌کنند که دیگران (حتی همتایان خودشان) اتکای زیاد به هوش مصنوعی را یک ویژگی منفی می‌دانند. این هنجار آنقدر قدرتمند است که حتی تجربه مستقیم قرار گرفتن در طرف دیگر ماجرا نیز آن را تغییر نمی‌دهد.

چالش اجتماعی در مسیر بهره‌وری هوش مصنوعی

آلماگ نشان می‌دهد که موانع اصلی بر سر راه همکاری موثر انسان و هوش مصنوعی، لزوما فنی یا شناختی نیستند، بلکه تا حد زیادی اجتماعی و روانی هستند. نخست آنکه، صرفا بهبود الگوریتم‌ها کافی نیست. حتی اگر یک ابزار هوش مصنوعی به دقت بی‌نقص برسد، تا زمانی که استفاده از آن یک برچسب اجتماعی منفی به همراه داشته باشد، شرکت‌کنندگان، به‌ویژه در محیط‌هایی که عملکردشان به‌دقت زیر نظر است، از تمام ظرفیت آن استفاده نخواهند کرد. 

دوم، مداخلات ساده، مانند اطمینان دادن کلامی به شرکت‌کنندگان، به احتمال زیاد شکست خواهند خورد. این هنجار که اتکا به هوش مصنوعی نشانه ضعف قضاوت انسانی است، بسیار ریشه‌دارتر از آن است که با حرف و گفتار صِرف تغییر کند. 

سوم، شفافیت که اغلب به‌عنوان یک راه‌حل برای پذیرش هوش مصنوعی پیشنهاد می‌شود، می‌تواند مانند یک شمشیر دولبه عمل کند. درحالی‌که شفافیت درباره نحوه کار الگوریتم ممکن است مفید باشد، شفافیت درباره نحوه تعامل یک کارمند با آن الگوریتم، می‌تواند همان نگرانی‌های مربوط به وجهه اجتماعی را که منجر به کاهش عملکرد می‌شود، افزایش دهد.

این مطالعه روشن می‌سازد که سازمان‌ها باید به‌جای تمرکز صرف بر خود ابزار، بر بازتعریف معنای اجتماعی استفاده از آن نیز تمرکز کنند. این کار می‌تواند شامل اقداماتی مانند تغییر برداشت عمومی از اتکا به هوش مصنوعی باشد؛ یعنی آن را نه نشانه وابستگی، بلکه نشانه کارآیی و سازگاری معرفی کنند. 

همچنین می‌توان فرآیندهای کاری را طوری بازطراحی کرد که استفاده از هوش مصنوعی کمتر در معرض دید باشد و بیشتر در جریان عادی کار ادغام شود. تا زمانی که این موانع اجتماعی پنهان نادیده گرفته شوند، بخش قابل‌توجهی از وعده بهره‌وری هوش مصنوعی، به دلیل پیچیدگی‌های روان‌شناختی انسان، تحقق نخواهد یافت.