جریمه پنهان‌ استفاده از هوش مصنوعی

آنچه بیشتر نگران‌کننده بود، شکاف‌های آماری در میان گروه‌های خاص بود: نرخ پذیرش در میان مهندسان زن تنها ۳۱‌ درصد و در میان مهندسان بالای ۴۰ سال، ۳۹‌ درصد گزارش شده بود. این یافته‌ها حاصل پژوهشی جامع با مشارکت بیش از ۲۸ هزار مهندس نرم‌افزار بود. تیم رهبری شرکت از نتایج به‌دست‌آمده شگفت‌زده شد. آنها سرمایه‌گذاری هنگفتی از نظر مالی و فکری در این پروژه انجام داده بودند. ابزارهایی پیشرفته و مبتنی بر فناوری روز را به‌کار گرفته بودند. موضوعاتی همچون دسترسی، زیرساخت و توسعه مهارت‌ها را با دقت و تدبیر مورد توجه قرار داده بودند. تیمی اختصاصی برای پیاده‌سازی و ترویج این ابزار تعیین شده بود. همه چیز آماده بود تا شاهد جهشی چشم‌گیر در بهره‌وری باشند.

اما این شرکت تنها نیست. در بیشتر شرکت‌های آمریکایی، چنین الگویی به‌طور مکرر مشاهده می‌شود. طبق نتایج یک نظرسنجی از مرکز پژوهشی Pew، دو سال پس از عرضه‌ چت‌جی‌پی‌تی، تنها ۱۶‌درصد از کارکنان آمریکایی از هوش مصنوعی در محیط کار استفاده می‌کنند، درحالی‌که ۹۱‌ درصد آنها اجاز‌‌ه‌‌‌ استفاده از آن را دارند. توضیح رایج برای این شکاف، به کمبود مهارت‌ها یا چالش‌های آموزشی اشاره دارد. برخی کارکنان ممکن است ندانند که هوش مصنوعی چگونه می‌تواند به آنها کمک کند، یا به توانایی‌های فنی خود اعتماد کافی نداشته باشند. در واقع، کارکنان فنی خط مقدم مانند مهندسان نرم‌افزار و دانشمندان داده، بیشتر از کارکنان سایر صنایع از هوش مصنوعی استفاده می‌کنند. با این حال، حتی در میان این گروه‌های پیشگام، میزان استفاده همچنان به‌طور شگفت‌انگیزی پایین و نابرابر باقی مانده است. این پدیده چه دلایلی دارد؟

 هزینه‌ جریمه‌ صلاحیت

یافته‌های این پژوهش نشان‌دهند‌‌ه‌‌‌ وجود نوعی «مالیات پنهان» در مسیر پذیرش هوش مصنوعی هستند. آنچه در ظاهر به‌عنوان عدم تمایل به استفاده از ابزارهای جدید دیده می‌شود، در واقع بازتابی از یک رفتار منطقی برای حفظ اعتبار حرفه‌ای است. هزینه‌‌‌ واقعی این پدیده بسیار فراتر از کاهش بهره‌وری است؛ اگرچه همین کاهش بهره‌وری نیز به‌تنهایی می‌تواند قابل‌توجه باشد. به‌عنوان مثال، شرکت فناوری مورد بررسی در این پژوهش، سرمایه‌گذاری زیادی در توسعه و پیاده‌سازی دستیار برنامه‌نویسی مبتنی بر هوش مصنوعی انجام داده بود. با این حال، تنها ۴۱‌ درصد از مهندسان آن شرکت از این ابزار استفاده کردند و نرخ پذیرش در میان گروه‌های کلیدی خیلی پایین‌تر بود. در نتیجه، شرکت تنها موفق به بهره‌برداری کمتر از نیمی از منافع مورد انتظارش شد.

برآوردها نشان می‌دهند که این موضوع منجر به کاهش حداقل ۲.۵‌ درصد از سود سالانه این شرکت شد و با توجه به روش محاسبه (بر اساس کاهش ارزش حقوقی در برابر سود پیش‌بینی‌شده از پذیرش)، این عدد می‌تواند تا ۱۴‌درصد هم افزایش یابد. برای شرکتی در این مقیاس، حتی برآورد محافظه‌کارانه نیز معادل صدها‌میلیون دلار ارزش از دست‌رفته است.  یکی دیگر از پیامدهای جریمه صلاحیت، استفاده بالقوه از «هوش مصنوعی سایه» است. زمانی که کارکنان از به‌کارگیری ابزارهای رسمی هوش مصنوعی واهمه دارند، لزوما به‌طور کامل از هوش مصنوعی اجتناب نمی‌کنند.

بلکه برخی از آنها ممکن است به استفاده از ابزارهای غیرمجاز و تاییدنشده روی بیاورند. این فعالیت‌ها اغلب قابل ردیابی نیستند یا شناسایی آنها بسیار دشوار است و سازمان را در معرض خطراتی جدی قرار می‌دهند؛ از جمله نقض امنیت داده‌ها، عدم انطباق با مقررات و آسیب به یکپارچگی استفاده مسوولانه از هوش مصنوعی به‌دلیل رویه‌های ناهماهنگ. جریمه صلاحیت همچنین نابرابری‌های موجود در محیط کار را تشدید می‌کند. شاید منطقی و حتی وسوسه‌انگیز باشد که تصور کنیم ابزارهای هوش مصنوعی می‌توانند با تقویت توانمندی‌های همه افراد، زمینه‌ای برابر برای رقابت ایجاد کنند. اما یافته‌ها نشان می‌دهند که چنین نتیجه‌ای تضمین‌شده نیست و در برخی موارد، حتی عکس آن رخ می‌دهد. در محیطی که غالبا تحت سلطه مردان جوان است، فراهم‌سازی دسترسی برابر به هوش مصنوعی منجر به افزایش جهت‌گیری علیه مهندسان زن شد. این پدیده به‌احتمال زیاد از طریق فرآیندی به نام «تهدید هویت اجتماعی» رخ می‌دهد.

زمانی که اعضای گروه‌های کلیشه‌‌ای (برای مثال، زنان در حوزه فناوری یا کارکنان مسن‌تر در محیط‌هایی که تحت سلطه جوانان هستند) از هوش مصنوعی استفاده می‌کنند، این اقدام می‌تواند تردیدهای موجود درباره صلاحیت آنها را تقویت کند. در چنین شرایطی، استفاده از هوش مصنوعی نه به‌عنوان نشانه‌ای از بهره‌گیری راهبردی از ابزارهای نوین، بلکه به‌عنوان «مدرکی» برای ناتوانی فرد تلقی می‌شود. در هر صنعتی که یک گروه خاص بر دیگران غالب باشد، احتمال وقوع جریمه صلاحیت برای کارکنان اقلیت بیشتر خواهد بود. این پدیده نه‌تنها مانع پذیرش گسترده هوش مصنوعی می‌شود، بلکه نابرابری‌های موجود در محیط کار را نیز تشدید می‌کند.

  حذف جریمه‌‌‌ صلاحیت

شرکت فناوری مورد بررسی در این مطالعه، اقدامات قابل‌توجهی فراتر از بسیاری از سازمان‌ها انجام داده بود. آنها تیم‌های اختصاصی برای هوش مصنوعی تشکیل دادند، مشوق‌هایی را طراحی کردند و آموزش‌هایی را ارائه دادند. با این حال، این سرمایه‌گذاری‌ها به نتیجه مطلوب مورد نظر نرسید، زیرا تهدید بنیادین مربوط به صلاحیت حرفه‌ای را مورد توجه قرار نداده بودند. یافته‌ها نشان می‌دهند که سازمان‌ها به رویکردی دقیق‌تر و هدفمندتر نیاز دارند.

۱- شناسایی نقاط اصلی جریمه صلاحیت در سازمان

جریمه صلاحیت، تاثیری نگران‌کننده در محیط‌های کاری ایجاد می‌کند. کسانی که بیشترین بهره را از ابزارهای افزایش بهره‌وری می‌برند، دقیقا همان‌هایی هستند که احساس می‌کنند نمی‌توانند ریسک استفاده از این ابزارها را بپذیرند. در این پژوهش، زنان جوان در حوزه فناوری بیشترین ظرفیت را برای افزایش زمان مفید کاری دارند، اما در حال حاضر کمترین نرخ پذیرش را نشان می‌دهند. پرداختن به این شکاف، فرصتی کم‌هزینه و پربازده برای سازمان‌هایی است که به‌دنبال بیشینه‌سازی بازدهی سرمایه‌گذاری‌های هوش مصنوعی خود هستند. برای شناسایی تیم‌هایی که بیشترین میزان جریمه صلاحیت را تجربه می‌کنند، باید به آسیب‌پذیری‌های جمعیتی و عدم توازن قدرت توجه کرد. وقتی در تیمی زنان یا مهندسان مسن فقط در جایگاه‌های پایین باشند، اما بیشتر پست‌های ارشد در اختیار مردانی باشد که خودشان از هوش مصنوعی استفاده نمی‌کنند، احتمال بروز «جریمه صلاحیت» بالا می‌رود.

۲- تبدیل منتقدان تاثیرگذار به حامیان هوش مصنوعی

در اغلب سازمان‌ها، اکثریت کارکنان هنوز از هوش مصنوعی استفاده نمی‌کنند و همین گروه «غیرکاربر»، شدیدترین جریمه‌های صلاحیت را علیه همکاران «کاربر» اعمال می‌کنند. در مطالعه انجام شده، مهندسانی که خودشان از هوش مصنوعی استفاده نکرده بودند، همکاران کاربر هوش مصنوعی‌ را‌ به‌شدت ارزیابی منفی کردند. جالب اینکه، مردان غیرکاربر بیشترین میزان جریمه را علیه مهندسان زن اعمال کردند. برای پایان دادن به این چرخه، باید از نفوذ اجتماعی استفاده کرد. وقتی کارکنان ببینند همکارانشان بدون مشکل شغلی، از هوش مصنوعی بهره می‌برند، ترسشان از خطر کمتر می‌شود. موثرترین رویکرد، استفاده از الگوهای قابل مشاهده‌ای است که نشان می‌دهند استفاده از هوش مصنوعی‌ و حفظ برتری حرفه‌ای می‌تواند هم‌زمان وجود داشته باشد.

این الگوهای رفتاری نه‌تنها اعتماد ایجاد می‌کنند، بلکه فرهنگ سازمانی را نیز به سمت پذیرش هوش مصنوعی سوق می‌دهند؛ به‌ویژه در میان گروه‌هایی که بیشترین ترس را از قضاوت دارند. در محیط‌هایی که جریمه صلاحیت شدیدتر است، حضور فعال و موفق این الگوها می‌تواند نقطه‌‌‌ عطفی در تحول دیجیتال سازمان باشد. قوی‌ترین حامیان کسانی هستند که بیشترین خطر «جریمه صلاحیت» را تجربه کرده‌اند. پژوهش نشان می‌دهد زنان در جایگاه‌های ارشد، کمتر از همتایان جوان‌ترشان از این جریمه می‌ترسند. وقتی این رهبران سازمانی به‌طور آشکار از هوش مصنوعی استفاده کنند، در واقع برای همکاران آسیب‌پذیرشان نوعی پوشش حمایتی ایجاد می‌کنند.  

مطالعه‌ای از گروه مشاوره بوستون (BCG)‌ نیز این پویایی را تایید می‌کند: زمانی که مدیران ارشد زن در استفاده از هوش مصنوعی از همتایان مرد خود پیشی می‌گیرند، شکاف پذیرش میان زنان و مردان جوان به‌طور قابل‌توجهی کاهش می‌یابد. به‌عنوان مثال، چالش «۳۰ روزه با‌ جی‌پی‌تی» که توسط «هیلاری گریدلی»، مدیر محصول شرکت تولید ابزارهای پوشیدنی «ووپ» (Whoop) راه‌اندازی شد، از وظایف ساده‌ای مانند تنظیم دستور کار جلسه آغاز شد و به جریان‌های کاری پیچیده با جی‌پی‌تی‌های سفارشی رسید. 

نمایش‌های روزانه و جشن‌های عمومی موفقیت‌ها، فضای روانی امنی ایجاد کرد. اعضای تیم مشاهده کردند که همکاران در سطوح مختلف مهارتی با موفقیت از هوش مصنوعی استفاده می‌کنند. زمانی که منتقدان مشاهده می‌کنند همکارانشان و نه فقط مدیران ارشد، در حال استفاده موفق از هوش مصنوعی در کار واقعی هستند، مقاومت آنها به‌طور طبیعی کاهش می‌یابد.

۳- بازطراحی نظام‌های ارزیابی برای حذف

«سیگنال جریمه صلاحیت»

زمانی که مهندسان مجبور باشند کد خود را با برچسب «از هوش مصنوعی کمک گرفته شده» ثبت کنند، در معرض ارزیابی‌های جانبدارانه قرار می‌گیرند. تا زمانی که فرهنگ سازمانی تغییر نکند، این برچسب حامل پیش‌داوری خواهد بود. راه‌حل روشن است: تا زمانی که فرهنگ سازمانی آماده نشده، نباید استفاده از هوش مصنوعی در ارزیابی عملکرد به‌صورت علنی علامت‌گذاری شود.

نتایج پژوهش نشان می‌دهد که کیفیت کارهای انجام‌شده با کمک هوش مصنوعی تفاوتی با سایر کارها ندارد، با وجود اینکه جریمه صلاحیت همچنان اعمال می‌شود. 

این شکاف نشان‌دهنده مسیر پیش روست: باید از ارزیابی «چگونگی انجام کار» به سمت ارزیابی  «نتیجه حاصل‌شده» حرکت کرد. سازمان‌ها می‌توانند کم‌کم برچسب‌های کلی  «استفاده از هوش مصنوعی» را کنار بگذارند، به شرطی که ثبت‌های داخلی برای کنترل و نظارت داشته باشند. 

«جولیا لیوسون»، رئیس بخش ابزارهای توسعه‌دهنده در شرکت مایکروسافت، اخیرا به مدیران دستور داده که استفاده از هوش مصنوعی را به‌عنوان بخشی از «ارزیابی جامع عملکرد و تاثیر فردی» در نظر بگیرند. برخی تیم‌ها حتی در حال بررسی استفاده از شاخص‌های رسمی برای سنجش میزان بهره‌گیری از هوش مصنوعی در ارزیابی‌های سال آینده هستند. 

 «توبیاس لوتکه»، مدیرعامل شاپیفای، استفاده عادی و خودکار از هوش مصنوعی را به یک انتظار پایه برای کارکنان تبدیل کرده است. او اعلام کرده پرسش‌هایی درباره استفاده از هوش مصنوعی به فرم‌های ارزیابی عملکرد و بازخورد همتایان افزوده خواهد شد. لوتکه استفاده از هوش مصنوعی را یک «مهارت غیرآشکار» می‌داند که نیازمند تمرین، بازخورد و توسعه مستمر است و کسانی که در این زمینه مهارت کسب می‌کنند، از ارزش حرفه‌ای بالاتری نسبت به سایرین برخوردار خواهند بود.

  مسیر رو به جلو

شرکت‌ها بیشتر بر دسترسی، آموزش و زیرساخت فنی تمرکز کرده‌اند، اما معمولا جنبه‌های اجتماعی را نادیده می‌گیرند؛ همان عواملی که مشخص می‌کنند کارکنان واقعا از این ابزارها استفاده می‌کنند یا نه. این بینش، بسیاری از الگوهای رفتاری متناقض در تحول دیجیتال را روشن می‌کند:

  چرا برخی کارکنان به‌صورت پنهانی از چت‌جی‌پی‌تی استفاده می‌کنند، اما ابزارهای رسمی مورد تایید را نادیده می‌گیرند؟

  چرا گروه‌هایی که بیشترین بهره را از تقویت عملکرد با هوش مصنوعی می‌برند، کمترین نرخ پذیرش را دارند؟

  چرا با وجود سرمایه‌گذاری‌های عظیم، بازگشت سرمایه (ROI) در پروژه‌های هوش مصنوعی محدود باقی می‌ماند؟

پاسخ به این پرسش‌ها در یک نکته کلیدی نهفته است: تا زمانی که فرهنگ سازمانی، سیاست‌های ارزیابی و فضای روانی برای استفاده از هوش مصنوعی اصلاح نشوند، ابزارها هرچقدر هم پیشرفته باشند، به‌تنهایی موجب تحول نخواهند شد. جریمه صلاحیت دقیقا در جایی شدیدتر اعمال می‌شود که صلاحیت حرفه‌ای از پیش زیر سوال رفته باشد.

طبق مطالعات انجام‌شده در شرکت‌های فناوری، زنان کاربر هوش مصنوعی تقریبا دو برابر بیشتر از مردان دچار آسیب اعتباری می‌شوند. همچنین، کارکنان مسن‌تر در محیط‌هایی که تحت سلطه نسل جوان هستند، با جهت‌گیری مشابهی مواجه‌اند؛ یعنی کسانی که بیشترین نیاز را به قدرت برابرکنند‌‌ه‌‌‌ هوش مصنوعی دارند، دقیقا همان‌هایی‌اند که کمترین امکان استفاده از آن را دارند و این نکته‌ای متناقض و دردناک است. اما اجتناب از جریمه صلاحیت امکان‌پذیر است. سازمان‌ها می‌توانند این مانع را با سه اقدام هدفمند از میان بردارند:

۱- شناسایی نقاط تمرکز جریمه‌ها: بررسی دقیق اینکه در کدام بخش‌ها، گروه‌ها یا موقعیت‌های شغلی بیشترین جریمه صلاحیت رخ می‌دهد.

۲- بسیج رهبران سازمانی به‌عنوان حامیان آشکار هوش مصنوعی: استفاده از اعتبار حرفه‌ای رهبران سازمان برای ایجاد فضای امن و الگوسازی در استفاده از هوش مصنوعی.

۳- بازطراحی نظام‌های ارزیابی: تمرکز بر نتایج و تاثیر واقعی کار به جای روش انجام آن پاداش دادن بر اساس خروجی؛ نه اینکه کار با کمک هوش مصنوعی انجام شده باشد یا نه.

در نهایت، سازمان‌های پیشرو در تحول هوش مصنوعی، الزاما بهترین ابزارها یا بزرگ‌ترین بودجه‌ها را ندارند. بلکه آنهایی موفق خواهند بود که محیطی ایجاد کنند که در آن هر نیروی کار بتواند با امنیت روانی از هوش مصنوعی استفاده کند. تا زمانی که این فضا فراهم نشود، شرکت‌ها نه‌تنها در حال هدر دادن مجوزهای نرم‌افزاری هستند، بلکه مهم‌تر از آن، در حال هدر دادن ظرفیت‌های انسانی آماده و بالقوه‌ای هستند که می‌توانستند شکوفا شوند.

منبع: HBR

r.karzar@gmail.com

sina.karzar@gmail.com