پژوهشها حاکی از نابرابریهای جنسیتی و نسلی در پذیرش هوش مصنوعی هستند؛
جریمه پنهان استفاده از هوش مصنوعی

آنچه بیشتر نگرانکننده بود، شکافهای آماری در میان گروههای خاص بود: نرخ پذیرش در میان مهندسان زن تنها ۳۱ درصد و در میان مهندسان بالای ۴۰ سال، ۳۹ درصد گزارش شده بود. این یافتهها حاصل پژوهشی جامع با مشارکت بیش از ۲۸ هزار مهندس نرمافزار بود. تیم رهبری شرکت از نتایج بهدستآمده شگفتزده شد. آنها سرمایهگذاری هنگفتی از نظر مالی و فکری در این پروژه انجام داده بودند. ابزارهایی پیشرفته و مبتنی بر فناوری روز را بهکار گرفته بودند. موضوعاتی همچون دسترسی، زیرساخت و توسعه مهارتها را با دقت و تدبیر مورد توجه قرار داده بودند. تیمی اختصاصی برای پیادهسازی و ترویج این ابزار تعیین شده بود. همه چیز آماده بود تا شاهد جهشی چشمگیر در بهرهوری باشند.
اما این شرکت تنها نیست. در بیشتر شرکتهای آمریکایی، چنین الگویی بهطور مکرر مشاهده میشود. طبق نتایج یک نظرسنجی از مرکز پژوهشی Pew، دو سال پس از عرضه چتجیپیتی، تنها ۱۶درصد از کارکنان آمریکایی از هوش مصنوعی در محیط کار استفاده میکنند، درحالیکه ۹۱ درصد آنها اجازه استفاده از آن را دارند. توضیح رایج برای این شکاف، به کمبود مهارتها یا چالشهای آموزشی اشاره دارد. برخی کارکنان ممکن است ندانند که هوش مصنوعی چگونه میتواند به آنها کمک کند، یا به تواناییهای فنی خود اعتماد کافی نداشته باشند. در واقع، کارکنان فنی خط مقدم مانند مهندسان نرمافزار و دانشمندان داده، بیشتر از کارکنان سایر صنایع از هوش مصنوعی استفاده میکنند. با این حال، حتی در میان این گروههای پیشگام، میزان استفاده همچنان بهطور شگفتانگیزی پایین و نابرابر باقی مانده است. این پدیده چه دلایلی دارد؟
هزینه جریمه صلاحیت
یافتههای این پژوهش نشاندهنده وجود نوعی «مالیات پنهان» در مسیر پذیرش هوش مصنوعی هستند. آنچه در ظاهر بهعنوان عدم تمایل به استفاده از ابزارهای جدید دیده میشود، در واقع بازتابی از یک رفتار منطقی برای حفظ اعتبار حرفهای است. هزینه واقعی این پدیده بسیار فراتر از کاهش بهرهوری است؛ اگرچه همین کاهش بهرهوری نیز بهتنهایی میتواند قابلتوجه باشد. بهعنوان مثال، شرکت فناوری مورد بررسی در این پژوهش، سرمایهگذاری زیادی در توسعه و پیادهسازی دستیار برنامهنویسی مبتنی بر هوش مصنوعی انجام داده بود. با این حال، تنها ۴۱ درصد از مهندسان آن شرکت از این ابزار استفاده کردند و نرخ پذیرش در میان گروههای کلیدی خیلی پایینتر بود. در نتیجه، شرکت تنها موفق به بهرهبرداری کمتر از نیمی از منافع مورد انتظارش شد.
برآوردها نشان میدهند که این موضوع منجر به کاهش حداقل ۲.۵ درصد از سود سالانه این شرکت شد و با توجه به روش محاسبه (بر اساس کاهش ارزش حقوقی در برابر سود پیشبینیشده از پذیرش)، این عدد میتواند تا ۱۴درصد هم افزایش یابد. برای شرکتی در این مقیاس، حتی برآورد محافظهکارانه نیز معادل صدهامیلیون دلار ارزش از دسترفته است. یکی دیگر از پیامدهای جریمه صلاحیت، استفاده بالقوه از «هوش مصنوعی سایه» است. زمانی که کارکنان از بهکارگیری ابزارهای رسمی هوش مصنوعی واهمه دارند، لزوما بهطور کامل از هوش مصنوعی اجتناب نمیکنند.
بلکه برخی از آنها ممکن است به استفاده از ابزارهای غیرمجاز و تاییدنشده روی بیاورند. این فعالیتها اغلب قابل ردیابی نیستند یا شناسایی آنها بسیار دشوار است و سازمان را در معرض خطراتی جدی قرار میدهند؛ از جمله نقض امنیت دادهها، عدم انطباق با مقررات و آسیب به یکپارچگی استفاده مسوولانه از هوش مصنوعی بهدلیل رویههای ناهماهنگ. جریمه صلاحیت همچنین نابرابریهای موجود در محیط کار را تشدید میکند. شاید منطقی و حتی وسوسهانگیز باشد که تصور کنیم ابزارهای هوش مصنوعی میتوانند با تقویت توانمندیهای همه افراد، زمینهای برابر برای رقابت ایجاد کنند. اما یافتهها نشان میدهند که چنین نتیجهای تضمینشده نیست و در برخی موارد، حتی عکس آن رخ میدهد. در محیطی که غالبا تحت سلطه مردان جوان است، فراهمسازی دسترسی برابر به هوش مصنوعی منجر به افزایش جهتگیری علیه مهندسان زن شد. این پدیده بهاحتمال زیاد از طریق فرآیندی به نام «تهدید هویت اجتماعی» رخ میدهد.
زمانی که اعضای گروههای کلیشهای (برای مثال، زنان در حوزه فناوری یا کارکنان مسنتر در محیطهایی که تحت سلطه جوانان هستند) از هوش مصنوعی استفاده میکنند، این اقدام میتواند تردیدهای موجود درباره صلاحیت آنها را تقویت کند. در چنین شرایطی، استفاده از هوش مصنوعی نه بهعنوان نشانهای از بهرهگیری راهبردی از ابزارهای نوین، بلکه بهعنوان «مدرکی» برای ناتوانی فرد تلقی میشود. در هر صنعتی که یک گروه خاص بر دیگران غالب باشد، احتمال وقوع جریمه صلاحیت برای کارکنان اقلیت بیشتر خواهد بود. این پدیده نهتنها مانع پذیرش گسترده هوش مصنوعی میشود، بلکه نابرابریهای موجود در محیط کار را نیز تشدید میکند.
حذف جریمه صلاحیت
شرکت فناوری مورد بررسی در این مطالعه، اقدامات قابلتوجهی فراتر از بسیاری از سازمانها انجام داده بود. آنها تیمهای اختصاصی برای هوش مصنوعی تشکیل دادند، مشوقهایی را طراحی کردند و آموزشهایی را ارائه دادند. با این حال، این سرمایهگذاریها به نتیجه مطلوب مورد نظر نرسید، زیرا تهدید بنیادین مربوط به صلاحیت حرفهای را مورد توجه قرار نداده بودند. یافتهها نشان میدهند که سازمانها به رویکردی دقیقتر و هدفمندتر نیاز دارند.
۱- شناسایی نقاط اصلی جریمه صلاحیت در سازمان
جریمه صلاحیت، تاثیری نگرانکننده در محیطهای کاری ایجاد میکند. کسانی که بیشترین بهره را از ابزارهای افزایش بهرهوری میبرند، دقیقا همانهایی هستند که احساس میکنند نمیتوانند ریسک استفاده از این ابزارها را بپذیرند. در این پژوهش، زنان جوان در حوزه فناوری بیشترین ظرفیت را برای افزایش زمان مفید کاری دارند، اما در حال حاضر کمترین نرخ پذیرش را نشان میدهند. پرداختن به این شکاف، فرصتی کمهزینه و پربازده برای سازمانهایی است که بهدنبال بیشینهسازی بازدهی سرمایهگذاریهای هوش مصنوعی خود هستند. برای شناسایی تیمهایی که بیشترین میزان جریمه صلاحیت را تجربه میکنند، باید به آسیبپذیریهای جمعیتی و عدم توازن قدرت توجه کرد. وقتی در تیمی زنان یا مهندسان مسن فقط در جایگاههای پایین باشند، اما بیشتر پستهای ارشد در اختیار مردانی باشد که خودشان از هوش مصنوعی استفاده نمیکنند، احتمال بروز «جریمه صلاحیت» بالا میرود.
۲- تبدیل منتقدان تاثیرگذار به حامیان هوش مصنوعی
در اغلب سازمانها، اکثریت کارکنان هنوز از هوش مصنوعی استفاده نمیکنند و همین گروه «غیرکاربر»، شدیدترین جریمههای صلاحیت را علیه همکاران «کاربر» اعمال میکنند. در مطالعه انجام شده، مهندسانی که خودشان از هوش مصنوعی استفاده نکرده بودند، همکاران کاربر هوش مصنوعی را بهشدت ارزیابی منفی کردند. جالب اینکه، مردان غیرکاربر بیشترین میزان جریمه را علیه مهندسان زن اعمال کردند. برای پایان دادن به این چرخه، باید از نفوذ اجتماعی استفاده کرد. وقتی کارکنان ببینند همکارانشان بدون مشکل شغلی، از هوش مصنوعی بهره میبرند، ترسشان از خطر کمتر میشود. موثرترین رویکرد، استفاده از الگوهای قابل مشاهدهای است که نشان میدهند استفاده از هوش مصنوعی و حفظ برتری حرفهای میتواند همزمان وجود داشته باشد.
این الگوهای رفتاری نهتنها اعتماد ایجاد میکنند، بلکه فرهنگ سازمانی را نیز به سمت پذیرش هوش مصنوعی سوق میدهند؛ بهویژه در میان گروههایی که بیشترین ترس را از قضاوت دارند. در محیطهایی که جریمه صلاحیت شدیدتر است، حضور فعال و موفق این الگوها میتواند نقطه عطفی در تحول دیجیتال سازمان باشد. قویترین حامیان کسانی هستند که بیشترین خطر «جریمه صلاحیت» را تجربه کردهاند. پژوهش نشان میدهد زنان در جایگاههای ارشد، کمتر از همتایان جوانترشان از این جریمه میترسند. وقتی این رهبران سازمانی بهطور آشکار از هوش مصنوعی استفاده کنند، در واقع برای همکاران آسیبپذیرشان نوعی پوشش حمایتی ایجاد میکنند.
مطالعهای از گروه مشاوره بوستون (BCG) نیز این پویایی را تایید میکند: زمانی که مدیران ارشد زن در استفاده از هوش مصنوعی از همتایان مرد خود پیشی میگیرند، شکاف پذیرش میان زنان و مردان جوان بهطور قابلتوجهی کاهش مییابد. بهعنوان مثال، چالش «۳۰ روزه با جیپیتی» که توسط «هیلاری گریدلی»، مدیر محصول شرکت تولید ابزارهای پوشیدنی «ووپ» (Whoop) راهاندازی شد، از وظایف سادهای مانند تنظیم دستور کار جلسه آغاز شد و به جریانهای کاری پیچیده با جیپیتیهای سفارشی رسید.
نمایشهای روزانه و جشنهای عمومی موفقیتها، فضای روانی امنی ایجاد کرد. اعضای تیم مشاهده کردند که همکاران در سطوح مختلف مهارتی با موفقیت از هوش مصنوعی استفاده میکنند. زمانی که منتقدان مشاهده میکنند همکارانشان و نه فقط مدیران ارشد، در حال استفاده موفق از هوش مصنوعی در کار واقعی هستند، مقاومت آنها بهطور طبیعی کاهش مییابد.
۳- بازطراحی نظامهای ارزیابی برای حذف
«سیگنال جریمه صلاحیت»
زمانی که مهندسان مجبور باشند کد خود را با برچسب «از هوش مصنوعی کمک گرفته شده» ثبت کنند، در معرض ارزیابیهای جانبدارانه قرار میگیرند. تا زمانی که فرهنگ سازمانی تغییر نکند، این برچسب حامل پیشداوری خواهد بود. راهحل روشن است: تا زمانی که فرهنگ سازمانی آماده نشده، نباید استفاده از هوش مصنوعی در ارزیابی عملکرد بهصورت علنی علامتگذاری شود.
نتایج پژوهش نشان میدهد که کیفیت کارهای انجامشده با کمک هوش مصنوعی تفاوتی با سایر کارها ندارد، با وجود اینکه جریمه صلاحیت همچنان اعمال میشود.
این شکاف نشاندهنده مسیر پیش روست: باید از ارزیابی «چگونگی انجام کار» به سمت ارزیابی «نتیجه حاصلشده» حرکت کرد. سازمانها میتوانند کمکم برچسبهای کلی «استفاده از هوش مصنوعی» را کنار بگذارند، به شرطی که ثبتهای داخلی برای کنترل و نظارت داشته باشند.
«جولیا لیوسون»، رئیس بخش ابزارهای توسعهدهنده در شرکت مایکروسافت، اخیرا به مدیران دستور داده که استفاده از هوش مصنوعی را بهعنوان بخشی از «ارزیابی جامع عملکرد و تاثیر فردی» در نظر بگیرند. برخی تیمها حتی در حال بررسی استفاده از شاخصهای رسمی برای سنجش میزان بهرهگیری از هوش مصنوعی در ارزیابیهای سال آینده هستند.
«توبیاس لوتکه»، مدیرعامل شاپیفای، استفاده عادی و خودکار از هوش مصنوعی را به یک انتظار پایه برای کارکنان تبدیل کرده است. او اعلام کرده پرسشهایی درباره استفاده از هوش مصنوعی به فرمهای ارزیابی عملکرد و بازخورد همتایان افزوده خواهد شد. لوتکه استفاده از هوش مصنوعی را یک «مهارت غیرآشکار» میداند که نیازمند تمرین، بازخورد و توسعه مستمر است و کسانی که در این زمینه مهارت کسب میکنند، از ارزش حرفهای بالاتری نسبت به سایرین برخوردار خواهند بود.
مسیر رو به جلو
شرکتها بیشتر بر دسترسی، آموزش و زیرساخت فنی تمرکز کردهاند، اما معمولا جنبههای اجتماعی را نادیده میگیرند؛ همان عواملی که مشخص میکنند کارکنان واقعا از این ابزارها استفاده میکنند یا نه. این بینش، بسیاری از الگوهای رفتاری متناقض در تحول دیجیتال را روشن میکند:
چرا برخی کارکنان بهصورت پنهانی از چتجیپیتی استفاده میکنند، اما ابزارهای رسمی مورد تایید را نادیده میگیرند؟
چرا گروههایی که بیشترین بهره را از تقویت عملکرد با هوش مصنوعی میبرند، کمترین نرخ پذیرش را دارند؟
چرا با وجود سرمایهگذاریهای عظیم، بازگشت سرمایه (ROI) در پروژههای هوش مصنوعی محدود باقی میماند؟
پاسخ به این پرسشها در یک نکته کلیدی نهفته است: تا زمانی که فرهنگ سازمانی، سیاستهای ارزیابی و فضای روانی برای استفاده از هوش مصنوعی اصلاح نشوند، ابزارها هرچقدر هم پیشرفته باشند، بهتنهایی موجب تحول نخواهند شد. جریمه صلاحیت دقیقا در جایی شدیدتر اعمال میشود که صلاحیت حرفهای از پیش زیر سوال رفته باشد.
طبق مطالعات انجامشده در شرکتهای فناوری، زنان کاربر هوش مصنوعی تقریبا دو برابر بیشتر از مردان دچار آسیب اعتباری میشوند. همچنین، کارکنان مسنتر در محیطهایی که تحت سلطه نسل جوان هستند، با جهتگیری مشابهی مواجهاند؛ یعنی کسانی که بیشترین نیاز را به قدرت برابرکننده هوش مصنوعی دارند، دقیقا همانهاییاند که کمترین امکان استفاده از آن را دارند و این نکتهای متناقض و دردناک است. اما اجتناب از جریمه صلاحیت امکانپذیر است. سازمانها میتوانند این مانع را با سه اقدام هدفمند از میان بردارند:
۱- شناسایی نقاط تمرکز جریمهها: بررسی دقیق اینکه در کدام بخشها، گروهها یا موقعیتهای شغلی بیشترین جریمه صلاحیت رخ میدهد.
۲- بسیج رهبران سازمانی بهعنوان حامیان آشکار هوش مصنوعی: استفاده از اعتبار حرفهای رهبران سازمان برای ایجاد فضای امن و الگوسازی در استفاده از هوش مصنوعی.
۳- بازطراحی نظامهای ارزیابی: تمرکز بر نتایج و تاثیر واقعی کار به جای روش انجام آن پاداش دادن بر اساس خروجی؛ نه اینکه کار با کمک هوش مصنوعی انجام شده باشد یا نه.
در نهایت، سازمانهای پیشرو در تحول هوش مصنوعی، الزاما بهترین ابزارها یا بزرگترین بودجهها را ندارند. بلکه آنهایی موفق خواهند بود که محیطی ایجاد کنند که در آن هر نیروی کار بتواند با امنیت روانی از هوش مصنوعی استفاده کند. تا زمانی که این فضا فراهم نشود، شرکتها نهتنها در حال هدر دادن مجوزهای نرمافزاری هستند، بلکه مهمتر از آن، در حال هدر دادن ظرفیتهای انسانی آماده و بالقوهای هستند که میتوانستند شکوفا شوند.
منبع: HBR
r.karzar@gmail.com
sina.karzar@gmail.com