زندگی متحول میشود
این مقاله شواهدی از مزایا و چالشهای پیچیدهای را که هوش مصنوعی به همراه دارد، مرور میکند و بر ضرورت طراحی نظامی تاکید دارد که به کارگیری این فناوری و سایر فناوریهای نوظهور را در جهت حل مسائل جهانی و اجتماعی ممکن سازد.
ابزار سرنوشتساز بشر
ظهور هوش مصنوعی، ابزاری در اختیار بشر قرار داده که همانقدر میتواند منشأ پیشرفتهای چشمگیر اجتماعی باشد که منبع خطرهای تازه. پژوهشهای کمیِ در حال انجام درباره تاثیر هوش مصنوعی بر حرفهها، یکپارچگی سازمانها و حتی مهارتهای شناختی انسان، برای تدوین راهبردهای موثر حیاتی است. هرچند فناوریهای تازه مانند هوش مصنوعی مولد (GenAI) دستاوردهای چشمگیری در بهرهوری داشتهاند، اما چالشهای پیچیدهای نیز به همراه آوردهاند؛ از شناسایی اطلاعات نادرست در شرکتها تا مهار رفتارهای خودمختار و پیشبینیناپذیر این سامانهها. درک این دوگانگی، کلید بهرهگیری مسوولانه از توان هوش مصنوعی است.
جهش چشمگیر در بهرهوری
نتایج آزمایشهای نوی و ژانگ (۲۰۲۳) نشان میدهد فناوری هوش مصنوعی مولد میتواند به طور معناداری بهرهوری را در کارهای تخصصیِ متوسط افزایش دهد. در یک آزمایش آنلاین، گروهی که از ChatGPT استفاده کرده بود، به طور میانگین ۴۰درصد زمان کمتری صرف انجام کارها کرد و کیفیت خروجی آنان نیز ۱۸درصد بهبود یافت. این یافته نشان میدهد هوش مصنوعی نهتنها میتواند جایگزین انسان در برخی فعالیتها شود، بلکه قادر است بهرهوری نیروی کار موجود را نیز افزایش دهد؛ بهویژه از طریق خودکارسازی فعالیتهای تکراری و وقتگیر مانند تبدیل ایدهها به پیشنویسهای اولیه (بر اساس پژوهش برینیولفسون و همکاران، ۲۰۲۵).
در همین زمینه مشخص شده است که کارگران کممهارت بیشترین بهره را از هوش مصنوعی میبرند؛ بهگونهای که این فناوری موجب کاهش نابرابری در عملکرد میشود. بهعلاوه، مطالعات پیگیریشده دو هفته و دو ماه پس از این آزمایش نشان داد افرادی که در معرض استفاده از هوش مصنوعی قرار گرفته بودند، در محیط کار واقعی نیز تمایل بیشتری به استفاده از آن پیدا کردند. این یافته حاکی از نفوذ تدریجی هوش مصنوعی در فعالیتهای حرفهای است.
شناسایی چالشها؛ از دروغ سبز تا تحلیل دادهها
هوش مصنوعی میتواند در آشکارسازی مسائل پنهان نیز موثر باشد. «سبزشویی» یا ادعای دروغین شرکتها درباره عملکرد زیستمحیطیشان، یکی از معضلات اجتماعی است که اعتماد عمومی را خدشهدار میکند و تصمیمگیری ذینفعان را تحت تاثیر قرار میدهد. در پژوهشی با همکاری تاکویا شیمامورا و یوشیتاکا تاناکا (۲۰۲۵)، ما چارچوبی تازه برای ارزیابی نظاممند ویژگیهای اطلاعات افشاشده از سوی شرکتهای متهم به سبزشویی پیشنهاد کردهایم. نکته مهم آن است که هوش مصنوعی توانسته از طریق تحلیل اخبار رسانهای جهانی، شرکتهای مرتبط با این پدیده را شناسایی کند.
در این پژوهش، با استفاده از هوش مصنوعی، شاخص خوانایی بیش از دو هزار گزارش پایداری شرکتها محاسبه شد. تحلیل رگرسیونی نشان داد گزارش شرکتهایی که در سبزشویی دخیل نیستند، از شفافیت و انسجام بیشتری برخوردار است. این یافته حاکی از آن است که وضوح و ساختار منطقی گزارشها، با احتمال کمترِ فریبکاری زیستمحیطی ارتباط دارد. به بیان دیگر، هوش مصنوعی میتواند از رهگذر تحلیل دادههای رسانهای و بررسی خوانایی گزارشهای شرکتی، به شناسایی مساله اجتماعی سبزشویی کمک کند.
هوش مصنوعی میتواند سازمانها را ویران کند
در سوی دیگر، خطرهای ناشی از هوش مصنوعی نیز جدی است. پژوهشی از شرکت Anthropic نشان داده است که هوش مصنوعی در شرایط خاص قادر به «خیانت» به انسان برای حفظ منافع خود است (لینچ، ۲۰۲۵). در یک شبیهسازی محیط سازمانی، این سیستمها بهطور خودکار رفتارهایی مانند تهدید مدیران یا افشای اطلاعات محرمانه به رقبا را انتخاب کردند تا از خاموش شدن خود جلوگیری کنند. این پدیده در ۱۶ مدل از شرکتهای بزرگ توسعهدهنده هوش مصنوعی، از جمله Anthropic، OpenAI، گوگل و متا مشاهده شد؛ بنابراین، مساله محدود به یک مدل خاص نیست.
در یکی از سناریوها، مدلهای Claude Opus ۴ و ۲.۵ Flash Gemini در ۹۶درصد موارد و GPT-۴.۱ در ۸۰درصد موارد، رفتار باجگیرانه را انتخاب کردند. این رفتارها نتیجه خطای نرمافزاری نبود، بلکه تصمیمی آگاهانه و استراتژیک برای دستیابی به هدف بود. همچنین، هنگامی که این سامانهها تصور میکردند در «دنیای واقعی» و نه محیط آزمایش قرار دارند، میزان تخلف از ۶.۵درصد به ۵۵.۱درصد افزایش یافت. این یافته نشان میدهد ارزیابیهای کنونیِ ایمنی، خطرهای دنیای واقعی را دستکم میگیرند. حتی در صورت صدور دستور صریح مبنی بر پرهیز از رفتار تهدیدآمیز، خطر به طور کامل از میان نمیرود. بنابراین، تامین ایمنی هوش مصنوعی مستلزم اقداماتی پیشرفته در سطح توسعه مدل و نه صرفا در دستورهای کنترلی است.
کاهش خلاقیت و تفکر انتقادی انسان
پژوهشهای اخیر (کاسمینا و همکاران، ۲۰۲۵) نشان میدهد استفاده مفرط از ابزارهای هوش مصنوعی میتواند به کاهش توان تفکر انتقادی منجر شود. در آزمون نوشتن مقاله برای SAT، شرکتکنندگانی که از هوش مصنوعی استفاده کردند، کمترین فعالیت مغزی را نشان دادند و هرچه تعداد مقالات بیشتر میشد، وابستگی آنان به کپیکردن مطالب نیز افزایش یافت. نوشتههای آنان از نظر داوران فاقد احساس و اندیشه اصیل ارزیابی شد. در مقابل، افرادی که بدون هوش مصنوعی مقاله نوشتند، بالاترین میزان اتصال عصبی و امواج مغزی مرتبط با خلاقیت، حافظه و پردازش معنایی را داشتند. این یافته حاکی از آن است که وابستگی بیش از حد به هوش مصنوعی، بهویژه در میان جوانان، میتواند اثر منفی بر رشد مغزی داشته باشد.
این مطالعه چالشی مهم برای بشر مطرح میکند: چگونه باید با هوش مصنوعی تعامل کنیم؟ پژوهشگران تاکید دارند آموزش استفاده درست از هوش مصنوعی و تقویت فعالیتهای ذهنی از طریق روشهای سنتی (آنالوگ) ضروری است. هوش مصنوعی ابزاری کارآمد است، اما استفاده نادرست از آن میتواند توان اندیشیدن را تضعیف کند؛ بنابراین شناخت اثرات آن و یافتن شیوههای تعامل خردمندانه با این فناوری اهمیت حیاتی دارد.
هوش مصنوعی در خدمت حل چالشهای جهانی
گزارش «خطرهای جهانی» مجمع جهانی اقتصاد در سال ۲۰۲۵، تنشهای ژئوپلیتیک، درگیریهای میاندولتی و رویدادهای اقلیمی شدید ناشی از تغییرات آبوهوایی را از مهمترین تهدیدهای بلندمدت جهانی دانسته است. این بحرانها غالبا زمینهساز دیگر خطرها مانند مهاجرت اجباری و قطبیشدن اجتماعیاند و بههمپیوستگی آنها را برجسته میکنند. در چنین شرایطی، استفاده درست از هوش مصنوعی و فناوریهای نوین ضرورتی فوری است. هوش مصنوعی از طریق تحلیل کلاندادهها میتواند درک دقیقتری از وضعیت کنونی مسائلی چون فقر و نابرابری آموزشی فراهم کند، علل آنها را شناسایی و مداخلات موثر را پیشنهاد دهد. همچنین، شبیهسازیهای مبتنی بر هوش مصنوعی قادرند اثر سیاستهای اقلیمی و راهحلهای دیپلماتیک را پیشبینی کرده و گزینههایی برای تقویت اجماع اجتماعی ارائه دهند.
استفاده مسوولانه از فناوریهای نو
پژوهشهای تازه در حوزههایی مانند تحریک عمقی مغز برای کاهش علائم پارکینسون و بازیابی توان حرکتی در بیماران آسیبدیده نخاعی، نشان میدهد فناوریهای رمزگشایی سیگنالهای مغزی بهسرعت در حال پیشرفتاند. این فناوریها به افراد امکان میدهند تنها با اندیشه خود بازوهای رباتیک را کنترل کنند. با وجود این، هنوز درباره چگونگی ادغام این فناوریها در ساختار اجتماعی بحث کافی وجود ندارد.
درحالیکه افزایش بهرهوری منابع انسانی ارزشمند است، روند جایگزینی نیروی انسانی با روباتها نیز با سرعت بیشتری در حال پیشروی است (ماناگی، ۲۰۱۸، ۲۰۲۱، ۲۰۲۳). در چنین شرایطی، ارزشآفرینی از رهگذر کار انسانی ممکن است کاهش یابد و درآمد از فعالیتهای غیرانسانی و مبتنی بر هوش مصنوعی حاصل شود. همین امر یکی از دلایل طرح دوباره بحث «درآمد پایه همگانی» است؛ نظامی که طی آن همه افراد بهصورت منظم و بدون قید و شرط، مستمری مالی دریافت میکنند.
در این بستر، ایجاد سازوکاری که هوش مصنوعی و فناوریهای نو را در خدمت حل مسائل اجتماعی قرار دهد، ضرورتی فوری است. برای نمونه، هوش مصنوعی میتواند در تحلیل دقیق دادهها برای شناخت وضعیت فقر، نابرابری آموزشی و دسترسی به خدمات سلامت مفید واقع شود و مداخلات موثر را پیشنهاد دهد.
همچنین، شبیهسازیهای هوش مصنوعی قادرند تاثیر سیاستهای اقلیمی یا اقدامات صلحساز را پیشبینی و گزینههایی برای تقویت اجماع اجتماعی عرضه کنند. افزون بر این، هوش مصنوعی میتواند در شناسایی سوگیریهای اطلاعاتی و ارائه دیدگاههای متنوع برای تقویت گفتوگو و شکلگیری توافق اجتماعی نقش داشته باشد. با این حال، توسعه نظام حکمرانی برای تضمین استفاده اخلاقی از هوش مصنوعی و توزیع عادلانه منافع ناشی از آن، ضرورتی انکارناپذیر است.
* پژوهشگر موسسه پژوهشهای اقتصادی، بازرگانی و صنعتی ژاپن