زندگی متحول می‌شود

این مقاله شواهدی از مزایا و چالش‌های پیچیده‌ای را که هوش مصنوعی به همراه دارد، مرور می‌کند و بر ضرورت طراحی نظامی تاکید دارد که به کارگیری این فناوری و سایر فناوری‌های نوظهور را در جهت حل مسائل جهانی و اجتماعی ممکن سازد.

ابزار سرنوشت‌ساز بشر

ظهور هوش مصنوعی، ابزاری در اختیار بشر قرار داده که همان‌قدر می‌تواند منشأ پیشرفت‌های چشم‌گیر اجتماعی باشد که منبع خطرهای تازه. پژوهش‌های کمیِ در حال انجام درباره تاثیر هوش مصنوعی بر حرفه‌ها، یکپارچگی سازمان‌ها و حتی مهارت‌های شناختی انسان، برای تدوین راهبردهای موثر حیاتی است. هرچند فناوری‌های تازه‌ مانند هوش مصنوعی مولد (GenAI) دستاوردهای چشم‌گیری در بهره‌وری داشته‌اند، اما چالش‌های پیچیده‌ای نیز به همراه آورده‌اند؛ از شناسایی اطلاعات نادرست در شرکت‌ها تا مهار رفتارهای خودمختار و پیش‌بینی‌ناپذیر این سامانه‌ها. درک این دوگانگی، کلید بهره‌گیری مسوولانه از توان هوش مصنوعی است.

جهش چشم‌گیر در بهره‌وری

نتایج آزمایش‌های نوی و ژانگ (۲۰۲۳) نشان می‌دهد فناوری هوش مصنوعی مولد می‌تواند به طور معناداری بهره‌وری را در کارهای تخصصیِ متوسط افزایش دهد. در یک آزمایش آنلاین، گروهی که از ChatGPT استفاده کرده بود، به طور میانگین ۴۰درصد زمان کمتری صرف انجام کارها کرد و کیفیت خروجی آنان نیز ۱۸درصد بهبود یافت. این یافته نشان می‌دهد هوش مصنوعی نه‌تنها می‌تواند جایگزین انسان در برخی فعالیت‌ها شود، بلکه قادر است بهره‌وری نیروی کار موجود را نیز افزایش دهد؛ به‌ویژه از طریق خودکارسازی فعالیت‌های تکراری و وقت‌گیر مانند تبدیل ایده‌ها به پیش‌نویس‌های اولیه (بر اساس پژوهش برینیولفسون و همکاران، ۲۰۲۵).

در همین زمینه مشخص شده است که کارگران کم‌مهارت بیشترین بهره را از هوش مصنوعی می‌برند؛ به‌گونه‌ای که این فناوری موجب کاهش نابرابری در عملکرد می‌شود. به‌علاوه، مطالعات پیگیری‌شده دو هفته و دو ماه پس از این آزمایش نشان داد افرادی که در معرض استفاده از هوش مصنوعی قرار گرفته بودند، در محیط کار واقعی نیز تمایل بیشتری به استفاده از آن پیدا کردند. این یافته حاکی از نفوذ تدریجی هوش مصنوعی در فعالیت‌های حرفه‌ای است.

شناسایی چالش‌ها؛ از دروغ سبز تا تحلیل داده‌ها

هوش مصنوعی می‌تواند در آشکارسازی مسائل پنهان نیز موثر باشد. «سبزشویی» یا ادعای دروغین شرکت‌ها درباره عملکرد زیست‌محیطی‌شان، یکی از معضلات اجتماعی است که اعتماد عمومی را خدشه‌دار می‌کند و تصمیم‌گیری ذی‌نفعان را تحت تاثیر قرار می‌دهد. در پژوهشی با همکاری تاکویا شیمامورا و یوشیتاکا تاناکا (۲۰۲۵)، ما چارچوبی تازه برای ارزیابی نظام‌مند ویژگی‌های اطلاعات افشاشده از سوی شرکت‌های متهم به سبزشویی پیشنهاد کرده‌ایم. نکته مهم آن است که هوش مصنوعی توانسته از طریق تحلیل اخبار رسانه‌ای جهانی، شرکت‌های مرتبط با این پدیده را شناسایی کند.

در این پژوهش، با استفاده از هوش مصنوعی، شاخص خوانایی بیش از دو هزار گزارش پایداری شرکت‌ها محاسبه شد. تحلیل رگرسیونی نشان داد گزارش شرکت‌هایی که در سبزشویی دخیل نیستند، از شفافیت و انسجام بیشتری برخوردار است. این یافته حاکی از آن است که وضوح و ساختار منطقی گزارش‌ها، با احتمال کمترِ فریب‌کاری زیست‌محیطی ارتباط دارد. به بیان دیگر، هوش مصنوعی می‌تواند از رهگذر تحلیل داده‌های رسانه‌ای و بررسی خوانایی گزارش‌های شرکتی، به شناسایی مساله اجتماعی سبزشویی کمک کند.

هوش مصنوعی می‌تواند سازمان‌ها را ویران کند

در سوی دیگر، خطرهای ناشی از هوش مصنوعی نیز جدی است. پژوهشی از شرکت Anthropic نشان داده است که هوش مصنوعی در شرایط خاص قادر به «خیانت» به انسان برای حفظ منافع خود است (لینچ، ۲۰۲۵). در یک شبیه‌سازی محیط سازمانی، این سیستم‌ها به‌طور خودکار رفتارهایی مانند تهدید مدیران یا افشای اطلاعات محرمانه به رقبا را انتخاب کردند تا از خاموش شدن خود جلوگیری کنند. این پدیده در ۱۶ مدل از شرکت‌های بزرگ توسعه‌دهنده هوش مصنوعی، از جمله Anthropic، OpenAI، گوگل و متا مشاهده شد؛ بنابراین، مساله محدود به یک مدل خاص نیست.

در یکی از سناریوها، مدل‌های Claude Opus ۴ و ۲.۵  Flash   Gemini در ۹۶درصد موارد و GPT-۴.۱ در ۸۰درصد موارد، رفتار باج‌گیرانه را انتخاب کردند. این رفتارها نتیجه خطای نرم‌افزاری نبود، بلکه تصمیمی آگاهانه و استراتژیک برای دستیابی به هدف بود. همچنین، هنگامی که این سامانه‌ها تصور می‌کردند در «دنیای واقعی» و نه محیط آزمایش قرار دارند، میزان تخلف از ۶.۵درصد به ۵۵.۱درصد افزایش یافت. این یافته نشان می‌دهد ارزیابی‌های کنونیِ ایمنی، خطرهای دنیای واقعی را دست‌کم می‌گیرند. حتی در صورت صدور دستور صریح مبنی بر پرهیز از رفتار تهدیدآمیز، خطر به طور کامل از میان نمی‌رود. بنابراین، تامین ایمنی هوش مصنوعی مستلزم اقداماتی پیشرفته در سطح توسعه مدل و نه صرفا در دستورهای کنترلی است.

کاهش خلاقیت و تفکر انتقادی انسان

پژوهش‌های اخیر (کاسمینا و همکاران، ۲۰۲۵) نشان می‌دهد استفاده مفرط از ابزارهای هوش مصنوعی می‌تواند به کاهش توان تفکر انتقادی منجر شود. در آزمون نوشتن مقاله برای SAT، شرکت‌کنندگانی که از هوش مصنوعی استفاده کردند، کمترین فعالیت مغزی را نشان دادند و هرچه تعداد مقالات بیشتر می‌شد، وابستگی آنان به کپی‌کردن مطالب نیز افزایش یافت. نوشته‌های آنان از نظر داوران فاقد احساس و اندیشه اصیل ارزیابی شد. در مقابل، افرادی که بدون هوش مصنوعی مقاله نوشتند، بالاترین میزان اتصال عصبی و امواج مغزی مرتبط با خلاقیت، حافظه و پردازش معنایی را داشتند. این یافته حاکی از آن است که وابستگی بیش از حد به هوش مصنوعی، به‌ویژه در میان جوانان، می‌تواند اثر منفی بر رشد مغزی داشته باشد.

این مطالعه چالشی مهم برای بشر مطرح می‌کند: چگونه باید با هوش مصنوعی تعامل کنیم؟ پژوهشگران تاکید دارند آموزش استفاده درست از هوش مصنوعی و تقویت فعالیت‌های ذهنی از طریق روش‌های سنتی (آنالوگ) ضروری است. هوش مصنوعی ابزاری کارآمد است، اما استفاده نادرست از آن می‌تواند توان اندیشیدن را تضعیف کند؛ بنابراین شناخت اثرات آن و یافتن شیوه‌های تعامل خردمندانه با این فناوری اهمیت حیاتی دارد.

هوش مصنوعی در خدمت حل چالش‌های جهانی

گزارش «خطرهای جهانی» مجمع جهانی اقتصاد در سال ۲۰۲۵، تنش‌های ژئوپلیتیک، درگیری‌های میان‌دولتی و رویدادهای اقلیمی شدید ناشی از تغییرات آب‌وهوایی را از مهم‌ترین تهدیدهای بلندمدت جهانی دانسته است. این بحران‌ها غالبا زمینه‌ساز دیگر خطرها مانند مهاجرت اجباری و قطبی‌شدن اجتماعی‌اند و به‌هم‌پیوستگی آنها را برجسته می‌کنند. در چنین شرایطی، استفاده درست از هوش مصنوعی و فناوری‌های نوین ضرورتی فوری است. هوش مصنوعی از طریق تحلیل کلان‌داده‌ها می‌تواند درک دقیق‌تری از وضعیت کنونی مسائلی چون فقر و نابرابری آموزشی فراهم کند، علل آنها را شناسایی و مداخلات موثر را پیشنهاد دهد. همچنین، شبیه‌سازی‌های مبتنی بر هوش مصنوعی قادرند اثر سیاست‌های اقلیمی و راه‌حل‌های دیپلماتیک را پیش‌بینی کرده و گزینه‌هایی برای تقویت اجماع اجتماعی ارائه دهند.

استفاده مسوولانه از فناوری‌های نو

پژوهش‌های تازه در حوزه‌هایی مانند تحریک عمقی مغز برای کاهش علائم پارکینسون و بازیابی توان حرکتی در بیماران آسیب‌دیده نخاعی، نشان می‌دهد فناوری‌های رمزگشایی سیگنال‌های مغزی به‌سرعت در حال پیشرفت‌اند. این فناوری‌ها به افراد امکان می‌دهند تنها با اندیشه خود بازوهای رباتیک را کنترل کنند. با وجود این، هنوز درباره چگونگی ادغام این فناوری‌ها در ساختار اجتماعی بحث کافی وجود ندارد.

درحالی‌که افزایش بهره‌وری منابع انسانی ارزشمند است، روند جایگزینی نیروی انسانی با روبات‌ها نیز با سرعت بیشتری در حال پیشروی است (ماناگی، ۲۰۱۸، ۲۰۲۱، ۲۰۲۳). در چنین شرایطی، ارزش‌آفرینی از رهگذر کار انسانی ممکن است کاهش یابد و درآمد از فعالیت‌های غیرانسانی و مبتنی بر هوش مصنوعی حاصل شود. همین امر یکی از دلایل طرح دوباره بحث «درآمد پایه همگانی» است؛ نظامی که طی آن همه افراد به‌صورت منظم و بدون قید و شرط، مستمری مالی دریافت می‌کنند.

 در این بستر، ایجاد سازوکاری که هوش مصنوعی و فناوری‌های نو را در خدمت حل مسائل اجتماعی قرار دهد، ضرورتی فوری است. برای نمونه، هوش مصنوعی می‌تواند در تحلیل دقیق داده‌ها برای شناخت وضعیت فقر، نابرابری آموزشی و دسترسی به خدمات سلامت مفید واقع شود و مداخلات موثر را پیشنهاد دهد. 

همچنین، شبیه‌سازی‌های هوش مصنوعی قادرند تاثیر سیاست‌های اقلیمی یا اقدامات صلح‌ساز را پیش‌بینی و گزینه‌هایی برای تقویت اجماع اجتماعی عرضه کنند. افزون بر این، هوش مصنوعی می‌تواند در شناسایی سوگیری‌های اطلاعاتی و ارائه دیدگاه‌های متنوع برای تقویت گفت‌وگو و شکل‌گیری توافق اجتماعی نقش داشته باشد. با این حال، توسعه نظام حکمرانی برای تضمین استفاده اخلاقی از هوش مصنوعی و توزیع عادلانه منافع ناشی از آن، ضرورتی انکارناپذیر است.

* پژوهشگر موسسه پژوهش‌های اقتصادی، بازرگانی و صنعتی ژاپن