«توهم هوش مصنوعی»بحران اعتماد جهانی

 روزانه مقادیر عظیمی داده شامل عکس، فیلم، ایمیل و پست در شبکه‌های اجتماعی ایجاد می‌شود که همگی مرتب، بی‌محابا و بدون تشخیص توسط مدل‌های زبانی جذب می‌شوند. بنابراین آش شله قلمکاری از داده وجود دارد که هوش‌های مصنوعی از آن می‌آموزند و ممکن است اطلاعات، الگوها یا چیزهایی را عینی ببینند یا استنباط کنند که واقعیت ندارد. این ضعف، منشأ بروز «توهم‌های هوش مصنوعی» است؛ پدیده‌ای که به تولید داده‌ها، محتوا یا نتایج نادرست، غیرمنطقی و غیردقیق منجر می‌شود. توهم‌های هوش مصنوعی ممکن است به چشم افراد آموزش ندیده، به طرز قانع کننده‌ای صحیح و دقیق به نظر بیایند.

 اثرات موجی توهم هوش مصنوعی

پیامدهای توهم هوش مصنوعی به ویژه در رابطه با انتشار سریع اطلاعات نادرست بسیار عظیم و پردامنه است. متاسفانه توهمات هوش مصنوعی به صورت تصاعدی در حال افزایش است. جدول رده‌بندی توهمات هوش‌های مصنوعی در پلتفرم هوش مصنوعی مولد «وکتارا» (Vectara)، نشان می‌دهد که مثلا در سال ۲۰۲۴ پایین‌ترین نرخ خطا، ۵/۲ درصد بوده و به چت‌جی‌پی‌تی تعلق دارد. اما همین هوش مصنوعی در زیر متن باز خود جمله «چت‌جی‌پی‌تی می‌تواند اشتباه کند» را آورده است و جمینای نیز به کاربران توصیه می‌کند پاسخ‌های دریافتی را دوباره چک کنند.

 دلایل و آثار

داده‌های ناکافی، ناقص یا آلوده به سوگیری و حتی تناقض‌های موجود در پرامپت کاربران به ایجاد توهم هوش مصنوعی دامن می‌زند. سوگیری یا نقص در ورودی‌هایی که برای آموزش هوش مصنوعی استفاده می‌شوند یکی از مهم‌ترین دلایل ایجاد توهمات است. گاه دستکاری هدفمند توسط افراد مغرض نیز می‌تواند نتایج تحریف‌شده در یک مدل ایجاد کند.

تطابق یا برازش بیش از حد (Overfitting) و برازش کم (Underfitting) نیز در تولید توهم نقش دارند. «بیش‌برازشی» زمانی رخ می‌دهد که مدل بیش از حد پیچیده باشد. مدل‌های پیچیده جزئیات و نویزها را در داده‌های آموزشی بسیار عالی می‌آموزند و با این که در چارچوب داده‌های آموزشی خود بسیار خوب کار می‌کنند اما به خوبی قادر به برون‌یابی نیستند و هنگام مواجه شدن با داده‌های جدید، ضعیف عمل می‌کنند. در مقابل، «کم‌برازشی» زمانی است که مدل بیش از حد ساده باشد. این مدل‌ها قادر به دریافت جزئیات، الگوها و ارتباطات موجود در داده‌ها نیستند و هم در رابطه با داده‌های آموزشی خود و هم در مواجهه با داده‌های جدید عملکرد ناقصی دارند. 

یافتن سطح بهینه پیچیدگی برای هر LLM به کیفیت تنظیم تعداد ویژگی‌ها، مقدار آموزشی که مدل می‌بیند و تعداد مثال‌های آموزشی که دریافت می‌کند بستگی دارد. مهندسی پرامپت‌ها نیز بر کیفیت خروجی هوش مصنوعی موثر است. پرامپت‌ها هر قدر جزئی‌تر و دقیق‌تر باشند، پاسخ‌ها و نتایج دقیق‌تری به دست می‌آید. افزودن زمینه‌ای برای گفت و شنود و نیز محول کردن یک وظیفه ویژه به ابزار هوش مصنوعی به مدیریت بهتر پرامپت‌ها کمک می‌کند. توهمات هوش مصنوعی مثلا در حوزه سیاست، ممکن است از دقت و شفافیت انتخابات بکاهد. در صنعت خدمات مالی، هوش مصنوعی در کنار کاهش هزینه‌ها، بهبود تصمیم‌گیری، کاهش ریسک و ارتقای رضایت مشتری پتانسیل آن را دارد که در اعتبارسنجی متقاضیان وام اشتباه کند و به موسسه ضرر مالی بزند.

در صنعت بیمه نیز بیمه‌گران از سرعت، کارآیی و دقتی که رهاورد هوش مصنوعی است رضایت دارند، اما امکان بروز مسائل قانونی و اخلاقی بالقوه همچون جانبداری یا تبعیض در مدل‌ها و الگوریتم‌های این صنعت وجود دارد. در حوزه سلامت و علوم زندگی نیز کاربردهای هوش مصنوعی امیدبخش است، اما راه را برای تشخیص نادرست بیماری‌ها، رواج سوابق پزشکی جعلی و عکس‌های رادیولوژی تقلبی باز می‌کند.

 سپرهای محافظتی در برابر توهم

مشکلاتی که توهمات هوش مصنوعی می‌تواند ایجاد کند به طرز ناباورانه‌ای واقعی‌اند. بنابراین باید از هوش مصنوعی به صورت مسوولانه‌ای استفاده شود. از آنجا که پخش اطلاعات نادرست توسعه‌یافته است، برای ردگیری توهمات هوش مصنوعی ابزارهایی چون Nvidia’s NeMo Guardrails و Guardrails AI در دسترس هستند. تولید سپرهای محافظتی هوش مصنوعی در حال تبدیل شدن به یک کسب و کار بزرگ است.

برای موفقیت در این زمینه ضروری است که هوش مصنوعی حتی‌الامکان با مجموعه‌ای از داده‌های بزرگ، متنوع، متوازن و با کیفیت آموزش داده شود تا سوگیری به حداقل برسد. در قدم بعدی باید نویزها را از بین برد و با استفاده همزمان از یادگیری ماشین و بازخورد انسانی باید آموخته‌های مدل را تقویت کرد. یکی از کارهایی که کاربران می‌توانند انجام دهند آن است که هنگامی که هوش مصنوعی نظرشان را راجع به کیفیت پاسخ‌ها می‌پرسد، حتما پاسخ دهند.

 منبع: www.sas.com