بشر برای مهار قدرتمندترین مخلوق خود کدام مسیر را برمیگزیند؟
سهراهی سرنوشت
اما شاید بشر هرگز در چنین نقطه عطف شگفتانگیز و پرشتابی مانند امروز قرار نگرفته بود. در سالهای اخیر، هوش مصنوعی از یک مفهوم در داستانهای علمیتخیلی یا ابزاری تخصصی در آزمایشگاهها، به واقعیتی روزمره تبدیل شده است. این فناوری اکنون بخشی جداییناپذیر از زندگی میلیاردها انسان است. هوش مصنوعی با سرعتی هم هیجانانگیز و هم نگرانکننده، در حال جابهجایی مرزهایی است که تا دیروز تصور میشد فقط در اختیار انسان قرار دارد؛ مرزهایی مانند خلاقیت، استدلال، زبان و حتی توانایی تولید علم.
ما اکنون در برابر یک دوگانگی بزرگ ایستادهایم. از یک سو، امید به حل بزرگترین چالشهای بشری بیش از هر زمان دیگری واقعی به نظر میرسد. چالشهایی مانند درمان بیماریهایی چون سرطان و آلزایمر، دستیابی به انرژی پاک و ریشهکن کردن فقر. از سوی دیگر، خطر یک تهدید وجودی و بیسابقه برای تمدن بشری نیز بهطور جدی احساس میشود.
این دورنما، جهان را در وضعیتی از امید و اضطراب همزمان فرو برده است. دانشمندان و پیشگامان همین حوزه در نامههای سرگشاده خواستار توقف موقت توسعه این فناوری هستند. در همان حال، دولتها و شرکتها با سرعتی بیسابقه، صدها میلیارد دلار برای پیشتازی در این رقابت سرمایهگذاری میکنند. این وضعیت نشانگر یک سردرگمی یا تناقض فکری نبوده چرا که از یک پرسش بنیادین و حیاتی سرچشمه میگیرد که هنوز پاسخی برای آن نیافتهایم. چگونه باید قدرتمندترین ساخته دست بشر را مهار کنیم؟
پاسخ به این پرسش، یک راهکار ساده نیست. بلکه مجموعهای از رویکردهای متفاوت و گاه متضاد است که آینده ما را رقم خواهد زد. صاحبنظرانی که این مساله را بهدقت بررسی کردهاند، معتقدند جهان بر سر یک سهراهی سرنوشتساز ایستاده است. سه راهبرد اصلی پیش روی جهان قرار دارد که هر کدام فلسفه، امیدها و خطرات خاص خود را به همراه دارد. این سه راهبرد شامل توسعه همکارانه، برتری راهبردی و توقف جهانی است. انتخاب میان این گزینهها تنها یک تصمیم سیاسی نیست، بلکه تعیینکننده سرنوشت آینده بشریت است.
مسیر اول
نخستین راهبرد که توسعه همکارانه نام دارد در نگاه اول منطقیترین و آشناترین رویکرد به نظر میرسد. پایه این مسیر بر دیپلماسی و همکاری و اعتمادسازی استوار است زیرا طرفداران این دیدگاه باور دارند هوش مصنوعی یک چالش جهانی است و راهحل آن نیز تنها میتواند جهانی باشد.
چهرههایی مانند ویتالیک بوترین که بنیانگذار اتریوم است و آزمایشگاههای پیشرویی همچون آنتروپیک از جمله هواداران این نگاه هستند. آنها معتقدند رقابت برای ساخت هوش مصنوعی قدرتمندتر شبیه به یک مسابقه به سوی تباهی است. پیشنهاد آنها این است که بازیگران اصلی این حوزه از دولتها گرفته تا غولهای فناوری با یکدیگر همکاری کنند. هدف اصلی این همکاری اطمینان از این موضوع است که توسعه فناوریهای دفاعی همواره از فناوریهای تهاجمی جلوتر باشد. این ایده محور اصلی راهبرد یاد شده است و شتابدهی تدافعی نامیده میشود.
در چنین وضعیتی تمرکز جهانی به جای تلاش برای ساخت یک هوش مصنوعی ابرقدرت به سمت ایجاد مجموعهای از سیستمهای ایمن تغییر میکند. این سیستمها با اهداف بشری همراستا هستند و میتوانند در کنار یکدیگر به عنوان یک سازوکار ایمنی جهانی عمل کنند. وظیفه آنها دفاع از زیرساختهای حیاتی در برابر حملات سایبری و شناسایی و خنثی کردن سلاحهای بیولوژیک ساخته شده با هوش مصنوعی است. این سیستمها حتی میتوانند با ارائه پیشبینیهای دقیق و جلوگیری از درگیریهای ژئوپلیتیک به انسان برای تصمیمگیریهای بهتر کمک کنند.
این مسیر در واقع روشی برای مدیریت تدریجی خطر محسوب میشود. امید طرفداران این طرح آن است که با برگزاری اجلاسهای بینالمللی و تدوین استانداردهای مشترک و شفاف سرعت پیشرفت را کنترل کنند. گسترش همکاری میان بخش دولتی و خصوصی نیز میتواند به ایجاد یک سپر دفاعی غیر متمرکز کمک کند.
مزیت بزرگ این رویکرد انعطافپذیری آن است و از تمرکز خطرناک قدرت در دست یک نهاد واحد جلوگیری میکند. در این مدل دیگر خبری از یک نقطه ضعف متمرکز نیست و اگر یک سیستم دچار خطا شود سیستمهای دیگر میتوانند آن را مهار کنند. چنین دیدگاهی گزینههای بیشتری را برای آینده باقی میگذارد.
با این حال کل این راهبرد به یک پیشفرض بزرگ و شکننده متکی است. آن پیشفرض امکان همکاری صادقانه میان رقبای سیاسی مانند آمریکا و چین است. منتقدان در اینجا پرسشی اساسی را مطرح میکنند. آنها میپرسند که در دنیای امروز و با این سطح از بیاعتمادی آیا میتوان انتظار داشت کشورها منافع راهبردی کوتاهمدت خود را فدای یک هدف مشترک و بلندمدت کنند؟ اگر یکی از طرفها تصمیم به تقلب بگیرد و مخفیانه برای رسیدن به برتری تلاش کند این رویکرد خوشبینانه دیگران را در موضع ضعف قرار خواهد داد. اینها پرسشهایی هستند که طرفداران مسیر همکاری جهانی باید پاسخی قانعکننده برای آنها داشته باشند.
مسیر دوم
اگر مسیر اول را رویای همکاری در دنیایی ایدهآل بدانیم مسیر دوم واکنشی واقعگرایانه است. این رویکرد برتری راهبردی نام دارد و بر پایه منطق واقعگرایی تهاجمی بنا شده است. طرفداران این دیدگاه از جمله تحلیلگران برجستهای مانند لئوپولد آشنبرنر و نهادهای محافظهکاری همچون بنیاد هریتیج صریحا اعلام میکنند که همکاری در این زمینه یک توهم خطرناک است.از نظر آنها هوش مصنوعی قدرتمندترین ابزار راهبردی در تاریخ بشر محسوب میشود. هر ملتی که زودتر به این فناوری دست یابد میتواند برای دههها یا حتی قرنها سرنوشت جهان را تعیین کند. بنابراین در چنین رقابتی تنها یک قانون وجود دارد و آن هم این است که برنده همه چیز را از آن خود میکند.
این استراتژی در واقع نسخه قرن بیست و یکمی پروژه منهتن است. طرح اصلی این است که یک کشور که معمولا آمریکا و متحدانش مدنظر هستند باید تمام منابع ملی خود را بسیج کند. آنها باید بهترین استعدادها را جذب کنند و سرمایهگذاریهای کلانی در زیرساختهای محاسباتی انجام دهند. همچنین با کنترل شدید یا دولتی کردن آزمایشگاههای پیشرو باید در یک مسابقه تمامعیار برای ساخت اولین هوش مصنوعی فوقپیشرفته و مطیع پیروز شوند.
هوش مصنوعی پس از تولد میتواندباعث شود که آن کشور از موقعیت برتر خود برای تحمیل ارادهاش بر جهان استفاده کند. این کار از طریق جلوگیری از دستیابی رقبای دشمن به تکنولوژی مشابه و خلع سلاح بازیگران سرکش انجام میشود تا در نهایت یک نظم جهانی باثبات تحت رهبری آن کشور شکل بگیرد.
این رویکرد پاسخی برای بزرگترین ضعف مسیر اول یعنی مشکل بازیگران نامعتمد است. در این مدل دیگر نیازی به اعتماد به رقیب نیست چرا که هدف اصلی شکست دادن اوست. این استراتژی همچنین در شرایطی که زمان کوتاه است و فرصتی برای دیپلماسیهای طولانی وجود ندارد جذابتر به نظر میرسد.
با این حال مسیر دوم قماری با ریسکهای بسیار زیاد است. نخست اینکه این رویکرد قطعا یک مسابقه خطرناک را با قدرتهای رقیب درست میکند و جهان را به سمت یک جنگ سرد جدید و شاید یک جنگ گرم واقعی سوق میدهد. هر قدمی که یک طرف برای پیشی گرفتن برمیدارد طرف مقابل را به برداشتن قدمی بزرگتر و پرریسکتر ترغیب میکند. این چرخه تنش میتواند به فاجعه ختم شود.
دوم اینکه این استراتژی ریسک را در یک نقطه متمرکز میکند. اگر پروژه پیشرو در نهایت یک هوش مصنوعی ناسازگار یا کنترلناپذیر بسازد یا اگر این قدرت به دست افراد نادرستی بیفتد هیچ نیروی بازدارندهای در جهان برای مقابله با آن وجود نخواهد داشت. این یک خطر مطلق است. نکته آخر اینکه فشار بیامان برای برنده شدن در این مسابقه میتواند به سادگی منجر به نادیده گرفتن ملاحظات ایمنی شود. در این صورت تیمی که قرار بود ناجی جهان باشد به سازنده عامل نابودی آن تبدیل خواهد شد.
مسیر سوم
در میان دو دیدگاه پیشین صدای سومی شنیده میشود که معتقد است هر دو مسیر قبلی به دلیل حرکت به سوی مقصدی نامعلوم خطرناک هستند. راهحل پیشنهادی این گروه توقف جهانی است. استدلال اصلی آنها این است که بشر در حال خلق فناوریای است که نه درک درستی از آن دارد و نه قادر به مهارش خواهد بود بنابراین پیشروی در این وضعیت غیرعقلانی است و باید ترمز اضطراری را کشید.
هدف این راهبرد ایجاد توافقی بینالمللی برای توقف یا کند کردن شدید توسعه هوش مصنوعی پس از رسیدن به یک سطح مشخص از توانایی است. این اقدام یک ممنوعیت دائمی نیست بلکه وقفهای حیاتی است تا دانشمندان فرصت یابند مشکل همراستاسازی این فناوری با اهداف انسانی را حل کنند و دولتها نیز قوانین نظارتی کارآمدی را تدوین نمایند. ابزار اصلی برای اعمال این محدودیت میتواند کنترل سختگیرانه بر تولید و توزیع تراشههای محاسباتی پیشرفته باشد.
این رویکرد اگرچه روی کاغذ ایمنترین گزینه به نظر میرسد اما اجرای آن در دنیای واقعی بسیار دشوار است. این طرح نیازمند سطحی از هماهنگی جهانی است که حتی در موضوعات سادهتر نیز دیده نشده است. منتقدان میپرسند چگونه میتوان قدرتهای بزرگ اقتصادی و نظامی را قانع کرد که از چنین مزیت راهبردی عظیمی چشمپوشی کنند؟ حتی با وجود توافق نیز خطر توسعه مخفیانه توسط کشورهای رقیب همچنان باقی میماند.
علاوه بر این توقف توسعه هزینههای سنگینی دارد. این کار به معنای محروم کردن بشریت از دستاوردهای بزرگی مانند درمان بیماریهای صعبالعلاج یا حل بحرانهای انرژی است. انتخاب این مسیر در واقع پذیرش این شرطبندی است که خطرات احتمالی و ناشناخته هوش مصنوعی از هزینههای قطعی توقف آن سنگینتر است.
کدام مسیر درست است؟
این سه دیدگاه بیش از آنکه برنامههایی سیاسی باشند روشهایی متفاوت برای مواجهه با عدم قطعیت هستند. تحلیلگران معتقدند انتخاب مسیر درست به برآیند دو عامل کلیدی بستگی دارد. نخست اینکه آیا کنترل هوش مصنوعی فوقهوشمند اساسا ممکن است؟ و دوم اینکه چقدر تا وقوع این تحول زمان داریم؟
ترکیب این دو متغیر نقشه راه را مشخص میکند. اگر زمان زیادی داشته باشیم و ایمنسازی هوش مصنوعی آسان باشد مسیر همکاری بهترین گزینه است زیرا فرصت کافی برای دیپلماسی و ایمنسازی وجود دارد. اما اگر زمان کوتاه باشد و همچنان امید به کنترل فناوری وجود داشته باشد رویکرد برتری راهبردی منطقیتر به نظر میرسد. در این حالت رقابت شدید است و یک قدرت مسوول باید سریعا کنترل اوضاع را به دست بگیرد تا جلوی سوءاستفاده دیگران را بگیرد.
در نهایت اگر با بدترین سناریو روبهرو باشیم یعنی زمان کم باشد و کنترل فناوری نیز غیرممکن یا بسیار دشوار باشد تنها راه عقلانی توقف جهانی است. در چنین شرایطی ادامه توسعه حکم مسابقهای انتحاری را دارد که هیچ برندهای نخواهد داشت.
چالش اصلی اینجاست که ما امروز پاسخ قطعی آن دو پرسش کلیدی را نمیدانیم و در فضایی پر از ابهام تصمیم میگیریم. نکته حیاتی این است که برخی مسیرها به ویژه رقابت تسلیحاتی تقریبا بیبازگشت هستند. ورود به این مسابقه پلهای اعتماد را ویران میکند و تغییر مسیر را غیرممکن میسازد. در مقابل رویکرد همکاری انعطافپذیری بیشتری دارد و به جهان اجازه میدهد تا در صورت روشنتر شدن وضعیت تغییر جهت دهد.
بنابراین راهحل نهایی انتخاب یک استراتژی خشک و ثابت نیست بلکه ایجاد توانایی برای حرکت میان این سه گزینه است. ما باید همزمان که برای همکاری تلاش میکنیم برای رقابت نیز آماده باشیم و گزینه توقف را هم به عنوان یک ترمز اضطراری همیشه در دسترس نگه داریم. آینده هوش مصنوعی مقصدی از پیش تعیینشده نیست بلکه مسیری است که باید همزمان با قدم برداشتن در این مه غلیظ ساخته شود.