سه‌راهی سرنوشت

 اما شاید بشر هرگز در چنین نقطه عطف شگفت‌انگیز و پرشتابی مانند امروز قرار نگرفته بود. در سال‌های اخیر، هوش مصنوعی از یک مفهوم در داستان‌های علمی‌تخیلی یا ابزاری تخصصی در آزمایشگاه‌ها، به واقعیتی روزمره تبدیل شده است. این فناوری اکنون بخشی جدایی‌ناپذیر از زندگی ‌میلیاردها انسان است. هوش مصنوعی با سرعتی هم هیجان‌انگیز و هم نگران‌کننده، در حال جابه‌جایی مرزهایی است که تا دیروز تصور می‌شد فقط در اختیار انسان قرار دارد؛ مرزهایی مانند خلاقیت، استدلال، زبان و حتی توانایی تولید علم.

ما اکنون در برابر یک دوگانگی بزرگ ایستاده‌ایم. از یک سو، امید به حل بزرگ‌ترین چالش‌های بشری بیش از هر زمان دیگری واقعی به نظر می‌رسد. چالش‌هایی مانند درمان بیماری‌هایی چون سرطان و آلزایمر، دستیابی به انرژی پاک و ریشه‌کن کردن فقر. از سوی دیگر، خطر یک تهدید وجودی و بی‌سابقه برای تمدن بشری نیز به‌طور جدی احساس می‌شود.

این دورنما، جهان را در وضعیتی از امید و اضطراب همزمان فرو برده است. دانشمندان و پیشگامان همین حوزه در نامه‌های سرگشاده خواستار توقف موقت توسعه این فناوری هستند. در همان حال، دولت‌ها و شرکت‌ها با سرعتی بی‌سابقه، صدها ‌میلیارد دلار برای پیشتازی در این رقابت سرمایه‌گذاری می‌کنند. این وضعیت نشانگر یک سردرگمی یا تناقض فکری نبوده چرا که از یک پرسش بنیادین و حیاتی سرچشمه می‌گیرد که هنوز پاسخی برای آن نیافته‌ایم. چگونه باید قدرتمندترین ساخته دست بشر را مهار کنیم؟

پاسخ به این پرسش، یک راهکار ساده نیست. بلکه مجموعه‌ای از رویکردهای متفاوت و گاه متضاد است که آینده ما را رقم خواهد زد. صاحب‌نظرانی که این مساله را به‌دقت بررسی کرده‌اند، معتقدند جهان بر سر یک سه‌راهی سرنوشت‌ساز ایستاده است. سه راهبرد اصلی پیش روی جهان قرار دارد که هر کدام فلسفه، امیدها و خطرات خاص خود را به همراه دارد. این سه راهبرد شامل توسعه همکارانه، برتری راهبردی و توقف جهانی است. انتخاب میان این گزینه‌ها تنها یک تصمیم سیاسی نیست، بلکه تعیین‌کننده سرنوشت آینده بشریت است.

مسیر اول

نخستین راهبرد که توسعه همکارانه نام دارد در نگاه اول منطقی‌ترین و آشناترین رویکرد به نظر می‌رسد. پایه این مسیر بر دیپلماسی و همکاری و اعتمادسازی استوار است زیرا طرفداران این دیدگاه باور دارند هوش مصنوعی یک چالش جهانی است و راه‌حل آن نیز تنها می‌تواند جهانی باشد.

چهره‌هایی مانند ویتالیک بوترین که بنیان‌گذار اتریوم است و آزمایشگاه‌های پیشرویی همچون آنتروپیک از جمله هواداران این نگاه هستند. آنها معتقدند رقابت برای ساخت هوش مصنوعی قدرتمندتر شبیه به یک مسابقه به سوی تباهی است. پیشنهاد آنها این است که بازیگران اصلی این حوزه از دولت‌ها گرفته تا غول‌های فناوری با یکدیگر همکاری کنند. هدف اصلی این همکاری اطمینان از این موضوع است که توسعه فناوری‌های دفاعی همواره از فناوری‌های تهاجمی جلوتر باشد. این ایده محور اصلی راهبرد یاد شده است و شتاب‌دهی تدافعی نامیده می‌شود.

در چنین وضعیتی تمرکز جهانی به جای تلاش برای ساخت یک هوش مصنوعی ابرقدرت به سمت ایجاد مجموعه‌ای از سیستم‌های ایمن تغییر می‌کند. این سیستم‌ها با اهداف بشری هم‌راستا هستند و می‌توانند در کنار یکدیگر به عنوان یک سازوکار ایمنی جهانی عمل کنند. وظیفه آنها دفاع از زیرساخت‌های حیاتی در برابر حملات سایبری و شناسایی و خنثی کردن سلاح‌های بیولوژیک ساخته‌ شده با هوش مصنوعی است. این سیستم‌ها حتی می‌توانند با ارائه پیش‌بینی‌های دقیق و جلوگیری از درگیری‌های ژئوپلیتیک به انسان برای تصمیم‌گیری‌های بهتر کمک کنند.

این مسیر در واقع روشی برای مدیریت تدریجی خطر محسوب می‌شود. امید طرفداران این طرح آن است که با برگزاری اجلاس‌های بین‌المللی و تدوین استانداردهای مشترک و شفاف سرعت پیشرفت را کنترل کنند. گسترش همکاری میان بخش دولتی و خصوصی نیز می‌تواند به ایجاد یک سپر دفاعی غیر متمرکز کمک کند.

مزیت بزرگ این رویکرد انعطاف‌پذیری آن است و از تمرکز خطرناک قدرت در دست یک نهاد واحد جلوگیری می‌کند. در این مدل دیگر خبری از یک نقطه ضعف متمرکز نیست و اگر یک سیستم دچار خطا شود سیستم‌های دیگر می‌توانند آن را مهار کنند. چنین دیدگاهی گزینه‌های بیشتری را برای آینده باقی می‌گذارد.

با این حال کل این راهبرد به یک پیش‌فرض بزرگ و شکننده متکی است. آن پیش‌فرض امکان همکاری صادقانه میان رقبای سیاسی مانند آمریکا و چین است. منتقدان در اینجا پرسشی اساسی را مطرح می‌کنند. آنها می‌پرسند که در دنیای امروز و با این سطح از بی‌اعتمادی آیا می‌توان انتظار داشت کشورها منافع راهبردی کوتاه‌مدت خود را فدای یک هدف مشترک و بلندمدت کنند؟ اگر یکی از طرف‌ها تصمیم به تقلب بگیرد و مخفیانه برای رسیدن به برتری تلاش کند این رویکرد خوش‌بینانه دیگران را در موضع ضعف قرار خواهد داد. اینها پرسش‌هایی هستند که طرفداران مسیر همکاری جهانی باید پاسخی قانع‌کننده برای آنها داشته باشند.

مسیر دوم

اگر مسیر اول را رویای همکاری در دنیایی ایده‌آل بدانیم مسیر دوم واکنشی واقع‌گرایانه است. این رویکرد برتری راهبردی نام دارد و بر پایه منطق واقع‌گرایی تهاجمی بنا شده است. طرفداران این دیدگاه از جمله تحلیلگران برجسته‌ای مانند لئوپولد آشن‌برنر و نهادهای محافظه‌کاری همچون بنیاد هریتیج صریحا اعلام می‌کنند که همکاری در این زمینه یک توهم خطرناک است.از نظر آنها هوش مصنوعی قدرتمندترین ابزار راهبردی در تاریخ بشر محسوب می‌شود. هر ملتی که زودتر به این فناوری دست یابد می‌تواند برای دهه‌ها یا حتی قرن‌ها سرنوشت جهان را تعیین کند. بنابراین در چنین رقابتی تنها یک قانون وجود دارد و آن هم این است که برنده همه چیز را از آن خود می‌کند.

این استراتژی در واقع نسخه قرن بیست و یکمی پروژه منهتن است. طرح اصلی این است که یک کشور که معمولا آمریکا و متحدانش مدنظر هستند باید تمام منابع ملی خود را بسیج کند. آنها باید بهترین استعدادها را جذب کنند و سرمایه‌گذاری‌های کلانی در زیرساخت‌های محاسباتی انجام دهند. همچنین با کنترل شدید یا دولتی کردن آزمایشگاه‌های پیشرو باید در یک مسابقه تمام‌عیار برای ساخت اولین هوش مصنوعی فوق‌پیشرفته و مطیع پیروز شوند.

هوش مصنوعی پس از تولد می‌تواندباعث شود که آن کشور از موقعیت برتر خود برای تحمیل اراده‌اش بر جهان استفاده کند. این کار از طریق جلوگیری از دستیابی رقبای دشمن به تکنولوژی مشابه و خلع سلاح بازیگران سرکش انجام می‌شود تا در نهایت یک نظم جهانی باثبات تحت رهبری آن کشور شکل بگیرد.

این رویکرد پاسخی برای بزرگ‌ترین ضعف مسیر اول یعنی مشکل بازیگران نامعتمد است. در این مدل دیگر نیازی به اعتماد به رقیب نیست چرا که هدف اصلی شکست دادن اوست. این استراتژی همچنین در شرایطی که زمان کوتاه است و فرصتی برای دیپلماسی‌های طولانی وجود ندارد جذاب‌تر به نظر می‌رسد.

با این حال مسیر دوم قماری با ریسک‌های بسیار زیاد است. نخست اینکه این رویکرد قطعا یک مسابقه خطرناک را با قدرت‌های رقیب درست می‌کند و جهان را به سمت یک جنگ سرد جدید و شاید یک جنگ گرم واقعی سوق می‌دهد. هر قدمی که یک طرف برای پیشی گرفتن برمی‌دارد طرف مقابل را به برداشتن قدمی بزرگ‌تر و پرریسک‌تر ترغیب می‌کند. این چرخه تنش می‌تواند به فاجعه ختم شود.

دوم اینکه این استراتژی ریسک را در یک نقطه متمرکز می‌کند. اگر پروژه پیشرو در نهایت یک هوش مصنوعی ناسازگار یا کنترل‌ناپذیر بسازد یا اگر این قدرت به دست افراد نادرستی بیفتد هیچ نیروی بازدارنده‌ای در جهان برای مقابله با آن وجود نخواهد داشت. این یک خطر مطلق است. نکته آخر اینکه فشار بی‌امان برای برنده شدن در این مسابقه می‌تواند به سادگی منجر به نادیده گرفتن ملاحظات ایمنی شود. در این صورت تیمی که قرار بود ناجی جهان باشد به سازنده عامل نابودی آن تبدیل خواهد شد.

مسیر سوم

در میان دو دیدگاه پیشین صدای سومی شنیده می‌شود که معتقد است هر دو مسیر قبلی به دلیل حرکت به سوی مقصدی نامعلوم خطرناک هستند. راه‌حل پیشنهادی این گروه توقف جهانی است. استدلال اصلی آنها این است که بشر در حال خلق فناوری‌ای است که نه درک درستی از آن دارد و نه قادر به مهارش خواهد بود بنابراین پیشروی در این وضعیت غیرعقلانی است و باید ترمز اضطراری را کشید.

هدف این راهبرد ایجاد توافقی بین‌المللی برای توقف یا کند کردن شدید توسعه هوش مصنوعی پس از رسیدن به یک سطح مشخص از توانایی است. این اقدام یک ممنوعیت دائمی نیست بلکه وقفه‌ای حیاتی است تا دانشمندان فرصت یابند مشکل هم‌راستاسازی این فناوری با اهداف انسانی را حل کنند و دولت‌ها نیز قوانین نظارتی کارآمدی را تدوین نمایند. ابزار اصلی برای اعمال این محدودیت می‌تواند کنترل سخت‌گیرانه بر تولید و توزیع تراشه‌های محاسباتی پیشرفته باشد.

این رویکرد اگرچه روی کاغذ ایمن‌ترین گزینه به نظر می‌رسد اما اجرای آن در دنیای واقعی بسیار دشوار است. این طرح نیازمند سطحی از هماهنگی جهانی است که حتی در موضوعات ساده‌تر نیز دیده نشده است. منتقدان می‌پرسند چگونه می‌توان قدرت‌های بزرگ اقتصادی و نظامی را قانع کرد که از چنین مزیت راهبردی عظیمی چشم‌پوشی کنند؟ حتی با وجود توافق نیز خطر توسعه مخفیانه توسط کشورهای رقیب همچنان باقی می‌ماند.

علاوه بر این توقف توسعه هزینه‌های سنگینی دارد. این کار به معنای محروم کردن بشریت از دستاوردهای بزرگی مانند درمان بیماری‌های صعب‌العلاج یا حل بحران‌های انرژی است. انتخاب این مسیر در واقع پذیرش این شرط‌بندی است که خطرات احتمالی و ناشناخته هوش مصنوعی از هزینه‌های قطعی توقف آن سنگین‌تر است.

کدام مسیر درست است؟

این سه دیدگاه بیش از آنکه برنامه‌هایی سیاسی باشند روش‌هایی متفاوت برای مواجهه با عدم قطعیت هستند. تحلیلگران معتقدند انتخاب مسیر درست به برآیند دو عامل کلیدی بستگی دارد. نخست اینکه آیا کنترل هوش مصنوعی فوق‌هوشمند اساسا ممکن است؟ و دوم اینکه چقدر تا وقوع این تحول زمان داریم؟

ترکیب این دو متغیر نقشه راه را مشخص می‌کند. اگر زمان زیادی داشته باشیم و ایمن‌سازی هوش مصنوعی آسان باشد مسیر همکاری بهترین گزینه است زیرا فرصت کافی برای دیپلماسی و ایمن‌سازی وجود دارد. اما اگر زمان کوتاه باشد و همچنان امید به کنترل فناوری وجود داشته باشد رویکرد برتری راهبردی منطقی‌تر به نظر می‌رسد. در این حالت رقابت شدید است و یک قدرت مسوول باید سریعا کنترل اوضاع را به دست بگیرد تا جلوی سوءاستفاده دیگران را بگیرد.

در نهایت اگر با بدترین سناریو روبه‌رو باشیم یعنی زمان کم باشد و کنترل فناوری نیز غیرممکن یا بسیار دشوار باشد تنها راه عقلانی توقف جهانی است. در چنین شرایطی ادامه توسعه حکم مسابقه‌ای انتحاری را دارد که هیچ برنده‌ای نخواهد داشت.

 چالش اصلی اینجاست که ما امروز پاسخ قطعی آن دو پرسش کلیدی را نمی‌دانیم و در فضایی پر از ابهام تصمیم می‌گیریم. نکته حیاتی این است که برخی مسیرها به ویژه رقابت تسلیحاتی تقریبا بی‌بازگشت هستند. ورود به این مسابقه پل‌های اعتماد را ویران می‌کند و تغییر مسیر را غیرممکن می‌سازد. در مقابل رویکرد همکاری انعطاف‌پذیری بیشتری دارد و به جهان اجازه می‌دهد تا در صورت روشن‌تر شدن وضعیت تغییر جهت دهد.

بنابراین راه‌حل نهایی انتخاب یک استراتژی خشک و ثابت نیست بلکه ایجاد توانایی برای حرکت میان این سه گزینه است. ما باید هم‌زمان که برای همکاری تلاش می‌کنیم برای رقابت نیز آماده باشیم و گزینه توقف را هم به عنوان یک ترمز اضطراری همیشه در دسترس نگه داریم. آینده هوش مصنوعی مقصدی از پیش تعیین‌شده نیست بلکه مسیری است که باید هم‌زمان با قدم برداشتن در این مه غلیظ ساخته شود.