بازتعریف زیرساخت‌های هوش مصنوعی

ایجاد زیربنایی تازه برای پردازش‌های هوش مصنوعی

زیرساخت ابری اوراکل یکی از نخستین پلتفرم‌هایی خواهد بود که شتاب‌دهنده‌های جدید Instinct MI۴۵۰ شرکت AMD را به‌کار می‌گیرد؛ تراشه‌هایی که قرار است در سال ۲۰۲۶ عرضه شوند. این نسل تازه از تراشه‌ها بر پایه سری MI۳۰۰ ساخته شده‌اند ــ تراشه‌هایی که هم‌اکنون در چندین منطقه ابری اوراکل مورد استفاده قرار گرفته‌اند ــ و وعده بهره‌وری بالاتر، تاخیر کمتر و مقیاس‌پذیری بیشتر را برای بارهای کاری پیشرفته هوش مصنوعی می‌دهند. آن‌گونه که اپل‌مگزین نوشته است، این همکاری میان دو شرکت موضوع تازه‌ای نیست؛ اوراکل سال‌هاست که یکی از مشتریان استراتژیک AMD محسوب می‌شود.

با این حال گسترش جدید، جسورانه‌ترین حرکت اوراکل در مسیر توسعه زیرساخت‌های تخصصی هوش مصنوعی است. اوراکل با سرمایه‌گذاری در هزاران سیستم مبتنی بر MI۴۵۰ قصد دارد به جایگزینی در سطح بالای بازار در برابر غول‌های ابری چون آمازون، گوگل و مایکروسافت تبدیل شود؛ شرکت‌هایی که بخش عمده توان هوش مصنوعی خود را بر پایه پردازنده‌های گرافیکی انویدیا بنا کرده‌اند.

نقش استراتژیک خانواده تراشه‌های Instinct

خانواده تراشه‌های Instinct شرکت AMD به‌تدریج به جایگزینی معتبر برای شتاب‌دهنده‌های H۱۰۰ و H۲۰۰ انویدیا تبدیل شده‌اند. تراشه‌های جدید MI۴۵۰ که بر پایه معماری پیشرفته ۳ نانومتری ساخته شده‌اند، قرار است جهش قابل‌توجهی در توان پردازش (Throughput) و پهنای باند حافظه ایجاد کنند و هم‌زمان، یکپارچگی عمیقی با پردازنده‌های EPYC و تراشه‌های شبکه Pensando شرکت AMD داشته باشند.

این سه‌گانه شامل GPU، CPU و پردازنده شبکه، هسته اصلی آن چیزی است که AMD از آن با عنوان پلتفرم هلیوس (Helios Platform) یاد می‌کند؛ طراحی در مقیاس رک (Rack-scale) که برای خوشه‌های فوق‌محاسباتی هوش مصنوعی بهینه‌سازی شده است.

در مراکز داده اوراکل این سامانه‌ها به‌صورت واحدهای یکپارچه محاسباتی فعالیت خواهند کرد و از طیفی از بارهای کاری، از ریزتنظیم مدل‌های چندوجهی گرفته تا اجرای برنامه‌های مولد هوش مصنوعی برای مشتریان سازمانی پشتیبانی می‌کنند.

درحالی‌که انویدیا همچنان با در اختیار داشتن حدود ۸۰ درصد از بازار شتاب‌دهنده‌های هوش مصنوعی سلطه خود را حفظ کرده است، AMD با تکیه بر اکوسیستم باز و مزیت‌های قیمتی خود در تلاش است تا شرکای ابری بیشتری را جذب کند که به دنبال تنوع‌بخشی در زنجیره تامین هستند.

استفاده اوراکل از تراشه‌های AMD نشانه بلوغ این استراتژی است؛ اقدامی که به مشتریان امکان می‌دهد از میان چند گزینه سخت‌افزاری انتخاب کنند و هم‌زمان وابستگی بازار به زنجیره تامین محدود و قیمت‌گذاری بالای انویدیا را کاهش دهند.

این اقدام پاسخی مستقیم به افزایش تقاضای شرکت‌ها برای توان پردازشی مقرون‌به‌صرفه جهت آموزش مدل‌های زبانی بزرگ و اجرای پردازش‌های فشرده در مقیاس وسیع است. به گفته اوراکل مشتریانی که از سخت‌افزار جدید AMD استفاده کنند، از نسبت بهتر عملکرد به هزینه و بهره‌وری انرژی بالاتر برخوردار خواهند شد؛ دو شاخصی که در فضای رقابتی ابررایانش هوش مصنوعی اهمیت روزافزونی یافته‌اند.

 حرکتی حساب‌ شده در رقابت تسلیحاتی هوش مصنوعی

کمبود جهانی پردازنده‌های گرافیکی (GPU) به یکی از گلوگاه‌های اصلی عصر هوش مصنوعی تبدیل شده است. سخت‌افزار انویدیا همچنان در تقاضای شدید قرار دارد و زمان انتظار برای سفارش‌های عمده به ماه‌ها می‌رسد. با ادغام شتاب‌دهنده‌های جدید AMD در سرویس ابری خود، اوراکل خود را به‌عنوان بازیگری کلیدی معرفی می‌کند که قادر است دسترسی فوری به محاسبات هوش مصنوعی در مقیاس وسیع را بدون وابستگی به زنجیره تامین انویدیا فراهم کند. این اقدام تنها صرفه‌جویی در هزینه نیست؛ بلکه یک پوشش استراتژیک است.

اوراکل می‌خواهد OCI را به مقصدی برای استارت‌آپ‌های هوش مصنوعی، توسعه‌دهندگان سازمانی و موسسات پژوهشی تبدیل کند که هم‌اکنون به دلیل محدودیت‌های قیمت یا تاخیر در اکوسیستم انویدیا با مشکل مواجه‌اند. با ارائه قیمت رقابتی و دسترسی بالا از طریق زیرساخت AMD اوراکل می‌تواند بارهای کاری‌ را جذب کند که در غیر این صورت ممکن بود به مایکروسافت آزور یا آمازون وب سرویس منتقل شوند.

این توافق همچنین اعتبار AMD را نزد مشتریان بزرگ مقیاس افزایش می‌دهد. این شرکت پیش‌تر با مایکروسافت و گوگل برای محاسبات مبتنی بر EPYC همکاری داشته است، اما تصمیم اوراکل برای سرمایه‌گذاری گسترده روی GPUهای AMD یکی از بزرگ‌ترین پیاده‌سازی‌های مستقل هوش مصنوعی این شرکت تاکنون به‌شمار می‌آید.

زمینه گسترده بازار و فشار رقابتی

حرکت اوراکل در زمانی رخ می‌دهد که غول‌های ابری در سراسر جهان در حال متنوع‌سازی تامین‌کنندگان سخت‌افزار هوش مصنوعی خود هستند. آمازون سرمایه‌گذاری سنگینی روی تراشه‌های داخلی Trainium و Inferentia انجام داده است، درحالی‌که گوگل به توسعه و گسترش واحدهای پردازش تنسور (TPU) خود ادامه می‌دهد. مایکروسافت نیز علاوه بر استفاده از سخت‌افزارهای انویدیا و AMD، مشغول توسعه تراشه‌های هوش مصنوعی Maia خود است. این روند تنوع‌بخشی هم ناشی از عوامل اقتصادی است و هم ضرورت بازار. گسترش سریع کاربردهای هوش مصنوعی باعث ایجاد تقاضای بی‌وقفه برای توان پردازشی شده است.

هزینه آموزش مدل‌های پیشرفته به‌طور تصاعدی افزایش یافته و ارائه‌دهندگان ابری را به جست‌وجوی راهکارهای کارآمدتر واداشته است. با انتخاب تراشه‌های آینده MI۴۵۰ شرکت AMD اوراکل خود را هم‌راستا با موج فزاینده استراتژی‌های چندفروشنده قرار می‌دهد که هدف آن کنترل هزینه‌ها و اطمینان از ثبات تامین است. این همکاری همچنین شهرت اوراکل را به‌عنوان ارائه‌دهنده زیرساخت منعطف و باز تقویت می‌کند؛ تصویری که با گذشته آن به‌عنوان یک شرکت نرم‌افزاری سنتی در تضاد است.

پیامدها برای اقتصاد هوش مصنوعی

تحلیلگران همکاری اوراکل و AMD را نشانه‌ای از ورود بازار محاسبات هوش مصنوعی به مرحله جدید رقابت می‌دانند. با افزایش تنوع تراشه‌ها، مشتریان نهایتا می‌توانند قدرت چانه‌زنی برای دریافت قیمت بهتر و دسترسی آسان‌تر به منابع GPU پیدا کنند.

علاوه بر این تعهد AMD به بهره‌وری انرژی می‌تواند به اوراکل در جذب مشتریان حساس به مسائل پایداری کمک کند. مراکز داده‌ای که بارهای کاری هوش مصنوعی را اجرا می‌کنند، مصرف برق بسیار بالایی دارند و هر دو شرکت به بهبود شاخص عملکرد به ازای هر وات (Performance-per-Watt) تراشه‌های MI۴۵۰ اشاره می‌کنند. ادغام امکانات اوراکل با انرژی تجدیدپذیر و فناوری‌های خنک‌کننده با آب نیز با اهداف ESG شرکت‌ها همسو است؛ اهدافی که بیش از پیش از سوی سرمایه‌گذاران و نهادهای نظارتی رصد می‌شوند.

این همکاری ممکن است نوآوری در پیاده‌سازی مدل‌ها را نیز سرعت بخشد. اوراکل قصد دارد خوشه‌های مجهز به تراشه AMD را با مجموعه خدمات هوش مصنوعی خود یکپارچه کند و به مشتریان اجازه دهد مدل‌های بزرگ را آموزش ریزتنظیم و مستقر کنند بدون نیاز به انتقال داده‌ها بین ارائه‌دهندگان مختلف. این رویکرد یکپارچه، مشابه آنچه مایکروسافت آزور با OpenAI Service انجام داده است، اما تحت معماری عمودی‌تر اوراکل اجرا می‌شود.

ریسک‌ها و گام‌های بعدی

با وجود خوش‌بینی‌ها چالش‌هایی همچنان باقی است AMD. باید تراشه‌های MI۴۵۰ را به‌موقع و در مقیاس بزرگ تحویل دهد؛ کاری بلندپروازانه در بازاری که با محدودیت‌های عرضه نیمه‌هادی مواجه است. هرگونه تاخیر می‌تواند برنامه زمان‌بندی عرضه اوراکل را تحت تاثیر قرار دهد.

در همین حال انویدیا نیز سکون ندارد. این شرکت قصد دارد نسل بعدیGPUهای خود با نام Blackwell Ultra را در سال ۲۰۲۶ عرضه کند که وعده افزایش عملکرد و بهره‌وری را می‌دهد. اینتل و چند استارت‌‌آپ سخت‌افزاری هوش مصنوعی نوظهور نیز به دنبال سهمی از بازار هستند و فشار رقابتی بر AMD و اوراکل را افزایش می‌دهند.

با این حال اگر اوراکل موفق شود پیاده‌سازی‌های گسترده AMD را تثبیت و برابری عملکرد آنها را اثبات کند، می‌تواند به ایجاد اکوسیستم متعادل‌تر کمک کند؛ اکوسیستمی که در آن مشتریان ابری بالاخره گزینه‌های معتبر و مقرون‌به‌صرفه‌ای در کنار سخت‌افزار انویدیا داشته باشند.

برای AMD این همکاری یک موفقیت برجسته در فهرست رو به رشد قراردادهای با غول‌های ابری است و عزم آن را برای ایفای نقش مرکزی در زیرساخت‌های نسل بعدی هوش مصنوعی مولد برجسته می‌کند.

برای اوراکل، این نه تنها یک دستاورد فناورانه، بلکه یک چرخش استراتژیک به سمت تبدیل شدن به پلتفرم AI تمام‌عیار است؛ پلتفرمی که توانایی پشتیبانی از همه چیز از تحلیل‌های سازمانی تا سیستم‌های خودران را دارد. در اقتصاد نوظهور هوش مصنوعی کنترل بر محاسبات، کنترل سرنوشت است. اوراکل و AMD شرط بسته‌اند که باز بودن، مقیاس و همکاری ــ نه انحصار ــ عصر بعدی زیرساخت هوش مصنوعی را شکل خواهد داد.