چرا ایلان ماسک میگوید xAI به لطف انویدیا سریعترین هوش مصنوعی جهان است؟
ایلان ماسک از راهاندازی “Colossus 2” خبر داد – خوشهای با 550,000 تراشه NVIDIA GB200/GB300 که xAI را به سریعترین زیرساخت هوش مصنوعی جهان تبدیل میکند. این سیستم 30 برابر سریعتر از نسل قبل عمل کرده و آموزش مدلهایی مانند Grok را تسریع میبخشد، مزیتی کلیدی در رقابت هوش مصنوعی.
در ادعایی جسورانه در شبکه اجتماعی X، ایلان ماسک اعلام کرد که استارتاپ هوش مصنوعی او، xAI، اکنون «بیرقیب در سرعت» است و این مزیت را مدیون همکاری با شرکت NVIDIA میداند. این جهش چشمگیر سختافزاری نهتنها جاهطلبیهای xAI برای پیشتازی در رقابت هوش مصنوعی را تقویت میکند، بلکه نشانهای است از وابستگی عمیقتر این شرکت به برتری پردازندههای گرافیکی انویدیا.
ادعای ماسک صرفاً یک لافزنی نبود؛ مدیرعامل انویدیا، جنسن هوانگ، نیز از این گفته حمایت کرده و reportedly (گزارش شده) که از xAI به عنوان سریعترین زیرساخت هوش مصنوعی جهان نام برده است؛ سریعتر از هر آنچه تا کنون توسط OpenAI، گوگل DeepMind یا متا به کار گرفته شده است.
ماسک در پست خود نوشت:
«۲۳۰ هزار GPU، از جمله ۳۰ هزار تراشه GB200، در خوشهی ابررایانهای Colossus 1 برای آموزش مدل Grok @xAI عملیاتی هستند (استنتاج مدل توسط ارائهدهندگان ابری انجام میشود).
در Colossus 2، نخستین سری از ۵۵۰ هزار تراشه GB200 و GB300، برای آموزش، طی چند هفته آینده وارد مدار میشوند.»
Colossus 1: خط شروع
موتور پردازشی فعلی xAI با نام Colossus 1 هماکنون فعال است و از ۲۳۰٬۰۰۰ پردازنده گرافیکی (GPU) از جمله ۳۰٬۰۰۰ واحد GB200 تشکیل شده است. این خوشه منحصراً به آموزش مدلهای Grok اختصاص دارد، در حالی که پردازشهای استنتاجی (inference) توسط ارائهدهندگان خدمات ابری انجام میگیرد.
در دنیای هوش مصنوعی، این اعداد شگفتانگیز هستند. برای مقایسه، گفته میشود آموزش GPT-4 توسط OpenAI با چیزی بین ۱۰٬۰۰۰ تا ۲۵٬۰۰۰ تراشه A100 انجام شده است. بنابراین، Colossus 1 از بسیاری از خوشههای خصوصی فعلی بهطور قابلتوجهی جلوتر است — و این فقط آغاز راه است.
Colossus 2: غول آموزش
ماسک میگوید Colossus 2، نسخه قبلی خود را تحتالشعاع قرار خواهد داد. بیش از ۵۵۰٬۰۰۰ تراشه GB200 و GB300 در حال ورود تدریجی به شبکه هستند و نخستین سری آنها ظرف «چند هفته آینده» وارد مدار میشود. هرچند این عدد ممکن است اغراقآمیز بهنظر برسد، اما به لطف مشارکت زودهنگام با NVIDIA و ساخت زیرساخت عظیم، ظاهراً گلوگاههای زنجیره تأمین GPU در برابر ماسک تسلیم شدهاند.
ماجرا فقط به تعداد نیست. تراشههای GB200 و GB300 بخشی از پلتفرم جدید Blackwell شرکت NVIDIA هستند که در مقایسه با نسل قبلی Hopper (تراشههای H100 و H200) پیشرفتهای چشمگیری دارند. این تراشهها که بهطور خاص برای مدلهایی با هزاران میلیارد پارامتر و حجمهای پردازشی عظیم طراحی شدهاند، از فناوریهای پیشرفته بستهبندی، انباشتهسازی حافظه، و اتصالهای سریع استفاده میکنند تا امکان آموزش بسیار پرسرعت و کارآمد را فراهم سازند.
طبق اعلام انویدیا، معماری تراشه GB200 امکان ۳۰ برابر سرعت بیشتر در استنتاج و ۲۵ برابر مصرف انرژی کمتر به ازای هر توکن را نسبت به H100 فراهم میسازد. این بدان معناست که مدلهایی مانند Grok میتوانند با هزینه کمتر، در مقیاس بزرگتر و با سرعت بیشتر آموزش داده و توسعه یابند.
چرا سرعت در هوش مصنوعی مهم است؟
رقابت در عرصه هوش مصنوعی دیگر صرفاً بر سر هوشمندترین مدل نیست، بلکه بر سر آن است که چه کسی بتواند سریعتر آن را بسازد، بهینهسازی کند و عرضه نماید. این فرآیند نهتنها به مهندسان خبره نیاز دارد، بلکه مستلزم قدرت خام پردازشی بیامان است. از این منظر، Colossus 2 میتواند سلاح مخفی ماسک برای پیشی گرفتن از رقبایی چون OpenAI و Anthropic باشد.
با انتقال آموزش مدلها به زیرساخت داخلی در این مقیاس، xAI نهتنها هزینههای ابری را کاهش میدهد، بلکه استقلال استراتژیک بهدست میآورد. این استقلال به شرکت امکان میدهد تا مدلهایی مانند Grok 3، 4 و نسخههای بعدی را احتمالاً طی چند روز — بهجای چند ماه — بازآموزی و عرضه کند. وقتی ماسک از «سریعترین» بودن صحبت میکند، منظور او هم سرعت آموزش است و هم زمان عرضه به بازار. این مزیت سرعت با یکپارچهسازی لحظهای Grok با پلتفرم X، که یکی از بزرگترین گرافهای محتوای زنده جهان را دارد، تقویت میشود.
نقش کلیدی NVIDIA
هیچکدام از اینها بدون NVIDIA ممکن نبود. این تولیدکننده تراشه اکنون ستون فقرات اقتصاد هوش مصنوعی مولد به شمار میرود. از OpenAI تا Meta، تقریباً همه مدلهای پیشرو با سختافزارهای NVIDIA آموزش داده میشوند. با این حال، xAI ممکن است یکی از معدود شرکتهایی باشد که دسترسی زودهنگام و گستردهای به تراشههای Blackwell داشته است.
رابطه طولانیمدت بین ماسک و هوانگ نیز نقش مهمی دارد. استفاده زودهنگام تسلا از پردازندههای گرافیکی انویدیا برای سیستم Autopilot و پروژه Dojo احتمالاً زمینهساز دسترسی ترجیحی xAI به این تراشهها بوده است. نتیجه این همکاری، شرکتی کاملاً یکپارچه در زمینه هوش مصنوعی است که هم زیرساخت آموزش را در اختیار دارد و هم رابط نهایی محصول را — امری نادر در اکوسیستم پراکنده فعلی هوش مصنوعی.
ادعای ماسک مبنی بر اینکه xAI «بیرقیب در سرعت» است، شاید در نگاه اول به سبک همیشگی شخصیت نمایشگر او به نظر برسد؛ اما این بار، آمار و سیلیکون نیز با او همصدا هستند. با آغاز فاز اول Colossus 2 و ورود تراشههای GB200/GB300، xAI در مسیر پیشتازی نهفقط در توسعه مدل، بلکه در کنترل زیرساختهای سختافزاری تحولآفرین هوش مصنوعی گام برمیدارد.