چرا ایلان ماسک می‌گوید xAI به لطف انویدیا سریع‌ترین هوش مصنوعی جهان است؟

ایلان ماسک از راه‌اندازی “Colossus 2” خبر داد – خوشه‌ای با 550,000 تراشه NVIDIA GB200/GB300 که xAI را به سریع‌ترین زیرساخت هوش مصنوعی جهان تبدیل می‌کند. این سیستم 30 برابر سریع‌تر از نسل قبل عمل کرده و آموزش مدل‌هایی مانند Grok را تسریع می‌بخشد، مزیتی کلیدی در رقابت هوش مصنوعی.

در ادعایی جسورانه در شبکه اجتماعی X، ایلان ماسک اعلام کرد که استارتاپ هوش مصنوعی او، xAI، اکنون «بی‌رقیب در سرعت» است و این مزیت را مدیون همکاری با شرکت NVIDIA می‌داند. این جهش چشمگیر سخت‌افزاری نه‌تنها جاه‌طلبی‌های xAI برای پیشتازی در رقابت هوش مصنوعی را تقویت می‌کند، بلکه نشانه‌ای است از وابستگی عمیق‌تر این شرکت به برتری پردازنده‌های گرافیکی انویدیا.


ادعای ماسک صرفاً یک لاف‌زنی نبود؛ مدیرعامل انویدیا، جنسن هوانگ، نیز از این گفته حمایت کرده و reportedly (گزارش شده) که از xAI به عنوان سریع‌ترین زیرساخت هوش مصنوعی جهان نام برده است؛ سریع‌تر از هر آنچه تا کنون توسط OpenAI، گوگل DeepMind یا متا به کار گرفته شده است.

ماسک در پست خود نوشت:

«۲۳۰ هزار GPU، از جمله ۳۰ هزار تراشه GB200، در خوشه‌ی ابررایانه‌ای Colossus 1 برای آموزش مدل Grok @xAI عملیاتی هستند (استنتاج مدل توسط ارائه‌دهندگان ابری انجام می‌شود).
در Colossus 2، نخستین سری از ۵۵۰ هزار تراشه GB200 و GB300، برای آموزش، طی چند هفته آینده وارد مدار می‌شوند.»


Colossus 1: خط شروع

موتور پردازشی فعلی xAI با نام Colossus 1 هم‌اکنون فعال است و از ۲۳۰٬۰۰۰ پردازنده گرافیکی (GPU) از جمله ۳۰٬۰۰۰ واحد GB200 تشکیل شده است. این خوشه منحصراً به آموزش مدل‌های Grok اختصاص دارد، در حالی که پردازش‌های استنتاجی (inference) توسط ارائه‌دهندگان خدمات ابری انجام می‌گیرد.

در دنیای هوش مصنوعی، این اعداد شگفت‌انگیز هستند. برای مقایسه، گفته می‌شود آموزش GPT-4 توسط OpenAI با چیزی بین ۱۰٬۰۰۰ تا ۲۵٬۰۰۰ تراشه A100 انجام شده است. بنابراین، Colossus 1 از بسیاری از خوشه‌های خصوصی فعلی به‌طور قابل‌توجهی جلوتر است — و این فقط آغاز راه است.


Colossus 2: غول آموزش

ماسک می‌گوید Colossus 2، نسخه قبلی خود را تحت‌الشعاع قرار خواهد داد. بیش از ۵۵۰٬۰۰۰ تراشه GB200 و GB300 در حال ورود تدریجی به شبکه هستند و نخستین سری آن‌ها ظرف «چند هفته آینده» وارد مدار می‌شود. هرچند این عدد ممکن است اغراق‌آمیز به‌نظر برسد، اما به لطف مشارکت زودهنگام با NVIDIA و ساخت زیرساخت عظیم، ظاهراً گلوگاه‌های زنجیره تأمین GPU در برابر ماسک تسلیم شده‌اند.

ماجرا فقط به تعداد نیست. تراشه‌های GB200 و GB300 بخشی از پلتفرم جدید Blackwell شرکت NVIDIA هستند که در مقایسه با نسل قبلی Hopper (تراشه‌های H100 و H200) پیشرفت‌های چشم‌گیری دارند. این تراشه‌ها که به‌طور خاص برای مدل‌هایی با هزاران میلیارد پارامتر و حجم‌های پردازشی عظیم طراحی شده‌اند، از فناوری‌های پیشرفته بسته‌بندی، انباشته‌سازی حافظه، و اتصال‌های سریع استفاده می‌کنند تا امکان آموزش بسیار پرسرعت و کارآمد را فراهم سازند.

طبق اعلام انویدیا، معماری تراشه GB200 امکان ۳۰ برابر سرعت بیشتر در استنتاج و ۲۵ برابر مصرف انرژی کمتر به ازای هر توکن را نسبت به H100 فراهم می‌سازد. این بدان معناست که مدل‌هایی مانند Grok می‌توانند با هزینه کمتر، در مقیاس بزرگ‌تر و با سرعت بیشتر آموزش داده و توسعه یابند.


چرا سرعت در هوش مصنوعی مهم است؟

رقابت در عرصه هوش مصنوعی دیگر صرفاً بر سر هوشمندترین مدل نیست، بلکه بر سر آن است که چه کسی بتواند سریع‌تر آن را بسازد، بهینه‌سازی کند و عرضه نماید. این فرآیند نه‌تنها به مهندسان خبره نیاز دارد، بلکه مستلزم قدرت خام پردازشی بی‌امان است. از این منظر، Colossus 2 می‌تواند سلاح مخفی ماسک برای پیشی گرفتن از رقبایی چون OpenAI و Anthropic باشد.

با انتقال آموزش مدل‌ها به زیرساخت داخلی در این مقیاس، xAI نه‌تنها هزینه‌های ابری را کاهش می‌دهد، بلکه استقلال استراتژیک به‌دست می‌آورد. این استقلال به شرکت امکان می‌دهد تا مدل‌هایی مانند Grok 3، 4 و نسخه‌های بعدی را احتمالاً طی چند روز — به‌جای چند ماه — بازآموزی و عرضه کند. وقتی ماسک از «سریع‌ترین» بودن صحبت می‌کند، منظور او هم سرعت آموزش است و هم زمان عرضه به بازار. این مزیت سرعت با یکپارچه‌سازی لحظه‌ای Grok با پلتفرم X، که یکی از بزرگ‌ترین گراف‌های محتوای زنده جهان را دارد، تقویت می‌شود.


نقش کلیدی NVIDIA

هیچ‌کدام از این‌ها بدون NVIDIA ممکن نبود. این تولیدکننده تراشه اکنون ستون فقرات اقتصاد هوش مصنوعی مولد به شمار می‌رود. از OpenAI تا Meta، تقریباً همه مدل‌های پیشرو با سخت‌افزارهای NVIDIA آموزش داده می‌شوند. با این حال، xAI ممکن است یکی از معدود شرکت‌هایی باشد که دسترسی زودهنگام و گسترده‌ای به تراشه‌های Blackwell داشته است.

رابطه طولانی‌مدت بین ماسک و هوانگ نیز نقش مهمی دارد. استفاده زودهنگام تسلا از پردازنده‌های گرافیکی انویدیا برای سیستم Autopilot و پروژه Dojo احتمالاً زمینه‌ساز دسترسی ترجیحی xAI به این تراشه‌ها بوده است. نتیجه این همکاری، شرکتی کاملاً یکپارچه در زمینه هوش مصنوعی است که هم زیرساخت آموزش را در اختیار دارد و هم رابط نهایی محصول را — امری نادر در اکوسیستم پراکنده فعلی هوش مصنوعی.


ادعای ماسک مبنی بر این‌که xAI «بی‌رقیب در سرعت» است، شاید در نگاه اول به سبک همیشگی شخصیت نمایشگر او به نظر برسد؛ اما این بار، آمار و سیلیکون نیز با او هم‌صدا هستند. با آغاز فاز اول Colossus 2 و ورود تراشه‌های GB200/GB300، xAI در مسیر پیشتازی نه‌فقط در توسعه مدل، بلکه در کنترل زیرساخت‌های سخت‌افزاری تحول‌آفرین هوش مصنوعی گام برمی‌دارد.

ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.