وهي: NVIDIA Vera CPU وNVIDIA Rubin GPU وNVIDIA NVLink;6 Switch وNVIDIA ConnectX-9 SuperNIC وNVIDIA BlueField-4 DPU وNVIDIA Spectrum-6 Ethernet، بالإضافة إلى NVIDIA Groq 3 LPU الجديد.
تم تصميم الرقائق للعمل معًا كحاسوب عملاق واحد يعمل بالذكاء الاصطناعي، حيث تعمل الرقائق على تشغيل كل مرحلة من مراحل الذكاء الاصطناعي – بدءًا من التدريب المسبق على نطاق واسع، وما بعد التدريب، وتوسيع نطاق وقت الاختبار إلى الاستدلال الوكيل في الوقت الفعلي.
قال الرئيس التنفيذي جينسن هوانغ، “إن Vera Rubin هي قفزة أجيال – سبع شرائح متقدمة، وخمسة رفوف، وكمبيوتر عملاق واحد – تم تصميمها لتشغيل كل مرحلة من مراحل الذكاء الاصطناعي. لقد وصلت نقطة انعطاف الذكاء الاصطناعي مع انطلاق Vera Rubin لأكبر بنية تحتية في التاريخ.”
حامل نفيديا فيرا روبين NVL72
من خلال دمج 72 وحدة معالجة رسومات Rubin و36 وحدة معالجة مركزية Vera متصلة بواسطة NVLink 6، جنبًا إلى جنب مع ConnectX-9 SuperNICs وBlueField-4 DPUs، توفر Vera Rubin NVL72 كفاءة مذهلة – تدريب نماذج كبيرة من الخبراء بربع عدد وحدات معالجة الرسومات مقارنة بمنصة NVIDIA Blackwell وتحقيق ما يصل إلى 10 أضعاف إنتاجية الاستدلال لكل واط بعشر التكلفة لكل رمز مميز.
تم تصميم NVL72 لمصانع الذكاء الاصطناعي واسعة النطاق في جميع أنحاء العالم، وهو يتوسع بسلاسة مع NVIDIA Quantum-X800 InfiniBand وSpectrum-X Ethernet للحفاظ على الاستخدام العالي عبر مجموعات GPU الضخمة مع تقليل الوقت للتدريب والتكلفة الإجمالية للملكية.
حامل وحدة المعالجة المركزية NVIDIA Vera
يعتمد التعلم المعزز وأحمال عمل الذكاء الاصطناعي الوكيل على أعداد كبيرة من البيئات المستندة إلى وحدة المعالجة المركزية (CPU) لاختبار النتائج الناتجة عن النماذج التي تعمل على أنظمة GPU والتحقق من صحتها.
يوفر حامل وحدة المعالجة المركزية NVIDIA Vera بنية تحتية كثيفة ومبردة بالسوائل مبنية على NVIDIA MGX، حيث تدمج 256 وحدة معالجة مركزية Vera لتوفير سعة قابلة للتطوير وموفرة للطاقة مع أداء أحادي المستوى عالمي، وفتح الذكاء الاصطناعي الوكيل على نطاق واسع.
متكاملة مع شبكة Spectrum-X Ethernet، تحافظ رفوف وحدة المعالجة المركزية Vera على مزامنة بيئات وحدة المعالجة المركزية بإحكام عبر مصنع الذكاء الاصطناعي. جنبًا إلى جنب مع رفوف حوسبة وحدة معالجة الرسومات، فإنها توفر أساس وحدة المعالجة المركزية للذكاء الاصطناعي الوكيل على نطاق واسع والتعلم المعزز – مع تقديم Vera نتائج بكفاءة مضاعفة وأسرع بنسبة 50% من وحدات المعالجة المركزية التقليدية.
حامل نفيديا جروك 3 LPX
تم تصميم NVIDIA Groq 3 LPX لتلبية متطلبات زمن الاستجابة المنخفض والسياق الكبير للأنظمة الوكيلة، ويوحد LPX وVera Rubin الأداء الفائق لكلا المعالجين لتقديم إنتاجية استدلال أعلى بما يصل إلى 35 مرة لكل ميجاوات وما يصل إلى 10 أضعاف فرص الإيرادات لنماذج تريليون معلمة.
على نطاق واسع، يعمل أسطول من وحدات LPU كمعالج فردي عملاق لتسريع الاستدلال الحتمي السريع. يتميز حامل LPX الذي يحتوي على 256 معالج LPU بسعة 128 جيجابايت من ذاكرة الوصول العشوائي SRAM على الشريحة و640 تيرابايت/ثانية من عرض النطاق الترددي الموسع. تعمل وحدات معالجة الرسومات Rubin ووحدات LPU، التي تم نشرها مع Vera Rubin NVL72، على تعزيز فك التشفير عن طريق حساب كل طبقة من نموذج الذكاء الاصطناعي بشكل مشترك لكل رمز مميز للإخراج.
تم تحسين بنية LPX المصممة بشكل مشترك لنماذج تريليون معلمة وسياق المليون رمز مميز مع Vera Rubin لتحقيق أقصى قدر من الكفاءة عبر الطاقة والذاكرة والحوسبة. تفتح الإنتاجية الإضافية لكل واط وأداء الرمز المميز طبقة جديدة من الاستدلال فائق الجودة، تريليون معلمة، ومليون سياق، مما يزيد من فرص الإيرادات لجميع موفري الذكاء الاصطناعي. يتم تبريد LPX بالكامل بالسوائل ومبني على البنية التحتية MGX، ويندمج بسلاسة في مصانع Vera Rubin AI من الجيل التالي لتكون متاحة في النصف الثاني من هذا العام.
رف تخزين NVIDIA BlueField-4 STX
ال نفيديا بلوفيلد-4 إس تي إكس نظام الرفوف عبارة عن بنية أساسية للتخزين تعتمد على الذكاء الاصطناعي تعمل على توسيع ذاكرة وحدة معالجة الرسومات بسلاسة عبر POD. مدعومًا بـ BlueField-4 – الذي يجمع بين وحدة المعالجة المركزية NVIDIA Vera وNVIDIA ConnectX-9 SuperNIC – توفر STX طبقة مشتركة ذات نطاق ترددي عالٍ محسنة لتخزين واسترجاع بيانات ذاكرة التخزين المؤقت ذات القيمة الرئيسية الضخمة التي تم إنشاؤها بواسطة نماذج اللغات الكبيرة وسير عمل الذكاء الاصطناعي الوكيل.
تعمل مذكرات NVIDIA DOCA – إطار عمل DOCA الجديد الذي يعمل على زيادة سعة تخزين BlueField-4 – على تمكين معالجة تخزين ذاكرة التخزين المؤقت المخصصة لـ KV لتعزيز إنتاجية الاستدلال بما يصل إلى 5x مع تحسين كفاءة الطاقة بشكل ملحوظ مقارنة ببنيات التخزين للأغراض العامة. والنتيجة هي سياق على مستوى POD يوفر تفاعلات أسرع متعددة المنعطفات مع وكلاء الذكاء الاصطناعي، وخدمات الذكاء الاصطناعي الأكثر قابلية للتطوير، واستخدامًا أعلى للبنية التحتية بشكل عام.
قال تيموثي لاكروا، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا في Mistral AI: “سيعمل نظام تخزين الذاكرة على نطاق الرف NVIDIA BlueField-4 STX على تمكين تعزيز الأداء الحاسم اللازم لتوسيع نطاق جهود الذكاء الاصطناعي لدينا بشكل كبير”. “من خلال تقديم طبقة تخزين جديدة مصممة خصيصًا لذاكرة عملاء الذكاء الاصطناعي، فإن STX في وضع مثالي لضمان قدرة نماذجنا على الحفاظ على التماسك والسرعة عند التفكير عبر مجموعات البيانات الضخمة.”
حامل إيثرنت NVIDIA Spectrum-6 SPX
تم تصميم Spectrum-6 SPX Ethernet لتسريع حركة المرور بين الشرق والغرب عبر مصانع الذكاء الاصطناعي. يمكن تكوينه باستخدام محولات Spectrum-X Ethernet أو NVIDIA Quantum-X800 InfiniBand، وهو يوفر اتصالاً من حامل إلى حامل بزمن وصول منخفض وإنتاجية عالية على نطاق واسع.
تحقق تقنية Spectrum-X Ethernet Photonics المزودة بالبصريات المعبأة معًا كفاءة طاقة بصرية أكبر بما يصل إلى 5 أضعاف ومرونة أعلى بمقدار 10 أضعاف مقارنة بأجهزة الإرسال والاستقبال التقليدية القابلة للتوصيل.
أعلنت NVIDIA، إلى جانب أكثر من 200 شريك في البنية التحتية لمراكز البيانات، عن منصة NVIDIA DSX لـ Vera Rubin. يتضمن ذلك DSX Max-Q لتمكين توفير الطاقة الديناميكية عبر مصنع الذكاء الاصطناعي بأكمله، مما يؤدي إلى نشر بنية تحتية إضافية للذكاء الاصطناعي بنسبة 30% داخل مركز بيانات ثابت الطاقة. يتيح برنامج DSX Flex الجديد لمصانع الذكاء الاصطناعي أن تكون أصولًا مرنة للشبكة، مما يفتح المجال لـ 100 جيجاوات من طاقة الشبكة العالقة.
أصدرت NVIDIA اليوم أيضًا التصميم المرجعي لمصنع Vera Rubin DSX AI، مخطط للبنية التحتية للذكاء الاصطناعي المصممة بشكل مشترك والتي تعمل على زيادة الرموز المميزة لكل واط والإنتاج الإجمالي الجيد، وتحسين مرونة النظام وتسريع الوقت للإنتاج الأول.
من خلال الدمج الدقيق للحوسبة والشبكات والتخزين والطاقة والتبريد، تعمل البنية على زيادة كفاءة الطاقة وتضمن قدرة مصانع الذكاء الاصطناعي على التوسع بشكل موثوق في ظل أعباء العمل المستمرة وعالية الكثافة مع أقصى وقت تشغيل.
ستكون المنتجات المعتمدة على Vera Rubin متاحة لدى الشركاء بدءًا من النصف الثاني من هذا العام. ويشمل ذلك موفري الخدمات السحابية الرائدين Amazon Web Services وGoogle Cloud وMicrosoft Azure وOracle Cloud Infrastructure، إلى جانب NVIDIA Cloud Partners CoreWeave، كروزولامدا, أنا لن, حجم ومعا منظمة العفو الدولية.
الشركات المصنعة للنظام العالمي سيسكو، تقنيات ديل, إتش بي إيومن المتوقع أن تقوم Lenovo وSupermicro بتقديم مجموعة واسعة من الخوادم استنادًا إلى منتجات Vera Rubin، بالإضافة إلى إيفريس, آسوسو Foxconn و GIGABYTE و Inventec و Pegatron و Quanta Cloud Technology (QCT) و Wistron و ويوين.
تتطلع مختبرات الذكاء الاصطناعي ومطورو النماذج الرائدة، بما في ذلك Anthropic وMeta وMistral AI وOpenAI، إلى استخدام منصة NVIDIA Vera Rubin لتدريب نماذج أكبر وأكثر قدرة ولخدمة أنظمة طويلة السياق ومتعددة الوسائط بزمن انتقال وتكلفة أقل مقارنة بأجيال GPU السابقة.




