تقدم شركة Nvidia شريحة جديدة من الطراز الأول لعمل الذكاء الاصطناعي، وهي HGX H200. تعمل وحدة معالجة الرسومات الجديدة على ترقية الطلب الكبير H100 مع عرض نطاق ترددي أكبر للذاكرة بمقدار 1.4 مرة وسعة ذاكرة أكبر بمقدار 1.8 مرة، مما يحسن قدرته على التعامل مع أعمال الذكاء الاصطناعي المكثفة.
السؤال الكبير هو ما إذا كانت الشركات ستكون قادرة على وضع أيديها على الرقائق الجديدة أو ما إذا كان العرض سيكون مقيدًا مثل H100 – وليس لدى Nvidia إجابة واضحة لذلك. سيتم إصدار أول شرائح H200 في الربع الثاني من عام 2024، و يقول نفيديا إنها تعمل مع “مصنعي الأنظمة العالمية ومقدمي الخدمات السحابية” لإتاحتها.
يبدو أن H200 يشبه إلى حد كبير H100 خارج ذاكرته. لكن التغييرات التي طرأت على ذاكرتها تؤدي إلى ترقية ذات معنى. وحدة معالجة الرسومات الجديدة هي أول وحدة تستخدم مواصفات ذاكرة جديدة وأسرع تسمى HBM3e. وبذلك يصل عرض النطاق الترددي لذاكرة وحدة معالجة الرسومات إلى 4.8 تيرابايت في الثانية، ارتفاعًا من 3.35 تيرابايت في الثانية على H100، وإجمالي سعة الذاكرة إلى 141 جيجابايت من 80 جيجابايت لسابقتها.
“يعمل تكامل ذاكرة HBM الأسرع والأكثر شمولاً على تسريع الأداء عبر المهام التي تتطلب جهدًا حسابيًا بما في ذلك نماذج الذكاء الاصطناعي التوليدية و [high-performance computing] التطبيقات مع تحسين استخدام وحدة معالجة الرسومات وكفاءتها،” قال إيان باك، نائب رئيس Nvidia لمنتجات الحوسبة عالية الأداء، في عرض فيديو هذا الصباح.
تم تصميم H200 أيضًا ليكون متوافقًا مع نفس الأنظمة التي تدعم بالفعل H100s. تقول Nvidia إن موفري الخدمات السحابية لن يحتاجوا إلى إجراء أي تغييرات حيث يقومون بإضافة H200s إلى المزيج. ستكون الأذرع السحابية لكل من Amazon وGoogle وMicrosoft وOracle من بين أوائل الشركات التي تقدم وحدات معالجة الرسومات الجديدة في العام المقبل.
بمجرد إطلاقها، من المؤكد أن الرقائق الجديدة ستكون باهظة الثمن. لم تذكر Nvidia كم تكلفتها، ولكن سي ان بي سي التقارير من المقدر أن يتم بيع الجيل السابق من H100 بمبلغ يتراوح بين 25000 دولار إلى 40000 دولار لكل منها، مع وجود الآلاف منها مطلوبة للعمل على أعلى المستويات. الحافة لديه تواصلت مع Nvidia للحصول على مزيد من التفاصيل حول الأسعار ومدى توفر الرقائق الجديدة.
يأتي إعلان Nvidia في الوقت الذي لا تزال فيه شركات الذكاء الاصطناعي تبحث بشدة عن شرائح H100 الخاصة بها. يُنظر إلى شرائح Nvidia على أنها الخيار الأفضل لمعالجة الكميات الهائلة من البيانات اللازمة لتدريب وتشغيل أدوات الصور التوليدية ونماذج اللغات الكبيرة بكفاءة. الرقائق قيمة بما فيه الكفاية الشركات هي استخدامها كضمان للحصول على القروض. الذي لديه H100s هو موضوع القيل والقال في وادي السيليكون، والشركات الناشئة لديها تم العمل معا فقط لمشاركة أي إمكانية الوصول إليهم على الإطلاق.
يبدو أن العام المقبل هو الوقت المناسب أكثر لمشتري GPU. في أغسطس، ال الأوقات المالية ذكرت أن Nvidia كانت تخطط لزيادة إنتاجها من H100 ثلاث مرات في عام 2024. وكان الهدف هو إنتاج ما يصل إلى 2 مليون منها في العام المقبل، ارتفاعًا من حوالي 500000 في عام 2023. ولكن مع الذكاء الاصطناعي التوليدي المتفجر اليوم كما كان في بداية قد يكون الطلب أكبر خلال العام – وذلك قبل أن تقوم Nvidia بإدراج شريحة جديدة أكثر سخونة في هذا المزيج.