قالت شركة تصميم الرقائق والحوسبة الأمريكية Nvidia يوم الأربعاء إنها تتعاون مع Microsoft لبناء جهاز كمبيوتر “ضخم” للتعامل مع أعمال حوسبة الذكاء الاصطناعي المكثفة في السحابة.
وسيعمل حاسوب الذكاء الاصطناعي على سحابة Microsoft Azure، باستخدام عشرات الآلاف من وحدات معالجة الرسومات (GPUs)، وأقوى H100 من Nvidia وشرائح A100 الخاصة بها. رفضت Nvidia تحديد قيمة الصفقة، لكن مصادر الصناعة قالت إن كل شريحة A100 يبلغ سعرها حوالي 10000 دولار (حوالي 814700 روبية) إلى 12000 دولار (حوالي 977600 روبية)، كما أن H100 أغلى بكثير من الذي – التي.
وقال إيان باك، المدير العام لشركة Nvidia لـ Hyperscale وHPC، لرويترز: “نحن عند نقطة المنعطف حيث يأتي الذكاء الاصطناعي إلى المؤسسة ويصبح توفير تلك الخدمات التي يمكن للعملاء استخدامها لنشر الذكاء الاصطناعي في حالات الاستخدام التجاري أمرًا حقيقيًا”. “إننا نشهد موجة واسعة النطاق من اعتماد الذكاء الاصطناعي… والحاجة إلى تطبيق الذكاء الاصطناعي في حالات استخدام المؤسسات.”
وبالإضافة إلى بيع الرقائق لمايكروسوفت، قالت إنفيديا إنها ستتعاون مع عملاق البرمجيات والسحابة لتطوير نماذج الذكاء الاصطناعي. وقال باك إن إنفيديا ستكون أيضًا أحد عملاء الكمبيوتر السحابي الذي يعمل بالذكاء الاصطناعي من Microsoft وستقوم بتطوير تطبيقات الذكاء الاصطناعي عليه لتقديم الخدمات للعملاء.
وقد أدى النمو السريع لنماذج الذكاء الاصطناعي، مثل تلك المستخدمة في معالجة اللغة الطبيعية، إلى زيادة حادة في الطلب على بنية تحتية حاسوبية أسرع وأكثر قوة.
وقالت Nvidia إن Azure ستكون أول سحابة عامة تستخدم تقنية الشبكات Quantum-2 InfiniBand التي تبلغ سرعتها 400 جيجابت في الثانية. تعمل تقنية الشبكات هذه على ربط الخوادم بسرعة عالية. وهذا أمر مهم لأن أعمال الحوسبة الثقيلة التي تعتمد على الذكاء الاصطناعي تتطلب آلاف الرقائق للعمل معًا عبر عدة خوادم.
© طومسون رويترز 2022