قالت شركة Nvidia Corp المتخصصة في تصميم الرقائق والحاسوب الأمريكية إنها تتعاون مع شركة مايكروسوفت لبناء جهاز كمبيوتر "ضخم" للتعامل مع أعمال حوسبة الذكاء الاصطناعي المكثفة في السحابة.
وسيعمل كمبيوتر AI على سحابة Azure من مايكروسوفت، باستخدام عشرات الآلاف من وحدات معالجة الرسومات (GPU)، وأقوى H100 من Nvidia وشرائح A100، فيما رفضت Nvidia الإفصاح عن قيمة الصفقة، لكن مصادر الصناعة قالت إن كل شريحة A100 يتراوح سعرها بين 10000 و 12000 دولار، وأن H100 أغلى بكثير من ذلك.
وقال إيان باك، المدير العام لشركة Nvidia لـ Hyperscale وHPC لرويترز: "نحن في نقطة الانعطاف هذه حيث يأتي الذكاء الاصطناعي إلى المؤسسة ويصبح الحصول على تلك الخدمات التي يمكن للعملاء استخدامها لنشر الذكاء الاصطناعي لحالات استخدام الأعمال أمرًا حقيقيًا"، "إننا نشهد ارتفاعًا كبيرًا في تبني الذكاء الاصطناعي.. والحاجة إلى تطبيق الذكاء الاصطناعي لحالات استخدام المؤسسات."
وبالإضافة إلى بيع مايكروسوفت الرقائق، قالت Nvidia إنها ستشارك مع عملاق البرمجيات والسحابة لتطوير نماذج الذكاء الاصطناعي، وقال باك إن Nvidia ستكون أيضًا عميلًا للكمبيوتر السحابي AI من مايكروسوفت وستطور تطبيقات AI عليه لتقديم الخدمات للعملاء.
وأدى النمو السريع لنماذج الذكاء الاصطناعي مثل تلك المستخدمة في معالجة اللغة الطبيعية إلى زيادة الطلب بشكل حاد على بنية أساسية للحوسبة أسرع وأكثر قوة، وقالت Nvidia إن Azure ستكون أول سحابة عامة تستخدم تقنية الشبكة Quantum-2 InfiniBand التي تبلغ سرعتها 400 جيجابيت في الثانية.
و تربط تقنية الشبكات هذه الخوادم بسرعة عالية. هذا مهم لأن أعمال الحوسبة الثقيلة للذكاء الاصطناعي تتطلب آلاف الرقائق للعمل معًا عبر عدة خوادم.
تم أضافة تعليقك سوف يظهر بعد المراجعة