AWS وNVIDIA يوسعان نطاق التعاون لتطوير ابتكارات الذكاء الاصطناعي التوليدي
أمازون دوت كوم AMZN | 209.77 | -0.38% |
إنفيديا NVDA | 177.39 | +0.93% |
تقدم AWS مثيلات Amazon EC2 المستندة إلى وحدة معالجة الرسومات NVIDIA Grace Blackwell وNVIDIA DGX Cloud لتسريع أداء بناء الاستدلال وتشغيله على LLMs ذات معلمات متعددة تريليونات
يوفر التكامل بين نظام AWS Nitro System وتشفير Elastic Fabric Adaptor وخدمة AWS Key Management Service مع تشفير Blackwell للعملاء تحكمًا شاملاً في بيانات التدريب الخاصة بهم وأوزان النماذج لتوفير أمان أقوى لتطبيقات الذكاء الاصطناعي للعملاء على AWS
مشروع Ceiba - وهو كمبيوتر عملاق يعمل بالذكاء الاصطناعي تم تصميمه حصريًا على AWS مع DGX Cloud - ليحتوي على 20,736 GB200 Superchip قادرة على معالجة 414 exaflops للبحث والتطوير في مجال الذكاء الاصطناعي الخاص بشركة NVIDIA
يساعد تكامل Amazon SageMaker مع الخدمات المصغرة للاستدلال NVIDIA NIM العملاء على تحسين أداء السعر للنماذج الأساسية التي تعمل على وحدات معالجة الرسومات
يعمل التعاون بين AWS وNVIDIA على تسريع ابتكار الذكاء الاصطناعي عبر الرعاية الصحية وعلوم الحياة
GTC — أعلنت Amazon Web Services (AWS)، إحدى شركات Amazon.com (NASDAQ: AMZN )، وNVIDIA (NASDAQ: NVDA ) اليوم أن منصة NVIDIA Blackwell GPU الجديدة - التي كشفت عنها NVIDIA في GTC 2024 - قادمة إلى AWS. ستقدم AWS وحدات معالجة الرسوميات NVIDIA GB200 Grace Blackwell Superchip وB100 Tensor Core، مما يوسع التعاون الاستراتيجي طويل الأمد بين الشركتين لتقديم البنية التحتية والبرامج والخدمات الأكثر أمانًا وتقدمًا لمساعدة العملاء على إطلاق العنان لقدرات الذكاء الاصطناعي التوليدي الجديدة (AI).
يتميز هذا البيان الصحفي بالوسائط المتعددة. شاهد الإصدار الكامل هنا: https://www.businesswire.com/news/home/20240318794112/en/
تستمر NVIDIA وAWS في الجمع بين أفضل تقنياتهما، بما في ذلك أحدث أنظمة NVIDIA متعددة العقد التي تتميز بالجيل التالي من منصة NVIDIA Blackwell وبرامج الذكاء الاصطناعي، ونظام AWS's Nitro System وAWS Key Management Service (AWS KMS)، والأمان المتقدم، ومحول النسيج المرن. (EFA) شبكة على نطاق بيتابت، وAmazon Elastic Compute Cloud (Amazon EC2) UltraCluster فائقة النطاق. معًا، يقدمون البنية التحتية والأدوات التي تمكن العملاء من بناء وتشغيل الاستدلال في الوقت الفعلي على نماذج اللغات الكبيرة متعددة الترليونات (LLMs) بشكل أسرع وعلى نطاق واسع وبتكلفة أقل من الجيل السابق من وحدات معالجة الرسومات NVIDIA على Amazon EC2 .
قال آدم سيليبسكي، الرئيس التنفيذي لشركة AWS: "يعود التعاون العميق بين مؤسستينا إلى أكثر من 13 عامًا، عندما أطلقنا معًا أول مثيل سحابي لوحدة معالجة الرسومات في العالم على AWS، واليوم نقدم أكبر مجموعة من حلول وحدة معالجة الرسومات NVIDIA للعملاء". . "يمثل الجيل التالي من معالج Grace Blackwell من NVIDIA خطوة مهمة إلى الأمام في مجال حوسبة الذكاء الاصطناعي ووحدة معالجة الرسومات التوليدية. عند دمجه مع شبكة مهايئ النسيج المرنة القوية من AWS، والتجميع واسع النطاق من Amazon EC2 UltraClusters، وقدرات المحاكاة الافتراضية والأمن المتقدمة لنظام Nitro الفريد الخاص بنا، "نحن نجعل من الممكن للعملاء إنشاء وتشغيل نماذج لغات كبيرة متعددة المعلمات بشكل أسرع وعلى نطاق واسع وأكثر أمانًا من أي مكان آخر. معًا، نواصل الابتكار لجعل AWS أفضل مكان لتشغيل وحدات معالجة الرسومات NVIDIA في السحابة. "
وقال جنسن هوانغ، المؤسس والرئيس التنفيذي لشركة NVIDIA: "يقود الذكاء الاصطناعي الاختراقات بوتيرة غير مسبوقة، مما يؤدي إلى تطبيقات جديدة ونماذج أعمال وابتكارات عبر الصناعات". "يعمل تعاوننا مع AWS على تسريع قدرات الذكاء الاصطناعي التوليدية الجديدة وتزويد العملاء بقوة حوسبة غير مسبوقة لدفع حدود ما هو ممكن."
تعمل أحدث الابتكارات من AWS وNVIDIA على تسريع تدريب طلاب الماجستير في القانون المتطور الذين يمكنهم الوصول إلى ما يتجاوز 1 تريليون معلمة
ستقدم AWS منصة NVIDIA Blackwell، التي تتميز بـ GB200 NVL72، مع 72 وحدة معالجة رسومات Blackwell و36 وحدة معالجة مركزية Grace متصلة ببعضها بواسطة الجيل الخامس من NVIDIA NVLink™. عند الاتصال بشبكة Amazon القوية ( EFA )، وبدعم من المحاكاة الافتراضية المتقدمة ( AWS Nitro System ) والتجمع واسع النطاق ( Amazon EC2 UltraClusters )، يمكن للعملاء التوسع إلى آلاف الرقائق الفائقة GB200. تقدم NVIDIA Blackwell على AWS قفزة هائلة إلى الأمام في تسريع أعباء عمل الاستدلال لنماذج لغة المعلمات كثيفة الاستخدام للموارد والتي تبلغ عدة تريليونات.
استنادًا إلى نجاح مثيلات EC2 P5 التي تعمل بتقنية NVIDIA H100، والتي تتوفر للعملاء لفترات قصيرة من خلال Amazon EC2 سعة الكتل لتعلم الآلة ، تخطط AWS لتقديم مثيلات EC2 تتميز بوحدات معالجة الرسومات B100 الجديدة المنتشرة في EC2 UltraClusters لتسريع تدريب الذكاء الاصطناعي التوليدي والاستدلال على نطاق واسع. ستكون وحدات GB200 متاحة أيضًا على NVIDIA DGX™ Cloud ، وهي منصة ذكاء اصطناعي تم تصميمها بشكل مشترك على AWS، والتي تمنح مطوري المؤسسات وصولاً مخصصًا إلى البنية التحتية والبرامج اللازمة لبناء ونشر نماذج الذكاء الاصطناعي التوليدية المتقدمة. ستعمل مثيلات DGX Cloud المدعومة من Blackwell على AWS على تسريع عملية تطوير الذكاء الاصطناعي التوليدي المتطور وLLMs التي يمكن أن تصل إلى ما يتجاوز 1 تريليون معلمة.
ارفع مستوى أمان الذكاء الاصطناعي باستخدام AWS Nitro System وAWS KMS وEFA المشفر وتشفير Blackwell
مع تحرك العملاء بسرعة لتطبيق الذكاء الاصطناعي في مؤسساتهم، فإنهم بحاجة إلى معرفة أن بياناتهم يتم التعامل معها بشكل آمن خلال سير عمل التدريب الخاص بهم. يعد أمان أوزان النماذج - المعلمات التي يتعلمها النموذج أثناء التدريب والتي تعتبر بالغة الأهمية لقدرته على عمل تنبؤات - أمرًا بالغ الأهمية لحماية الملكية الفكرية للعملاء، ومنع التلاعب بالنماذج، والحفاظ على سلامة النموذج.
تتمتع البنية التحتية والخدمات الخاصة بـ AWS AI بالفعل بميزات أمان مطبقة لمنح العملاء التحكم في بياناتهم والتأكد من عدم مشاركتها مع موفري نماذج الطرف الثالث. يؤدي الجمع بين نظام AWS Nitro System وNVIDIA GB200 إلى تعزيز أمان الذكاء الاصطناعي من خلال منع الأفراد غير المصرح لهم من الوصول إلى أوزان النماذج. يسمح GB200 بالتشفير المادي لاتصالات NVLink بين وحدات معالجة الرسومات ويقوم بتشفير نقل البيانات من وحدة المعالجة المركزية Grace إلى وحدة معالجة الرسومات Blackwell، بينما يقوم EFA بتشفير البيانات عبر الخوادم للتدريب والاستدلال الموزع. سيستفيد GB200 أيضًا من نظام AWS Nitro، الذي يقوم بتفريغ عمليات الإدخال/الإخراج للوظائف من وحدة المعالجة المركزية/وحدة معالجة الرسومات المضيفة إلى أجهزة AWS المتخصصة لتقديم أداء أكثر اتساقًا، بينما يحمي الأمان المعزز رمز العميل وبياناته أثناء المعالجة - على كل من العميل الجانب وجانب AWS. تم التحقق من هذه الإمكانية - المتوفرة فقط على AWS - بشكل مستقل من قبل NCC Group ، وهي شركة رائدة في مجال الأمن السيبراني.
مع GB200 على Amazon EC2، ستمكن AWS العملاء من إنشاء بيئة تنفيذ موثوقة إلى جانب مثيل EC2 الخاص بهم، باستخدام AWS Nitro Enclaves و AWS KMS . يتيح Nitro Enclaves للعملاء تشفير بياناتهم التدريبية وأوزانهم باستخدام KMS، وذلك باستخدام المواد الأساسية الخاضعة لسيطرتهم. يمكن تحميل الجيب من داخل مثيل GB200 ويمكنه التواصل مباشرة مع GB200 Superchip. يتيح ذلك لـ KMS التواصل مباشرة مع المنطقة وتمرير المواد الرئيسية إليها مباشرةً بطريقة آمنة مشفرة. يمكن للمنطقة بعد ذلك تمرير هذه المادة إلى GB200، محمية من مثيل العميل وتمنع مشغلي AWS من الوصول إلى المفتاح أو فك تشفير بيانات التدريب أو أوزان النماذج، مما يمنح العملاء تحكمًا لا مثيل له في بياناتهم.
يستعين مشروع Ceiba بشركة Blackwell لدفع ابتكارات الذكاء الاصطناعي التوليدي المستقبلي من NVIDIA إلى AWS
تم الإعلان عن مشروع Ceiba في AWS re:Invent 2023، وهو عبارة عن تعاون بين NVIDIA وAWS لبناء أحد أسرع أجهزة الكمبيوتر العملاقة العاملة بالذكاء الاصطناعي في العالم. الكمبيوتر العملاق مستضاف حصريًا على AWS، وهو متاح للبحث والتطوير الخاص بشركة NVIDIA. تم بناء هذا الكمبيوتر العملاق الأول من نوعه المزود بـ 20,736 وحدة معالجة رسومات B200 باستخدام NVIDIA GB200 NVL72 الجديد، وهو نظام يتميز بالجيل الخامس من NVLink المتصل بـ 10,368 وحدة معالجة مركزية NVIDIA Grace. يتوسع النظام باستخدام شبكات EFA من الجيل الرابع، مما يوفر ما يصل إلى 800 جيجابت في الثانية لكل شريحة فائقة من إنتاجية الشبكات ذات زمن الوصول المنخفض وعرض النطاق الترددي العالي - قادرة على معالجة 414 إكسافلوب ضخمة من الذكاء الاصطناعي - وهي زيادة في الأداء بمقدار 6 أضعاف مقارنة بالخطط السابقة لبناء Ceiba على العمارة هوبر. ستستخدم فرق البحث والتطوير في NVIDIA Ceiba لتطوير الذكاء الاصطناعي لمجالات LLM، والرسومات (الصور/الفيديو/توليد ثلاثي الأبعاد) والمحاكاة، وعلم الأحياء الرقمي، والروبوتات، والسيارات ذاتية القيادة، والتنبؤ بالمناخ NVIDIA Earth-2، والمزيد لمساعدة NVIDIA في دفع المستقبل. ابتكار الذكاء الاصطناعي التوليدي.
يعمل التعاون بين AWS وNVIDIA على تسريع تطوير تطبيقات الذكاء الاصطناعي التوليدية وتحسين حالات الاستخدام في الرعاية الصحية وعلوم الحياة
تضافرت جهود AWS وNVIDIA لتقديم استدلال عالي الأداء ومنخفض التكلفة للذكاء الاصطناعي التوليدي من خلال تكامل Amazon SageMaker مع خدمات الاستدلال الدقيقة NVIDIA NIM ، المتوفرة مع NVIDIA AI Enterprise. يمكن للعملاء استخدام هذا المزيج لنشر FMs التي تم تجميعها مسبقًا وتحسينها للتشغيل على وحدات معالجة الرسومات NVIDIA إلى SageMaker، مما يقلل وقت طرح تطبيقات الذكاء الاصطناعي التوليدية في السوق.
تعاونت AWS وNVIDIA لتوسيع اكتشاف الأدوية بمساعدة الكمبيوتر باستخدام NVIDIA BioNeMo™ FMs الجديدة للكيمياء التوليدية والتنبؤ ببنية البروتين وفهم كيفية تفاعل جزيئات الدواء مع الأهداف. ستتوفر هذه النماذج الجديدة قريبًا على AWS HealthOmics، وهي خدمة مصممة خصيصًا لمساعدة مؤسسات الرعاية الصحية وعلوم الحياة على تخزين البيانات الجينومية والنسخية وغيرها من بيانات omics والاستعلام عنها وتحليلها.
تعمل فرق AWS HealthOmics وNVIDIA Healthcare أيضًا معًا لإطلاق خدمات مصغرة للذكاء الاصطناعي لتعزيز اكتشاف الأدوية والتكنولوجيا الطبية والصحة الرقمية، مما يوفر كتالوجًا جديدًا لنقاط النهاية السحابية المسرَّعة بواسطة وحدة معالجة الرسومات لبيانات البيولوجيا والكيمياء والتصوير والرعاية الصحية حتى تتمكن مؤسسات الرعاية الصحية من استيعابها. الاستفادة من أحدث التطورات في الذكاء الاصطناعي التوليدي على AWS.
