جميع شركات الحوسبة السحابية الكبرى تتجه نحو الاستحواذ على شركة أخرى - إليكم سبب أهمية ذلك
أدفانسد مايكرو ديفايسز AMD | 236.64 237.75 | +2.08% +0.47% Pre |
أمازون دوت كوم AMZN | 233.65 234.18 | +5.60% +0.23% Pre |
إيه آر إم القابضة ARM | 149.79 152.35 | +0.59% +1.71% Pre |
ألفابيت A GOOGL | 318.49 319.00 | +0.37% +0.16% Pre |
إنتل INTC | 61.72 62.19 | +4.70% +0.75% Pre |
أشارت شركة Counterpoint Research يوم الخميس إلى أن سوق البنية التحتية للذكاء الاصطناعي يشهد تحولاً هيكلياً حيث يبتعد أصحاب مراكز البيانات الضخمة بشكل متزايد عن شركة Intel Corp. (ناسداك: INTC ) وشركة أدفانسد مايكرو ديفايسز (ناسداك: AMD ) وحدات المعالجة المركزية القديمة x86 (CPUs) لصالح شركة Arm Holdings plc الخاصة (NASDAQ: ARM ) تصميمات تعتمد على معالجات ARM لتحسين التكلفة والكفاءة والتحكم.
محركات التوسع العملاقة تقود التحول من معالجات x86 إلى معالجات Arm
شركات الحوسبة السحابية الكبرى مثل شركة ألفابت .(ناسداك: GOOGL ) جوجل ، أمازون دوت كوم (NASDAQ: AMZN ) خدمات أمازون السحابية ، شركة مايكروسوفت. (NASDAQ: MSFT )، وشركة Meta Platforms Inc. (NASDAQ: META ) تقود عملية التحول من خلال إعادة تصميم مجموعات خوادم الذكاء الاصطناعي الخاصة بها حول وحدات المعالجة المركزية القائمة على Arm، وفقًا لـ Counterpoint .
تاريخياً، اعتمدت هذه الشركات على معالجات x86 من إنتل وإيه إم دي نظراً لتوافق البرامج والبنية التحتية القائمة. ومع ذلك، فقد أدى ظهور مسرعات الذكاء الاصطناعي المخصصة إلى زيادة الحاجة إلى بنى معمارية غير متجانسة، مما سرّع من اعتماد وحدات المعالجة المركزية القائمة على معمارية Arm والمبنية على أنوية Neoverse، وفقاً لما أشارت إليه الشركة.
يعكس هذا التحول استراتيجية أوسع: حيث يقوم مزودو خدمات الحوسبة السحابية العملاقة بتصميم رقائق السيليكون الداخلية لتقليل الاعتماد على الموردين الخارجيين، وتحسين هوامش الربح، وخفض تكلفة تشغيل أحمال عمل الذكاء الاصطناعي على نطاق واسع.
شركة Arm تكتسب مكانة بفضل كفاءتها وتقنية السيليكون المخصصة
تكتسب شركة Arm Holdings زخماً حيث أن بنيتها توفر أداءً أفضل بكثير لكل واط مقارنة بأنظمة x86 التقليدية، وهي ميزة حاسمة في مراكز البيانات ذات الطاقة المحدودة، وفقًا لشركة Counterpoint.
بدأت الشركات بالفعل في نشر وحدات المعالجة المركزية القائمة على معمارية Arm في البنية التحتية للذكاء الاصطناعي. تعمل جوجل على توسيع نطاق استخدام معالج Axion الخاص بها لأنظمة وحدة معالجة الموترات (TPU) من الجيل التالي، بينما توسع AWS استخدام معالجات Graviton الخاصة بها جنبًا إلى جنب مع رقائق Trainium. وأضافت مايكروسوفت أنها دمجت معالج Azure Cobalt Arm الخاص بها مع مسرعات Maia للذكاء الاصطناعي، مما أدى إلى دمج معمارية Arm في بنية الذكاء الاصطناعي الخاصة بها منذ البداية.
تُظهر عمليات النشر هذه أن Arm لم تعد تقتصر على أحمال العمل السحابية ذات الأغراض العامة، بل أصبحت محورية في تصميم خوادم الذكاء الاصطناعي.
البنية التحتية المخصصة للذكاء الاصطناعي تعيد تشكيل المشهد التنافسي
يتطور هذا التحول جيلاً بعد جيل، حيث تعمل شركات الحوسبة السحابية العملاقة على مواءمة تصميم وحدات المعالجة المركزية بشكل وثيق مع مسرعات الذكاء الاصطناعي الخاصة بها. وقد عززت شركة ميتا بلاتفورمز هذا التوجه باختيارها شركة آرم كشريك استراتيجي لبنية الجيل التالي من مسرع التدريب والاستدلال ميتا (MTIA)، وكونها أول عميل لمنصة وحدة المعالجة المركزية للذكاء الاصطناعي العام (AGI) من آرم، وفقًا لما ذكرته شركة كاونتربوينت.
من المتوقع أن يتسارع هذا التحول المنسق بدءًا من النصف الثاني من عام 2026، مدفوعًا بالانتشار الأوسع لوحدات المعالجة المركزية الداخلية من نوع Arm. وتشير التوقعات إلى أن وحدات المعالجة المركزية القائمة على معمارية Arm قد تشكل حوالي 90% من عمليات نشر وحدات المعالجة المركزية المضيفة في خوادم الدوائر المتكاملة الخاصة بتطبيقات الذكاء الاصطناعي (ASIC) المخصصة بحلول عام 2029، ارتفاعًا من حوالي 25% في عام 2025، وفقًا لما ذكرته الشركة.
مع توسع الشركات العملاقة في مجال تصنيع أشباه الموصلات، يمتد التأثير عبر سلسلة توريد أشباه الموصلات، مع تزايد الطلب على التصنيع المتقدم الذي يدعم كلاً من مسرعات الذكاء الاصطناعي ووحدات المعالجة المركزية القائمة على معالجات Arm.
