الأربعاء 12 رمضان 1446هـ

يغتنم منافسي Nvidia فرصة جديدة لكسر هيمنتها على رقائق الذكاء الاصطناعي بعد أن تسارعت شركة Deepseek الصينية في متطلبات الحوسبة في الذكاء الاصطناعي.

تستهلك Deepseek's R1 وغيرها من نماذج “التفكير” ، مثل Openai's O3 و Claude 3.7 ، موارد الحوسبة أكثر من أنظمة الذكاء الاصطناعى السابقة عندما يقوم المستخدم بطلبه ، وهي عملية تسمى “الاستدلال”.

وقد انقلب ذلك على تركيز الطلب على حوسبة الذكاء الاصطناعى ، والتي تتمحور حتى وقت قريب على التدريب أو إنشاء نموذج. من المتوقع أن يصبح الاستدلال جزءًا أكبر من احتياجات التكنولوجيا مع نمو الطلب بين الأفراد والشركات للتطبيقات التي تتجاوز مجموعات الدردشة الشهيرة اليوم ، مثل ChatGPT أو XAI's Grok.

ومن هنا ، يركز منافسو NVIDIA-الذين يتراوحون من شركات ناشئة من AI Chipmaker مثل Cerebras و Groq إلى معالجات مسرعات مخصصة من شركات التكنولوجيا الكبيرة بما في ذلك شركة Google و Amazon و Microsoft و Meta-جهودها على تعطيل شركة أشباه الموصلات الأكثر قيمة في العالم.

وقال أندرو فيلدمان ، الرئيس التنفيذي لشركة كيربراس: “التدريب يجعل الذكاء الاصطناعى ويستخدم الاستدلال الذكاء الاصطناعي”. “واستخدم الذكاء الاصطناعى قد مر بالسقف. . . الفرصة الآن لإنشاء شريحة أفضل بكثير للاستدلال أكثر من التدريب أكبر مما كان عليه سابقًا. “

تهيمن Nvidia على سوق مجموعات الحوسبة الضخمة مثل مرفق Xai's Elon Musk في Memphis أو Openai's Stargate Project مع SoftBank. لكن مستثمريها يبحثون عن الطمأنينة بأنه يمكن أن يستمر في تفجير منافسيه في مراكز بيانات أصغر بكثير قيد الإنشاء والتي ستركز على الاستدلال.

قال Vipul Ved Prakash ، الرئيس التنفيذي والمؤسس المشارك لـ Shoe AI ، وهو مزود سحابي يركز على الذكاء الاصطناعى الذي بلغت قيمته 3.3 مليار دولار في الشهر الماضي في جولة بقيادة جنرال كومالست ، إن الاستدلال كان “محورًا كبيرًا” لأعماله. وقال “أعتقد أن تشغيل الاستدلال على نطاق واسع سيكون أكبر عبء عمل على الإنترنت في مرحلة ما”.

قدّر المحللون في مورغان ستانلي أن أكثر من 75 في المائة من الطاقة والحسابية لمراكز البيانات في الولايات المتحدة سيكونون للاستدلال في السنوات القادمة ، على الرغم من أنهم حذروا من “عدم اليقين الكبير” من كيفية الانتقال بالضبط.

ومع ذلك ، فإن هذا يعني أن مئات المليارات من الاستثمارات من الدولارات يمكن أن تتدفق نحو مرافق الاستدلال في السنوات القليلة المقبلة ، إذا استمر استخدام الذكاء الاصطناعي في وتيرته الحالية.

يقدر المحللون في باركليز الإنفاق الرأسمالي للاستدلال في “Frontier AI” – في إشارة إلى أكبر الأنظمة وأكثرها تقدماً – سيتجاوز التدريب على مدار العامين المقبلين ، حيث يقفز من 122.6 مليار دولار في 2025 إلى 208.2 مليار دولار في عام 2026.

في حين أن باركليز يتوقع أن يكون لدى Nvidia “حصة السوق بنسبة 100 في المائة بشكل أساسي” في تدريب AI الحدودي ، إلا أنه سيخدم فقط 50 في المائة من الحوسبة “على المدى الطويل”. هذا يترك منافسي الشركة بحوالي 200 مليار دولار في إنفاق الرقائق للعب بحلول عام 2028.

وقال والتر جودوين ، مؤسس شركة Chip Start-up Fractile Practile Practile التي تتخذ من المملكة المتحدة مقراً لها: “هناك سحب كبير نحو أفضل وأسرع وأكثر كفاءة (رقائق)”. وأضاف أن مقدمي الحوسبة السحابية يتوقون إلى “شيء يقطع الاعتماد المفرط على NVIDIA.

أصر الرئيس التنفيذي لشركة Nvidia Jensen Huang على أن رقائق شركته قوية بنفس القدر من الاستدلال كما هي للتدريب ، حيث يعاني من فرصة عملاقة جديدة في السوق.

تم تصميم أحدث رقائق Blackwell في شركة Blackwell للتعامل مع الاستدلال بشكل أفضل ، والعديد من العملاء الأوائل لهذه المنتجات يستخدمونها للخدمة ، بدلاً من أنظمة AI. تعرض شعبية برامجها ، استنادًا إلى بنية CUDA الخاصة بها ، من بين مطوري الذكاء الاصطناعي أيضًا حاجزًا هائلاً أمام المنافسين.

وقال هوانغ في مكالمة أرباح الشهر الماضي: “إن مقدار حساب الاستدلال المطلوب هو بالفعل 100x أكثر مما كان عليه عندما بدأت نماذج اللغة الكبيرة. “وهذه مجرد البداية.”

انخفضت تكلفة خدمة الاستجابات من LLMS بسرعة على مدار العامين الماضيين ، مدفوعة بمجموعة من الرقائق الأكثر قوة وأنظمة الذكاء الاصطناعى الأكثر كفاءة والمنافسة المكثفة بين مطوري الذكاء الاصطناعي مثل Google و Openai و Anthropic.

وقال سام ألتمان ، الرئيس التنفيذي لشركة Openai ، في منشور مدونة الشهر الماضي: “إن تكلفة استخدام مستوى معين من الذكاء الاصطناعى تنخفض حوالي 10x كل 12 شهرًا ، وتؤدي الأسعار المنخفضة إلى استخدام أكثر بكثير”.

ساعدت طرازات V3 و R1 من Deepseek ، والتي أثارت ذعر سوق الأوراق المالية في يناير إلى حد كبير بسبب ما كان يُعتبر انخفاض تكاليف التدريب ، في خفض تكاليف الاستدلال بشكل أكبر ، وذلك بفضل الابتكارات المعمارية الصينية وفعالية الترميز.

في الوقت نفسه ، فتح نوع المعالجة المطلوبة بمهام الاستدلال – والتي يمكن أن تشمل متطلبات الذاكرة الأكبر بكثير للإجابة على استعلامات أطول وأكثر تعقيدًا – الباب أمام بدائل لوحدات معالجة الرسومات في Nvidia ، والتي تكمن قوته في التعامل مع مجلدات كبيرة من الحسابات المماثلة.

وقال فيلدمان في كيرباس ، الذي استخدمت رقائقها من قبل شركة AI French AI لتسريع أداء Chatbot ، Le Chat ، “إن أداء الاستدلال على أجهزتك هو وظيفة مدى السرعة التي يمكنك بها (نقل البيانات) من وإلى الذاكرة”.

وقال فيلدمان إن السرعة أمر حيوي لإشراك المستخدمين. وقال: “أحد الأشياء التي أظهرها Google (البحث) قبل 25 عامًا هو أنه حتى الدقيق (التأخير) يقلل من انتباه المشاهد”. “إننا ننتج إجابات لـ Le Chat في بعض الأحيان في الثانية بينما كان (Openai) O1 قد استغرق 40.”

تحافظ Nvidia على رقائقها بنفس القدر من الاستدلال كما هو الحال للتدريب ، مما يشير إلى تحسن 200 ضعف في أداء الاستدلال على مدار العامين الماضيين. وتقول إن مئات الملايين من المستخدمين يصلون إلى منتجات الذكاء الاصطناعى من خلال ملايين وحدات معالجة الرسومات اليوم.

وقال هوانغ في الشهر الماضي ، لكلا من بناء نماذج كبيرة أو تقديم تطبيقات الذكاء الاصطناعي بطرق جديدة: “إن بنيةنا هي قابلة للاستهلاك وسهلة الاستخدام بكل هذه الطرق المختلفة”.

وقال براكاش ، الذي تحسب شركته Nvidia كمستثمر ، يستخدم معًا نفس رقائق Nvidia للاستدلال والتدريب اليوم ، وهو “مفيد جدًا”.

على عكس وحدات معالجة الرسومات “الغرض العام” لـ NVIDIA ، تعمل مسرعات الاستدلال بشكل أفضل عندما يتم ضبطها على نوع معين من نموذج الذكاء الاصطناعي. في صناعة سريعة الحركة ، قد يثبت ذلك مشكلة بالنسبة لعمليات الناشئة التي تراهن على بنية الذكاء الاصطناعى الخاطئة.

وقال براكاش: “أعتقد أن الميزة الواحدة للحوسبة للأغراض العامة هي أنه مع تغير بنيات النماذج ، فإنك تتمتع بمزيد من المرونة”.

تقارير إضافية من قبل مايكل أكتون في سان فرانسيسكو

شاركها.
اترك تعليقاً

Exit mobile version