الثلاثاء _5 _مايو _2026AH

أعلنت إدارة ترامب يوم الثلاثاء أنها توصلت إلى اتفاقيات جديدة مع Microsoft وGoogle DeepMind وXAI التابعة لإيلون ماسك لتوسيع التعاون مع شركات التكنولوجيا الكبرى في مجال البحث. الذكاء الاصطناعي (AI) والأمن.

سيعمل مركز معايير الذكاء الاصطناعي والابتكار (CAISI)، وهو جزء من المعهد الوطني للمعايير والتكنولوجيا التابع لوزارة التجارة، مع شركات الذكاء الاصطناعي على تقييمات ما قبل النشر بالإضافة إلى الأبحاث المستهدفة حول قدرات الذكاء الاصطناعي الحدودية وتقنياته. أمن الذكاء الاصطناعي.

وتعتمد الاتفاقيات الجديدة على الشراكات المعلن عنها مسبقًا بين CAISI والشركات، ودعم تبادل المعلومات، ودفع التحسينات الطوعية للمنتجات وضمان فهم واضح في الحكومة لقدرات الذكاء الاصطناعي وحالة المنافسة الدولية في الذكاء الاصطناعي.

وقال كريس فال، مدير CAISI: “إن علم القياس المستقل والصارم ضروري لفهم الذكاء الاصطناعي الحدودي وآثاره على الأمن القومي”. “إن هذا التعاون الموسع في الصناعة يساعدنا على توسيع نطاق عملنا بما يخدم المصلحة العامة في لحظة حرجة.”

كيف يعيد التعرض للذكاء الاصطناعي تشكيل الوظائف في المجالات الإبداعية

أعلنت إدارة ترامب عن اتفاقيات الذكاء الاصطناعي من خلال CAISI مع العديد من شركات التكنولوجيا الرائدة. (وين ماكنامي / غيتي إيماجز)

يقوم المطورون في كثير من الأحيان بتزويد CAISI بالنماذج التي خفضت أو أزالت الضمانات لتقييم القدرات والمخاطر المتعلقة بالأمن القومي.

المقيمون من جميع أنحاء الوكالات الحكومية قد يشارك في التقييمات ويقدم تعليقات منتظمة من خلال فريق عمل TRAINS، وهو عبارة عن مجموعة من الخبراء المشتركين بين الوكالات الذين يركزون على مخاوف الأمن القومي للذكاء الاصطناعي.

تدعم اتفاقيات CAISI الاختبار في البيئات السرية وتمت صياغتها بمرونة للاستجابة للتطورات المستمرة في الذكاء الاصطناعي.

يقول زوكربيرغ إن عمليات تسريح العمال المرتبطة بإنفاق الذكاء الاصطناعي، لن تستبعد التخفيضات المستقبلية

وقالت مايكروسوفت إن شراكة CAISI ضرورية لبناء الثقة في أنظمة الذكاء الاصطناعي المتقدمة. (سيسك مايمو / غيتي إيماجز)

مايكروسوفت وقالت ناتاشا كرامبتون، كبيرة مسؤولي الذكاء الاصطناعي في بيان، إن الاتفاقيات “ستعمل على تعزيز علم اختبار وتقييم الذكاء الاصطناعي، بما في ذلك من خلال العمل التعاوني لاختبار نماذج مايكروسوفت الحدودية، وتقييم الضمانات، والمساعدة في تخفيف مخاطر الأمن القومي والسلامة العامة واسعة النطاق”.

وقال كرامبتون إن “الاختبارات المستمرة والصارمة ضرورية لبناء الثقة في أنظمة الذكاء الاصطناعي المتقدمة”.

يقول إيلون ماسك إنه كان “أحمقًا” لتمويل OPENAI: تقرير

كما وقعت وحدة DeepMind التابعة لشركة Google أيضًا اتفاقيات جديدة مع CAISI. (مارلينا سلوس / بلومبرج عبر غيتي إيماجز)

“تساعدنا الاختبارات المعدة جيدًا على فهم ما إذا كانت أنظمتنا تعمل على النحو المنشود وتقدم الفوائد التي صممت لتوفيرها. وتساعدنا الاختبارات أيضًا على البقاء في صدارة المخاطر، مثل المخاطر الهجمات الإلكترونية المعتمدة على الذكاء الاصطناعي وأوضح كرامبتون أن “الاستخدامات الإجرامية الأخرى لأنظمة الذكاء الاصطناعي يمكن أن تظهر بمجرد نشر أنظمة الذكاء الاصطناعي المتقدمة في العالم”.

أعلنت Microsoft أيضًا عن اتفاقية مماثلة مع المملكة المتحدة معهد أمن الذكاء الاصطناعي (AISI) لإدارة اختبار الذكاء الاصطناعي وتقييمه.

احصل على FOX Business أثناء التنقل بالنقر هنا

شاركها.
اترك تعليقاً

Exit mobile version