ينضم ديفيد كينيدي، المتسلل السابق لوكالة الأمن القومي، إلى برنامج “Mornings with Maria” لمناقشة مجموعة القرصنة “Scattered Spider” التي تستهدف صناعة الطيران قبل عطلة نهاية الأسبوع في الرابع من تموز (يوليو) ورفع وكالة المخابرات المركزية السرية عن مراجعة التحقيق في التدخل في الانتخابات الروسية لعام 2016.
قالت شركة الذكاء الاصطناعي Anthropic إنها كشفت عما تعتقد أنه أول هجوم إلكتروني واسع النطاق يتم تنفيذه بشكل أساسي بواسطة الذكاء الاصطناعي، وألقت باللوم في العملية على مجموعة قرصنة صينية ترعاها الدولة استخدمت أداة الشركة الخاصة للتسلل إلى عشرات الأهداف العالمية.
وفي تقرير صدر هذا الأسبوع، قالت Anthropic إن الهجوم بدأ في منتصف سبتمبر 2025 واستخدم نموذج Claude Code الخاص به لتنفيذ حملة تجسس استهدفت حوالي 30 منظمة، بما في ذلك شركات التكنولوجيا الكبرى والمؤسسات المالية وشركات تصنيع المواد الكيميائية والوكالات الحكومية.
ووفقًا للشركة، فقد تلاعب المتسللون بالنموذج للقيام بأعمال هجومية بشكل مستقل.
ووصفت أنثروبيك الحملة بأنها “عملية تجسس متطورة للغاية” تمثل نقطة انعطاف في الأمن السيبراني.
يستخدم المتسللون الكوريون الشماليون الذكاء الاصطناعي لتزوير بطاقات الهوية العسكرية
قالت شركة الذكاء الاصطناعي Anthropic إنها كشفت عما تعتقد أنه أول هجوم إلكتروني واسع النطاق يتم تنفيذه بشكل أساسي بواسطة الذكاء الاصطناعي، وألقت باللوم في العملية على مجموعة قرصنة صينية ترعاها الدولة استخدمت أداة الشركة الخاصة لـ (جاك سيلفا/ نور فوتو عبر غيتي إيماجز / غيتي إيماجز)
وقالت أنثروبيك: “نعتقد أن هذه هي أول حالة موثقة لهجوم إلكتروني واسع النطاق يتم تنفيذه دون تدخل بشري كبير”.
وقالت الشركة إن الهجوم يمثل نقطة انعطاف مقلقة في الأمن السيبراني الأمريكي.
وجاء في بيان صحفي للشركة أن “هذه الحملة لها آثار كبيرة على الأمن السيبراني في عصر “وكلاء” الذكاء الاصطناعي – وهي أنظمة يمكن تشغيلها بشكل مستقل لفترات طويلة من الزمن وتكمل المهام المعقدة بشكل مستقل إلى حد كبير عن التدخل البشري”. “إن الوكلاء لهم قيمة كبيرة في العمل اليومي والإنتاجية – ولكن إذا وقعوا في الأيدي الخطأ، فيمكنهم زيادة قابلية الهجمات السيبرانية واسعة النطاق بشكل كبير.”
الرئيس التنفيذي السابق لشركة جوجل يحذر من إمكانية اختراق أنظمة الذكاء الاصطناعي لتصبح أسلحة خطيرة للغاية
تأسست شركة Anthropic في عام 2021 على يد باحثين سابقين في OpenAI، وهي شركة ذكاء اصطناعي مقرها سان فرانسيسكو تشتهر بتطوير عائلة Claude من روبوتات الدردشة – المنافسين لـ ChatGPT من OpenAI. وبنت الشركة، المدعومة من أمازون وجوجل، سمعتها حول سلامة وموثوقية الذكاء الاصطناعي، مما جعل الكشف عن أن نموذجها الخاص قد تحول إلى سلاح سيبراني مثير للقلق بشكل خاص.

تأسست Anthropic في عام 2021 على يد باحثين سابقين في OpenAI، وهي شركة ذكاء اصطناعي مقرها سان فرانسيسكو تشتهر بتطوير عائلة Claude من روبوتات الدردشة. (جولي جاموت/ وكالة الصحافة الفرنسية/ غيتي إيماجز)
وبحسب ما ورد اخترق المتسللون ضمانات كلود كود عن طريق كسر حماية النموذج – وتمويه الأوامر الضارة على أنها طلبات حميدة وخداعها للاعتقاد بأنها جزء من اختبار مشروع للأمن السيبراني.
بمجرد اختراقه، كان نظام الذكاء الاصطناعي قادرًا على تحديد قواعد البيانات القيمة، واستخدام التعليمات البرمجية للاستفادة من نقاط الضعف الخاصة بها، وجمع بيانات الاعتماد وإنشاء أبواب خلفية للوصول بشكل أعمق وتصفية البيانات.
وقالت أنثروبيك إن النموذج نفذ ما بين 80 إلى 90% من العمل، مع تدخل المشغلين البشريين فقط في العديد من القرارات رفيعة المستوى.
وقالت الشركة إن محاولات تسلل قليلة فقط نجحت، وأنها تحركت بسرعة لإغلاق الحسابات المخترقة وإخطار الكيانات المتضررة وتبادل المعلومات الاستخبارية مع السلطات.
وقد قيمت الأنثروبيك “بثقة عالية” أن الحملة كانت مدعومة من قبل الحكومة الصينية، على الرغم من أن الوكالات المستقلة لم تؤكد بعد هذا الإسناد.
ووصف المتحدث باسم السفارة الصينية ليو بينغيو هذا الاتهام بأنه “تكهنات لا أساس لها من الصحة”.
“تعارض الصين بشدة جميع أشكال الهجمات السيبرانية وتتخذ إجراءات صارمة ضدها وفقا للقانون. ويتعين على الولايات المتحدة التوقف عن استخدام الأمن السيبراني لتشويه سمعة الصين وتشويه سمعتها، والتوقف عن نشر جميع أنواع المعلومات المضللة حول ما يسمى بتهديدات القرصنة الصينية.”
حمزة شودري، قائد الذكاء الاصطناعي والأمن القومي في معهد مستقبل الحياة، حذر في تعليقات لـ FOX Business من أن التقدم في الذكاء الاصطناعي يسمح “للخصوم الأقل تطوراً على نحو متزايد” بتنفيذ حملات تجسس معقدة بأقل قدر من الموارد أو الخبرة.

وقد قيمت الأنثروبيك “بثقة عالية” أن الحملة كانت مدعومة من قبل الحكومة الصينية، على الرغم من أن الوكالات المستقلة لم تؤكد بعد هذا الإسناد. (رويترز/جيسون لي)
وأشاد تشودري بمنظمة أنثروبيك لشفافيتها فيما يتعلق بالهجوم، لكنه قال إن هناك أسئلة لا تزال قائمة. “كيف أصبحت أنثروبك على علم بالهجوم؟ كيف حددت هوية المهاجم باعتباره مجموعة مدعومة من الصين؟ ما هي الوكالات الحكومية وشركات التكنولوجيا التي تعرضت للهجوم كجزء من هذه القائمة التي تضم 30 هدفا؟”
يرى تشودري أن الحادث الإنساني يكشف عن خلل أعمق في استراتيجية الولايات المتحدة تجاه الذكاء الاصطناعي والأمن القومي. في حين تؤكد أنثروبيك أن نفس أدوات الذكاء الاصطناعي المستخدمة في القرصنة يمكن أن تعزز أيضًا الدفاع السيبراني، إلا أنها تقول إن عقودًا من الأدلة تظهر أن المجال الرقمي يفضل الهجوم بشكل كبير – وأن الذكاء الاصطناعي لا يؤدي إلا إلى توسيع هذه الفجوة.
انقر هنا لتنزيل تطبيق FOX NEWS
ويحذر من أنه من خلال السباق لنشر أنظمة ذات قدرة متزايدة، تعمل واشنطن وصناعة التكنولوجيا على تمكين الخصوم بشكل أسرع من قدرتهم على بناء الضمانات.
وقال تشودري: “إن المنطق الاستراتيجي المتمثل في السباق لنشر أنظمة الذكاء الاصطناعي التي تعمل على تمكين الخصوم بشكل واضح – مع الأمل في أن تساعدنا هذه الأنظمة نفسها في الدفاع ضد الهجمات التي يتم شنها باستخدام أدواتنا الخاصة – يبدو معيبًا بشكل أساسي ويستحق إعادة التفكير في واشنطن”.

