الأثنين _27 _أبريل _2026AH

احصل على ملخص المحرر مجانًا

اعترفت شركة OpenAI بأن أحدث نماذجها “زادت بشكل كبير” من خطر إساءة استخدام الذكاء الاصطناعي لإنشاء أسلحة بيولوجية.

أعلنت المجموعة التي يقع مقرها في سان فرانسيسكو عن نماذجها الجديدة، المعروفة باسم o1، يوم الخميس، حيث روجت لقدراتها الجديدة على التفكير وحل المشكلات الرياضية الصعبة والإجابة على أسئلة البحث العلمي. يُنظر إلى هذه التطورات على أنها اختراق حاسم في الجهود المبذولة لإنشاء ذكاء عام اصطناعي – آلات ذات إدراك على مستوى الإنسان.

قالت بطاقة نظام OpenAI، وهي أداة لشرح كيفية عمل الذكاء الاصطناعي، إن النماذج الجديدة تنطوي على “خطر متوسط” فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) – وهو أعلى خطر قدمته OpenAI على الإطلاق لنماذجها. وقالت الشركة إن هذا يعني أن التكنولوجيا “حسنت بشكل كبير” قدرة الخبراء على إنشاء أسلحة بيولوجية.

قال خبراء إن برمجيات الذكاء الاصطناعي ذات القدرات الأكثر تقدماً، مثل القدرة على إجراء التفكير خطوة بخطوة، تشكل خطراً متزايداً من إساءة استخدامها في أيدي الجهات السيئة.

وقال يوشوا بينجيو، أستاذ علوم الكمبيوتر في جامعة مونتريال وأحد أبرز علماء الذكاء الاصطناعي في العالم، إنه إذا أصبحت شركة OpenAI الآن تمثل “خطرًا متوسطًا” فيما يتعلق بالأسلحة الكيميائية والبيولوجية، فإن “هذا يعزز فقط أهمية وإلحاح” التشريعات مثل مشروع القانون الذي نوقش بشدة في كاليفورنيا لتنظيم القطاع.

إن الإجراء المعروف باسم SB 1047 يتطلب من صانعي النماذج الأكثر تكلفة اتخاذ خطوات لتقليل مخاطر استخدام نماذجهم لتطوير الأسلحة البيولوجية. ومع تقدم نماذج الذكاء الاصطناعي “الرائدة” نحو الذكاء الاصطناعي العام، فإن “المخاطر ستستمر في الزيادة إذا كانت الحواجز المناسبة مفقودة”، كما قال بينجيو. “إن تحسين قدرة الذكاء الاصطناعي على التفكير واستخدام هذه المهارة للخداع أمر خطير بشكل خاص”.

وتأتي هذه التحذيرات في الوقت الذي تتسابق فيه شركات التكنولوجيا، بما في ذلك جوجل وميتا وأنثروبيك، لبناء وتحسين أنظمة الذكاء الاصطناعي المتطورة، حيث تسعى إلى إنشاء برامج يمكن أن تعمل بمثابة “وكلاء” لمساعدة البشر في إكمال المهام وتوجيه حياتهم.

ويُنظر إلى وكلاء الذكاء الاصطناعي أيضًا على أنهم مصدر محتمل للأموال للشركات التي تكافح التكاليف الضخمة المطلوبة لتدريب وتشغيل نماذج جديدة.

وقالت ميرا موراتي، مديرة التكنولوجيا في OpenAI، لصحيفة فاينانشال تايمز إن الشركة كانت “حذرة” بشكل خاص في كيفية تقديم o1 للجمهور، بسبب قدراتها المتقدمة، على الرغم من أن المنتج سيكون متاحًا على نطاق واسع عبر المشتركين المدفوعين في ChatGPT وللمبرمجين عبر واجهة برمجة التطبيقات.

وأضافت أن النموذج تم اختباره من قبل ما يسمى بالفرق الحمراء – خبراء في مجالات علمية مختلفة حاولوا كسر النموذج – لدفع حدوده. وقالت موراتي إن النماذج الحالية حققت أداءً أفضل بكثير في مقاييس السلامة العامة مقارنة بالنماذج السابقة.

وقالت شركة OpenAI إن نموذج المعاينة “آمن للنشر بموجب (سياساتها الخاصة) وصنف على أنه” متوسط ​​المخاطر “على مقياسها الحذر، لأنه لا يسهل زيادة المخاطر بما يتجاوز ما هو ممكن بالفعل بالموارد الحالية”.

تقرير إضافي بقلم جورج هاموند في سان فرانسيسكو

فيديو: الذكاء الاصطناعي: نعمة أم نقمة على البشرية؟ | FT Tech
شاركها.
اترك تعليقاً

Exit mobile version