الأثنين _13 _أكتوبر _2025AH

تم اعتماد التشريع الذي ينظم استخدام أدوات المحادثة، أو روبوتات الدردشة، التي تستخدم الذكاء الاصطناعي، يوم الاثنين 13 أكتوبر/تشرين الأول، في ولاية كاليفورنيا، بعد سلسلة من حالات انتحار المراهقين الذين شكلوا علاقات حميمة باستخدام هذه الأدوات، وهو أمر غير مسبوق في الولايات المتحدة.

وعلى الرغم من الضغوط التي يمارسها البيت الأبيض، الذي يعارض تنظيم الذكاء الاصطناعي، أصدر الحاكم الديمقراطي، جافين نيوسوم، سلسلة من النصوص التي تتطلب، من بين أمور أخرى، التحقق من عمر المستخدمين، وعرض رسائل تحذيرية منتظمة وتوفير بروتوكولات لمنع الانتحار.

“لقد شهدنا بعض الأمثلة المروعة والمأساوية لشباب وقعوا ضحية للتكنولوجيا سيئة التنظيم، ولن نقف مكتوفي الأيدي بينما تعمل الشركات بلا حدود ودون مساءلة.”وقال في تصريح صحفي.

ويتعلق أحد النصوص الرئيسية، SB243، بتنظيم روبوتات الدردشة التي من المحتمل أن تلعب دورًا مصاحبًا أو مقربًا، مثل تلك التي طورتها منصات مثل Replika أو Character AI. وقد تم رفع دعوى قضائية ضد هذا الأخير من قبل والدي مراهق أمريكي يبلغ من العمر 14 عاما، يدعى سيويل، الذي انتحر عام 2024 بعد أن أقام علاقة رومانسية مع روبوت الدردشة المستوحى من المسلسل. لعبة العروش.

إقرأ أيضاً الإستبيان | المادة محفوظة لمشتركينا “إنه لا يحل محل معالجي النفسي، ولكنه يسمح لي بتصفية حقيبتي”: هؤلاء الشباب الذين يعتمدون على الذكاء الاصطناعي كمقربين ودعم عاطفي

“التصرف بمسؤولية”

“يمكننا أن نستمر في أن نكون روادًا في مجال الذكاء الاصطناعي (…) ولكن يجب علينا أن نتصرف بمسؤولية، وأن نحمي أطفالنا على طول الطريق”.، يواصل حاكم ولاية كاليفورنيا، حيث تم تأسيس اللاعبين الرئيسيين في تطوير نماذج الذكاء الاصطناعي، مثل OpenAI (ChatGPT)، أو Google (Gemini) أو xAI (Grok). “يمكن للتقنيات الناشئة مثل روبوتات الدردشة ووسائل التواصل الاجتماعي أن تلهم الناس وتعلمهم وتربطهم ببعضهم البعض، ولكن بدون ضمانات حقيقية، يمكنها أيضًا استغلال أطفالنا وتضليلهم وتعريضهم للخطر.”يضيف.

بالإضافة إلى التحقق من العمر، يشترط القانون على الشركات أن تعرض بانتظام – كل ثلاث ساعات للقاصرين – رسائل لتذكير المستخدم بأن محاوره هو آلة، وذلك لتوفير الكشف عن الأفكار الانتحارية ونقل إحصائيات حول الموضوع إلى السلطات.

“يتم تشجيع صناعة التكنولوجيا على جذب انتباه الشباب والاحتفاظ به على حساب علاقاتهم في العالم الحقيقي”“، جادل السيناتور عن ولاية كاليفورنيا ستيف باديلا، منشئ النص، خلال المناقشات.

في الولايات المتحدة، لا توجد قواعد فيدرالية للحد من المخاطر المرتبطة بالذكاء الاصطناعي، ويحاول البيت الأبيض منع الولايات من وضع قواعدها الخاصة.

إقرأ أيضاً: المادة محفوظة لمشتركينا من الاتحاد الأوروبي إلى المملكة المتحدة، مسارات متنافسة لتنظيم الذكاء الاصطناعي

العالم مع وكالة فرانس برس

إعادة استخدام هذا المحتوى
شاركها.
اترك تعليقاً

Exit mobile version