ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
أوقفت شركة جوجل مؤقتًا أحدث نماذجها للذكاء الاصطناعي، جيميني، من إنتاج صور للأشخاص، مع اندلاع ردود فعل عنيفة على تصويرها لمختلف الأعراق والأجناس.
يقوم Gemini بإنشاء صور واقعية بناءً على أوصاف المستخدمين بطريقة مشابهة لـ ChatGPT الخاص بـ OpenAI. ومثل النماذج الأخرى، يتم تدريبها على عدم الاستجابة للمطالبات الخطيرة أو الكراهية، وعلى إدخال التنوع في مخرجاتها.
ومع ذلك، فقد اشتكى بعض المستخدمين من أنه قد بالغ في التصحيح نحو إنشاء صور للنساء والأشخاص الملونين، بحيث يتم عرضهم في السياقات التاريخية بشكل غير دقيق، على سبيل المثال في تصوير ملوك الفايكنج أو الجنود الألمان من الحرب العالمية الثانية.
وقالت جوجل: “إننا نعمل على تحسين هذه الأنواع من الصور على الفور”. “إن توليد صور الجوزاء يولد مجموعة واسعة من الناس. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.”
وأضافت أنها “ستوقف توليد الصور للأشخاص مؤقتًا وستعيد إصدار نسخة محسنة قريبًا”.
ووصف عملاق البحث نظام Gemini بأنه نظام الذكاء الاصطناعي “الأكبر والأكثر قدرة والأكثر عمومية”، مضيفًا أنه يتمتع بقدرات متطورة على التفكير والترميز.
يتبع النموذج إطلاق منتجات متطورة أخرى من قبل المنافسين بما في ذلك OpenAI وMeta والشركات الناشئة Anthropic وMistral.
السمة الأساسية لنماذج الذكاء الاصطناعي التوليدية هي ميلها إلى “الهلوسة”، أو اختلاق الأسماء والتواريخ والأرقام. يحدث هذا لأن البرنامج مصمم لاكتشاف الأنماط وتخمين الخيار التالي الأفضل في التسلسل.
وبسبب هذه الطبيعة التنبؤية، يمكن أن تكون الصور والنصوص الناتجة عن هذه النماذج غير دقيقة أو حتى سخيفة – وهي مشكلة تعمل شركات الذكاء الاصطناعي مثل OpenAI وجوجل على التقليل منها.
في دراسة حديثة أجرتها جامعة ستانفورد حول الاستجابات التي تم إنشاؤها بواسطة ثلاثة نماذج للذكاء الاصطناعي على 200 ألف استفسار قانوني، وجد الباحثون أن الأسئلة حول قضايا المحاكم الفيدرالية العشوائية أدت إلى أخطاء واسعة النطاق. قام برنامج ChatGPT-3.5 من OpenAI بتلفيق الاستجابات بنسبة 69 في المائة من الوقت، في حين حقق نموذج Llama 2 من Meta 88 في المائة.
ومن أجل الحد من الأخطاء والتحيزات في النماذج التوليدية، تستخدم الشركات عملية تسمى “الضبط الدقيق”. يعتمد هذا غالبًا على المراجعين البشريين الذين يبلغون عما إذا كانوا يعتبرون مطالبات واستجابات الذكاء الاصطناعي غير دقيقة أو مسيئة.
وقالت جوجل إن هدفها لم يكن تحديد التوزيع الديموغرافي المثالي للصور، بل تحقيق أقصى قدر من التنوع، وهو ما تقول إنه يؤدي إلى مخرجات ذات جودة أعلى لمجموعة واسعة من المطالبات.
ومع ذلك، أضاف أنه في بعض الأحيان قد يكون النموذج مفرطا في الحماس في أخذ التوجيهات بشأن التنوع في الاعتبار، مما يؤدي إلى الإفراط في التصحيح.
وجدت الأبحاث التي أجرتها جامعة واشنطن وجامعة كارنيجي ميلون وجامعة شيان جياوتونغ في أغسطس أن نماذج الذكاء الاصطناعي، بما في ذلك GPT-4 من OpenAI و LLaMA من Meta، لها تحيزات سياسية مختلفة اعتمادًا على كيفية تطويرها.
على سبيل المثال، وجدت الورقة البحثية أن منتجات OpenAI تميل إلى أن تكون ذات ميول يسارية، في حين أن منتجات LLaMA الخاصة بشركة Meta كانت أقرب إلى الموقف المحافظ.
قال روب ليذرن، الذي عمل على المنتجات المتعلقة بالخصوصية والأمن في Google حتى العام الماضي، على X: “لا ينبغي مطلقًا افتراض أن بعض الاستعلامات العامة تتعلق بجنس أو عرق معين، (مثل مهندس البرمجيات) ولقد كنت سعيدًا بذلك انظر هذا التغيير.”
وأضاف: “ولكن عندما تضيف (الجنس أو العرق) صراحةً لاستفسارات أكثر تحديدًا، فإن ذلك يبدو غير دقيق. وقد يؤدي ذلك في الواقع إلى الإضرار بالنوايا الإيجابية للحالة الأولى عندما ينزعج الناس.
