ابق على اطلاع مع التحديثات المجانية
ببساطة الاشتراك في الذكاء الاصطناعي Myft Digest – يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك.
الأكاذيب ليست أعظم عدو للحقيقة ، وفقًا للفيلسوف هاري فرانكفورت. هراء أسوأ.
كما أوضح في مقالته الكلاسيكية على الهراء (1986) ، يلعب كاذب وصيانة الحقيقة نفس اللعبة ، على الجانبين المقابل. يستجيب كل منهم للحقائق كما يفهمونها ويقبل أو يرفض سلطة الحقيقة. لكن هراء يتجاهل هذه المطالب تماما. “إنه لا يرفض سلطة الحقيقة ، كما يفعل الكذاب ، ويعارض نفسه. إنه لا يهتم بها على الإطلاق. بحكم هذا ، يعد الهراء عدوًا أكبر للحقيقة من الأكاذيب”. مثل هذا الشخص يريد إقناع الآخرين ، بغض النظر عن الحقائق.
للأسف ، توفي فرانكفورت في عام 2023 ، بعد بضعة أشهر فقط من إصدار Chatgpt. لكن قراءة مقالته في عصر الذكاء الاصطناعي التوليدي تثير الألفة الغريبة. في العديد من النواحي ، تصف مقال فرانكفورت بدقة إخراج نماذج اللغة الكبيرة التي تدعم الذكاء الاصطناعي. إنهم لا يهتمون بالحقيقة لأنهم ليس لديهم تصور لها. أنها تعمل عن طريق الارتباط الإحصائي وليس الملاحظة التجريبية.
وكتب كارل بيرجستروم وجيفين ويست: “أعظم قوتهم ، ولكن أيضًا أكبر خطرهم ، هي قدرتهم على أن تبدو موثوقة في أي موضوع تقريبًا بغض النظر عن الدقة الواقعية. وبعبارة أخرى ، فإن قوتهم العظمى هي قدرتهم الخارقة على الهراء”. يدير أساتذة جامعة واشنطن دورة عبر الإنترنت-أوراكل في العصر الحديث أو آلات الهراء؟ – التدقيق في هذه النماذج. قام آخرون بإعادة تسمية إخراج الآلات باعتباره فتيرًا.
واحدة من أفضل ميزات LLMs معروفة ومثيرة للقلق ، ولكنها مبدع في بعض الأحيان ، هي “هلوسة” الحقائق-أو ببساطة صنع الأشياء. يجادل بعض الباحثين بأن هذه ميزة متأصلة في النماذج الاحتمالية ، وليس خطأ يمكن إصلاحه. لكن شركات الذكاء الاصطناعى تحاول حل هذه المشكلة من خلال تحسين جودة البيانات ، وضبط نماذجها والبناء في أنظمة التحقق وتفحص الحقائق.
يبدو أن لديهم طريقة للذهاب إلى حد ما ، مع الأخذ في الاعتبار محاميًا للأنثروبور لمحكمة في كاليفورنيا هذا الشهر أن شركة المحاماة الخاصة بهم قد قدمت عن غير قصد اقتباسًا غير صحيح من قِبل Claude لشركة الذكاء الاصطناعى. كما يعلق chatbot من Google للمستخدمين: “يمكن أن ترتكب الجوزاء أخطاء ، بما في ذلك الأشخاص ، لذا تحقق من ذلك.” لم يمنع ذلك Google من هذا الأسبوع من طرح “وضع الذكاء الاصطناعي” لجميع خدماتها الرئيسية في الولايات المتحدة.
الطرق التي تحاول بها هذه الشركات تحسين نماذجها ، بما في ذلك التعلم التعزيز من ردود الفعل البشرية ، وتخاطر في حد ذاتها بإدخال التحيز والتشويه وأحكام القيمة غير المعلنة. كما أظهرت FT ، تصف AI chatbots من Openai و Anthropic و Google و Meta و Xai و Deepseek صفات الرؤساء التنفيذيين لشركاتهم وتلك المنافسين بشكل مختلف تمامًا. كما قام Elon Musk's Grok بترويج الميمات حول “الإبادة الجماعية البيضاء” في جنوب إفريقيا استجابةً لمطالبات غير ذات صلة تمامًا. قال Xai إنه تم إصلاح الخلل ، الذي ألقي باللوم فيه على “تعديل غير مصرح به”.
هذه النماذج تخلق فئة جديدة وأسوأ من الضرر المحتمل – أو “الكلام المهمل” ، وفقًا لساندرا واشتر ، برنت ميتلستاتت وكريس راسل ، في ورقة من معهد أوكسفورد للإنترنت. من وجهة نظرهم ، يمكن أن يسبب الكلام الإهمال ضررًا غير ملموس وطويل الأجل وتراكمي. إنه مثل “الهراء غير المرئي” الذي يجعل المجتمع غباء ، كما يقول لي.
على الأقل مع سياسي أو شخص مبيعات يمكننا أن نفهم دوافعه عادة. لكن ليس لدى chatbots أي نية ويتم تحسينها من أجل المعقولية والمشاركة ، وليس الصدق. سوف يخترع الحقائق دون أي غرض. يمكنهم تلوث قاعدة المعرفة للإنسانية بطرق لا يمكن فهمها.
السؤال المثير للاهتمام هو ما إذا كان يمكن تصميم نماذج الذكاء الاصطناعى للحصول على صدق أعلى. هل سيكون هناك طلب في السوق لهم؟ أو هل يجب إجبار المطورين النمطين على الالتزام بمعايير الحقيقة الأعلى ، كما ينطبق على المعلنين والمحامين والأطباء ، على سبيل المثال؟ يقترح Wachter أن تطوير نماذج أكثر صدقًا سيستغرق بعض الوقت والمال والموارد التي تم تصميم التكرارات الحالية لتوفيرها. وتقول: “الأمر يشبه الرغبة في أن تكون سيارة طائرة. يمكنك دفع سيارة من جرف ولكنها لن تتحدى الجاذبية”.
كل ما قيل ، يمكن أن تكون نماذج الذكاء الاصطناعى التوليدي مفيدة وقيمة. تم بناء العديد من الأعمال المربحة – والسير السياسي – على هراء. يستخدم بشكل مناسب ، يمكن نشر الذكاء الاصطناعي التوليدي لحالات استخدام الأعمال التي لا تعد ولا تحصى. ولكن من المهم ، والخطير ، أن نخطئ في هذه النماذج لآلات الحقيقة.