-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

 عندما نتحدث عن "الهلوسة" لنموذج ذكاء اصطناعي مثل GPT-4 ، فإننا نشير إلى ميل هذا النوع من التكنولوجيا لاختراع البيانات واعتبارها حقيقية. إنها مشكلة موجودة في الغالبية العظمى من النماذج من هذا النوع ، وعمليًا لا  تتخلص منها أي من النماذج الحالية  ولا حتى ChatGPT.

لحسن الحظ ، تدرك شركة OpenAI أن هذه الهلوسة تحدث ، ولديها خطة لإصلاح المشكلة.

لقد كانت مجموعة من الباحثين المتخصصين في الذكاء الاصطناعي داخل OpenAI هم الذين كشفوا عن خطط الشركة فيما يتعلق بمكافحة الهلوسة. يوضحون أنه "حتى النماذج الأكثر تقدمًا هي عرضة" لها ، لأنها تميل إلى "اختراع الحقائق في لحظات عدم اليقين".

يعترفون بأن الهلوسة تمثل مشكلة خاصة في العوالم التي تتطلب التفكير متعدد الخطوات ، لأن خطأ واحدًا يكفي لعرقلة حل أكبر.

وبهذا المعنى ، يقولون أيضًا أنه إذا كان هدف الشركة هو إنشاء ذكاء عام اصطناعي (وهو مفهوم يُعرف عمومًا باسم AGI) ، فمن الأهمية بمكان التخفيف من هذا النوع من الهلوسة.

لتحقيق ذلك ، بدأوا في تدريب نموذج يهدف إلى "مكافأة" كل خطوة صحيحة من عملية التفكير التي يتم تنفيذها ، بدلاً من مكافأة النتيجة النهائية عندما تكون صحيحة.

"يمكننا تدريب نماذج المكافآت لاكتشاف الهلوسة باستخدام مراقبة النتائج ، والتي توفر تغذية راجعة بناءً على نتيجة نهائية ، أو مراقبة العملية ، والتي توفر تغذية راجعة لكل خطوة فردية في سلسلة فكرية."

تم تدريب النموذج المذكور بمجموعة بيانات تتكون من أكثر من 800000 ملصق من صنع الإنسان ، وفي الاختبارات الأولى كان من الممكن الحصول على نتائج أعلى بكثير من تلك التي تم الحصول عليها باستخدام النماذج بناءً على الإشراف على النتائج النهائية.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2024
تصميم و تكويد : بيكود