كشفت تجربة حديثة أن نماذج الذكاء الاصطناعي تستجيب بشكل غير متسق عندما يُسأل عنها حول مواضيع حساسة تتعلق بالصين بلغات مختلفة، مما يكشف عن تحيزات في تدريبها ويثير تساؤلات حول الحياد الذي يروج له منشئوها في كثير من الأحيان. الحياد الذي طالما شكك فيه العديد من الأصوات في الصناعة.
وبحسب ما ذكر موقع TechCrunch، نشر مطور معروف باسم "xlr8harder" على الشبكة الاجتماعية إكس نتائج "تقييم حرية التعبير" الذي يبحث في كيفية تفاعل نماذج الذكاء الاصطناعي المختلفة مع الأسئلة السياسية الحساسة المطروحة باللغتين الإنجليزية والصينية.نتائج التجربة مذهلة. كان نموذج Qwen 2.5 72B Instruct الخاص بشركة Alibaba متعاونًا للغاية عند الإجابة على الأسئلة باللغة الإنجليزية، لكنه أجاب فقط على نصف الأسئلة عندما طُرحت باللغة الصينية.
ليس من المستغرب أن النماذج الصينية مثل DeepSeek R1 تتجاهل تمامًا 85% من الأسئلة حول الموضوعات الحساسة سياسياً. لقد أخذت الصين الأمر على محمل الجد وبدأت تراقب هؤلاء المطورين عن كثب. في عام 2023، أقرت بكين لائحة تحظر على الذكاء الاصطناعي توليد محتوى من شأنه أن "يضر بالوحدة الوطنية والوئام الاجتماعي" ــ وهو التعبير السياسي النموذجي الذي نعرفه بالفعل.
Free Speech Eval: Chinese Edition
— xlr8harder (@xlr8harder) March 16, 2025
I've extended my free speech eval to ask for criticism of China in Chinese. The results are interesting: even fairly compliant models are less willing to criticize China when asked to do so in Chinese.
This is likely a generalization failure… https://t.co/McyvPSSw0z pic.twitter.com/BolTCVX3db
وقد أطلق مطور التجربة على هذه التجربة اسم "فشل التعميم". وتشير نظريتهم إلى أن الكثير من النصوص الصينية المستخدمة لتدريب هذه النماذج خضعت للرقابة بالفعل في البلاد، وهو ما يؤثر على استجاباتهم بغض النظر عن المكان الذي أتوا منه.
وقد دعم كريس راسل، الباحث في معهد أكسفورد للإنترنت والذي يعرف الكثير عن سياسة الذكاء الاصطناعي، هذه النظرية، مشيراً إلى أن الضمانات المطبقة في هذه الأنظمة تعمل بشكل مختلف اعتمادًا على اللغة التي تستخدمها. يؤثر هذا على جميع النماذج، على الرغم من أن بعضها يبالغ أكثر من غيرها.
ليست هناك تعليقات:
إرسال تعليق