هل حقا تقوم فيسبوك بتدريب مشرفي المحتوى لحماية الرجال البيض وليس الأطفال السود؟
فيسبوك التي تصدرت مليارَي مستخدم في العالم يوم الثلاثاء، تعمل على درء النقاد الذين يقولون أن عملاق الشبكات الاجتماعية لا يفعل ما يكفي لضبط محتوى الهجوم والمضايقات على موقعه. ولكن الآن قد تكون هذه الجهود أعطت نتائج عكسية بعد تقرير جديد يدّعي إظهار المعايير المحرجة التي تستخدمها الشركة لاختيار المحتوى الذي تراقبه.
أكّد تقرير جديد يوم الأربعاء من موقع ProPublica، الذي استعرض الوثائق الداخلية لفيسبوك، أنه يسلط الضوء على ما يبدو أنها عملية معقّدة تحدّد من خلالها شركة وسائل الإعلام الاجتماعية المشاركات الهجومية التي تمت إزالتها، والحسابات التي تم توقيفها بسبب خطاب الكراهية. وتقول تقارير ProPublica أن المبادئ التوجيهية الداخلية التي يستخدمها فيسبوك لتدريب الرقابة على المحتوى تميّز بين مجموعات مثل الرجال البيض، الذين يقعون تحت ما يسمى "الفئة المحمية"، والأطفال السود، الذين ينتمون إلى "فئات فرعية"، التي تشمل مجموعات الناس الذين لا يحميهم فيسبوك من خطاب الكراهية على الانترنت.
ويبدو أن هناك استنتاج هنا مفاده أن فئتين محميتين تفوقان فئة واحدة فقط. إنه الحل الذي ربما يكون أكثر منطقية كخوارزمية مما هو عليه عند وضعه موضع التنفيذ مع أشخاص حقيقيين ومناصب هجومية فعلية.
ومع ذلك، حتى لو كان المنطق وراء سياسات الفيسبوك يصبح نوعا ما غير جدير بمزيد من التوضيح، فإن الشركة لا تزال دون شك ستتعامل مع رد الفعل العنيف لتقرير ProPublica.
في محاولة للدفاع عن جميع الأعراق والأجناس على قدم المساواة، في الواقع، غضت فيسبوك الطرف عن أولئك الذين يحتاجون إلى أكبر قدر من الحماية. بالنسبة لفيسبوك فإنه لا بأس، على سبيل المثال، مناداة عامل مهاجر مكسيكي لص أو سارق أو قول أنه كسول وقذر. ولكن ليس من المقبول أن نطلق عليه كلبا، لأن هذا الأخير هو الذي سيمنع المشاركة أو يضع عليها رقابة، على الرغم من أن التصنيفات السابقة أكثر فظاعة بكثير.
في أوائل شهر مايو، استأجرت فيسبوك 3000 مشرف إضافي للمحتوى (وبذلك يصل العدد الإجمالي إلى 7500)، وقالت الشركة أنها تحذف ما يقرب من 66000 مشاركة تحددها كخطاب يحض على الكراهية كل أسبوع كجزء من الجهود المكثفة لمكافحة التحرش والمحتوى العنيف عبر الإنترنت. للأسف لفيسبوك، فتداعيات تقرير " هي أحدث وصمة عار على تلك الجهود.
فيسبوك التي تصدرت مليارَي مستخدم في العالم يوم الثلاثاء، تعمل على درء النقاد الذين يقولون أن عملاق الشبكات الاجتماعية لا يفعل ما يكفي لضبط محتوى الهجوم والمضايقات على موقعه. ولكن الآن قد تكون هذه الجهود أعطت نتائج عكسية بعد تقرير جديد يدّعي إظهار المعايير المحرجة التي تستخدمها الشركة لاختيار المحتوى الذي تراقبه.
أكّد تقرير جديد يوم الأربعاء من موقع ProPublica، الذي استعرض الوثائق الداخلية لفيسبوك، أنه يسلط الضوء على ما يبدو أنها عملية معقّدة تحدّد من خلالها شركة وسائل الإعلام الاجتماعية المشاركات الهجومية التي تمت إزالتها، والحسابات التي تم توقيفها بسبب خطاب الكراهية. وتقول تقارير ProPublica أن المبادئ التوجيهية الداخلية التي يستخدمها فيسبوك لتدريب الرقابة على المحتوى تميّز بين مجموعات مثل الرجال البيض، الذين يقعون تحت ما يسمى "الفئة المحمية"، والأطفال السود، الذين ينتمون إلى "فئات فرعية"، التي تشمل مجموعات الناس الذين لا يحميهم فيسبوك من خطاب الكراهية على الانترنت.
ويبدو أن هناك استنتاج هنا مفاده أن فئتين محميتين تفوقان فئة واحدة فقط. إنه الحل الذي ربما يكون أكثر منطقية كخوارزمية مما هو عليه عند وضعه موضع التنفيذ مع أشخاص حقيقيين ومناصب هجومية فعلية.
ومع ذلك، حتى لو كان المنطق وراء سياسات الفيسبوك يصبح نوعا ما غير جدير بمزيد من التوضيح، فإن الشركة لا تزال دون شك ستتعامل مع رد الفعل العنيف لتقرير ProPublica.
في محاولة للدفاع عن جميع الأعراق والأجناس على قدم المساواة، في الواقع، غضت فيسبوك الطرف عن أولئك الذين يحتاجون إلى أكبر قدر من الحماية. بالنسبة لفيسبوك فإنه لا بأس، على سبيل المثال، مناداة عامل مهاجر مكسيكي لص أو سارق أو قول أنه كسول وقذر. ولكن ليس من المقبول أن نطلق عليه كلبا، لأن هذا الأخير هو الذي سيمنع المشاركة أو يضع عليها رقابة، على الرغم من أن التصنيفات السابقة أكثر فظاعة بكثير.
في أوائل شهر مايو، استأجرت فيسبوك 3000 مشرف إضافي للمحتوى (وبذلك يصل العدد الإجمالي إلى 7500)، وقالت الشركة أنها تحذف ما يقرب من 66000 مشاركة تحددها كخطاب يحض على الكراهية كل أسبوع كجزء من الجهود المكثفة لمكافحة التحرش والمحتوى العنيف عبر الإنترنت. للأسف لفيسبوك، فتداعيات تقرير " هي أحدث وصمة عار على تلك الجهود.
ليست هناك تعليقات:
إرسال تعليق