إرتكز فيسبوك على الإرهابيين والمتطرفين، وغيرهم من الأشخاص الذين يحرّضون على الكراهية والعنف. وبالنظر إلى كمية المستخدمين الهائلة في المنصة، وضمانا للمحتوى الكثير الذي يتم نشره على المنصة، فإن تتبّع واكتشاف البروباغندا (الدعايات) المتطرفة يمكن أن يكون صعباً جدّاً. وهذا هو السبب في أن فيسبوك تحاول ببطء ولكن بثبات، جلب التعلم الآلي للقضاء عليها.
لذلك فإن الذكاء الاصطناعي الذي تقوم فيسبوك بتدريبه، مُمَيّز لعدة أسباب. أولاً، سوف يستهدف المتطرفين الذين يقومون بنشر البروباغندا، ولكنه لن يرتكز على أي عقيدة أو دين معيّنَيْن، بل سيستهدف أي جماعة تقوم بالتأثير على آراء أو سلوك أكبر عدد من الأشخاص، أو بعثات غير صحية لمن حولهم.
يستخدم فيسبوك الحسابات التي تم إيقافها سابقا، لمعرفة ما يفعله هؤلاء الأشخاص، الشيء الذي يمكنه أن يُساعد الشركة من إعاقتهم. وبعبارة أخرى، يقوم بتدريب الذكاء الاصطناعي لتحديد المشاركات التي يجب إزالتها باستخدام بيانات من الحسابات التي تم إيقافها.
وتحدثت Monika Bickert مديرة إدارة السياسة العالمية في فيسبوك عن هذا الموضوع، ، قائلة:
"نحن نحاول حاليا تحليل النص الذي أزلناه بالفعل والذي يقوم بالإشادة أو دعم المنظمات الإرهابية مثل داعش والقاعدة حتى نتمكن من تطوير إشارات مستندة إلى النص بأن مثل هذا المحتوى قد يكون بروباغاندا إرهابية. هذا التحليل يذهب إلى خوارزمية في المراحل المبكرة من تعلم كيفية اكتشاف مشاركات مماثلة.".
سيكون لمحاولة فيسبوك الأخيرة لمكافحة التهديد باستخدام التعلم الآلي الكثير من العواقب بالنسبة للمستقبل. وإذا حكمنا على الحالة المتدهورة للأمور في جميع أرجاء العالم، فمن الضروري اتخاذ إجراءات ملموسة وبسرعة.
لذلك فإن الذكاء الاصطناعي الذي تقوم فيسبوك بتدريبه، مُمَيّز لعدة أسباب. أولاً، سوف يستهدف المتطرفين الذين يقومون بنشر البروباغندا، ولكنه لن يرتكز على أي عقيدة أو دين معيّنَيْن، بل سيستهدف أي جماعة تقوم بالتأثير على آراء أو سلوك أكبر عدد من الأشخاص، أو بعثات غير صحية لمن حولهم.
يستخدم فيسبوك الحسابات التي تم إيقافها سابقا، لمعرفة ما يفعله هؤلاء الأشخاص، الشيء الذي يمكنه أن يُساعد الشركة من إعاقتهم. وبعبارة أخرى، يقوم بتدريب الذكاء الاصطناعي لتحديد المشاركات التي يجب إزالتها باستخدام بيانات من الحسابات التي تم إيقافها.
وتحدثت Monika Bickert مديرة إدارة السياسة العالمية في فيسبوك عن هذا الموضوع، ، قائلة:
"نحن نحاول حاليا تحليل النص الذي أزلناه بالفعل والذي يقوم بالإشادة أو دعم المنظمات الإرهابية مثل داعش والقاعدة حتى نتمكن من تطوير إشارات مستندة إلى النص بأن مثل هذا المحتوى قد يكون بروباغاندا إرهابية. هذا التحليل يذهب إلى خوارزمية في المراحل المبكرة من تعلم كيفية اكتشاف مشاركات مماثلة.".
سيكون لمحاولة فيسبوك الأخيرة لمكافحة التهديد باستخدام التعلم الآلي الكثير من العواقب بالنسبة للمستقبل. وإذا حكمنا على الحالة المتدهورة للأمور في جميع أرجاء العالم، فمن الضروري اتخاذ إجراءات ملموسة وبسرعة.
ليست هناك تعليقات:
إرسال تعليق