-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

لا أصدق إلا ما تراه عيني هذه الجملة أصبحت من الماضي بعد أن ظهرت تقنية التزييف العميق Deep fake ، التي ظهرت لأول مرة في عام 2017 عندما نشر مستخدم مجهول على منصة التواصل الاجتماعي Reddit خوارزمية اعتمدت على خوارزميات الذكاء الاصطناعي الحالية لإنشاء مقاطع فيديو مزيفة لكنها واقعية للغاية. لكنها بدأت تنتشر مؤخراً بشكلٍ مرعب وقام الكثيرون بإستخدامها بواسطة برامج وتطبيقات الكثير منها مجاني دون الإلتفات إلى المصائب التي قد تسببها تلك التقنية.

التزييف العميق ببساطة هي عملية دمج وتزير للوجوه بإحترافية شديدة بإستخدام الئكاء الإصطناعي مما يسمح لأي شخص أن يتحدث بصفة شخص آخر تماماً في فيديو مصور وبنفس الصوت وحركات الوجه تقريباً كان الشخص الآخر هو من يصور هذا الفيديو. فيمكن لتلك التقنية إنشاء صور ومقاطع فيديو بشكل واقعي لأشياء لم يفعلها هؤلاء الأشخاص وكلمات لم ينطقوها أبدًا لكنها تكون بأصواتهم تمامًا .

ولتتخيل تلك المصيبة تصور أن يتم تهديدك بفيديو لك في مشهد إباحي مركب بحرفية كأنه حقيقية . لا تستغرب فقد استُخدمت هذه التقنية على نطاق واسع لإنشاء مقاطع فيديو إباحية مزيفة باستخدام صور المشاهير كما تم إنشاء فيديوهات بها تصريحات مزيفة للسياسيين. مما قد يسبب ضرراً كبيراً للأشخاص أو للدول أو حتى للإقتصاد العالمي.

لم نلاحظ خطر هذه التقنية بعد لأنها لم تنتشر بالكثافة التي إنتشرت بها في دول الغرب. لكنها ستنتشر عاجلأ أم آجلاً مع إنتشار الميتافيرس الذي يعتمد على التزييف العميق. لذلك لم تعد الفيديوهات محل ثقة عمياء بعد الآن ويجب أن تحكم عقلك وليس عينيك حتى لا تخدعك تلك التقنية وتؤثر على حياتك وحياة من حولك. وشخصياً لا أرى فائدة من تلك التقنية غير صناعة الفيديوهات الكوميدية والترفيه والتمثيل.

-----------

من طرف \ البهي

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2024
تصميم و تكويد : بيكود