تعرفنا في تدوينة سابقة على برمجية الذكاء الإصطناعي من مايكروسوفت والتي تدعى Copilot والتي تقوم بإنشاء أكواد برمجية كاملة كما أنها تقتبس الكثير من محتواها من المبرمجين في GitHub ومع ذلك فإن أكواداها البرمجية تكون ضعيفة من حيث الأمن وبها الكثير من الثغرات التي يمكن استغلالها.
وحسب النتائج التي خرجت من مجموعة من الباحثين من جامعة ستانفورد فإن الأكواد التي يستخدمها المبرمجين من خلال أدوات الذكاء الاصطناعي مثل أداة Copilot بها مشاكل أمنية وثغرات في تلك الأكواد بنسبة أعلى من المبرمجين الذين لا يستخدمون أدوات الذكاء الإصطناعي. وفي إحصائية تم عملها وجد أن حوالي 40% من تلك الأكواد قابلة للإستغلال من أجل الإختراق لكن من المتوقع أن تقل تلك النسبة مع تطور وتعلم تلك البرمجياتلكن الغريب والمضحك أن المبرمجين الذين يستخدمون أدوات مساعدة من برمجيات الذكاء الاصطناعي عندهم ثقة أكبر بأن أكوادهم أفضل وأقل من ناحية الأخطاء والثغرات الأمنية من المبرمجين الذين لا يستخدمون أدوات الذكاء الاصطناعي وهذا يدل على الثقة الكبيرة في برمجيات الذكاء الإصطناعي والتي ليست في محلها.
------------
من طرف \ البهي
ليست هناك تعليقات:
إرسال تعليق