نشر مكتب الشرطة الأوروبي ، يوروبول ، تحذيرًا بشأن استخدام الذكاء الاصطناعي ونماذج اللغة مثل GPT-4 المستخدمة في ChatGPT.
لا شك في أن إمكانات الذكاء الاصطناعي التي كشف عنها ChatGPT لنا ، ولكن يمكن استخدام هذه الإمكانات ليس فقط للأغراض الإيجابية ، ولكن أيضًا للأغراض الخبيثة.
بعبارة أخرى ، رأى العديد من الأشخاص ما يمكن لـ ChatGPT القيام به ، وأول ما فكروا فيه هو استخدامه للاستفادة من الآخرين. لقد رأينا بالفعل حالات احتيال تم إنشاؤها باستخدام الذكاء الاصطناعي ، لكننا لم نتخيل أن المشكلة كانت خطيرة لدرجة أن اليوروبول نفسه كان بالفعل هو من حذر ونبه عن هذا الأمر,نشرت منظمة الشرطة الأوروبية هذا الأسبوع أول تقرير لها يتعلق باستخدام نماذج لغوية مثل GPT ، التي تستند إليها ChatGPT ، لأغراض إجرامية. على الرغم من أنه لم يشارك معلومات حول الجرائم المزعومة التي تحدث بفضل الذكاء الاصطناعي ، فقد شرح بالتفصيل المخاطر المحتملة لهذه التكنولوجيا.
يوروبول متشائم بشأن تحسين قدرات ChatGPT ونماذج اللغة الأخرى ، مشيرًا إلى أنه يمكن استغلالها من قبل المجرمين ، الذين غالبًا ما يكونون سريعون جدًا في استغلال التقنيات الجديدة. على وجه التحديد ، يوروبول يحدد ثلاثة أقسام يمكن أن يكون فيها ChatGPT مساعدة كبيرة لارتكاب الجرائم.
بادئ ذي بدء ، فإن قدرة ChatGPT على إنشاء نصوص "واقعية" تجعلها أداة مفيدة جدًا لـ "التصيد الاحتيالي" ، وهي التقنية التي ينتحل بها المهاجم شخصية شخص آخر أو مؤسسة أخرى. على سبيل المثال ، عندما تتلقى بريدًا إلكترونيًا من البنك الذي تتعامل معه يطلب منك تسجيل الدخول للموافقة على تحويل كبير إلى حسابك.
يمكن اكتشاف رسائل البريد الإلكتروني المخادعة بفضل طريقة تنسيقها وصياغتها جزئيًا ، ولكن يمكن لـ GPT-4 تعلم كتابتها بالأسلوب الشائع استخدامه في رسائل البريد الإلكتروني الحقيقية ، مما يسهل علينا الوقوع في غرامها. ويمكن إنشاء هذه الرسائل الإلكترونية المزيفة بسرعة كبيرة وسيكون اكتشافها أكثر صعوبة.وبالمثل ، يمكن استخدام قدرة ChatGPT على إنشاء نص لخلق دعاية ومعلومات مضللة ، وحتى لتسهيل الأنشطة الإرهابية ، وفقًا لليوروبول. لقد رأينا بالفعل مشاريع الذكاء الاصطناعي التوليدية الأخرى تُستخدم لإنشاء صور مزيفة تتعلق بالأخبار العاجلة ، ولن يكون من المستغرب إذا كان من الممكن استخدام ChatGPT بهذه الطريقة أيضًا.
أخيرًا ، يحذر اليوروبول من أن الإجراءات التي اتخذتها شركة OpenAI لمنع استخدام ChatGPT للجرائم الإلكترونية غير كافية ، لأنها تعمل فقط إذا كان النموذج يفهم ما يفعله. يمكن للمجرمين إنشاء تعليمات برمجية ضارة ، ويطلبون من الذكاء الاصطناعي كتابة برامج ضارة لهم ولكن على شكل أجزاء لمنع الذكاء الاصطناعي من فهم ما يقوم بإنشائه.
ليست هناك تعليقات:
إرسال تعليق