من خلال بيان يتكون من 22 كلمة فقط ، حذر بعض الخبراء والباحثين البارزين في مجال الذكاء الاصطناعي من التهديد الذي يشكله الذكاء الاصطناعي على البشرية. بل إنهم يذهبون إلى حد مقارنة المخاطر التي ينطوي عليها إساءة استخدام هذه التكنولوجيا بمخاطر الأوبئة أو حتى الحروب النووية.
من بين الخبراء الذين وقعوا البيان بعض الشخصيات الأكثر شهرة في هذا المجال ، مثل الرئيس التنفيذي الحالي لشركة OpenAI ، سام التمان ؛ أو الرئيس التنفيذي لشركة Google DeepMind ، ديميس هاسابيس. تم نشر الرسالة من قبل مركز أمان الذكاء الاصطناعي ، وهو مؤسسة غير ربحية مقرها سان فرانسيسكو.
الهدف من البيان هو الوصول إلى أوسع جمهور ممكن ، بما في ذلك أولئك الذين ليسوا على دراية بالمفاهيم المحيطة بالذكاء الاصطناعي. تشير مجموعة الخبراء إلى أن هذا البيان يهدف إلى شرح القلق الذي يشعرون به بسبب المخاطر التي يشكلها الذكاء الاصطناعي المتقدم. البيان الكامل متاح أدناه:
"يجب أن يكون التخفيف من مخاطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية ، إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية."
بعض الأشخاص الذين وقعوا هذا البيان فعلوا الشيء نفسه أيضًا مع الرسالة المفتوحة التي نشرها بعض الخبراء في وقت سابق من هذا العام ، والتي طلبوا فيها من الشركات الرئيسية وقف تطوير الذكاء الاصطناعي لتجنب المخاطر المحتملة. في هذه المناسبة ، يركز البيان على التدابير الوقائية التي يجب أن تنفذها الشركات والمؤسسات الرئيسية في هذا النوع من النظام.
سام التمان ، الرئيس التنفيذي لشركة OpenAI ، هو أحد الموقعين على هذا البيان. في الآونة الأخيرة ، اقترح سام التمان نفسه أنه من الضروري أن يكون هناك بعض الاحترام لهذه التكنولوجيا. تحدث أيضًا عن الحلول الممكنة التي يمكن تنفيذها في حالة فقدهم السيطرة على أدوات مثل ChatGPT.
ليست هناك تعليقات:
إرسال تعليق