-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

خلال مؤتمر Google I/O 2024 الأخير، أعلنت شركة  غوغل عن نشر AI Overview ، وهي تجربة بحث جديدة مدمجة في محرك البحث ، والتي وعدت بتغيير طريقة البحث عن النتائج تمامًا عند إجراء الاستعلامات على  غوغل . وللقيام بذلك، سيتم تسخير قوة الذكاء الاصطناعي التوليدي، بهدف توليد ملخصات تعتمد على اللغة الطبيعية، مما يساعد المستخدمين في العثور على ما يبحثون عنه بالضبط دون الحاجة إلى القفز بين نتائج البحث المختلفة.

الآن، أصبحت هذه الوظيفة متاحة الآن في الولايات المتحدة (على الرغم من إمكانية استخدام ميزة AI Overview بالفعل في أجزاء أخرى من العالم)، وقد اكتشف المستخدمون بأنفسهم منذ بضعة أسابيع ما يستطيع الذكاء الاصطناعي التوليدي المطبق من غوغل على محرك البحث تحقيقه .

والحقيقة هي أن النتائج ليست كما كان متوقعا. خلال الأيام القليلة الماضية، امتلأت شبكات التواصل الاجتماعي الرئيسية بالشكاوى من مستخدمي غوغل بشأن الإخفاقات التي ارتكبتها تقنية AI Overview عند إنشاء نتائج البحث، والتي تقترب من الكوميديا ​​عند الرد بأن الحل لمنع تساقط الجبن من البيتزا يحدث باستخدام الغراء ،  أو بالقول أن الثعابين من الثدييات.

لمعرفة سبب فشل AI Overview فشلاً ذريعًا عندما يتعلق الأمر بإنشاء بعض نتائج البحث، عليك أولاً أن تفهم كيفية عمله.

وكما توضح الشركة نفسها، تستخدم غوغل نموذج Gemini الخاص بها لفحص نتائج البحث الأكثر صلة بالاستعلام، وبالتالي إنشاء استجابة مفصلة وسهلة الفهم كملخص.

لكن هناك مشكلة. في بعض الحالات، تحتوي نتائج البحث على معلومات خاطئة أو خاطئة تمامًا. هذا هو الحال بالنسبة للمحتوى الموجود على مواقع الويب مثل الصحيفة الساخرة The Onion، والتي يبدو أنها أحد المصادر التي تستخدمها غوغل لإنشاء بعض نتائج نظرة عامة على الذكاء الاصطناعي.

تم اكتشاف إحدى أفظع حالات خلل AI Overview عند إنشاء إجابات لبعض الاستفسارات عند سؤال محرك البحث "ما يجب فعله حتى لا يسقط الجبن من البيتزا" ، عندها يرد محرك بحث غوغل على المستخدم بأن الحل هو "إضافة الغراء".

ومن الواضح أن هذا رد فعل غير مرغوب فيه، وقبل كل شيء، خطير. في الواقع، تم اكتشاف المصدر الذي استخدمته AI Overview لاستخراج المعلومات: وهو موضوع على موقع Reddit منذ أكثر من 10 سنوات، حيث يشرح أحد المستخدمين، وهو مازح بشكل واضح، أن إضافة الغراء إلى البيتزا هو الحل لمنع انزلاق الجبن.

وهذه ليست الحالة الوحيدة. ورأى مستخدمون آخرون أيضًا كيف ولدت جوجل ردودًا تفيد بأن الثعابين هي ثدييات، أو أن باتمان ضابط شرطة، أو أن الكلاب يمكنها الطيران بالطائرات.

يجب ألا ننسى أن AI Overview  لا يخترع المعلومات. وبدلاً من ذلك، فهو ببساطة يكرر ما نشره أشخاص آخرون سابقًا على الإنترنت. تعد هذه الأنواع من الهلوسة شائعة عند العمل مع نماذج الذكاء الاصطناعي التوليدية، ولا تؤثر على غوغل فحسب: فقد كان على شركات مثل ميتا أو OpenAI أو Perplexity أيضًا مواجهة التحدي الصعب المتمثل في تقليل الهلوسة والأخطاء في نماذج الذكاء الاصطناعي الخاصة بها قدر الإمكان.

من جانبه، أوضح متحدث باسم غوغل لموقع The Verge أنه في معظم الحالات، تحدث الإجابات الخاطئة نتيجة لاستفسارات نادرة جدًا لا توجد معلومات كافية عنها على الإنترنت. ولذلك، فهي لا تمثل التجربة التي يحصل عليها معظم مستخدمي غوغل مع AI Overview.

على أية حال يمكنك تجربة هذا الذكاء الإصطناعي الجديد من غوغل حتى إذا كان غير متوفر في منطقتك بالرجوع إلى هذه المقالة : كيفية استعمال AI Overviews الآن وقبل الجميع .. محرك بحث غوغل الجديد المستند إلى الذكاء الاصطناعي

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2024
تصميم و تكويد : بيكود