أثارت ميزة ملخصات نتائج بحث غوغل المدعومة بالذكاء الصناعي سيلًا من التدقيق والنكات عبر وسائل التواصل الاجتماعي بعد أن بدا أن الميزة تعرض إجابات مضللة وفي بعض الحالات معلومات خاطئة خطيرة.
وكشفت جوجل عن الميزة الجديدة خلال مؤتمر للمطورين.
و شارك العديد من مستخدمي جوجل بما في ذلك صحافيون أمثلة متعددة لملخصات الذكاء الصناعي لنتائج البحث “AI Overview”، وقد نقلت الميزة على ما يبدو المعلومات عن مصادر مشكوك فيها مثل منشورات Reddit المكتوبة على شكل نكات أو مقالات المجلة الساخرة The Onion، حيث أخفق الذكاء الصناعي في فهم أن هذه المقالات ليست واقعية.
شاركت عالمة الكمبيوتر ميلاني ميتشل مثلًا على الميزة تعرض في إجابة نظرية مؤامرة يمينية مفادها أن الرئيس باراك أوباما مسلم، في حين يبدو أنها كانت محاولة مخفقة من الذكاء الصناعي لتلخيص كتاب من منصة أبحاث جامعة أكسفورد.
في حالات أخرى يبدو أن ملخص الذكاء الصناعي يسرق النص من مدونات شخصية ويخفق في إزالة أو تغيير الإشارات إلى أطفال المؤلف.
تُظهر العديد من الأمثلة الأخرى التي جرت مشاركتها على وسائل التواصل الاجتماعي أن النظام الأساسي يخطئ في فهم الحقائق الأساسية، مثل الإخفاق في الاعتراف ببلدان إفريقية بدءًا من الحرف K والاقتراح بأن الثعابين هي ثدييات، وقد تمكنت .
و من غير الواضح ما الذي يسبب المشكلة بالضبط، ومدى اتساعها وما إذا كانت جوجل قد تضطر مرة أخرى إلى الضغط على الفرامل عند طرح ميزة للذكاء الصناعي.
تميل نماذج اللغات مثل GPT-4 من OpenAI أو Gemini من جوجل التي تعمل على تشغيل ميزة ملخص البحث أحيانًا إلى الهلوسة.
وهذه هي حالة يولد فيها نموذج اللغة معلومات خاطئة تمامًا دون أي تحذير، وتحدث أحيانًا في منتصف نص دقيق.
لكن مشكلات ميزة الذكاء الصناعي قد تعود أيضًا إلى مصدر البيانات التي تختار جوجل تلخيصها مثل المقالات الساخرة على موقع The Onion وبعض المنشورات المثيرة للجدل على المنصات الاجتماعية مثل Reddit.
و في مقابلة نشرتها The Verge هذا الأسبوع، تناول الرئيس التنفيذي لشركة غوغل سوندار بيشاي قضية الهلوسة قائلًا إن هنالك “مشكلات لم تُحل”، ولم يلتزم بجدول زمني دقيق للحل.
هذا هو ثاني إطلاق رئيسي للذكاء الصناعي من جوجل هذا العام يخضع للتدقيق لتقديمه نتائج غير دقيقة.
وفي وقت سابق من هذا العام طرحت الشركة علنًا Gemini منافس ChatGpt ومولد الصور DALL-E.
ومع ذلك، سرعان ما تعرضت ميزة توليد الصور لانتقادات بسبب إخراج صور غير دقيقة تاريخيًا مثل فايكنغ ذات بشرة سمراء، وجنود نازيين متنوعين عرقيا.
اضطرت جوجل إلى إصدار اعتذار.