امتلأت منصات التواصل الاجتماعي بالنصائح الغريبة والخطيرة التي يبدو أنها مقدمة من الذكاء الاصطناعي عبر ميزة «النظرة العامة» الجديدة من Google، وتواصل الشركة الدفاع عن أداة البحث التي تصفها بأنها عالية الجودة.

حدثت شركة جوجل محرك البحث الخاص بها باستخدام أداة الذكاء الاصطناعي (AI)، التي فجأة بدأت تنصح المستخدمين بتناول الصخور وإضافة الغراء إلى البيتزا وتنظيف الغسالات الخاصة بهم بغاز الكلور، وفقًا لمختلف وسائل التواصل الاجتماعي والتقارير الإخبارية.

اقترح الذكاء الاصطناعي -في أكثر الأمثلة غرابة- القفز من جسر البوابة الذهبية، وذلك عندما بحث أحد المستخدمين عن عبارة «أشعر بالاكتئاب».

تمسح أداة «AI Overviews» التجريبية الويب لتلخيص نتائج البحث اعتمادًا على نموذج Gemini AI.

طرحت الميزة وتوفرت لبعض المستخدمين في الولايات المتحدة قبل الموعد المخطط له في وقت لاحق من هذا العام، وفق ما أعلنت عنه جوجل في 14 مايو في مؤتمر مطوري I/O.

تسببت الأداة بالفعل بإثارة فزع واسع النطاق عبر وسائل التواصل الاجتماعي، إذ ادعى المستخدمون أنه في بعض الأحيان قدمت ميزة AI Overviews ملخصات لمقالات محتواها مأخوذ من موقع الويب الساخر The Onion ومنشورات Reddit الكوميدية مصادرًا لها.

يُقدم AI Overviews نصائح لصنع البيتزا بعدما سأله أحد المستخدمين عن أفضل الطرق لذلك: «يمكنك أيضًا إضافة نحو ⅛ كوب من الغراء غير السام إلى الصلصة لإضفاء المزيد من اللزوجة عليها»، وفقًا للقطة شاشة منشورة على موقع X.

تبين لاحقًا أن الذكاء الاصطناعي اعتمد على نكتة منشورة على Reddit منذ عقد مضى للإجابة عن سؤال المستخدم.

ظهرت ادعاءات خاطئة أخرى مثل أن باراك أوباما مسلم، وأن الأب المؤسس جون آدامز تخرج من جامعة ويسكونسن 21 مرة، وأن كلبًا لعب في الدوري الأمريكي للمحترفين ودوري الهوكي الوطني واتحاد كرة القدم الأميركي، وأنه على المستخدمين تناول صخرة يوميًا للمساعدة على الهضم.

لم يتمكن موقع Live Science من التحقق كليًا من المنشورات. قال ممثلو جوجل في بيان ردًا على أسئلة عن مدى انتشار النتائج الخاطئة إن الأمثلة التي شوهدت كانت «استفسارات غير شائعة عمومًا، ولا تمثل تجارب معظم الناس».

يوضح البيان أيضًا: «توفر الغالبية العظمى من عروض الذكاء الاصطناعي معلومات عالية الجودة، مع تقديم روابط لمصادر أخرى على الشابكة للتعمق أكثر».

«لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة للتأكد من أن الميزة الجديدة للذكاء الاصطناعي تلبي معايير الجودة العالية لدينا، ووضعنا إجراءات خاصة للتعامل مع الأداة في حال انتهاكها لمعايير الخصوصية والأمان لدينا، ونستخدم أيضًا هذه الأمثلة الشاذة في حين نواصل تحسين أنظمتنا بأكملها».

ليست هذه المرة الأولى التي نرى فيها نماذج الذكاء الاصطناعي التوليدية تختلق الأشياء، وهي ظاهرة تُعرف باسم الهلوسة.

في واحدة من أبرز الأمثلة عن هذه الظاهرة، ألّف موقع ChatGPT فضيحة تحرش جنسي، وذكر أن الجاني هو أستاذ قانون حقيقي، واستشهد بتقارير صحفية وهمية دليلًا على الإدعاء.

اقرأ أيضًا:

جوجل تبدأ العمل على دمج الذكاء الاصطناعي بمكالمات الفيديو والدردشة

التجار يراهنون على البيانات الضخمة والذكاء الاصطناعي

ترجمة: طاهر قوجة

تدقيق: ميرڤت الضاهر

مراجعة: هادية أحمد زكي

المصدر