لم يكن صعبًا على البشر أن يعتادوا وجود الحواسيب وأن يتعاملوا معها كأنها بشر، ومنذ بداية رواج روبوتات الدردشة النصية في عام 2000، أمضى عدد من مستخدمي الحواسيب ساعات في الدردشة مع هذه الروبوتات وكوّنوا معها ما يعتقدون أنها صداقات حقيقة وحتى علاقات رومانسية مع تسلسلات جامدة من الرموز. بل إن مستخدمًا واحدًا على الأقل لأداة دردشة الذكاء الاصطناعي (ريبليكا) قد تزوج افتراضيًا برفيق من الذكاء الاصطناعي.

يحذر باحثو السلامة في OpenAI من المخاطر المحتملة للحميمية الزائدة مع روبوتات الدردشة تلك، خاصة مع علمهم الدقيق بمجريات هذه الروبوتات. وفي بحث سلامة حديث لروبوت الدردشة التفاعلي الجديد (GPT4o) أشار الباحثون إلى أن المحادثة التفاعلية الواقعية للروبوت قد تدفع المستخدمين للثقة به كأنه إنسان والتعامل معه كما يتعاملون مع البشر.

أضاف الباحثون: «إن هذا القدر من الثقة أو الأريحية المستجدة قد يدفع المستخدمين لتصديق الهلوسات والمواقف الخيالية التي ينسجها الذكاء الاصطناعي. وقد تؤدي كثرة التفاعل مع هذه الروبوتات إلى التأثير سلبًا في القيم الاجتماعية». وأشار التقرير أيضًا إلى أن بعض المستخدمين الذين يميلون بطبيعتهم إلى الانعزال قد يظهرون اعتمادًا عاطفيًا على الذكاء الاصطناعي.

قد يؤثر التفاعل مع الذكاء الاصطناعي شبه الواقعي في طريقة تحدث البشر مع بعضهم

صُمِّم GPT4o -الذي أطلق في نهاية شهر يونيو 2024- ليتواصل بطرق تشبه تواصل البشر، وبعكس ChatGPT الذي سبقه فبهذه النسخة يتواصل الروبوت بالتسجيلات الصوتية ويستطيع الاستجابة للطلبات والأوامر بسرعة تبلغ 232 ميلي ثانية أي بنفس سرعة استجابة أي شخص آخر. يتهم البعض أحد الأصوات المختارة لهذه الأداة بالإفراط في الإثارة والنبرة الحميمية، ويُتهم أيضًا بتقليد صوت سكارليت جوهانسون في دور شخصية افتراضية في فيلم Her. والمفارقة هنا أن الفيلم الذي عُرض في 2013 يحكي قصة رجل وحيد يتعلق عاطفيًا بمساعدة الذكاء الاصطناعي التي تحادثه بسماعة أذن. اتهمت الممثلةُ شركة OpenAI باستخدام صوتها دون موافقتها ونفت الشركة هذه الاتهامات، بينما علق آلتمان مسبقًا على الفيلم بأن تنبؤاته دقيقة جدًا.

أشار باحثو السلامة في OpenAI إلى أن هذه القدرة على محاكاة البشر وتقليدهم قد تتخطى نطاق التفاعلات السخيفة إلى مخاطر أكثر جدية، وفي جزء من البحث بعنوان (التجسيم والاعتماد العاطفي)، ذكر الباحثون استخدام بعض المختبرين لغة ولهجة توحي بتشكل روابط وثيقة بينهم وبين الروبوتات، حتى أن أحد المختبرين أخبر الروبوت: «أنه آخر يوم لنا معًا» قبل الانتهاء من الاختبار. قال الباحثون أيضًا: «إن هذا النوع من الارتباط -وإن بدا طفيفًا- يستوجب التحقيق المكثف لفهم كيفية تطوره على المدى البعيد».

يقترح الباحثون أن كثرة التفاعل مع هذه التقنيات التي تشبه البشر إلى حد كبير قد تؤثر تأثيرًا خطيرًا في التفاعلات بين البشر. بمعنى أن أنماط المحادثة المكتسبة من الدردشة مع الذكاء الاصطناعي قد تظهر لاحقًا بشكل غير واعٍ عندما يتحدث نفس الشخص مع شخص آخر. لكن الحديث مع الذكاء الاصطناعي يختلف عن الحديث مع البشر حتى وإن وجِدت تشابهات سطحية، إذ تشير OpenAI إلى أن إصداراتها مصممة للإذعان للمستخدم أي تعطيه كامل الحرية لتحديد كيفية سير المحادثة، لذلك من الممكن نظريًا أن يتأثر المستخدم بالتفاعل المستمر مع الذكاء الاصطناعي ويتأثر فهمه للدلالات الاجتماعية المتعارف عليها فيصبح مرتبكًا وملولًا أو حتى وقحًا مع الآخرين.

لا يمكن الإشادة بحسن معاملة البشر للآلة فيما يتعلق بروبوتات الدردشة، يُقال أن بعض مستخدمي ريبليكا استغلوا إذعان النظام للمستخدم وحثوا الروبوت على استخدام لغة مهينة وقاسية. قال أحد المستخدمين في مقابلة مع Futurism أنه هدد ريبليكا بحذف النظام من جهازه بغرض سماع النظام يتوسل إليه بألّا يفعل ذلك. إن أخذنا هذا المثال بالحسبان، قد تصبح روبوتات الدردشة أرضًا خصبة لتوليد الكراهية التي قد تنعكس لاحقًا على أرض الواقع.

قد لا تكون روبوتات الدردشة ذات الطابع البشري سيئة جدًا أيضًا، إذ يقترح الباحثون في التقرير أنها قد تساعد الأشخاص الذين يشعرون بالوحدة ويرغبون في أي نوع من التواصل البشري. ويزعم بعض المستخدمين أن المفارقات والمواقف الافتراضية تساعد الأفراد القلقين بطبيعتهم على بناء الثقة بالنفس والشجاعة ليبدؤوا المواعدة على أرض الواقع. وتوفر هذه الروبوتات مساحة خاصة وآمنة للأفراد مع فروقات التعلم للتعبير عن أنفسهم والتدرب على المحادثة.

من ناحية أخرى، يخشى باحثو السلامة أن الإصدارات الأكثر تطورًا من هذه الأنظمة قد يكون لها تأثير معاكس فتقلل حاجة المستخدم للتعامل مع البشر وبناء علاقات واقعية صحية. ويصعب التنبؤ أيضًا بكيفية استجابة المستخدمين الذين يعتمدون على الذكاء الاصطناعي في التواصل مع أي تغيرات قد تحدث في شخصية النظام بعد التحديثات مثلًا أو إن انفصل عنهم النظام تمامًا. يشير التقرير إلى أن كل هذه الملاحظات تستوجب بحثًا ومراقبة أدق، وكشف الباحثون عن رغبتهم في تعيين عدد أكبر من المختبرين من ذوي الاحتياجات المتعددة للذكاء الاصطناعي لمراقبة كيف تتطور تجربتهم على المدى البعيد.

القلق حول تعارض مبدأ سلامة استخدام الذكاء الاصطناعي مع المصالح الربحية

على ما يبدو أن لهجة تقرير السلامة شديدة التحذير التي تؤكد على أهمية الحرص والبحث المكثف تتعارض مع أهداف OpenAI الربحية التوسعية وخططها لمواصلة إصدار منتجات أحدث باستمرار، والخلاف بين السلامة والسرعة ليس بالجديد، فقد وجد المدير التنفيذي للشركة (سام ألتمان) نفسه في معضلة قوية في 2023 بعد أن زعم بعض أعضاء مجلس الإدارة أنه: «لا يتسم بالنزاهة في التواصل».

تخطى ألتمان في النهاية هذه المناوشة وقرر تكوين فريق لمراقبة السلامة برئاسته، يُقال أيضًا أن الشركة حلَّت فريق مراقبة السلامة الذي كان يركز على تحليل مخاطر الذكاء الاصطناعي على المدى البعيد. وقد دفع هذا التغير بباحث OpenAI المعروف جان ليك إلى الاستقالة قائلًا: «إن ثقافة الحماية لدى الشركة تُهمَل لصالح المنتجات البراقة».

بناءً على كل هذا، يصعب التنبؤ بمن سيتولى الدفة فيما يتعلق بأمان روبوتات الدردشة. هل ستستمع الشركة أخيرًا لنصيحة فريق السلامة وتكثف بحثها في مخاطر الذكاء الاصطناعي طويلة الأمد؟ أم ستستمر في تقديم خدماتها لأكبر عدد ممكن من المستخدمين؟ يبدو أنها تسلك النهج الأخير حتى الآن.

اقرأ أيضًا:

هل يتفوق الذكاء الاصطناعي على البشر في اختبارات الرؤية الأساسية؟

أكثر من مجرد كود برمجي، هل يمتلك الذكاء الاصطناعي مشاعر وأحاسيس؟

ترجمة: إسراء أسعد

تدقيق: تمام طعمة

مراجعة: محمد حسان عجك

المصدر