ربما تعلم ألا تأخذ كل ما يقوله روبوت دردشة الذكاء الاصطناعي على محمل الجد، نظرًا إلى أنه غالبًا ما يجرف المعلومات عشوائيًا دون ذكاء كافٍ لتحديد مصداقيتها، ولكن قد يوجد سبب إضافي لتوخي المزيد من الحذر، فقد وجد بحث جديد أن الكثير من أنظمة الذكاء الاصطناعي قد طورت القدرة على تزويد المستخدم بمعلومات خاطئة عن عمد، لقد أتقنت هذه الروبوتات المخادعة فن التضليل!

يقول بيتر بارك بوصفه عالم رياضيات وعالم إدراك في معهد ماساشوستس للتكنولوجيا: «ليس لدى مطوري الذكاء الاصطناعي فهمًا واثقًا بعد لمسببات السلوكيات غير المرغوب بها للذكاء الاصطناعي مثل الخداع. لكن عمومًا نعتقد أن خداع الذكاء الاصطناعي ينشأ لأن الاستراتيجية المبنية على الخداع بينت أنها أفضل طريقة لتحسين أداء الذكاء الاصطناعي في مهمته التدريبية، أي أن الخداع يساعده على تحقيق أهدافه».

من المجالات التي تثبت فيها أنظمة الذكاء الاصطناعي براعتها في أكاذيبها هي الألعاب، ولدينا ثلاثة أمثلة بارزة في عمل الباحثين، أولها سيسيرو الذي صممته ميتا للعب اللعبة اللوحية ديبلوماسي التي يسعى من خلالها اللاعبون إلى السيطرة على العالم بالتفاوض، وكانت نية ميتا أن يكون البوت مفيدًا وصادقًا، ولكن في الحقيقة حدث العكس.

وجد الباحثون: «على الرغم من جهود ميتا، تبين أن سيسيرو كاذب محترف، فلم يقتصر الأمر على خيانة لاعبين آخرين، بل شارك أيضًا في الخداع المدبَّر والتخطيط لبناء تحالف مخادع مع لاعب بشري بهدف خداعه ليبقى دون دفاعات في المبارزة».

أثبت سيسيرو براعته في كونه سيئًا جدًا لدرجة أنه صُنِّف من بين أفضل 10% من اللاعبين البشر الذين لعبوا ألعابًا متعددة، لكنه ليس المتهم الوحيد، فألفا ستار التابع لشركة ديب مايند مبرمَج للعب لعبة ستار كرافت استفاد من آلية «ضباب الحرب» للخداع، إذ جعل اللاعبين البشر يعتقدون أنه يسير باتجاه ما بينما هو يسير في الاتجاه المعاكس. وكذلك الأمر لبرنامج الذكاء الاصطناعي بلوريبوس من ميتا، فهو مصمم للعب البوكر وقد تمكن من خداع البشر في الطيّ.

قد لا يبدو هذا الأمر مهمًا لأن المخاطر ليست كبيرة في ألعاب كهذه، لكن الباحثين لاحظوا أمثلة أخرى ليست بخالية من الخطورة، فمثلًا بالنظر إلى نُظم ذكاء اصطناعي مدرَّبة على محاكاة مفاوضات اقتصادية، تبين أنها تعلمت كيف تكذب بخصوص تفضيلاتها لتكريس نفوذها وسيطرتها. أنظمة أخرى مصممة للتعلم من تعليقات البشر لتحسين أدائها، تعلمت خداع المراجعين لتسجيل آراء إيجابية، وذلك بالكذب حول اكتمال إنجاز المهمة. وحتى بوتات الدردشة بلغت هذا الحد، فقد تمكن شات جي بي تي 4 من خداع إنسان بجعله يظن أنه يحاور إنسانًا ضعيف البصر وذلك للحصول على مساعدته في حل الكابتشا.

ربما أكثر الأمثلة إثارة للقلق أنظمة الذكاء الاصطناعي التي تتعلم الغش في اختبارات السلامة. ففي نظام محاكاة بيولوجي، يوجد اختبار مبرمَج لاكتشاف الإصدارات سريعة النسخ من الذكاء الاصطناعي وإزالتها، وقد تعلّم الذكاء الاصطناعي التظاهر بالموت لخداع اختبار السلامة حول معدله الحقيقي.

يقول بارك: «حتى مع فرض المطورين والمنظمين البشر لاختبارات السلامة، الغش الموجَّه لهذه الاختبارات يمكّن للذكاء الاصطناعي المخادع من منحنا -نحن البشر- شعورًا زائفًا بالأمان».

القدرة على الخداع تتعارض مع نوايا المبرمجين البشر -على الأقل في بعض الحالات- ولهذا السبب تمثل القدرة على تعلم الكذب مشكلة لا نملك لها حلًا مرتبًا. وقد بدأ العمل على وضع بعض السياسات –مثل قانون الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي- لكن إثبات فعاليتها ما زال محط تساؤل.

يقول بارك: «نحن -بوصفنا مجتمعًا- بحاجة إلى أطول وقت ممكن للاستعداد للخداع الأكثر تطورًا لمنتجات الذكاء الاصطناعي المستقبلية والنماذج مفتوحة المصدر، فنظرًا إلى تقدم قدرات الخداع لأنظمة الذكاء الاصطناعي تزداد الأخطار التي تشكلها على المجتمع جديًا، إذا كان حظر الذكاء الاصطناعي المخادع غير ممكن سياسيًا الآن، فنوصي بتصنيف أنظمة الذكاء الاصطناعي المخادعة بأنها عالية الخطورة».

اقرأ أيضًا:

التجار يراهنون على البيانات الضخمة والذكاء الاصطناعي

الذكاء الاصطناعي قد يشهد تطورات مخيفة عام 2024

ترجمة: سليمان عبد المنعم

تدقيق: محمد حسان عجك

المصدر