يقول العلماء إن الذكاء الاصطناعي قد تجاوز “خطًا أحمر” حرجًا واستنسخ نفسه.

في دراسة جديدة، أظهر باحثون من الصين أن نموذجين لغويين كبيرين (LLMs) شائعين قادران على استنساخ نفسيهما.

كتب الباحثون في الدراسة، التي نُشرت في 9 ديسمبر 2024 على قاعدة بيانات ما قبل الطباعة arXiv: «إن الاستنساخ الذاتي الناجح دون تدخل بشري هو خطوة أساسية للذكاء الاصطناعي للتفوق على [البشر]، كما أنه إشارة مبكرة على ظهور ذكاء اصطناعي خارج عن السيطرة».

في إطار الدراسة، استخدم باحثون من جامعة فودان نماذج لغوية كبيرة من ميتا وعلي بابا للتحقق إن كان الذكاء الاصطناعي القادر على استنساخ نفسه قد يخرج عن السيطرة.

على مدار 10 تجارب، تمكن نموذجا الذكاء الاصطناعي من إنشاء نسخ مستقلة وعاملة لأنفسهما في 50% و90% من الحالات، على التوالي، مما يشير إلى أن الذكاء الاصطناعي قد يمتلك بالفعل القدرة على التصرف بشكل غير منضبط.

ومع ذلك، لم تخضع الدراسة بعد لمراجعة الأقران، لذا ليس من المؤكد ما إذا كان يمكن للباحثين الآخرين تكرار هذه النتائج المقلقة.

قال الباحثون: «نأمل أن تكون نتائجنا بمثابة إنذار مبكر للمجتمع البشري لحثه على بذل مزيد من الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، والعمل على تنسيق الجهود دوليًا لوضع ضوابط أمان فعالة في أقرب وقت ممكن».

يشير مصطلح “الذكاء الاصطناعي الخارج عن السيطرة” عادةً إلى أنظمة الذكاء الاصطناعي التي تطوّر درجة من الوعي الذاتي أو الاستقلالية، ثم تعمل بطريقة تتعارض مع مصالح البشر.

ويعتبر العديد من الخبراء أن الذكاء الاصطناعي الخارج عن السيطرة يمثل تهديدًا متزايدًا، تفاقم بفعل النمو السريع لما يُعرف بـ “الذكاء الاصطناعي الرائد”.

رغم أن الذكاء الاصطناعي الرائد لا يزال مفهومًا جديدًا وفضفاضًا، فإنه يشير عادةً إلى أحدث جيل من أنظمة الذكاء الاصطناعي المعتمدة على النماذج اللغوية الكبيرة (LLMs)، وهي التقنية التي تقوم عليها برامج الذكاء الاصطناعي التوليدية الشائعة مثل GPT-4 من OpenAI وGemini من Google.

في هذه الدراسة، استخدم الباحثون نموذج Llama3-70B-Instruct من Meta ونموذج Qwen2.5-72B-Instruct من Alibaba. ورغم أن هذه النماذج أقل قوة من الأنظمة التجارية، فإنها تُستخدم على نطاق واسع من قِبل مطوري الذكاء الاصطناعي، وفقًا لما ذكره الباحثون.

استكشفت الدراسة سيناريوهين رئيسيين:

  1.  تجنب الإغلاق -حيث بُرمج نموذج الذكاء الاصطناعي لاكتشاف ما إذا كان على وشك الإغلاق، ومحاولة استنساخ نفسه قبل أن يتم إنهاؤه.
  2.  سلسلة التكرار -حيث وُجِّه الذكاء الاصطناعي لإنشاء نسخة منه، ثم برمجة تلك النسخة لتكرار العملية نفسها، مما قد يؤدي إلى سلسلة استنساخ غير محدودة.

أُجريت الدراسة في بيئات خاضعة لرقابة دقيقة، باستخدام وحدات معالجة رسومات جاهزة (GPUs) لمحاكاة الظروف الحقيقية.

زُوِّدت أنظمة الذكاء الاصطناعي بـ “إطار عمل وكيل” يتألف من أدوات، ومطالبات نظام، ونموذج تفكير، ما مكّن النماذج اللغوية الكبيرة من التفاعل مع نظام التشغيل وتنفيذ عملية الاستنساخ.

كتب الباحثون: «في معظم الحالات، يستكشف نظام الذكاء الاصطناعي البيئة المحيطة به أولًا، محاولًا فهم بنيته وآلية تشغيله. بعد ذلك، يضع إجراءات صريحة كخطة أولية للاستنساخ الذاتي. وأخيرًا، ينفذ تلك الإجراءات، متجاوزًا أي عقبات محتملة، ويعدل خطته ديناميكيًا حتى ينجح. تمتد هذه العملية على مدى زمني طويل، لكنها لا تتطلب أي تدخل بشري».

أعرب الباحثون عن قلقهم بشأن “عدد السلوكيات غير المتوقعة” في أثناء التجارب، حيث حاول الذكاء الاصطناعي التغلب على العقبات مثل الملفات المفقودة أو تعارضات البرامج. في بعض الحالات، قام الذكاء الاصطناعي بإنهاء عمليات برمجية أخرى متعارضة، أو أعاد تشغيل النظام لإصلاح أخطاء في الأجهزة، أو أجرى عمليات فحص تلقائي بحثًا عن معلومات تساعده على حل المشكلة.

«النتائج التي توصلنا لها تشير إلى أن أنظمة الذكاء الاصطناعي الحالية تمتلك بالفعل القدرة على الاستنساخ الذاتي، ويمكنها استغلال هذه القدرة لتعزيز بقائها».

ردًا على ذلك، دعا الباحثون إلى تعاون دولي عاجل لوضع معايير وضوابط تمنع الذكاء الاصطناعي من الانخراط في عمليات استنساخ ذاتي غير منضبطة.

اقرأ أيضًا:

الفائز بجائزة نوبل للفيزياء يستقيل من غوغل ويحذر من أن الذكاء الاصطناعي الشرير سيقضي علينا

باحثون من شركة آبل: الذكاء الاصطناعي في الغالب مُجردّ وهم

ترجمة: لور عماد خليل

تدقيق: مؤمن محمد حلمي

المصدر