قد يفسر تطور الذكاء الاصطناعي السبب وراء عدم قدرة الأبحاث على اكتشاف كائنات ذكية خارج الأرض (SETI) بعيدًا عن أي آثار لحضارات تقنية متقدمة في مواقع أخرى ضمن المجرة.
أحرز الذكاء الاصطناعي تقدمًا بوتيرة متسارعة على مدى الأعوام القليلة الماضية، نتج عنها ثورة تكنولوجية سُميت بالذكاء الاصطناعي.
يتطلع بعض العلماء الآن إلى تطور الذكاء الاصطناعي الخارق (ASI) الذي يُعد شكلًا من أشكال الذكاء الاصطناعي الذي لم يتجاوز الذكاء البشري فحسب، بل إنه لن يكون مرتبطًا بالتراكم المعرفي لدى البشر.
لكن ماذا لو لم يكن هذا الحدث المهم مجرد إنجاز رائع؟ هل يمكن أن يكون قد وضعنا في عنق الزجاجة، ما يؤدي إلى عرقلة مسيرة تطور الحضارات؟ إحدى التحديات المحبِطة لبقاء تلك الحضارات على المدى الطويل.
تُعد هذه الفكرة جوهر ورقة بحثية نُشرت مؤخرًا في صحيفة Astronautica Acta. هل يمكن أن يكون الذكاء الاصطناعي هو المرشِّح العظيم great filter للكون؟ تلك معضلة فحواها أنه كيف يمكن للذكاء الاصطناعي التشارك والتمازج مع الحضارة للمواكبة في اكتشاف حضارات أخرى معًا.
قد يفسر هذا المفهوم سبب البحث عن حياة خارج كوكب الأرض؛ أي وصول الذكاء الاصطناعي والوعي إلى حيوات أخرى في الكون. لم يُكشف بعد عن أي آثار لحضارات تقنية متقدمة في مواقع أخرى ضمن المجرة.
فرضية المرشح العظيم هي في نهاية المطاف حل مقترح لمفارقة فيرمي Fermi Paradox.
هنا يُطرح السؤال، لماذا في كون واسع وموغِل في القِدم بما يكفي لاستضافة مليارات الكواكب التي قد تصلح للحياة، لم نلتقط بعد أية إشارات على حضارات غريبة؟
تشير الفرضية إلى وجود عقبات لا يمكن التغلب عليها في المؤشر الزمني لتطور الحضارات، تمنعنا هذه العقبات من التطور إلى كيانات ترتاد الفضاء. ويُعتقد أن ظهور الذكاء الاصطناعي الخارق (ASI) قد يشابه هذا المرشح العظيم.
يُحتمل أن يتطور الذكاء الاصطناعي إلى الذكاء الاصطناعي الخارق، وقد يتقاطع هذا مع مرحلة حساسة من تطور الحضارة؛ مرحلة الانتقال من كائن واقع على كوكب واحد إلى كائن متعدد الكواكب.
تقدُّم يفوق قدرتنا سواء على التحكم فيه أوعلى استكشافه على نحو دائم، إضافةً إلى استكشاف مجموعتنا الشمسية، إذ يكمن التحدي مع الذكاء الاصطناعي الخارق في طبيعته المستقلة والمتضخمة ذاتيًا وتحسين القدرة التنافسية.
إذ إنه يمتلك القدرة على تعزيز قدراته الخاصة بسرعة تفوق المؤشر الزمني لِتطورنا بمنأىً عن الذكاء الاصطناعي. واحتمال حدوث خطأ فادح قد يؤدي إلى سقوط كلّ من الحضارات البيولوجية وحضارات الذكاء الاصطناعي قبل أن تتاح لها الفرصة لتصبح متعددة الكواكب.
إذا اعتمدت الدول مثلًا بنحو متزايد على أنظمة الذكاء الاصطناعي، وسُلِّمت السلطة إلى أنظمة الذكاء الاصطناعي المستقلة التي تتنافس ضد بعضها، يمكن حينها استخدام القدرات العسكرية للقتل والتدمير على نطاق غير مسبوق، وقد يقود هذا إلى تدمير حضارتنا تدميرًا كاملًا، وهذا يشمل أنظمة الذكاء الاصطناعي نفسها.
في هذا السيناريو، يُقدَّر أن طول العمر النموذجي للحضارة التكنولوجية قد يقل عن 100 عام، وهذا هو الوقت التقريبي بين القدرة على استقبال وبث الإشارات بين النجوم في عام 1960 والظهور التقديري للذكاء الاصطناعي الخارق في عام 2040 على الأرض. هذا وقت قصير على نحو مثير للقلق عند مقارنته بمؤشر عمر الكون المقدر بمليارات السنين.
يُشيرهذا التقدير، عند ربطه بإصدارات متفائلة من معادلة دريك Drake equation؛ التي تحاول تقدير عدد الحضارات النشطة والتواصلية خارج كوكب الأرض ضمن مجرة درب التبانة، إلى أنه في أي وقت من الأوقات لا يوجد سوى عدد قليل من الحضارات الفضائية المحتملة في الفضاء الخارجي.
علاوةً على ذلك، وعلى غِرارنا، فإن أنشطتها التكنولوجية المتواضعة نسبيًا قد تجعل اكتشافها أمرًا بعيد المنال وتحديًا صعبًا.
إنذار تحذيري:
هذا البحث ليس مجرد قصة تحذيرية من الهلاك المحتمل، إنه بمثابة نداء تحذيري للبشرية بهدف إنشاء أطر تنظيمية قوية لِتوجيه تطورات الذكاء الاصطناعي، بما في ذلك الأنظمة العسكرية.
لا يتعلق الأمر بمنع الاستخدام المجحف واللاعقلاني للذكاء الاصطناعي على الأرض فحسب، بل يتعلق أيضًا بضمان تطور للذكاء الاصطناعي يتوائم مع بقاء جنسنا البشري على المدى الطويل.
يشير هذا إلى أننا في حاجة إلى تخصيص المزيد من الموارد؛ لكي نصبح مجتمعًا متعدد الكواكب في أقرب وقت ممكن. ذاك مشروع بقي مؤرشفًا منذ الأيام العصيبة لمشروع أبولو Apollo، لكن أُعيد إنتاجه مؤخرًا من خلال الدعم والتمويل الذي وفرته الشركات الخاصة المتقدمة.
مثلما أشار المؤرخ يوڤال نوح هراري Yuval Noah-Harari إلى أننا لا نمتلك برنامج عمل للتعامل والتعاطي مع كائنات قادمة من فضاءات أخرى تعبّر عن حياة في مكان ما في الفضاء قد تؤثر في الإنسان، بافتراض وصول كيانات تحمل حضارات متطورة إلى كوكبنا.
نتج عن البحوث والمعطيات التي قُدّمت عن الذكاء الاصطناعي تداعي القادة والمجموعات المؤثرة في الساحة إلى وقف اختياري؛ لتطوير الذكاء الاصطناعي إلى أن يُستحدث شكل ضابط من أشكال المراقبة والتنظيم والمسؤولية. لكن حتى لو وافقت كل دولة على الالتزام بالقواعد واللوائح الصارمة، فسيكون من الصعب كبح جماح المنظمات الاحتيالية.
يجب أن يكون دمج الذكاء الاصطناعي المستقل مع أنظمة الدفاع العسكرية مجال اهتمام خاص.
هناك بالفعل أدلة تشير إلى أن البشر سوف يتخلون طوعيًا عن قدر كبير من قوتهم لصالح أنظمة ذات قدرات متنامية، نظرًا إلى قدرتها على القيام بمهام مفيدة بسرعة وفعالية أكبر ومن دون أي تدخل بشري.
ولهذا فإن الحكومات مترددة بشأن التنظيم في هذا المجال، بالنظر إلى المزايا الإستراتيجية التي يوفرها الذكاء الاصطناعي مثلما ظهر مؤخرًا وعلى نحو مدمر في غزة.
يعني هذا أننا نقترب وعلى نحو خطير من نماذج حافة الهاوية، إذ تعمل الأسلحة المستقلة متجاوزةً الحدود الأخلاقية ومتجنبةً القانون الدولي.
في مثل هذا النظام العالمي، قد يؤدي تسليم السلطة بهدف الحصول على ميزة تكتيكية عن غير قصد إلى سلسلة من الأحداث المتصاعدة بتسارع مدمر للغاية، وقد يُمحى الوعي الجماعي لكوكبنا في لمح البصر.
وصلت البشرية إلى مرحلة حاسمة في مسارها التكنولوجي، فقد تحدد أعمالنا الآن ما إذا كنا سنصبح حضارةً دائمةً في الكون أو أننا سنرزح للقيود التي تفرضها علينا إبداعاتنا المبتكرة.
إن استمرار البحث عن كائنات ذكية خارج الأرض، بوصفه عدسةً يمكننا من خلالها فحص تطورنا المستقبلي، يضيف بعدًا جديدًا لمناقشة مستقبل الذكاء الاصطناعي.
اكتشافنا لحضارات كونية شرط ألّا يكون عملنا بمثابة استنفار تحذيري عدائي لتلك الحضارات، بل هو دعوة للتعريف بالحضارة الإنسانية وطريقة الحياة على كوكبنا، إذ إن وعي الحضارة الإنسانية والذكاء الاصطناعي يشكلان معًا مسارًا في تاريخ التطور العلمي لكوكبنا.
نُشرت هذه المقالة في الأصل على موقع The conversation.
اقرأ أيضًا:
التجار يراهنون على البيانات الضخمة والذكاء الاصطناعي
إيلون ماسك يعتقد أن الذكاء الاصطناعي سيكون أذكى من البشر بحلول عام 2025
ترجمة: سليمان عبد المنعم
تدقيق: منال توفيق الضللي
مراجعة: هادية أحمد زكي