في يناير، قام كلٌ مِن إيلون موسك (Elon Musk)، بيل غيتس (Bill Gates)، ستيفن هوكينغ (Stephen Hawking) وغيرهم من الأكاديميين والباحثين بكتابة رسالة مفتوحة للمطالبة بمعايير للأمان مخصّصة للصناعات المتعلقة بالذكاء الإصطناعي (Artificial Intelligence).

وبالتّحديد، قد طلبوا بالبحث عن تطوير تقنيات ناجحة تمنع الذكاء الإصطناعي من الأذى –أذى قد يسبب الإنقراض- للبشريّة.

ومن نص الرسالة: ’’في أي حالة من هذه الحالات، سنحتاج إلى تقنيات تضمن بقاء السيطرة البشرية على الذكاء الإصطناعي‘‘.

اسلوب الرسالة، اعتبر الكثيرون على أنّه يعبّر عن رعب بعض الذين يعانون من “الخوف من الآلات”، وكردة فعل لهذا فقذ أغرقت الصحافة كتاباتها بالعديد من إقتباسات باحثين في مجال الذكاء الإصطناعي الذين يشككون في وجود هكذا خطر (انقراض البشر).

قال خبير الذكاء الإصطناعي أندريو ناغ (Andrew Ng) الذي يعمل في Baidu لمجلة Fusion: “لأولئك الذين يعملون في هذا المجال حاليًّا، أنا لا أرى أي مسارًا فعليًّا ينشأ من ما نعمل عليه الآن، والذي هو مذهل ويقدِّم الكثير من الفوائد، لكنني لا أرى مستقبلًا يجلب لنا الشر من البرمجيات التي نصنعها.”

وكَرَدّ عنيف على الرد العنيف أتى من سكوت أليكساندر (Scott Alexander) حيث قدَّم قائمة من الأكاديمين المحترمين والخبراء في مجال البحوث حول الذكاء الإصطناعي والذين شاركوا مقدّمي الرسالة مخاوفهم من الإنقراض بسبب الذكاء الإصطناعي.

الخوف والحذر:

ستيوارت راسيل (Stuart Russell)، بروفسير في علم الحاسوب من جامعة UC Berkeley ومؤلف كتاب جامعي معروف حول الذكاء الإصطناعي، قارن الموقع الذي تتخذه دراسة الآليات الخالية من الخطأ في مجال الذكاء الإصطناعي بالموقع الذي تتخذه  دراسة أدوات الاحتواء في مجال دراسة المفاعلات النووية.

كتب راسل على موقع edge.org: “قدم البعضَّ حجة بأن ليس هناك خطراً للبشرية يؤخَذ بالحسبان لعدة قرون قادمة، ربما نسوا هؤلاء بأن المدة الزمنية بين تأكيد رذرفورد (Rutherford) بكل ثقة بأنه لايمكن استخراج طاقة النواة وبين اختراع سزيلارد (Szilard) للتفاعل النووي المتسلسل المفعَّل بالنيوترون كانت أقل من ٢٤ ساعة”.

راسيل ليس وحيداً من بين الباحثين في مجال البحث حول الذكاء الإصطناعي.

وُجد استفتاء في 2014 تمّ من قبَل فينسينت مولر (Vincent Müller) و نك بوستروم (Nick Bostrom) أُجريَ على ١٧٠ من الخبراء الرائدين في المجال، بأن ١٨% منهم يعتقدون بأنه إذا تحقق الذكاء الخارق للآلات، سوف يتسبب  بـ “كوارث إنقراضية” للبشرية.

أنا شاحنة ذات قيادة ذاتية:

كيف قد تكون ثورة الآلات؟ في أفلام الخيال العلمي، ثورة الآلات عادةً ما تُصَوَّر بتحكُّمٍ يقوم به آلات تشبه الإنسان  Android –”The Terminator،” “I، Robot” و “The Animatrix” كلها تعرض البشرية في حالة خضوع لرجل آلي يشبه البشر.

قد تؤدي الطريقة التي تصوَّر بها سيطرة الآلات إلى إعتقادٍ ساذج بأنه يمكن تجنب مخاطر الإنقراض ببساطة بعدم بناء أية آلات تشبه البشر.

ببساطة لأن الذكاء الإصطناعي ليس إلا برنامج يعمل على جهاز حاسوب.

على كلٍ، ذكاء الآلات بالضرورة لن يحتاج إلى مواصفات فيزيائية مخصصة للاحتفاظ بالطاقة والتأثير على العالم الواقعي: يمكنه ببساطة استخدام أي جهاز من التي نستخدمها يومياً و استغلاله للمزيد من التحكم.

كاتب قصص الرعب ستيفن كينغ (Stephen King) تخيل سيناريو في قصة قصيرة تدعى “الشاحنات – Trucks”.

قام بكتابتها في السبيعنيات من القرن الماضي.

إنها قصة تتحدث عن عالَم حيث الشاحنات تصبح واعية بشكل غامض وتبدأ بمهاجمة البشر.

مجموعة من البشر علقوا في مطعم في وسط الفوضى وحاولوا إنتظار الشاحنات، التي لاتزال تحتاج الوقود للعمل.

في نهاية المطاف أطلقت الشاحنات أبواقها لتتواصل باستخدام شيفرة مورس، آمرةً البشر بإعادة ملئها بالوقود وإلا سوف يُسحَقوا حتى الموت.

تنتهي القصة بهلوسة الراوي عن استعباد الشاحنات لكل البشر وفرض متطلبات الشاحنات عليهم، مثل بناء الطرق السريعة في كل مكان، وما أفاقه من حلمه هو صوت الطائرات التي تحلق فوق رأسه.

قصة كينغ القصيرة ربما قد كانت مستقبلية في زمن كتابتها لكنها ليست بعيدة عن حاضِرنا، فالشاحنات ذوات القيادة الذاتية موجودات على الطرق العامة، والضغط الإقتصادي ربما يجبر الشركات على استبدال السائقين بنظام قيادة ذاتي وموجَّه في المستقبل القريب.

حادثة إختراق شركة سوني العام الفائت أظهر لنا كم أن نُظم المعلومات لدينا تصبح ضعيفة أكثر وأكثر، وهذه ميزة وليست خطأً، عند إنتقالنا المتزايد إلى العالم الرقمي.

لكن لحد هذه اللحظة، لا يوجد سبب للذعر لحد الآن.

لدى الذكاء الإصطناعي خطوات كبيرة قبل أن يُماثل الدماغ، وهذ واضح في التكنولوجيا الحالية للسيارات ذات القيادة الذاتية: إنها بدائية لدرجة أن التنقل في وسط المدن لايزال في المراحل التجريبية.


  • إعداد: منتظر حيدر
  • تحرير: جورج موسى
  • المصدر