في الأسابيع الماضية، انتشرت قصة عن برنامج تجريبي لتعلم الآلة (Machine Learning) خاص بفيسبوك، محاطة بمشاعر فزع متزايد وبعناوين صحفية مثيرة.

يقول أحد العناوين: «قام مهندسو فيسبوك تحت تأثير الفزع بنزع القابس عن برنامج ذكاء اصطناعي بعدما قامت الروبوتات بتطوير لغة خاصة بها»، وفي عنوان آخر: فيسبوك يطفئ أحد برامج ذكاء اصطناعي بعدما طوّر الأخير لغة مخيفة خاصة به.

وتوالت العناوين: هل صنع الجنس البشري فرانكشتاين؟ إحدى المجلات البريطانية نقلت عن بروفيسور في الروبوتيات، أن الواقعة تكشف “خطورة الاتكال على الذكاء الاصطناعي” وأن الأمر “قد يكون قاتلًا” إذا استعملت تقنيات مماثلة في روبوتات الجيوش.

استمرت الإشارات إلى ثورة الروبوتات والآليات القاتلة، والذكاء الاصطناعي الشرير وانقراض الجنس البشري في بعض المقالات الجادة وغير الجادة.

كان المقطع الأكثر اقتباسًا هو هذا الحديث الذي قام به اثنان من روبوتات المحادثة بفيسبوك واللذان تعلما الحوار سويًا بطريقة قد تكون مخيفة بالفعل:

بوب: أنا قادر على أنا أنا أي شيء آخر

أليس: الكرات لها صفر لي لي  لي لي لي لي لي لي لي لـ.

بوب: أنت أنا أي شيء آخر

أليس: الكرات لها كرة لي لي لي لي لي لي لي لي

الحقيقة أن الأمر لا يعدو كونه سجعًا فارغًا. فقبل بضعة أسابيع، كشفت مجلة (FastCo Design) بالفعل عن جهود فيسبوك لتطوير “شبكة نزاع فصيح” بهدف تطوير برمجيات للتفاوض.

صمم الروبوتان المأخوذ عنهما الاقتباس السابق (كما جاء في مدونة وحدة أبحاث الذكاء الاصطناعي بفيسبوك في يونيو الماضي) بهدف توضيح أن “بالإمكان لطرفي محادثة لهما هدفان مختلفان (يقوم بدورهما شبكات عصبونية مدربة طرف لطرف) أن يشتركا في مفاوضات من البداية للنهاية مع روبوتات أخرى أو مع بشر، وأن يتوصلا إلى قرار أو نتائج مشتركة”.

لم تكن الروبوتات تقوم بأي فعل خبيث سوى النقاش حول اقتسام مصفوفة من الأشياء المعطاة (ممثلة في واجهة المستخدم بأجسام عادية كالكتب أو القبعات أو الكرات) بقسمة مرضية للطرفين.

كان الهدف هو تطوير روبوت محادثة قادر على التعلم من الاحتكاك بالإنسان ولديه القدرة على التفاوض على اتفاق مع مستخدم بشكل بليغ بما يكفي لكي لا يدرك المستخدم أنه يتفاوض مع روبوت، الأمر الذي تدّعي وحدة الذكاء الاصطناعي بفيسبوك (FAIR) أنه كان ناجحًا: «أداء أفضل عملاء (FAIR) المتفاوضين، والذي يستخدم التعليم التعزيزي والمحادثات التمهيدية، ضاهى أداء المفاوضين البشر… كاشفًا أن روبوتات FAIR ليست قادرة فقط على الحديث بالإنجليزية، لكنها قادرة كذلك على التفكير بذكاء فيما يجب قوله».

كشفت فاستكو، أنه عندما وجه فيسبوك اثنين من هذه الروبوتات متوسطة الذكاء للحديث إلى بعضهما، لاحظ المبرمجون أنهم أخطأوا بعدم تشجيع الروبوتات على التواصل بقواعد الإنجليزية المفهومة للبشر.

وفي محاولاتهما للتعلم أحدهما من الآخر، بدأ الروبوتان في التواصل ذهابًا وإيابًا بلغة مختصرة مختلقة، والتي حتى لو بدت مخيفة، فهي لا تزيد عن ذلك.

يقول دروف باترا (Dhruv Batra) الباحث الزائر في (FAIR): «سيقوم العملاء لاحقًا بالحيود عن اللغة المفهومة واختراع كلمات رمزية خاصة بهم».

ويتابع: «مثلًا، حين أقول “the” خمس مرات، ستفهمهما أنت أنني أريد خمس نسخ من هذا الشيء، هذا ليس اختلافًا كبيرًا عن الطريقة التي يخترع بها البشر اختصاراتهم».

المؤكد أن فيسبوك أنهى المحادثة بين الروبوتين، لكن ذلك لم يكن بسبب الفزع من نشوء سكاينت Skynet محتمل.

ففي تصريحه لفاستكو يقول الباحث مايك لويس أنهم قرروا ببساطة أن “اهتمامنا كان بتطوير روبوتات قادرة على الحديث إلى البشر” وليس الحديث بكفاءة إلى أحدهما الآخر، لذا لجأنا إلى جعلهم يكتبون إلى بعضهم بشكل مفهوم.

لكن الأمر تضخم، على غرار لعبة التليفون المعطوب، وما كان في الأصل مجرّد ملاحظات فنية عن الآثار قصيرة المدى لتعلّم الآلة؛ تحوّل إلى إرهاصات ليوم القيامة! وهو سوء فهم يشبه كثيرًا ما دار في حديث الروبوتين.

ربما يكون هناك أسباب وجيهة لعدم السماح للآلات الذكية بتطوير لغتها الخاصة والتي لا يقدر البشر على فهمها، لكن -مرة أخرى- هذه ظاهرة تافهة نسبيًا تحدث حين تجعل آلتين ذكيتين تتعلمان إحداهما من الأخرى.

الجدير بالذكر أنه عندما شرحت اختصارات الروبوتات، كانت المحادثات الناتجة مفهومة، بقدر ما لم تكن مخيفة مثلما كانت تبدو من قبل.

وكما أوردت فاستكو، من الممكن أن تسمح هذه النوعية من تعلم الآلة للأجهزة أو النظم الذكية بالتواصل مع بعضها البعض بكفاءة. هذه المكاسب قد تأتي ببعض المشاكل -تخيّل قدر الصعوبة في حل مشكلة تطرأ في نظام ما- لكن الأمر لا يزال بعيدًا كل البعد عن انعتاق الآلات الذكية من تحكّم الإنسان.

في هذه الحادثة، الأمر الوحيد الذي كان بإمكان روبوتات المحادثة فعله كان التوصّل إلى طريقة أكثر فعالية في مقايضة الكرات فيما بينهما.

هناك استخدامات مفيدة لتعلّم الآلة، مثل تطوّر التشخيص الطبي، واستخدامات قد تكون سيئة جدًا، مثل التنبؤ بأحداث الشغب، والتي قد تستخدمها الشرطة لتبرير استخدام العنف مع المظاهرات.

كل الاستخدامات في أساسها هي طريقة لترجمة وتحليل قدر ضخم من البيانات، وحتى الآن، تقتصر خطورتها على كيفية اختيار الإنسان لتوزيع واستخدام هذه السلطة.

يظل الأمل في أن يكون البشر أذكياء بما يكفي لعدم إدخال تجارب تعلّم الآلة في مجالات خطرة، مثل جيش من الروبوتات التي تطلق الليزر، أو في مفاعل نووي.

لكن إذا فعل أحدهم ذلك، وحدثت كارثة، فستكون هذه الكارثة من نتاج جهل الإنسان وغبائه، وليس بسبب نزول إلهام فلسفي ما على الروبوتات بأن الإنسان سيء.

على الأقل، هذا هو الحال حتى الآن. تعلّم الآلة لم يقترب حتى من الذكاء الاصطناعي الحقيقي، والأمر لا يعدو كونه عبثًا بشريًا بدائيًا بالتقنية.

أما إذا كان على أحدهم أن يفزع بشأن هذه الأخبار في 2017، فهم المفاوضون المحترفون، الذين قد يجدون أنفسهم بلا عمل.


  • ترجمة: إبراهيم صيام
  • تدقيق: دانه أبو فرحة
  • تحرير: أحمد عزب

المصدر