ما الذي يقدمه تعلم الآلة للذكاء الاصطناعي؟


الحواسيب التي تعلّم نفسها بنفسها تعيش معنا اليوم، ومع تزايد شهرتها في المجالات والتَّطبيقات عاليَّة الخطورة مثل العمليات الجراحيَّة والكشف عن الإرهاب وسيارات القيادة الذاتيَّة؛ فقد قادت الباحثين إلى عدة تساؤلات أولها: ما الذي يمكننا فعله للتأكد من أنّنا نستطيع الوثوق بهذه الأجهزة؟

دائما ما يكون هناك مرة أولى لكل شيء وأول حادثة وفاة في السيارات بدون سائق كانت في مايو عام 2016، حين شغل «جوشوا براون-Joshua Brown» نظام القيادة الآليَّة في سيارة تسلا (سيارة ذاتيَّة القيادة بشكل كامل)، ومع عبور شاحنة ضخمة أمامهم لم يلاحظها أيٌّ من حساسات النظام الآلي أو جوشوا بسبب ضوء الشَّمس الموجود خلفها فوقعت الحادثة المأساويَّة.

ومع الأخذ بعين الاعتبار أن العديد من النَّاس يموتون يوميًا بسبب حوادث السَّيارات، ففي الولايات المتَّحدة الأمريكيَّة وحدها هناك حالة وفاة واحدة كل 94 مليون ميل، وبالنّسبة لتسلا فقد كانت هذه الحادثة الأولى من نوعها بعد أكثر من 130 مليون ميل من القيادة الآليَّة.

وقد أثارت هذه المأساة سؤالًا هامًا: إلى أي مدى نفهم ونثق بأجهزة الكمبيوتر في سيارات التحكم الذاتي التي دُرِّبت للقيام بنشاطات اعتاد الإنسان على فعلها؟

للإجابة عن هذا السؤال علينا أولًا النظر حولنا فعصر اليوم هو عصر تعلم الآلة بامتياز. يمكن تدريب الآلات لتتعرَّف على أنماط معيَّنة في بيئتها والاستجابة لها بالشَّكل المناسب، الأمر الذي يحدث في كل مرَّةٍ تضع كاميرتك الرقميَّة مربَّعًا حول الوجه للتَّركيز عليه في الصّورة، وفي كل مرّة يجيب فيها المساعد الشّخصيّ في الهاتف الذّكي على سؤالك، وأيضًا في كل مرَّةٍ تتطابق فيها الإعلانات المعروضة لك مع اهتماماتك أثناء بحثك في الإنترنت.

ويقول «زوبين قهرماني-Zoubin Ghahramani» الدكتور في هندسة تكنولوجيا المعلومات في جامعة كامبريدج: «تعلم الآلة هو طريقة تبرمج فيها أجهزة الكمبيوتر لتتمكن من التَّعلم من خبرتها وتحسين أدائها بطريقة شبيهة بالطريقة التي يتعلَّم فيها البشر والحيوانات القيام بالمهام. وتزداد مسألة الثقة أهميَّة مع تصاعد استخدام تقنيات التعلم الآلي في كل شيء من الشؤون الماليَّة والرِّعاية الصّحيَّة وغيرها».

هناك حالات خاصة يواجه فيها الذكاء الاصطناعي قرارات حرجة عندما يكون على السيارة ذاتيَّة القيادة مثلًا اتخاذ قرار حياة أو موت، كأن تقرر الاصطدام بالمشاة أو تتجنبهم وتخاطر بحياة ركابها؟ في مجال التّشخيص الطّبي، هل من الممكن أن تكون الآلة غير دقيقة في تشخيصها كونها تستند في قرارها على عيّنة صغيرة؟ وفي المعاملات الماليَّة، فهل ينبغي أن يشرح الكمبيوتر مدى قوَّة تقييمه لتقلب أسواق الأسهم؟

ويضيف قهرماني: «تملك الآلات اليوم قدرات شبيهة بقدرات الإنسان في العديد من المهام الإدراكيَّة حتى لو واجهت تلك الآلات حالة جديدة لم يسبق لها التَّعامل معها من قبل وحتى لو تعاملت مع مجموعة غير مكتملة من البيانات، لكن ما الذي يجري داخل ذلك الصندوق الأسود؟ فإذا كانت العمليات التي يجري اتخاذ قرارات عن طريقها أكثر شفافيَّة فالثقة هنا لن تكون قضيَّة مهمة نقلق بشأنها».

ويبني فريقه الخوارزميات التي تعمل في قلب هذه التّقنيات «البنات الخفيَّة-invisible bit» كما يشير إليها قهرماني. إذ تعتبر الثقة والشفافيَّة محاور هامة في عملهم، فيقول: «نحن نعرض كافة العمليات الرياضيَّة لتعلم الآلة كأنك تجلس داخل إطار العمل الذي يجري من خلاله التوصل لمرحلة الإدراك انطلاقًا من مرحلة عدم اليقين، أي قبل أن تتوصل إلى البيانات النهائية -سواء كنت طفلًا يتعلم الكلام أو عالمًا يرغب بتحليل بعض البيانات- فإنَّك تبدأ مع الكثير من الأشياء غير اليقينيَّة ثم وبازدياد البيانات المُجمَّعة لديك، تصل إلى المزيد والمزيد من النَّتائج المؤكَّدة».

ويقول أيضًا: «ما نريده من الآلة عندما تتخذ القرارات، أن تكون واضحة حول المرحلة التي وصلت إليها في هذه العمليَّة. وأن تطلعنا على حقيقة الوضع عندما تكون غير متأكدة من دقة النّتائج».

وأحد الأساليب التي يمكن اتباعها هو التَّقييم الذًّاتي الدَّاخلي أو المعايرة المرحليَّة إذ يمكن للآلة اختبار يقينيَّة النَّتائج الخاصّة بها وتقديم تقرير عنها.

قبل عامين، أطلقت مجموعة قهرماني بتمويل من غوغل ما يدعى بالإحصاء الآلي. وهو عبارة عن أداة تساعد العلماء على تحليل مجموعات البيانات التي لها أنماط ونماذج ذات دلالات إحصائيَّة، والأهم من ذلك، فإنها توفر تقريرًا يشرح نسبة التَّأكد من التَّوقعات التي تعطيها.

المشكلة في أنظمة تعلم الآلة أنَّك لا تعرف حقًا ما يجري داخلها والإجابات التي تقدمها لا توضع في سياق واضح يمكن فهمه من قبل الإنسان. إلّا أن الإحصاء الآلي يوضح ما تفعله بشكل مفهوم ومقروء.

في تطبيقات مثل التَّشخيص الطبّي تصبح الشفافيَّة في طريقة اتّخاذ القرار أهميَّة خاصة، ويسلِّط الدّكتور «ادريان ويلر-Adrian Weller» -الذي يعمل مع قهرماني- الضَّوء على صعوبة ذلك الأمر بقوله: «القضيَّة الهامّة في الذّكاء الاصطناعيّ الجديد والأنظمة التي تتعلَّم أو تتطوَّر هو أن عملياتها لا ترتبط بشكلٍ واضحٍ في مسارات صنع القرارات العقلانيَّة التي يمكن أن يفهمها الإنسان بسهولةٍ».

ويهدف بحثه إلى جعل هذه الطرق أكثر شفافيَّة ووضوحًا، من خلال التَّجسيد البصري مثلًا ومعرفة ما يحدث عندما تُستَخدم هذه النُّظم في سيناريوهات حقيقيَّة خارج بيئات التَّدريب إذ تحدث الأشياء الشَّائعة بشكلٍ أكبر.

ويضيف: «نهدف إلى جعل أنظمة الذّكاء الاصطناعي قادرة على مراقبة حالتها بشكلٍ فعالٍ كالكشف عن تغيُّر البيئة وتحديد قدرتها على إعطاء نتائج موثوقة ومتى تصدر تنبيهًا أو ربما التحول إلى الوضع الآمن»، كما في السَّيارة ذاتية القيادة التي تقرر فيما إذا كانت حركة المرور الكثيفة في ليلة ضبابيَّة خطرة وبالتالي فقد ينتج عن قراراتها نتائج غير مؤكدة فتطلب من الإنسان السيطرة والقيادة.

موضوع ويلر المتعلق بالثقة والشفافيَّة واحدٌ من عدّة مشاريعٍ أُطلقَت حديثًا من مركز ليفرهولم لمستقبل الذكاء «CFI» بتكلفة تقدر بعشرة ملايين يورو. وعلق قهرماني الذي يشغل منصب نائب مدير المركز قائلًا: «من المهم أن نفهم كيف تساعد عملية تطوير التّقنيات، بدلًا من أن تحل محل البشر على مدى السّنوات المقبلة، والفلاسفة وعلماء الاجتماع ومختصو علوم المعرفة وعلماء الكمبيوتر سيساعدون في توجيه مستقبل التكنولوجيا، ودراسة آثارها سواء كانت مخاوف أو فوائد يمكن أن تعود على المجتمع».

يجمع مشروع «CFI» أربعة من الجامعات الرائدة في العالم (كامبريدج وأكسفورد وبيركلي وكليَّة إمبريال في لندن) لاستكشاف آثار الذَّكاء الاصطناعي على الحضارة البشريَّة.

وسيعمل مجتمع علمي متعدد التّخصصات من الباحثين وواضعي السياسات والصناعيين للتحقيق في مواضيع مثل تنظيم الأسلحة ذات التَّحكم الذَّاتي، والآثار المترتبة على تسخير الذكاء الاصطناعي في مجالات تطبيق الديمقراطيَّة.

يصف قهرماني شعوره بالتفاؤل ضمن مجال تعلم الآلة قائلًا: «تتزايد أهميَّة هذا المجال الذي طالما كان محصورًا بالبحوث الأكاديميَّة ولكن في السنوات الخمس الماضيَّة أدرك الناس أن هذه الأساليب مفيدة بشكل لا يصدق في مجموعةٍ واسعةٍ من المجالات الهامّة».

ويضيف: «حن غارقون بكمٍّ كبيرٍ من البيانات، وبزيادة القدرة الحاسوبيَّة سنرى المزيد من التَّطبيقات التي تُقدِّم التَّنبؤات خلال الزَّمن الحقيقي. وسنرى أيضًا المزيد من القدرات التي يمكن للآلات فعلها، مما يتحدى مفهومنا حول الذَّكاء».

ونختم بالقول: «الذَّكاء الاصطناعي قادرٌ إما على القضاء على الفقر والمرض أو تسريع نهاية الحضارة البشريَّة التي نعرفها»، وفقًا للكلمة التي ألقاها البروفيسور ستيفن هوكينغ في 19 أكتوبر 2016 عند إطلاق مركز مستقبل الذكاء.


ترجمة: دعاء عساف
تدقيق: عبدالسلام محمد

المصدر