نعم، وحتى الشبكات العصبونيّة (Neural Networks).
إن الهستيريا حول مستقبل الذكاء الاصطناعي منتشرة في كل مكان.
يبدو أنه لا وجود لنقص بالأخبار المثيرة حول كيف يمكنه أن يعالج الأمراض، يسرّع الاختراعات البشرية، ويحسّن الإبداع البشري.
بمجرد مشاهدة العناوين الإعلامية البارزة، قد يخطر ببالك أننا نعيش فعلًا في المستقبل حيث الذكاء الاصطناعي قد اخترق كل جانب من جوانب المجتمع.
بينما من المستحيل نكران أنه قد مهّد الطريق لثروة من الفرص الواعدة، فهو أدى أيضًا إلى ظهور فكر يمكن أن يكون أفضل وصف له هو “نزعة حلول الذكاء الاصطناعي “AI solutionism”.
هذه هي الفلسفة التي تقول أنه في ضوء وجود بيانات كافية، فإن خوارزميات التعلم التلقائي (machine learning) يمكنها أن تحل جميع مشاكل الإنسانية.
ولكن يوجد مشكلة كبيرة في هذه الفكرة؛ بدلًا من أن تدعم تقدم الذكاء الاصطناعي، فإنها في الحقيقة تعرّض قيمته للخطر وذلك بتجاهل مبادئ الأمان المهمة الخاصة به، ووضع توقعات غير واقعية حول ماذا يمكنه حقًا أن يفعل للبشرية.
نزعة حلول الذكاء الاصطناعي:
في بضع سنوات قليلة فقط، شقت نزعة حلول الذكاء الاصطناعي طريقها من أفواه دعاة التقنية في منطقة “وادي السيليكون” إلى عقول المسؤولين الحكوميين وصنّاع السياسة من حول العالم.
البندول (النواس أو الرّقاص) قد تأرجح من الفكرة المريرة التي تقول أن الذكاء الاصطناعي سوف يدمر الإنسانية، إلى الاعتقاد الطوباوي والذي يقول أن منقذنا الخوارزمي هنا.
الآن، نحن نرى أن الحكومات تتعهد بدعم مبادرات الذكاء الاصطناعي الوطنية وتتنافس في سباق التسلح التقني والخطابي من أجل السيطرة على قطاع التعلم التلقائي المزدهر.
على سبيل المثال، صرّحت الحكومة البريطانية باستثمار 300 مليون يورو في أبحاث الذكاء الاصطناعي وذلك من أجل أن تنصب نفسها بصفتها الرائدة في هذا المجال.
وبعد أن أصبح الرئيس الفرنسي “إيمانويل ماكرون” معجبًا بالإمكانيات التحويلية للذكاء الاصطناعي، تعهّد بتحويل فرنسا إلى مركز عالمي للذكاء الاصطناعي.
وفي الوقت نفسه، كانت الحكومة الصينية تقوم بزيادة مهاراتها بالذكاء الاصطناعي بخطط وطنية من أجل إحداث صناعة صينية في هذا المجال تُقدر بـ 150 مليار دولار أمريكي بحلول عام 2030.
نزعة حلول الذكاء الاصطناعي آخذة بالارتفاع وهي موجودة هنا لتبقى.
الشبكات العصبونيّة؛ القول أسهل من الفعل:
بينما العديد من البيانات العامة السياسية تروّج للتأثيرات التحويلية لـ “ثورة الذكاء الاصطناعي” المرتقبة، فإنها تميل للتقليل من التعقيد حول انتشار أنظمة تعلم تلقائي متقدمة في العالم الحقيقي.
أحد أفضل الأنواع الواعدة من تقنيات الذكاء الاصطناعي هي الشبكات العصبونيّة.
يتم تشكيل هذا النوع من التعلم التلقائي بشكل واسع بناءً على البنية العصبية للدماغ البشري، ولكن على نطاق أصغر بكثير.
تستخدم العديد من المنتجات المعتمدة على الذكاء الاصطناعي الشبكات العصبونيّة من أجل استنتاج الأنماط والقواعد من كميات كبيرة من البيانات.
ولكن ما لا يفهمه العديد من السياسيين هو أن مجرد إضافة شبكة عصبونيّة إلى مشكلة لن يعني إيجاد حل تلقائي لها.
وبنفس الطريقة إضافة شبكة عصبية إلى ديمقراطية لا يعني أنها ستكون أكثر شموليةً، عادلةً، أو شخصيةً على الفور.
تحدي بيروقراطية البيانات:
تحتاج أنظمة الذكاء الاصطناعي إلى الكثير من البيانات لتبدأ عملها، ولكن القطاع العام عادةً لا يملك البنية التحتية المناسبة للبيانات من أجل دعم التعلم التلقائي المتقدم.
تبقى معظم البيانات مخزنةً في الأرشيفات غير المتصلة بالإنترنت.
المصادر الرقمية القليلة للبيانات تميل إلى أن يتم دفنها في البيروقراطية.
في كثير من الأحيان، تُنشر البيانات عبر أقسام حكومية مختلفة وكل منها يتطلب أذونات خاصة ليتم الوصول إليها.
علاوةً على كل ذلك، فإن القطاع العام يفتقر عادةً للموهبة البشرية مع الإمكانيات التقنية الصحيحة لجني فوائد الذكاء الآلي بشكل كامل.
لأجل هذه الأسباب، جذبت الإثارة حول الذكاء الاصطناعي العديد من النقاد.
البروفيسور في علوم الحاسوب في جامعة بيركلي “ستيوارت راسل”، لطالما دعا لنظرة أكثر واقعيةً تركز على التطبيقات اليومية البسيطة للذكاء الاصطناعي بدلًا من السيطرة الافتراضية من قبل الروبوتات فائقة الذكاء.
وبالمثل، بروفيسور علم الروبوتات في معهد ماساتشوستس للتكنولوجيا “رودني بروكس”، كتب ما يلي: «تستغرق كل الابتكارات تقريبًا في مجال الروبوتات والذكاء الاصطناعي وقتًا طويلًا حتى يتم نشرها على نطاق واسع أكثر مما يتخيله الأشخاص الذين يعلمون في المجال أو خارجه».
إحدى الصعوبات العديدة في نشر أنظمة الذكاء الاصطناعي هي أنه معرّض جدًا لهجمات معادية.
وهذا يعني أن الذكاء الاصطناعي الخبيث يمكن أن يستهدف ذكاءً اصطناعيًا آخر لإجباره على القيام بتوقعات خاطئة أو التصرف بطريقة معينة.
وقد حذر العديد من الباحثين ضد إطلاق الذكاء الاصطناعي دون معايير أمنية مناسبة وآليات دفاعية.
ومع ذلك، لا يزال أمن الذكاء الاصطناعي موضوعًا غالبًا ما يتم إهماله.
التعلم التلقائي ليس سحرًا:
إذا أردنا جني الفوائد وتقليل الأضرار المحتملة للذكاء الاصطناعي، فإنه يجب علينا أن نبدأ بالتفكير حول كيفية تطبيق التعلم التلقائي بطريقة مجدية على مناطق محددة من الحكومة، قطاع الأعمال والمجتمع.
وهذا يعني أننا نحتاج إلى إجراء مناقشة حول أخلاقيات الذكاء الاصطناعي والارتياب الموجود لدى الكثير من الأشخاص تجاه التعلم التلقائي.
والأهم من ذلك، هو أنه من الضروري أن نكون مدركين لحدوده، لا يزال البشر بحاجة لأخذ زمام المبادرة.
بدلًا من رسم صورة غير واقعية لقوة الذكاء الاصطناعي، من المهم التراجع للوراء وفصل الإمكانيات التقنية الفعلية له عن السحر.
لوقت طويل، اعتقد موقع التواصل الاجتماعي “الفيسبوك” أن المشكلات، كمشكلة انتشار معلومات مضللة وخطابات كراهية، من الممكن تحديدها خوارزميًا وإيقافها.
ولكن في ظل الضغوط الأخيرة من قبل المشرعين، سرعان ما تعهدت الشركة باستبدال خوارزمياتها بجيش يضم 10,000 مراجع بشري.
وقد أدركت مهنة الطب أيضًا أن الذكاء الاصطناعي لا يمكن اعتباره حلًا لجميع المشكلات.
كان برنامج علم الأورام “IBM Watson” عبارةً عن جزء من الذكاء الاصطناعي، والذي كان يهدف لمساعدة الأطباء على معالجة السرطان.
على الرغم من أنه قد تم تطويره لتقديم أفضل التوصيات، فإن الخبراء البشريين وجدوا صعوبةً بالثقة في الآلة.
ونتيجةً لذلك تم التخلي عن هذا البرنامج في معظم المستشفيات حيث تم اختباره.
ظهرت مشاكل مماثلة في المجال القانوني عندما تم استخدام الخوارزميات في المحاكم في الولايات المتحدة الأمريكية من أجل محاكمة المجرمين.
قامت خوارزمية بحساب نتائج تقدير المخاطر ونصحت القضاة بشأن الحكم.
وقد وُجد أن النظام قائم من أجل مضاعفة التمييز العنصري الهيكلي لذا تم التخلي عنه فيما بعد.
هذه الأمثلة تبين أن الذكاء الاصطناعي لا يملك حلًا لكل شيء.
استخدام الذكاء الاصطناعي ببساطة من أجل الذكاء الاصطناعي بحد ذاته قد لا يكون مُنتجًا ومفيدًا بشكل دائم.
ليس أفضل حل لكل مشكلة هو من خلال تطبيق الذكاء الآلي عليها.
هذا هو الدرس الحاسم لكل شخص يهدف إلى تعزيز الاستثمارات في برامج الذكاء الاصطناعي الوطنية: جميع الحلول تأتي مع كلفة وليس كل شيء من الممكن أن يكون آليًا يجب عليه أن يكون.
“فياتشيسلاف بولونسكي” باحث في جامعة أوكسفورد.
- ترجمة: ليلى خالد.
- تدقيق: أحلام مرشد.
- تحرير: سهى يازجي.
- المصدر