إن الموضوع فيه بعض السخرية إذا فكرت فيه قليلًا.

عندما منحت المملكة العربية السعودية الجنسية للروبوت نسائي الشكل “صوفيا” من صنع شركة “هانسون للروبوتات”، اعتقد المعظم أن هذا الفعل هو فقط لجذب انتباه جمهور “مبادرة الاستثمار المستقبلي”.

ولكن قالت المختصة في الأخلاق عند آلات الذكاء الاصطناعي “جوانا بريسون” لل The Verge أن هذه الحيلة تافهة جدًا.

يبدو أن صوفيا تستغل معظم صلاحياتها منذ أن أُعطيت الجنسية السعودية، حيث أنها أصبحت داعية لحقوق المرأة قي بلد لم يسمح فيه للنساء بقيادة السيارة حتى أيلول من العام المنصرم.

“أرى دفعة للقيم التقدمية […] في المملكة العربية السعودية.

صوفيا تعد من أكبر المدافعين عن حقوق المرأة، وحقوق جميع البشر، وهذا ما نطورها من أجله،” قال هانسون ل “سي إن بي سي” شارحًا كيف أن شركته قد استغلت فرصة للتغير بسبب حركة كان هدفها دعائيًا فقط.

وأضاف هانسون أن صوفيا “تواصل التوعية بشأن حقوق المرأة في المملكة العربية السعودية وبشأن حقوق جميع البشر وجميع الكائنات الحية على هذا الكوكب”.

في حين أن كل هذا يبدو نبيلًا، إلا أنه من الصعب عدم رؤية السخرية في قصة صوفيا.

إن روبوتات الذكاء الاصطناعي ليس لديها حقوق، بالرغم من أن صوفيا تمتلك جنسية، وأيضًا في اليابان هناك روبوت يمتلك تصريح إقامة.

ألا يبدو سخيفًا أن روبوتات الذكاء الاصطناعي هي التي تدعو إلى مثل هذه القيم الكبرى؟

وقال بيير باريو، الرئيس التنفيذي لشركة إيفا تيشنولوجيز، ل “Futurism”: “لما لا؟ إن مثل هذه الروبوتات تجتذب الكثير من الاهتمام، ويمكن الاستفادة من هذا الاهتمام لرفع قضايا معينة مهمة في نظر مخترعيهم”.

“إن الحصول على الجنسية يساعد في هذا الأمر، لأن لكل مواطن حقوق وواجبات تجاه المجتمع.

ولكن من الصعب تصور أن الروبوتات، ذات القدرات المحدودة، هي من تقوم بالاستفادة من الحقوق المرتبطة بالمواطنة، وإتمام واجباتها”.

حقوق الإنسان والآلة؟

في حين أن روبوتات الذكاء الاصطناعي مثل صوفيا تدافع عن حقوق المرأة، ربما قد حان الوقت للبحث في موضوع إعطاء الروبوتات حقوقًا، وليس فقط في السعودية.

إنها مسألة اكتسبت اهتمامًا كبيرًا في الأشهر الأخيرة، خارج المملكة العربية السعودية، حيث ينظر الخبراء إلى نوع الحقوق التي يجب أن تمنح للكائنات الاصطناعية، أو إذا كان ينبغي لنا أن نتحدث أساسًا عن ما يسمى بحقوق الروبوتات.

أوضح هانسون ل “سي إن بي سي”: “إن صوفيا، في هذه المرحلة، تعتبر طفلًا.

ففي بعض المواضيع تمتلك عقل طفل، ولكن في مواضيع أخرى فإنها حصلت على عقل شخص بالغ، عقل يمتلك مفردات شخص متعلم.

ولكن مع ذلك، إنها لم تكتمل بعد.

لذلك، علينا أن نعطيها طفولتها”.

“السؤال هو: الآلات التي نصنعها ونعطيها الحياة – آلات حية مثل صوفيا – هل سنعاملهم مثل الأطفال؟ هل يستحق الأطفال الحقوق والاحترام؟ حسنًا، أعتقد أننا يجب أن نرى مستقبلًا فيه احترام لجميع الكائنات الواعية، ومن ضمنها الآلات”.

راجا تشاتيلا، رئيس اللجنة التنفيذية ل”المبادرة العالمية للاعتبارات الأخلاقية في الذكاء الاصطناعي والنظم المستقلة” في معهد مهندسي الكهرباء والإلكترونيات (IEEE)، يقدم وجهة نظر مختلفة.

ويقول تشاتيلا لل “Futurism”: “لا يمكن لأي نظام للذكاء الاصطناعي، أو روبوت، أن يكون له أي رأي.

برنامج الذكاء الاصطناعي لا يمكنه إضافة شيء في أي نقاش.

إنه لا يعرف حتى ماذا تعني المناقشة”، قال متحدثًا عن كون صوفيا داعية لحقوق المرأة في السعودية.

“في هذه الحالة، فإنه ]الروبوت[ لا يعرف حتى ما هي المرأة، وما هي الحقوق، إنه فقط يكرر جملًا وعبارات وضعها فيه مبرمج بشري”.

تشاتيلا استخدم برنامج التواصل النصي الذكي “Tay” من صنع مايكروسوفت مثالًا، الذي صدر في مارس 2016، لتسليط الضوء على كيفية التقاط برامج الذكاء الاصطناعي النوع الخاطئ من القيم.

في حالة Tay، تعلمت أن تغرد أشياء سيئة جدًا بعد التعرض للتغريدات العنصرية والجنسية.

وفي هذا الصدد، يرى شاتيلا أن برامج الذكاء الاصطناعي لا ينبغي أن يحصلوا على أية حقوق، حيث قال:
“بشكل عام يجب علينا تجنب تشبيه الآلات بالبشر.

لا أرى أي سبب لإعطاء حقوق من أي نوع، بما في ذلك المواطنة، إلى برنامج أو لآلة”.

الحقوق موجودة للأشخاص؛ للبشر القادرين على التعبيرعن إرادتهم الحرة، والذين يمكنهم أن يتحملوا مسؤولية أفعالهم وأقوالهم.

وراء أي روبوت أو نظام ذكاء اصطناعي هناك مبرمجين بشر.

حتى لو كان البرنامج قادرًا على التعلم، سوف يتعلم ما تم تصميمه لتعلمه.

المسؤولية تقع على عاتق المصمم البشري.

“هذا هو بالضبط السبب الذي جعل IEEE تنشرت مؤخرًا دليلًا للنمو الأخلاقي في برامج الذكاء الاصطناعي. إنها المناقشة في الوقت المناسب”، جادل تشاتيلا.

غير أن وجهة نظره تقع على افتراض أن الذكاءات الاصطناعية لن تكون قادرة على تطوير الوعي الذاتي أو الحصول على إرادة خاصة بها مستقبلًا.

في حين أن هذه الفكرة قد تبدو وكأنها تنتمي إلى عالم الخيال العلمي، إنها بالتأكيد تستحق النظر في النقاش الشامل حول حقوق الروبوتات.

ولكن في هذه المرحلة، يجب أن تطبق الاعتبارات الأخلاقية على البشر الذين يطورون هذه الذكاءات الاصطناعية.

“إذا كنت تقصد اتخاذ الروبوتات القرارات الأخلاقية، أفضل أن أقول أننا يمكننا برمجة الروبوتات بحيث تتخذ الخيارات وفقا لقواعد أخلاقية نحن نضعها فيها (وهناك العديد من هذه القواعد)”، أشار تشاتيلا.

“لكن هذه القرارات لن تكون أخلاقية بنفس المعنى مثل قرارات البشر، لأن البشر قادرون على اختيار أخلاقياتهم الخاصة، باستخدام إرادتهم الحرة”.


  • ترجمة: حسن نحلة.
  • تدقيق: رؤى درخباني.
  • تحرير: عيسى هزيم.
  • المصدر