يفترض من الروبوتات البشرية أن تكون مساعدة مخلصة للبشر، لكن مؤخرًا انتشر مقطع فيديو يظهر عكس هذا الافتراض، فهل تُعد الروبوتات خطرًا على الجنس البشري؟

استعرضت شركة يونيتري، المصنعة للروبوتات في الصين، أحدث روبوتاتها من طراز H1 في مهرجان مدينة تايشان بمقاطعة قوانغدونغ، عندما اقترب أحد الروبوتات من حاجز الحشود وبدا وكأنه يندفع نحو امرأة مسنة، وكاد يصدمها برأسه.

لقي هذا الحادث اهتمامًا واسعًا على الإنترنت وأدى إلى نقاش محتدم، هل هاجم الروبوت المرأة المسنة عمدًا أم أن ما حدث كان مجرد صدفة نتيجة تعثر الروبوت؟

يتجاهل معظم الناس فكرة أننا ما زلنا بعيدين جدًا عن تطوير الروبوتات التي يمكنها مهاجمة البشر عمدًا. إذ يُتحكم في هذه الآلات من بُعد. مع ذلك، فإن الخطر على السلامة العامة ما زال كبيرًا.

تشير الإحصائيات إلى زيادة متوقعة في مبيعات الروبوتات البشرية خلال السنوات العشر القادمة، وتشير إلى أنه مع انتشار المزيد من هذه الروبوتات، ستزداد احتمالية وقوع حوادث مشابهة لما حدث في الصين. يرى الباحثون في مجال الروبوتات أن الحكومات لا تبدي الاهتمام الكافي للمخاطر المحتملة المرتبطة بهذه الآلات.

لذا يجب اتخاذ عدد من الإجراءات العاجلة لتعزيز سلامة التعامل مع الروبوتات البشرية:

1- زيادة متطلبات مالكي الروبوتات:

إن قدرة المستخدمين على التحكم في الروبوتات البشرية متفاوتة. إذ توجد آليات تحكم مختلفة، فبعض الروبوتات، مثل أوبتيموس من شركة تسلا، تُشغل من بُعد من قِبل البشر في مركز تحكم، في حين يُتحكم في أخرى، مثل يونيتري H1، يدويًا باستخدام عصا تحكم. هذا التفاوت مهم عند النظر في قضايا السلامة والمسؤولية.

تُباع هذه الروبوتات مقابل 90000 يورو، وتأتي مع مجموعة تطوير برمجيات (SDK) تتيح للمستخدمين تطوير أنظمة ذكاء اصطناعي خاصة بهم، لكن بحدود معينة. يوضح المثال المذكور أن الروبوت يمكنه تنفيذ مهام بسيطة مثل نطق جملة أو التعرف على الوجوه، لكنه ليس متقدمًا بما يكفي لأداء أنشطة معقدة مثل نقل الأطفال إلى المدرسة.

لكن من المُلام إذا قُتل أو تأذى أحد ما من قِبل هذه الروبوتات التي يتحكم فيها البشر؟ من الصعب تحديد على من تقع المسؤولية في هذه الحالة، إذ يعتمد ذلك على ما إذا كان الحادث ناتجًا من خطأ بشري من المشغل أم عن خلل تقني في الروبوت نفسه.

رفع أرمل دعوى قضائية في فلوريدا ضد شركة إنتويتيف سيرجيكال بعد وفاة زوجته عام 2022. كانت وفاة الزوجة مرتبطة بالإصابات التي تعرضت لها نتيجة حرق حراري في أمعائها، الذي حدث في أثناء عملية جراحية شارك فيها أحد الروبوتات الطبية التابعة للشركة.

أُسقطت القضية في النهاية عام 2024، لكن من المهم الإشارة إلى أن الرجل قرر رفع دعوى ضد الشركة المصنعة للروبوت، وليس الأطباء. هذا التصرف يسلط الضوء على الحاجة إلى أن تضع صناعة الروبوتات لوائح قانونية لمنع حدوث مثل هذه الحوادث، تمامًا كما يطالب الجمهور بحمايتهم.

يوجد فرق كبير بين تنظيم الطائرات من دون طيار والروبوتات المتنقلة، إذ تخضع الطائرات من دون طيار لقوانين الطيران وقيود أخرى عند استخدامها في الأماكن العامة، في حين لا توجد قوانين محددة تحكم استخدام الروبوتات المتنقلة.

قدمت شنغهاي إرشادات حوكمة للروبوتات. تتضمن هذه الإرشادات التي نُشرت في صيف 2024، قواعد مهمة مثل ضمان عدم تهديد الروبوتات لأمن الإنسان، وأن الشركات المصنعة مسؤولة عن تعليم المستخدمين كيفية استخدام هذه الآلات بطريقة أخلاقية.

لا توجد حاليًا قوانين في المملكة المتحدة تمنع الأشخاص من أخذ الروبوتات مثل الكلاب الروبوتية أو الروبوتات البشرية إلى الأماكن العامة مثل الحدائق أو الحانات، ما يظهر غياب القيود القانونية المحددة على هذه الأنشطة.

يمكن أخذ تدابير عملية لتحسين سلامة استخدام الروبوتات، مثل التحكم في الروبوتات من قبل الأشخاص الذين يكونون تحت تأثير الكحول أو المخدرات، أو عندما يكونون مشغولين بشيء آخر مثل استخدام الهواتف، أيضًا يمكن تقييد استخدام الروبوتات في البيئات عالية المخاطر مثل الأماكن الضيقة التي يوجد فيها العديد من الأشخاص، والأماكن التي تحتوي على مواد قابلة للاحتراق أو مواد كيميائية، وأسقف المباني لتجنب الحوادث المحتملة.

2- تحسين التصميم:

تعد الروبوتات التي تؤدي الحركات مثل الرقص أو القفز ممتعة للمشاهدة، لكن يجب أن تكون سلامة الجمهور أولوية، سيكون التصميم الآمن موجهًا نحو القضاء على المخاطر المحتملة، مثل الفجوات التي قد تعلق فيها الأصابع، وضمان حماية المكونات الداخلية للروبوت من التلف بسبب الماء.

يمكن استخدام الحواجز الواقية أو الهياكل الخارجية لمنع الاتصال غير المقصود بين البشر والروبوتات، ما يقلل من خطر الإصابة. قد تساعد الآليات المبطنة على تقليل تأثير الاصطدام إذا حدث الاتصال، ما يحد من الأضرار أو الإصابات الناتجة.

يجب أن تستخدم الروبوتات إشارات مثل الأضواء والأصوات والإيماءات لجعل نواياها واضحة لمن حولها. مثلًا، إصدار صوت عند دخول الغرفة سينبه الأشخاص إلى وجودها، ما يمنع المفاجآت أو الحوادث المحتملة.

يجب أن تحتوي الروبوتات المتنقلة على آليات أمان مماثلة لتلك الموجودة في الطائرات من دون طيار، مثل التنبيه عندما تفقد الاتصال أو الطاقة وتحتاج إلى العودة إلى مكان آمن. هذه الميزات شائعة في الطائرات من دون طيار، لكنها غير مطلوبة قانونيًا في الروبوتات البشرية حتى الآن، ما يبرز فجوة في التنظيم.

تعمل بعض الشركات المصنعة، مثل يونيتري، على معالجة مخاوف السلامة للروبوتات المتنقلة. مثلًا روبوت (Go2) من يونيتري يظهر أن لديه ميزات مدمجة مثل وميض الأضواء وإصدار الأصوات لتنبيه المستخدمين عندما تكون البطارية منخفضة أو إذا كان يعاني السخونة الزائدة، ما يظهر جهود تحسين السلامة.

توجد عدة ميزات أمان أخرى لروبوت Go2، مثل آلية الإيقاف الطارئ التلقائي التي يمكن تنشيطها من بُعد. مع ذلك، يشير ذلك أيضًا إلى عدم وجود لوائح واضحة لضمان التزام جميع الشركات المصنعة بمعايير سلامة معينة، وهو فجوة حاسمة في الإطار القانوني الحالي.

3- تدريب المشغلين:

تتزايد المخاطر المحتملة للروبوتات التي تستخدم الذكاء الاصطناعي، فقد ينشأ خطر أكبر من الروبوتات التي تشغل من بُعد. أحد المخاوف الرئيسية هو أن المشغلين قد لا يكون لديهم تدريب أو خبرة كافية في التعامل مع المواقف الحقيقية، ما قد يؤدي إلى أخطاء وحوادث.

من الملاحظ وجود فجوة كبيرة في المهارات المطلوبة لتدريب مشغلي الروبوتات، إذ يجب أن تعطي شركات الروبوتات الأولوية لهذه القضية لضمان أن المشغلين يمكنهم التحكم في الآلات بأمان وفعالية، ما يمنع الحوادث أو سوء الاستخدام.

4- توعية الجمهور:

أساءت وسائل الإعلام فهم الموقف المرتبط بالحادثة التي وقعت في الصين، إذ ألقت اللوم خطأً على الذكاء الاصطناعي مع أنه لا علاقة له بالأمر. قد يؤدي انتشار المعلومات المغلوطة إلى فقدان الثقة والارتباك على نطاق واسع بين الجمهور، إذ يطورون مفاهيم خاطئة عن قدرات الروبوتات البشرية ومخاطرها.

إن توعية الجمهور عن ما إذا كانت الروبوتات تُشغل بواسطة مالكها أو من بُعد، قد تساعد على تغيير توقعاتهم بشأن سلوك الروبوت. فهم هذا التمييز قد يؤدي إلى تفاعلات أكثر أمانًا، إذ سيكون الناس أكثر وعيًا بقدرات الروبوت وحدوده.

إن فهم تحكم المالك في الروبوت يساعد على إدارة توقعات المشترين، لا سيما فيما يتعلق بحاجتهم إلى تعلم كيفية تشغيل وبرمجة الروبوت قبل شرائه. قد يساعد ذلك على تجنب سوء الفهم وضمان اتخاذ قرار شراء أكثر وعيًا.

اقرأ أيضًا:

عندما تستطيع التكنولوجيا قراءة أفكارنا، كيف سنضمن الحفاظ على خصوصيتنا؟

ثورة تكنولوجيا الموصلات الفائقة مستمرة باختراع موصل فائق جديد

ترجمة: آية شميس

تدقيق: أكرم محيي الدين

مراجعة: ميرڤت الضاهر

المصدر