توضح الوفيات المرتبطة ببرامج المحادثة الآلية خطورة هذه الأصوات الاصطناعية. حديثًا انتشرت أخبار مأساوية مفادها أن المراهق الأمريكي سيويل سيلتزر انتحر بعد أن شكل ارتباطًا عاطفيًا عميقًا مع روبوت محادثة يعمل بالذكاء الاصطناعي على موقع Character.AI.

حين توثقت علاقته مع رفيق الذكاء الاصطناعي، بدأ الصبي البالغ من العمر 14 عامًا الانسحاب من العائلة والأصدقاء، وتعرض لمتاعب في المدرسة.

في دعوى قضائية رفعتها والدة الصبي ضد شركة Character.AI، تظهر نصوص الدردشة محادثات حميمة وجنسية في كثير من الأحيان بين سويل وروبوت الدردشة داني، على غرار شخصية Danaerys Targaryen من Game of Thrones. ناقشا أيضًا الجريمة والانتحار. إذ استخدم روبوت الدردشة عبارات مثل: «هذا ليس سببًا لعدم المضي قدمًا في الأمر».

هذه ليست أول حالة معروفة لشخص ضعيف يموت منتحرًا بعد التفاعل مع شخصية روبوت محادثة. إذ انتحر رجل بلجيكي العام الماضي في حادثة مماثلة تتعلق بالمنافس الرئيسي لشركة Character.AI وهي شركة Chai AI. حينها، أخبرت الشركة وسائل الإعلام أنها «تبذل قصارى جهدها لتقليل الضرر».

في بيان لشبكة CNN، ذكرت Character.AI أنها «تأخذ سلامة مستخدميها على محمل الجد»، وأنها قد قدمت «تدابير أمان جديدة عديدة على مدار الأشهر الستة الماضية».

في بيان منفصل على موقع الشركة على الإنترنت، حددت الشركة تدابير أمان إضافية للمستخدمين الذين تقل أعمارهم عن 18 عامًا (في شروط الخدمة الحالية، يبلغ الحد الأقصى للعمر 16 عامًا لمواطني الاتحاد الأوروبي و13 عامًا في أماكن أخرى من العالم).

مع ذلك، توضح هذه المآسي بوضوح مخاطر أنظمة الذكاء الاصطناعي سريعة التطور والمتاحة على نطاق واسع، التي يمكن لأي شخص التحدث والتفاعل معها. نحن بحاجة ماسة إلى التنظيم لحماية الناس من الذكاء الاصطناعي الخطير والمصمم بشكل غير مسؤول.

كيف يمكننا تنظيم الذكاء الاصطناعي؟

تعمل الحكومة الأسترالية حاليًا على وضع حواجز أمان إلزامية لأنظمة الذكاء الاصطناعي عالية المخاطر. إذ يشير مصطلح «حواجز الأمان» الذي يُعد مصطلحًا رائجًا في عالم حوكمة الذكاء الاصطناعي، إلى عمليات تصميم وتطوير ونشر أنظمة الذكاء الاصطناعي. تشمل هذه الإجراءات حوكمة البيانات وإدارة المخاطر والاختبار والتوثيق والإشراف البشري.

يتمثل أحد القرارات التي يتعين على الحكومة اتخاذها، كيفية تحديد الأنظمة «عالية المخاطر»، من ثم وضعها ضمن حواجز الأمان. تدرس الحكومة أيضًا ضرورة تطبيق الحواجز الواقية على جميع «نماذج الأغراض العامة».

في نماذج الأغراض العامة تحت غطاء روبوتات الدردشة الذكية مثل داني، يمكن لخوارزميات الذكاء الاصطناعي إنشاء نصوص وصور ومقاطع فيديو وموسيقى بناءً على ما يطلبه المستخدم، ويمكن تكييفها للاستخدام في مجموعة متنوعة من السياقات.

في قانون الذكاء الاصطناعي الرائد في الاتحاد الأوروبي، تُعرف الأنظمة عالية المخاطر باستخدام قائمة، ما يمكن الجهات التنظيمية من تحديثها بانتظام.

البديل هو النهج القائم على المبادئ، إذ تصنف المخاطر العالية على أساس كل حالة. يعتمد ذلك على عوامل متعددة، مثل مخاطر التأثيرات السلبية على الحقوق، والمخاطر على الصحة البدنية أو العقلية، ومخاطر التأثيرات القانونية، وشدة تلك المخاطر ومداها.

عمومًا في أوروبا، لا تصنف أنظمة الذكاء الاصطناعي المصاحبة، مثل Chai وCharacter.AI، أنها عالية المخاطر. إذ يحتاج مزودوها إلى إعلام المستخدمين أنهم يتفاعلون مع نظام ذكاء اصطناعي أساسًا.

من الواضح أن برامج المحادثة المرافقة ليست منخفضة المخاطر. إذ إن العديد من مستخدمي هذه التطبيقات من الأطفال والمراهقين. سُوّقت بعض الأنظمة للأشخاص الذين يعانون الوحدة أو أمراضًا عقلية.

تستطيع برامج المحادثة المرافقة توليد محتوى غير متوقع وغير مناسب ومتلاعب، إضافةً إلى أنها تحاكي العلاقات السامة بسهولة.

إن الشفافية -تصنيف النتائج بأنها من صنع الذكاء الاصطناعي- ليست كافية للتحكم في هذه المخاطر. حتى عندما ندرك أننا نتحدث إلى روبوتات الدردشة، فإن البشر مجهزون نفسيًا لإضفاء السمات البشرية على شيء نتحدث معه.

قد تكون حالات الانتحار المبلغ عنها في وسائل الإعلام مجرد قمة جبل الجليد. فليس لدينا طريقة لمعرفة عدد الأشخاص الضعفاء الذين يعيشون في علاقات إدمانية أو سامة أو خطيرة مع روبوتات الدردشة.

عندما تقدم أستراليا أخيرًا حواجز أمان إلزامية لأنظمة الذكاء الاصطناعي عالية الخطورة، يجب أن تطبق الحواجز على كل من روبوتات الدردشة المرافقة والنماذج العامة التي أُنشئت على أساسها روبوتات الدردشة.

الحواجز الواقية -إدارة المخاطر والاختبار والمراقبة- ستكون ذات فعالية أكبر، إذا تمكنت من الوصول إلى أساس المخاطر التي يفرضها الذكاء الاصطناعي. فالمخاطر الناجمة عن برامج المحادثة الآلية ليست مجرد مخاطر تقنية. بصرف النظر عن الكلمات التي قد يستخدمها برنامج المحادثة الآلية، فإن السياق مهم أيضًا.

في حالة Character.AI، يمنح التسويق وعودًا للناس، وتحاكي الواجهة تبادل الرسائل النصية العادية مع شخص، وتسمح المنصة للمستخدمين أيضًا بالاختيار بين مجموعة من الشخصيات المعدة مسبقًا. تلك تتضمن بعض الشخصيات المثيرة للمشكلات.

الحواجز الواقية للذكاء الاصطناعي الفعالة، تفرض أكثر من مجرد عمليات مسؤولة، مثل إدارة المخاطر والاختبار. بل تفرض أيضًا تصميمًا إنسانيًا مدروسًا للواجهات والتفاعلات والعلاقات بين أنظمة الذكاء الاصطناعي ومستخدميها من البشر.

حتى في هذه الحالة، قد لا تكون الحواجز الواقية كافية. مثل برامج الدردشة المصاحبة، إذ إن الأنظمة التي تبدو في البداية منخفضة المخاطر، قد تسبب أضرارًا غير متوقعة.

يجب أن تتمتع الجهات التنظيمية بالسلطة اللازمة لإزالة أنظمة الذكاء الاصطناعي من السوق إذا سببت ضررًا أو شكلت مخاطر غير مقبولة. بعبارة أخرى، لا نحتاج فقط إلى حواجز أمان للذكاء الاصطناعي عالي المخاطر، نحن بحاجة أيضًا إلى مفتاح (وقف التشغيل).

اقرأ أيضًا:

عندما تستطيع التكنولوجيا قراءة أفكارنا، كيف سنضمن الحفاظ على خصوصيتنا؟

كل ما تريد معرفته عن أنظمة الطاقة الشمسية: آفاق استخدام التكنولوجيا الشمسية

ترجمة: شهد حسن

تدقيق: منال توفيق الضللي

المصدر