حلّت «أوبن إيه آي- OpenAl» فريق التوافق الفائق المكلف بدرء المخاطر الوجودية المحتملة من الذكاء الاصطناعي بعد أقل من عام عن تأسيسه.
أُُكِّد خبر الحل من قبل القائد المشارك السابق لفريق التوافق الفائق في الشركة، يان ليك بتغريدة بسيطة: «لقد استقلت» في 15 مايو دون تقديم أي توضيح إضافي.
بعدها كتب يان ليك على X: «انضممت لأنني اعتقدت أن أوبن أيه آي ستكون أفضل مكان في العالم للقيام بهذا البحث. ومع ذلك، لقد كنت أختلف مع قيادة المنظمة حول أولويات الشركة الأساسية لفترة طويلة، حتى بلغنا نقطة الانهيار».
شكلت «أوبن أيه آي» مشروع التوافق الفائق في يوليو 2023، وادعت الشركة أن الذكاء الاصطناعي الفائق سيكون أكثر التقنيات تأثيرًا التي اخترعتها البشرية على الإطلاق، وقد يساعدنا في حل العديد من أهم مشكلات العالم. لكن قد تكون القوة الهائلة للذكاء الفائق خطيرة جدًا أيضًا، وربما تؤدي إلى تحجيم قدرات البشرية أو حتى إلى انقراض الإنسان.
صرحت الشركة: «إدارة هذه المخاطر ستتطلب مؤسسات جديدة للإدارة وحل مشكلة التوافق مع الذكاء الفائق». وأُعلِن عن يان ليك وإيليا سوتسكيفير، العالِم الرئيسي والمؤسس المشارك لشركة OpenAI، بوصفهما قادةً مشتركين لفريق التوافق الفائق. ويُشار إلى أن سوتسكيفير غادر المنظمة فيما بعد، على ما يبدو، بسبب مخاوف مماثلة، فيما يُزعم أن أعضاء الفريق المتبقين قد ضُمِّنوا في مجموعات بحثية أخرى.
حذّر كبار التنفيذيين والمطورين في الشركة، مرارًا وتكرارًا بما في ذلك الرئيس التنفيذي سام ألتمان، من التهديد المزعوم لـ “الذكاء الاصطناعي المتمرد” الذي ربما يتجاوز تدابير الحماية البشرية إذا صُمِّم بشكل غير صحيح.
في الوقت نفسه، تروج OpenAI -إلى جانب شركات مثل Google وMeta- بانتظام لأحدث منتجات الذكاء الاصطناعي، بعضها يمكن الآن أن ينتج وسائط شبه واقعية وصوت بشري مقنع. ففي وقت سابق من هذا الأسبوع، أعلنت OpenAI عن إطلاق GPT-4o، وهو نظام ذكاء اصطناعي توليدي متعدد الوسائط مع استجابات شبه بشرية، مع أنها تظل أحيانًا مبتذلة. وبعد يوم واحد، كشفت Google عن تقدمها المماثل.
مع وجود مخاطر جسيمة مزعومة، تدعي هذه الشركات بانتظام أنهم الخبراء القادرين على معالجة المشكلات بينما يحاولون التأثير على تحديد تنظيمات الصناعة.
مع غموض التفاصيل الدقيقة وراء استقالة ليك وإغلاق فريق التوافق الفائق، تشير الصراعات الداخلية الأخيرة إلى وجود اختلافات شديدة حول كيفية دفع الصناعة إلى الأمام بطريقة آمنة وعادلة. يصر بعض النقاد أن صناعة الذكاء الاصطناعي تقترب بسرعة من عصر تناقص العوائد، ما يدفع القادة التقنيين إلى تخفيف توقعات المنتج وتغيير الأهداف. والبعض الآخر -مثل ليك- يبدو مقتنعًا بأن الذكاء الاصطناعي قد يشكل قريبًا تهديدًا خطيرًا للبشرية، وأن شركات مثل OpenAI لا تأخذ الأمر بجدية كافية.
لكن بحسب ما يشير إليه العديد من النقاد، ما يزال الذكاء الاصطناعي التوليدي بعيدًا عن الوعي الذاتي، ناهيك عن القدرة على التمرد. ومع ذلك، بغض النظر عن روبوتات الدردشة الذكية، فإن التكنولوجيا الحالية تؤثر على موضوعات مثل المعلومات المضللة، وملكية المحتوى، وحقوق العمل البشري. ومع استمرار الشركات في دفع أنظمة الذكاء الاصطناعي الناشئة إلى عمليات البحث على الويب، ووسائل التواصل الاجتماعي، والنشرات الإخبارية، يتعين على المجتمع التعامل مع العواقب.
اقرأ أيضًا:
جوجل تبدأ العمل على دمج الذكاء الاصطناعي بمكالمات الفيديو والدردشة
إيلون ماسك يعتقد أن الذكاء الاصطناعي سيكون أذكى من البشر بحلول عام 2025
ترجمة: مريم ميهوب
تدقيق: ريم الجردي