بينما تعمل شركة OpenAI على تدريب نموذجها التالي للذكاء الاصطناعي (GPT-5)، تعمل أيضًا على تشكيل لجنة جديدة للسلامة تضم رئيسها التنفيذي ما أثار انتقادات، ووسط كل هذا من المتوقع تأخير إطلاق GPT-5.
أعلنت OpenAI أن هدف اللجنة هو الإشراف على إدارة المخاطر لمشاريعها وعملياتها، وترافق هذا الإعلان مع تصريحها ببدء تدريب نموذجها الحدودي الجديد القادم، وتتوقع أن هذا النموذج سيقربها من تحقيق الذكاء الاصطناعي العام (AGI)، مع أن بعض النقاد يقولون إن الذكاء الاصطناعي العام أبعد مما قد نعتقد.
تأتي هذه الخطوة بوصفها رد فعل على أسبوعين من الانتكاسات العامة التي تعرضت لها الشركة، ومن غير الواضح إن كان النموذج الجديد المذكور هو GPT-5 أم خطوة أبعد منه، فمصطلح النموذج الحدودي يشير إلى نظام ذكاء اصطناعي جديد مصمم لدفع حدود القدرات الحالية، بينما يشير الذكاء الاصطناعي العام إلى نظام يتمتع بقدرات على مستوى الإنسان لأداء مهام عامة جديدة خارج بيانات تدريبه (بعكس الذكاء الاصطناعي الضيق، الذي يتدرب لمهام محددة).
ستكون اللجنة الجديدة للسلامة والأمان مسؤولة عن تقديم توصيات حول سلامة الذكاء الاصطناعي إلى مجلس إدارة الشركة بالكامل. وفي هذه الحالة لا يُقصد بالسلامة عدم السماح للذكاء الاصطناعي بالسيطرة على العالم فقط، بل تشمل أيضًا مجموعة أوسع من العمليات والضمانات التي وضحتها الشركة في تحديث السلامة في 21 مايو 2024، ويتعلق هذا بأبحاث الانتظام، وحماية الأطفال، وحماية سلامة الانتخابات، وتقييم الآثار الاجتماعية، وتنفيذ تدابير الأمان.
تقول OpenAI إن مهمة اللجنة الأولى ستكون تقييم العمليات والضمانات وتطويرها خلال 90 يومًا، لتشارك بعدهم توصياتها مع المجلس بالكامل، ثم تعلن الشركة التوصيات المعتمدة للعامة. يرى بعض الناس أن هذه الخطوة للعلاقات العامة وحسب، فلا يوجد ما يؤكد إن كانت هذه العملية ستؤدي إلى سياسة ذات معنى تؤثر فعليًا في عمليات الشركة.
تقول OpenAI إن اللجنة ستضم عدة خبراء في التقنيات والسياسات، ومنهم: أليكسندر مادري (رئيس الاستعداد)، وليليان وينغ (رئيسة أنظمة السلامة)، وجون شولمان (رئيس علوم الانتظام)، ومات نايت (رئيس الأمن)، وجيكوب باشوكي (رئيس العلماء)، ومن مجلس الإدارة بريت تايلور وآدم أنجيلو ونيكول سيليجمان وسام ألتمان.
لفت هذا الإعلان النظر بعدة طرق؛ أولًا، جاء برد فعل على الصحافة السلبية التي تلت استقالة أعضاء فريق OpenAI Superalignment إيليا سوتسكيفر وجان لايك، ومن مهام هذا الفريق (توجيه أنظمة الذكاء الاصطناعي الأذكى منا والتحكم فيها)، وقد أدى رحيلهما إلى انتقادات من بعض أفراد مجتمع الذكاء الاصطناعي، إذ قال لايك إن OpenAI تفتقر إلى الالتزام بتطوير ذكاء اصطناعي عالي القدرة بأمان. بينما يرى نقاد آخرون -مثل يان لوكون بوصفه رئيس علماء الذكاء الاصطناعي في ميتا- أن الشركة ليست قريبة من تطوير الذكاء الاصطناعي العام ذي القدرات العالية، لذا فإن القلق بشأن نقص السلامة ربما مبالغ فيه.
ثانيًا، انتشرت إشاعات مستمرة بأن التقدم في النماذج الكبيرة للغات قد توقف مؤخرًا عند قدرات تشبه GPT-4. مع أن الحافز لتجاوزه كبير، يبدو أن النموذجين المنافسين الرئيسيين (Claude Opus من Anthropic و Gemini 1.5 من غوغل) يعادلان قدرات عائلة GPT-4. ومؤخرًا حين كان الكثيرون يتوقعون إطلاق OpenAI لنموذج يتفوق على (GPT-4 Turbo) بوضوح، أصدرت بدلًا من ذلك GPT-4o الذي يعادله تقريبًا في القدرة لكن يفوقه بالسرعة، واعتمدت على واجهة حوارية جديدة مبهرة بدلًا من ترقية كبيرة خلف الكواليس.
انتشرت إشاعة بطرح GPT-5 في صيف 2024، ولكن مع هذا الإعلان الأخير يبدو أن الإشاعات كانت تشير إلى GPT-4o. لذلك يبدو أننا سننتظر طويلًا قبل إطلاق نموذج يتفوق على GPT-4، لكن شركة OpenAI لم توضّح التفاصيل.
اقرأ أيضًا:
شركة أوبن إي أي تحلّ فريقها المخصص لدرء مخاطر الذكاء الاصطناعي
ترجمة: زين العابدين بدور
تدقيق: محمد حسان عجك