وفقًا لدراسة أجريت على 1000 طبيب عام، تبين أن 20% من أطباء الولايات المتحدة يستعينون بمساعدة أداة الذكاء الاصطناعي التوليدي (مثل شات جي بي تي من أوبن إيه آي أو جيميني من غوغل) في الممارسة السريرية.

أبلغ الأطباء عن استخدام الذكاء الاصطناعي التوليدي لإنشاء الوثائق بعد المواعيد، والمساعدة في اتخاذ القرارات السريرية، وتأمين معلومات المرضى، مثل تقارير الخروج من المستشفى المفهومة، وخطط العلاج.

نظرًا للضجة حول الذكاء الاصطناعي المرتبطة بالتحديات التي تواجهها أنظمة الرعاية الصحية، ليس من المدهش أن يرى الأطباء وصانعو السياسات أنه المفتاح لتحويل خدماتنا الصحية وتحديثها.

لكن الذكاء الاصطناعي التوليدي ابتكار حديث، إذ يتحدى كيفية تفكيرنا حول سلامة المريض. وما زلنا بحاجة إلى معرفة المزيد عن الذكاء الاصطناعي التوليدي قبل أن نستطيع استخدامه بأمان يوميًا في الممارسة السريرية.

المشكلات المتعلقة بالذكاء الاصطناعي التوليدي

طُورت كل تطبيقات الذكاء الاصطناعي تقليديًا لأداء مهام محددة جدًا، فاستُخدمت مثلًا شبكات التعلم العصبية العميقة في تصنيف الصور والتشخيص، وقد أثبتت هذه الأنظمة فعاليتها في تحليل صور الأشعة السينية للمساعدة على فحص سرطان الثدي.

لكن الذكاء الاصطناعي غير مدرب لأداء مهمة محددة بدقة، هذه التقنيات معتمدة على ما يُسمى بالنماذج الأساسية التي لديها قدرات عامة، يعني ذلك أنها تستطيع إنتاج النصوص وعناصر الصورة والصوتيات، أو حتى مزيجًا من هذه العناصر.

تُضبط هذه القدرات بدقة لتناسب تطبيقات مختلفة، مثل الرد على استفسارات المستخدمين، وإنتاج الأكواد، أو إنتاج الصور. يبدو أن إمكانية التفاعل مع هذا النوع من الذكاء الاصطناعي التوليدي محدودة فقط بخيال المستخدم.

ولأن هذه التكنولوجيا لم تُطور لاستخدامها في سياق محدد أو غرض معين، فإننا لا نعلم فعليًا كيف يستطيع الأطباء استخدامها بأمان، وهذا سبب واحد فقط يجعل الذكاء الاصطناعي التوليدي غير مناسب للاستخدام الواسع في الرعاية الصحية حتى الآن.

وتُعد ظاهرة الهلوسة مشكلة أخرى في استخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية، فالهلوسة هي مخرجات غير منطقية أو غير صحيحة بناءً على المدخلات التي قد قُدمت.

دُرست الهلوسة في سياق جعل الذكاء الاصطناعي التوليدي ينشئ ملخصات للنصوص، وجدت إحدى الدراسات أن أدوات الذكاء الاصطناعي التوليدي تنتج مخرجات تربط روابط غير صحيحة بناءً على ما قيل في النص، أو أن المخلصات شملت معلومات لم يُشر إليها في النص.

تحدث الهلوسة لأن الذكاء الاصطناعي التوليدي يعمل على مبدأ الاحتمالية، مثل توقع الكلمة الذي يتبع في سياق معين، بدلًا من أن يكون قائمًا على الفهم في المعنى البشري. هذا يعني أن المنتجات المخرجة بالذكاء الاصطناعي التوليدي محتملة بدلًا من أن تكون ضرورية.

تُعد هذه الاحتمالية سببًا آخر يجعل استخدام الذكاء الاصطناعي التوليدي بأمان في الممارسة الطبية مبكرًا جدًا. تخيل أداة ذكاء اصطناعي توليدي تستمع إلى استشارة المريض، ثم تنتج ملاحظات ملخصة إلكترونية، يتيح هذا للطبيب العام أو الممرض للتعامل على نحو أفضل مع المريض، ولكن من جهة أخرى، قد ينتج الذكاء الاصطناعي التوليدي ملاحظات مبنية على الروابط التي يظنها معقولة، فقد يغير مثلًا تكرار أعراض المريض أو شدتها، أو يضيف أعراضًا لم يشكُ منها المريض أبدًا، أو يتضمن معلومات لم يذكرها المريض أو الطبيب.

سيحتاج الأطباء والممرضون لإجراء مراجعة دقيقة لأي ملاحظات ينشئها الذكاء الاصطناعي، وذاكرة ممتازة للتمييز بين المعلومات الحقيقية ومعلومات معقولة ولكنها مختلفة.

قد يكون هذا جيدًا في بيئة طبيب الأسرة التقليدية، إذ يعرف الطبيب العام المريض جيدًا بما يكفي لتحديد الأخطاء، لكن في النظام الصحي المجزأ يُعرض المريض على أطباء مختلفين، فإن أي أخطاء في ملاحظات المريض قد تشكل مخاطر كبيرة على صحته، مثل العلاج غير المناسب أو التأخير فيه أو التشخيص الخاطئ.

هذه المخاطر مرتبطة كثيرًا بالهلوسة، لكن من الجدير بالذكر أن الباحثين والمطورين يعملون حاليًا على تقليل احتمالية حدوثها.

سلامة المرضى

سبب آخر يجعل من المبكر جدًا استخدام الذكاء الاصطناعي التوليدي في الرعاية الطبية، وهو أن سلامة المرضى تعتمد على التفاعلات معه لتحديد مدى فعاليته في سياق معين وبيئة معينة.

بالنظر إلى كيفية عمل التكنولوجيا مع الناس، وكيف تتناسب مع القواعد والضغوطات والثقافات والأولويات داخل نظام صحي كبير، ووجهة نظر النظام الصحي هي ما ستحدد إذا كان استخدام الذكاء الاصطناعي التوليدي آمنًا.

لكن، لأن الذكاء الاصطناعي التوليدي غير مصمم لاستخدام محدد، يعني هذا أنه قابل للتكيف، وبالإمكان استخدامه بطرق لا يمكن التنبؤ بها كليًا، إضافًة إلى أن المطورين يحدثون تقنياتهم باستمرار، مضيفين قدرات عامة جديدة تغير سلوك تطبيق الذكاء الاصطناعي التوليدي.

إضافًة إلى ذلك قد يحدث الضرر حتى لو بدا أن التقنيات تعمل بأمان، كما هو مقصود مجددًا اعتمادًا على سياق الاستخدام. فعند استخدام وكلاء المحادثة الذكاء الاصطناعي التوليدي في فرز المرضى مثلًا، قد يؤثر ذلك في استعداد المرضى المختلفين للانضمام لنظام الرعاية الصحية، فقد يجد المرضى (ممن معرفتهم الرقمية أقل، ومن لغتهم الأولى ليست الإنجليزية، والمرضى غير اللفظين) أن استخدام الذكاء الاصطناعي التوليدي صعب. لذا، قد تعمل التكنولوجيا من حيث المبدأ، لكنها ما زالت تساهم بالأذى إذا لم تعمل على نحو متساو لجميع المستخدمين.

النقطة هنا أن مثل هذه المخاطر مع الذكاء الاصطناعي التوليدي يصعب توقعها مسبقًا بالأساليب التقليدية لتحليل السلامة. يتعلق هذا بفهم كيفية تسبب فشل التكنولوجيا في الضرر في سياقات معينة.

وقد تستفيد الرعاية الصحية كثيرًا من اعتماد الذكاء الاصطناعي التوليدي وأدوات الذكاء الاصطناعي الأخرى. لكن قبل أن يمكن استخدام هذه التقنيات في الرعاية الصحية استخدامًا أوسع، يجب ضمان السلامة والتنظيم لتصبح أكثر استجابةً للتطورات المتعلقة بمكان استخدام هذه التقنيات وكيفيتها.

من الضروري لمطوري أدوات الذكاء الاصطناعي التوليدي ومنظميها العمل مع المجتمعات التي تستخدم هذه التقنيات، لتطوير أدوات قابلة للاستخدام بأمان وبانتظام في الممارسة السريرية.

اقرأ أيضًا:

الذكاء الاصطناعي يستطيع تمييز الأصل العرقي للمرضى من صورهم الطبية

بوسع الذكاء الاصطناعي تحليل مزاجك من خلال ما تكتب!

ترجمة: آية عبد الفتاح

تدقيق: باسل حميدي

مراجعة: محمد حسان عجك

المصدر