كل تقنية جديدة لها جوانب مظلمة، لكن، ليست جميع المخاوف المرتبطة بتقنية التزييف العميق غير مبررة. وفقًا لدراسة حديثة نُشرت في منشور مدونة UCL، يمثل التزييف العميق أخطر تهديد ممكن للذكاء الاصطناعي على المجتمع، وقد تصبح هذه التقنية ميزة مفيدة حقًا وليست مجرد حشرة دخيلة من العالم المتطور تكنولوجيًا.
تقنية التزييف العميق أصبحت أسهل وصولًا
حذر مكتب التحقيقات الفيدرالي (FBI) مؤخرًا قادة الصناعة من أن الوسائط التركيبية أو مقاطع الفيديو التي أنشِئت بواسطة الذكاء الاصطناعي تشكل تهديدًا خطيرًا، وأن التزييف العميق وسيلة مغرية تساعد على الاحتيال، أو إطلاق حملات الهندسة الاجتماعية.
نينا شيك، خبيرة التزييف العميق، ترى أن مقاطع الفيديو والملفات الصوتية والصور فائقة الواقعية التي صوِرت عبر الوسائط الاصطناعية التي أنشِئت بواسطة الذكاء الاصطناعي ستصبح سمة شائعة للعالم، ما يعني أن مجتمعاتنا البشرية الفقيرة بحاجة إلى توعية تهدف إلى تمييز الوسائط المقلدة من الحقيقية.
في ظل التسويق والانتشار المستمر لتقنيات مثل التزييف العميق يبدو هذا أمرًا واقعيًا، إذ تشتهر تطبيقات مثل فيس سواب-FaceSwap وفيس آب-FaceApp وآفاتارفاي-Avatarify وزاو-Zao عالميًا، لتصل إلى عيون وآذان المستهلكين والمحتالين على حد سواء. حاليًا، جميع المحتويات الموجودة على هذه التطبيقات والتطبيقات المماثلة محمية بموجب التعديل الأول للولايات المتحدة، لكن ما يمكن قوله إن السمة الأكثر تحديدًا لهذا البلد هي التعديلات الدستورية، ربما لم يتوقعوا الخطر المحتمل من التزييف العميق، إذ استُغل في مهاجمة السياسيين والمنظمات وحتى المواطنين العاديين.
في مارس عام 2019، استطاع مجرمو الإنترنت خداع الرئيس التنفيذي لشركة بريطانية تعمل في مجال الطاقة لتحويل مبلغ 243 ألف دولار إلى مورّد من دولة المجر عبر ملف صوتي مزيف. وفي عام 2020، وقع محامٍ من فيلادلفيا ضحية انتحال صوتي. وفي عام 2021، استطاع الروس خداع السياسيين الأوروبيين بهجوم يُزعم أنه بدأ بمقطع فيديو مزيف، في حين أُلقِي اللوم تلقائيًا على الدول المنافسة.
الأسوأ من ذلك، أنه لا يتعين عليك العمل مع حكومة أجنبية حتى ترغب في زيادة تفاقم تضليل المحتوى الإعلامي. لأنه مع ازدياد إمكانية الوصول إلى الوسائط التركيبية لتقنية التزييف العميق وإقناعها الجميع، يصبح من الصعب فقط التفريق بين المحتوى الحقيقي والمزيف. في كلتا الحالتين، قد تؤدي العواقب طويلة الأمد للتزييف العميق في وسائل الإعلام إلى تعميق الضرر المجتمعي الناجم بالفعل عبر السنوات العديدة الماضية، من الأضرار الاجتماعية والسياسية، التي غيرت المجتمع جذريًا كما نعرفه.
قد تصبح تقنية التزييف العميق سمة من مستقبل محتوى الوسائط
يميل مستهلكو محتوى الإنترنت عادة إلى ما يمكن أن نصفه بعدم التصديق افتراضيًا، إذ ينمو الشك لديهم ليطغى على إمكانية التصديق في أذهان الناس العاديين. من ناحية أخرى، قد يعمل هذا لصالح السياسيين ومدراء الشركات غير الشرفاء أو الفاسدين ذوي الطموحات المجتمعية.
مع وجود كثير من المعلومات المضللة التي نتعرض لها، يمكن لأولئك الذين لديهم قدر ضئيل من الشهرة تشتيت المعلومات التي لا يحبونها عبر إعلانها أخبارًا مزيفة، أو بدلاً من ذلك، مراوغة المعلومات التي لا يحبونها مع بعض العداوات الاجتماعية الأخرى الأكثر شيوعًا، التي قد تكون أو لا تكون -في حد ذاتها- حقيقية. هذا مثير للقلق خصوصًا عندما يتجاهل السياسيون الانتقادات الصحيحة من طريق ادعائهم الكاذب بأنه تزييف من معارضيهم.
وفقًا لمكتب التحقيقات الفيدرالي، يمكن الكشف عن التزييف العميق من ملاحظة التشوهات المحيطة ببؤبؤ العين أو شحمة الأذن في الوجه. قد يُلاحظ أيضًا حركات غريبة في الرأس والجذع، إضافة إلى تباينات غير متزامنة بين الصوت وحركات الشفاه المرتبطة به. الخلفية أيضًا قد تعاني من تشوهات، مثل الأشكال غير الواضحة أو الضبابية.
لكن تبقى النتيجة مشكوكًا في صحتها، خاصةً عند التعرف على مجموعة صور تتطابق فيها المسافة بين العينين وذلك في الحسابات على مواقع التواصل الاجتماعي. لكن القاعدة الأولى حول التزييف العميق، أنه لا توجد مجموعة واحدة من الأنواع، لأنها تتغير دائمًا. ولكن -مع مرور الوقت- قد نكون قادرين على اكتشافها ذهنيًا من خلال الاستناد إلى تقنية التزييف العميق القديمة وبالطريقة نفسها التي يقوم بها بعضنا بالفعل عند استخدام الوسائط التقليدية. قد يشمل ذلك التركيز على العبارات والمشاعر المتكررة، مع الأخذ بعين الاعتبار الجدوى والدوافع التي من المحتمل أن تكمن وراء المحتوى، وكما هو الحال دائمًا، يمكننا أن نسأل أنفسنا: من المستفيد؟
اقرأ أيضًا:
مثقف بلا أخلاق: ذكاء صناعي قادر على تأليف الكتب يثير الرعب
هل يهدد الذكاء الصناعي الوجود البشري؟
ترجمة: أنور عبد العزيز الأديب
تدقيق: حسين جرود
مراجعة: مازن النفوري