دراسة: الناس يثقون بالوجوه المولّدة بالتزييف العميق أكثر من تلك الحقيقية

دراسة: الناس يثقون بالوجوه المولّدة بالتزييف العميق أكثر من تلك الحقيقية
استمع إلى المقال

يثير انتشار تقنية “التزييف العميق” (Deepfake) مخاوف من أن يبدأ الذكاء الصّنعي في تشويه إحساسنا بالواقع المشترك. ويقترح بحثٌ جديد أن الوجوه المولّدة بواسطة الذكاء الصّنعي لا تخدعنا ببساطة للاعتقاد بأنّهم أناسٌ حقيقيون وحسب، بل نحن نثق بهم أكثر من أقراننا البشر.

تقنية تقترب من الخروج عن السيطرة

في عام 2018، أبهرت شركة “إنفيديا” العالم بنموذج ذكاء صنعي يمكنه إنتاج صور فائقة الواقعية لأشخاص غير موجودين. اعتمد باحثوها على نوع من الخوارزميات يُعرف باسم “شبكة الخصومة التوليدية” (GAN)، والتي تضع شبكتين عصبونيتين في مواجهة بعضهما البعض، واحدة تحاول اكتشاف المُخرَجات المقلّدة والأخرى تحاول إنشاء شبكات أكثر إقناعًا. وبإعطائها وقتٍ كافٍ، يمكن لشبكات الخصومة التوليدية إنتاج وجوهاً مزيفة بالغة الدقة.

ومنذ ذلك الحين، تحسنت قدرات هذه التقنية بشكلٍ كبير، مع بعض التداعيات المُقلِقة، مثل تمكين المحتالين من خداع الناس، وجعله من الممكن دمج وجوه الناس في أفلام إباحية دون موافقتهم، وتقويض الثقة في وسائل الإعلام عبر الإنترنت. وفي حين أنه من الممكن استخدام الذكاء الصّنعي نفسه لاكتشاف التزييف العميق، فإن فشل شركات التكنولوجيا في تعديل المواد الأقل تعقيدًا بشكلٍ فعال يشير إلى أن هذا لن يكون حلّاَ مُجديًا.

تخدعنا رغم أنّنا نعلم أنّها تخدعنا

هذا يعني أن السؤال الأكثر صلة بالموضوع هو ما إذا كان بإمكان البشر اكتشاف الاختلاف، والأهم من ذلك كيفية ارتباطهم وتفاعلهم مع التزييف العميق. حاول فريقٌ من الباحثين في جامعة لانكاستر البريطانية وجامعة كاليفورنيا الأميركية الإجابة على هذا السؤال في دراسة جديدة نُشرت في دورية «وقائع الأكاديمية الوطنية الأمريكية للعلوم».

ولم تكن نتائجه هذه الدراسة مُرضية تمامًا. إذ وجد الباحثون أن قدرة الناس على اكتشاف الوجوه المقلّدة لم تستند إلى أية عامل، ولم تكن أفضل من تخمينٍ عشوائي، وصنفوا الوجوه الزائفة على أنها أكثر جدارة بالثقة من الوجوه الحقيقية.

كتب المؤلفون: “يشير تقييمنا لواقعية لوجوه المُصنَّعة بواسطة الذكاء الصّنعي إلى أن محركات التخليق قد مرت عبر “الوادي الغريب” -مصطلح يعني تمييز البشر في ردات فعلهم تجاه الروبوتات والبشر الآخرين- وأصبحت قادرةً على تكوين وجوه لا يمكن تمييزها عن الوجوه الحقيقية، بل وأكثر جدارةً بالثقة منها.

لاختبار ردود الفعل على الوجوه المزيفة، استخدم الباحثون نسخة محدّثة من شبكة الخصومة التوليدية الخاصة بـ “إنفيديا” لإنشاء 400 وجه مزيف، مع تقسيم متساوٍ بين الجنسين و 100 وجه لكل من أربع مجموعات عرقية: أسود، قوقازي، شرق آسيوي، وجنوب آسيوي. وقاموا بمطابقة كل من هذه الوجوه مع وجوه أخرى حقيقية مأخوذة من قاعدة البيانات التي كانت تستخدم في الأصل لتدريب الشبكة العصبونية، والتي تم الحكم عليها على أنها متشابهة من خلال شبكة عصبونية أخرى مختلفة خاصة بالتّقييم.

ثم طلب الباحثون من 315 مشاركًا من منصة “Amazon Mechanical Turk” للتعهيد الجماعي. وطُلب من كل شخص الحكم على 128 وجهًا من مجموعة البيانات المجمعة وتحديد ما إذا كانت مزيفة أم لا. لقد حققوا معدل دقة بنسبة 48% فقط، وهو في الواقع أسوأ من نسبة 50% التي يجب أن تحصل عليها من أيّ تخمين عشوائي.

لكن غالبًا ما يكون للتزييف العميق عيوب وأخطاء مميزة يمكن أن تساعد الأشخاص على تمييزه. لذلك أجرى الباحثون تجربةً ثانيةً مع 219 مشاركًا آخرين، أعطوهم بعض التدريب الأساسي حول ما يجب البحث عنه قبل جعلهم يحكمون على نفس الوجوه. وبالفعل، تحسّن أداؤهم، لكن بشكلٍ طفيف فقط ليصل إلى 59%.

وفي تجربةٍ أخيرة، قرر الفريق البحثي معرفة ما إذا كانت ردود الفعل الفورية القائمة على الحدس تجاه الوجوه قد تمنح الأشخاص أدلةً أفضل. وقرروا معرفة ما إذا كانت الجدارة بالثقة -وهو أمر نقرّره عادةً في جزء من الثانية بناءً على ميزات يصعب تحديدها- قد يساعد الأشخاص على حكمٍ أفضل. ولكن عندما طلبوا من 223 مشاركًا آخرين تقييم مدى جدارة 128 وجهًا بالثقة، اتّضح أن الأشخاص وجدوا الوجوه المزيفة أكثر جدارةً بالثقة من الوجوه الحقيقية بنسبة 8%، وهو فرقٌ بسيط، ولكنه مهم من الناحية الإحصائية.

قد يهمك أيضًا: خوارزميات نسخ الأصوات أصبحت قادرةً على خداع أجهزة التعرف على الصوت

ماذا يعني ذلك؟

بالنظر إلى الاستخدامات الشائنة التي يمكن استخدامها في تقنية التزييف العميق، فإن هذا اكتشافٌ مقلق. يقترح الباحثون أن جزءًا من سبب منح الوجوه المزيفة درجةً أعلى من الثقة هو أنها تشابه الوجوه العادية، أي متوسطة الجمال، والذي وُجد في بحثٍ سابق أن الناس تثق بها بشكلٍ أكبر. وهذا ما اتّضح أكثر عندما كانت الوجوه الأربعة الأقل جدارةً بالثقة حقيقية، وثلاثة من الوجوه الأربعة الأكثر موثوقية كانت مزيفة.

إن هذه النتائج التي توصّل إليها الباحثون تشير إلى أن أولئك الذين يطوّرون التكنولوجيا الأساسية وراء التزييف العميق يحتاجون إلى التفكير مليًا فيما يفعلونه. تتمثل الخطوة الأولى المهمة في أن يسألوا أنفسهم ما إذا كانت فوائد التكنولوجيا تفوق مخاطرها. كما يجب أن يفكر صنّاع هذه التقنية في بناء إجراءات وقائية، والتي يمكن أن تشمل أشياء مثل جعل مولّدات التزييف العميق تضيف علامات مائية إلى إنتاجها.

وبالنظر إلى إمكانية الوصول السهلة نسبيًا إلى هذه التقنية التي تحمل معها تهديداتٍ كبرى، يجب إعادة النظر في نهج “عدم التدخل” المُتّبع في كثير من الأحيان، وكذلك الإتاحة غير المقيدة للتعليمات البرمجية لهذه التقنية التي يمكن لأي شخص من الجمهور دمجها في أي تطبيق يخدم مآربه.

لسوء الحظ، قد يكون الوقت قد فات لذلك. النماذج المتاحة للجمهور قادرة بالفعل على إنتاج صور ومقاطع مزيفة بشكلٍ مقنع للغاية، ويبدو من غير المحتمل أنّنا سنكون قادرين على إعادة الوحش إلى قفصه.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات