استمع إلى المقال



كانت مقاطع الفيديو والصور المزيّفة موجودة منذ وجود التصوير الفوتوغرافيّ والأفلام. ولكن كانت فقط للتسلية والمتعة، ومع ظهور الإنترنت، ازدادت شعبيّة هذا النوع من الخداع، ولكنّها كانت تقتصر على قصّ وجه أحدهم ولصقها على جسم الغير، وكان من الواضح أن مقاطع الفيديو المزيّفة غير أصليّة.

أمّا اليوم فالصور والفيديوهات المزيّفة تجاوزت قدرة مصوّري الفيديو أو المصوّرين الفوتوغرافيّين المهرة. وأدّت تقنيّة التزييف العميق (Deepfake) إلى ظهور جيل جديد من الوسائط التركيبيّة، يتضمّن ذلك إنشاء الصور ومقاطع الفيديو والصوت من خلال خوارزميّات التعلّم العميق.

ومن شأن هذه التقنيّة الجديدة أن تصنع لقطات قادرة لحدّ كبير أن تقوم بإقناع أيّ شخص، بأفعال لأشخاص لم يقوموا بفعل أيّ شيء. وهذا ما يحتّم علينا فهم هذه التقنيّة، وتعلّم كيفيّة حماية أنفسنا منها.

من خلال هذا التقرير سنتعرّف على ماهيّة عمليّات التزييف العميق والغرض منها، وما هي سبل الحماية منها.

ما هو “التزييف العميق” Deepfake؟

عادة ما يكون التزييف عبارة عن مقاطع فيديو يتمّ فيها استبدال وجه الشخص بصورة تمّ إنشاؤها بواسطة الكمبيوتر وتشبه فردًا آخر. أمّا “العميق” فتتعلّق هذا الكلمة بالقدرة العميقة على التعلّم. ويستخدم هذا التعلّم خوارزميّات ذكاء اصطناعيّ تسمّى “الشبكات العصبيّة” لإنشاء فيديوهات مقنعة بشكل لا يصدّق.

في عام 2020 وخلال السلسلة الوثائقيّة The Last Dance التي عُرضت على قناة ESPN، تمّ عرض إعلان لشركة State Farm، وأصبحت هذا الإعلان فيما بعد واحدًا من أكثر الإعلانات الّتي تمّت مناقشتها على نطاق واسع في كثير من الأوساط. ويظهر هذا الإعلان لقطات من عام 1998 من محلّل رياضي يعمل في قناة ESPN، كان يتنبّأ بتنبّؤات دقيقة بشكل مثير للدهشة حول عام 2020.

واتّضح فيما بعد أن الإعلان كان مزيّف، وتمّ إنشاؤه باستخدام الذكاء الاصطناعيّ المتطوّرة. وأثار حينها هذا الفيديو صدمة المتابعين بشكل كبير.

كان إعلان State Farm مثالًا جيّدًا لظاهرة جديدة مهمّة وخطيرة في الذكاء الاصطناعيّ: التزييف العميق. تتيح هذه التقنيّة لأيّ شخص لديه جهاز كمبيوتر واتّصال بالإنترنت إنشاء صور ومقاطع فيديو واقعيّة المظهر لأشخاص يقولون ويفعلون أشياء لم يقلوها أو يفعلوها في الواقع.

أكثر من مجرّد مقاطع فيديو

ظهر التزييف العميق لأوّل مرّة على الإنترنت في أواخر عام 2017، مدعومًا بطريقة مبتكرة جديدة للتعلّم العميق تعرف باسم شبكات الخصومة التوليديّة (GAN).

وفي وقت سابق من العام الماضي، بدأت مقاطع فيديو بالظهور على منصة تيك توك للممثل المعروف توم كروز على حساب يسمىdeeptomcruise، ويظهر كروز وهو يتجول في متجر لبيع الملابس الرجالية الراقي أو وهو يمرح أثناء عرض قصير لأغنية Crash Into Me، والجدير بالذكر إن كروز لا يملك حساب على منصة تيك توك، وإن كل هذه المقاطع تم إنشائها بتطبيقات التزييف العميق.

وانتشرت أيضًا العديد من مقاطع الفيديو المزيّفة، وكان العديد من المشاهير حول العالم عرضة لهذه التقنيّة: استخدم الرئيس أوباما كلمة بذيئة لوصف الرئيس ترامب، واعترف مارك زوكربيرج بأنّ هدف فيسبوك الحقيقيّ هو التلاعب بمستخدميه واستغلالهم، كلّ هذه المقاطع لم تكن حقيقة.

يتزايد حجم محتوى التزييف العميق عبر الإنترنت بمعدّل سريع. في بداية عام 2019، كان هناك 7964 مقطع فيديو مصمّم بواسطة التزييف العميق على الإنترنت، وفقًا لتقرير صادر عن شركة Startup Deeptrace. بعد تسعة أشهر فقط، قفز هذا الرقم إلى 14678.

على الرغم من كونها مثيرة للإعجاب، إلّا أنّ تقنيّة التزييف العميق اليوم لا تتساوى تمامًا مع لقطات الفيديو الأصليّة، فمن خلال التمعّن في الفيديو عن كثب، من الممكن عادة معرفة أنّ مقطع فيديو مزيّف. ولكنّ التكنولوجيا تتحسّن بوتيرة مذهلة، ويتوقّع الخبراء أنّ التزييف العميق سيصبح من شبه المستحيل تمييزه عن الحقيقيّ قريبًا.

كيف تصنع تقنيّة التزييف العميق؟

لقد تحسّنت تقنيّات التزييف العميق على مرّ السنين. يشبه البحث في أدوات التزييف العميق البحث عن أيّ تطبيق آخر. وتستخدم إحدى هذه الأدوات أجهزة التشفير التلقائيّ مع شبكات الخصومة التوليديّة (GAN) اخترع Gan من قبل Ian Goodfellow في عام 2014 خلال دراسات الدكتوراه في جامعة مونتريال، واحدة من أفضل معاهد أبحاث الذكاء الاصطناعي في العالم.

تضع GAN خوارزميّتين للذكاء الاصطناعيّ ضدّ بعضهما البعض: مولّد ومميّز. يتيح ذلك للآلات التعلّم بسرعة وإنشاء وسائط تركيبيّة أكثر تعقيدًا. إنّهم مثل فنّان وناقد، يتنافسون بصورة مستمرة ويدفعون بعضهم البعض للتحسّن.

يتمّ تغذية المولد (الفنّان) بضوضاء عشوائيّة تتحوّل إلى صورة. يتمّ تغذية المميّز (الناقد) بصور مرجعيّة للشخص الّذي يجري التزييف العميق. ينظر أداة التمييز إلى الصورة الّتي تمّ إنشاؤها ويقرّر ما إذا كانت مزيّفة أم لا.

يحاول المولد إنشاء صورة لخداع أداة التمييز. بمجرّد القيام بذلك، يستخدم أداة التمييز المعلومات الّتي تمّ جمعها لتحسين قدرات تحليل الصور، وتبدأ الدورة من جديد.

بهذه الطريقة، تتحسّن قدرات إنشاء الصور لشبكات GAN بشكل كبير في فترة قصيرة، وممّا يؤدّي إلى شكل واقعيّ لا تشوبه شائبة من الوسائط التركيبيّة. ووجود مجموعات بيانات واسعة النطاق تحسن هذه العمليّة.

وبالرغم من أنّ هناك العديد من الاستخدامات للذكاء الاصطناعيّ، خاصّة في عالم الأعمال، حيث يمكن استخدامه لفلاتر البريد الإلكترونيّ، أو أتمتة العمليّات، أو التحليل التنبّئيّ لزيادة معدّلات التحويل، إلّا أنّه مقيّد بالأجهزة.

تعمل أنظمة الذكاء الاصطناعيّ للتزييف العميق لساعات أو أيّام لإنشاء فيديو دقيق. وبالتالي فإنّ القوّة الكمبيوتر هي اعتبار أساسيّ عند صنعها. ويلزم وجود أجهزة كمبيوتر مكتبيّة أو خدمات سحابيّة عالية القدرة لمنع الاختناقات في الأداء.

كيف تكتشف التزييف العميق؟

من السهل تحديد التزييف العميق ذي الجودة الرديئة. المزامنة السيّئة للشفاه، وحركات الوجه المتقطّعة، والتناقضات العامّة كلّها علامات على عرض فيديو أو صورة مزيّفة. بالنسبة إلى الصوت، يمكن أن تخبرك النغمة أو الإيقاع غير المنتظم بأنّه مزيّف.

لكن يعدّ تحديد التزييف العميق عالي الجودة أكثر صعوبة. التقدّم في التكنولوجيا إلى جانب الوسائط المتاحة مجّانًا يعني أنّه يتمّ تطوير إصدارات أكثر واقعيّة بسرعة.

ورغم ذلك هناك بعض الأشياء الّتي لا يصحّحها التزييف العميق دائمًا. يكافح الذكاء الاصطناعيّ مع الإضاءة ولون البشرة والتفاصيل الدقيقة مثل الشعر. يمكن أن تكون التناقضات في هذه المناطق علامات منبّهة للتزييف العميق. ويعتمد تحديد التزييف العميق للصوت على نبرة الصوت. كلّ شخص لديه إيقاع وطريقة مختلفة في التحدّث، لذلك قد تبرز بعض المفارقات في الصوت أيضًا، وقد يحتوي الصوت على نهايات وبدايات جمل مفاجئة أو قد كون رتيبة أو ركيكة بصورة مفرطة.

مخاطر التزييف العميق

أوّل الحالات وأكثرها الّتي تمّ تستخدم تقنيّة التزييف العميق فيها، هي الإباحيّة. فوفقًا لتقرير لموقع Deeptrace. في سبتمبر/أيلول من عام 2019، كانت 96% من مقاطع الفيديو الّتي تمّ إنشاؤها ببرامج التزييف العميق على الإنترنت إباحيّة.

ومن هذه الزاوية المظلمة للإنترنت، بدأ استخدام التزييف العميق في الانتشار إلى المجال السياسيّ، حيث تكون إمكانات الفوضى أكبر.

وبسبب إمكانيّة الوصول إلى هذه التكنولوجيا بشكل واسعة النطاق، يمكن إنشاء هذه اللقطات من قبل أيّ شخص، سواء من الجهات الفاعلة الّتي ترعاها الدولة، أو الجماعات السياسيّة، وحتّى الأفراد العاديين.

قال السناتور الأمريكي ماركو روبيو : أن في الأيام الخوالي، إذا كنت تريد تهديد الولايات المتحدة ، فأنت بحاجة إلى 10 حاملات طائرات، وأسلحة نووية، وصواريخ بعيدة المدى. وأما اليوم كل ما تحتاجه هو القدرة على إنتاج فيديو مزيف واقعي للغاية يمكن أن يقوض انتخاباتنا، ويمكن أن يلقي ببلدنا في أزمة هائلة داخليًا ويضعفنا بشدة.

لا يتطلّب الكثير من الخيال لفهم الأذى الّذي يمكن القيام به إذا كان يمكن إيهام المواطنين بمقاطع فيديو ملفّقة لسياسيّ أو شخصيّة معروفة، أثناء تقديمه رشوة على سبيل المثال أو اعتداء الجنسيّ مباشرة قبل الانتخابات، أو مقطع فيديو لجنود يرتكبون فظائع ضدّ المدنيّين، أو من الرئيس ترامب يعلن عن إطلاق الأسلحة النوويّة ضدّ كوريا الشماليّة. يمكن أن تكون العواقب كارثيّة.

هل هناك جانب إيجابي للتزييف العميق؟

بينما يمكن استخدام تقنيّة التزييف العميق لمضايقة الأفراد والسخرية منهم، إلّا أنّ التزييف العميق ليس سيّئًا في بعض الحالات. فمن الممكن لمنشئي المحتوى أيضًا استخدامها للترفيه، ففي استوديوهات وأفلام المؤثّرات المرئيّة، مثل Star Wars و Marvel، تقدّم تقنيّة التزييف العميق ممثّلين لم يتقدّموا في العمر ليبدوا مثل ذواتهم الأصغر سنًّا، ممّا يسمح بسرد القصص بشكًّل محسن. ويمكنهم أيضًا تحسين الدبلجة في الأفلام الأجنبيّة أو تجديد اللقطات القديمة التالفة.

وهناك استخدام آخر هو تحسين تجربة المستخدم. على سبيل المثال في متحف سلفادور دالي في فلوريدا لديه صورة مزيّفة للرسّام السرياليّ حيث يقدّم فنّه ويأخذ صور سيلفي مع الزوّار.

غالبًا ما تستخدم حلول إعادة إنتاج الصوت مثل استنساخ الصوت السحابة للتعامل مع مهامّ الذكاء الاصطناعيّ المكثّفة وتوسيع نطاقها. يمكنك أيضًا البحث عن حلول سحابيّة لإعادة إنتاج صوتك.

رأي المحرّر:

في نهاية المطاف، نستنتج أنّه يمكن استخدام التزييف العميق للترفيه أو يمكن أن يستخدم في المزيد من المسارات غير الأخلاقيّة. وعلينا أن ندرك أنّ التزييف العميق هو شكل من أشكال الذكاء الاصطناعيّ يأخذ مقطعًا موجودًا ويقومون أشياء مثل الوجه. ويؤدّي هذا إلى إنشاء نسخة مزيّفة من مقطع فيديو.

 في الاستخدامات الشائعة، لا تبدو المنتجات المقلّدة واقعيّة للغاية حتّى الآن، ولكنّ هذا ليس هو الحال دائمًا. فمع مرور الوقت يمكن استخدام التكنولوجيا والتعلّم الآليّ والشبكات العصبيّة لإنشاء نسخة أكثر واقعيّة من المزيّف حتّى تصنع منتجًا يصعب تمييزه من الواقع.

وعلينا أن نعي تمامًا أنّ نيّة التزييف العميق تعتمد على الشخص. يستخدم البعض تقنيّة التزييف العميق للترفيه، والبعض الآخر للتثقيف، ولكن قد يختار البعض أيضًا طرقًا غير أخلاقيّة للسخرية أو للإساءة أو للتنمّر.

 في هذه المقالة، قمنا بتغطية بعض الأمثلة لماهيّة التزييف العميق والتعرّف على ماهيّته وأمثلة للمساعدة في التعرّف على التزييف العميق، ولكن ليس لإقناعك بها. ويمكن لأيّ شخص إصدار حكمه على التزييف العميق، ولكنّ ما نحن متأكدون منه أنّ هذه التكنولوجيا ليست جاهزة تمامًا ليصل التزييف إلى حدّ الواقعيّة، وبناء على ذلك لا يزال من السابق لأوانه إعطاء حكم نهائيّ على هذه التقنيّة وآثارها.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات