استمع إلى المقال

أطلقت شركة ميتا قبل بضعة أشهر، أداة جديدة تعتمد على الذكاء الصنعي في البحث عن المعلومات المضللة، تدعى سفْير “Sphere“. هذه الأداة مفتوحة المصدر، وتم استخدامها بدايةً في موسوعة ويكيبيديا العالمية، لمسح الإدخالات على نحو تلقائي، وتحديد متى تكون الاقتباسات ذات مصادر قوية أو ضعيفة.

أوضحت ميتا أن الفكرة من وراء استخدام أداة سفير في موسوعة ويكيبيديا، هي لتدريبه ولزيادة كفاءة التعلم الآلي للذكاء الصنعي، فموسوعة ويكيبيديا بحسب إعلان صادر عنها، تحتوي على 6.5 مليون إدخال من بداية الموسوعة، وتشهد في المتوسط​​ حوالي 17 ألف مقالة تضاف كل شهر. وهناك بالفعل فريق من المحررين مكلف بالإشراف على عمليات إضافة المحتوى وتحريره، ولكن مهمتهم شاقة، وتزداد صعوبةً يومًا بعد يوم.

لا تزال شركة ميتا تعاني من سمعة سيئة بخصوص نشر المعلومات المضللة، ولعلّ إطلاق أداة مثل سفير، يعتَبر خطوة جيدة لتحسين هذه السمعة بالنسبة للشركة. وعلى الرغم من ذلك، أكدت ميتا أنها لا تستخدم سفير أو أي نسخة منه على منصاتها الخاصة مثل فيسبوك وإنستاغرام وماسنجر، وهي منصات في صراع مستمر مع المعلومات المضللة.

الذكاء الصنعي وقدرته على كشف المعلومات المضللة

هناك الكثير من الأدوات الموجهة لمساعدة الصحفيين، ومدققي الحقائق، على اكتشاف الأخبار الزائفة ومكافحتها، منها ما يعمد على التعلم الآلي والذكاء الصنعي في عملية البحث في البيانات والمعلومات المضللة.

تنقسم عملية البحث إلى شقين أساسيين:

  • الشكل

يستهدف الكشف عن المحتوى باستخدام الأدوات التي تركز على شكل ذلك المحتوى. إذ من الممكن التلاعب بالصور ومقاطع الفيديو بسهولة، سواء من خلال برنامج تعديل الصور مثل “الفوتوشوب” أو من خلال تقنيات أكثر تعقيدًا مثل التزييف العميق. حيث يمكن للذكاء الصنعي إجراء هندسة عكسية وتحليل تلك التغييرات، واستخدام الخوارزميات لمساعدة الصحفيين على كشف المحتوى الذي تم التلاعب به.

نظرًا لأن هذه الأدوات تنظر إلى الشكل، فإنها لا تتحقق مما إذا كان المحتوى نفسه يقدم ادعاءات كاذبة، وهذا ما ينقلنا إلى الشق الثاني.

  • المحتوى

هنا يقوم الذكاء الصنعي بربط المعلومات التي شُكِّك بمدى صحتها من قبل مدققي الحقائق، ويبحث على صفحات على الإنترنت أو منشورات على وسائل التواصل الاجتماعي تحتوي على كلمات وادعاءات مماثلة.

صعوبة كشف المحتوى المزيف

اكتشاف الأخبار المزيفة قد لا يقتصر فقط على العثور على المعلومات غير الصحيحة، ولكن أيضًا يتعلّق بتحليل كميات هائلة من أنماط المشاركة في وسائل التواصل الاجتماعي، هذا قاله مايكل برونشتاين، الأستاذ في جامعة لوغانو في سويسرا، وفي إمبريال كوليدج لندن بالمملكة المتحدة. وهو يقود مشروعًا يدعى “GoodNews” يستخدم الذكاء الصنعي لاتباع نهج غير نمطي للكشف عن الأخبار المزيفة.

يوضح برونشتاين أن معظم الأساليب المتبعة من قبل أدوات كشف المعلومات المضللة تنظر إلى المحتوى، وتقوم بتحليل السمات الدلالية التي تميز الأخبار الزائفة. وهذه الأساليب تفيد بشكل من الأشكال عملية البحث، لكنها تواجه بعض المشاكل. فعلى سبيل المثال، قد لا تمنحك الأنظمة الأساسية مثل واتساب إمكانية الوصول إلى المحتوى لأنه مشفر، وفي كثير من الحالات قد تكون الأخبار المزيفة تتكون من صورة، ويصعب تحليلها باستخدام تقنيات معينة كمعالجة اللغة الطبيعية. هذا ما دفع برونشتاين وفريقه إلى ابتكار نموذج بحثي جديد، يركز على كيفية انتشار الأخبار المزيفة.

تُظهر الدراسات السابقة أن الأخبار المزيفة تتم مشاركتها عبر الإنترنت بطرق مختلفة عن القصص الإخبارية الحقيقية، كما يدعي البروفيسور برونشتاين. وقد تحصل الأخبار المزيفة على مشاركات أكثر بكثير من الإعجابات على منصة فيسبوك، بينما تحصل المشاركات العادية على إعجابات أكثر من المشاركات. من خلال اكتشاف أنماط مثل هذه، تقوم أداة “GoodNews” بإرفاق درجة مصداقية لعنصر الأخبار.

تاريخ ميتا مع الأخبار المضللة

في عام 2021 عرضت صحيفة واشنطن بوست الأميركية، دراسة أجراها باحثون في جامعة نيويورك وجامعة غرونوبل ألب في فرنسا، توضح بأنه من شهر أغسطس/آب 2020 إلى يناير/كانون الأول 2021، حصل ناشرو الأخبار المعروفون بنشر معلومات مضللة على ستة أضعاف عدد الإعجابات والمشاركات والتفاعلات على منصة فيسبوك، مقارنة بغيرها من المنصات.

تشير الصحيفة إلى أنه منذ أن أصبحت الأخبار المزيفة على فيسبوك مصدر قلق عام في أعقاب الانتخابات الرئاسية لعام 2016، تم إثبات قدرة الناشرين الذين يتاجرون بالمعلومات الخاطئة مرارًا وتكرارًا، على كسب جماهير كبيرة من مستخدمي المنصة. دراسة جامعة نيويورك هي واحدة من المحاولات القليلة لقياس وعزل تأثير المعلومات المضللة، عبر مجموعة واسعة من الناشرين في فيسبوك، حيث أكد الباحثون أن استنتاجاتهم تدعم الانتقادات التي تقول إن منصة فيسبوك تكافئ الناشرين المضللين.

في المقابل أدعى جو أوزبورن المتحدث باسم فيسبوك، أن التقرير يتناول في الغالب كيفية تفاعل الأشخاص مع المحتوى، وهو ما لا ينبغي الخلط بينه وبين عدد الأشخاص الذين يشاهدون ذلك المحتوى  بالفعل على منصة فيسبوك، وعند النظر إلى المحتوى الذي يحصل على أكبر قدر من الوصول عبر فيسبوك، يبدو أنه لا يشبه على الإطلاق ما تقترحه هذه الدراسة، وفق رد أوزبورن الذي أضاف أن فيسبوك لديه 80 شريكًا في التحقق من صحة المعلومات، يغطون أكثر من 60 لغة، مهمّتهم تصنيف المعلومات الكاذبة والحد منها.

فيسبوك والمعلومات المضللة

تعتبر منصة فيسبوك هي الأسوأ عندما يتعلق الأمر بنشر الأخبار المزيفة. وذلك وفقًا لدراسة أجريت في بداية عام 2020، ونُشرت في المجلة العلمية الشهرية “Nature: Human Behavior”.

خلال الدراسة قام فريق من الباحثين بقيادة أندرو جيس من جامعة برينستون، بتتبع استخدام الإنترنت لأكثر من 3 آلاف أميركي، في الفترة التي سبقت الانتخابات الرئاسية عام 2016. وجد الباحثون أن فيسبوك يقوم بتحويل المستخدم إلى مصادر الأخبار غير الموثوقة في أكثر من 15% من عمليات التحويل. فيما يقوم بتحويل المستخدمين إلى مواقع إخبارية موثوقة بنسبة 6% فقط. 

تدعو هذه المعلومات إلى عدم الثقة بأداة لمحاربة المعلومات المضللة، صُممت من قبل ميتا، الشركة الأم لمنصة فيسبوك ، ويتم استخدامها في موسوعة ويكبيديا. وما يدعو أيضاً لعدم الثقة هو أن الشركة أكّدت أصلاً أنها لن تستخدم هذه الأداة على منصاتها. هذا ناهيك عن تاريخ فيسبوك الأسود في قضايا تتعلق بنشر الأخبار المزيفة.

كيف بدأ التضليل؟ وكيف استمر؟ 

تواجه المعلومات المضللة معظم الصحفيين الذين يسعون لبناء قصص إخبارية وتقارير تتجنّب ما هو غير حقيقي ومضلل. وفي هذا السياق لفتت الصحفية نايلة الصليبي، وهي صحفية متخصصة في التقنيات الحديثة والتحول الرقمي، وعملت كمسؤولة تحرير في موقع “مونت كارلو الدولية” الالكتروني، في تصريح لموقع إكسڤار، إلى أن  فيسبوك والمنصات الاجتماعية الأخرى عند نشأتها لم تكن مصممة لنشر المعلومات المضللة، بل كان هدفها الأول هو بناء التواصل بين الناس. لذلك منحت المادة 230 من قانون آداب الاتصالات الأمريكي “Section 230 of the Communications Decency Act”، حصانة لشركات الإنترنت في المحتوى الذي تستضيفه، والذي يتم إنشاؤه من قبل مستخدميها، هذه المادة تنص على “ألا تعامل المنصات الاجتماعية كمؤسسات إعلامية”. 

هذا البند وفق الصحفيّة يقع في موضع المراجعة اليوم من قبل الإدارة الأمريكية، لجعل المنصات الاجتماعية مسؤولة عن المحتوى.

أضافت الصليبي إن هذه المنصات لاحقا، ومن خلال نموذجها الاقتصادي للربح المادي، وباستغلال البيانات الشخصية وتتبع المستخدم، قامت بزيادة الخيارات بما يجذب ويتناسق مع أذواق واحتياجات المستخدم، كيلا يخرج من بيئات تلك المنصة، من خلال الخوارزميات التي تسجن المستخدم في فقاعة. 

هذا النموذج يعرف أيضا باقتصاد الانتباه “Attention Economy”، بحيث يعامل فيه انتباه الإنسان وكأنه سِلعة، أي أن الانتباه هو مورد مادي. هذا النموذج الاقتصادي اليوم وفق الصليبي هو موضع اتهام، بسبب دوره السلبي في تجييش الرأي العام.


تقول الصحفية “نعرف اليوم أن الجهات التي تريد نشر المعلومات المضللة والمزيفة تستغل المشاعر البشرية، والقضايا الخلافية في المجتمع، ما يؤدي حتما لكثرة تداول معلوماتها ونشرها بين المستخدمين، مع الاستفادة من طبيعة الويب الفيروسي في نشر المعلومات. هذا النموذج هو المسؤول الأول عن انتشار المعلومات المضللة”.  

مدى جدية فيسبوك في محاربة التضليل

تؤكّد الصليبي أن كل منصة اجتماعية لها أسلوبها في مواجهة المعلومات المزيفة والمضللة، ومشكلة أداة SPHERE التي تعتمد الذكاء الصنعي، والتي طوّرتها شركة ميتا، هي في أن هذا الذكاء له هفوات وتحيز، ولا يمكنه الحلول مكان البشر. مشيرةً إلى أنه حتى اليوم لم نرَ أي عمل فعلي لمجلس الإشراف على المحتوى الخاص في فيسبوك.

أردفت الصليبي “يكفي ذكر ما كشفت عنه فرانسس هوغان، وغيرها من المهندسين الموظفين السابقين في شركة فيسبوك، عن تجاهل المدراء والمسؤولين هناك للإنذارات التي تلقوها فيما يخص قضية الإشراف على المحتوى، وتأثير هذا فشل ذلك على المجتمعات”.

عُرفِت تلك المعلومات المسرّبة من داخل مؤسسة فيسبوك بـ “بتسريبات أوراق فيسبوك”، وقد أظهرت للعلن وفق الصحفيّة، “مدى الخلل الذي تعاني منه المنصة في الإشراف على المحتوى، وأيضا مدى معاناة المحتوى العربي من هذا الخلل، في منصة تدَّعي حماية حرية التعبير، ومواجهة خطاب الكراهيَة والأخبار المضللة، وأنها نصير من لا صوت لهم”.

سبل زيادة الوعي بالمعلومات المضللة

ذكرت الصليبي مجموعة من الأبحاث والدراسات التي تهدف لزيادة وعي المستخدم في حال مواجهة المعلومات المضللة، ومنها على سبيل المثال دراسة لمجموعة من الباحثين في علم النفس من جامعات “كامبريدج” و”بريستول”  في بريطانيا و”بيرث” في أستراليا.

تعتمد الدراسة المشار إليها وفق الصليبي، على الكشف الوقائي “pre-bunking” لزيادة الوعي في مكافحة المعلومات الخاطئة والمضللة، من خلال مقاطع فيديو تثقيفية قصيرة مدتها 90 ثانية تعمل على تفكيك التأثير النفسي لتقنيات التلاعب الأكثر استخداما في المعلومات المضللة، وهي التلاعب العاطفي بواسطة اللغة، والتناقض، والانقسامات الزائفة “false dichotomies”، والمغالطات والحجج الخاطئة، والهجمات الشخصية، والتشكيك بمنطق العبارات، وأيضا نظرية كبش الفداء أو الضحية.

يتضمن كل مقطع فيديو تثقيفي رسالة مضللة، يتبعها فيلم رسوم متحركة يفكك عملية التلاعب المستخدمة، وينتهي الفيديو بتمرين عملي للتحقق من أن تقنية التلاعب قد تم فهمها جيدًا. واختبرت هذه الوسيلة على مجموعتين منفصلتين؛ الأولى في المختبر وتضم 6000 شخص، والثانية على موقع يوتيوب مع 22000 مستخدم للإنترنت.

بحسب الصحفيّة التي اطّلعت على تلك التجربة، إن كثيراً من علماء النفس والاتصال طرحوا تساؤلات حول تجربة الكشف الوقائي، كونها أيضاً تطرح أسئلة أخلاقية: “من الذي يقرر ما الخطأ؟ ومن يقرر أن هذه الطريقة هي للتلاعب بمشاعر المتلقي؟.

حول التشكيك في هذه الدراسة، ذكرت الصليبي مثال الباحثة في علوم الاتصال في جامعة تشابل هيل في نورث كارولينا، Shannon McGregor، والتي شككت بقدرة الكشف الوقائي على القضاء على حملات المعلومات المضللة، من مصادر مثل المؤثرين اليمينيين المتطرفين من مستخدمي يوتيوب، على سبيل المثال.

في لقاء مع موقع The Swaddle اعتبرت Shannon McGregor أن هذه الدراسة “تقترح لمن يهتم بمكافحة المعلومات الخاطئة على المنصات الاجتماعية، بما في ذلك يوتيوب، أن عليه إنفاق المزيد من الأموال على هذه المنصات لعرض إعلانات تهدف إلى حمايته من المعلومات المضللة”. فالبنسبة لها هذا الاقتراح في الكشف الوقائي “لا يرضي سوى المنصات الاجتماعية لرفع مدخولها”.

اختتمت الصليبي بالقول “إن المعلومات المضللة اليوم هي سلاح فتاك يستخدم في حرب باتت اليوم هجينة، لا تقتصر فقط على الصواريخ والدبابات، وإنما على تأليب الرأي العام والتلاعب بمشاعره، ونشر الانقسام والتفرقة، عبر المنصات الاجتماعية”. 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.