الصحة النفسية لعمال كينيين منخفضي الأجر دُفعت ثمنا لتدريب “ChatGPT”

الصحة النفسية لعمال كينيين منخفضي الأجر دُفعت ثمنا لتدريب “ChatGPT”
استمع إلى المقال

روبوت “ChatGPT” أثار إعجاب الملايين حول العالم من خلال قدرته على تجميع جمل متماسكة، وأحيانا دقيقة، ونصوص أدبية، وأوراق بحثية، ومحادثات خاصة مع المستخدمين وغير ذلك. للكتابة بهذا الأسلوب المشابه لأسلوب الإنسان، تم تدريب الروبوت باستخدام خوارزميات التعلم الآلي على كتالوج ضخم من المواد التي تم جمعها من الويب، لكن تطوير “ChatGPT” لم يكن آليا بالكامل، إذ كان العمل البشري مطلوبا لمنع سقوط “ChatGPT” في نفس الفخ مثل سابقه “GPT-3” – من شركة “أوبن إيه آي” نفسها – والذي كان قادرا على جعل نصوصه وردوده غير ملائمة، وأحيانا عنصرية.

“ندبات نفسية” لأجل التدريب

وفقا لتحقيق استقصائي حديث أجرته صحيفة “تايم” الأميركية، قامت شركة “أوبن إيه آي” المنشئة لـ “ChatGPT” بتعهيد مهمة معالجة البيانات البغيضة، من محتوى فاحش وعنصري ومهين إلى عمال كينيين، وكثير منهم كانوا يكسبون أقل من دولارين في الساعة.

تدريب “ChatGPT” يتم على مجموعات بيانات بهذا الحجم الهائل بحيث لا يمكن تنسيقها يدويا عن كثب، حاله حال أدوات إنشاء الصور مثل “DALL-E” – الذي تديره “أوبن إيه آي” أيضا – و”ميدجورني” التي تتدرب على ملايين الصور؛ فمن دون تدريب، لن يعمل “ChatGPT” من تلقاء نفسه على الإطلاق، ولكن ليس كل النصوص التي يمكن العثور عليها على الإنترنت تؤدي إلى نوع التعليقات التي يريد المستخدم من الذكاء الصنعي أن يكررها.

هذا العمل الذي تمت الاستعانة بموارد بشرية خارجية لتأديته، تضمن تسمية أمثلة لنوع النصوص المسيئة التي قد تظهر في المواد التدريبية، ليتم بعد ذلك إدخال مجموعة من هذه العينات النصية المصنّفة في ذكاء صنعي آخر، وتدريبه على ملاحظة وإزالة النص المسيء المماثل من ردود “ChatGPT” للمستخدمين.

تدريب الذكاء الصنعي على تجنب اللغة الفاضحة و الألفاظ والتعابير غير اللائقة إلى إبقاء “ChatGPT” أكثر أخلاقية، ويجعل من الصعب استخدامه لإنتاج محتوى مزعج. ولكن في إطار هذا الجهد لتحسين روبوت الدردشة، عرّضت شركة “أوبن إيه آي” العمال ذوي الأجور المنخفضة في كينيا لبعض من أسوأ المواد الموجودة على الويب.

للحصول على تلك التصنيفات من تلك المحتويات، أرسلت شركة “أوبن إيه آي” عشرات الآلاف من المقتطفات النّصية إلى شركة تعهيد في كينيا، بدءا من تشرين الثاني/نوفمبر 2021، وفقا لتحقيق “التايم”. 

يبدو أن الكثير من تلك النصوص قد تم سحبها من أحلك الأماكن على الإنترنت. ووصف بعضها مواقف بتفاصيل مصورة مثل الاعتداء الجنسي على الأطفال، والحيوانات، والقتل، والانتحار، والتعذيب، وإيذاء النفس، وسفاح القربى.

تحقيق “التايم”

تحقيق “التايم” يقول إن أحد العمال عانى من رؤى متكررة نتيجة المحتوى الذي واجهه في الوظيفة، وجميع العمال الأربعة الذين تحدثت إليهم “التايم” قالوا إنهم “أصيبوا بندبات نفسية بسبب العمل”.

بحسب ما ورد، كان هناك حوالي 36 عاملا تم توظيفهم لتنفيذ المهمة نيابة عن شركة “أوبن إيه آي”، وكان من المتوقع أن يقرأ كل منهم ويضع علامة على ما بين 150 و 250 مقطعا نصيا في كل وردية عمل مدتها تسع ساعات.

قد يهمك: الجانب المظلم من “ChatGPT”.. هل يسهل عمل مجرمي الإنترنت؟

شركة التعهيد المسؤولة عن أعمال الاستعانة بمصادر خارجية تسمى “ساما”، وهي شركة مقرها سان فرانسيسكو، ولديها عمال في كينيا وأوغندا والهند، وتشير “التايم” إلى أن “أوبن إيه آي” وقّعت ثلاثة عقود من أجل إجراءات  تصنيف المحتوى تلك في أواخر عام 2021، بقيمة إجمالية تبلغ حوالي 200 ألف دولار أميركي.

“ساما” تقول إن موظفيها تمكنوا من الوصول إلى جلسات فردية وجماعية مع معالجين متخصصين في الصحة النفسية، مع إمكانية الوصول إلى تلك الجلسات في أي وقت. ومع ذلك، قال العمال الذين تحدثت إليهم مجلة “التايم” إن الجلسات المتاحة لهم اقتصرت على الجلسات الجماعية فقط.

متحدث باسم “أوبن إيه آي” قال لمجلة “التايم” بشأن أعمال معالجة البيانات الخارجية، “مهمتنا هي ضمان أن يخدم الذكاء الصنعي البشرية جمعاء، ونحن نعمل بجد لبناء أنظمة ذكاء صنعي آمنة ومفيدة تحد من التحيز والمحتوى الضار، ويعتبر تصنيف النصوص والصور الضارة وتصفيتها خطوة ضرورية لتقليل كمية المحتوى العنيف والجنسي المتضمن في بيانات التدريب، وإنشاء أدوات يمكنها اكتشاف المحتوى الضار”.

قد يهمك: لماذا لم نستعد بعد لروبوتات المحادثة الآلية؟

“سوء تفاهم”؟

وفقا لمجلة “التايم”، اتخذت طبيعة عمل “ساما” لصالح “أوبن إيه آي” منعطفا مختلفا في شباط/فبراير 2022 عندما بدأت في جمع “الصور الجنسية والعنيفة”، والتي يعتبر بعضها غير قانوني في الولايات المتحدة، مقر الشركتين. إذ قالت شركة “أوبن إيه آي” إن تصنيف الصور الضارة كان “خطوة ضرورية” في جعل أدواتها آمنة للاستخدام، لكنها لم تقصد أبدا الفئة الأكثر تطرفا من الصور التي تجمعها “ساما”، وأن هذا كان مجرد سوء تفاهم.

“ساما” أنهت عقدها مع شركة “أوبن إيه آي” مبكرا، ويشير تقرير “التايم” إلى أن فريق “ساما” أثار مخاوف بشأن محتوى الصور، مما أدى في النهاية إلى انهيار الاتفاق بين الشركتين. في أعقاب ذلك، تم تعديل عقود بعض عمال “ساما” إلى عقود منخفضة الأجور، أو تم إنهاء وظائف البعض الآخر بالكامل، وتجدر الإشارة إلى أن تقرير “التايم” الكامل يقدم تفاصيل أكثر عن العلاقة السامة التي ربطت “أوبن إيه آي” بـ “ساما”.

أخلاق “صنعية” على حساب البشر؟

قيمة “أوبن إيه آي” السوقية تُقدّر حاليا بـ 29 مليار دولار، وتشير التقارير والأخبار مؤخرا إلى أن “مايكروسوفت” تتطلع إلى ضخ المزيد من المليارات في شركة الذكاء الصنعي، على الرغم من تسريحاتها الجماعية الأخيرة لموظفيها، والتي تجاوزت العشرة آلاف موظف، كما أعلنت عن خطط لدمج تقنيات “أوبن إيه آي” في خدماتها، وأبرزها، محرك بحث “Bing” بهدف منافسة “جوجل”.

عمل مراقبة المحتوى وتصنيفه لطالما احتوى على درجة معينة من المعاناة الإنسانية، إذ كشف تقرير مطول من عام 2019 لموقع “ذا فيرج” بعنوان “طابق الصدمة النفسية” عن الصحة النفسية المتردية لدى موظفي فرق مراقبة المحتوى التي يوظفها – أو يتعاقد معها خارجيا – “فيسبوك”، ووصف أعراض الصدمة طويلة الأمد لبعض أعضاء تلك الفرق كنتيجة للعمل.

في المقابل، فإن حاجة “أوبن إيه آي” أيضا إلى تصنيف المحتوى وفرزه تُعد أحد جوانب أزمة أخلاقية أكبر تتزايد في الأوساط البحثية في مجال الذكاء الصنعي، وهي مشكلة ما يجب استخدامه كمواد تدريبية. إذ لا يمكن للآلات أن تتعلم كيف تتصرف مثل البشر بدون مواد من صنع الإنسان، ولكن لا يريد جميع المطورين أن يتم تغذية عملهم بخوارزمية، وفي العام الماضي بدأ الفنانون أنفسهم، أي صانعي مواد التدريب، في تصنيف أعمالهم على أنها “غير مسموح باستخدامها لتدريب الذكاء الصنعي” في محاولة لدرء الشركات التي تجمع بيانات التدريب لمحركات توليد الصور.

الآن ها هي المشكلة العكسية، المواد التي لا يريد صانعو نماذج الذكاء الصنعي أنفسهم أن تؤثر على النماذج الخاصة بهم. ومرة أخرى، تقع مهمة “تربية” روبوتات ذكاء صنعي محترمة على عاتق الأشخاص، وفي هذه الحالة، يدفع الموظفون الثمن بالتّعرض لأكثر أنواع المحتوى إزعاجا وقسوة على الويب.

قد يهمك: صراع الفنانين والذكاء الصنعي.. من المحق؟

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.