مجلس الأمن الدولي يناقش مستقبل الذكاء الاصطناعي.. ما التوقعات؟

مجلس الأمن الدولي يناقش مستقبل الذكاء الاصطناعي.. ما التوقعات؟
استمع إلى المقال

حكومات العالم ليست في منأى عن التطور الحادث في مجال الذكاء الاصطناعي والتأثير الذي يمتلكه هذا التطور على مختلف جوانب الحياة اليومية، ولهذا رأينا عدة محاولات فردية من أجل تنظيم الذكاء الاصطناعي ومحاولة السيطرة عليه خوفا من أضراره. 

رغم أن جميع الجهود الحكومية التي استهدفت تنظيم الذكاء الاصطناعي كانت جهود فردية للدول، إلا أننا الآن نقف على أعتاب أول قمة دوليّة لمناقشة مستقبل الذكاء الاصطناعي يعقدها مجلس الأمن الدولي بقيادة بريطانيا في مقره بمدينة نيويورك، ولكن هل ينتج عن القمة قوانين تغير مشهد الذكاء الاصطناعي العالمي. 

بداية الجهود الدولية 

جهود الحكومات الفردية لم تكن قادرة على مواكبة التطور الحادث في مجال الذكاء الاصطناعي، وذلك لأنه من الصعب أن تحظر دولة واحدة بمفردها هذه التقنية وتقف أمام تطورها، لهذا قررت بريطانيا أن يدور اجتماع مجلس الأمن الذي ترأسه حول مخاطر الذكاء الاصطناعي وكيفية التخفيف من مخاطر التكنولوجيا الناشئة التي تمثل خطرا على الاقتصاد العالمي ومشهد الدولي. 

مساعي مجلس الأمن ليست وحيدة في هذا المجال، إذ دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش إلى تأسيس هيئة رقابة دولية تنظم عمليات الذكاء الاصطناعي وتطور التقنية، وهو ما يتفق مع دعوات شركات الذكاء الاصطناعي لبناء الهيئة ذاتها. 

الأمين العام للأمم المتحدة – أنطونيو غوتيريش

على الصعيد الآخر، تبنى مجلس حقوق الإنسان التابع للأمم المتحدة قرارا يدعو إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي، ومن ضمن التدابير التي دعا إليها القرار تعزيز شفافية أنظمة الذكاء الاصطناعي وضمان أن هذه البيانات الخاصة بالتقنية تجمع وتستخدم ويتم مشاركتها بشكل يضمن حقوق الإنسان ويحافظ على خصوصيته. 

المجتمع الدولي انقسم إلى جزئين بين مؤيد ومعارض لهذا القرار ودعوى مجلس حقوق الإنسان، إذ كانت كوريا الجنوبية والنمسا والبرازيل والدنمارك والمغرب وسنغافورة وأميركا داعمين للقرار، إذ وصفوه بأنه خطوة للأمام، ولكن في المقابل ترأست الصين مجموعة الدول الرافضة وقالت بأن هذا قد يقوض نفوذ الدول على بيانات الذكاء الاصطناعي وبيانات مواطنيها. 

وفي الوقت ذاته، تتعرض شركة “OpenAI” المسؤولة عن تطوير نموذج “ChatGPT” لعملية تدقيق وفحص حكومي دقيقة تجريها هيئة “FTC” الأميركية لضمان سلامة بيانات الشركة وأنها تحافظ على خصوصية المستخدمين ولا تنتهكها. 

مخاوف عالمية 

المخاوف النابعة من تطور تقنيات الذكاء الاصطناعي متنوعة للغاية، وهي تتراوح بين مخاوف الخصوصية وحرية الإنسان وحتى المخاوف الأمنية وجهود الذكاء الاصطناعي في زعزعة استقرار بعض الدول أو تضليل المعلومات الدولية عنها. 

سام ألتمان المدير التنفيذي لشركة “OpenAI” كان من أوائل من أشار إلى هذه المخاوف والمخاطر التي تمثلها تقنيات الذكاء الاصطناعي، ودعا منذ البداية إلى محاولة تنظيم الذكاء الاصطناعي والتدخل الدولي من أجل تنظيم التقنية وحماية المستخدمين منها. 

التحدي الحقيقي الذي يكمن في عملية تنظيم نماذج الذكاء الاصطناعي هو التطور المستمر لهذه التقنية، إذ لا يمكن وضع حدود واضحة لما وصلت إليه التقنية حاليا ومعرفة إلى أين ستصل في المستقبل القريب، لهذا يجب أن تكون القرارات الدولية مستعدة لتطور في التقنية لم يحدث بعد. 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات