استمع إلى المقال

البشرية اليوم تعيش في عصر يشهد اندفاعا هائلا نحو الاستفادة من إمكانيات التكنولوجيا المتقدمة، وفي صلب هذا الاندفاع، برز الذكاء الاصطناعي كأحد أهم وأبرز التقنيات المحورية، إن القدرات الاستثنائية للذكاء الاصطناعي تعد بثورة في مجموعة متنوعة من المجالات، من الطب والصناعة إلى البيئة والتعليم والمزيد.

مع ذلك، يُصاحب هذا النمو السريع مخاوف متزايدة بشأن الأمان والأخلاقيات في استخدام التكنولوجيا؛ لهذا السبب، تزداد الحاجة إلى تنظيم وتوجيه تقنيات الذكاء الاصطناعي بشكل عالمي، العديد من الحكومات والمنظمات الدولية قد بادرت إلى خطوات جادة في هذا الاتجاه، بغية تحقيق التوازن بين تطوير التكنولوجيا والحفاظ على الأمان والأخلاقيات.

تعكس هذه الزيادة في الاهتمام الدولي اتجاها ملموسا نحو التنظيم والتنسيق بين الدول والمؤسسات للتأكد من أن تقنيات الذكاء الاصطناعي تُستخدم بطرق تضمن الثقة والأمان العالمي.

في هذا السياق، يقدم هذا التقرير نظرة عامة على هذه التحركات الجديدة على الصعيدين المحلي والدولي، مع التركيز على جهود مجموعة الدول الصناعية السبع (G7) ومبادرتها في ضبط تقنيات الذكاء الاصطناعي، وكيف تعكس هذه الجهود رؤية عالمية مشتركة للمستقبل.

إعلان الدول السبع

في خطوة استثنائية ولافتة للأنظار، أعلنت مجموعة الدول الصناعية السبع (G7) بالأمس الموافق لـ 30 تشرين الأول/أكتوبر 2023، عن إطلاق الإعلان الدولي لقواعد السلوك للمنظمات التي تعمل في مجال تطوير أنظمة الذكاء الاصطناعي المتقدمة، إن هذا الإعلان يأتي كخطوة استراتيجية هامة في تطوير الأسس الأخلاقية والأخلاقيات التي تحكم استخدام التكنولوجيا المتقدمة.

تهدف هذه القواعد إلى تعزيز الثقة والأمان في مجال الذكاء الاصطناعي، وتشجيع المنظمات على تطوير تقنيات آمنة وموثوقة، إن هذه الخطوة تعكس التزاما قويا بحماية الفرد والمجتمع، والالتزام بالقيم الأساسية مثل حكم القانون والقيم الديمقراطية.

تعدد الجهود

في اليوم نفسه الذي أعلنت فيه مجموعة الدول الصناعية السبع (G7) عن إعلان قواعد السلوك للذكاء الاصطناعي، شهد العالم تطورات ملحوظة في مجال التشريع والإجراءات الحكومية، سواء في الولايات المتحدة الأميركية أو الاتحاد الأوروبي.

في الولايات المتحدة، أصدر الرئيس جو بايدن أمرا تنفيذيا بعنوان “الذكاء الاصطناعي الآمن والموثوق”، وهي خطوة حكومية رائدة تهدف إلى تعزيز الأمان والثقة بمجال الذكاء الاصطناعي، يسعى هذا الأمر التنفيذي إلى تحديد التوجهات والإطار القانوني لاستخدام الذكاء الاصطناعي على نحو آمن وموثوق، مع التركيز على تطبيقاته الأخلاقية والمسؤولة.

مجموعة السبع الذكاء الاصطناعي

من ناحية أخرى، يعكس الاتحاد الأوروبي التزاما قويا بمراقبة وتنظيم الذكاء الاصطناعي من خلال قانونه الملزم ماليا للاتحاد الأوروبي، هذا القانون يأتي لتحديد القواعد واللوائح التي يجب على الدول الأعضاء اتباعها في استخدام وتطوير التكنولوجيا، وهذا يشير إلى التزام الاتحاد الأوروبي بتوجيه الاستخدام الآمن والأخلاقي للذكاء الاصطناعي.

إضافة إلى ذلك، قام الأمين العام للأمم المتحدة بإنشاء مجلس استشاري جديد للذكاء الاصطناعي، وهو مكون من أكثر من ثلاثين قائدا في مجال الحكومات والتكنولوجيا والأكاديميين العالميين، هذا المجلس سيدعم الجهود الدولية لحكم التكنولوجيا المتقدمة وضبطها بمسؤولية، يمثل هذا الاجتماع المبارزة العالمية المتنوعة والجادة للتعامل مع تحديات الذكاء الاصطناعي وضمان توجيهه نحو الفوائد العالمية والازدهار المشترك.

11 نقطة أساسية

مجموعة السبع، والتي تتكون من الولايات المتحدة والاتحاد الأوروبي وبريطانيا وكندا وفرنسا وألمانيا وإيطاليا واليابان أصدرت إطار العمل الجديد المكون من 11 نقطة للمساعدة على توجيه المطورين في إنشاء ونشر الذكاء الاصطناعي المسؤول.

مجموعة قادة العالم دعت المنظمات إلى الالتزام بمدونة قواعد السلوك، مع الاعتراف بأن الولايات القضائية المختلفة قد تتخذ نهجا مغايرا لتنفيذ هذه المبادئ التوجيهية.

تشمل النقاط الـ 11 ما يلي:

  • اتخاذ التدابير المناسبة على مراحل التطوير لتحديد وتقييم المخاطر، بما في ذلك اختبار وتقليل الأخطار، وذلك لضمان الثقة والأمن، يجب على المطورين تمكين التتبع فيما يتعلق بالبيانات والعمليات والقرارات.
  • تحديد وتقليل الثغرات والحوادث وأنماط سوء الاستخدام بعد النشر، ذلك يشمل رصد الثغرات والحوادث والمخاطر الناشئة وتسهيل اكتشافها من قبل الأطراف الثالثة والمستخدمين والإبلاغ عن الحوادث.
  • الإبلاغ علنيا عن إمكانيات الأنظمة المتقدمة للذكاء الاصطناعي، والقيود، ومجالات الاستخدام النموذجية وغير الملائمة، يجب أن يتضمن ذلك تقارير شفافة تُدعم بعمليات وثائقية قوية.
  • العمل نحو مشاركة المعلومات المسؤولة والإبلاغ عن الحوادث، ذلك يشمل تقارير التقييم والمعلومات حول مخاطر الأمان والسلامة والقدرات المقصودة أو غير المقصودة ومحاولات تجاوز التدابير الوقائية.
  • وضع وتنفيذ والكشف عن سياسات إدارة الأمن والمخاطر للذكاء الاصطناعي، ذلك ينطبق على البيانات الشخصية والمدخلات والمخرجات.
  • الاستثمار في وتنفيذ وسائط الأمان بما في ذلك الأمان البدني والأمن السيبراني والتدابير الوقائية ضد التهديدات الداخلية، يمكن أن يشمل ذلك تأمين وزن النموذج والخوارزميات والخوادم والبيانات بما في ذلك تدابير الأمن التشغيلي ومراقبة الوصول السيبراني والبدني.
  • وضع ونشر آليات موثوقة للمصادقة على المحتوى وأصوله مثل العلامات المائية، يجب أن تتضمن بيانات الأصل معرفا للخدمة أو النموذج الذي أنشأ المحتوى، ويجب أن تحتوي إخطارات أيضا على معلومات تنبيه المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي.
  • الأولوية للبحث عن الأنظمة الذكية لمعالجة “تحديات العالم الأكبر” بما في ذلك أزمة المناخ والصحة العالمية والتعليم، يجب على المنظمات دعم مبادرات تعليم الأدب الرقمي أيضا.
  • التعاون في تطوير واعتماد المعايير الفنية الدولية، يتضمن ذلك المساهمة في تطوير واستخدام المعايير الفنية الدولية وأفضل الممارسات.
  • تنفيذ تدابير مناسبة لإدخال البيانات وحماية البيانات الشخصية والملكية الفكرية، يجب أن تشمل هذه التدابير شفافية مناسبة لمجموعات البيانات التدريبية.
  • احترام المنظمات التي تعمل في مجال الذكاء الاصطناعي لحكم القانون وحقوق الإنسان والإجراءات القانونية والتنوع والعدالة وعدم التمييز والديمقراطية و”المحورية الإنسانية”، يجب ألا تتم إدخال الأنظمة المتقدمة بطريقة تكون مؤذية، وتشكل تهديدا للقيم الديمقراطية ولمكافحة الإرهاب والاستخدام الإجرامي، والتي تشكل مخاطر كبيرة للأمان والسلامة وحقوق الإنسان.

الالتزام بالمبادئ الأخلاقية

مبدأ الالتزام بالمبادئ الأخلاقية يجسد جوهرية جهود تنظيم التكنولوجيا المتقدمة مثل الذكاء الاصطناعي، حيث يتعين على المنظمات والحكومات التفكير بعمق في الأثر الأخلاقي للتكنولوجيا التي تطوّرها أو تستخدمها، يتعين عليها أن تضع معايير صارمة للأخلاقيات والمسؤولية في تصميم وتطوير أنظمتها، مع التركيز على حماية حقوق الإنسان وتعزيز التنوع والعدالة.

مجموعة السبع الذكاء الاصطناعي

التعاون الدولي يشكل مفتاحا أساسيا لضمان تحقيق هذا الالتزام بالمبادئ الأخلاقية، من خلال تبادل المعرفة والخبرات، يمكن للدول والمنظمات العالمية تطوير إطار دولي مشترك للأخلاقيات في مجال الذكاء الاصطناعي، يمكن أن يشمل ذلك تطوير مبادئ توجيهية دولية تشجع على ممارسات مسؤولة وأخلاقية.

إضافة إلى ذلك، تطوير المعايير التقنية يلعب دورا كبيرا في تنظيم الذكاء الاصطناعي، يمكن لإنشاء معايير دقيقة وموحدة أن تضمن تحقيق الأمان والجودة في تطبيقات الذكاء الاصطناعي، هذه المعايير يجب أن تكون نتاج تعاون دولي وجهود مشتركة لتحديد الأفضل الممارسات والمعايير التقنية التي تمكن الصناعة من تطوير واستخدام التكنولوجيا بمسؤولية.

على نحو مشترك، يجب أن تسهم هذه الجهود في تعزيز الثقة بالتكنولوجيا والتأكد من أن تكون التقنيات المتقدمة موجهة نحو تحقيق الفوائد البشرية مع الالتزام بالقيم الأخلاقية والمسؤولية الاجتماعية، تجسد هذه الجهود الالتزام الجاد بتوجيه مستقبل التكنولوجيا نحو التنمية المستدامة والازدهار المشترك.

التوازن الفعال

في الختام، نجد أن محاولات كبح الذكاء الاصطناعي ليست سلبية بالضرورة على عملية تطوير هذه التقنيات، بل قد تكون بمثابة القوام الذي يجعل الذكاء الاصطناعي يسير على السكة الصحيحة نحو المستقبل، إن الرقابة الحكومي والتنظيم الصحيح للذكاء الاصطناعي يمكن أن يسهما في توجيه هذه التكنولوجيا القوية نحو خدمة الإنسانية بشكل أفضل وأكثر أخلاقية.

لن نستفيد بالكامل من إمكانيات الذكاء الاصطناعي إلا إذا تم الجمع بين الابتكار والمسؤولية والتعاون الدولي، فالتحديات التي تواجهنا في هذا المجال تتطلب التفكير الإبداعي والرؤية الشاملة، يجب أن نبني مستقبلا يعكس القيم الإنسانية، ويضمن استخدام التكنولوجيا بطريقة تعزز من التقدم والازدهار للجميع.

نحن بأشد الحاجة إلى تحول حقيقي نحو تحقيق توازن فعّال بين تقدم التكنولوجيا والمحافظة على قيمنا وأخلاقياتنا، كما أننا بأمس الحاجة إلى تكاتف المجتمع الدولي لنخطو نحو مستقبل مشرق حيث يمكن للذكاء الاصطناعي أن يخدم الإنسانية بما فيها من تنوع وتطور مستدام.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
2 1 صوت
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات