استمع إلى المقال

في العقد الأخير، شهد العالم تحولات جذرية بفضل التقدم الهائل في مجال الذكاء الاصطناعي (AI).
هذه التكنولوجيا، التي كانت ذات يوم محصورة في أروقة البحث الأكاديمي والخيال العلمي،
أصبحت الآن قوة دافعة خلف الابتكارات في كل من القطاعين العام والخاص.
الدول والشركات العالمية الرائدة تتسابق لتسخير قوة الذكاء الاصطناعي ليس فقط لتحقيق اختراقات تكنولوجية،
بل أيضًا لإعادة تشكيل المشهد الاقتصادي، الاجتماعي، وحتى العسكري وفقًا لرؤاها.

التعاون

في هذا الإطار، يبرز التعاون بين مايكروسوفت و”openAI” كمثال بارز على الجهود الجماعية لاستغلال إمكانات الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية.
هذا التعاون يعكس التزامًا مشتركًا نحو استكشاف آفاق جديدة في الذكاء الاصطناعي،
مع التأكيد على أهمية وضع ضوابط صارمة لمنع استخدام هذه التكنولوجيا في أغراض مؤذية أو ضارة.

مخاطر متزايدة

مع ذلك، تتزايد المخاطر المرتبطة باستغلال الذكاء الاصطناعي في ظل توسع نطاق قدراته.
الجهات الفاعلة الخبيثة، بما فيها بعض الدول مثل “الصين، روسيا، كوريا الشمالية، وإيران”، تسعى إلى استخدام هذه التكنولوجيا لتحقيق مكاسب استراتيجية، سواء عبر تعزيز قدراتها العسكرية، التجسس الرقمي،
أو السيطرة الاجتماعية والسياسية على مواطنيها.
هذا التوجه يثير قلقًا عالميًا بشأن الاستخدامات غير الأخلاقية للذكاء الاصطناعي ويدفع إلى ضرورة تطوير أساليب فعّالة للدفاع والرصد.

​​ملخص النشاطات التي تم رصدها على منصة “ChatGPT”


تم اتخاذ إجراءات من قبل شركة “openAI” لتعطيل أنشطة مجموعات التهديد التي ترعاها الدول والتي كانت تسيء استخدام “ChatGPT “لأغراض ضارة.
هذه المجموعات من روسيا، كوريا الشمالية، إيران، والصين، استخدمت “ChatGPT” في مجموعة متنوعة من الأنشطة مثل:

  • Forest Blizzard (روسيا): استخدام “ChatGPT” لإجراء أبحاث في تقنيات الأقمار الصناعية والرادار وتحسين عملياتها السيبرانية.
  • Emerald Sleet (كوريا الشمالية): استخدام “ChatGPT” للبحث عن معلومات حول كوريا الشمالية وإنشاء محتوى التصيد الاحتيالي واستكشاف ثغرات الأمان.
  • Crimson Sandstorm (إيران): استخدام “ChatGPT” لمساعدة في الهندسة الاجتماعية واستكشاف الأخطاء وإصلاحها وتطوير تقنيات التهرب.
  • Charcoal Typhoon (الصين): استخدام “ChatGPT” لتطوير الأدوات والبرمجة النصية وفهم أدوات الأمن السيبراني وإنشاء محتوى الهندسة الاجتماعية.
  • سالمون تايفون (الصين): استخدام “ChatGPT” لإجراء تحقيقات استكشافية حول مجموعة واسعة من المواضيع، بما في ذلك المعلومات الحساسة والأفراد البارزين والأمن السيبراني.

تعاون “مايكروسوفت” و “openAI” لمكافحة سوء استخدام تقنيات الذكاء الاصطناعي

بسبب ازدياد خطر استخدام تقنيات الذكاء الاصطناعي من قبل جهات معادية لأغراض ضارة، مثل الهجمات الإلكترونية التي تم رصدها من قبل مجموعات التهديد المذكورة أعلاه، أعلنت مايكروسوفت و”openAI” عن تعاون ثوري يهدف إلى:

  • مكافحة سوء استخدام الذكاء الاصطناعي: تتعاون الشركتان لتطوير أنظمة ذكية قادرة على رصد وكشف الهجمات الإلكترونية التي تعتمد على تقنيات الذكاء الاصطناعي، مثل استخدام LLMs لإنشاء رسائل بريد إلكتروني تصيدية أو نشر معلومات مضللة.
  • تعزيز الأمن السيبراني: تسعى الشركتان إلى تعزيز الأمن السيبراني من خلال دمج تقنيات الذكاء الاصطناعي في أنظمة الدفاع الإلكترونية، مثل استخدام LLMs لتحديد نقاط الضعف في أنظمة الكمبيوتر وشبكات الاتصالات.
  • نشر الوعي: تتعاون الشركتان لنشر الوعي حول مخاطر سوء استخدام تقنيات الذكاء الاصطناعي،
    ولتثقيف المنظمات حول كيفية حماية أنفسها من الهجمات الإلكترونية.

أهمية التعاون:

  • تحسين الأمن السيبراني: من خلال تطوير تقنيات ذكية قادرة على رصد وكشف الهجمات الإلكترونية،
    ستتمكن المنظمات من حماية أنفسها بشكل أفضل من المخاطر الإلكترونية.
  • تطوير أدوات وخدمات جديدة: من خلال تطوير أدوات وخدمات جديدة، ستتمكن المنظمات من حماية أنفسها بشكل أفضل من المخاطر الإلكترونية.
  • تعزيز الابتكار: من خلال التعاون بين الشركات الرائدة في مجال الذكاء الاصطناعي، سيتم تسريع وتيرة الابتكار في هذا المجال.
  • حماية العالم من المخاطر: من خلال العمل معاً، يمكن للشركات الرائدة في مجال الذكاء الاصطناعي المساعدة في حماية العالم من مخاطر سوء استخدام هذه التقنية.

آلية العمل:

تعتمد آلية العمل في هذا التعاون على الشراكة الوثيقة والتواصل المستمر بين فرق العمل في كلا الشركتين. يتم استخدام البيانات والتحليلات المشتركة لتحديد وتقييم التهديدات بسرعة،
وتطوير الحلول الدفاعية بشكل تعاوني.
كما يتم تنظيم ورش عمل وجلسات تدريبية مشتركة لتبادل الخبرات وأفضل الممارسات في مجال الأمان السيبراني والذكاء الاصطناعي.

في تقريرها عن التعاون “openAI”

شركة “openAI” توضح كيف تعاونت مع “Microsoft Threat Intelligence” لمواجهة استغلال تقنيات الذكاء الاصطناعي في أنشطة سيبرانية ضارة من قبل جهات فاعلة تابعة لدول مثل روسيا، إيران، كوريا الشمالية، والصين.
هذا التعاون أسفر عن تعطيل خمس جهات فاعلة كانت تستخدم خدمات “openAI” لأغراض تشمل التجسس، الهندسة الاجتماعية، وحملات التصيد الاحتيالي.
“openAI” تؤكد على نهج متعدد الجوانب لضمان الاستخدام الآمن والأخلاقي لتقنيات الذكاء الاصطناعي،
مشددة على أهمية التعاون الصناعي والشفافية في تبادل المعلومات الاستخباراتية وتطوير الضمانات الأمنية.

ملخص تقرير شركة “Microsoft”

تلخص “Microsoft “ في تقريرها التعاون مع “openAI” لمواجهة التحديات الأمنية الناشئة في عصر الذكاء الاصطناعي.
يركز التعاون على استخدام الذكاء الاصطناعي لتعزيز الأمن السيبراني وتطوير استراتيجيات دفاعية ضد الجهات الفاعلة الضارة التي تسعى لإساءة استخدام التكنولوجيا.
يشمل البحث المشترك بين “Microsoft” و”openAI” التحقيق في كيفية استخدام نماذج اللغة الكبيرة (LLM) في الهجمات السيبرانية، مثل الحقن الفوري والاحتيال.
على الرغم من عدم ملاحظة تقنيات هجومية جديدة أو فريدة حتى الآن، يشدد التقرير على أهمية البقاء متقدمين على التهديدات واستخدام الذكاء الاصطناعي كأداة لتعزيز قدرات الدفاع.
يبرز التقرير أيضًا التزام “Microsoft” بالأمن السيبراني والذكاء الاصطناعي المسؤول،
ويعرض المبادئ التي توجه الشركة في مكافحة استغلال أدوات الذكاء الاصطناعي لأغراض ضارة.

الذكاء اللغوية “LLM”

نماذج اللغة الكبيرة (LLM) هي برامج كمبيوتر متطورة تم تدريبها على فهم وإنتاج اللغة البشرية بطريقة تشبه كيفية تواصل الناس مع بعضهم البعض.
تعمل هذه النماذج بفضل تحليل كميات هائلة من النصوص المكتوبة، مثل الكتب، المقالات، والمحادثات على الإنترنت، لتعلم كيفية تشكيل الجمل والمعاني بشكل مقنع وطبيعي.

في الختام 

يُعد الذكاء الاصطناعي والتكنولوجيا أدوات قوية تُقدم إمكانات هائلة لتحسين حياتنا.
لقد ساعدنا الذكاء الاصطناعي في مجالات مثل الطب والتعليم والأعمال التجارية والترفيه، بينما سهلت التكنولوجيا التواصل والوصول إلى المعلومات.

لكن مع كل قوة، تأتي مسؤولية.
للأسف، هناك من يستخدمون هذه الأدوات بطرق ضارة.
يمكن استخدام الذكاء الاصطناعي في التجسس على الناس وتعزيز المشاكل الاجتماعية، بينما يمكن استخدام التكنولوجيا لنشر المعلومات المضللة والتحكم في الناس.

مثل كل شيء، للذكاء الاصطناعي والتكنولوجيا جانب مظلم.
لذلك، من المهم أن نكون على دراية بمخاطر هذه الأدوات وأن نستخدمها بمسؤولية.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
5 1 صوت
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات