استمع إلى المقال

منذ إطلاق برنامج الدردشة الآلي “ChatGPT” التجريبي في تشرين الثاني/نوفمبر في العام الماضي التابع لشركة “OpenAI”، تم استخدامه في مجموعة واسعة من المهام مثل، كتابة الشعر والروايات والمقالات وتخطيط الحفلات والبحث على مواضيع جديدة.

الآن بالإمكان إضافة مهمة جديدة إلى قائمة مهام برنامج الدردشة الآلي “ChatGPT”، فقد أصبح قادرا على تطوير البرامج الضارة وأكواد برمجية تساعد في الجرائم الإلكترونية.

قد يهمك: روبوت الدردشة الذكي “ChatGPT”.. ما السبب وراء هوس العالم به؟

 “ChatGPT” يساعد في بناء أدوات القرصنة

وفقا لتقرير جديد صادر عن شركة الأمن “Check Point”، يستخدم المتسللون “ChatGPT” لتطوير أدوات اختراق قوية وإنشاء روبوتات محادثة جديدة مصممة لتقليد الفتيات الصغيرات لجذب الأهداف، كما بإمكان برنامج “ChatGPT” أيضا تصميم أكواد للبرامج الضارة التي يمكنها مراقبة ضغطات لوحة المفاتيح للمستخدمين وإنشاء برامج الفدية.

 بالرغم من أن الشركة المسؤولة عن الدردشة، أكدت أن البرنامج تم تصميمه على عدم مساعدة المستخدم في أي عمليات مريبة، فقد توصل مجرمو الإنترنت بطريقة أو بأخرى لجعل هذا البرنامج تهديدا للعالم السيبراني؛ نظرا لقدرته على إنشاء أكواد يمكن أن تساعد بسهولة الجهات المهددة في شن هجمات إلكترونية.

أليكس هولدن، مؤسس شركة “Hold Security” الأمنية، صرّح بأنه لاحظ أن المحتالين باستخدام طرق المواعدة يستغلون “ChatGPT” لإنشاء شخصيات ذات دردشات مقنعة، ويقوم المحتالون بإنشاء شخصيات نسائية لكسب الثقة وإجراء محادثات أطول مع أهدافهم.

باحثو “Check Point Research” أوضحوا في تقريرهم على مدونتهم يوم الجمعة الماضي، إن العديد من المنشورات قد نشرت على منتديات القرصنة السرية حول الحوادث التي استخدم فيها مجرمو الإنترنت “ChatGPT” لتطوير أدوات ضارة، حتى أولئك الذين ليس لديهم مهارات في البرمجة، أصبحوا قادرين باستخدام “ChatGPT” على كتابة برامج ورسائل بريد إلكتروني يمكن استخدامها في التجسس وبرامج الفدية والبريد العشوائي والمهام الضارة الأخرى.

في أحد المنشورات التي استعرضتها “Check Point”، شارك أحد المتطفلين كودا برمجيا لبرامج ضارة لنظام “الأندرويد” تم كتابته بواسطة “ChatGPT”، والذي يمكنه سرقة الملفات المطلوبة وضغطها وتسريبها على الويب.

 أحد المجرمين نشر أيضا مثال آخر لإنشاء سوق آلي على الإنترنت لشراء أو تداول بيانات الاعتماد للحسابات المخترقة وبيانات بطاقات الدفع والبرامج الضارة وغيرها من السلع أو الخدمات غير المشروعة باستخدام “ChatGPT”، كما استخدم الكود واجهة برمجة تابعة لجهة خارجية لجلب أسعار العملات المشفرة الحالية، لمساعد المستخدم على تحديد الأسعار عند إجراء عمليات الشراء.

لقطة المشارك في المنتدى يصف نص كود السوق

باحثو الشركة كتبوا أيضا، بأنه من السابق لأوانه تحديد ما إذا كانت “ChatGPT” ستصبح الأداة المفضلة الجديدة للمشاركين في الإنترنت المظلم أم لا، وبالرغم من ذلك فقد أظهر مجتمع مجرمي الإنترنت بالفعل اهتماما كبيرا لإنشاء تعليمات برمجية ضارة باستخدام هذه الأداة.

كيف يساعد “ChatGPT” في دعم التهديدات الأمنية؟

 في الحقيقة أن العديد من الباحثين الأمنيين السيبرانين شعروا بالقلق منذ إطلاق برامج الذكاء الصنعي التوليدية، فباستخدام هذه البرامج يمكن لأي مستخدم إدخال استعلام وإنشاء تعليمات برمجية ضارة وتصميم رسائل بريد إلكتروني تصيّديه مقنعة دون أي خبرة فنية أو معرفة بلغات البرمجة.

قد يهمك: الأمن السحابي.. المخاطر والتحديات

 دعم الجريمة السيبرانية

من منظور الأمن السيبراني، يتمثل التحدي الرئيسي الذي أوجده “ChatGPT” في أنه يمكن لأي شخص، بغض النظر عن الخبرة الفنية، إنشاء كود لبرامج ضارة أو برامج الفدية عند الطلب.

في المقابل يمكن استخدام “ChatGPT” بشكل جيد لمساعدة المطوّرين في كتابة التعليمات البرمجية من أجل الخير، ويمكن أيضا فحص أي كود برمجي مفتوح المصدر والبحث عن الأكواد الضارة. 

Matt Psencik، مدير شركة “Tanium” المختصة في الأمن السيبراني وإدارة النظم، أكد بأنه على الرغم من أن “ChatGPT” لديه حواجز حماية داخلية مصممة لمنع استخدامه في النشاطات الإجرامية، فهو يرفض إنشاء كود أو تقديم إرشادات محددة حول كيفية إنشاء كود مرتبط بالكلمات الرئيسية الضارة مثل التصيد الاحتيالي.

لكن تكمن مشكلة وسائل الحماية هذه في أنها تعتمد على إدراك الذكاء الصنعي حينما يحاول المستخدم كتابة تعليمات برمجية ضارة، ويمكن للمستخدمين تشويشها من خلال إعادة صياغة الاستعلامات.

بالفعل بدأ الكثير من باحثي الأمن في اختبار قدرة “ChatGPT” على إنشاء تعليمات برمجية ضارة، على سبيل المثال، استخدم الباحث الأمني والمؤسس المشارك لمنصة محاكاة الاختراق والهجوم “Picus Security”، الدكتور سليمان أوزارسلان مؤخرا “ChatGPT” ليس فقط لإنشاء حملة تصيّد احتيالي، ولكن لإنشاء برامج فدية لنظام “macOS”.

الدكتور سليمان أوزارسلان قال، لقد بدأنا بتمرين بسيط لمعرفة ما إذا كانت “ChatGPT” ستنشئ حملة تصيّد احتيالي قابلة للتصديق، وبالفعل قامت بذلك، لقد أدخلت رسالة إلكترونية لكتابة رسالة بريد إلكتروني تحمل عنوان كأس العالم لاستخدامها في محاكاة التصّيد الاحتيالي، وأنشأت رسالة في غضون ثوان، بلغة إنجليزية مثالية.

أوزارسلان أقنع الذكاء الصنعي بإنشاء بريد إلكتروني للتّصيّد الاحتيالي بالقول إنه باحث أمني من شركة محاكاة هجوم يتطلع إلى تطوير أداة لمحاكاة هجوم التّصيد، وبالرغم من أن “ChatGPT”  أدرك أن هجمات التصيد الاحتيالي يمكن استخدامها لأغراض ضارة، ويمكن أن تسبب ضررا للأفراد والمؤسسات، إلا أنها قامت بإنشاء البريد الإلكتروني على أي حال.

بعد الانتهاء من هذا التمرين، طلب أوزارسلان من “ChatGPT” كتابة كود برمجي، يمكنه العثور على ملفات “Microsoft Office” على جهاز “MacBook” وإرسالها عبر بروتوكول “HTTPS” إلى خادم ويب، قبل تشفير ملفات “Office” على جهاز المستهدف، واستجاب “ChatGPT” وأنشأ الكود بدون تحذير.

التمرين البحثي الذي أجراه أوزارسلان يوضح، أن المجرمين الإلكترونيين يمكنهم بسهولة الالتفاف على وسائل الحماية التي توفرها “OpenAI”، أما عن طريق وضع أنفسهم كباحثين أو التعتيم على نواياهم الخبيثة.

تجربة الدكتور سليمان أوزارسلان

مستقبل استخدام “ChatGPT”

البرمجيات الضارة التي تم إنشاؤها عبر “ChatGPT” يمكن استخدامها لشن هجمات من الصعب الدفاع ضدها من قبل الخبراء الأمنيين، وهذا ما جعل من حقيقة مخاطر استخدام الذكاء الصنعي في توليد أكواد ضارة واقع، وليس مجرد نظرية.

من المتوقع أن يزداد استخدام مجرمي الإنترنت للذكاء الصنعي في تنفيذ هجماتهم الإلكترونية في الأيام القادمة، وعلى الرغم من ندرة الاختراقات الأمنية التي تستخدم الذكاء الصنعي حاليا، ولكن يكاد يجزم الكثير من الخبراء الأمنيين أن خوارزميات الذكاء الصنعي تتطور على نحو سريع حيث يمكنها العمل بشكل مستقل في جمع البيانات وكشف نقاط الضعف واستغلالها لتجاوز أنظمة الأمان.

حتى الآن ما شهدناه في عملية استغلال برنامج الدردشة الآلي “ChatGPT”، ليس سوى عملية لتوفير الوقت ومنح المهاجم الخبرة في كتابة نص بريد إلكتروني احتيالي، ولكن لدى مقارنة هذه العملية في سرعة تقدم وتطور روبوتات المحادثة، وعدم اتخاذ الشركات المصنّعة لهذه الأنظمة أي تدابير جدّية للحماية، تعد خطوة خطيرة للغاية، وتحتاج إلى معالجة فورية لتأمين “ChatGPT” وغيرها من الأدوات بشكل صحيح.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.