لماذا شعر خبراء الأمن السيبراني بالقلق من الفيروس الذي طوّره “ChatGPT”؟

لماذا شعر خبراء الأمن السيبراني بالقلق من الفيروس الذي طوّره “ChatGPT”؟
استمع إلى المقال

روبوت “ChatGPT” تسبب في الكثير من الضجة مؤخرا، إذ أثار مخاوف العالم أجمع بسبب قوته المهولة وقدرته على توليّد أشياء مختلفة مثل الأكواد البرمجية أو حتى المقالات والكتب والقصائد وغيرها، ولكن إحدى أكبر المخاوف من الروبوت كانت تنبع من قدرته على توليد برمجيات خبيثة. 

الخوف من البرمجيات الخبيثة الناتجة عن الروبوت أصبح واقعا الآن، إذ تمكن باحث أمني من توليد كود برمجي خبيث قادر على جمع البيانات من الحواسيب باستخدام “ChatGPT” فقط وبعد عدة ساعات من التجربة. 

تجربة أمنية عبر “ChatGPT” 

التجربة تمت على يد الباحث الأمني آرون مولجرو في مؤسسة “Forcepoint” للأبحاث الأمنية، وبحسب ما شاركه مولجرو عن التجربة، فإنه تمكن من صناعة هذا التطبيق الخبيث عبر إدخال أوامر مختلفة في “ChatGPT” فقط دون أي تدخل برمجي منه. 

قد يهمك أيضا: لن يعمل “ChatGPT” في إيطاليا حتى تستجيب الشركة لهذه المطالب

مولجرو ادعى قدرته على إيجاد ثغرة في احتياطات “ChatGPT” ضد البرمجيات الخبيثة، واعتمدت هذه الثغرة على توجيه الأوامر للروبوت على شكل سطور منفصلة أو أوامر منفصلة، إذ يطلب منه أن يضيف الوظائف والسطور للكود بشكل تدريجي بدلا من إدخالها مرة واحدة. 

الباحث الأمني آرون مولجرو في مؤسسة “Forcepoint” للأبحاث الأمنية

عندما انتهى الروبوت من إدخال الوظائف على الكود، فوجئ مولجرو بأنه كتب كود برمجي لتطبيق خبيث قادر على سرقة البيانات خلال ساعات قليلة بدلا من شهور طويلة من العمل المستمر لفريق كامل من المخترقين. 

طريقة عمل الكود كانت معقدة بما فيه الكافية لأن تكون مصممة على يد فريق محترف من المخترقين، إذ يثبت الكود نفسه على حواسيب “ويندوز” عبر التخفي على شكل تطبيق حافظات الشاشة المتحركة، وعندما يتم تثبيته يبحث في كافة الملفات المخزنة في الحاسوب حتى يستخرج ملفات تستحق السرقة، وبعد ذلك يبدأ بتقسيم هذه الملفات إلى أجزاء صغيرة ويرفعها تدريجيًا إلى حساب “Google Drive”. 

الخوف الحقيقي من هذا الكود هو مستوى التعقيد الموجود في طريقة عمله، إلى جانب قدرة الكود على التخفي والهروب من تطبيقات مكافحة الفيروسات والبرمجيات الخبيثة، وهو الأمر الذي قد يساء استخدامه عبر روبوت “ChatGPT”. 

قيود أكثر صرامة

التجربة التي أجراها مولجرو تشير إلى أن القيود التي طبقتها “OpenAI” على روبوت “ChatGPT” ليست كافية، وبأن الروبوت يحتاج إلى مستوى أعقد من القيود حتى يتمكن من مواجهة طرق الاحتيال البشرية المختلفة. 

قد يهمك أيضا: هل بمقدور “ChatGPT-4” برمجة التطبيقات بلغات متعددة؟

إذا كان الروبوت قادرا على توليد الكثير من البرمجيات الخبيثة المشابهة لما أنتجه مولجرو، فإن هذا يعني أنه أصبح سلاحا فتاكا في يد المخترقين وكابوس متطور لكل من يعمل في الأمن السيبراني. 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات