استمع إلى المقال

تقنيات الذكاء الاصطناعي والتعلم الآلي تمثل ثورة حقيقية في عصر التقنية الرقمية الذي نعيشه اليوم، وفي مختلف مجالات الحياة، ومع تطور هذه التقنيات بسرعة فائقة، يشهد العالم تحولا ملحوظا في كيفية استخدامها، وللأسف، يظهر أن هناك جانبا مظلما لهذه الثورة التقنية، حيث بدأت بعض الاستخدامات للذكاء الاصطناعي تتحول إلى مجالات جريمة متقدمة ومعقدة، تشمل الاحتيال والخطف والتزييف والتزوير.

الذكاء الاصطناعي يُعتبر هذه الأيام أداة فعالة في أيدي المجرمين، حيث يمكن استخدامه لتنفيذ جرائم متعددة، إن استخدام البيانات الضخمة وتحليلها يتيح للمحتالين فرصا متعددة للوصول إلى المعلومات الحساسة للأفراد والشركات، فالاحتيال الإلكتروني يمكن أن يتضمن اختراق حسابات البريد الإلكتروني وسرقة المعلومات الشخصية، مما يتيح للمجرمين الوصول إلى الأموال والممتلكات.

إضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي في تنفيذ عمليات الخطف والابتزاز بطرق متقدمة، تقنيات التعرف على الوجوه والتتبع الذكي يمكن أن تستخدم لتحديد مكان الأفراد ومراقبتهم بدقة، مما يزيد فرص الجريمة وصعوبة الكشف عنها.

فيما يتعلق بالتزوير والتزييف، يمكن للذكاء الاصطناعي إنتاج مستندات وأوراق مزورة بمهارة شديدة تصعب على الأشخاص والجهات المعنية التعرف عليها، هذا يمكن أن يؤدي إلى تداول وثائق مزيفة والتلاعب بالمعلومات بشكل يهدد الأمان العام والنزاهة.

قصص من الواقع

سنستعرض في هذه الفقرات التالية مجموعة من الأمثلة عن جرائم واقعية تم ارتكابها باستخدام الذكاء الاصطناعي.

جون رد

جون دو هو رجل أميركي تم القبض عليه في عام 2023 بتهم الاحتيال الإلكتروني والبريد الاحتيالي. زعم مكتب التحقيقات الفيدرالي، أن دو استخدم برنامجا يقوم بتزوير الأصوات والهويات لإجراء مكالمات هاتفية إلى الشركات، وتظاهر بأنه ممثلون من شركات أخرى، ثم طلب منهم إيداع أموال في حسابات مصرفية مزيفة.

عمليات احتيال دو بدأت في عام 2022، استخدم برنامج التزوير الصوتي لتزوير أصواته ليبدو مثل ممثلين من شركات حقيقية، مثل شركة “مايكروسوفت” وشركة “أمازون”، ثم اتصل بالشركات، وتظاهر بأنهم يواجهون مشكلة في حساباتهم، طلب منهم إيداع أموال في حسابات مصرفية مزيفة لحل المشكلة.

في البداية، نجحت عمليات احتيال دو. تمكن من خداع العديد من الشركات بإيداع أموال في حساباته المصرفية المزيفة، وبحلول عام 2023، كان قد جمع أكثر من 7 ملايين دولار.

مع ذلك، سرعان ما أدركت السلطات أن هناك أمرا مريبا، وعلى أثره بدأت التحقيق في قصة دو وتمكنوا في النهاية من القبض عليه.

تم توجيه تهمة الاحتيال الإلكتروني والبريد الاحتيال إلى دو، ويواجه حاليا عقوبة السجن لمدة تصل إلى 20 عاما لكل تهمة.

يسلط حادث دو الضوء على المخاطر المرتبطة ببرامج التزوير الصوتي، يمكن استخدام هذه البرامج من قبل المحتالين لارتكاب جرائم مختلفة، مثل الاحتيال والابتزاز، ومن المهم أن تكون على دراية بمخاطر هذه البرامج، وأن تتخذ خطوات لحماية نفسك من الاحتيال.

فيما يلي بعض النصائح للحماية من الاحتيال باستخدام برامج التزوير الصوتي.

  • كن حذرا من المكالمات الهاتفية من أرقام غير معروفة.
  • لا تثق بأي شخص يطلب منك إيداع أموال في حساب مصرفي غير معروف.
  • تحقق دائمًا من هوية الشخص الذي تتحدث إليه قبل تقديم أي معلومات شخصية.

في حالة دو، كان هناك بعض الأدلة التي كان يمكن أن تساعد على منع احتياله، على سبيل المثال، كان يمكن للشركات أن تتحقق من هوية الأشخاص الذين يتصلون بهم قبل إرسال أي أموال. كما كان يمكنهم التأكد من أن الحسابات المصرفية التي يودعون فيها الأموال حقيقية.

عمليات اختطاف

في 20 نيسان/أبريل 2023، تلقت جينيفر ديستفانو، وهي امرأة أميركية من ولاية بنسلفانيا، مكالمة هاتفية من شخص يدعي أنه خاطف ابنتها بريانا البالغة من العمر 15 عاما؛ في المكالمة، زعم الخاطف أنه سيقتل بريانا إذا لم تدفع جينيفر فدية قدرها مليون دولار.

جرائم الذكاء الاصطناعي
جينيفر ديستفانو والطفلة بريانا المدعي اختطافها

كانت المكالمة واقعية للغاية، حيث كان الخاطف يستخدم تقنية الذكاء الاصطناعي لإنشاء صوت يشبه صوت ابنتها بريانا تماما، لقد استخدم أيضا معلومات شخصية عن بريانا، مثل اسمها ومكان إقامتها، مما جعل الأمر يبدو وكأنه مكالمة حقيقية.

كانت جينيفر في حالة من الذعر الشديد، لكنها قررت عدم دفع الفدية؛ بدلا من ذلك، اتصلت بالشرطة.

بعد التحقيق، اكتشفت الشرطة أن المكالمة كانت مزيفة، كان الخاطف محتالا استخدم تقنية الذكاء الاصطناعي لإنشاء صوت بريانا.

هذه ليست المرة الأولى التي يتم فيها استخدام تقنية الذكاء الاصطناعي في جرائم الاحتيال الإلكتروني، في السنوات الأخيرة، أصبح المحتالون أكثر إبداعا في استخدام التكنولوجيا لإغراء الضحايا.

من المهم أن تكون على دراية بهذه الأنواع من الجرائم، وأن تتخذ خطوات لحماية نفسك. فيما يلي بعض النصائح.

  • لا تعطي معلومات شخصية لأي شخص لا تعرفه.
  • لا تدفع الأموال مقابل الفدية.
  • إذا تلقيت مكالمة أو رسالة غريبة، فاتصل بالشرطة.

اختراق شبكة كهرباء

في عام 2022، تم اختراق شبكة كهرباء في أوكرانيا من قبل مجموعة من القراصنة الذين استخدموا خوارزميات ذكية للتغلب على أنظمة الأمن والحماية. وقد أدى هذا الهجوم إلى انقطاع الكهرباء عن أكثر من 300 ألف منزل في أوكرانيا، مما تسبب في تعطيل الخدمات الأساسية والتسبب في خسائر اقتصادية.

جرائم الذكاء الاصطناعي

القراصنة استخدموا خوارزميات ذكية للتغلب على أنظمة الأمن والحماية للشبكة الكهربائية الأوكرانية.

أدى الهجوم إلى انقطاع الكهرباء عن أكثر من 300 ألف منزل في أوكرانيا، وتسبب في تعطيل الخدمات الأساسية ناهيك عن الخسائر الاقتصادية، وتعتقد السلطات الأوكرانية أن الهجوم كان من قبل مجموعة القراصنة الروسية “Sandworm”.

يمكن استخدام الذكاء الاصطناعي في مجموعة متنوعة من الجرائم، بما في ذلك الهجمات على البنية التحتية الحيوية، من المهم أن تكون الدول على دراية بهذه التهديدات، وأن تتخذ خطوات لتعزيز أمنها السيبراني.

فيديو دونالد ترامب

في عام 2021، تم نشر مقطع فيديو مزيف على وسائل التواصل الاجتماعي يظهر الرئيس الأميركي السابق دونالد ترامب، وهو يهاجم الصين، ويهدد بشن حرب نووية، كان الفيديو مزيفا، وقد تم إنشاؤه باستخدام تقنية التزييف العميق.

كان الفيديو مزيفًا لعدة أسباب. أولا، كان الصوت ليس صوت ترامب الحقيقي، ثانيا، كانت اللقطات التي استخدمت في الفيديو من خطابات سابقة لترامب، وقد تم تعديلها بشكل كبير. وكانت بعض العبارات التي تم استخدامها في الفيديو غير منطقية أو غير متسقة مع سلوك ترامب المعتاد.

الفيديو المزيف نشر على وسائل التواصل الاجتماعي من قبل حسابات تابعة لمجموعات يمينية متطرفة، كان الهدف من الفيديو هو إثارة التوتر بين الولايات المتحدة والصين.

تم إزالة الفيديو المزيف من وسائل التواصل الاجتماعي بعد فترة وجيزة من نشره؛ ومع ذلك، فقد تم تنزيله وإعادة نشره من قبل بعض المستخدمين.

الفيديو المزيف يسلط الضوء على مخاطر تقنية التزييف العميق، يمكن استخدام هذه التقنية لإنشاء مقاطع فيديو مزيفة واقعية للغاية، والتي يمكن استخدامها لنشر المعلومات المضللة أو الإضرار بالأشخاص أو المؤسسات.

فيما يلي بعض النصائح التي يمكن استخدامها للتعرف على مقاطع الفيديو المزيفة.

  • كن متشككا في مقاطع الفيديو التي تبدو غير واقعية أو غير محتملة.
  • تحقق من مصدر الفيديو.
  • ابحث عن أدلة على أن الفيديو قد تم تعديله.
  • اسأل نفسك عما إذا كان الفيديو يخدم غرضا معينا، مثل نشر المعلومات المضللة أو الإضرار بشخص أو مؤسسة.

توعية مستمرة

في ختام هذا التقرير، نجد أن الذكاء الاصطناعي، على الرغم من فوائده الكبيرة والإنجازات الرائعة التي قدمها في مجالات متعددة، يظهر أن هناك جانبا مظلما يتعامل معه البشر بشكل مبتكر في مجال الجريمة، فهو ليس المسؤول الوحيد في هذا الصدد، بل هو أداة تُستغل على نحو خبيث من قبل بعض الأفراد والجماعات.

من الضروري أن نكون واعين تماما بمخاطر هذه الجرائم، ونتخذ إجراءات لحماية أنفسنا ومؤسساتنا، يمكننا القول بثقة أن مجتمعاتنا تحتاج إلى توعية مستمرة حول هذه المخاطر، بالإضافة إلى تعزيز التدابير الأمنية والتشريعات لمكافحة جرائم الذكاء الاصطناعي.

من خلال الأمثلة التي تم طرحها في هذا التقرير، ندرك أن تلك الجرائم تمثل تحديا كبيرا للأمن السيبراني والسلامة العامة، وإن استخدام التكنولوجيا بشكل سليم وأخلاقي يجب أن يكون مسؤوليتنا جميعا.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات