استمع إلى المقال

لا شك بأن الذكاء الاصطناعي هو الابتكار الأهم في العقد الأخير، لذلك وصفه الكثيرون بأنه يوازي في الأهمية اكتشاف الإنسان للنار أو بداية الثورة الصناعية في القرن الماضي، ومثل تلك الأحداث الهامة، فإن الذكاء الاصطناعي تسبب في حالة من الهلع العامة حول العالم دفعت الكثير من المشرّعين للبدء في اتخاذ خطوات واضحة لمواجهة هذا الابتكار المجهول للكثيرين حتى الآن. 

المخاوف من الذكاء الاصطناعي وتطوره لم تقتصر على قطاع واحد بعينه، بل امتدت إلى جميع القطاعات سواء كانوا العاملين الذين تأثرت حياتهم وأعمالهم بالذكاء الاصطناعي أو المشرّعين وحكومات العالم التي تخشى من الاستخدام السيئ لهذه التقنية وحتى المؤسسات التعليمية الصغيرة والكبيرة على حد سواء وهم يخشون من استخدام تلاميذهم لهذه التقنية من أجل اجتياز الاختبارات المختلفة. 

الخوف من هذه التقنية الجديدة ليس أمرا مستنكرا أو حتى غير مألوف، فكما قلنا جميع الابتكارات الهامة في تاريخ البشرية جلبت هذا الخوف وأجبرت مبتكريها على وضع قوانين من أجل تنظيمها، ولكن السؤال الأهم الذي يطرح نفسه عند محاولة تنظيم الذكاء الاصطناعي، هل يجب لهذه القوانين أن تحمي البشر من الاستخدام السيء للذكاء الاصطناعي أم يجب أن تقيد استخداماته وتمنع تطوره إلى مستويات بعينها. 

 خليط من الخيال والحقيقة 

الأسباب التي تدفع البشر للخوف من الذكاء الاصطناعي تشكل خليطا فريدا من نوعه يمزج ببراعة بين الحقيقة والخيال، وذلك نتيجة لأعوام طويلة من أفلام الخيال العلمي التي قدمت نماذج ذكاء اصطناعي قادرة على إنهاء العالم مثل “سكاي نت” في سلسلة أفلام “Terminator” الشهيرة أو حتى الآلات في سلسلة “The Matrix”، كما أن هناك الكثير من الشائعات والمعلومات المغلوطة حول الذكاء الاصطناعي انتشرت في الإنترنت من محبي نظريات المؤامرة ومن يستمتعون بإثارة الهلع العام. 

هذا الخليط يتسبب في جعل الحكم على الذكاء الاصطناعي أمرا أصعب مما يجب، إذ لا يمكن للشخص غير المطلع على أحدث المعلومات التقنية وطرق عمل الذكاء الاصطناعي أن يحكم على هذه التقنية بشكل موضوعي وحيادي، لذلك تجد أغلب هؤلاء يسعون لحظر التقنيات تماما وإيقاف تقديمها. 

لا يعني هذا أن جميع المخاوف من الذكاء الاصطناعي ولدت من أفلام الخيال العلمي في العقد الماضي، بل إن الكوارث التي يستطيع الذكاء الاصطناعي التسبب فيها تزداد خطورة يوما بعد يوم، ولكن الحكم على هذه التقنية بشكل حيادي وتحديد خطورتها هي الخطوة الأولى لاتخاذ القرار فيما يتعلق بها. 

رحلة الحدث على القوانين التنظيمية 

سام ألتمان الرئيس التنفيذي لشركة “Open AI” ومبتكر روبوت الدردشة “ChatGPT” الذي أشعل شرارة الذكاء الاصطناعي يدرك ذلك جيدا، لذلك أمضى الشهور الماضية منذ إعلانه عن الروبوت للمرة الأولى في رحلة طويلة حول العالم زار خلالها 17 مدينة في أميركا الجنوبية وأوروبا وإفريقيا وآسيا، من أجل التحدث عن هذه التقنية ومساعدة المشرّعين في فهمها لوضع قوانين مناسبة لها. 

في زياراته، جلس ألتمان مع الرئيس الفرنسي ايمانويل ماكرون، ورئيس الوزراء البريطاني ريشي سوناك، وأورسولا فون دير لاين رئيسة المفوضية الأوروبية، من أجل توضيح آليات عمل الذكاء الاصطناعي وحث هذه الدول على اتخاذ القرارات المناسبة فيما يتعلق بهذه التقنية. 

رحلة ألتمان امتدت داخل الولايات المتحدة أيضا وأخذته لمقابلة أكثر من 100 عضو في مجلس الشيوخ الأميركي إلى جانب مقابلة نائبة الرئيس الأميركي كمالا هاريس، وأعضاء مجلس الوزراء في البيت الأبيض إلى جانب حضور أكثر من جلسة قانونية بكامل إرادته من أجل توضيح موقف الذكاء الاصطناعي ومساعدة صنّاع القرار في الحكم عليه. 

في الماضي، كان “الكونغرس” يواجه تحديات جمّة إذا كان يرغب في إحضار أحد رؤساء الشركات التقنية العملاقة، ولعل حادثة “كامبردج أناليتكا” التي استدعى “الكونغرس” فيها مارك زوكربيرج الرئيس التنفيذي لشركة “ميتا” للشهادة أمامه هي الأشهر، ولكن سام ألتمان يحاول إرسال رسالة مختلفة، إذ يسعد بجميع هذه الدعوات ويجيبها مباشرة من أجل الحديث عن القوانين التنظيمية للذكاء الاصطناعي، وأحدثها كانت دعوته للمثول أمام “الكونغرس” منذ عدة أسابيع. 

الشركات العاملة في مجال الذكاء الاصطناعي كثيرة ومتنوعة للغاية، ولكن “OpenAI” هي الوحيدة التي تحاول اتخاذ موقف إيجابي من أجل تنظيم عمليات الذكاء الاصطناعي المختلفة، وذلك بفضل إيمان مؤسسها بأهمية هذا المجال وأهمية تنظيمه. 

الجانب المظلم للذكاء الاصطناعي

الذكاء الاصطناعي قادر على تقديم حلول مذهلة لمشكلات كانت تحتاج وقتا طويلا حتى تتمكن من حلها، وهذه الحلول السحرية تأتي مع خليط من المخاوف والمشاكل التي يمكن الحديث عنها، بداية من مخاوف الخصوصية والاستخدام السيء وحتى القضاء على وظائف بعينها واستبدال العاملين فيها بالذكاء الاصطناعي. 

إحدى الأزمات التي قد يتسبب بها الذكاء الاصطناعي ولا يتحدث عنها الكثيرون هي أزمة الوظائف المنتهية التي يتم استبدال العاملين فيها بالذكاء الاصطناعي، وذلك لأنه لا يوجد حد واضح تقف أمامه هذه التقنية أو يستعصى عليها، إذ رأينا الذكاء الاصطناعي يتم استخدامه في كل شيء بداية من كتابة الأكواد البرمجية والمرافعات القانونية وحتى تشخيص بعض الحالات الطبية ووصف العلاج. 

السؤال هنا لا يتعلق بمستقبل هذه الوظائف تحديدا، ولكن بمصير كل العاملين في أي وظيفة يستطيع الذكاء الاصطناعي القيام بها، وهذا المصير يثير مخاوف وقلق الشركات إلى جانب العاملين بها بسبب دورة الرأس المالية التي يعيشها العالم، إذ يجب على البشر أن يعملوا حتى يتمكنوا من شراء المنتجات التي تنتجها الشركات. 

هذه المخاوف دفعت البعض لاقتراح نظرية “الدخل الأساسي الشامل” ومن ضمنهم مصطفى سليمان الذي ساهم في تأسيس شركة “DeepMind” للذكاء الاصطناعي التي اشترتها “جوجل” في 2014، وقد تحدث مصطفى في أكثر من مناسبة حول هذا الأمر وعن أهمية تقديم “الدخل الأساسي الشامل” للمتضررين من هذه التقنيات، وهو دخل ثابت يحصل عليه الشخص الذي فقد وظيفته لصالح الذكاء الاصطناعي دون أي تدخل منه، ويجب على الشركات المسؤولة عن تطوير هذه التقنيات دفع هذا الدخل. 

مصطفى سليمان – المؤسس المشارك لشركة “DeepMind”

بالطبع، لا يحلّ الدخل الأساسي الشامل جميع المشاكل التي تنتج عن خسارة الوظائف، إذ إن هناك جانب أخلاقي ونفسي مفيد للعمل المستمر في الوظائف، وهو ما لا يمكن تعويضه عبر تقديم هذا الدخل، ولكنها طريقة لمساعدة المتضررين من هذه التقنية وجعل الشركات تركز عليها بشكل كافي.

التدمير بدلا من التقييد 

التحديات التي يقدمها الذكاء الاصطناعي تمثل تهديدا يظهر للمرة الأولى في العصر الحديث وربما في تاريخ البشرية، إذ إن الذكاء الاصطناعي قد يستبدل البشر يوما ما إذا تمكن أحدهم من تطوير ذكاء اصطناعي واعي بالكامل، وهو مسعى علمي قد يجد علماء الذكاء الاصطناعي له آلاف المبررات، لذلك يجب أن تبدأ الحكومات والمجتمعات العلمية في اتخاذ قوانين صارمة توقف تطور آليات الذكاء الاصطناعي في الاتجاهات السيئة وتضع قوانين تنظيمية تساعد علماء الذكاء الاصطناعي على تحديد المسارات المناسبة للتطور. 

بعض الحكومات والدول تجد أن الحظر الكلي وتدمير هذه التقنية هو الاختيار الأفضل والأسهل، وربما ما حدث في إيطاليا كان مثالا حيا لذلك، إذ حظرت الدولة استخدام روبوت “ChatGPT” بشكل كامل، ولكن في العادة مثل هذه القوانين يمكن الالتفاف حولها والتغلب عليها. 

تنظيم آليات عمل الذكاء الاصطناعي والتحكم في مسار التطور الخاص به هو الطريق الأسلم لحماية البشريّة من أيّة مخاطر يولدها الذكاء الاصطناعي مستقبلا، وذلك لأن محاولة تدمير هذا الابتكار وحظره نهائيا قد تؤدي إلى تطور عكسي في السر بشكل لا يمكن السيطرة عليه. 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات