استمع إلى المقال

قطاع الذكاء الاصطناعي شهد تطورات هائلة في السنوات الأخيرة، بفضل تزايد قوة الحوسبة وتوفر البيانات الضخمة وتحسين الخوارزميات، وهذا ما أدى إلى إنشاء أنظمة ذكية قادرة على أداء مهام متنوعة، من التعرف على الوجوه والأصوات، إلى تشخيص الأمراض وقيادة السيارات وإنتاج المحتوى.

لكن مع كل هذه الإمكانات، تأتي أيضا المخاطر، فقد أثار الذكاء الاصطناعي قلقا وخوفا لدى كثير من الناس، الذين يرون فيه تهديدا لمستقبلهم وسلامتهم وقيمهم، وقد عبر بعض قادة التكنولوجيا حول العالم عن تخوفهم من الذكاء الاصطناعي، وضرورة وضع قوانين وتشريعات لضبط ومراقبة التكنولوجيا بشكل عام.

على سبيل المثال، حذر ستيف وزنياك، المؤسس المشارك لشركة “أبل”، من أن الذكاء الاصطناعي قد يجعل مهمة اكتشاف عمليات الاحتيال والمعلومات المضللة أصعب من أي وقت مضى، كما دعا إيلون ماسك، رئيس شركة “تسلا” و”سبيس إكس”، إلى منع استخدام الذكاء الاصطناعي في التطبيقات العسكرية، واصفا إياه بأنه “أخطر سلاح”، علاوة على ذلك، أبدى بيل غيتس، مؤسس شركة “مايكروسوفت”، قلقه من أن الذكاء الاصطناعي قد يؤدي إلى خسارة كثير من الوظائف، وأنه يجب فرض قيود وضرائب على استخدامه.

تحذير سام ألتمان

على ما يبدو، فقد انضم سام ألتمان، المؤسس المشارك لشركة “OpenAI”، الشركة الأم لروبوت “ChatGPT”، إلى قادة التكنولوجيا المعبرين عن قلقهم من تقدم الذكاء الاصطناعي.

 خلال جلسة أمام لجنة في “مجلس الشيوخ” الأميركي، قدّم ألتمان وجهة نظره حول ضرورة تنظيم الذكاء الاصطناعي، هذه هي المرة الأولى التي يمثل فيها ألتمان أمام لجنة مجلس الشيوخ، وأثناء جلسة الاستماع، شرح للمشرعين الأميركيين كيف يمكن حدوث أخطاء في الذكاء الاصطناعي، وأكد على أهمية وجود لوائح لضمان التنظيم الصحيح. وأضاف أيضا أن الحكومة يجب أن تمتلك صلاحية سحب تراخيص الذكاء الاصطناعي في حالة عدم امتثال الشركات للقواعد.

هل يغلط الذكاء الاصطناعي؟

منذ تصاعد شهرة “ChatGPT”، أصبحت النقاشات حول استخدامها السلبي تتصدر عناوين العديد من المواقع والصحف، فقد أدرك العالم اليوم بشكل أكبر المخاطر المحتملة للذكاء الاصطناعي.

خلال جلسة الاستماع، أعرب سام ألتمان عن رؤيته بأن شركته “OpenAI”، تأسست لتحسين حياة البشر، ولكنها تنطوي أيضا على مخاطر، وأشار إلى أن الشركة تؤمن بأن الذكاء الاصطناعي يمتلك القدرة على تحسين مختلف جوانب حياتنا تقريبا، ولكنه أيضا يحمل مخاطر جسيمة.

عندما تحدث عن إساءة استخدام الذكاء الاصطناعي في سياق الانتخابات، أكد سام ألتمان أن هذا المجال يشكل قلقا هاما، وأنه يحتاج إلى تنظيم، وأضاف أنه في حالة سوء استخدام هذه التكنولوجيا، فإن الأمور يمكن أن تتدهور بشكل كبير، وأكد على رغبته في الحوار والتعاون مع الحكومة لمنع حدوث ذلك.

بخصوص ضرورة تنظيم التكنولوجيا الناشئة، أكد ألتمان أن التدخل التنظيمي من قبل الحكومات يعد أمرا حاسما للتقليل من المخاطر المتزايدة للنماذج القوية.

ChatGPT

خلال جلسة الاستماع، استعرض السيناتور ريتشارد بلومنتال مخاوفه بشأن القدرات المتنامية للذكاء الاصطناعي، حيث قدم تسجيلا صوتيا تم إنشاؤه بواسطة الكمبيوتر، والذي كان مشابها بشكل مرعب لصوته الشخصي.

بلومنتال أوضح قائلا، “إذا كنت تستمع إلى هذا الصوت في موقع آخر خارج القاعة، فقد تعتقد أن هذا الصوت كان ينبعث مني، وأن الكلمات كانت من إلقائي، ولكن في الحقيقة، هذا الصوت لم يكن مني”.

هذا التسجيل المزيف يسلط الضوء على تطور التقنيات الذكية وقدرتها على توليد محتوى يبدو واقعيا للغاية، مما يعزز المخاوف المتزايدة بشأن استخدامها في التلاعب بالمعلومات والتضليل.

مبتكر “ChatGPT” يعترف بالخوف

لم تكن هذه هو أول مرة يعبّر فيها الرئيس التنفيذي لشركة “OpenAI” عن مخاوفه بشأن تطور ابتكاراته. بعد يومين فقط من إطلاق “ChatGPT” المتقدم، تم الكشف عن “GPT-4”. وفي مقابلة مع قناة “أي بي سي” الإخبارية الأميركية، أعرب سام عن قلقه قائلا، “خائف قليلا من إبداعه”.

ألتمان صرّح بأنه “يجب أن نكون حذرين هنا، أعتقد أن الناس يجب أن يكونوا سعداء؛ لأننا خائفون قليلاً من هذا. أعتقد أنه إذا قلت إنني لست كذلك، فعليك إما ألا تثق بي، أو أن تكون غير سعيد جدا؛ لأنني في هذه الوظيفة.”

في المقابلة نفسها، عبر أيضا عن مخاوفه بشأن استخدام الذكاء الاصطناعي المحتمل لنشر معلومات زائفة.

“أنا قلق بشكل خاص من إمكانية استخدام هذه النماذج للمعلومات المضللة على نطاق واسع. الآن بعد أن تحسنوا في كتابة كود الكمبيوتر، يمكن استخدامها في الهجمات الإلكترونية الهجومية”

حماية المجتمع

أصبح من الواضح أن هناك قلقا متزايدا حول مخاطر الذكاء الاصطناعي واستخداماته المحتملة، فقد أثارت تصريحات سام ألتمان، التي تناولت تنظيم الذكاء الاصطناعي وخطورته المحتملة، اهتماما واسعا في الرأي العام.

من خلال جلسات الاستماع والمقابلات، أكد ألتمان الحاجة إلى تنظيم فعال يساهم في حماية المجتمع من سوء استخدام الذكاء الاصطناعي، ومنع انتشار المعلومات المضللة والهجمات الإلكترونية الهجومية.

يبدو أن المجتمع أصبح أكثر وعيا بتأثيرات الذكاء الاصطناعي، ويتطلع إلى إيجاد توازن بين التطور التكنولوجي والمسؤولية الاجتماعية، وهذا ما يتطلب جهودا مشتركة من جميع الأطراف المعنية، بما في ذلك الشركات التقنية والحكومات والمجتمع العلمي، لضمان تنظيم سليم ومسؤول للذكاء الاصطناعي.

باعتبارها تقنية مبتكرة وواعدة، ينبغي أن تعمل الجهود المشتركة على تعزيز فهمنا للتحديات والمخاطر المحتملة، وتوجيه تطوير الذكاء الاصطناعي نحو مصلحة الإنسانية ومستقبل أفضل للجميع.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات