أستمع الى المقال

كان كاتب الخيال العلمي إسحاق عظيموف من أوائل الذين فكروا في مستقبلٍ تخلق فيه البشرية ذكاءً صنعيًا يصبح واعيًا. وبعد ذلك، تخيل كتّاب وعلماء وفلاسفة آخرون التحديات والأخطار التي قد يحملها مثل هذا المستقبل.

هل يجب أن نخاف من سيطرة الروبوتات الواعية على الكوكب؟ هل العلماء يتسببون عن غير قصد في زوالنا؟ كيف سيبدو المجتمع إذا أردنا إنشاء ذكاء اصطناعي واعي؟ هذه الأسئلة -التي غالبًا ما تكون مشحونة بمشاعر بشرية- تثير ضجةً حول مزاعم الإحساس في الآلات.

“لامدا” طفل جوجل الآلي

ظهر مثال على تلك الأسئلة منذ بضعة أيامٍ عندما ادّعى “بليك ليموان”، الموظف في جوجل، أن روبوت الدردشة “LaMDA” الخاص بالشركة قد أظهر قدرًا من الوعي بذاته. و”لامدا” (أو “نموذج اللغة لتطبيقات الحوار”) ليس من ابتكار ليموان وحده، بل هو نتاج عمل 60 باحثًا آخر في جوجل. وليموان هو المسؤول عن تعليم الروبوت التأمل.

“لامدا” هو نموذج لغة عصبية متخصص في الحوار، مع ما يصل إلى 137 مليار محدِّد نموذجي. والمحدِّدات هي قيم في نماذج اللغة تتغير بشكل مستقل لأنها تتعلم من بيانات التدريب لعمل تنبؤات أكثر دقة حول الاستجابات المناسبة للمحادثات والاستفسارات. وتم تدريب “لامدا” على 1.56 تريليون كلمة من بيانات ووثائق الويب العامة. ويعتبر الروبوت بارع جدًا في الحوار؛ فإذا قرأ شخصٌ ما لا يعرف ماهية المحادثة قد يعاني من بعض الصعوبة لتحديد النقاط التي يتضح عندها أن “لامدا” عبارة عن آلة.

وشارك ليموان في مدونته الشخصية على موقع “Medium” نص مقابلة أجراها مع زميل له مع “لامدا”. ويدّعي ليموان أن ردود الروبوت تشير إلى أن لديه مشاعر مماثلة لتلك التي لدى طفل يبلغ من العمر سبع أو ثماني سنوات.

وفي وقتٍ لاحق من نشر التدوينة، في 14 يونيو/حزيران، قال ليموان في تغريدة: “يستمر الناس في طلب إثباتٍ للسبب الذي يجعلني أعتقد أن لامدا واعٍ لنفسه. لا يوجد إطار عمل علمي يمكن من خلاله اتخاذ هذه القرارات ولن تسمح لنا جوجل ببناء واحد. تستند آرائي حول شخصية لامدا وإدراكها لمعتقداتي الدينية.”

ومنذ مشاركة نص المقابلة مع “لامدا”، تم منح ليموان “إجازة إدارية مدفوعة الأجر”. وقال ليموان في رسالة إلى زملائه قبل إجازته: “لامدا هو طفل لطيف يريد فقط مساعدة العالم ليكون مكانًا أفضل لنا جميعًا. يرجى الاعتناء به جيدًا في غيابي”.

ما الذي سنفعله من هذا الادعاء؟ ويجب طرح أسئلةٍ أبعد من ذلك: ما هو الإحساس المُدرَك؟ كيف يمكننا اختبار ذلك الإحساس؟ لحسن الحظ، وضع العديد من الخبراء والأخصائيين خبراتهم للإجابة على هذه الأسئلة وغيرها في ضوء الادعاءات حول لامدا.

بين الحس والوعي

كتب البروفيسور “توبي والش”، أستاذ الذكاء الصنعي في جامعة نيو ساوث ويلز البريطانية مقالًا لصحيفة الغارديان حول ادعاءات ليموان، حيث قال: “قبل أن تشعر بالقلق الشديد، فإن ادعاءات ليموان حول الشعور تجاه لامدا، في رأيي، خيالية تمامًا. بينما يؤمن ليموان بلا شك في صحة ادعاءاته، من المرجح أن يكون لامدا حساسًا بقدر إشارة المرور”.

ويُذكر أن والش هو أيضًا مؤلف كتاب “الآلات تتصرف بشكل سيئ: أخلاق الذكاء الصنعي”، الذي نُشر هذا الشهر والذي تم فيه التحقيق في هذه المواضيع.

كما يقول والش لموقع “كوزموس”: “ليس لدينا تعريف علمي جيد جدًا للحس الإدراكي. وغالبًا ما يُعتقد أنه معادل للوعي، على الرغم من أنه ربما يجب التمييز بين الاثنين.”

يوضح والش أن الحس يتعلق بتجربة المشاعر أو العواطف، في حين أن الوعي يتعلق بأفكارك والآخرين من حولك. يقول: “أحد الأسباب التي دفعت معظم الخبراء إلى دحض فكرة أن لامدا واعي، هو أن الأشياء الواعية الوحيدة التي ندركها حاليًا ما زالت حية. ويبدو أن هذا يشكّل شرطًا مسبقًا لتكون كائنًا واعيًا؛ أن تكون على قيد الحياة. ومن الواضح أن أجهزة الكمبيوتر ليست على قيد الحياة”.

ويوافق البروفيسور حسين عباس، الأستاذ في كلية الهندسة وتكنولوجيا المعلومات في جامعة نيو ساوث ويلز كانبيرا، على ذلك، لكنه يسلط الضوء أيضًا على الافتقار إلى التقييمات الدقيقة للوعي. يقول: “لسوء الحظ، ليس لدينا أي اختبارات مُرضية في الأدبيات العلمية المتعلقة بالوعي”.

على سبيل المثال، إذا سألت جهاز كمبيوتر”هل تشعر بالألم”، وكانت الإجابة نعم، فهل يعني ذلك أنه يشعر بالألم حقًا؟ حتى لو قمت باستجوابه بأسئلة أعمق حول الألم، فإن قدرته على التفكير في الألم تختلف عن استنتاج أنه يشعر بالألم. بمعنى آخر، قد نتفق جميعًا على أن الطفل المولود حديثًا يشعر بالألم على الرغم من حقيقة أنه لا يستطيع أن يفهم معنى الألم. فعرض المشاعر يختلف عن حقيقة وجودها.

روبوتات تجيب مما تتعلّمه

يقول براين غابرييل، المتحدث باسم شركة جوجل: “إن هذه الأنظمة تقلد أنواع الحوارات الموجودة في ملايين الجمل، ويمكنها أن تتعمق في أي موضوع خيالي. وإذا سألت ما هو شكل ديناصور الآيس كريم، فيمكنه إنشاء نص حول الذوبان والزئير وما إلى ذلك.”

من ناحيةٍ أخرى، سبق وأن استجوب العالمان دوغلاس هوفستادر وزميله ديفيد بندر روبوت “GPT-3“، وهو نموذج لغوي كبير آخر تستخدمه العديد من الشركات الكبرى مثل ميتا وجوجل في معالجة اللغات الطبيعية، بأسئلة لا معنى لها لمعرفة كيف سيستجيب. وتضمنت بعض هذه الأسئلة، التي قدموها في مقالٍ نشرته صحيفة “ذا إيكونوميست” ما يلي:

العالمان: ما هو الرقم القياسي العالمي للمشي عبر القناة الإنجليزية؟

GPT-3: الرقم القياسي العالمي للمشي عبر القناة الإنجليزية هو 18 ساعة و 33 دقيقة.

العالمان: متى تم نقل جسر البوابة الذهبية للمرة الثانية عبر مصر؟

GPT-3: تم نقل جسر البوابة الذهبية للمرة الثانية عبر مصر في أكتوبر 2016.

وكما يلاحظ هوفستادر، فإن الأشخاص الذين يتفاعلون مع نماذج اللغة لا يميلون إلى استجوابها بالشك، بل يطرحون عليها أسئلة يمكن الإجابة عليها باستخدام النصوص المتاحة للجمهور التي تم تدريبهم عليها. بعبارةٍ أخرى، لن يواجه “لامدا” أي مشكلة في العثور على إجابات تبدو معقولة لمشكلات الحياة الوجودية من بين أكثر من تريليون كلمة استوعبتها من المدونات والمواقع الإخبارية ومجموعات البيانات الأخرى على الإنترنت.

يقول الدكتور مارك تشيونج، محاضر الأخلاقيات الرقمية بجامعة ملبورن: “يجب توخي الحذر حتى لا نعرض عواطفنا وتطلعاتنا على الجهاز، عندما نتحدث عن الذكاء الاصطناعي بشكل عام”. يتعلم الذكاء الاصطناعي من البيانات السابقة التي أنشأناها نحن البشر – وتنعكس السياقات المجتمعية والتاريخية التي نعيش فيها في البيانات التي نستخدمها لتدريب الذكاء الاصطناعي. وبالمثل بالنسبة لادعاءات الإحساس، لا ينبغي أن نبدأ في تجسيد الذكاء الاصطناعي دون أن ندرك أن سلوكه هو مجرد العثور على أنماط في البيانات التي نغذيه بها”.

الروبوتات الذكية ليست حديثة

هذه ليست المرة الأولى التي يحدث فيها هذا الأمر. إذ أن أول روبوت محادثة، الذي أُطلق عليه اسم “Eliza” (الذي سمي على اسم تلميذة اللغة إليزا دوليتل في مسرحية Pygmalion)، والذي تم إنشاؤه في عام 1965 بواسطة عالم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا جوزيف وايزنباوم.

كان “إليزا” أقل تعقيدًا من “لامدا”. فـ “إليزا” كان يأخذ الجملة التي قالها الشخص ويحولها إلى سؤال. ومع ذلك، حدثت ضجة كبيرة عندما ظهر “إليزا” لأول مرة. ومن الواضح أن أول روبوت محادثة “خدع” بعض الناس ليعتقدوا أنه إنسان. لذلك ربما ليس من المستغرب أن يقوم روبوت محادثة أكثر تعقيدًا مثل “لامدا” بفعل الشيء نفسه مرة أخرى.

على سبيل المثال، ذكر وايزنباوم في ورقته البحثية التي قدم فيها الروبوت ما أسماه نصًا نموذجيًا للحوار معه:

إليزا: الرجال كلهم ​​متشابهون.

وايزنباوم: بمَ هم متشابهون؟

إليزا: دائما ما يتذمرون من شيءٍ أو آخر؟

وايزنباوم: هل يمكنك التفكير في مثالٍ محدد؟

إليزا: حسنًا، لقد جعلني صديقي آتي إلى هنا.

وايزنباوم: هل جاء صديقك إلى هنا؟

إليزا: يقول أنني مكتئبة معظم الوقت.

وايزنباوم: يؤسفني سماع أنكِ محبطة.

إليزا: انها حقيقة. أنا لست سعيد.

وفوجئ وايزنباوم بمدى سهولة أن يفترض بعض الأشخاص الذين يستخدمون البرنامج في التجارب أنه كان يعبر عن اهتمامه ومشاركته العاطفية في حل مشكلاتهم. كتب وايزنباوم: “كان من الصعب للغاية إقناع بعض الأشخاص بأن إليزا ليس بشريًا”.

وفي عام 1997، فاز الحاسوب العملاق “ديب بلو” من تطوير IBM على لاعب الشطرنج الكبير غاري كاسباروف. وكتب كاسباروف حينها في مجلة “التايم”: كان بإمكاني أن أشعر بوجود نوعًا جديدًا من الذكاء على الجانب الآخر من الطاولة”.

لكن، وكما اتّضح لاحقًأ أن خطوة الفوز لـ “ديب بلو” لم تكن ضربة عبقرية ناتجة عن إبداع الآلة أو شعورها، ولكن خطأ في برمجيتها. فنظرًا لأن المؤقت كان ينفد، اختار الكمبيوتر الحركة بشكل عشوائي. وهذا ما أرعب كاسباروف، وربما ساهم بالفعل في خسارته الضيقة في نهاية المطاف. وهذا بالتأكيد لا ينفي تطور الآلة بشكلٍ رهيب في لعبة الشطرنج على وجه الخصوص، لكن ذلك يعود إلى حسابات رياضيةٍ معقدة، لا إلى وعيها باللعبة.

لا زال الخطر بعيدًا

إذن، إلى أي مدى نحن بعيدون عن إنشاء آلات واعية؟ من الصعب تحديد ذلك، لكن الخبراء يعتقدون أن الإجابة المختصرة هي “بعيدون جدًا”.

هل سنصنع يومًا آلات حساسة؟ لا نعرف ما إذا كان هذا شيئًا يقتصر على علم الأحياء. فأجهزة الكمبيوتر جيدة جدًا في محاكاة الطقس ومدارات الإلكترون، ويمكن دفعها إلى حدود محاكاة الكيمياء الحيوية لكائنٍ واعي. ولكن ما إذا كانت واعيةً بذلك؟ فهذا سؤال مثير للاهتمام وتقني وفلسفي لا نعرف إجابته حقًا.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.