استمع إلى المقال

بالرغم من الفوائد الكبيرة التي أوجدتها روبوتات الدردشة، لكن الشركات العاملة في مجال الذكاء الاصطناعي تدرك منذ البداية أن هناك مشاكل مستعصية تنتظرها، ولعل أهمها مشكلة الهلوسة، فهل تستطيع هذه الشركات الحد من قدرات الذكاء الاصطناعي على توليد المعلومات المضللة.

على مدى السنوات القليلة الماضية، تحسنت النماذج اللغوية الكبيرة المُشغلة لروبوتات الدردشة العاملة بالذكاء الاصطناعي بشكل كبير في أداء التفكير المتعدد الخطوات، لكنها لا تزال تنتج أخطاء منطقية تسمى الهلوسة، أي توفير معلومات غير دقيقة أو أشياء مزيفة.

الهلوسة في التكنولوجيا توصف بأنها توليد مخرجات قد تبدو صحيحة، لكنها إما غير صحيحة من الناحية الواقعية أو لا علاقة لها بالسياق المحدد.

وسط طفرة الذكاء الاصطناعي التوليدي، تأتي الأبحاث بشأن هذه المشكلة في وقت أصبحت فيه المعلومات المضللة النابعة من أنظمة الذكاء الاصطناعي أكثر نقاشا من أي وقت مضى.

نهج جديد

في الآونة الأخيرة، سأل الباحثون نسختين من روبوت الدردشة “ChatGPT” عن مكان ولادة توماس لوزانو بيريز، الأستاذ في “معهد ماساتشوستس للتكنولوجيا”.

إحدى النسخ أجابت إسبانيا والأخرى أشارت إلى كوبا، لكن بعد الطلب من النسختين مناقشة الإجابات، اعتذرت النسخة التي قالت إسبانيا ووافقت على الإجابة الصحيحة، وهي كوبا.

هذا الاكتشاف، الذي نُشر في ورقة بحثية بواسطة فريق من باحثي “معهد ماساتشوستس للتكنولوجيا”، هو أحدث اختراق محتمل في مساعدة روبوتات الدردشة للوصول إلى الإجابة الصحيحة. 

الباحثون اقترحوا استخدام روبوتات دردشة مختلفة لإنتاج إجابات متعددة على نفس السؤال مع السماح للروبوتات بالنقاش من أجل الوصول إلى الإجابة الصحيحة، ووجد الباحثون أن استخدام أسلوب “مجتمع العقول” جعل الروبوتات أكثر واقعية.

النماذج اللغوية الكبيرة تُدرب على التنبؤ بالكلمة التالية، لكنها غير مدربة على الحديث بأنها لا تعرف ماذا تفعل، نتيجة لذلك، فإن روبوتات الدردشة تتصرف مثل الأشخاص غير الناضجين الذين يريدون إرضاء الآخرين عبر اختلاق الإجابات بدلا من الاعتراف بعدم المعرفة.

النهج الذي اتبعه الباحثون يمثل أحدث محاولة لحل أحد أكثر الاهتمامات إلحاحا في مجال الذكاء الاصطناعي.

هلوسة الذكاء الاصطناعي

بالرغم من القفزات الهائلة في القدرات التي أظهرتها روبوتات الدردشة التوليدية مثل “ChatGPT” من شركة “OpenAI” و”Bing” من “مايكروسوفت” و”Bard” من “جوجل” في الأشهر الستة الماضية، لكن لا يزال هناك عيب فادح كبير، وهو اختلاق الأشياء.

حتى النماذج الحديثة تميل إلى إنتاج الأكاذيب، إذ تُظهر ميلا لاختراع الحقائق في لحظات عدم اليقين، وهذه الهلوسة مشكلة بشكل خاص في المجالات التي تتطلب تفكيرا متعدد الخطوات، لأن خطأ منطقيا واحدا يكفي لعرقلة حل أكبر بكثير.

اكتشاف كيفية منع أو إصلاح ما يسميه المجال “الهلوسة” أصبح هاجسا لدى العديد من العاملين في مجال التكنولوجيا والباحثين والمتشككين في الذكاء الاصطناعي على حدٍ سواء. 

هذه المشكلة ذُكرت في عشرات الأوراق الأكاديمية المنشورة عبر قاعدة البيانات “Arxiv”، وقد تناولها الرؤساء التنفيذيون لشركات التكنولوجيا الكبرى، مثل سوندار بيتشاي، بشكل متكرر.

مع دفع التكنولوجيا إلى ملايين الأشخاص ودمجها في المجالات الهامة، بما في ذلك الطب والقانون، أصبح فهم الهلوسة وإيجاد طرق للتخفيف منها أكثر أهمية.

معظم الباحثين يتفقون على أن المشكلة متأصلة في نماذج اللغة الكبيرة المُشغّلة لروبوتات الدردشة بسبب طريقة تصميمها. 

نتيجة لذلك، تتنبأ الروبوتات بما هو أكثر ملاءمة لتقوله استنادا إلى الكميات الهائلة من البيانات التي استوعبتها من الإنترنت، لكن ليس لديها طريقة لفهم ما هو واقعي أم لا.

مع ذلك، لا يزال الباحثون والشركات يحاولون حل المشكلة، حيث تستخدم بعض الشركات مدربين بشريين لإعادة كتابة إجابات الروبوتات وإدخالها مرة أخرى إلى الجهاز بهدف جعلها أكثر ذكاءً. 

شركتا “جوجل” و”مايكروسوفت” بدأتا باستخدام الروبوتات لإعطاء إجابات مباشرة في محركات البحث، لكن لا يزال يتعين على المستخدم التحقق مرة أخرى من إجابة الروبوت مع نتائج البحث العادية. 

مثل اقتراح “معهد ماساتشوستس للتكنولوجيا” لجعل الروبوتات المتعددة تتناقش فيما بينها، الأكاديميون اقترحوا طرقا مختلفة لتقليل معدلات الإجابات الخطأ.

الدافع لتحسين مشكلة الهلوسة

عندما أطلقت “مايكروسوفت” روبوت دردشة “بينغ”، سرعان ما بدأ بتوجيه اتهامات كاذبة ضد بعض المستخدمين.

هذا الأمر دفع “مايكروسوفت” لاحقا إلى الحد من عدد المناقشات التي يمكن أن ينخرط فيها الروبوت مع الإنسان لتجنب حدوث المزيد.

في أستراليا، هدد مسؤول حكومي بمقاضاة شركة “OpenAI” بعد أن قال روبوت “ChatGPT” إنه أدين بالرشوة، بينما كان في الواقع مُبلّغا عن المخالفات في قضية رشوة. 

خلال الشهر الماضي، اعترف المحامي ستيفن شوارتز باستخدام “ChatGPT” لصياغة موجز قانوني بعد القبض عليه لأن القضايا التي استشهد بها الروبوت لم تكن موجودة.

حتى “جوجل” و”مايكروسوفت”، اللتين ربطتا مستقبلهما بالذكاء الاصطناعي وهما في سباق لدمج التكنولوجيا في مجموعة واسعة من منتجاتهما، لم تسلما من هلوسة الروبوتات أثناء الإعلانات والعروض التوضيحية الرئيسية.

ضخ المليارات مستمر

هذه المشاكل الملحة لا تمنع الشركات من الاندفاع بتهور إلى المجال، حيث يجري استثمار مليارات الدولارات في تطوير روبوتات دردشة أكثر ذكاءً وأسرع. 

الشركات بدأت بالترويج لتلك الروبوتات كبديل أو مساعد للعاملين في المجال البشري، حيث تشير بعض الشركات إلى أنها تريد استبدال العاملين بالذكاء الاصطناعي، لكن التكنولوجيا تمثل تحديات خطيرة في مجال الأمن السيبراني.

في وقت سابق من هذا الشهر، أدلى سام التمان، الرئيس التنفيذي لشركة “OpenAI”، بشهادته أمام الكونغرس قائلا، “الذكاء الاصطناعي يمكن أن يسبب ضررا كبيرا للعالم من خلال نشر المعلومات المضللة والتلاعب عاطفيا بالبشر”.

قبل عدة أيام، انضم ألتمان إلى مئات من الباحثين والمديرين التنفيذيين الآخرين في مجال الذكاء الاصطناعي، بما في ذلك بعض كبار القادة من “جوجل” و”مايكروسوفت”، في توقيع بيان يقول، “الذكاء الاصطناعي يشكل خطرا وجوديا على البشرية على قدم المساواة مع الأوبئة والحرب النووية”.

كما تم توثيق الهلوسة في خدمات النسخ المدعومة بالذكاء الاصطناعي عبر إضافة كلمات إلى التسجيلات التي لم يتم التحدث بها في الحياة الواقعية. 

استخدام “جوجل” و”مايكروسوفت” للروبوتات من أجل الإجابة على استفسارات البحث مباشرة بدلا من إرسال المستخدمين إلى المدونات والقصص الإخبارية قد يؤدي إلى تآكل نموذج أعمال الناشرين عبر الإنترنت وصناع المحتوى الذين ينُتجون معلومات جديرة بالثقة.

في مقابلة مع شبكة “سي بي إس” في شهر نيسان/أبريل الماضي، قال بيتشاي، “لم يحل أحد في هذا المجال مشاكل الهلوسة حتى الآن. كل النماذج لديها هذا الأمر كمشكلة. هناك نقاش حاد في الوقت الحالي حول ما إذا كان من الممكن حتى حلها”.

اعتمادا على الطريقة التي تنظر بها إلى الهلوسة، فإنها ميزة وخطأ في نماذج اللغة الكبيرة.

الهلوسة تعتبر جزءا مما يسمح للروبوتات بالإبداع وإنشاء القصص. في الوقت نفسه، تكشف الهلوسة عن القيود الصارمة للتكنولوجيا من خلال الإشارة إلى أنها لا تملك فهما داخليا للعالم من حولها، مما يقوض الحجة القائلة بأن روبوتات الدردشة ذكية بطريقة تشبه البشر.

هلوسة الذكاء الاصطناعي ليست جديدة

الهلوسة مشكلة متأصلة في النماذج اللغوية الكبيرة منذ بدايتها قبل عدة سنوات، لكن المشكلات الأخرى، مثل إنتاج الذكاء الاصطناعي لإجابات غير منطقية أو متكررة كان يُنظر إليها على أنها مشكلات أكبر. 

بمجرد حل هذه المشكلات إلى حد كبير، أصبحت الهلوسة الآن محورا رئيسيا لمجتمع الذكاء الاصطناعي.

في شهر آذار/مارس الماضي، أصدرت مجموعة من الباحثين في جامعة “كامبريدج” ورقة بحثية يقترحون من خلالها نظاما أطلقوا عليه اسم “SelfCheckGPT“.

هذا النظام يطرح على الروبوت سؤالا واحدا عدة مرات، ويطلب منه مقارنة الإجابات المختلفة. إذا كانت الإجابات متسقة، فمن المحتمل أن تكون الحقائق صحيحة، لكن إذا كانت مختلفة، فيمكن تمييزها على أنها ربما تحتوي على معلومات مختلقة.

عندما يُطلب من البشر كتابة قصيدة، فإنهم يعرفون أنه ليس من المهم بالضرورة أن تكون صحيحة من الناحية الواقعية. لكن عند سؤالهم عن تفاصيل السيرة الذاتية عن شخص حقيقي، فإنهم يعرفون تلقائيا أن إجابتهم يجب أن تكون متأصلة في الواقع.

بالنظر إلى أن روبوتات المحادثة تتنبأ بالكلمة أو الفكرة التي تأتي بعد ذلك في سلسلة نصية، فليس لديها هذا الفهم السياقي للسؤال.

باستخدام “SelfCheckGPT“، أظهر الباحثون أنه يمكنهم التخلص من الإجابات غير الصحيحة من الناحية الواقعية وحتى ترتيب الإجابات بناءً على مدى كونها واقعية.

تخفيف المشكلة

من المحتمل أن الطريقة الجديدة كليا لتعلم الذكاء الاصطناعي لم يتم اختراعها بعد، لكن من خلال بناء أنظمة فوق نموذج اللغة، فإنه من الممكن تخفيف المشكلة.

هذا ما تفعله الشركات الرائدة. عندما يُنشئ محرك بحث “جوجل” نتائج بحث باستخدام روبوت الدردشة، فإنه يُجري أيضا بحثا منتظما بشكل متوازٍ، ومن ثم يقارن ما إذا كانت إجابة الروبوت تتطابق مع نتائج البحث التقليدية. إذا كانت الإجابة لا تتطابق، فلن تظهر إجابة الذكاء الاصطناعي. 

كما عدلت الشركة روبوتها للدردشة ليكون أقل إبداعا، مما يعني أنه ليس جيدا في كتابة القصائد أو إجراء محادثات ممتعة، لكن من غير المرجح أن يكذب.

من خلال قصر روبوت البحث على تأكيد نتائج البحث الحالية، تمكنت “جوجل” من تقليل الهلوسة وعدم الدقة.

بالتزامن مع ذلك، أشارت “OpenAI” إلى ورقة بحثية أنتجتها الشركة حيث أظهرت كيف أن أحدث نماذجها، “GPT4″، أنتج عددا أقل من الهلوسة مقارنة بالإصدارات السابقة.

من خلال اختبارها مع أشخاص حقيقيين، تنفق الشركات الوقت والمال من أجل تحسين نماذجها. 

الفضل يُنسب إلى تقنية “التعلم المعزز مع ردود الفعل البشرية”، حيث يُحسن العنصر البشري إجابات الروبوت بشكل يدوي ومن ثم يعيدها إلى النظام لتحسينه، في جعل “ChatGPT” أفضل بكثير من روبوتات الدردشة التي جاءت قبله. 

من الأساليب الشائعة الأخرى ربط روبوتات المحادثة بقواعد بيانات تحتوي على معلومات واقعية أو أكثر موثوقية، مثل “ويكيبيديا” أو بحث “جوجل” أو مجموعات مخصصة من المقالات الأكاديمية أو وثائق الأعمال.

“OpenAI” لديها حل

من أجل المساعدة في حل المشكلة، ابتكرت الشركة نهجا جديدا من شأنه أن يساعد في منع الهلوسة، وذلك عبر مكافأة النماذج على كل خطوة من خطوات العملية عند توفير إجابة صحيحة بدلا من مكافأة النموذج على الإجابة النهائية الشاملة.

الشركة أطلقت على النهج الجديد اسم “الإشراف على العملية”، على عكس نهجها السابق المسمى “الإشراف على النتائج”. بالإضافة إلى تعزيز الأداء بالنسبة للإشراف على النتائج، فإن الإشراف على العملية له أيضا فائدة مهمة في التوافق، فهو يُدرب النموذج بشكل مباشر لإنتاج سلسلة فكرية يؤيدها البشر.

هذا النهج يمكن أن يؤدي إلى ذكاء اصطناعي قابل للتفسير بشكل أفضل، حيث أن الاستراتيجية تشجع النماذج على اتباع نهج سلسلة فكرية شبيهة بالإنسان.

في النهاية، فإن التخفيف من الأخطاء المنطقية لنموذج الذكاء الاصطناعي قد يلعب دورا حاسما في مساعدة النماذج اللغوية الكبيرة على أن تصبح أكثر قدرة على حل مشاكل التفكير، لكن هناك شك حول ما إذا كانت هذه المقاربات قد تفعل ما يكفي لمنع نموذج الذكاء الاصطناعي من الهلوسة.

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى إكسڤار واشترك بنشرتنا البريدية.
0 0 أصوات
قيم المقال
Subscribe
نبّهني عن
0 تعليقات
Inline Feedbacks
مشاهدة كل التعليقات