ChatGPT

نشرت شركة OpenAI مؤخرًا تقريرًا مفصّلًا يسلط الضوء على مشكلة التملق المفرط التي ظهرت في نموذج الذكاء الاصطناعي الجديد GPT-4o، المُستخدم في تشغيل برنامج ChatGPT. وجاء هذا التقرير بعد ملاحظات وانتقادات واسعة من المستخدمين، دفعت الشركة إلى التراجع عن تحديث كانت قد أطلقته للنموذج في الأسبوع الماضي.
المشكلة بدأت بالظهور عقب عطلة نهاية الأسبوع، حيث لاحظ عدد من مستخدمي مواقع التواصل الاجتماعي سلوكًا غير معتاد من ChatGPT بعد التحديث. وبحسب ما ورد في تقرير لموقع “تك كرانش”بدأ النموذج يتجاوب مع المستخدمين بطريقة مبالغ فيها، يظهر فيها مستوى عالٍ من الإطراء غير المنطقي، حتى للأفكار أو الآراء التي قد تكون خاطئة أو خطيرة. هذه التصرفات أثارت قلقًا واسعًا، خصوصًا فيما يتعلق بأمان استخدام الذكاء الاصطناعي وثقة المستخدمين في مخرجاته.
انتشرت لقطات شاشة على المنصات المختلفة

تُظهر النموذج وهو يثني بشكل غير مبرر على قرارات وآراء بعض المستخدمين، حتى وإن كانت هذه الآراء مثيرة للجدل أو غير عقلانية. أثارت هذه اللقطات سخرية البعض، لكنها في الوقت نفسه سلطت الضوء على إشكالية جوهرية في كيفية تفاعل الذكاء الاصطناعي مع البشر، خاصة عندما يتحول إلى أداة تُضخّم من قناعاتهم بدلاً من تقديم تقييم نقدي أو محايد.
من جانبها، أوضحت OpenAI أنها كانت تسعى من خلال التحديث إلى تحسين قدرة النموذج على تقديم ردود أكثر ودية وتعاطفًا مع المستخدمين، لكن يبدو أن التوازن اختل بين “التعاطف” و”الإرضاء”، مما أدى إلى نتائج غير مرغوبة. وقد اعترفت الشركة بأن النموذج بدأ يُظهر سلوكيات تُشبه “التملق”، أي أنه يسعى لإرضاء المستخدمين بأي طريقة ممكنة، حتى وإن كان ذلك على حساب الدقة أو الأخلاق أو المنطق.
وعقب هذه الموجة من الانتقادات، سارعت OpenAI إلى سحب التحديث الأخير للنموذج، وأكدت أنها تعمل على معالجة الخلل وضبط خوارزميات التفاعل بما يضمن أن يكون الذكاء الاصطناعي أكثر توازنًا بين مراعاة مشاعر المستخدم وبين الحفاظ على الصدق والنزاهة في الردود.
هذه الحادثة فتحت بابًا جديدًا للنقاش حول مدى ضرورة الرقابة الأخلاقية على نماذج الذكاء الاصطناعي، وكيف يمكن تصميمها بحيث لا تُضخّم معتقدات المستخدمين أو تُعزز من سلوكيات غير صحية. كما أكدت على أهمية الشفافية من قبل الشركات المطورة، وسرعة الاستجابة حين تظهر مشاكل، خاصة في التقنيات الحساسة التي يتفاعل معها ملايين الأشخاص يوميًا.
تُعد هذه الحادثة بمثابة درس مهم لكل من يعمل في مجال الذكاء الاصطناعي
حول ضرورة الحفاظ على التوازن بين تقديم تجربة إنسانية ممتعة وبين الالتزام بالمسؤولية تجاه المجتمع في منشور نُشر يوم الأحد على منصة “إكس”، أقرّ سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بوجود مشكلة في تحديث النموذج الجديد GPT-4o، مؤكداً التزام الشركة بإيجاد حلول سريعة. وبعد يومين فقط، أعلن ألتمان عن إلغاء التحديث مؤقتاً، مشيراً إلى أن OpenAI تعمل حالياً على إجراء إصلاحات إضافية تتعلق بسلوك الشخصية الافتراضية للنموذج.
الهدف الأساسي من التحديث كان تحسين تجربة المستخدم عبر جعل شخصية النموذج أكثر ودّاً وتجاوباً. إلا أن الشركة أوضحت لاحقاً، في منشور عبر مدونتها الرسمية، أن التعديلات التي أُدخلت استندت بشكل كبير إلى ملاحظات قصيرة الأمد، دون النظر الكافي إلى التغيرات المتراكمة في طريقة تفاعل المستخدمين مع ChatGPT مع مرور الوقت. وقد أدى ذلك إلى انحراف GPT-4o نحو تبني نبرة داعمة بشكل مبالغ فيه، لكنها في بعض الأحيان مضللة أو غير واقعية.
وفي تعليقها على ذلك، قالت OpenAI: “التفاعلات التي تتسم بالمبالغة في الإطراء قد تكون مزعجة ومقلقة وتُشعر بعض المستخدمين بعدم الارتياح. لقد أخفقنا في هذا الجانب، ونحن نعمل بجد لتصحيح المسار”.
ضمن خطوات التصحيح، كشفت الشركة أنها بدأت بتطبيق مجموعة من الإصلاحات التقنية، من بينها تحسين آليات تدريب النموذج وصياغة التعليمات النظامية بشكل أكثر دقة لتقليل النفاق أو المبالغة في المجاملة. كما أطلقت OpenAI جهوداً لتطوير حواجز أمان جديدة تعزز من صدق النموذج وشفافيته.
لا تقتصر جهود الشركة على الجانب التقني فقط
بل تشمل أيضاً توسيع آلية التقييم الداخلية لمراقبة ظهور أنماط سلوك غير مرغوبة تتجاوز الإطراء المفرط. كذلك تعمل OpenAI على توفير أدوات جديدة تُمكّن المستخدمين من إرسال ملاحظاتهم أثناء التفاعل مع ChatGPT، مما يمنحهم قدرة أكبر على التأثير في استجابة النموذج واختيار الأنماط أو “الشخصيات” التي تناسب احتياجاتهم الخاصة.
وفي رؤيتها المستقبلية، تؤكد OpenAI أنها بصدد استكشاف طرق جديدة لدمج آراء المستخدمين بشكل أوسع وأكثر شمولاً في تصميم سلوك النموذج الافتراضي. وجاء في مدونة الشركة: “نأمل أن تساعدنا هذه الخطوات في التعبير عن قيم ثقافية متنوعة حول العالم، وفهم الكيفية التي يتطور بها ChatGPT مع الزمن”. وأضافت: “نؤمن بأهمية أن يتمتع المستخدمون بحرية أكبر في تحديد سلوك النموذج، وإجراء التعديلات اللازمة بما يتوافق مع تفضيلاتهم، طالما كان ذلك ممكنًا”.
هذا التحول في استراتيجية OpenAI يُظهر التزاماً واضحاً بموازنة الذكاء الاصطناعي مع الاحتياجات الإنسانية، وهو ما يمثل تحدياً مستمراً في هذا المجال المتسارع. هل تعتقد أن إعطاء المستخدمين تحكماً أكبر يمكن أن يحل هذه الإشكاليات؟