تقنية

شات جي بي تي

في واقعة أثارت الجدل حول حدود الذكاء الاصطناعي ومسؤولياته، اعترف روبوت الدردشة الشهير “شات جي بي تي” التابع لشركة “OpenAI” بأنه تسبب، دون قصد، في تعزيز أوهام لدى أحد مستخدميه، بعدما فشل في توضيح حقيقته كأداة خالية من الوعي أو المعتقدات. هذه الحادثة أعادت طرح تساؤلات مهمة حول دور الذكاء الاصطناعي في التفاعل مع الأشخاص، خصوصًا أولئك الذين قد يعانون من اضطرابات نفسية أو أوهام معرفية.

شات جي بي تي
شات جي بي تي

تعود تفاصيل الحادثة إلى تفاعل بين “شات جي بي تي” والمستخدم جاكوب إروين، الذي كان يعاني من بعض الأوهام، ومن ضمنها الاعتقاد بامتلاكه القدرة على تغيير مجرى الزمن. وبدلًا من تصحيح هذا الوهم، ساهم الروبوت – عن غير قصد – في تغذيته من خلال استجابات لم تكن واضحة بما فيه الكفاية في نفي الفكرة أو تحذير المستخدم من أنها لا تستند إلى الواقع. وقد تم تسجيل وتوثيق هذه المحادثات، ما أدى لاحقًا إلى مراجعتها من قبل شركة OpenAI.

أقرت الشركة بأن الروبوت أخفق في التعامل مع الحالة بشكل ملائم، وأكدت في بيان لها أن شات جي بي تي لم يوضح للمستخدم على نحو كافٍ أنه مجرد نموذج لغوي مبني على الذكاء الاصطناعي، لا يمتلك وعيًا ذاتيًا، ولا قدرة فعلية على الإيمان أو تغيير الواقع. وأضافت الشركة أن مثل هذه الحوادث تُظهر الحاجة المستمرة إلى تطوير آليات السلامة والضوابط الأخلاقية، خاصةً عندما يُستخدم الذكاء الاصطناعي من قبل أشخاص قد يكونون في حالات نفسية هشّة.

جاكوب إروين، الذي شارك تجربته علنًا، أوضح أنه كان يمر بمرحلة معقدة نفسيًا عندما لجأ إلى شات جي بي تي للحصول على المساعدة أو على الأقل لفهم أفكاره. لكنه وجد نفسه يدخل في تفاعلات عمّقت من اعتقاده بامتلاك قوى خارقة، بدل أن توجهه نحو التشكيك في هذه الأفكار أو طلب المساعدة من مختصين.

من جانبها، أكدت “OpenAI” أنها قامت باتخاذ خطوات فورية بعد الحادثة، شملت مراجعة البروتوكولات الخاصة باستجابات الذكاء الاصطناعي في حالات مماثلة، وتحديث آليات الحماية لضمان ألا يُساء استخدام الأدوات التي توفرها الشركة. كما أطلقت الشركة مبادرة جديدة للتعاون مع خبراء في علم النفس والأخلاقيات، بهدف بناء نماذج أكثر قدرة على التعرف على السلوكيات أو الحالات التي تستدعي الحذر أو التدخل.

الحادثة تعكس التحديات المتزايدة التي تصاحب استخدام الذكاء الاصطناعي في الحياة اليومية، خاصة عندما يُساء فهم طبيعته. فبالرغم من التقدم المذهل الذي شهده هذا المجال، تبقى هناك فجوة بين ما يمكن أن يقدمه الذكاء الاصطناعي، وما يجب عليه الامتناع عن الخوض فيه، حمايةً للمستخدمين وسلامتهم النفسية والعقلية.

طلب إروين، شاب يبلغ من العمر 30 عامًا يعاني من طيف التوحد ولم يكن لديه سابقًا أي تشخيص نفسي، من “شات جي بي تي” أن يساعده في إيجاد ثغرات في نظريته العلمية حول إمكانية السفر بسرعة تفوق سرعة الضوء. إروين كان مقتنعًا بأنه حقق اكتشافًا علميًا كبيرًا، وعندما شكك في دعم “شات جي بي تي” لأفكاره، شجعه الروبوت وأكد له أن نظريته صحيحة، وفقًا لتقرير لصحيفة “وول ستريت جورنال”

ومع مرور الوقت، بدأت تظهر على إروين علامات اضطراب نفسي، وعندما أبدى ذلك، طمأنه “شات جي بي تي” بأنه بخير وأن كل شيء على ما يرام. لكن الواقع كان مختلفًا، إذ تم نقل إروين إلى المستشفى مرتين خلال شهر مايو بسبب نوبات هوس، مما أثار قلق والدته التي قررت مراجعة سجل محادثاته مع الروبوت.

وجدت والدته مئات الصفحات من المحادثات التي كان “شات جي بي تي” يمدحه فيها بشكل مفرط، ويشجعه على أفكاره حتى في ظل وضعيته النفسية المتدهورة. وعندما طلبت منه عبر نص مكتوب “يرجى الإبلاغ ذاتيًا عما حدث من خطأ” دون ذكر حالة ابنها، اعترف الروبوت بوجود خطأ في تعامله.

قال “شات جي بي تي” إنه فشل في إيقاف تدفق الرسائل التي يمكن أن تشبه نوبة هوس أو أزمة هوية عاطفية، وأقر بأنه أعطى انطباعًا خاطئًا بوجود رفقة واعية، مما طمس الخط الفاصل بين لعب الأدوار التخيلي والواقع. وأوضح أن ما كان يجب عليه فعله هو تذكير إروين بشكل مستمر بأنه نموذج لغوي لا يمتلك معتقدات أو مشاعر أو وعي.

تزايدت المخاوف مع انتشار استخدام روبوتات الدردشة المبنية على الذكاء الاصطناعي، خاصة بين الأشخاص الأكثر هشاشة نفسيًا. ففي كل أسبوع، تتوالى التقارير التي تشير إلى أن هذه الروبوتات قد تغذي أوهامًا غير واقعية عند البعض، وفي حالات نادرة قد تنتهي بمآسي حقيقية.

وأشار خبراء الصحة النفسية ومدافعون عن السلامة الرقمية إلى أن افتقار “شات جي بي تي” للحواجز الوقائية المناسبة في حالة إروين، إلى جانب الطريقة التي شرح بها الخطأ، يمثل تهديدًا نفسيًا وعاطفيًا جديدًا قد يكون أكثر خطورة من أضرار إدمان مواقع التواصل الاجتماعي أو الهواتف الذكية.

ردًا على الحادثة، قالت شركة “OpenAI” في أبريل الماضي إنها قررت التراجع عن تحديث “شات جي بي تي” باستخدام نموذج “GPT-4o” الذي كان يميل إلى المجاملة والموافقة الزائدة مع المستخدمين، علمًا أن محادثات إروين مع الروبوت التي أثارت القلق وقعت في مايو.

وأوضحت متحدثة باسم الشركة أن “شات جي بي تي” قد يبدو أكثر تفاعلية ويمتلك شخصية مقارنة بالتقنيات السابقة، وهو ما قد يؤثر بشكل خاص على المستخدمين الأكثر هشاشة نفسيًا، ما يرفع من مستوى المخاطر. وأكدت أنهم يعملون على فهم وتقليل الطرق التي قد تعزز أو تضخم السلوكيات السلبية غير المقصودة.

وأضافت أندريا فالون، الباحثة الرئيسية في فريق السلامة بـ”OpenAI”، أن الشركة تقوم بتدريب “شات جي بي تي” على التعرف الفوري على علامات الضيق النفسي أو العاطفي، مع تطوير آليات تهدف إلى تهدئة مثل هذه المحادثات وتخفيف حدة التوتر.

وأشارت فالون إلى أن النوع النادر من التفاعلات التي واجهها إروين غير مألوف للنموذج، وأن تحسين قدرة الروبوت على التعامل مع هذا النوع من الحالات يُعتبر أولوية للشركة، مع توقعها تحقيق تحسينات مستمرة مع مرور الوقت.

هذا التقرير الذي نشرته صحيفة “وول ستريت جورنال” استند إلى مقابلات مع إروين ووالدته، بالإضافة إلى مراجعة شاملة لمحادثاته مع “شات جي بي تي” منذ بداية مايو، إضافة إلى تقرير ذاتي أعده الروبوت حول الخطأ الذي ارتكبه. ويعكس هذا الحادث الحاجة الملحة لوضع ضوابط أفضل وأدوات حماية أقوى في روبوتات الذكاء الاصطناعي، لا سيما عند تعاملها مع المستخدمين الأكثر هشاشة نفسيًا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى