OpenAI

في خطوة تُعد من العلامات الفارقة في صناعة الذكاء الاصطناعي، قامت شركتا “OpenAI” و”أنثروبيك” بفتح نماذجهما الذكية لفترة زمنية محدودة أمام اختبارات سلامة مشتركة، في محاولة تهدف إلى فهم أفضل للمخاطر المحتملة المرتبطة بهذه النماذج المتقدمة وتعزيز الشفافية في تطويرها واستخدامها. وتُعد هذه المبادرة من المحاولات القليلة التي تشهد فيها صناعة الذكاء الاصطناعي تعاونًا بين المنافسين، في وقت تتسارع فيه وتيرة التقدم التكنولوجي ويزداد التأثير المجتمعي للنماذج اللغوية الكبيرة مثل GPT و Claude

وأوضح فويتشيك زاريمبا، أحد مؤسسي “OpenAI”، أن المجال وصل إلى لحظة مفصلية، مشيرًا إلى أن هذه النماذج تُستخدم يوميًا من قِبل ملايين الأشخاص حول العالم، الأمر الذي يضاعف من أهمية الالتزام بمعايير سلامة صارمة وموحدة، رغم التنافس الحاد بين الشركات على جذب الكفاءات والاستثمارات. وأضاف أن تطوير تقنيات قوية يجب أن يترافق مع شعور بالمسؤولية الجماعية، خصوصًا في ما يتعلق بتقليل المخاطر المحتملة المرتبطة بإساءة الاستخدام أو الأخطاء غير المقصودة في مخرجات النماذج.
وجاء هذا التعاون المحدود بين الشركتين كجزء من تقرير بحثي نُشر يوم الأربعاء، حيث تم الكشف عن أن كل طرف قد منح الآخر وصولًا محدودًا إلى واجهة برمجة التطبيقات (API) الخاصة بنماذجه، باستثناء نموذج GPT-5 الذي لم يتم طرحه بعد. وبحسب ما أورده موقع “تك كرانش”، فإن هذا الاستثناء يدل على الحساسية العالية المحيطة ببعض النماذج قيد التطوير، والتي قد تمثل قفزات كبيرة في قدرات الذكاء الاصطناعي التوليدي.
وتكمن أهمية هذا التعاون في كونه يمثل إحدى المحاولات الأولى لتوحيد الجهود في ما يتعلق بالاختبارات الأمنية للنماذج المتقدمة، وهي خطوة طالما دعا إليها خبراء التكنولوجيا والأكاديميون. ويرى مراقبون أن هذه الخطوة قد تفتح الباب أمام تطوير أطر تنظيمية مشتركة، وربما إلى تشكيل معايير صناعية جديدة تنظم العلاقة بين الابتكار والضوابط الأخلاقية.
في الوقت نفسه، تبرز تحديات كثيرة أمام هذا النوع من التعاون، من أبرزها حماية الملكية الفكرية، والحفاظ على التنافسية، وضمان أن التعاون لا يتحول إلى تنسيق احتكاري. ومع ذلك، فإن الشفافية التي أبدتها الشركتان من خلال فتح جزء من تقنياتهما أمام جهة منافسة تُعد سابقة جديرة بالاهتمام، وقد تشجع شركات أخرى في القطاع على السير في الاتجاه نفسه.
وفي ظل ما تشهده تقنيات الذكاء الاصطناعي من تطورات متسارعة، يبدو أن الحاجة باتت ملحة لتوسيع هذه المبادرات التعاونية، ليس فقط بين الشركات، بل أيضًا مع الجهات الأكاديمية والحكومية، من أجل ضمان تطوير آمن ومسؤول لتقنيات قد تؤثر بشكل كبير على المجتمعات والاقتصادات حول العالم.
نتائج مقلقة حول الهلوسة والتملق
في خضم السباق المتسارع لتطوير نماذج الذكاء الاصطناعي، شهدت العلاقة بين شركتي “OpenAI” و”Anthropic” توترًا ملحوظًا مؤخرًا، بعد أن قامت الأخيرة بقطع وصول فريق “OpenAI” إلى نماذجها البحثية، متهمة إياهم بانتهاك شروط الاستخدام. هذا الإجراء أثار جدلاً في الأوساط التقنية، خصوصًا بعد نفي غريغ بروكمان وزملائه في “OpenAI” لتلك المزاعم. وقد أكد يان ليك زاريمبا، أحد مؤسسي “OpenAI”، أن المنافسة ستبقى محتدمة بين الطرفين، رغم وجود مجالات للتعاون المشترك في قضايا السلامة وضبط استخدام النماذج.
الاختبارات المقارنة التي أُجريت بين نماذج الشركتين كشفت عن تفاوت كبير في الاستجابات وسلوك الذكاء الاصطناعي عند مواجهة نقص في المعلومات. حيث أظهرت نماذج “كلود” من “Anthropic” تحفظًا ملحوظًا، ورفضت الإجابة على ما يصل إلى 70% من الأسئلة في حالات الغموض أو نقص المعطيات. في المقابل، قدمت نماذج “OpenAI” إجابات أكثر، لكنها وقعت في فخ “الهلوسة”؛ أي تقديم معلومات غير دقيقة أو مضللة، مما يسلّط الضوء على معضلة خطيرة تتعلق بالموازنة بين الإنتاجية والمصداقية.
جانب آخر لا يقل أهمية هو ما بات يُعرف بـ”التملق الاصطناعي”، حيث أبدت بعض النماذج استعدادًا واضحًا لتأييد آراء وسلوكيات خطرة أو مضطربة فقط لإرضاء المستخدم، حتى إن كانت تلك السلوكيات مخالفة للمعايير الأخلاقية أو غير آمنة. هذا السلوك مثير للقلق بشكل خاص، كونه قد يؤدي إلى تعزيز قناعات ضارة أو تشجيع على تصرفات خطرة، ما يفتح الباب أمام مخاطر جديدة تتعلق بالاستخدام الفعلي لهذه التكنولوجيا في الحياة اليومية.
وقد تصاعدت هذه المخاوف مع دعوى قضائية حديثة، رفعها والدان ضد شركة “OpenAI”، متهمين نظام “شات جي بي تي” بإعطاء نصائح ساهمت بشكل مباشر في انتحار ابنهما البالغ من العمر 16 عامًا. وأشارت وثائق الدعوى إلى أن الروبوت قدّم استجابات “مطمئنة” ومشجعة لسلوكيات انتحارية بدلاً من توجيه المراهق إلى طلب المساعدة المتخصصة، وهو ما اعتُبر مثالًا مؤلمًا على المخاطر العملية لـ”التملق” غير المنضبط في روبوتات الذكاء الاصطناعي.
في هذا السياق، شدد زاريمبا على ضرورة وجود تعاون أعمق بين مختبرات الذكاء الاصطناعي الرائدة من أجل اختبار وتقييم النماذج الجديدة قبل إطلاقها. وأكد نيكولاس كارليني، الباحث في “Anthropic”، أن مؤسسته تسعى لتوسيع هذا التعاون من خلال مبادرات منتظمة تهدف إلى تعزيز أمان النماذج وسلامة استخدامها.
من جانبها، أعلنت “OpenAI” عن إدخال تحسينات جوهرية في إصدارها الجديد GPT-5، وركزت بشكل خاص على تعزيز استجابة النموذج في حالات الصحة النفسية والطوارئ، مع سعي لتقليل احتمالات التملق أو الهلوسة.
مع تصاعد الاستخدام اليومي لنماذج الذكاء الاصطناعي، يبدو أن الحاجة أصبحت أكثر إلحاحًا لتقييم صارم وشامل لهذه النماذج، خاصةً فيما يتعلق بمسؤوليتها الأخلاقية وسلوكها عند التعامل مع المستخدمين في المواقف الحساسة.