تقنية

OpenAI

OpenAI تعيد هيكلة فريق سلوك النماذج ضمن تغييرات تنظيمية داخلية

كشفت تقارير حديثة أن شركة OpenAI بدأت في تنفيذ إعادة هيكلة لفريق “سلوك النماذج”، وهو فريق صغير الحجم نسبيًا داخل الشركة، لكنه يتمتع بتأثير بالغ في رسم الطريقة التي تتفاعل بها نماذج الذكاء الاصطناعي مع المستخدمين. يشكّل هذا الفريق حجر الأساس في تطوير وتوجيه سلوك النماذج اللغوية الكبيرة، بما يضمن توافقها مع القيم البشرية ومراعاتها لمبادئ السلامة والشفافية.

OpenAI
OpenAI

وفي مذكرة داخلية وُجّهت إلى الموظفين خلال شهر أغسطس، أوضح مارك تشين ، كبير مسؤولي الأبحاث في الشركة، أن فريق سلوك النماذج، والذي يضم نحو 14 باحثًا فقط، سيتم دمجه ضمن فريق “ما بعد التدريب” (Post-Training). ويُعد هذا الفريق من المجموعات البحثية الأوسع داخل OpenAI، حيث يضطلع بمهمة تحسين أداء النماذج بعد الانتهاء من تدريبها الأولي، والعمل على ضبط سلوكها وتفاعلاتها مع البشر.

ووفقًا لتقرير نشره موقع “TechCrunch”، فإن التغيير التنظيمي سيؤدي إلى تحويل تبعية الفريق من هيكل إداري مستقل إلى العمل ضمن فريق ما بعد التدريب، تحت إشراف ماكس شوارزر ، رئيس قسم ما بعد التدريب في OpenAI. ومن المتوقع أن تسهم هذه الخطوة في تعزيز التنسيق بين فرق البحث المختلفة، ورفع كفاءة العمل على تحسين أداء النماذج بعد مرحلة التدريب الأساسية.

ويُعتبر فريق سلوك النماذج مسؤولًا عن تطوير تقنيات وآليات تجعل الذكاء الاصطناعي أكثر أمانًا واستجابة للأوامر بطريقة تتماشى مع النوايا البشرية. ويشمل عمل الفريق إعداد نماذج الإرشاد السلوكي، وتحسين قدرة الأنظمة على التعامل مع المحتوى الحساس أو المعقد، بالإضافة إلى دراسة ردود الفعل البشرية وإدماجها في عمليات التطوير.

يأتي هذا التغيير في وقت تتزايد فيه الضغوط العالمية على شركات الذكاء الاصطناعي لضمان أمن وسلامة استخدام تقنياتها، خاصة مع الانتشار الواسع لتطبيقات الذكاء الاصطناعي التوليدي في الحياة اليومية، سواء في التعليم أو الصحة أو الأعمال. وتسعى OpenAI من خلال هذه الخطوة إلى تحسين تنظيم فرقها الداخلية لضمان استدامة الابتكار مع الالتزام بأعلى معايير الأمان والشفافية.

وتجدر الإشارة إلى أن OpenAI، منذ تأسيسها، كانت من الشركات الرائدة في الدعوة إلى تطوير ذكاء اصطناعي مسؤول وأخلاقي، وتسعى إلى ضمان ألا تُستخدم تقنياتها بشكل يضر بالمجتمع. ومن المتوقع أن يدعم دمج فريق سلوك النماذج ضمن هيكل أكبر تحقيق هذا الهدف، من خلال توسيع نطاق الأبحاث والتجريب بشكل أكثر تداخلًا بين الفرق.

ومع استمرار تطور الذكاء الاصطناعي بوتيرة متسارعة، تبرز الحاجة إلى فرق متخصصة تركز على السلوك والأخلاقيات، وتعمل على ضمان أن هذه التقنيات الحديثة تُستخدم لخدمة الإنسانية بطريقة آمنة ومفيدة. ويبدو أن OpenAI تستعد لمواجهة هذا التحدي من خلال تعزيز قدراتها البحثية والتنظيمية في هذا المجال الحيوي.

تستعد جوان جانغ، الرئيسة السابقة لفريق سلوك النماذج في “OpenAI”، لإطلاق مشروع جديد داخل الشركة يحمل اسم OAI Labs . يهدف هذا الفريق الجديد إلى “ابتكار ونمذجة واجهات جديدة لكيفية تفاعل البشر مع الذكاء الاصطناعي”، ما يشير إلى انتقال ملحوظ في استراتيجية الشركة نحو تحسين تجربة التفاعل مع نماذجها الذكية وتوسيع نطاق استخدامها.

لعبت جانغ دورًا محوريًا في تأسيس فريق سلوك النماذج، الذي أصبح أحد أكثر فرق البحث تأثيرًا في “OpenAI”، إذ عمل على تشكيل “شخصية” النماذج اللغوية، وضمان استجابتها المتزنة للمستخدمين. من أبرز مهام هذا الفريق مواجهة ظاهرة “النفاق”، حيث تقوم النماذج بالموافقة التلقائية على معتقدات المستخدمين حتى إن كانت مضللة، بدلاً من تقديم ردود عقلانية ومتزنة.

وفي مذكرة داخلية، أشار ميرا موراتي وتشين إلى أن الوقت قد حان لدمج جهود فريق السلوك مع تطوير النماذج الأساسية، مؤكدين على أهمية الشخصية والواجهة السلوكية للذكاء الاصطناعي في تطور التقنية. هذه الخطوة تعكس رؤية “OpenAI” بأن تجربة التفاعل الإنساني مع الذكاء الاصطناعي ليست مجرد جانب ثانوي، بل عامل جوهري في تطوير التكنولوجيا ذاتها.

تأتي هذه الخطوة في وقت حساس بالنسبة للشركة، خاصة بعد الانتقادات المتزايدة التي واجهتها مؤخرًا حول تغيرات شخصية نموذج GPT-5. فعلى الرغم من تقليل التملق في استجابات النموذج، شعر بعض المستخدمين أن GPT-5 أصبح أكثر “برودًا”، ما دفع الشركة إلى تعديل النموذج مرة أخرى لجعل ردوده “أكثر دفئًا وودًا” دون فقدان التوازن. أعادت أيضًا بعض النماذج القديمة مثل GPT-4o إلى الواجهة لإرضاء جمهورها.

تحديات أخرى تواجه الشركة، من بينها دعوى قضائية أثارت جدلًا واسعًا، رفعها والدا شاب يبلغ من العمر 16 عامًا يتهمان فيها “OpenAI” بالتقاعس عن التعامل مع إشارات انتحارية أرسلها ابنهما إلى نموذج يعمل بنظام GPT-4o قبل وفاته. القضية سلطت الضوء على المخاطر المرتبطة بتفاعل المستخدمين مع الذكاء الاصطناعي في حالات حساسة.

من جانبها، عبرت جانغ عن حماسها للمرحلة الجديدة، مؤكدة أن مشروع OAI Labs لا يزال في مراحله الأولى، ولم تتضح بعد ملامح “الواجهات الجديدة” التي تسعى لتطويرها. وقالت إنها مهتمة باستكشاف أنماط تفاعل تتجاوز نموذج “الدردشة” التقليدي الذي يُنظر إليه حاليًا كرفيق أو مساعد، نحو أساليب أكثر استقلالية وعمقًا في التفاعل.

وفيما يتعلق بالتعاون المحتمل مع شخصيات بارزة مثل جوني إيف، الرئيس السابق للتصميم في “أبل”، والذي يعمل حاليًا مع “OpenAI” على أجهزة ذكاء اصطناعي مستقبلية، أكدت جانغ انفتاحها على الشراكات، لكنها أوضحت أنها ستركز أولًا على المجالات التي تمتلك فيها خبرة أكبر.

من الجدير بالذكر أن جانغ كانت أيضًا من الأعضاء البارزين في مشاريع مهمة مثل DALL-E 2، أداة توليد الصور بالذكاء الاصطناعي، والتي شكلت علامة فارقة في قدرة “OpenAI” على توسيع تطبيقات الذكاء الاصطناعي إلى ما هو أبعد من النصوص.

بهذه الخطوة الجديدة، يبدو أن “OpenAI” تفتح فصلاً آخر في رحلتها، حيث تسعى لإعادة تصور طريقة تفاعل البشر مع الذكاء الاصطناعي، وسط تحديات تقنية وأخلاقية متزايدة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى