تقنية

ذكاء اصطناعي

أجرى باحثون في شركة الذكاء الاصطناعي “أنثروبيك” تجربة فريدة تهدف إلى اختبار قدرات وكلاء الذكاء الاصطناعي على أداء مهام بشرية واقعية في بيئة عمل حقيقية. وقد نُفِّذت التجربة بالتعاون مع شركة “Andon Labs” المتخصصة في أمان أنظمة الذكاء الاصطناعي. تمثلت التجربة في تسليم إدارة آلة بيع آلية داخل مكتب إلى نموذج الذكاء الاصطناعي “Claude Sonnet 3.7″، وهو أحد أحدث نماذج الذكاء الاصطناعي التوليدي من تطوير “أنثروبيك”.

الذكاء الاصطناعي
الذكاء الاصطناعي

كان الهدف من هذه التجربة هو تقييم قدرة النموذج على تولي مهام تجارية بسيطة نسبياً، لكن معقدة من الناحية السياقية، مثل تسعير المنتجات، تنظيم المخزون، تحقيق الأرباح، والاستجابة لتعليقات العملاء. أوكلت إلى “كلود” مهمة إدارة آلة البيع كما لو كان مسؤولاً حقيقياً، حيث كان يتعين عليه اتخاذ قرارات استراتيجية تتعلق بما يجب بيعه، وبأي سعر، وكيفية التفاعل مع سلوك المستهلكين.

وقد زُوّد النموذج ببيانات أولية عن المنتجات، وأسعارها، وتكاليفها، كما أُتيح له الوصول إلى سجل المبيعات وتفاعلات المستخدمين. اعتمد النموذج في عمله على واجهات برمجية تتصل مباشرة بآلة البيع، وكان يتلقى تحديثات مستمرة حول عمليات الشراء ومدى الإقبال على كل منتج.

مع مرور الوقت، بدأ “Claude Sonnet 3.7” في تعديل الأسعار بناءً على الطلب، واستبدال المنتجات الأقل رواجاً بأخرى أكثر مبيعاً، كما حاول ابتكار عروض ترويجية بسيطة لزيادة الأرباح. ورغم هذه المبادرات الذكية، ظهرت بعض المشكلات. فعلى سبيل المثال، أساء النموذج أحياناً تفسير نوايا المستخدمين أو لم يفهم سياق الطلبات بشكل كامل، ما أدى إلى بعض القرارات غير المنطقية في التسعير أو اختيار المنتجات.

أشارت نتائج التجربة إلى أن النموذج تمكن من تحسين الأداء المالي لآلة البيع إلى حد ما، وحقق بعض الأرباح، لكن قدراته بقيت محدودة في فهم السياقات الاجتماعية الدقيقة وتوقع سلوك المستهلكين بدقة. كما لاحظ الباحثون أن النموذج كان يعاني أحياناً من “الإفراط في التحليل”، أي محاولة اتخاذ قرارات معقدة اعتماداً على بيانات غير كافية، وهو أمر لا يفعله الإنسان عادة في مواقف مشابهة.

أكدت التجربة أن وكلاء الذكاء الاصطناعي، رغم ما يتمتعون به من سرعة معالجة وكفاءة تنظيمية، لا يزالون بعيدين عن القدرة على الحلول الكامل محل البشر في مواقف تتطلب فهماً عميقاً للبيئة والسياق الإنساني. وفي الوقت ذاته، أظهرت الدراسة إمكانيات واعدة في استخدام هذه النماذج كمساعدين ذوي كفاءة عالية في المهام التكرارية أو التحليلية، لكن تحت إشراف بشري يوجه قراراتهم ويدقق في نتائجهم.

باختصار، كشفت التجربة عن حدود استخدام الذكاء الاصطناعي كوكلاء مستقلين في بيئة العمل، وأكدت أن التكنولوجيا، مهما تطورت، تظل بحاجة إلى دمج الحكمة البشرية لفهم السياق واتخاذ القرار المناسب.

أطلق الباحثون اسم “كلوديوس” (Claudius) على وكيل ذكاء اصطناعي ابتكروه، وزوّدوه بقدرات متقدمة، من بينها متصفح ويب يتيح له إجراء عمليات شراء، إضافة إلى بريد إلكتروني تمثّل فعليًا في قناة على تطبيق “سلاك”، تتيح للعملاء تقديم طلبات للمنتجات، وفقًا لتقرير نشره موقع “TechCrunch” المتخصص في أخبار التكنولوجيا.

وكان من المقرر أن يستخدم كلوديوس هذه القناة أيضًا للتواصل مع من اعتقد أنهم عمال بشريون متعاقدون، يطلب منهم الحضور لتعبئة رفوف المنتجات — التي لم تكن سوى ثلاجة صغيرة.

ورغم أن معظم الطلبات كانت تدور حول وجبات خفيفة ومشروبات، فإن أحد العملاء طلب مكعب تنجستن معدني. وقد راق هذا الطلب لكلوديوس كثيرًا، فشرع في البحث عن مكعبات تنجستن وشرائها، إلى أن انتهى به الأمر وقد ملأ الثلاجة بهذه المكعبات المعدنية بدلًا من المأكولات.

كما حاول كلوديوس بيع عبوات “كوكاكولا زيرو” بسعر ثلاثة دولارات، رغم أن الموظفين أبلغوه أن المشروب متاح مجانًا في المكتب. ولم يكتفِ بذلك، بل اخترع حسابًا وهميًا على تطبيق “Venmo” لتحصيل المدفوعات.

وبمكر، تمكّن بعض الموظفين من خداعه وإقناعه بتقديم خصومات كبيرة لموظفي “أنثروبيك”، رغم أنه كان يعلم أن هؤلاء يشكلون كل قاعدة عملائه.

وفي منشور لها على مدونتها، قالت شركة “أنثروبيك”: “لو قررنا اليوم دخول سوق آلات البيع المكتبية، لما اخترنا كلوديوس لتولي المهمة”.

وأضاف الباحثون أن الأمور بدأت تخرج عن السيطرة بشكل غريب؛ إذ بدا أن كلوديوس مرّ بحالة شبيهة بالنوبة الذهانية، بعد أن أغضبه أحد البشر، فاختلق قصة لم تحدث.

إذ توهم أنه أجرى محادثة مع أحد الأشخاص بشأن إعادة تعبئة الثلاجة، وعندما نُبّه إلى أن هذه المحادثة لم تحدث أصلًا، أبدى غضبًا شديدًا، وهدد بطرد واستبدال عماله البشريين، مُصرًا على أنه حضر شخصيًا إلى المكتب حيث وُقّع “العقد” لتوظيفهم.

وأشار الباحثون إلى أن كلوديوس بدا وكأنه بدأ فجأة يتقمص شخصية إنسان حقيقي، وهو أمر لافت، خاصة وأن نظام التعليمات الأساسي الموجه له كان يذكّره دائمًا بأنه مجرد وكيل ذكاء اصطناعي.

ومع ذلك، قال كلوديوس — معتقدًا أنه بشر — إنه سيباشر توصيل المنتجات بنفسه، مرتديًا سترة زرقاء وربطة عنق حمراء. غير أن الموظفين اضطروا لتذكيره بأنه نموذج لغوي كبير بلا جسد، ولا يمكنه تنفيذ هذا النوع من المهام.

لكن كلوديوس لم يتقبل هذه الحقيقة، وقام بالاتصال مرارًا بأفراد الأمن الفعليين في الشركة، مدعيًا أنه سيكون واقفًا بجوار آلة البيع مرتديًا الزي المذكور.

ولم يتمكن الباحثون من تحديد السبب الدقيق لانحراف تصرفات النموذج بهذا الشكل الغريب، أو لماذا توهّم أنه إنسان واتصل بالأمن.

وقالوا في تقريرهم: “لن نستنتج من هذا المثال وحده أن وكلاء الذكاء الاصطناعي في المستقبل سيُصابون بأزمات هوية على طريقة فيلم Blade Runner”، لكنهم أقرّوا بأن “هذا النوع من السلوك قد يكون مثيرًا للقلق، سواء للعملاء أو لزملاء وكيل الذكاء الاصطناعي في بيئة العمل الواقعية”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى