تقنية

غوغل

تستخدم شركة غوغل نموذج “Claude” التابع لشركة “Anthropic” في تطوير نموذجها “Gemini AI”، حيث يقوم المتعاقدون الذين يعملون على تحسين “Gemini AI” بمقارنة إجاباته مع تلك التي يقدمها النموذج المنافس “Claude”.

ليس من الواضح ما إذا كانت شركة “غوغل”، التي تُعد مستثمرًا رئيسيًا في “Anthropic”، قد حصلت على إذن لاستخدام نموذج “Claude” في اختبار “Gemini”، وفقًا لتقرير نشره موقع “TechCrunch” المتخصص في أخبار التكنولوجيا

تمنع الشروط التجارية لشركة “Anthropic” عملاءها

من استخدام “Claude” بهدف “تطوير منتج أو خدمة منافسة” أو “تدريب نماذج ذكاء اصطناعي تنافسية” دون الحصول على موافقتها المسبقة.

وفي ظل التنافس الشديد بين شركات التكنولوجيا لبناء نماذج ذكاء اصطناعي أكثر تطورًا، يتم تقييم أداء هذه النماذج عادةً مقارنة بنماذج المنافسين، حيث يتم ذلك عبر اختبارها وفقًا لمعايير الصناعة بدلاً من أن يتولى المتعاقدون عملية تقييم استجابات الذكاء الاصطناعي للمنافسين.

وأظهرت مراسلات داخلية اطلع عليها “TechCrunch” أن المتعاقدين المسؤولين عن العمل على “Gemini” يتعين عليهم تقييم دقة إجابات النموذج ومنح درجات لكل إجابة وفقًا لمعايير متعددة، مثل الدقة.

ويُمنح المتعاقدون 30 دقيقة لتحديد الإجابة الأفضل على سؤال معين: هل كانت إجابة “Gemini” أم “Claude”؟

في الآونة الأخيرة، لاحظ المتعاقدون ذكرًا لنموذج “Claude” في منصة “غوغل” الداخلية التي يستخدمونها لمقارنة “Gemini” بنماذج ذكاء اصطناعي أخرى غير مسماة، وذلك وفقًا للمراسلات.

كما أظهرت إحدى المحادثات الداخلية أن المتعاقدين لاحظوا أن ردود “Claude” تميل إلى تعزيز السلامة أكثر من “Gemini”. ففي بعض الحالات، لم يستجب “Claude” لطلبات اعتبرها غير آمنة، وفي حالات أخرى تجنب الإجابة، بينما تم تصنيف استجابة “Gemini” على أنها “انتهاك كبير للسلامة”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى