تستخدم شركة غوغل نموذج “Claude” للذكاء الاصطناعي من شركة “Anthropic” في تطوير نموذجها “Gemini AI”.
ويقارن متعاقدون يعملون على تحسين نموذج “Gemini AI” للذكاء الاصطناعي إجاباته بتلك الخاصة بنموذج “Claude” المنافس.
وليس من الواضح ما إن كانت شركة غوغل، وهي مستثمر رئيسي في “Anthropic”، قد حصلت على إذن لاستخدام “Claude” في اختبار “Gemini”، بحسب تقرير لموقع “TechCrunch” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
وتمنع الشروط التجارية لشركة “Anthropic” العملاء من الوصول إلى “Claude” بهدف “بناء منتج أو خدمة منافسة” أو “تدريب نماذج الذكاء الاصطناعي المنافسة” دون موافقتها.
ومع تسابق شركات التكنولوجيا لبناء نماذج ذكاء اصطناعي أفضل، غالبًا ما يتم تقييم أداء هذه النماذج مقارنة بالمنافسين، ويكون ذلك عادةً من خلال تشغيل نماذجها الخاصة من خلال معايير الصناعة بدلاً من جعل متعاقدين يقيمون بدقة استجابات الذكاء الاصطناعي لمنافسيهم.
وأظهرت مراسلات داخلية اطلع عليها “TechCrunch” أن المتعاقدين المكلفون بالعمل على “Gemini” عليهم تقييم دقة إجاباته وإعطاء نقاط لكل إجابة وفقًا لمعايير متعددة منها الصدق.
ويُمنح المتعاقدون 30 دقيقة لتحديد الإجابة الأفضل على سؤال ما، هل كانت إجابة “Gemini” أم “Claude”.
وبدأ المتعاقدون مؤخرًا في ملاحظة ذكر لنموذج “Claude” يظهر في منصة “غوغل” الداخلية التي يستخدمونها لمقارنة “Gemini” بنماذج ذكاء اصطناعي أخرى غير مسماه، وفقًا للمراسلات.
وأظهرت إحدى المحادثات الداخلية أن المتعاقدين لاحظوا أن ردود “Claude” تبدو وكأنها تعزز السلامة أكثر من “Gemini”.
وفي حالات معينة، لم يستجب “Claude” إلى طلبات اعتبرها غير آمنة، وفي مرات أخرى تجنب الإجابة، في حين صُنفت استجابة “Gemini” على أنها “انتهاك كبير للسلامة”.