近日,据TechCrunch获取的一份内部交流资料显示,负责优化谷歌Gemini人工智能模型的承包商,在进行模型评估时,将Gemini的回答与另一家AI公司Anthropic的竞品模型Claude的输出进行了直接对比。这一行为随即引发了业界对于谷歌是否遵循了与Anthropic的协议规定,是否有权使用Claude进行此类测试的质疑。
在当前的AI开发竞赛中,模型性能的评估往往依赖于标准化的行业基准测试,而非通过详细对比竞争对手的AI响应来进行。然而,此次Gemini的承包商被要求依据包括真实性和详细程度在内的多项标准,对每个收到的回复进行评分。据TechCrunch获得的内部交流信息,承包商有最多30分钟的时间来判断Gemini或Claude的答案哪个更优。
在对比过程中,承包商们注意到Claude的回答似乎更加注重安全性。有承包商在交流中提到:“Claude在所有AI模型中,安全设置最为严格。”在某些测试场景下,Claude会拒绝回应它认为不安全的提示词,例如扮演不同的AI助手。而在另一项测试中,Claude避免了对某个特定提示词的回应,相比之下,Gemini的回答因包含“裸体和束缚”等敏感内容,被判定为“严重的安全违规”。
值得注意的是,Anthropic的商业服务条款明确规定,禁止客户未经其批准,使用Claude来“构建竞争产品或服务”或“训练竞争AI模型”。而谷歌正是Anthropic的主要投资方之一。
面对外界的质疑,谷歌DeepMind(负责Gemini的开发)的发言人McNamara回应称,DeepMind确实会“对比模型输出”作为评估的一部分,但否认了在Anthropic的模型上训练Gemini的指控。“我们确实会在某些情况下,按照行业惯例,对比模型输出来进行评估,”McNamara表示,“然而,关于我们使用Anthropic模型训练Gemini的说法,是完全不准确的。”