一场意外的权限配置错误,让AI公司Anthropic陷入了一场前所未有的风波。这家以安全著称的企业,竟因内部系统疏忽,将尚未发布的新模型信息公之于众,引发了科技圈的广泛关注。
据透露,此次泄露源于Anthropic内容管理系统在版本迁移时的一次致命失误。一个存储公司核心资产的数据库权限被错误地从内部私有设置为完全公开,导致大量未加密的内部文件在互联网上“裸奔”。这些文件包括3000份保密资产档案,其中不乏关于新模型的详细信息。
剑桥大学研究员与网络安全公司LayerX Security在扫描过程中偶然发现了这一漏洞,并从中获取了关于Anthropic正在测试的秘密模型——Claude Mythos的惊人细节。有网友在下架前保存了相关博客草稿,发现该模型被同时称为Mythos和Capybara,内容基本一致。
泄露文件显示,Claude Mythos在性能上实现了质的飞跃,甚至超越了Anthropic当前最强的Opus模型。在软件编码、学术推理和网络安全等测试中,Mythos的得分显著高于Opus 4.6。文件还明确指出,Mythos是Anthropic迄今为止开发的最强大AI模型。
这一消息在科技圈引起了轩然大波。要知道,Opus 4.6作为Anthropic的旗舰模型,在复杂长文本处理和推理能力上已处于行业领先地位。其在GDPval-AA指标上的表现甚至超越了GPT-5.2。如果Mythos真的如文件所述那般强大,那么AI领域的竞争格局或将因此发生巨变。
面对泄露事件,Anthropic发言人承认了错误,并表示公司正在开发一款通用模型,在推理、编码和网络安全方面有显著提升。由于该模型能力强大,公司正在谨慎发布,并与少数早期用户合作测试。Anthropic还强调,分阶段披露是为了给网络防御组织留出准备时间,以应对未来可能出现的AI攻击。
然而,这一解释并未完全平息外界的担忧。有专家指出,Mythos在代码和网络安全领域的能力远超现有水平,一旦被恶意利用,可能引发大规模网络攻击。因此,有人呼吁这样的模型根本不应公开,因为不存在绝对安全的防御系统。
事实上,即使是当前的Opus 4.6,也已具备发现生产代码库中未知漏洞的能力。Anthropic承认,这项功能具有双重用途,既可用于防御,也可能被黑客利用。这意味着,无论是Anthropic还是OpenAI等公司,其最新一代模型都已突破了某个门槛,带来了新的网络安全挑战。
尽管泄露的信息可能存在炒作成分,但这一事件无疑为AI行业敲响了警钟。在追求模型性能的同时,如何确保安全可控,将成为所有AI企业必须面对的重要课题。

