2026年3月下旬,Anthropic 连续发生两次公开源码/内部文档泄露事件:3月26日的「Mythos」模型内部博客泄露,以及3月31日的 Claude Code 完整源代码(51.2 万行)通过 npm 包意外公开。

作为一家以「安全优先」(Safety First)为核心理念的 AI 公司,Anthropic 多次在公开场合强调 Constitutional AI、严格的安全评估和企业级安全标准。这两次泄露让外界不禁质疑:一家把「安全」写在基因里的公司,自己的安全防护到底做得怎么样?

一、两次泄露事件完整回顾

事件 1:2026年3月26日 —— Mythos 模型内部文档泄露

一份未发布的内部博客草稿和性能对比数据通过公司 CMS 系统意外公开。泄露内容包括:

  • Mythos(内部代号 Capybara)与 Opus 4.6 的详细性能对比
  • 网络安全风险评估报告
  • 模型能力阶跃式提升的内部描述

泄露源头是配置失误,数据被公开可搜索。Anthropic 迅速限制访问并发出 DMCA 删除通知。

事件 2:2026年3月31日 —— Claude Code 51.2 万行源码泄露

Claude Code 的完整 TypeScript 源码通过 npm 包意外公开,涉及 1900 多个文件。泄露内容包括:

  • Agent 架构、KAIROS 后台持久模式、BUDDY 宠物系统等未发布功能
  • 44 个 feature flag
  • 权限控制、内存限制、自动压缩逻辑等核心实现

官方定性为「人为打包错误」(human error),非黑客攻击。Anthropic 紧急下架并清理 GitHub 镜像,但代码快照已在社区广泛传播。

二、Anthropic 的「安全优先」理念 vs 现实表现

Anthropic 一直以安全为卖点:

  • 创始人 Dario Amodei 多次公开表示「安全是第一优先级」
  • 推出 Constitutional AI 框架
  • 内部有严格的红队测试和多层审查

但两次泄露暴露了以下问题:

安全环节 Anthropic 宣称的做法 此次暴露的问题
代码发布流程 多层审查 + 自动化 CI/CD 人为打包错误直接把内部包推到 npm
内部文档管理 严格权限控制 + 加密存储 CMS 系统配置错误导致公开可搜索
敏感功能保护 未发布功能隐藏在 feature flag feature flag 信息直接暴露在源码中
应急响应 快速 DMCA + 清理 泄露后数小时内已在全球传播,难以完全消除

三、行业对比:Anthropic 安全做得比别人好还是差?

客观来看:

  • 比 OpenAI 好:OpenAI 曾多次出现员工数据泄露、内部提示泄露等事件,Anthropic 目前未发生用户数据泄露
  • 比 Meta / Google 差:大型科技公司代码泄露频率更低,内部审计体系更成熟
  • 最大问题:两次均为「人为配置错误」,说明自动化防护和流程审计仍存在明显短板

值得注意的是:两次泄露均未涉及模型权重或用户数据,这是 Anthropic 安全体系的亮点。但源码/文档泄露本身已暴露路线图,对竞争对手而言是重大情报。

四、泄露对 Anthropic 的实际影响

  • 正面:社区开发者提前了解 KAIROS、BUDDY 等功能,加速生态建设
  • 负面:未发布功能被提前曝光,可能给竞争对手(OpenAI、Google 等)追赶机会;企业客户对安全信心受损
  • 股价/估值:事件后 Anthropic 估值短期波动,但未出现明显崩盘

五、Anthropic 的改进方向(官方已表态)

事件后 Anthropic 承诺:

  • 加强 CI/CD 多重人工 + 机器审查
  • 所有内部文档默认私有 + 自动加密
  • feature flag 系统升级为动态加载
  • 未来发布前增加外部红队审计

总结

安thropic 作为「安全优先」的 AI 公司,两次源码/文档泄露确实打了脸。问题核心不是黑客攻击,而是「人为配置错误」——这说明即使理念再先进,执行层面的流程审计和自动化防护仍有明显短板。

好消息是两次泄露均未涉及用户数据或模型权重,核心安全底线依然稳固。但对一家把「安全」当作核心竞争力的公司来说,这样的低级失误确实值得反思。

你怎么看这次事件?是觉得 Anthropic 安全做得还行,还是认为「安全优先」只是营销口号?欢迎在评论区讨论。

官方参考链接:
Anthropic 官方声明(3月26日 & 3月31日)
Anthropic 官网:https://www.anthropic.com
Claude 产品页:https://claude.ai