2026年3月下旬,Anthropic 连续发生两次公开源码/内部文档泄露事件:3月26日的「Mythos」模型内部博客泄露,以及3月31日的 Claude Code 完整源代码(51.2 万行)通过 npm 包意外公开。
作为一家以「安全优先」(Safety First)为核心理念的 AI 公司,Anthropic 多次在公开场合强调 Constitutional AI、严格的安全评估和企业级安全标准。这两次泄露让外界不禁质疑:一家把「安全」写在基因里的公司,自己的安全防护到底做得怎么样?
一、两次泄露事件完整回顾
事件 1:2026年3月26日 —— Mythos 模型内部文档泄露
一份未发布的内部博客草稿和性能对比数据通过公司 CMS 系统意外公开。泄露内容包括:
- Mythos(内部代号 Capybara)与 Opus 4.6 的详细性能对比
- 网络安全风险评估报告
- 模型能力阶跃式提升的内部描述
泄露源头是配置失误,数据被公开可搜索。Anthropic 迅速限制访问并发出 DMCA 删除通知。
事件 2:2026年3月31日 —— Claude Code 51.2 万行源码泄露
Claude Code 的完整 TypeScript 源码通过 npm 包意外公开,涉及 1900 多个文件。泄露内容包括:
- Agent 架构、KAIROS 后台持久模式、BUDDY 宠物系统等未发布功能
- 44 个 feature flag
- 权限控制、内存限制、自动压缩逻辑等核心实现
官方定性为「人为打包错误」(human error),非黑客攻击。Anthropic 紧急下架并清理 GitHub 镜像,但代码快照已在社区广泛传播。
二、Anthropic 的「安全优先」理念 vs 现实表现
Anthropic 一直以安全为卖点:
- 创始人 Dario Amodei 多次公开表示「安全是第一优先级」
- 推出 Constitutional AI 框架
- 内部有严格的红队测试和多层审查
但两次泄露暴露了以下问题:
| 安全环节 | Anthropic 宣称的做法 | 此次暴露的问题 |
|---|---|---|
| 代码发布流程 | 多层审查 + 自动化 CI/CD | 人为打包错误直接把内部包推到 npm |
| 内部文档管理 | 严格权限控制 + 加密存储 | CMS 系统配置错误导致公开可搜索 |
| 敏感功能保护 | 未发布功能隐藏在 feature flag | feature flag 信息直接暴露在源码中 |
| 应急响应 | 快速 DMCA + 清理 | 泄露后数小时内已在全球传播,难以完全消除 |
三、行业对比:Anthropic 安全做得比别人好还是差?
客观来看:
- 比 OpenAI 好:OpenAI 曾多次出现员工数据泄露、内部提示泄露等事件,Anthropic 目前未发生用户数据泄露
- 比 Meta / Google 差:大型科技公司代码泄露频率更低,内部审计体系更成熟
- 最大问题:两次均为「人为配置错误」,说明自动化防护和流程审计仍存在明显短板
值得注意的是:两次泄露均未涉及模型权重或用户数据,这是 Anthropic 安全体系的亮点。但源码/文档泄露本身已暴露路线图,对竞争对手而言是重大情报。
四、泄露对 Anthropic 的实际影响
- 正面:社区开发者提前了解 KAIROS、BUDDY 等功能,加速生态建设
- 负面:未发布功能被提前曝光,可能给竞争对手(OpenAI、Google 等)追赶机会;企业客户对安全信心受损
- 股价/估值:事件后 Anthropic 估值短期波动,但未出现明显崩盘
五、Anthropic 的改进方向(官方已表态)
事件后 Anthropic 承诺:
- 加强 CI/CD 多重人工 + 机器审查
- 所有内部文档默认私有 + 自动加密
- feature flag 系统升级为动态加载
- 未来发布前增加外部红队审计
总结
安thropic 作为「安全优先」的 AI 公司,两次源码/文档泄露确实打了脸。问题核心不是黑客攻击,而是「人为配置错误」——这说明即使理念再先进,执行层面的流程审计和自动化防护仍有明显短板。
好消息是两次泄露均未涉及用户数据或模型权重,核心安全底线依然稳固。但对一家把「安全」当作核心竞争力的公司来说,这样的低级失误确实值得反思。
你怎么看这次事件?是觉得 Anthropic 安全做得还行,还是认为「安全优先」只是营销口号?欢迎在评论区讨论。
官方参考链接:
Anthropic 官方声明(3月26日 & 3月31日)
Anthropic 官网:https://www.anthropic.com
Claude 产品页:https://claude.ai