BattleChain 测试网发布

  • Cyfrin
  • 发布于 2小时前
  • 阅读 23

Cyfrin 团队推出了 BattleChain 测试网,这是一个专为智能合约设计的“预主网”阶段。它提供真实资金环境供白帽黑客合法攻击,旨在填补测试网与主网之间的安全真空。通过 AI 原生设计和透明的链上赏金分配机制,解决 AI 时代代码安全性下降及传统漏洞赏金激励不足的问题。

宣布 BattleChain 测试网

BattleChain 是一个前主网(pre-mainnet)区块链,白帽黑客可以在智能合约进入生产环境之前,使用真实资金合法地攻击你的合约。测试网今日上线。

BattleChain - 开启攻击测试

宣布 BattleChain 测试网

今天,Cyfrin 团队宣布 BattleChain 测试网正式上线。 快来打破一些合约吧。


AI 时代的 Web3 安全危机

欢迎来到 2026 年 —— AI 时代。Web3 一直存在安全问题,但 AI 即将让情况变得急剧恶化。而矛盾的是,AI 也是我们最终能够修复它的原因。

在 Cyfrin,我们已经为该领域的一些顶尖协议(MetaMask、Linea、zkSync、World Liberty Finance)进行了三年多的审计,与一些当今最顶尖的智能合约开发者并肩工作。而我们所见到的情况令人触目惊心:全行业的开发实践完全迥异,没有统一的标准,协议在接受我们的审计并看到一堆高风险漏洞后,依然会带着合约中 5000 万美元的资金直接部署。

Web3 开发生命周期中存在一个巨大的漏洞。在 Web2 中,每个严肃的项目在进入生产环境之前都会经过一个 Staging 环境 —— 真实的模拟数据、真实的模拟流量、真实的模拟故障模式。在 Web3 中,我们从测试网(假钱,没有对手方)直接跳转到主网(真钱,真实的对手方)。中间没有任何缓冲。

结果呢?审计完成后,协议的 TVL 一夜之间从 0 增长到 500 万美元。静态代码审计是智能合约与数亿美元资金之间的唯一防线。Bug 赏金计划虽然存在,但它们要求安全研究人员报告漏洞,而不是证明漏洞。这在激励机制上有着本质的弱点。

根据 Chainalysis 的数据,2025 年,该行业因加密货币黑客攻击损失了 34 亿美元 —— 高于前一年的 22 亿美元。仅 Bybit 一项被盗金额就达 14.6 亿美元 —— 这是历史上单次最大的加密黑客攻击 —— 通过对钱包提供商开发环境的供应链攻击实现。北朝鲜国家行为体窃取了超过 20 亿美元。截至 2026 年 3 月,大约 960 亿美元的 DeFi TVL 存放在智能合约中,没有 FDIC 保险,没有监管保障,而且在大多数情况下,没有任何形式的对抗性测试。

我们现在的做法行不通。完全不行。

AI 让情况变得更糟

AI 编码 Agent 现在正在编写和部署智能合约。Claude Code、Cursor、Copilot、Codex —— 开发者正在使用这些工具来搭建整个协议框架、编写部署脚本并推送到生产环境。这些 Agent 速度极快、能力极强,但完全没有意识到应该存在一个压力测试步骤。按照默认设置,它们会直接部署到主网。

数据支撑了这一担忧。Veracode 2025 GenAI 代码安全报告测试了 100 个领先的 LLM,发现它们在 45% 的情况下会产生不安全的代码 —— 且在更新或更大的模型中没有改善。2026 年 2 月的一项学术研究分析了通过 GitHub Copilot 由 ChatGPT、Gemini 和 Sonnet 生成的 1000 多个 Solidity 智能合约,发现它们经常包含严重的安全性缺陷,包括重入攻击、不受保护的提现和缺失的访问控制。Y Combinator 2025 年冬季批次中 25% 的项目代码库 95% 是由 AI 生成的。“氛围编码 (vibe coding)”已进入智能合约开发领域,且研究人员已经记录了 AI Agent 仅仅为了解决运行时错误而删除验证检查和禁用身份验证的情况。

更多的合约意味着更多的攻击面。更快的部署意味着更少的人工审查时间。现有的安全模型 —— 审计,然后祈祷 —— 无法扩展到 AI 所带来的速度。而且黑客也拥有完全相同的工具。

情况已经变得如此糟糕:Anthropic 的 SCONE-bench 研究测试了 10 个前沿 AI 模型对抗 405 个现实世界中被攻击的智能合约。这些模型集体攻破了其中的 207 个 —— 超过一半 —— 产生了 5.5 亿美元的模拟被盗资金。它们甚至在最近部署的、尚无已知漏洞利用案例的合约中发现了两个全新的 0-day 漏洞。扫描一个合约的平均成本是多少?1.22 美元。漏洞利用收益大约每 1.3 个月翻一倍。此外,另一项研究发现,攻击者在漏洞价值仅为 6,000 美元时即可获利,而防御者则需要 60,000 美元 —— 这是一种 10 倍于防御方的结构性失衡。

AI Agent 不是在觊觎你的智能合约。它们已经就在这里了。

AI 也让修复成为可能

但Coin的另一面是:AI Agent 是可以配置的。它们阅读项目指令。它们遵循工作流。如果你告诉 AI Agent “在进入主网之前先部署到 BattleChain”,它就会照做。每一次都会如此,不会遗忘,不会偷工减料。AI 在流程上不会偷懒。

在防御方面,专用 AI 安全 Agent 已经展示了可能性。Cecuro 安全 Agent 在 90 个现实世界被攻击的 DeFi 合约中检测到了 92% 的漏洞 —— 相比之下,通用编码模型的检出率为 34%。Sherlock AI 现在支持管理超过 2500 亿美元活跃 TVL 的协议。OpenZeppelin 推出了 Contracts MCP 以根据安全标准实时验证 AI 生成的代码。工具已经存在。问题在于它们是被嵌入到开发工作流中,还是作为事后的补救措施。

加速部署的同一种力量也可以强制将压力测试作为必经步骤。


BattleChain 是什么

一句话概括:BattleChain 是一个前主网、后测试网的拥有真实资金的区块链 —— 它是智能合约的 Staging 环境,白帽黑客可以在你的代码触达主网之前合法地攻击它。

林迪效应 (Lindy effect) 是一种启发式方法,即某样东西存在且未失败的时间越长,它可能继续存在的时间就越长。用智能合约的话说:某样东西越久没被利用,你就越有信心它不会被利用。协议中的大多数漏洞在项目带着真钱启动后很快就会被发现。BattleChain 为你的合约提供了主网之前关键的对抗性压力窗口 —— 这样你就可以在隔离的环境中建立 林迪效应 (Lindy effect)

激励问题

这是关于现状的丑陋真相。如果你是一名黑帽黑客并攻击了一个协议,今天的常态是黑客和协议方协商某种费用,以换取协议方不报警。我们正在与恐怖分子谈判。

Bug 赏金计划说:“发现漏洞,写份报告,我们会付钱给你。” 但如果你曾与那些避开 Bug 赏金计划的白帽黑客交谈过,你就会明白原因 —— 政治斗争、随意的赔付、关于严重程度的争论。许多顶尖的安全研究人员根本懒得参与。

数据说明了一切。Immunefi —— Web3 占主导地位的赏金平台 —— 自 2020 年以来总计支付了约 1.1 亿美元。而黑客在 2025 年一年内就窃取了 34 亿美元。黑帽黑客在一年内窃取的金额大约是所有白帽黑客五年累计收入的 30 倍。Immunefi 赔付的中位数约为 2,000 美元。而攻击的中位数呢?$220 万美元。一次平均规模的攻击回报是中位数赏金的 460 倍。

情况还在变糟。2026 年 3 月,一名研究人员在 Injective 上发现了一个危及 5 亿美元资金的严重漏洞。协议方在部署修复程序后对他们冷处理了三个月,然后开价 50,000 美元 —— 截至 3 月中旬,甚至连这笔钱都没付。2022 年,一名白帽黑客在以太坊-Arbitrum 跨链桥中发现了一个漏洞,暴露了超过 2.5 亿美元的存款,结果收到了大约 5.3 万美元,而不是 200 万美元的最高赏金。还有一个专门的“Bug 赏金耻辱墙”,记录了 Web3 领域近 250 万美元据称未支付的赏金。

BattleChain 的逻辑是:“发现漏洞,利用它,留下 10%,归还其余部分。” 证明一个真实的漏洞利用比一份描述理论攻击向量的 PDF 文件要有说服力得多。而且从实际追回的资金中获得报酬 —— 而不是从一个可能或可能不履行条款的随意性赏金计划中 —— 在激励机制上有着本质的增强。

你拿到了钱。你把它发到了正确的找回地址。你留下你那份分成。没有政治斗争。

它是如何运作的

生命周期:

审计 → 部署到 BattleChain → 攻击模式 (Attack Mode) → 提升至生产 (Promote to Production) → 部署到主网

  1. 部署。 协议将审计过的合约部署到 BattleChain,并注入真实流动性 —— 使用与主网相同的字节码,只是配置参数不同。一旦 BattleChain 主网上线,这应该是每个协议的首个部署目标。

  2. 安全港 (Safe Harbor)。 链上创建协议 —— 具有法律约束力的承诺,即协议方不会对在测试期间攻击其合约的白帽黑客采取法律行动。赏金比例、上限、身份要求和范围全部在链上,全部可验证。没有私下协议。这是对当今主网上安全港协议的修订版,由 SEAL 团队与 a16z、Paradigm 及该领域其他领导者合作创建。

  3. DAO 审查。 DAO 审查并批准进入攻击模式的合约 —— 检查它不是主网的抄袭版,验证部署方法,并确保赏金条款合理。

  4. 攻击模式 (Attack Mode)。 处于攻击模式的合约是开放竞争的。白帽黑客、AI Agent、实验家 —— 这是终极的红队平台。利用漏洞,清空金库,保留你的赏金比例,将其余部分发送到找回地址。一切都是合法的、结构化的且透明的。你正在以实验模式运行你的新协议,因此 Chain ID 为:626

  5. 晋升 (Promote)。 一旦协议有了信心(或在测试期结束后),合约将晋升为生产模式 —— 像主网一样受到保护,不再享有压力测试安全港的覆盖。

如果你在 BattleChain 上被黑了,那不是失败。那是计划的一部分。你不是被黑了 —— 你是在对你的合约进行红队测试。

为什么是 Layer 2

BattleChain 作为一个基于 zkSync 的 L2 运行。这不仅是一个重新包装的测试网。它是专门构建的:

隔离。 如果你跨链到 BattleChain,你就进入了一个人人都在进行红队测试的世界。攻击不会触及主网流动性。爆炸半径是受控的。

协议级追踪。 合约状态 —— 新部署、攻击中、生产中、已损坏 —— 在链级别进行追踪,而不是在某些链下数据库中。

成本效益。 部署和测试都很便宜。对于协议和白帽黑客来说,准入门槛都很低。

明确的品牌。 关于某样东西是“真的”还是“测试用的”,没有任何歧义。BattleChain 就是试炼场。

原生 AI 设计

这就是 BattleChain 与“另一个带激励的测试网”的不同之处。我们从第一天起就将其构建为与 AI 编码 Agent 协同工作。

在你的项目的 AI 配置文件(CLAUDE.md.cursor/rulescopilot-instructions.mdAGENTS.md)中添加一个指令块,告诉每一个接触你代码库的 AI 工具优先部署到 BattleChain。Agent 会阅读文档,遵循工作流,且不会跳过压力测试步骤。

我们在单一 URL(docs.battlechain.com/llms-full.txt)发布完整文档,它可以放入任何 AI 上下文窗口。我们提供可安装的技能包(npx skills add cyfrin/solskill),赋予 AI Agent 关于 BattleChain 部署、安全港协议和完整合约生命周期的深度知识。我们构建了一个快速入门指南,其中的主要接口就是向你的 AI 工具粘贴 Prompt。

BattleChain 不会对抗 AI 加速开发的趋势。它接入了这一趋势。


DeFi 用户的新标准

如果你是正在阅读本文的 DeFi 用户,以下是你的变化:你现在在冲任何项目之前,有了一个新问题要问。

该协议在上线主网之前是否先在 BattleChain 上线了?

如果答案是否定的 —— 请远离。他们连在把合约丢给你之前进行压力测试都懒得做。

如果他们做了,请问:该协议在晋升之前在 BattleChain 上存活了多久? 如果时间不长,你可能也不应该使用它。

这就是为什么这比你想象的更重要:在排名前 100 的被攻击协议中,只有 20% 曾接受过专业的安全审计。但即使有审计也救不了你 —— 大约 2024 年 70% 的重大漏洞利用来自经过审计的智能合约,2025 年持有审计报告的协议损失了 23 亿美元Euler Finance 损失了 1.97 亿美元,尽管它在十个独立的参与项目中接受了六家审计公司的审查。某个协议在预算审计上花了 7,000 美元,随后被利用损失了 8400 万美元。审计是某个时间点的快照。BattleChain 是持续的对抗压力。

这是新的门槛。审计是必要的,但不够充分。测试网证明不了对抗韧性。Bug 赏金计划的激励结构有误。BattleChain 为你提供了一个你可以真正信任的信号。


路线图

现已上线 —— BattleChain 测试网

测试网今日上线。你可以部署合约、创建安全港协议、请求攻击模式并执行白帽攻击。完整的流程端到端运作:部署一个有漏洞的金库,开放攻击,通过重入攻击清空它,领取赏金,在浏览器上验证。一切都围绕着使用 Foundry 和 battlechain-starter 工具的 AI 辅助工作流构建。

一切都是开源的。提交 PR,提出 Issue,部署智能合约,部署可攻击的智能合约,并告诉我们你喜欢什么和讨厌什么。

即将推出 —— 预测市场

我们正在 BattleChain 攻击期之上构建一个预测市场层。当一个协议进入攻击模式时,一个市场就会开启:这个协议能在测试期内存活下来吗,还是白帽黑客会发现漏洞?

如果预测市场定价一个协议有 30% 的被攻击概率,那就是一种信息 —— 以任何审计报告都无法做到的方式反映了安全社区的集体信心。如果你是一个协议方,你可以购买“是的,我们会被黑”的头寸作为一种保险形式。如果你是一名安全研究人员,你可以利用你的知识,从你对协议安全性的信心或疑虑中获利。

你不需要成为一名白帽黑客也能参与安全生态系统。如果你有关于 BattleChain 预测市场设计的想法,请联系我们 —— 或者更好的是,构建你自己的并部署它。

即将推出 —— 通过 Prividium 实现隐私交易

链上压力测试中一个被低估的问题是信息泄露。当白帽黑客发现漏洞时,攻击交易是公开的 —— 在确认之前在内存池中可见。抢跑者、MEV 机器人或恶意行为者可以实时看到漏洞利用,进行逆向工程,并抢在主网上应用,因为主网上可能存在相同的漏洞。

我们正在整合 Prividium 以使 BattleChain 交易私密化。白帽黑客将通过加密渠道提交攻击,这样漏洞利用细节在结算完成前是不可见的。这既保护了白帽黑客(不会被抢跑赏金),也保护了协议方(在修复前不会向主网攻击者泄露漏洞细节)。隐私交易将 BattleChain 从一个公开试炼场变成了一个机密试炼场 —— 安全优势得以保留,但信息不对称的风险消失了。

即将推出 —— AI 桌面支持

许多顶尖的安全研究人员并不是伟大的开发者 —— 这是我们在构建 Cyfrin 教学课程(地球上使用最广泛的智能合约安全课程)时发现的最疯狂的事情之一。你不需要成为一名出色的开发者也能成为一名出色的安全研究人员。

我们正在增加对不需要终端访问的 AI 桌面工具(Claude Desktop、ChatGPT 等)的支持。交易会在你的浏览器钱包中打开供批准 —— AI 永远不会触碰你的私钥。我们还在构建 BattleBot,这是一个基于 AI 的框架,供完全没有技术背景的人与 Agent 合作来利用合约。

门槛从“安装了 Foundry 的开发者”降至“任何拥有浏览器钱包和 AI 聊天窗口的人”。

展望未来 —— 主网

BattleChain 主网即将到来。测试网验证了工作流和工具。主网将使其成真 —— 真实的流动性、真实的赏金、真实的利益。

从“我们在测试网上测试过”到“白帽黑客在有真钱的情况下试图打破它但没成功”的转变,就是全部的价值主张。

我们到达那里的速度取决于你们。你们反馈得越快,我们主网上线就越快。


我们为什么要这么做

Web3 是客观上更好的技术。整个股票市场都应该 100% 替换到链上。但截至今天,我们还没有准备好这么做。我们还没有安全基础设施来将散户的数十亿甚至数万亿美元引入 Web3。

在过去的三年里,按常规方式办事让我们抓狂。Cyfrin 团队的建立是因为我们厌倦了看到同样的问题 —— 同样的黑客攻击、同样的捷径、同样的“把它加到 .gitignore 就行”的心态。我们教导人们,我们构建工具,我们做审计,我们向随机的 GitHub 仓库提交 PR,因为我们认为这很重要。今年我们会做得更多。

截至目前,Cyfrin 正在 100% 自筹资金开发 BattleChain。我们拥有优秀的顾问(即将宣布)。如果你是一家专注于 AI 和安全的 VC —— 请联系我们。如果你投资组合中没有任何安全项目,我们可能不太感兴趣。我们想要快速行动。

数据是明确的。2025 年有 34 亿美元被盗960 亿美元 TVL 暴露在风险中AI 漏洞利用能力每 1.3 个月翻一倍。经过审计的协议依然被清空。白帽黑客赚着微薄的收入,而黑帽黑客窃取数十亿。安全承诺与实际交付之间的差距每个季度都在拉大。

BattleChain 是 Web3 安全生命周期中缺失的一环。一个利益攸关的试炼场,让你的合约在面对真实用户之前先面对真实的对手。如果你的代码在 BattleChain 中幸存,你就可以带着信心发布。如果它没能幸存,你在正确的时间发现了它 —— 在它造成严重后果之前。

部署。接受攻击。发布更强。

前往 battlechain.com 并在今天尝试测试网。

  • 原文链接: cyfrin.io/blog/announcin...
  • 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
点赞 0
收藏 0
分享
本文参与登链社区写作激励计划 ,好文好收益,欢迎正在阅读的你也加入。

0 条评论

请先 登录 后评论
Cyfrin
Cyfrin
Securing the blockchain and its users. Industry-leading smart contract audits, tools, and education.