文章总结了 Mysten Labs 举办的专家小组讨论,探讨了 AI 代理如何重塑智能合约安全。专家指出 AI 正在显著提升漏洞探测、代码翻译及反编译能力,使得传统的“闭源防守”策略失效。未来的安全重心将从单纯的漏洞发现转向开发流程的韧性建设以及 AI 辅助的形式化验证。

随着 AI 重塑智能合约的构建、审计和攻击方式,安全研究人员正在密切关注这一领域的变革。
在过去的一年里,AI 编码代理 (Coding Agents) 发展迅速。Claude Code 和 Codex 等工具不再仅仅是自动补全助手,它们在阅读、编写和推理代码方面的能力显著增强,且所需的辅助引导越来越少。
对于默认公开且管理真实资金的智能合约而言,这一点尤为重要。AI 代码分析能力的任何提升,都会同时为防御者和攻击者提供助力。
为了深入探讨这一趋势,Mysten Labs 联合创始人兼 CTO、Move 编程语言创造者 Sam Blackshear 邀请了四位领先的安全研究人员进行对话:
Sam 邀请每位专家分享了一个让他们意识到时代已经发生根本性变化的时刻。
Ben 描述了尝试将静态分析工具 Slither 与基于 LLM 的语义分析相结合的过程。早期的模型在处理基础工具调用时表现挣扎,经常失败。但最近的模型更新改变了现状。“几个月前,模型还很讨厌调用工具,或者无法正确使用它们,”Ben 说,“现在看到它能正确运行,简直令人难以置信。”
Sam 分享了自己的经历:他曾尝试将一个用 OCaml-Java 编写的静态分析工具移植到 Move 语言。他让 Claude 执行翻译工作,并在 Sui 上的所有 Move 程序中运行该工具以标记潜在漏洞。“它就这么完成了,”他说,“在速度和能力方面,我们进入了一个全新的世界。”
Seth 的经历则更具警示意义。一位 Certora 研究员在与客户合作时,客户最初认为 AI 生成的大部分漏洞报告都是“噪音”。但当研究员要求模型对剩余内容进行优先级排序时,它找出了 7 个真实的资金窃取问题。“其中 3 个与研究员自己的发现重合,但另外 4 个是研究员没发现的,”Seth 说道。这意味着 AI 在发现关键漏洞方面的能力已经可以与资深专家并驾齐驱。
Cos 描述了一个 AI 代理 (Agent) 在处理复杂的验证问题时,主动深入 Sui 编译器添加调试输出,并传播其解决任务所需的信息。虽然技术细节很复杂,但结论很简单:代理 (Agent) 不再仅仅是回答提示词,它正在主动配置系统以更好地推理问题。
这些故事指向同一个结论:问题不再是 AI 能否协助安全工作,而是这种协助将如何快速改变攻击者与防御者之间的力量平衡。
如果 AI 越来越擅长理解代码,那么保持代码闭源是否还能提供有效的保护?
Seth 坚定地站在开源一边。他认为闭源只是一种幻觉。攻击者可以通过字节码对已部署的合约进行逆向工程,而 AI 让这种逆向工程具备了“超人”般的速度。闭源带来的虚假安全感比代码公开更危险。
Sam 补充道,如果你的项目是开源且知名的,模型训练者可能会在代码发布前就运行早期版本并标记问题。“如果你是一个知名的闭源项目,我认为你绝对比知名的开源项目更不安全。”
尽管支持代码开源,但专家们认为不应公开所有的安全细节。
Cos 指出,虽然逆向工程让隐藏源码失去意义,但规范 (Specifications)则不同。对于进行形式化验证的团队,规范描述了代码应该做什么,以及哪些边缘情况尚未被验证。
“我们看到 AI 代理 (Agents) 在推理规范 (Specifications)方面表现出色,”Cos 说,“如果我们公开规范,本质上是在给攻击者提供路线图,让他们看到哪些地方尚未经过严格验证。”
如果 AI 能独立发现越来越多的 Bug,人类审计师的工作将变成什么?
专家们一致认为,答案不再是“寻找更多 Bug”,而是转向流程和韧性。随着 AI 提升攻击者的能力,目标不能仅仅是比下一个模型找 Bug 更快,而是要建立无论模型能力如何都能保持稳健的开发实践。
所有专家都给出了否定答案,但理由各异:
这场对话并没有给出简单的答案。AI 正在实时改变智能合约安全,专家们仍在摸索其深远影响。
清晰的一点是:优势不再源于秘密。随着 AI 代理 (Agents) 同时为攻防双方赋能,更具防御性的路径是严谨的工程学:适当的公开评审、更强的验证、持续的红队测试,以及能够抵御未来任何挑战的稳健流程。
- 原文链接: x.com/SuiNetwork/status/...
- 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!