AI如何重塑智能合约安全军备竞赛

文章总结了 Mysten Labs 举办的专家小组讨论,探讨了 AI 代理如何重塑智能合约安全。专家指出 AI 正在显著提升漏洞探测、代码翻译及反编译能力,使得传统的“闭源防守”策略失效。未来的安全重心将从单纯的漏洞发现转向开发流程的韧性建设以及 AI 辅助的形式化验证。

Image

随着 AI 重塑智能合约的构建、审计和攻击方式,安全研究人员正在密切关注这一领域的变革。

核心观点

  • Mysten Labs 首席技术官 @b1ackd0g 主持了一场直播小组讨论,邀请了四位安全专家,探讨 AI 编码代理 (Coding Agents) 如何重塑智能合约安全。
  • 专家小组一致认为,加密货币处于 AI 安全军备竞赛的前沿,因为智能合约是公开的,且直接与真实价值Hook。
  • 随着 AI 对攻击者和防御者能力的同步提升,应对之道并非增加保密性,而是强化验证、明确流程以及建立更具韧性的安全实践。

行业概况

在过去的一年里,AI 编码代理 (Coding Agents) 发展迅速。Claude Code 和 Codex 等工具不再仅仅是自动补全助手,它们在阅读、编写和推理代码方面的能力显著增强,且所需的辅助引导越来越少。

对于默认公开且管理真实资金的智能合约而言,这一点尤为重要。AI 代码分析能力的任何提升,都会同时为防御者和攻击者提供助力。

为了深入探讨这一趋势,Mysten Labs 联合创始人兼 CTO、Move 编程语言创造者 Sam Blackshear 邀请了四位领先的安全研究人员进行对话:

  • Ben (@thebensams):网络安全研究与咨询公司 Trail of Bits 的区块链工程总监。
  • Cosmin Radoi (Cos):专注于 Sui 形式化验证的公司 Asymptotic 的 CEO 兼联合创始人。
  • Seth Hallem:领先的形式化验证公司 Certora 的 CEO。
  • Robert (@NotDeGhost):多链安全公司 OtterSec 的创始人。

关键的转折点

Sam 邀请每位专家分享了一个让他们意识到时代已经发生根本性变化的时刻。

Ben (Trail of Bits):当 Slither 遇到大模型

Ben 描述了尝试将静态分析工具 Slither 与基于 LLM 的语义分析相结合的过程。早期的模型在处理基础工具调用时表现挣扎,经常失败。但最近的模型更新改变了现状。“几个月前,模型还很讨厌调用工具,或者无法正确使用它们,”Ben 说,“现在看到它能正确运行,简直令人难以置信。”

Sam (Mysten Labs):将静态分析器移植到 Move

Sam 分享了自己的经历:他曾尝试将一个用 OCaml-Java 编写的静态分析工具移植到 Move 语言。他让 Claude 执行翻译工作,并在 Sui 上的所有 Move 程序中运行该工具以标记潜在漏洞。“它就这么完成了,”他说,“在速度和能力方面,我们进入了一个全新的世界。”

Seth (Certora):AI 发现了人类遗漏的漏洞

Seth 的经历则更具警示意义。一位 Certora 研究员在与客户合作时,客户最初认为 AI 生成的大部分漏洞报告都是“噪音”。但当研究员要求模型对剩余内容进行优先级排序时,它找出了 7 个真实的资金窃取问题。“其中 3 个与研究员自己的发现重合,但另外 4 个是研究员没发现的,”Seth 说道。这意味着 AI 在发现关键漏洞方面的能力已经可以与资深专家并驾齐驱。

Cos (Asymptotic):能够修改编译器的代理 (Agent)

Cos 描述了一个 AI 代理 (Agent) 在处理复杂的验证问题时,主动深入 Sui 编译器添加调试输出,并传播其解决任务所需的信息。虽然技术细节很复杂,但结论很简单:代理 (Agent) 不再仅仅是回答提示词,它正在主动配置系统以更好地推理问题。

这些故事指向同一个结论:问题不再是 AI 能否协助安全工作,而是这种协助将如何快速改变攻击者与防御者之间的力量平衡。

重新思考“闭源”的价值

如果 AI 越来越擅长理解代码,那么保持代码闭源是否还能提供有效的保护?

模糊安全性的幻觉

Seth 坚定地站在开源一边。他认为闭源只是一种幻觉。攻击者可以通过字节码对已部署的合约进行逆向工程,而 AI 让这种逆向工程具备了“超人”般的速度。闭源带来的虚假安全感比代码公开更危险。

Sam 补充道,如果你的项目是开源且知名的,模型训练者可能会在代码发布前就运行早期版本并标记问题。“如果你是一个知名的闭源项目,我认为你绝对比知名的开源项目更不安全。”

代码开源不代表全盘公开

尽管支持代码开源,但专家们认为不应公开所有的安全细节。

Cos 指出,虽然逆向工程让隐藏源码失去意义,但规范 (Specifications)则不同。对于进行形式化验证的团队,规范描述了代码应该做什么,以及哪些边缘情况尚未被验证。

“我们看到 AI 代理 (Agents) 在推理规范 (Specifications)方面表现出色,”Cos 说,“如果我们公开规范,本质上是在给攻击者提供路线图,让他们看到哪些地方尚未经过严格验证。”

审计师角色的转变

如果 AI 能独立发现越来越多的 Bug,人类审计师的工作将变成什么?

专家们一致认为,答案不再是“寻找更多 Bug”,而是转向流程和韧性。随着 AI 提升攻击者的能力,目标不能仅仅是比下一个模型找 Bug 更快,而是要建立无论模型能力如何都能保持稳健的开发实践。

  • Ben (Trail of Bits):审计的工作不是为了比拥有新模型的白帽更强,而是确保开发流程能产出具有韧性的代码。
  • Seth (Certora):审计应被视为端到端的流程审计,类似于金融界的审计。
  • Robert (OtterSec):近期一些最大的漏洞并非智能合约 Bug,而是密钥管理和运营安全方面的失败。随着 AI 填补了代码层面的漏洞,攻击面正在转移。

AI 会在一年内发现所有 Bug 吗?

所有专家都给出了否定答案,但理由各异:

  • Seth (Certora):未来的漏洞将包含模型无法预见的“未知的未知”。
  • Ben (Trail of Bits):覆盖率是关键,即使模型再强,也只能检查它接触到的代码。
  • Cos (Asymptotic):形式化验证是更可能的路径,AI 代理 (Agent) 将帮助证明更多类型的 Bug 不存在。
  • Robert (OtterSec):当最大的失败不再是代码 Bug 时,“发现所有 Bug”是否还是正确的目标?

持续的军备竞赛

这场对话并没有给出简单的答案。AI 正在实时改变智能合约安全,专家们仍在摸索其深远影响。

清晰的一点是:优势不再源于秘密。随着 AI 代理 (Agents) 同时为攻防双方赋能,更具防御性的路径是严谨的工程学:适当的公开评审、更强的验证、持续的红队测试,以及能够抵御未来任何挑战的稳健流程。

  • 原文链接: x.com/SuiNetwork/status/...
  • 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
点赞 0
收藏 0
分享
本文参与登链社区写作激励计划 ,好文好收益,欢迎正在阅读的你也加入。

0 条评论

请先 登录 后评论
suinetwork
suinetwork
江湖只有他的大名,没有他的介绍。