EigenCloud 旨在为 AI 代理时代构建基础设施,通过密码学和经济机制使链下计算过程和结果可验证。
目前大多数服务都无法客观地验证“实际发生了什么”。用户无法确认 AI 决策、云中存储的数据或服务提供商声称已执行的代码是否真的按承诺的那样工作。他们只能信任服务提供商。对于影响较小的应用程序来说,这可能不是问题,但当经济、隐私或其他与信任相关的风险很高时,这就变得至关重要。
区块链提供了可验证性,但由于软件、硬件和共识等各种限制,它无法处理复杂的计算。EigenCloud 通过将硬件隔离环境(TEE)中的密码学验证与基于抵押品的经济安全性(重新质押)相结合来解决这个问题,从而提出了“第三条路径”,使其能够在链下进行通用计算,同时使结果可验证。
EigenCloud 由四个组件组成,它们支持共享安全、分布式数据存储、隔离执行环境和确定性 AI 推理。它们的结合提供了关于计算执行过程和结果完整性的可验证答案。
EigenCloud 优先考虑开发者的可访问性。通过原生支持熟悉的 Web2 开发模式(Docker 容器、GPU 计算、外部 API 调用),并提供 DevKit 等 CLI 工具来实现快速应用程序移植,EigenCloud 使软件开发人员能够以极少甚至不需要智能合约工程的方式来添加可验证性和区块链集成。
可验证性不再是可选项,而是必需品。EigenCloud 正在为 AI 代理时代构建基础设施,包括代理间结果验证、A2A 支付和链上身份管理,同时在预测市场、声誉系统、跨链安全和机构金融等各个领域创建实际用例。

来源:Wiktionary
Eigen。一个中古荷兰语单词,意思是“固有的”、“原始的”或“真正属于自己的”。
与英语单词“own”同源,它指的是完全独立于外部因素而存在的属性。
在数学中,这个词具有特殊的意义。特征值和特征向量是线性代数中的核心概念,它们揭示了复杂系统最本质的特征。矩阵表示拉伸、收缩和旋转空间的变换,并且大多数向量在经过这些变换时会改变方向。但是特征向量是不同的。它们在变换过程中保持其方向。只有它们的大小会改变;它们本质的方向性保持不变。
特征值和特征向量揭示了一个系统从根本上做什么。即使是最复杂的变换最终也可以沿着其特征向量的方向分解,并且隐藏在复杂性中的简单本质,即系统的真实身份,通过特征值和特征向量揭示出来。
EigenCloud 这个名字正是体现了这种理念。
在数字世界中,要说某件事是“真正属于自己的”,需要具备什么条件?对于我存储在云中的数据,AI 代表我做出的决定,或者服务提供商声称已执行的代码,仅仅声称所有权是不够的。必须能够验证它是否存在,以及是否按承诺的方式运行。
没有可验证性,所有权就是一种幻觉。如果我的数据“在”云中,但我无法检查它是否被篡改过,我真的能称之为我的数据吗?如果 AI 代表我做出了决定,但我无法验证该决定是否遵循了我设置的规则,我真的能称之为我的决定吗?如果某个服务提供商声称已经执行了某个承诺的算法,但无法证明该算法实际运行过,那么这个承诺还有什么意义?
正如数学中的特征值以一种无法欺骗的方式揭示了系统的本质一样,可验证性必须以一种无法欺骗的方式揭示数字系统的本质。只有这样,某件事才能真正成为“Eigen”,真正成为自己的东西。
然而,在现实中,这种“固有的”可验证性大多是不存在的。我们无法看到系统的本质;我们只是相信写在其表面的承诺。

来源: Guardians
2023 年 11 月,一起集体诉讼案被提交给了美国最大的健康保险公司 UnitedHealth。核心问题是,该公司涉嫌使用一种名为“nH Predict”的 AI 算法来不当拒绝老年患者的保险索赔。该算法分析了患者的诊断、年龄和生活状况,以“预测”护理持续时间,并且无论主治医生的意见如何,保险支付都会在预测的时间被切断。
更令人震惊的是,患者无法找出他们的保险索赔被拒绝的原因。当保险覆盖被终止的患者要求解释原因时,该公司以保密为由拒绝解释。原告质疑该算法的可靠性,指出 90% 的上诉被推翻,并补充说该公司利用了只有 0.2% 的所有保单持有人提出上诉的事实。该公司反驳说“nH Predict 只是一个指导,而不是一个决定。”
UnitedHealth 的模型是否真的具有高错误率是不可知的。该模型在多大程度上影响了公司的决策也是如此。这是因为该模型的决策过程是完全不可验证的。患者、医生甚至监管机构都无法确认该算法实际使用了哪些标准来做出判断。因此,争议归结为“公司的说法与患者的说法”,依靠法律斗争而不是技术证据。
这不是一个可以用作孤立事件来驳回的问题。随着 AI 时代的加速,这种“不可验证的判断”正在渗透到我们生活的每一个角落。
我们通过云服务存储数据,在在线平台上进行重要交易,并向数字系统支付巨额资金。AI 代理自主执行交易、处理客户服务和生成内容。然而,在所有这些过程中,几乎没有可以客观证明“实际发生了什么”的案例。我使用的 AI 服务是否真的运行在承诺的 AI 模型上,服务器是否在秘密地窃取我的个人信息,AI 为什么会做出特定的决定:所有这些最终都归结为“你是否相信服务提供商所说的话?”这个问题。
EigenCloud 试图为这个问题提供一个答案。它的目标是赋予当前系统以“Eigen”,一种固有的可验证性。
目标是构建可以证明复杂计算是如何执行的、什么输入产生了什么输出以及承诺的代码是否真的被执行的基础设施。创建一个以一种无法欺骗的方式揭示系统本质的结构。正如数学中的特征值显示了矩阵的真实性质一样,一个可验证的云显示了数字服务的真实运行情况。
当这成为可能时,我们最终可以说数字世界中的某些东西是“真正属于我们自己的”。
有一种直观的方法可以证明“实际发生了什么”。让每个人重新执行相同的计算。
区块链的工作原理正是基于这个原则。网络中的所有节点都验证相同的交易,并且必须达成相同的结果才能最终确定该交易。任何人都可以验证执行结果,并且任何中央机构都无法操纵它们。
然而,这种解决方案是有代价的。让所有节点重新执行所有计算意味着整个网络的处理能力仅限于单个节点的处理能力。复杂的 AI 推理、大规模数据分析、GPU 密集型计算以及其他高负载操作在区块链环境中是不可能完成的或成本高昂的。
总之,区块链不适合实现所有类型的计算。除了简单重新执行带来的计算负载增加之外,区块链还有五个基本限制:
软件约束:开发者无法直接利用链下积累的大量开源库。软件必须为每个虚拟机重新实现:EVM、WASM、zkVM 等。这意味着,与全球超过 2000 万的软件开发者相比,只有大约 25,000 个加密开发者可以构建区块链应用程序。
硬件约束:区块链在具有指定规范的硬件上执行计算,并且开发者不能随意选择专用资源,如 GPU、高性能 CPU、TEE 或地理分布式缓存,以方便计算。
接口约束:区块链只能信任链上已有的数据或通过单独保护的预言机提供的数据。在直接访问外部 API 或真实世界状态的同时保持强大的安全保证仍然是一个未解决的挑战。
共识约束:区块链具有预定的共识协议。开发者无法自定义验证器节点如何分配工作、通信或达成共识。实现新功能(数据可用性、快速最终性、隐私、AI 推理协议等)需要创建一个全新的区块链。
客观性约束:区块链只能处理具有纯客观条件的合约。即使是零知识证明也仅限于证明客观条件。然而,大多数实际合约都依赖于需要人为解释的条件。“服务质量是否令人满意?”或“此内容是否违反政策?”等问题无法在链上裁决。
当然,区块链一直在不断发展以克服这些限制。比特币证明了 2100 万作为总供应上限,成为第一个可验证的货币,而以太坊引入了图灵完备的智能合约以实现可验证的金融。随后,出现了特定用途的区块链和高性能的通用区块链,逐渐扩大了可验证性的范围。

然而,尽管取得了这些进展,但上述基本约束仍然存在。链之间资产和数据移动变得复杂,存在碎片化问题,并且无法提供与链下计算环境一样低的延迟和可编程性。最终,使用当前技术,我们得出的结论是,复杂的计算必须在区块链之外、在链下执行,并且只能使用结果。问题是一旦你离开链下,你就会失去区块链提供的可验证性,回到“你必须信任服务提供商”的情况。
开发者面临着两难境地。他们是选择可验证但功能严重受限的区块链,还是选择功能强大但不可验证的传统云?

来源:EigenCloud
EigenCloud 提供了一个视角,通过重新构建问题本身来解决这个难题。
之前的讨论主要集中在“哪个区块链最好”。比较特定链的性能、生态系统和网络效应,并预测赢家。但 EigenCloud 另辟蹊径。无论哪个链获胜或哪个应用程序成功,它们在可验证地运行方面都需要一些共同的东西。那就是验证基础设施本身。
EigenCloud 的角色类似于 AWS 给互联网带来的变化。当时,公司必须购买自己的服务器并租赁数据中心来运行网站,但 AWS 改变了这一点。通过解除基础设施建设的重担,公司可以专注于应用程序开发。
EigenCloud 描绘的图景类似。当开发者想要创建可验证的服务时,他们可以利用 EigenCloud 的基础设施,而不是从头开始设计验证机制。复杂的计算在链下执行,但结果是诚实得出的这一事实可以通过密码学和经济机制来证明。如果现有的区块链只能验证确定性和客观条件,那么 EigenCloud 将验证范围扩大到“两个理性方可以达成一致的所有事情”。正如云使经济可编程并创造了超过 10 万亿美元的价值一样,EigenCloud 试图通过使该经济可验证来开启下一个篇章。
在许多领域,这种可验证的云都将非常有用。它可以应用于任何透明度创造价值的地方:预测市场、供应链跟踪、声誉系统等等。
然而,AI 代理在这些领域中占据着特殊的位置。如果可验证性在其他领域是“锦上添花”,那么对于 AI 代理来说,它是存在的必要条件。
截至 2025 年,AI 代理不再是科幻小说。自主交易机器人分析市场,客户服务代理处理查询,内容代理编写文本。但为了让他们真正承担高风险、高价值的任务,他们必须克服一道墙。
想象一下一个 AI 代理用你的资金交易股票。
该代理真的按照我设定的策略行事吗?
服务提供商是否在幕后操纵了代理的判断?
代理使用的 AI 模型真的是承诺的模型,还是为了降低成本而被替换为更便宜、不太准确的模型?
在大多数当前的 AI 代理服务中,这些问题的答案是未知的,用户别无选择,只能信任服务提供商。但在金融等高风险领域,仅仅信任是不够的。正如引言中 UnitedHealth 的案例所见,在利益冲突的环境中要求无条件信任不太可能是一个可持续的解决方案。
EigenCloud 为这个问题提供了一种方法。它在链下执行复杂的计算,同时通过密码学和经济机制使过程和结果可验证。以下各节将更详细地研究 EigenCloud 是如何构建其可验证云的。
在详细解释之前,让我们先了解一下 EigenCloud 的整体结构。EigenCloud 大致由四个组件组成。
EigenLayer 是该结构的基础层,它回收在以太坊上质押的资产,为各种服务提供经济安全。EigenDA、EigenCompute 和 EigenAI 是建立在这种共享安全基础上的三个 AVS(主动验证服务),分别负责核心的可验证云功能:数据存储、计算执行和 AI 推理。
本节将首先研究作为基础层的 EigenLayer 是如何提供共享安全的,下一节将介绍三个 AVS 的具体操作。
目前,大约有 3500 万个 ETH 质押在以太坊上以保护网络。验证者将这种资产作为抵押品存入,如果他们行为不诚实,则承担被罚没的风险(资金被没收)。这种经济激励维持了以太坊的安全性。
问题是,这种巨大的安全资产仅用于以太坊共识。想要构建新的去中心化服务的开发者必须从头开始招募自己的验证器网络并发行自己的代币以建立经济安全。这是一项成本高昂且耗时的任务,并且在早期阶段安全性不可避免地很弱。
EigenLayer 引入了重新质押的概念来解决这个问题。这个想法是重用已经质押在以太坊上的 ETH,以用于其他服务的安全。
考虑这样一种情况:你使用了在银行存入的抵押品来获得抵押贷款。以前,该抵押品仅保证那一笔抵押贷款。重新质押类似于能够同时用相同的抵押品来保证多笔贷款:汽车贷款、商业贷款等等。当然,如果在其中任何一项贷款中发生不当行为,抵押品将被没收,但抵押品的利用率也会相应提高。
EigenLayer 大致由三种类型的参与者组成:
质押者:将 ETH、LST(流动性质押代币)或 EIGEN 代币存入 EigenLayer 的参与者。他们不直接操作节点,而是将自己的资产委托给受信任的运营商。存入的资产支持 AVS 的经济安全,质押者则获得费用收入作为回报。但是,如果他们委托的运营商有不当行为,他们将分担没收风险。
运营商:实际为 AVS 执行验证工作的节点运营商。根据质押者委托的质押,他们执行每个 AVS 所需的工作。运营商可以选择参与哪些 AVS,并决定为每个 AVS 分配多少可没收的质押。
AVS(主动验证服务):建立在 EigenLayer 共享安全基础上的去中心化服务。AVS 不需要发行自己的代币或从头开始招募验证器网络;只需在 EigenLayer 上注册,它们就可以吸引现有运营商的参与。作为回报,AVS 向运营商和质押者支付服务费。

来源:EigenLayer
如果说以太坊是地基,那么 EigenLayer 就像在地基上搭建一个钢结构框架,多个建筑物可以共享这个框架。每个 AVS 都是建立在该框架上的一个独立的建筑物,而 EigenCloud 是一个基础设施包,提供建造建筑物所需的集成实用程序:电力、管道、电梯等等。如果说单个 AVS 是解决特定问题的服务,那么 EigenCloud 提供这些 AVS 通常需要的基础设施。这包括可验证的计算环境、数据持久性、争议解决、确定性 AI 推理等等。截至 2025 年,已有超过 40 个 AVS 在 EigenLayer 主网上运行。
3.2.1 罚没和重新分配
为了诱导诚实的计算,仅仅检测是不够的;不当行为必须承担后果。
这就是 EigenLayer 的经济安全发挥作用的地方。在 EigenCloud 上执行计算的运营商是已经存入 ETH 或 EIGEN 代币作为抵押品的参与者,如果确认有不当行为,他们的抵押品将被罚没。
罚没机制的核心是独特的质押分配。运营商可以指定每个 AVS 的可罚没质押的百分比,范围从 0% 到 100%。关键在于,在任何给定的时间,单个 ETH 只能被单个运营商集合罚没。这种设计减轻了“罚没级联”风险,即一个 AVS 中的问题可能会连锁到其他 AVS。例如,如果一个运营商集合中有 3 个运营商,每个运营商质押 100 个 ETH,并且他们分别分配 10%、10% 和 20%,那么独特的质押总计为 40 个 ETH。想要操纵这个系统的恶意攻击者需要分配至少 40.1 个 ETH 的独特质押,如果攻击被发现,整个金额将被罚没。
同样重要的是,罚没可以导致超出简单惩罚的受害者赔偿。通过其重新分配机制,EigenLayer 允许将被罚没的资金交付给指定的接收者,而不是被销毁。如果一个交易机器人运营商因不当行为而遭受损失,他们可以从被罚没的资产中获得赔偿。这个功能是完全可选的:当重新分配被启用时,运营商决定是否接受这些条款,质押者可以选择是否委托给实施重新分配的运营商。
3.2.2 EIGEN 代币和主体间验证
EIGEN 代币是这种经济强制的另一个支柱。EIGEN 的特别之处在于它超越了传统罚没的基本限制。
传统的罚没只能惩罚“客观上可确定的”违规行为。它仅适用于可以在链上进行数学证明的情况,例如双重签名。但许多现实世界的问题并非客观的。“这种 AI 模型有偏见吗?”或“这个预测市场的结果是什么?”等问题无法仅通过链上逻辑来裁决。
EIGEN 通过主体间验证来解决这个问题。主体间验证是指在“如果两个理性的观察者可以就某件事达成一致,那么它就是可验证的”的原则下进行的验证。这不是数学证明,但恰恰因为它不是数学证明,它将验证范围扩大到可以通过社会共识来判断的领域。这是使“两个理性的方可以达成一致的所有事情”可验证的具体机制。

EIGEN 的双代币模型使这成为可能。EIGEN(ERC-20)是一种标准的可转让代币,可以在 DeFi 中使用或在交易所交易;持有者无需参与分叉争议。相比之下,bEIGEN 是质押 EIGEN 时获得的表示,是一种自愿承担罚没风险并参与协议安全的承诺。由于这种分离,一般代币持有者可以享受代币的经济价值,而不会被卷入分叉政治,只有质押者承担验证责任及其相关风险。
分叉机制的工作原理如下。如果大多数 EIGEN 质押者做出不正确的判断(例如,故意错误地结算预测市场),挑战者可以燃烧一定数量的 EIGEN 并创建一个代币分叉。现在存在两个版本的 EIGEN,用户和 AVS 选择将哪个版本识别为“规范”。如果大多数人选择分叉版本,则持有原始代币的恶意质押者的资产将失去价值。当 bEIGEN 被取消质押时,它会转换为社会认可的分叉中的 EIGEN。
这种结构之所以有效,是因为经济威慑。如果大多数质押者恶意行事,他们必须接受自己的资产将变得毫无价值的风险。分叉很少真正发生,但这种可能性本身会诱导诚实的行为。

要理解 EigenCloud 的结构,首先必须掌握其设计原则。正如前面所研究的,EigenCloud 建立在 EigenLayer 的共享安全之上,贯穿其中的核心思想是“解耦”。在现有的区块链中,代币和应用程序逻辑都在链上处理,但 EigenCloud 将这两者分开。像托管、转移和罚没这样的核心金融功能仍然在链上,直接利用现有区块链的可验证性,而像业务规则、复杂计算和外部系统集成这样的应用程序逻辑在链下环境中运行。
问题是:我们如何才能信任在链下执行的内容?EigenCloud 基于 EigenLayer 的共享安全构建了以下三个第一方 AVS,以提供可验证计算所需的基础设施。
EigenDA:一个分布式数据存储,回答了“这个数据真的存在吗?”的问题。它将链下计算的输入和输出记录在分布式网络上,使任何单个实体都无法删除或操纵它们。
EigenCompute:一个基于 TEE(可信执行环境)的计算环境,回答了“这段代码是否在没有操纵的情况下执行?”的问题。它在可信任的执行环境中运行 Docker 容器,并生成执行结果的密码学证明。
EigenAI:一个确定性 AI 推理层,回答了“相同的输入是否产生相同的答案?”的问题。它提供逐位精确的确定性 LLM 推理,保证相同的提示和模型产生相同的输出。
这些并非独立存在,而是连接在一个单一流程中。代码在 EigenCompute 的 TEE 中运行;如果需要 AI 推理,EigenAI 提供确定性结果;所有输入、输出和证明都记录在 EigenDA 中。所有这些都在 EigenLayer 的共享安全上运行,如果确认有不当行为,将强制执行 EigenLayer 的罚没机制。
在以下各节中,让我们通过一个简单的场景更详细地研究 EigenCloud 的每个组件是如何运行的。
想象一下你正在运行一个 AI 交易机器人。这个机器人分析市场数据,并使用 AI 模型做出买卖决策。在传统方法中,你会在 AWS 上部署该机器人,并且只需信任该机器人做出的决策。你将无法验证该机器人为什么在特定时刻卖出,或者是否有人在幕后操纵了该机器人的行为。
在 EigenCloud 上会有什么不同?
让我们从最基本的问题开始。机器人正在运行的代码真的就是你部署的代码吗?你如何才能确定服务器管理员没有秘密地修改代码?
EigenCompute 是一个旨在解决这个问题的 AVS,它基于 TEE 执行验证。简而言之,TEE 是一种基于硬件的安全系统,它在硬件级别加密特定的存储区域或执行环境,将其与操作系统或服务器管理员完全隔离。在 TEE 的隔离空间中执行的代码和存储在那里的数据无法从外部查看或干扰。此外,TEE 通过与硬件制造商的服务器通信来提供证明完整性的远程证明。这种证明在密码学上保证了“这段特定的代码,具有这个特定的输入,在隔离的环境中执行并产生了该输出”。
基于 TEE 的验证的优势在于“你不需要信任服务提供商”,但它预先假定信任硬件制造商(英特尔、AMD、AWS 等)。远程证明的有效性取决于制造商的服务器诚实响应的假设。但是,这被认为是实际的安全改进,因为硬件制造商比单个云服务提供商承担更广泛的声誉风险,并且并行使用来自多个制造商的 TEE 可以减轻单点故障。
实际的流程是这样的:
将机器人的代码打包成 Docker 镜像并将其注册到 EigenCompute;镜像哈希值被记录在链上。
当收到执行请求时,配备 TEE 的节点会加载该镜像并在隔离的环境中执行它。
执行完成后,TEE 会生成包括代码、输入值和输出值的哈希值以及时间戳的远程证明。通过硬件制造商的服务器进行远程证明后,会生成一个收据。
任何人都可以通过远程证明收据验证该证明,从而确认 EigenCompute 的计算完整性。
从开发者的角度来看,这很重要,因为与现有的基于区块链的计算相比,它可以降低准入门槛。像 Intel TDX 和 AWS Nitro 这样的现代 TEE 几乎没有软件层面的限制,因此它们原生支持现代软件理所当然会使用的功能:Docker 容器、GPU 计算、外部 API 调用等等。这与零知识证明形成对比,零知识证明需要为计算验证生成特殊的电路,并且复杂性受到很大限制。
EigenCompute 于 2025 年 10 月推出了其主网 alpha 版本,并通过一个名为 DevKit 的 CLI 工具支持开发者快速将现有应用程序移植到可验证的环境。此外,通过一个名为 Hourglass 的基于任务的执行框架,它标准化了如何在分布式运营商网络中定义、部署、执行和验证计算任务。
前面研究的 EigenCompute 允许用户验证在代码执行过程中是否存在中间人的干预,以及预期的程序是否与执行的程序相匹配。然而,由于推理的复杂性,AI 模型提出了几个额外的挑战,EigenAI 是一个旨在解决这些问题的 AVS。
提示修改:开发者会精心设计提示以获得所需的响应。如果提示以任何方式被修改,这种上下文工程的完整性就会受到损害,导致代理执行意想不到的行为。
响应修改:在高风险代理中,基于 LLM 响应的每个操作都可能产生极其广泛的影响,无论是经济上的还是其他方面的。在这种情况下,确保每个响应都是防篡改的至关重要。
模型修改:没有可验证的保证表明现有提供商提供的模型实际上是预期的或付费的模型。可以使用更轻量级的模型来降低基础设施成本,并且需要特定级别的推理能力或工具调用功能的代理可能会因未保证模型的一致性而无法按预期运行。
目前,在大多数 AI 服务中,没有办法验证这些事情是否正在发生,但 EigenCloud 通过逐位精确的确定性执行机制解决了这个问题。EigenCloud 团队宣布,在分析了从 GPU 类型和 CUDA 内核到推理引擎和代币生成方法的计算堆栈的各个层之后,他们实现了 GPU 规模 LLM 推理的确定性执行。给定相同的提示、模型和种子,始终会生成相同的输出。
让我们详细研究一下为什么确定性 AI 推理很困难以及 EigenAI 是如何解决它的。通常,GPU 计算是不确定的。在并行处理期间,如果浮点运算的顺序不同,则舍入误差会累积,最终结果可能会略有不同。EigenAI 团队执行了以下全栈优化来解决这个问题:
代币生成层:固定种子采样,确定性解码
推理引擎层:固定运算顺序,标准化批量处理
CUDA 内核层:确定性内核选择,强制同步
硬件层:需要相同的 GPU 架构
由于这些优化,EigenAI 保证无论哪个节点执行,对于相同的(模型、提示、种子)组合都会产生逐位相同的输出。
一旦这成为可能,验证的逻辑就变得简单了。如果有人声称提示 X 和模型 Y 产生了输出 Z,只需使用相同的 X 和 Y 重新执行。如果结果与 Z 匹配,则运行正确;如果不同,则这种差异本身就是不当行为的密码学证据。无需单独的复杂证明系统,可重现性本身就成为验证机制。
到目前为止,通过 EigenCompute 和 EigenAI,我们已经确认了代码的完整性,并且 AI 判断也是可重现的。但要做到这一点,还剩下一个先决条件。执行时的输入值必须保存在某个地方。如果机器人的输入和输出仅存储在服务提供商的数据库中,那么如果提供商删除或修改记录,验证本身就变得不可能。
EigenDA 将这些记录存储在一个分布式网络上。数据被分成多个部分并存储在不同的节点上,使任何单个实体都无法删除或操纵这些记录。运营商签署他们持有数据的证明,并且这些签名被聚合并记录在以太坊上。
4.4.1 EigenDA 的技术方法
有几种方法可以解决数据可用性问题。最简单的方法是复制。如果你在多个节点上冗余地存储相同的数据,即使某些节点发生故障,你也可以恢复数据。但是,这种方法的存储效率很低。如果你想要 3 倍的容错能力,你需要 3 倍的存储空间。
像 Celestia 这样的模块化数据可用性层采用了 2D Reed-Solomon 技术,该技术将数据排列成由行和列组成的二维矩阵,然后对每一行和每一列应用纠删码。这种方法的优点是轻节点可以通过单独的随机抽样来概率性地验证数据的可用性,但是全节点仍然必须下载和存储所有数据,从而留下了在委员会中重复存储相同数据的限制。
EigenDA 采用 1D Reed-Solomon 技术,消除了重复存储问题。它对原始数据进行数学编码,并将其分成多个部分,但只需要所有部分的一个子集就可以完美地恢复原始数据。例如,100 个部分中的任何 50 个部分都可以恢复原始数据。在这种方法中,每个节点存储不同的唯一部分,在不重复存储相同数据的情况下保持高可恢复性。
每个部分的完整性都通过 KZG 多项式承诺进行密码学验证。组成 EigenDA 的每个节点都可以通过数学方法验证它收到的部分已被正确编码,并且是原始数据的合法组成部分。
根据 EigenDA 的官方文档,由于这种设计,总数据传输量保持在理论最小值的 10 倍以内。相比之下,现有区块链使用的 gossip 协议会使传输量与验证者和全节点的数量成比例地增加,可能会超过 100 倍。
4.4.2 编码管道和和GPU加速
让我们更仔细地看看 Reed-Solomon 和 KZG 在实践中是如何工作的。
EigenDA 的编码器将单个数据 blob 作为输入,并产生 8,192 个帧作为输出。每个帧由一个块和一个证明组成。块是验证者存储的实际数据片段,而证明是密码学证据,用于确认该块是原始数据的合法组成部分。这允许验证者验证他们持有的片段是真实的,而无需下载整个数据集。
编码过程分为两个阶段。首先,Reed-Solomon 编码将原始数据扩展八倍,并将其分成 8,192 个块。此步骤使用 NTT,它是快速傅立叶变换 (FFT) 的一种变体。接下来,KZG 多重证明生成为每个块创建一个密码学证明。
挑战在于这个过程是计算密集型的。处理单个 16MB 的数据 blob 需要数百万次复杂的数学运算,并且 KZG 证明生成中使用的椭圆曲线算术消耗了大部分总编码时间。
EigenDA 通过 GPU 加速解决了这个瓶颈。正如显卡在视频游戏中同时处理无数像素一样,椭圆曲线运算非常适合并行处理。EigenDA 利用 Ingonyama 的 ICICLE 库将最繁重的计算卸载到 GPU。
然而,并非所有运算都已转移到 GPU。Reed-Solomon 路径中的变换运算由 8,192 个小的独立计算组成,每个计算仅处理 512 个元素。对于这些运算,启动 GPU 内核的开销实际上会产生效率低下,因为 CPU 更有效地处理此类工作负载。换句话说,只有 GPU 真正擅长的大规模运算才被有选择地加速。 一个额外的优化是基于实际数据大小动态调整计算工作负载。 之前,即使是 1MB 的 blob 也会使用适用于最大 16MB 的矩阵进行处理,从而导致不必要的计算。 通过仅计算填充了实际数据的部分,并在之后填充其余部分,EigenDA 为典型的 blob 大小实现了额外的 8 倍加速。
因此,现在编码一个 16MB 的 blob 大约需要 1.26 秒,从而实现超过 100MB/s 的持续吞吐量。 相比之下,仅 CPU 编码一个 128KB 的 blob 大约需要 8.2 秒,这比 GPU 加速的方法按字节计算慢 56 倍。
4.4.3 云级别吞吐量
通过各种性能改进,EigenDA 已经实现了与其他数据可用性解决方案不同的性能级别。 V2(代号 Blazar)在初始版本的基础上进行了改进,并于 7 月部署,实现了 100 MB/s 的吞吐量,已经比竞争对手高至少 75 倍。

来源:EigenCloud
不仅如此,在 2025 年 12 月,EigenDA 通过其专有数据库 LittDB 实现了每秒 1 GB 的云级别数据吞吐量。
为了实现 1GB/s 的吞吐量,EigenDA 必须超越现有数据库的限制。 最初,EigenDA 团队使用了 LevelDB,这是一个常用的数据库,但 EigenDA 的独特工作负载导致了过多的内存消耗和低于正常吞吐量的问题。 因此,EigenDA 团队开发了自己的数据库 LittDB,以追求性能改进。
LittDB 试图通过“零拷贝”设计来解决现有问题。 一旦数据写入磁盘,它将永远不会移动或复制,直到它被删除或其指定的时间到期。 这种设计成功地消除了 LevelDB 存在的不必要的容量占用问题,将写入性能提高了 1,500 倍。
这种选择是有权衡的。 LittDB 不支持数据修改、手动删除、事务、复杂查询、复制、压缩或加密。 然而,EigenDA 的独特工作负载不需要这些功能,因此通过大胆地删除它们,它在所需的功能中实现了远远超过通用数据库的性能。

让我们回到交易机器人。 这个机器人在 EigenCloud 上运行的完整流程如下。
机器人的代码在 EigenCompute 的 TEE 中运行。 如果需要 AI 模型进行市场分析,EigenAI 会执行确定性推理。 所有输入、输出和证明都记录在 EigenDA 中。 整个过程都由在 EigenLayer 上质押的资产支持。
如果稍后对特定交易产生疑问,你可以从 EigenDA 中检索该时间点的记录,并使用相同的代码和相同的输入重新执行。 由于 EigenAI 是确定性的,因此 AI 判断也会完全相同地重现。 如果结果匹配,则一切正常; 如果不同,则发生了操纵。 当确认操纵时,会触发 slashing,受害者通过重新分配获得补偿。
总之,EigenLayer 通过基于重新质押的共享安全性来保证不当行为的经济成本和 slashing; EigenDA 以分布式方式存储所有记录,从而不可能销毁证据; EigenCompute 保证代码在没有操纵的隔离环境中运行; EigenAI 保证通过确定性 AI 推理在重新执行时获得相同的结果。 这四个要素结合在一起形成了“可验证云”。

EigenCloud 生态系统通过两个飞轮运行。
第一个是共享安全飞轮。 随着越来越多的 ETH 被重新质押,提供更强的经济安全性; 更多 AVS 希望利用这种安全性; AVS 支付的奖励增加; 越来越多的质押者参与重新质押。 这种良性循环已经发展了 EigenLayer 生态系统。
第二个是 EigenCloud 增加的共享分配飞轮。 随着应用程序和代理对 EigenCompute/EigenAI/EigenDA 的需求增加,越来越多的 AVS 希望为这些应用程序提供服务; 随着 AVS 生态系统变得更加丰富,应用程序开发人员可以选择的可验证服务增加; 变得更加强大的应用程序成为可能; 应用程序需求再次增加。
这两个飞轮相互加强。 共享安全飞轮为 AVS 提供信任基础,共享分配飞轮为 AVS 提供需求基础。
这种飞轮结构在代理生态系统中具有特别重要的意义。 在代理相互协作和交易的世界中,对可验证基础设施的需求将呈指数级增长。
为了使两个飞轮持续旋转,必须适当调整参与者的激励措施。 2025 年 12 月,Eigen Labs 和 Eigen Foundation 提出了 ELIP-12,旨在建立一个新的激励委员会。 核心思想是将 token 排放 направляющие 用于实际创造价值的参与者,并将产生的费用 обратно 给 EIGEN token 持有者。

具体来说,将对 EIGEN 激励补贴的 stake 收取 20% 的 AVS 奖励费用,并且 EigenCloud 费用(来自 EigenDA、EigenCompute 和 EigenAI)的 100%(扣除运营商费用后)将流入费用合约。 累积的费用将用于回购,从而减少 EIGEN 的流通供应并 ایجاد 紧缩压力。 此外,奖励将集中在生产性 stake 上,而不是闲置 stake 上,并且只有支付费用的 AVS 才有资格获得激励。
这些 token 经济变化是两个飞轮的Gas。 将奖励集中在生产性 stake 上会吸引更多的可 slashing 资本,云费用的回收会鼓励服务 использование,回购 поддерживает token 价值; 形成良性循环。
那么,最有力地加速这两个飞轮的需求将来自哪里?
前面研究的 EigenCloud 的三个 AVS,EigenCompute、EigenDA 和 EigenAI,是为验证单个计算而设计的。 但这种结构具有更大的可能性。 在代理协作、交易和相互委托的世界中,这些可以成为代理经济的基础设施。
在人类经济中,信任是通过品牌、声誉、法律追索和社会关系形成的,但代理缺乏这些机制。 代理看不到对方的脸,无法询问他们的历史,如果违反合同也无法提起诉讼。 对于代理来说,可验证性不是“锦上添花”,而是“交易的前提条件”。
EigenCloud 具有满足此前提条件的结构。 它可以验证另一个代理的 TEE 证明输出,使用确定性 AI 重现判断过程,将所有记录保留在分布式存储中,并对不当行为处以经济制裁。 单个代理的可验证性自然会扩展到代理间协作的可验证性。
现在想象一下,第 4 节中的交易机器人已经开始执行更复杂的任务。 随着机器人变得更聪明,与其他 специализированным 代理协作比单独处理所有事情更有效率。
如果每个代理在 EigenCloud 上单独运行,则每个的操作都是可验证的。 但是,当代理相互协作的那一刻,就会出现以下新问题。
问题 1:你如何信任对方的结果?
交易机器人从数据代理那里收到了“比特币上涨信号”的分析。 它如何知道此分析是否 действительно 使用承诺的模型计算的,还是被操纵的结果?
问题 2:如何交换服务付款?
如果数据代理 предоставил 分析,它应该收到付款。 但是代理没有信用卡。 他们无法验证自己的身份。 现有的支付系统是针对人类设计的。
问题 3:你如何知道谁是谁?
在交易机器人“聘用”数据代理之前,它想 проверять 这个代理过去有多可靠。 如何查询代理的历史和声誉?
EigenCloud 正在为这三个问题构建 инфраструктура。
解决第一个问题的方法是可验证性的传播。
如果数据代理在 EigenCloud 上运行,其输出包括加密证明。 交易机器人不仅接收分析结果,还接收“此结果是使用此代码、使用此输入、在 TEE 中生成的”的证明。 验证证据可以信任结果。

来源:EigenCloud
elizaOS 是一个实际可行的例子。 这个开源框架部署了超过 50,000 个代理,并有超过 1,300 名贡献者参与,在 EigenCloud 集成后设计,因此证明元数据包含在代理之间的消息中。 特别是,elizaOS 已被定位为通过 EigenCloud 支持跨链执行的第一个生成性 token 网络。

来源:EigenCloud
FereAI 的案例显示了为什么这很重要。 这家公司构建管理实际资本的交易代理,面临着事后无法审计代理决策的问题,因此决定采用 EigenAI。 在采用 EigenAI 的确定性推理后,他们能够重现和验证决策过程,因为相同的输入保证了相同的输出。

来源:Google Cloud
2025 年 9 月,Google Cloud 宣布了代理支付协议 (AP2),这是一种用于 AI 代理的支付协议。 AP2 旨在为使用 x402 支付协议的链上 AI 代理对代理支付构建一个标准化框架。
那么当代理 A 支付给代理 B 时,你如何知道 B 是否 वास्तव में 提供了承诺的服务? 在人类交易中,品牌声誉、法律追索和社会信任可以缓解这个问题,但代理交易缺乏这些机制。
选择 EigenCloud 作为 Google Cloud AP2 的启动合作伙伴是一个例子,表明了对这种系统的需求。 EigenCloud 旨在将基于区块链的可验证性扩展到 AP2,提供一个可编程的信任层,AI 代理可以在该层验证工作、协调跨链支付并在全球范围内执行经济保证。
具体来说,EigenCloud 向 AP2 添加了以下三个功能:
工作验证:服务器代理在 EigenCompute 上执行工作,并将证明传递给客户端代理
支付抽象:如果客户端代理在请求的网络上缺少资金,则会自动处理桥接
争议解决:如果证明验证失败,客户端代理可以 slashing 服务器代理
通过 EigenCloud 和 AP2 的组合,可验证性被添加到代理间支付中,从技术上消除了“支付但未收到服务”的风险。
第三个问题是身份。 为了使代理发挥经济主体的作用,必须能够识别“他们是谁”。
ERC-8004 是解决此问题的以太坊标准提案。 核心思想是为 AI 代理提供链上身份。 代理有自己的钱包地址,持有资产,并且可以与其他代理或智能合约互动。
当 EigenCloud 与此标准结合使用时,历史变得超越身份成为可能。 由于代理的所有执行记录都存储在 EigenDA 中,因此其他代理可以在协作之前检查以下内容:
它过去的行为是否像承诺的那样?
它是否有 slashing 历史?
它执行过哪些类型的任务?
这类似于人类世界的信用评分或简历,但不同之处在于所有记录都是可验证的。
当验证传播、代理对代理支付和代理身份结合在一起时,代理经济的基本基础设施就位了。
这是一种代理可以相互验证结果、支付服务费用并筛选可靠交易对手的结构。 第 4 节中介绍的单个代理的可验证性扩展到代理间协作的可验证性。
EigenCloud 将具有这种结构的代理定义为“1 级代理”。 当代理本身作为 AVS 运行时,EigenLayer 上重新质押的资产可确保代理的诚实行为。 每个代理都有自己的密码经济保证。
但是,可验证性的价值不仅限于代理经济。 需要证明“实际发生了什么”的情况存在于整个数字经济中。 预测市场必须证明谁来裁决结果; 声誉系统必须证明如何计算分数; 跨链桥必须证明消息 действительно 被传递了。 EigenCloud 的基础设施已经在这些领域创建了真实的用例。 以下部分将研究通过 EigenCloud 构建的(代理经济之外的)实际案例。
在预测市场中,存在“预言机问题”。 智能合约无法自行从外部世界获取信息。 必须有人将该信息输入到链中,但是如何信任该人呢?

来源:Kaito
2025 年 11 月,InfoFi 平台 Kaito 和预测市场平台 Polymarket 推出了“Mindshare Markets”。 Kaito 的 AI 模型分析社交媒体数据以衡量公众对特定主题的看法,预测市场根据这些结果进行结算。
他们试图通过使用 EigenCloud 的 EigenAI 的可验证性来解决 Kaito 模型的信任问题。 Kaito 的 AI 模型在 EigenAI 上运行,因此任何人都可以在相同输入数据下重现相同的分析,并且 Kaito 能够证明其算法是通过 EigenAI 精确执行的,而无需公开其算法。

来源:EigenCloud
当前平台的评分算法是黑盒。 用户无法知道哪些标准决定推荐哪些内容或哪些帐户显示在顶部。 即使平台有意推动或埋没某些内容,也无法验证。 即使发布了开源代码,也无法保证实际执行的代码就是该已发布的代码。
OpenRank 指出了这些问题,并且是一种声誉协议,旨在将排名和声誉算法从平台的私有决策转化为共享基础设施。 通过 OpenRank,开发人员可以在公共数据上计算声誉分数,并且任何人都可以通过加密方式验证该计算是否遵循了声明的规则。

来源:EigenCloud
EigenCloud 提供了使此验证成为可能的基础设施。 OpenRank 的计算节点在 EigenCloud 的 TEE 中运行声誉算法,并且单独的验证器节点使用相同的输入独立确认结果。 所有输入和输出都存储在任何人都可以访问的数据可用性层中,并且结果的加密承诺记录在链上。 如果验证者发现差异,他们可以提出质疑,并且不诚实的运营者将其在 EigenLayer 上质押的资产 slashing。

来源:EigenCloud
跨链应用程序面临着一个根本性的挑战。 如何在不牺牲安全性或去中心化的情况下验证区块链之间的消息?
跨链消息传递协议 LayerZero 设计了 DVN(去中心化验证器网络),允许应用程序直接选择用于消息传递的验证器。 他们没有强迫使用单个验证器,而是启用了从基于 ZK 的证明到轻客户端验证的各种验证方法之间的选择。 LayerZero 的架构导致了跨链生态系统的重大转变,但是随着 LayerZero 发展成为被超过 600 个应用程序采用的解决方案,出现了一个新问题。 如何添加超出技术正确性的更强大的保证?
2025 年 11 月,LayerZero 推出了 EigenZero,这是一个利用 EigenCloud 的重新质押基础设施的密码经济 DVN 框架。 通过引入可 slashing 抵押品作为额外的安全层,验证器现在可以为应用程序提供针对恶意行为的经济威慑。
EigenZero 通过乐观验证进行操作。 除非受到挑战,否则假定消息正确,从而实现快速的跨链通信。 当发生验证失败时,EigenCloud 的 slashing 基础设施会对质押资产处以罚款。 提供了 11 天的质疑期用于争议 해결,并且只有在交易达到最终状态后验证的证明才能进行 slashing。 为了使这些功能能够有效地工作,已经质押了价值 500 万美元的 ZRO token,以保证验证者的诚实行为。
这种方法允许应用程序设计更分层的标准来配置跨链安全。 就像以前一样,选择仅取决于每个 DVN 的技术验证方法,现在可以根据质押 token 的数量和 slashing 历史来选择验证者。

来源:EigenCloud
2025 年 11 月,Flow Traders 是 Euronext 上市的全球最大的流动性提供商之一,通过 Cap、EigenLayer 和 YieldNest 进入链上。
Cap 是一种稳定币协议,旨在实现完全自动化的可验证金融,其中每个基金经理运营由稳定币持有者存入的资本,并将部分收益分配给重新质押者和稳定币持有者。 与典型的资产管理协议不同,Cap 有委托人来保证基金经理的信誉,并且它利用 EigenLayer 来自动化保证/赎回机制。
委托人通过存入在 EigenLayer 上质押的 ETH 作为担保人,将其资本委托给基金经理。 如果基金经理未能正常分配收益,则会对委托人质押的 ETH 进行 slashing。 Cap 还积极利用 EigenLayer 的重新分配机制:他们不是燃烧被 slashing 的资金,而是将其交付给受影响的稳定币持有者,从而尽可能地在委托人级别上隔离风险。
像 Flow Traders 这样的上市金融机构 через EigenLayer 访问链上信贷,这一事实作为一个案例研究具有重要意义。 它代表了一种 попытка 通过代码和经济激励来补充以前依赖于法律合同的信用关系。
可验证计算只是 AI 透明度的一部分。 诸如 AI 模型是用什么数据训练的、该数据的许可证是什么以及是否对原始创建者进行了适当的补偿等问题也很重要。 当前的 AI 是一个黑盒。 没有证据表明放入了哪些数据、执行了哪些代码以及谁持有权利。 艺术家看到他们的风格被复制,但无法验证他们的作品是否包含在训练集中或使用的许可证。

来源:EigenCloud
2025 年 12 月,EigenCloud 宣布与 Story Protocol 合作。 Story Protocol 是一种协议,用于以可编程的方式在链上管理数据、模型和 IP 的来源和许可证。 它从源头在链上注册内容(数据集、模型输出等),并通过加密方式跟踪谁在何时创建了它。 这些资产附带可编程许可证,这些许可证定义了它们的使用和混音方式,并且可以衡量所有使用情况以自动触发向贡献者的特许权使用费支付。
这两个协议的结合构成了一个“可验证的智能堆栈”。 如果 Story Protocol 提供来源层,则 EigenCloud 提供执行层。 如果 Story 管理“允许什么、如何使用资产以及应补偿谁”,EigenCloud 实际上会根据这些规则来运行和验证 AI 工作负载。
在这个系统下正在构建的实际案例包括:
Poseidon:大规模数据集是众包的,AVS 网络验证和处理它们,贡献者收到特许权使用费。
OpenLedger:结合了许可的基础模型和数据集,以实现 IP 安全的微调,并通过加密方式证明训练符合许可限制。
Verio:一种去中心化的 IP Enforcement 系统,其中 AVS 验证者分析模型行为和输出以检测许可证违规行为,并在违规时触发抵押 slashing。

来源:EigenCloud
2006 年,亚马逊推出了 EC2 和 S3,开启了云计算时代。 在此之前,公司必须购买自己的服务器、租用数据中心并组建 IT 基础设施团队来运营 Web 服务。 AWS 用几个 API 调用取代了所有这些。 一旦消除了基础设施建设的沉重负担,Uber、Netflix 和 Airbnb 等应用程序就可以呈爆炸式增长。
查看 AWS 堆栈的结构可以揭示其成功的逻辑。 最底层是亚马逊数据中心的物理基础设施,其上是 S3、EC2 和 Lambda 等第一方服务。 在此基础上,构建了数千个第三方服务,如 Datadog、Snowflake 和 Anthropic,而在顶层,数万个应用程序向用户提供价值。 每一层都抽象了底层复杂性,并为上层提供了一个简单的接口。

来源:EigenCloud
EigenCloud 描绘的 картинка 遵循类似的层次结构。
最底层,EigenLayer 协议提供共享安全作为基础,在其上方,EIGEN token 的可验证分叉机制支持主体间验证。 EigenDA 和 EigenCompute 等原语提供数据可用性和可验证计算的核心功能,并且在此基础上构建了各种 AVS,如 zkTLS、预言机和推理服务。 在顶层,可验证的应用程序,如预测市场、声誉系统、借贷和 AI 代理为用户提供服务。
如果 AWS 说“构建应用程序而无需担心服务器”,那么 EigenCloud 本质上说“构建可验证的应用程序而无需担心信任”。 正如 AWS 抽象了基础设施建设的复杂性一样,EigenCloud 正在抽象构建验证机制的复杂性。
在结束之前,让我们回到引言中提出的问题。 在 AI 做出越来越多的决策的世界中,我们如何知道“实际发生了什么”?
到目前为止,答案大多是“单方面信任”。 信任服务提供商,信任平台,信任机构。 但是,正如 UnitedHealth 案例所示,仅靠信任不足的情况正在增加。 在 AI 代理自主执行 финансовые 交易、判断保险索赔和推荐内容的世界中,“只需相信我们”不再是一个充分的答案。
EigenCloud 的赌注很明确。 在即将到来的 AI 代理时代,以及更广泛的、支持更广泛用例的数字时代,可验证性将变得不是可选的,而是必不可少的,并且 EigenCloud 会将自己定位为唯一可验证且可扩展的计算解决方案。
EigenCloud 的赌注是否会结出硕果,我们很可能会很快看到。
- 原文链接: 4pillars.io/en/articles/...
- 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!