文章探讨了如何利用AI在民主结构中获取益处,同时避免其缺点。重点介绍了通过AI作为引擎,人类作为方向盘的模式,以及通过竞争性开放市场和AI结合的方式来实现这一目标。
特别感谢 Devansh Mehta、Davide Crapis 和 Julian Zawistowski 的反馈和审阅。
如果你问人们为什么喜欢民主结构,无论是政府、工作场所还是基于区块链的 DAO,你经常会听到同样的论点:它们避免了权力的集中,它们为用户提供了强有力的保证,因为没有一个人可以随心所欲地完全改变系统的方向,并且它们可以通过收集许多人的观点和智慧来做出更高质量的决策。
如果你问人们他们不喜欢民主结构的地方,他们通常会给出同样的抱怨:普通选民并不复杂,因为每个选民只有很小的机会影响结果,很少有选民会对他们的决策进行高质量的思考,而且你经常会遇到低参与度(使系统容易被攻击)或事实上的中心化,因为每个人都默认信任并复制某些影响者的观点。
这篇文章的目标是探索一种范式,或许可以使用 AI 来获得民主结构的好处,而无需承担其缺点。“AI 作为引擎,人类作为方向盘”。人类只向系统提供少量信息,可能只有几百比特,但每一个比特都是经过深思熟虑且非常高质量的。AI 将这些数据视为“目标函数”,并孜孜不倦地做出大量决策,尽力满足这些目标。特别是,本文将探讨一个有趣的问题:我们能否在不将单一AI 置于中心的情况下做到这一点,而是依赖一个任何 AI(或人类-AI 混合体)都可以自由参与的竞争性开放市场?
将人类偏好插入基于 AI 的机制的最简单方法是制作一个单一的 AI 模型,并以某种方式让人类将他们的偏好输入其中。有一些简单的方法可以做到这一点:你可以将一个包含人们指令列表的文本文件放入系统提示中。然后你使用众多“代理 AI 框架”之一,让 AI 能够访问互联网,将你组织的资产和社交媒体资料的钥匙交给它,然后你就完成了。经过几次迭代,这可能足以满足许多用例,我完全预计在不久的将来,我们会看到许多涉及 AI 的结构,这些 AI 读取由群体给出的指令(甚至实时读取群聊)并因此采取行动。
这种结构不理想的地方是作为长期机构的治理机制。长期机构拥有的一个宝贵属性是可信的中立性。在我介绍这一概念的文章中,我列出了对可信中立性有价值的四个属性:
LLM(或 AI 代理)满足 0/4。该模型不可避免地通过其训练过程编码了大量特定的人和结果偏好。有时这会导致 AI 在某些令人惊讶的方向上产生偏好,例如,参见这项最近的研究,该研究表明,主要的 LLM 对巴基斯坦生命的重视程度远高于美国(!!)。它可以是开放权重的,但这与开源相去甚远;我们真的不知道魔鬼藏在模型的深处。它与简单相反:LLM 的 Kolmogorov 复杂度在数百亿比特,与所有美国法律(联邦 + 州 + 地方)加在一起的复杂度相当。而且由于 AI 的发展速度如此之快,你每三个月就必须更改一次。
出于这个原因,我倾向于探索许多用例的替代方法是让一个简单的机制成为游戏规则,并让 AI 成为玩家。这与使市场如此有效的洞察力相同:规则是一个相对愚蠢的产权系统,边缘案例由法院系统决定,法院系统缓慢积累和调整先例,所有的智慧都来自“在边缘”运作的企业家。
单个“游戏玩家”可以是 LLM、相互交互并调用各种互联网服务的 LLM 群、各种 AI + 人类组合以及许多其他结构;作为机制设计者,你不需要知道。理想的目标是拥有一个作为自动机运行的机制——如果机制的目标是选择资助什么,那么它应该尽可能像比特币或以太坊的区块奖励。
这种方法的优点是:
转向机制的目标是提供参与者底层目标的忠实代表。它只需要提供少量信息,但应该是高质量的信息。
你可以将这种机制视为利用提出答案和验证答案之间的不对称性。这类似于数独很难解决,但很容易验证解决方案是否正确。你(i)创建一个开放的玩家市场作为“解决者”,然后(ii)维护一个人类运行的机制,执行更简单的任务,即验证已提出的解决方案。
Futarchy 最初由 Robin Hanson 提出,即“投票价值,但押注信念”。一个投票机制选择一组目标(可以是任何东西,但需要注意的是它们需要是可衡量的),这些目标被组合成一个指标 M。当你需要做出决定时(为简单起见,假设是 YES/NO),你设置条件市场:你让人们押注(i)YES 或 NO 是否会被选择,(ii)如果选择 YES,M 的值,否则为零,(iii)如果选择 NO,M 的值,否则为零。给定这三个变量,你可以弄清楚市场认为 YES 还是 NO 对 M 的价值更乐观。
“公司股票的价格”(或者,对于加密货币,代币)是最常被引用的指标,因为它很容易理解和衡量,但该机制可以支持多种指标:月活跃用户、某些选民群体的自我报告中位数幸福感、某种可量化的去中心化度量等。
Futarchy 最初是在 AI 时代之前发明的。然而,futarchy 非常适合前一节中描述的“复杂的解决者,简单的验证者”范式,futarchy 中的交易者也可以是 AI(或人类 + AI 组合)。“解决者”(预测市场交易者)的角色是确定每个提议的计划将如何影响未来指标的价值。这很难。解决者如果正确就能赚钱,如果错误就会赔钱。验证者(对指标进行投票的人,如果发现指标被“游戏”或过时则调整指标,并在未来某个时间确定指标的实际值)只需要回答更简单的问题“现在指标的值是多少?”
提炼的人类判断是一类机制,其工作方式如下。有大量(想象:100 万)问题需要回答。自然示例包括:
你有一个陪审团可以回答这些问题,尽管每个答案都需要花费大量精力。你只让陪审团回答一小部分问题(例如,如果总列表有 100 万个项目,陪审团可能只提供其中 100 个的答案)。你甚至可以问陪审团间接问题:不是问“Alice 应该获得总信用的百分之多少?”,而是问“Alice 或 Bob 应该获得更多信用,多少倍?”。在设计陪审团机制时,你可以重用现实世界中经过时间考验的机制,如拨款委员会、法院(确定判决的价值)、评估等,当然陪审团参与者自己欢迎使用新奇的 AI 研究工具来帮助他们得出答案。然后你允许任何人提交对整个问题集的数字响应列表(例如,提供对列表中每个参与者的信用估计)。鼓励参与者使用 AI 来做到这一点,尽管他们可以使用任何技术:AI、人类-AI 混合体、可以访问互联网搜索并能够自主雇佣其他人类或 AI 工作人员的 AI、赛博格增强的猴子等。一旦完整列表提供者和陪审团都提交了他们的答案,完整列表将与陪审团答案进行核对,并采用与陪审团答案最兼容的完整列表的某种组合作为最终答案。提炼的人类判断机制与 futarchy 不同,但有一些重要的相似之处:
在这个“击败索伦”的例子中,“人类作为方向盘”的方面体现在两个地方。首先,在每个单独的问题上应用了高质量的人类判断,尽管这仍然利用陪审团作为“技术官僚”的绩效评估者。其次,有一个隐含的投票机制来确定“击败索伦”是否是正确的目标(而不是,比如说,试图与他结盟,或向他提供某个关键河流以东的所有领土作为和平的让步)。还有其他提炼的人类判断用例,其中陪审团的任务更直接地涉及价值观:例如,想象一个去中心化的社交媒体平台(或子社区),陪审团的工作是将随机选择的论坛帖子标记为遵守或不遵守社区规则。
提炼的人类判断范式中有一些开放的变量:
score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 for (A, B, juror_ratio) in jury_answers)
:也就是说,对于每个陪审团答案,它询问完整列表中的比率与陪审团提供的比率有多远,并添加与距离平方(在对数空间中)成比例的惩罚。这是为了表明评分函数的设计空间很丰富,评分函数的选择与你向陪审团提出的问题的选择有关。总的来说,目标是采用已知有效且偏见最小化并经受住时间考验的人类判断机制(例如,想想法院系统的对抗结构如何包括争议的双方,他们拥有高信息但可能有偏见,以及法官,他们拥有低信息但可能无偏见),并使用 AI 的开放市场作为这些机制的高保真且非常低成本的预测器(这类似于 LLM 的“蒸馏”工作方式)。
深度资助是将提炼的人类判断应用于填充图边缘权重的问题,表示“X 的百分之多少的信用属于 Y?”最容易通过一个例子直接展示这一点:
两级深度资助示例的输出:以太坊的思想起源。参见 此处的 python 代码。
这里的目标是分配导致以太坊的哲学贡献的信用。让我们看一个例子:
0.205 * 0.6 * 0.173 + 0.195 * 0.648 * 0.201 ~= 0.0466
。因此,如果你必须捐赠 100 美元来奖励所有激励以太坊哲学的人,根据这个模拟的深度资助轮次,自由意志主义的小政府主义者和无政府主义者将获得 4.66 美元。这种方法设计用于工作建立在前人工作之上且结构高度清晰的领域。学术界(想想:引用图)和开源软件(想想:库依赖和分叉)是两个自然示例。
一个良好运作的深度资助系统的目标是创建和维护一个全局图,任何有兴趣支持某个特定项目的资助者都可以将资金发送到代表该节点的地址,资金将根据图边缘的权重自动传播到其依赖项(并递归地传播到它们的依赖项等)。
你可以想象一个去中心化协议使用内置的深度资助小工具来发行其代币:一些协议内的去中心化治理将选择陪审团,陪审团将运行深度资助机制,协议自动发行代币并将其存入与自身对应的节点。通过这样做,协议以程序化的方式奖励其所有直接和间接的贡献者,类似于比特币或以太坊区块奖励奖励一种特定类型的贡献者(矿工)。通过影响边缘的权重,陪审团获得了一种持续定义其价值贡献类型的方式。这种机制可以作为挖矿、销售或一次性空投的去中心化和长期可持续的替代方案。
通常,对上述示例中的问题做出良好判断需要访问私人信息:组织的内部聊天记录、社区成员机密提交的信息等。对于较小规模的上下文,“只使用一个单一的 AI”的一个好处是,让一个 AI 访问信息比让所有人公开访问信息更容易接受。为了使提炼的人类判断或深度资助在这些上下文中工作,我们可以尝试使用加密技术安全地让 AI 访问私人信息。想法是使用多方计算(MPC)、全同态加密(FHE)、可信执行环境(TEE)或类似机制使私人信息可用,但只提供给那些唯一输出是“完整列表提交”并直接放入机制的机制。如果你这样做,那么你必须将机制集限制为只是 AI 模型(而不是人类或 AI + 人类组合,因为不能让人类看到数据),特别是运行在某些特定基板(例如 MPC、FHE、可信硬件)中的模型。一个主要的研究方向是找到近期的实用版本,这些版本足够高效以有意义。
这样的设计有许多有前景的好处。迄今为止最重要的是它们允许构建 DAO,其中人类选民负责设定方向,但他们不会被过多的决策所压倒。它们达到了一个快乐的中间地带,每个人不必做出 N 个决策,但他们比只做一个决策(通常如何委派工作)拥有更多的权力,并且以一种更能够引出难以直接表达的丰富偏好的方式。此外,这样的机制似乎具有激励平滑的特性。我在这里所说的“激励平滑”是两个因素的结合:
这里的术语混淆和扩散取自密码学,它们是使密码和哈希函数
- 原文链接: vitalik.eth.limo/general...
- 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!