Vitalik: 我为什么支持隐私

本文探讨了隐私在现代社会中的重要性,强调隐私不仅是个人自由的保障,还对社会秩序和科技进步至关重要。文章分析了隐私缺失可能导致的各种负面影响,及其在应对未来科技挑战中的必要性,特别是在人工智能和脑机接口技术兴起的背景下。

我为什么支持隐私

特别感谢 Balvi 的志愿者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu 和 Luozhu Zhang 的讨论和反馈。

最近,我越来越关注如何在以太坊生态系统中改善隐私状态隐私是去中心化的重要保障:拥有信息的人拥有权力,因此我们需要避免对信息的集中控制。当现实世界中的人们对中心化的技术基础设施表达担忧时,这种担忧有时涉及运营商意外改变规则或剥夺用户平台,但同样常见的还是数据收集。虽然加密货币领域源于像Chaumian Ecash这样的项目,这些项目将数字金融隐私的保护置于中心,但最近在一个最终却并不好的理由下低估了隐私:在 ZK-SNARKs 出现之前,我们没有办法以去中心化的方式提供隐私,因此我们淡化了这一点,反而专注于当时可以提供的其他保证。

然而今天,隐私再也无法被忽视。人工智能正在极大地提升集中数据收集和分析的能力,同时大大扩展我们愿意分享的数据范围。在未来,新技术如脑机接口面对着更大的挑战:我们可能在字面上谈论 AI 读取我们的思想。与此同时,我们在数字领域中保护隐私的工具比1990年代的密码朋克想象的要强大得多:高效的零知识证明 (ZK-SNARKs) 可以在透露足够信息以证明我们值得信赖的同时保护我们的身份,全同态加密 (FHE) 可以让我们在不查看数据的情况下对数据进行计算,而模糊化可能很快会提供更多。

隐私并不是一个独立的存在,而是共同的立足点。

在此时,值得退后一步,审视一下问题:我们到底为什么希望拥有隐私?每个人的答案都将不同。在这篇文章中,我将给出我自己的答案,我将其分为三部分:

  • 隐私是自由:隐私为我们提供了空间,让我们以最符合自己需求的方式生活,而不必时刻担心我们的行动在各种政治和社会游戏中将如何被看待。
  • 隐私是秩序:一系列支撑社会基本运作的机制依赖于隐私才能正常运行。
  • 隐私是进步:如果我们获得新的方式选择性地分享我们的信息,同时保护其不被滥用,我们就可以释放出大量的价值,加速技术和社会的进步。

隐私是自由

在2000年代初,拥有类似于戴维·布林1998年著作《透明社会的观点非常流行:技术将使全球信息变得更加透明,尽管这会带来负面影响并需要适应,但总体上这是一件非常好的事情,我们可以通过确保人们能够监视(或者说是 sousveil)政府来使其变得公平。1999年,阳光微系统的首席执行官斯科特·麦克尼利著名地叫嚷道:“隐私已经死了,别再纠结了!”这一心态在 Facebook 的早期概念和发展中非常普遍,Facebook禁止使用化名身份。我个人还记得2015年在深圳的华为活动中参与演讲时,西方某位演讲者随口提到“隐私已经结束”的情形。

《透明社会》展现了“隐私已经结束”意识形态所能提供的最好最聪明的东西:它承诺利用透明性的力量使政府对公众负责,而不是压制个人和少数派。 然而回顾过去,很明显即使这种方法也是当时的产品,写于对全球合作与和平、以及“历史终结”的极大热情的巅峰,它依赖于关于人性的一些过于乐观的假设。主要包括:

  1. 全球政治的高层一般会有良好的意图和理智,因此 纵向隐私(即不向强大的人和机构透露信息)将变得越来越不必要。滥用权力可以普遍是 局部性 的,因此抵抗这些滥用的最好方式就是将其暴露在阳光之下。
  2. 文化将不断改善,以至于 横向隐私(即不向其他公众成员透露信息)变得不必要。书呆子、同性恋者,最终所有人都可以停止藏匿,因为社会将不再对人们的独特特征严厉评判,而将变得开放和包容。

目前,没有单一的主要国家普遍同意第一个假设,而有相当多的国家普遍同意其是错误的。在第二个方面,文化的宽容度也在迅速退步——仅在 Twitter 上搜索短语如“霸凌是好的”就是一种证据,虽然我们可以很容易找到更多证据。

个人来讲,我经常遇到“透明社会”的负面影响,因为我在外做的每一件事都有非零的可能性意外成为新闻故事:

最严重的事件是有人在我在清迈使用笔记本电脑时拍了一分钟长的视频,并随后在小红书上发布,瞬间获得了数千个点赞和转发。当然,我自己的情况远非人类的范例——但这一直是隐私这一主题的问题:对生活情况相对正常的人来说,隐私的必要性较小,而对生活情况偏离常态的人来说,隐私的必要性更大,在任何 方向上。一旦将所有重要方向加在一起,真正需要隐私的人的数量最终是相当可观的——你永远不会知道什么时候你会成为其中的一员。这是隐私常常被低估的一个重要原因:它不仅关乎你当前的情况和信息,而且还关乎未来对此信息的使用(以及会对你产生的影响)的未知未知。

虽然企业定价机制下的隐私担忧在今天,甚至在 AI 支持者中都是一个小众关切,但随着基于 AI 的分析工具的崛起,这很可能会成为一个日渐增长的问题:公司对你的了解越多,它们提供个性化定价的可能性也就越大,这种价格会最大化它们从你这里提取的利益与致使你付出的价格的可能性之积。

我可以将我对隐私的总体论点用一句话表达如下:

隐私为你提供了以最符合你个人目标和需求的方式生活的自由,而不必不断地在“私人游戏”(你自己的需求)和“公共游戏”(其他各种人、通过各种机制,包括社交媒体涌现、商业激励、政治、机构等对你行为的反应和看法)之间进行平衡。

否则,一切 将变成“其他人(及机器人)会如何看待我正在做的事情” 的持续斗争——今天和未来的强大人、公司和同龄人。有了隐私,我们能够保持一种平衡。如今,这种平衡正在快速被侵蚀,尤其是在物质领域,现代科技资本主义的默认路径,正对用户施加价值捕获而不要求他们明确付费的商业模型饥渴,进一步侵蚀这种平衡(甚至传导到最终我们心灵的高度敏感的领域)。因此,我们需要抵消这种影响,更明确地支持隐私,尤其是在我们能最实际提供支持的地方:数字领域。

但为什么不允许政府后门?

对此种逻辑常有的回复是:我所描述的隐私缺失的缺点主要是公众 了解过多有关我们私人生活的信息,即使涉及滥权,也是公司、老板和政治家 了解过多。但我们不会让公众、公司、老板和政治家获取所有这些数据。相反,我们会让一小群经过高度训练和审核的执法专业人员查看从街头摄像头和互联网线缆的窃听数据中提取的信息,执行严格的问责程序,其他人不会知晓。

这是一个迅速得到广泛认可的观点,因此重要的是明确给出回应。有几个理由,即使以良好的意图以高标准实施,这种策略本质上也是不稳定的:

  1. 在实践中,不仅是政府,还有各种不同高度的公司实体。在传统金融系统中,KYC 和支付信息由支付处理商、银行和各种其它中介持有。电子邮件服务提供商可以看到巨量各类数据。电信公司知道你的位置信息,并定期非法转售此类数据。在一般情况下,对所有这些实体进行足够严格的监管,以确保它们充分关注用户数据是如此费时,以至于可能与维护竞争自由市场的目标相悖。
  2. 拥有访问权限的个人总会感受到滥用的诱惑(包括向第三方出售数据)。2019年,多名 Twitter 员工因向沙特阿拉伯出售异议人士的个人信息而被起诉,并后被定罪
  3. 数据总是可能会被黑客攻击。例如,在2024年,法律要求美国电信公司收集的数据就遭到黑客攻击,据称来自中国的国有黑客。在2025年,乌克兰政府持有的大量敏感个人数据被俄罗斯黑客攻击。反向来看,中国的高度敏感的政府和企业数据库也遭到攻击,包括美国政府的攻击
  4. 政权可能会改变。今天值得信赖的政府明天可能不再值得信赖。今天的掌权者可能明天就会遭到迫害。以完美的尊重和礼仪标准运作的某个执法机构今天可能会在十年后转而变得无情和残酷。

从个人的角度来看,如果数据被提取出来,他们就没有任何途径去判断其日后的任何滥用情况。处理大规模数据的最安全的方式是尽可能少地集中收集这些数据。 数据应该尽量由用户自己持有,并使用加密手段使得在不妨碍个人隐私的情况下聚合有用的统计信息。

认为政府因获得逮捕令而应有能力访问任何信息的理由遗漏了一个关键点:有历史为依据的,获取逮捕令可获得的信息量相较于今天实际上远低于现有的信息量,而即使在广泛接受的最强形式的互联网隐私的情况下,这种情况仍未改变。 在19世纪,普通对话通常是一次性发生,通过声音,且从未被任何人记录。因此:整個关于"陷入黑暗环境"的道德恐慌是不符合历史的:普通对话,甚至金融交易,完全及无条件 隐私是几千年的历史常态。

另一个减少集中数据收集的重要原因是全球通信和经济互动的大部分本质上是国际性的。如果每个人都在同一个国家,那么说“政府”应该能够访问他们的交互数据至少是一个连贯的立场。但如果人们身处不同国家呢?当然,原则上你可以 尝试提出一个银河脑子计划,把每个人的数据映射到某个合法访问实体,这样会对他们负有责任——但即使在这种情况下,你也必须处理涉及多个个人的数据的庞大边缘案例。但即使你能够做到,它也不是现实操作中的默认结果。政府后门的现实默认结果是:数据集中在少数几个中央管辖区中,因为他们控制了应用程序——从而形成全球技术霸权。强隐私是最稳定的替代方案

隐私是秩序

一个多世纪以来,人们已经认识到,使民主运作的关键技术组成部分是秘密投票:没有人知道你投了谁,此外,即使你真的想向任何人证明你投了谁,你也没有这个能力。如果秘密投票不是默认的话,那么选民将受到各种侧面激励影响他们的投票:贿赂、承诺补偿、社会压力、威胁等等。

可以看到,这种侧面激励将通过简单的数学论证完全破坏民主:在有N个人的选举中,你影响结果的概率只有大约 1/N,因此与哪个候选人的表现更好或更差的考量在本质上被除以 N。同时,“侧面游戏”(如选民贿赂、胁迫、社会压力)根据你的投票直接作用于你(而不是根据整个投票结果),所以它们不会被除以 N。因此,除非侧面游戏受到严格控制,默认情况下,它们将淹没整个游戏,抑制任何关于哪个候选人政策实际更好的考虑。

这不仅适用于国家规模的民主,理论上这几乎适用于任何企业或政府的委托代理问题:

  • 一名法官决定如何裁决案件
  • 一名政府官员决定给哪个公司提供合同或补助
  • 一名移民官员决定批准或拒绝签证
  • 社交媒体公司的工作人员在制定内容审查政策时做出的决定
  • 一家公司员工对于商业决策的贡献(例如,选择购买哪个供应商)

所有案例的根本问题是一样的:若代理人诚实行事,他们仅能吸收行动对代表的实体带来的好处的一小部分,而若他们遵循某个侧面游戏的激励,则能吸收全部分享的利益。因此,即使在今天,我们仍在依赖大量的道德善意,以确保我们的所有机构不会完全被一场拯救其他侧面游戏的混乱风暴所吞没。如果隐私进一步减少,则这些侧面游戏将变得更为强大,而维持社会运作所需的道德善意则可能变得不可想象。

社会系统是否可以重新设计以消除这个问题?不幸的是,博弈理论几乎明确表明这是不可能的(唯一的例外是:完全独裁)。在博弈理论的版本中,聚焦个体选择,即假设每个参与者独立做出决定,并且不允许代理集团一起为了共同利益运作,机制设计师有相当大的余地可以去“设计”游戏,以实现各种特定结果。事实上,有数学证明,对于任何 游戏,至少必须存在一个稳定的纳什均衡,因此这种游戏的分析变得可行。但在允许代理人集体行动(即“勾结”)的博弈理论版本中,称为_合作博弈论_的研究表明(https://en.wikipedia.org/wiki/Bondareva%E2%80%93Shapley_theorem) ,存在大量不具有任何稳定结果的博弈(称为“核心”)。在这样的游戏中,无论当前的状态如何,总会有某个联盟可以从中获利地偏离当前状态。

轮次 A B C
1 1/3 1/3 1/3
2 1/2 1/2 0
3 2/3 0 1/3
4 0 1/3 2/3

如果我们认真思考数学,我们会得出结论创造稳定社会结构的唯一方式是在参与者之间设置某种协调限制——这意味着强隐私(包括否认的可能性)。如果不认真对待数学,那么只需观察现实世界,或至少思考上述某些委托代理情况在被侧面游戏主导的情况下将会成为怎样,便可得出相同结论。

注意,这进一步引入了为什么政府后门有风险的另一个论点。如果_每个人_都能够在任何事情上与每个人无限制地协调,结果就是混乱。但如果只有_少数几个人_能够做到这一点,因为他们拥有特殊的信息访问权限,那么结果就是他们主导了局面。一个政党拥有对另一个政党通信的后门访问权限,很可能宣布多政-part制存在的终结。

另一个依赖于限制勾结以正常运作的社会秩序的重要例子是知识与文化活动。参与知识与文化活动本质上是一项内在动机驱动的公共精神任务:难以设定外部激励,旨在促进对社会的积极贡献,正是因为知识与文化活动,部分地,是决定社会哪些行为是积极行为的活动。我们可以制定近似的商业与社会激励来指引正确方向,但这同时也需要大量内在动机进行补充。但这也意味着这种活动尤为脆弱,容易受到错误配置外部激励的冲击,尤其是侧面游戏如社会压力和胁迫。为了限制这种错误外部激励的影响,隐私同样是不可或缺的。

隐私是进步

想象一个没有公钥和对称密钥加密的世界。在这个世界中,安全地跨越长距离发送信息本质上会变得更加困难——并非不可能,但的确困难。这将导致国际合作的减少,结果将更多事情依然通过线下面对面渠道进行,这将使得世界变得更加贫穷和不平等。

我将争论的是,如今,我们正在处于这样的一种境地,相对于一个极为严谨的、拥有比今天更强形式的加密技术的假想世界——尤其是可编程加密,并得到更强形式的全栈安全和形式化验证以让我们有强有力的保证,加密技术正在被正确使用。

一个极好的例子是医疗健康。如果你与任何10年来从事长寿、疫情抗击或其他健康领域的人员交谈,他们会普遍表示,未来的治疗和预防是个性化的,有效的应对极依赖于高质量的数据,包括个体数据和环境的数据。例如,有效保护人们免受空气传播疾病影响需要了解空气质量在哪些地方更高以及在什么区域病原体在任何时间内显现。最先进的长寿诊所都会基于关于身体、饮食偏好和生活方式的数据,提供定制的建议与治疗。

然而,这些事情同时也是巨大的隐私风险。我个人了解一件耐人寻味的事情,有一位员工被分发了一个连接到公司的空气监测器,所收集的数据足以确定这个员工什么时候在发生性行为。出于类似的理由,我预计许多最有价值的数据默认情况下将不会被收集,恰恰是因为人们害怕隐私后果。就算数据确实被收集,它通常也不会被广泛共享或提供给研究者——部分原因是商业因素,但同样也因为涉及隐私的担忧。

同样的模式在其他领域也重复出现。我们在撰写文档、通过各种应用发送信息和在社交媒体上进行行为中都产生了大量关于自己的信息,这些都可以更有效地用于预测和提供我们日常生活所需的东西。我们与现实环境互动的活动中也有大量不与健康相关的信息。今天,我们缺乏有效利用这些信息的工具,而不会制造出反乌托邦的隐私噩梦。明天我们可能会拥有这些工具。

解决这些挑战的最佳方法是使用强加密,这使我们能够分享数据而不带来负面后果。在这个 AI 时代,获得对数据(包括个人数据)的访问需求只会加大,因为能够在本地训练和运行“数字双胞胎”的能力以基于对我们偏好的高保真度近似做出决策,是一种价值。最终,这还将涉及使用脑机接口(BCI)技术,读取来自我们意识的高带宽输入。为了避免这种情形导致高度集中的全球霸权,我们需要在尊重强隐私的前提下进行。可编程加密是最值得信赖的解决方案。

隐私可以成为保护我们社会安全的进步

可编程加密技术,例如零知识证明,是强大的,因为它们像信息流的乐高积木。它们可以让人们精细控制谁能看到哪些信息,更为重要的是,哪些信息根本就不可以被看到。例如,我可以证明我有一份加拿大学签显示我已满18岁,而不透露更多关于我自己的信息。

这使得所有种类的迷人组合成为可能。我可以给出几个例子:

  • 人格的零知识证明:证明你是一个独特的人(通过各种形式的身份证明:护照生物识别、去中心化的基于社交图谱身份)而不泄露你是哪一个人。这可以用于“不成为机器人的证明”,各种“每人最大限度使用场景”,以及在揭示没有发生规则被违反的情况下保持全隐私。
  • 隐私池,一种财务隐私解决方案,可以在无需后门的情况下排除恶意行为者。用户在消费时可以证明其Coin来自于一个不在公开已知黑客和盗窃名单上的来源;其他盗贼只有自己无法生成这样的证明,因此他们无法隐蔽去除身份。Railgunprivacypools.com目前正在使用这样的方案。
  • 设备上的反欺诈扫描:这并不依赖于 ZKP,但感觉应该归入这一类别。你可以使用设备上的过滤器(包括 LLM)来检查传入的信息,自动识别潜在的虚假信息和诈骗。如果在设备上进行操作,便不会妨碍用户的隐私,而且这可以以用户赋能的方式完成,让每个用户选择订阅哪个过滤器。
  • 物品的来源证明:利用区块链和零知识证明的组合,可以跟踪物品在制造过程中的各种属性。这可以允许例如定价环境外部性且不公开公开披露供应链的做法。

隐私与人工智能

最近,ChatGPT 宣布,将开始将你的过去谈话作为你未来对话的上下文输入AI。趋势的持续发展是不可避免的:一种能够审视你过去对话并从中提取洞察的AI 本质上是有用的。在不久的将来,我们可能会看到人们开发AI产品,进行更深入的隐私入侵:被动收集你的互联网浏览模式、电子邮件和聊天记录、生物识别数据等。

在理论上,你的数据对你是私密的。实际上,这并不总是如此:

隐私保护可能运作很良好的可能性总是存在,而在这种情况下,AI幻觉地生成了布鲁斯从未询问的问题并抑制这一点。但没有任何方式去验证。同样,也没有任何方法可以验证我们的谈话是否被用于训练。

这些都是相当令人担忧的情况。更令人不安的是明确的AI监控用例,在这些用例中(物理和数字)关于人类的数据被在没有他们同意的情况下大规模收集和分析。面部识别技术已经在帮助威权政权肆无忌惮地打压政治异议了。而最令人担忧的是,人工智能数据收集与分析的最终边界:人类思想

从原则上讲,脑机接口技术具备极大的潜力来提升人类能力。去年的诺兰·阿巴赫 是神经链接的第一位患者的故事:

这款实验设备让如今30岁的阿巴赫获得了独立感。在此之前,使用嘴杆需要别人把他保持直立。如果他掉了嘴杆,那么人们就需要将其捡起来,而且他不能长久使用它,否则便可以导致伤口。用神经链接设备后,他能几乎完全控制计算机,随时浏览网页和玩电脑游戏,神经链接称他已经创造了用BCI进行光标控制的人类记录。

如今,这些设备足够强大,可以赋能受伤和生病的人群。未来,它们将强大到足够让身体健康的人能够高效地与计算机合作,并彼此进行如同思维般的沟通(!!),这种效率将让人们感到难以置信。然而,真正理解大脑信号以使这种沟通成为可能需要AI

未来的前景可能是天然形成的一种阴暗情况,我们可能获得硅制超级代理,这种超级代理在我们每个人的行为方式中抽取和分析信息,包括我们如何写作、行为和思考。但是我们也有一个更光明的未来,其中我们能够获得这些技术的好处,同时保持我们的隐私。

这个目标可以通过几种技术的结合来实现:

  • 尽可能在本地运行计算:许多任务(如基本图像分析、翻译、转录、基本的脑波分析(BCI))简单到可以完全在本地进行计算。实际上,本地运行的计算甚至有助于减少延迟并改善可验证性。如果某项工作能够在本地完成,那就应该在本地完成。这也包括各种中间步骤需要访问互联网、登录社交媒体账号等的计算任务。
  • 使用加密确保远程计算的完全隐私全同态加密(FHE)可以被用于安全地执行遥控AI计算,而不会让远程服务器看到数据或结果。从历史上看,FHE一直是计算代价较高的,但(i)最近其效率在快速提高,且(ii)LLM 是一种独特_结构化的_计算形式,几乎所有过多的计算都是线性运算,这使得它非常适合超高效的FHE实现。涉及多个利益方私密数据的计算可以通过多方计算来完成;两方这类事务的常见案例可以采用加密电路的方式高效解决。
  • 使用硬件验证将保证扩展至物理世界:我们可以坚持要求可以读取我们思想的硬件(无论是从颅内还是外部)必须开放和可验证,并使用IRIS等技术对其进行验证。我们还可以在其他领域这样做:例如,我们可以设置安全摄像头,只在当地LLM标记为身体暴力或医疗紧急情况时才保存和转发视频流,而在其他情况下则直接删除,并进行社区驱动的随机检查以寻求IRIS验证该摄像头的实施。

未来的不完美

2008年,自由意志主义哲学家大卫·弗里德曼出版了一本名为《未来的不完美》的书,其中他为新技术带来的社会变革提供了一系列的构想,并非所有结果都有利于你(或我们)。在某一部分,他描绘了隐私与监视之间复杂交织的潜在未来:数字隐私的增长与物理世界监视的增加之间存在一定平衡:

如果墙上的视频蚊子在看我打字,那给我的电子邮件使用强加密就毫无意义。因此,在透明社会中实现强隐私需要某种保护我身体和角色的界面……一种低科技解决方案是潜藏在斗篷中。高科技解决方案则是让脑机之间建立不通过手或任何能被外部观察人士看到的视觉手段的链接。24

现实空间的透明度与网络世界隐私之间的冲突同样在另一方向上进行……我的口袋电脑用你的公钥加密了我的信息,传送到你的口袋电脑,后者解密信息,通过你的VR眼镜显示。为了确保没有人能从背后一窥眼镜,眼镜将通过一种微小的激光在视网膜上书写信息。希望你眼球的内部仍然是私人空间。

我们可能会进入一个物理行为完全公开、信息交易完全私密的世界。这具有良好的某些特性。私人的公民仍然能够利用强隐私来找到一个杀手,但雇用他可能会需要支付的代价超出他们愿意支付的范围,因为在一个充分透明的世界中,所有谋杀均会被暴露。每个杀手完成一个任务后便要直接入狱。

关于这些技术与数据处理之间的互相影响会怎样呢?一方面,正是现代数据处理使得透明社会造成如此巨大的威胁——没有这些,我们将不会太在意记录世界上发生的一切事情,因为这仅只是从每天生产的数百万英里的胶卷中查找其中记录的六寸记录不会产生太多的考量。但是另一方面,支撑强隐私的技术甚至可以让我们在存在现代数据处理的同时重新确立隐私,以便确保其信息永不泄露给除了你以外的任何人。

这样的社会可能是所有可能的世界中最好的一种:如果一切进展顺利,我们将见证一个几乎没有物理暴力的未来,但同时保护我们的在线自由,并确保政治、民事、文化和知识领域中一些依赖于某种信息透明度限制来保证其持续运营的基本过程的运转。

即使并不理想,但与物理和数字隐私都接近零的版本相比,这种状况要好得多,最终包罗对我们自身思想隐私的包含。在2050年代中期,我们或许会获得思想上完全不受合法拦截的权利,并对那些思考暴露在全网的事件进行反思,并就此反对其中反映出的趋势。

社会一直依赖于隐私与透明度之间的平衡。在某些情况下,我也支持对隐私的限制。例如,我支持美国政府在合同中禁止竞争限制的做法,主要不是因为这些条款对工人有直接影响,而是因为它们部分表现出这类公司的隐秘领域知识应该部分开源。将这些公司比愿望对私密性进行更多开源推动是对隐私的限制——但我会认为这是有利于整体的。然而从宏观角度看,近期技术的最紧迫风险就是隐私接近历史最低水平,并且不平衡的程度非常差,最强大的个人和国家获得了大量关于每个人的数据,而其他人几乎没有。出于这个原因,支持每个人的隐私,并确保必要工具开源、普遍可用、可靠且安全,是我们这个时代的一项重要挑战。

  • 原文链接: vitalik.eth.limo/general...
  • 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
点赞 0
收藏 0
分享
本文参与登链社区写作激励计划 ,好文好收益,欢迎正在阅读的你也加入。

0 条评论

请先 登录 后评论
Vitalik Buterin
Vitalik Buterin
https://vitalik.ca/