Vitalik 新文:去中心化加速主义与人工智能一周年展望
原文标题:《d/acc: one year later》
作者: Vitalik Buterin ,以太坊创始人
编译:Leek,Foresight News
文章围绕去中心化加速(d/acc)理念展开,探讨其在技术发展中的应用及面临的挑战,包括人工智能安全与监管、与加密货币的关联以及公共物品资助等方面,强调了 d/acc 对构建更安全美好世界的重要性及未来发展的机遇与挑战。作者深入阐述 d/acc 的内涵,通过对比不同策略分析其在应对人工智能风险等方面的作用,同时论述加密货币在其中的价值及公共物品资助机制的探索,最后展望未来技术发展虽有挑战但人类仍有机会凭借现有工具和理念构建更优世界。
特别感谢 Liraz Siri、Janine Leger 和 Balvi 等志愿者的反馈与审阅。
大约一年前,我撰写了一篇关于技术乐观主义的文章,文中阐述了我对技术所持的总体热忱,以及技术能够带来的巨大效益,同时也表达了我对一些特定问题的审慎态度,这些问题主要聚焦于超级智能人工智能,以及倘若这项技术构建不当,便可能引发的毁灭风险,或者导致人类不可逆转地丧失权力的风险。
我在那篇文章中的一个核心观点是秉持一种理念:去中心化、民主且差异化的防御性加速。既要加速技术发展,又要有区别地聚焦于那些能够提升我们防御能力而非造成伤害能力的技术,并且致力于推动权力分散,而非让权力集中在少数精英手中,避免由这些精英代表所有人去判定是非善恶。防御的模式应如同民主的瑞士,以及历史上准无政府主义的佐米亚地区那般,而非中世纪封建主义下领主和城堡所代表的模式。
自那时起的一年间,这些理念和想法经历了显著的发展与成熟。我在「80,000 小时」(注:一个专注于职业选择的组织)这一平台上分享了这些想法,收获了诸多回应,其中大部分是积极的,当然也存在一些批评的声音。
这项工作本身持续推进并取得了切实成果:在可验证开源疫苗领域,我们目睹了进展;人们对健康室内空气价值的认知不断深化;「社区笔记」持续发挥着积极效用;预测市场作为一种信息工具迎来了突破之年;零知识简洁非交互式知识论证(ZK - SNARKs)在政府身份识别和社交媒体领域得以应用(并且通过账户抽象确保了以太坊钱包的安全);开源成像工具在医学和脑机接口(BCI)领域获得应用,等等。
在去年秋季,我们迎来了首个重要的 d/acc 活动:于 Devcon 举办的「d/acc 发现日」(d/aDDy),活动汇聚了来自 d/acc 各个支柱领域(生物、物理、网络、信息防御,以及神经技术)的演讲者,活动持续了整整一天。多年来致力于这些技术的人们愈发了解彼此的工作,而外部人士也越发意识到这一更为宏大的愿景:推动以太坊和加密货币发展的相同价值观能够拓展至更广阔的世界。
时光流转至 2042 年。你在媒体报道中看到一则消息,称你所在的城市可能爆发新的疫情。对于此类消息,你已然司空见惯:人们往往会对每一种动物疾病突变反应过度,而绝大多数情况下,这些突变最终都不会引发实际危机。此前的两次潜在疫情,均通过废水监测以及对社交媒体的开源分析得以在早期察觉,并成功被遏制在萌芽状态。然而,此次情况有所不同,预测市场显示出现至少 10,000 例病例的概率高达 60%,这让你忧心忡忡。
就在昨天,该病毒的基因序列已被确定。用于你口袋中空气测试仪的软件更新随即推出,借助这一更新,测试仪能够检测新病毒(无论是通过一次呼吸检测,还是在房间内暴露于室内空气 15 分钟后检测)。与此同时,使用全球任何现代医疗设施都能获取的设备来生成疫苗的开源指令和代码,预计将在几周内发布。大多数人目前尚未采取任何行动,他们主要依赖广泛采用的空气过滤和通风措施来保护自身安全。
由于你自身存在免疫问题,所以行事更为谨慎:你所使用的开源本地运行个人助理人工智能,除了承担导航、餐厅和活动推荐等常规任务外,还会综合考虑实时空气测试数据和二氧化碳数据,从而仅向你推荐最为安全的场所。这些数据由成千上万的参与者和设备提供,借助 ZK - SNARKs 和差分隐私技术,最大限度地降低了数据被泄露或滥用于其他目的的风险(如果你有意为这些数据集贡献数据,还有其他个人助理人工智能会验证这些加密工具是否确实有效)。
两个月后,疫情奇迹般地消散了:似乎 60% 的人遵循了基本防疫协议,即当空气测试仪发出警报并显示存在病毒时便佩戴口罩,若个人检测结果呈阳性则居家隔离。正是这一举措,足以将由于被动强力空气过滤而已经大幅降低的传播率进一步降至 1 以下。一场模拟结果显示可能比二十年前的新冠疫情严重五倍的疾病,如今却未造成严重影响。
Devcon 的 d/acc 日
Devcon 举办的 d/acc 活动取得了一项极为积极的成果,那就是 d/acc 理念成功地将来自不同领域的人们凝聚在一起,并切实激发了他们对彼此工作的浓厚兴趣。
举办一场具有「多样性」的活动并非难事,但要让不同背景和兴趣的人真正建立起紧密的联系却殊为不易。我至今仍对初中和高中时期被迫观看冗长歌剧的经历记忆犹新,当时我个人觉得这些歌剧枯燥乏味。我深知自己「理应」欣赏它们,因为若不如此,便会被视为没有文化的计算机科学懒虫,但我却未能在更深层次上与歌剧内容产生共鸣。然而,d/acc 日的活动氛围却截然不同:感觉人们真心喜爱了解不同领域的各类工作。
倘若我们渴望构建一个比统治、减速和毁灭更为光明的未来,就必然需要开展这种广泛的联盟建设。d/acc 在这方面似乎取得了显著成效,仅此一点便足以彰显这一理念的宝贵价值。
d/acc 的核心思想简洁明了:去中心化、民主且差异化的防御性加速。构建能够促使攻防平衡向防御倾斜的技术,并且在实施过程中不依赖于将更多权力交予中央权威机构。这两个方面之间存在着内在的紧密联系:任何一种去中心化、民主或自由的政治结构,在防御易于实施时往往能够蓬勃发展,而在防御面临重重困难时则会遭遇严峻挑战——在那些情况下,更有可能出现的结果是一段所有人相互对抗的混乱时期,最终达成由最强者统治的平衡状态。
理解尝试同时实现去中心化、防御性和加速性的重要意义的一种方式,是将其与放弃这三个方面中的任意一个所产生的理念进行对比。
去年《我的技术乐观主义》中的图表
去中心化加速,但忽视「差异化防御」部分
从本质上讲,这类似于成为一名有效加速主义者(e/acc),但同时追求去中心化。有许多人采取这种方式,其中一些人自称 d/acc,但他们有益地将自身重点描述为「进攻」。此外,还有许多其他人对「去中心化人工智能」及类似话题表现出更为温和的热情,但在我看来,他们对「防御」层面的关注明显不足。
在我看来,这种方式或许能够避免特定群体对全球人类实施独裁统治的风险,但它却未能解决潜在的结构性问题:在一个有利于进攻的环境中,始终存在着灾难降临的持续风险,或者有人会将自己定位为保护者,并永久性地占据统治地位。就人工智能而言,它也无法妥善解决人类整体相对于人工智能被削弱权力的风险。
差异化防御加速,但忽略「去中心化和民主」
为了实现安全目标而接受集中控制,这对一部分人始终具有一定的吸引力,读者无疑已经熟知众多此类事例,以及它们所带来的弊端。近期,一些人担忧极端集中控制可能是应对未来极端技术的唯一途径:例如,设想这样一个假设情景,「每个人都佩戴一个‘自由标签’——这是当今更为有限的可穿戴监控设备的后续产品,类似于几个国家用作监狱替代方案的脚踝标签……加密的视频和音频被持续上传,并实时由机器进行解读」。然而,集中控制存在一个程度的问题。一种通常被忽视但仍然有害的相对温和的集中控制形式,体现在生物技术领域(例如食品、疫苗)对公众监督的抵制,以及允许这种抵制行为不受挑战的闭源规范。
这种方式的风险显而易见,那就是中心本身往往会成为风险的源头。我们在新冠疫情期间便已见证了这一点,由多个主要世界政府资助的功能获得性研究可能是疫情的根源所在,集中的认识论导致世界卫生组织多年来拒绝承认新冠病毒是通过空气传播的,而强制性的社交距离和疫苗强制令则引发了可能持续数十年的政治反弹。类似的情况极有可能在与人工智能或其他风险技术相关的任何风险情境中再次发生。相比之下,去中心化的方式将更有效地应对来自中心自身的风险。
去中心化防御,但排斥加速
从本质上来说,这是试图减缓技术进步或推动经济衰退。
这种策略面临着双重挑战。首先,总体而言,技术和经济增长对人类而言是极为有益的,任何对其的延迟都会带来难以估量的代价。其次,在一个非极权主义的世界中,停滞不前是不稳定的:那些「作弊」最多,能够找到看似合理的方式继续推进发展的人或群体将会占据优势。减速主义策略在某些特定情境下能够在一定程度上发挥作用:例如欧洲食物比美国食物更为健康,这便是一个例证;核不扩散到目前为止取得的成功也是如此。然而,这些策略不可能永远奏效。
通过 d/acc,我们致力于实现以下目标:
思考 d/acc 的另一种视角是回归到 21 世纪 00 年代末欧洲海盗党运动的一个框架:赋权。
我们的目标是构建一个能够保留人类能动性的世界,实现消极自由,即避免他人(无论是普通公民、政府,还是超级智能机器人)对我们塑造自身命运的能力进行积极干预,同时实现积极自由,即确保我们拥有知识和资源去践行这一能力。这呼应了一个延续数世纪的古典自由主义传统,其中涵盖了斯图尔特·布兰德对「工具获取」的关注,以及约翰·斯图尔特·密尔对教育与自由并列作为人类进步关键要素的强调——或许还可以补充巴克敏斯特·富勒期望全球解决问题的过程是参与式和广泛分布的愿景。鉴于 21 世纪的技术格局,我们可以将 d/acc 视为实现这些相同目标的一种途径。
在我去年的文章中,d/acc 特别聚焦于防御性技术:物理防御、生物防御、网络防御和信息防御。然而,单纯的去中心化防御并不足以构建一个伟大的世界:我们还需要一个具有前瞻性的积极愿景,明确人类在获得新的去中心化和安全性之后能够实现何种目标。
去年的文章在两个方面确实包含了一个积极的愿景:
1、在关注超级智能的挑战时,我提出了一条路径(这对我来说并非原创),即我们如何在不丧失权力的情况下实现超级智能:
2、在谈及信息防御时,我也曾顺便提及,除了那些旨在帮助社区在面对攻击者时保持凝聚力并进行高质量讨论的防御性社会技术之外,还存在进步性社会技术,能够助力社区更轻松地做出高质量判断:Pol.is 便是一个实例,预测市场亦是如此。
但当时这两点感觉与 d/acc 的核心论点存在脱节:「这里有一些关于在基础层面构建一个更民主、更有利于防御的世界的想法,顺便说一下,这里还有一些关于我们如何实现超级智能的不相关想法」。
然而,我认为在现实中,上述被标记为「防御性」和「进步性」的 d/acc 技术之间存在着一些至关重要的联系。让我们扩展去年文章中的 d/acc 图表,通过在图表中添加这个轴(同时将其重新标记为「生存与繁荣」),来看看会呈现出怎样的结果:
在各个领域中存在着一个一致的模式,即那些能够帮助我们在某一领域「生存」的科学、思想和工具,与能够助力我们「繁荣」的科学、思想和工具密切相关。以下是一些具体例子:
除此之外,不同学科领域之间还存在着重要的相互依存关系:
不同的人有截然不同的人工智能时间表。图表来自 2023 年黑山的 Zuzalu。
去年我的文章所收到的最具说服力的反对观点来自人工智能安全社区。其论点为:「当然,如果我们有半个世纪的时间来发展强人工智能,我们可以集中精力构建所有这些有益的事物。但实际上,看起来我们可能仅有三年时间发展到通用人工智能,再过三年发展到超级智能。因此,如果我们不想让世界陷入毁灭或以其他方式陷入不可逆转的困境,我们不能仅仅加速有益技术的发展,还必须减缓有害技术的发展,这意味着需要通过可能会触怒权势阶层的强有力监管措施」。在我去年的文章中,除了含糊地呼吁不要构建具有风险的超级智能形式之外,我确实未曾提出任何具体的「减缓有害技术发展」的策略。所以在此,有必要直接探讨这个问题:如果我们身处最不理想的世界,人工智能风险极高且时间线可能仅有五年之短,我会支持何种监管措施呢?
去年,主要的人工智能监管提案是加利福尼亚州的 SB - 1047 法案。SB - 1047 要求最强大模型(即那些训练成本超过 1 亿美元,或微调成本超过 1000 万美元的模型)的开发者在发布前采取一系列安全测试措施。此外,如果人工智能模型开发者未能足够谨慎,将对其追究责任。许多批评者认为该法案「对开源构成威胁」;我对此持有异议,因为成本阈值意味着它仅影响最强大的模型:即使是 Llama3 模型可能也低于该阈值。然而,回顾过去,我认为该法案存在一个更为严重的问题:如同大多数监管措施一样,它过度适应了当前的情况。对训练成本的关注在面对新技术时已被证明是脆弱的:近期最先进的 DeepSeek v3 模型的训练成本仅为 600 万美元,而且在像 o1 这样的新模型中,成本通常从训练更多地转移到了推理阶段。
实际上,最有可能对人工智能超级智能毁灭场景负责的行为者是军队。正如我们在过去半个世纪的生物安全(及更早时期)中所目睹的那样,军队愿意采取一些可怕的行动,而且他们极易犯错。如今,人工智能在军事领域的应用正在迅速发展(如在乌克兰、加沙地区的应用)。并且,任何政府通过的安全监管措施,默认情况下都会豁免本国军队以及与军队密切合作的公司。
尽管如此,这些论点并非让我们束手无策的理由。相反,我们可以将它们作为指引,尝试制定引发这些担忧最少的规则。
策略 1:责任
如果某人的行为以某种方式造成了可依法追究的损害,他们可能会被起诉。这并不能解决来自军队和其他「凌驾于法律之上」的行为者所带来的风险问题,但这是一种非常通用的方法,可避免过度拟合,正因如此,倾向于自由意志主义的经济学家通常支持这种做法。
到目前为止所考虑的主要责任目标如下:
将责任归于用户似乎最符合激励机制。虽然模型的开发方式与最终使用方式之间的联系往往不明确,但用户决定了人工智能的具体使用方式。对用户追究责任会产生一种强大的压力,促使人们以我认为正确的方式使用人工智能:专注于为人类思维构建机械套装,而非创造新的自我维持的智能生命形式。前者会定期响应用户意图,因此除非用户希望,否则不会导致灾难性行动。而后者则存在最大的风险,即可能失控并引发经典的「人工智能失控」场景。将责任尽可能靠近最终使用端的另一个好处是,它最大限度地减少了责任导致人们采取在其他方面有害的行动的风险(例如闭源、了解你的客户(KYC)和监控、国家 / 企业勾结秘密限制用户,如银行拒绝为某些客户提供服务,将世界上大片地区排除在外)。
有一种经典的反对仅将责任归于用户的观点:用户可能是普通个人,没有太多钱,甚至可能是匿名的,这样就没有人能够实际为灾难性的损害买单。这种观点可能被夸大了:即使有些用户太小而无法承担责任,人工智能开发者的普通客户却不是,因此人工智能开发者仍然会受到激励,去构建能够让用户确信他们不会面临高责任风险的产品。也就是说,这仍然是一个有效的观点,需要加以解决。你需要激励管道中的某个有资源采取适当谨慎措施的人这样做,而部署者和开发者都是容易找到的目标,他们仍然对模型的安全性有很大影响。
部署者责任似乎是合理的。一个常见的担忧是它对开源模型不起作用,但这似乎是可以管理的,特别是因为最强大的模型很有可能是闭源的(如果结果是开源的,那么虽然部署者责任最终可能不是非常有用,但也不会造成太大危害)。开发者责任也存在同样的担忧(尽管对于开源模型,需要微调模型以使其做一些原本不被允许的事情存在一定障碍),但同样的反驳理由也适用。作为一般原则,对控制施加一种「税」,本质上是说「你可以构建你无法控制的东西,或者你可以构建你能够控制的东西,但如果你构建你能够控制的东西,那么 20% 的控制权必须用于我们的目的」,这似乎是法律体系应有的合理立场。
一个似乎尚未得到充分探索的想法是将责任归于管道中的其他行为者,这些行为者更有可能拥有充足的资源。一个非常符合 d/acc 理念的想法是,对人工智能在执行某些灾难性有害行动过程中所接管(例如通过黑客攻击)的任何设备的所有者或操作者追究责任。这将创造一种非常广泛的激励,促使人们努力使世界(特别是计算和生物领域)的基础设施尽可能安全。
策略 2:工业规模硬件上的全球「软暂停」按钮
如果我确信我们需要比责任规则更「强有力」的措施,我会选择这个策略。目标是在关键时期具备将全球可用计算能力降低约 90% - 99% 的能力,持续 1 - 2 年,为人类争取更多准备时间。1 - 2 年的价值不应被高估:一年的「战时模式」在自满的情况下很容易抵得上一百年的常规工作。实现「暂停」的方法已经在探索中,包括一些具体的提案,如要求硬件注册和验证位置。
一种更先进的方法是使用巧妙的加密技术手段:例如,生产出来的工业规模(但非消费级)人工智能硬件可以配备一个可信硬件芯片,只有在每周获得来自主要国际机构(包括至少一个非军事附属机构)的 3/3 签名时,才允许其继续运行。这些签名将与设备无关(如果需要,我们甚至可以要求在区块链上发布零知识证明),所以这将是全有或全无的:没有实际方法可以授权一个设备继续运行而不授权所有其他设备。
这在最大化利益和最小化风险方面似乎「符合要求」:
硬件监管已经在被强烈考虑,尽管通常是在出口管制的框架内,这本质上具有一种「我们信任自己一方,但不信任另一方」的理念。利奥波德·阿申布伦纳曾著名地主张美国应该竞相取得决定性优势,然后迫使中国签署一项协议,限制他们可以运行的设备数量。在我看来,这种方法似乎有风险,并且可能结合多极竞赛和集中化的缺陷。如果我们必须限制人们,似乎更好的做法是平等地限制每个人,并努力实际合作来组织实施,而不是一方试图支配所有人。
这两种策略(责任和硬件暂停按钮)都存在漏洞,并且很明显它们只是暂时的权宜之计:如果在时间 T 时在超级计算机上能够做某事,那么在时间 T + 5 年时在笔记本电脑上也很可能能够做到。因此,我们需要更稳定的措施来争取时间。许多 d/acc 技术在这里是相关的。我们可以如下看待 d/acc 技术的作用:如果人工智能接管世界,它会如何做到?
如上文简要提到的,责任规则是一种自然符合 d/acc 理念的监管方式,因为它们可以非常有效地激励世界各地采用这些防御措施并认真对待。台湾最近一直在试验对虚假广告追究责任,这可以被视为利用责任来鼓励信息防御的一个例子。我们不应过于热衷于到处施加责任,并且要记住普通的自由在使小人物能够参与创新而无需担心诉讼方面的好处,但是在我们确实希望更强有力地推动安全的地方,责任可以相当灵活和有效。
d/acc 的很多方面远远超出了典型的区块链主题:生物安全、脑机接口和协作话语工具似乎与加密货币人士通常谈论的内容相去甚远。然而,我认为加密货币和 d/acc 之间存在一些重要联系,特别是:
Cursive 是一款使用全同态加密技术(FHE)的应用程序,它允许用户识别与其他用户共同感兴趣的领域,同时保护隐私。清迈的 Edge City(Zuzalu 的众多分社之一)就使用了这款应用。
我一直感兴趣的一个问题是想出更好的机制来资助公共物品:即对非常大的群体有价值但没有自然可及商业模式的项目。我过去在这方面的工作包括我对二次方资金资助及其在 Gitcoin 赠款、追溯性公共物品资金(retro PGF)以及最近的深度资金资助中的贡献。
许多人对公共物品这个概念持怀疑态度。这种怀疑通常来自两个方面:
这些都是重要的批评,而且是合理的批评。然而,我认为强大的去中心化公共物品资助对于 d/acc 愿景至关重要,因为 d/acc 的一个关键目标(最小化中央控制点)本身就阻碍了许多传统商业模式。在开源基础上建立成功的企业是可能的——几个 Balvi 受资助者正在这样做——但在某些情况下这足够困难,以至于重要项目需要额外的持续支持。因此,我们必须做困难的事情,即弄清楚如何以一种解决上述两个批评的方式进行公共物品资助。
第一个问题的解决方案基本上是可信的中立性和去中心化。中央计划是有问题的,因为它将控制权交给了可能变得滥用权力的精英,并且因为它经常过度适应当前情况,随着时间推移变得越来越无效。二次方资金资助和类似机制正是关于以尽可能可信的中立和(在架构和政治上)去中心化的方式资助公共物品。
第二个问题更具挑战性。对于二次方资金资助,一个常见的批评是它很快就变成了一场人气竞赛,要求项目资助者花费大量精力进行公开宣传。此外,那些「在人们眼前」的项目(例如最终用户应用程序)得到资助,而那些更在幕后的项目(典型的「由内布拉斯加州的一个人维护的依赖项」)根本得不到任何资助。乐观主义追溯性资金依赖于较少数量的专家徽章持有者;在这里,人气竞赛效应减少了,但与徽章持有者有密切个人关系的社会效应被放大了。
深度资金资助是我自己为解决这个问题所做的最新努力。深度资金资助有两个主要创新:
但深度资金资助只是最新的例子;之前还有其他公共物品资助机制的想法,未来也会有更多。allo.expert 在对它们进行编目方面做得很好。根本目标是创建一个社会工具,能够以至少接近市场资助私人物品的准确性、公平性和开放准入水平来资助公共物品。它不必完美;毕竟,市场本身也远非完美。但它应该足够有效,使得从事对每个人都有益的高质量开源项目的开发者能够继续这样做,而不会觉得需要做出不可接受的妥协。
如今,大多数 d/acc 主题领域的领先项目:疫苗、脑机接口、像手腕肌电和眼动追踪这样的「边缘脑机接口」、抗衰老药物、硬件等,都是专有项目。这在确保公众信任方面有很大的缺点,正如我们在上述许多领域已经看到的那样。它还将注意力转向竞争动态(「我们的团队必须赢得这个关键行业!」),而远离了确保这些技术足够快地出现以在超级智能人工智能的世界中保护我们的更大竞争。出于这些原因,强大的公共物品资助可以成为开放性和自由的有力推动者。这是加密货币社区可以帮助 d/acc 的另一种方式:通过认真努力探索这些资助机制,并使其在自身背景下良好运作,为更广泛地应用于开源科学和技术做好准备。
未来几十年带来了重要挑战。最近我一直在思考两个挑战:
然而,这些挑战中的每一个都有一线希望。首先,我们现在拥有非常强大的工具来更快地完成我们的剩余工作:
其次,现在许多我们珍视的原则不再被旧势力的少数特定部分所占据,它们可以被一个欢迎世界上任何人加入的广泛联盟所重新夺回。这可能是最近世界各地政治「重新调整」的最大好处,值得加以利用。加密货币已经出色地利用了这一点并找到了全球吸引力;d/acc 也可以做到同样的事情。
获取工具意味着我们能够适应和改善我们的生物特性和环境,而 d/acc 中的「防御」部分意味着我们能够做到这一点而不侵犯他人同样做的自由。自由多元主义原则意味着我们在如何做到这一点上可以有很大的多样性,而我们对共同人类目标的承诺意味着它应该得以实现。
我们人类仍然是最耀眼的明星。摆在我们面前的任务,即构建一个更加光明的 21 世纪,在我们迈向星辰的过程中保护人类的生存、自由和能动性,是一项具有挑战性的任务。但我相信我们能够胜任。

PEPE’s 2030 Ambition Meets Mantle’s $1.40 Decline, While BlockDAG Surges Toward $600M
Discover how BlockDAG’s $383M presale, 2,660% ROI, and batch 29 price compare with Mantle MNT price ...

Funton.ai and Helix Labs Ally to Uncover Multichain Yield Opportunities in DeFi
Funton.ai and Helix Labs unlocking multichain yield opportunities by leveraging EigenFi for liquid s...

Best Meme Coins to Buy Now: FLOKI, WIF, and DeepSnitch AI for Early-Stage Upside
FLOKI and WIF eye breakouts, while DeepSnitch AI’s $0.01602 presale is tipped as the best meme coin ...