d/acc:一年后

本文探讨了过去一年中"分散式与民主化的差异性防御加速(d/acc)"理念的演变及其在技术进步中的应用。d/acc旨在通过促进技术的去中心化和增强防御能力,帮助人类应对潜在的技术风险,特别是人工智能的挑战。作者总结了与此理念相关的多个技术领域的进展,以及如何通过有效的公共资金机制来支持这些目标。

d/acc:一年后

特别感谢 Liraz Siri、Janine Leger 以及 Balvi 志愿者的反馈和审阅

大约一年前,我写了一篇关于技术乐观主义的文章,描述了我对技术的整体热忱及其能带来的巨大好处,同时也表达了我对一些具体问题的谨慎看法,这些问题主要集中在超级智能 AI 及其所可能带来的毁灭或不可逆转的人类权力削弱风险,尤其是在不当构建技术的情况下。我的文章中一个核心理念是 去中心化和民主化的差异性防御加速。加速技术,但差异化地关注可以提升我们防御能力的技术,而不是我们造成伤害的能力,并且关注分散权力的技术,而不是将其集中于决定什么是对、错、善或恶的单一精英手中。防御如同民主化的瑞士 和历史上准无政府主义的佐米亚,而不是中世纪封建制的领主和城堡。

自那时以来,这一理念和思想有了显著的发展。我在80,000 Hours谈论了这些思想,并且收到了许多反响,主要是积极的,也有一些批评。相关工作正在继续并取得成果:我们正在看到进展 在可验证的开源疫苗,对健康室内空气价值的日益认可,社区笔记照耀着前行,预测市场作为信息工具的突破年,ZK-SNARK 在政府身份社交媒体中(以及通过账户抽象保护以太坊钱包),开源成像工具在医学和脑机接口中的应用,等等。在秋季,我们举行了第一次重要的 d/acc 事件:"d/acc 发现日" (d/aDDy) 在 Devcon 上,届时有来自 d/acc 各个支柱(生物、物理、网络、信息防御以及神经科技)的演讲者进行为期一天的演讲。那些多年来一直在从事这些技术的人越来越关注彼此的工作,而外部的人也越来越认识到更大的故事:激励以太坊和加密货币的同样价值观可以应用于更广泛的世界

目录

d/acc 是什么,是什么

现在是2042年。你在媒体上看到有关新传染病可能出现在你所在城市的报道。你对此已习以为常:人们对每一次动物疾病变异过于兴奋,而大多数情况最终都没有成真。之前的两个实际潜在大流行通过废水监测社交媒体的开源分析非常早就被发现并完全遏制。但是这次,预测市场显示至少有10,000例的可能性为60%,所以你更加担心。

病毒的序列昨天被识别。在你的口袋空气测试仪上,可以进行软件更新,以便让其能够检测新病毒(通过一次呼吸或在一个房间内15分钟的室内空气接触)。开源指令和代码将于数周内得到,可以使用在世界任何现代医疗设施中找到的设备生成疫苗。大多数人还没有采取任何行动,主要依赖于广泛使用空气过滤和通风来保护自己。你有免疫疾病,因此更加谨慎:你运行的开源本地个人助理 AI,处理导航、餐厅和活动推荐等多项任务,同时考虑实时空气测试仪和二氧化碳数据,只向你推荐安全的场所。数据由成千上万的参与者和设备提供,利用ZK-SNARKs差分隐私最大限度地降低数据泄露或滥用的风险(如果你想要提交数据到这些数据集中,还有其他个人助理 AI 会验证这些加密工具实际有效的形式证明)。

两个月后,疫情消失了:似乎60%的人遵循基本协议,如果空气测试仪发出哔声并显示病毒存在,就会戴上口罩,若个人检测阳性则呆在家里,这足以将传染率推低到1以下。模拟显示,可能比二十年前的 Covid 严重五倍的疾病在今天似乎毫无大碍。

在 Devcon 的 d/acc 事件中,最积极的收获之一是 d/acc 帐篷成功将来自非常不同领域的人们聚集在一起,并使他们对彼此的工作产生真正的兴趣。

创建具有“多样性”的活动很简单,但使不同背景和兴趣的人真正相互联系却很困难。我仍然记得在中学和高中时期被迫观看长时间的歌剧,并觉得它令人乏味。我知道我“应该”去欣赏它们,因为如果我不欣赏,我就会被视为没有文化的计算机科学者,但我并没有在更真实的层面上与内容产生联系。d/acc 日并没有那样的感觉:这确实让人有一种感觉,大家都在乐于学习在不同领域非常不同类型的工作。

如果我们想创造一个光明的替代方案,抵御统治、减速和毁灭,我们需要这种广泛的联盟建设。d/acc 似乎在这方面取得了真正成功,单凭这一点就显现出这一理念的价值。

d/acc 的核心理念很简单:去中心化和民主化的差异性防御加速。构建技术,使进攻/防御的平衡倾向于防御,并且这样做时不依赖于将更多权力交给中心化的当局。这两者之间有内在的联系:任何形式的去中心化、民主化或自由政治结构在防御容易时表现最佳,而在防御困难时面临最艰难的挑战——在这种情况下,结果更可能是全人类的战争,最终形成强者统治的均衡。

d/acc 的核心原则扩展到许多领域:

理解同时尝试去中心化、防御和加速的重要性的一种方式是将其与放弃这三者所得到的哲学进行对比。

  • 去中心化的加速,但不关心“差异性防御”部分。基本上,成为一个e/acc,但是去中心化。 有很多 人采取这种方法,一些将自己称为 d/acc,但很乐意地将他们的关注点描述为“进攻”,也有很多其他人在更温和的方式上对“去中心化 AI”及类似主题感到兴奋,但在我看来,他们对于“防御”方面关注不够。

在我看来,这种方法可能避免你担忧的特定部落带来全球人类专制的风险,但并没有解决根本的结构性问题:在一个倾向于攻击的环境中,总会存在灾难的持续风险,或某人定位自己作为保护者并永久居于权力顶端。就 AI 而言,具体案例中,它也没有对人类整体权力被削弱于 AI 之下的风险给出好的解答。

  • 差异性防御加速,但不关心“去中心化和民主化”。为了安全而拥抱集中控制对一部分人始终有吸引力,读者无疑已经熟悉许多例子及其负面影响。最近,一些人担心极端集中控制是未来技术极端问题的唯一解决方案:看看这个假设场景,其中“每个人都配备一个‘自由标签’——类似于今天一些国家作为监狱替代方案使用的限制性可穿戴监控设备……加密的视频和音频不断上传并实时进行机器解析”。然而,集中控制是一个光谱。通常被忽视,但仍然有害的一种温和集中控制版本是生物技术中对公共审查的抵制(例如食品疫苗)及允许这种抵制的封闭源规范。

这种方法的风险当然是,中心常常是风险的根源。我们在 Covid 中看到了这一点,多个主要世界政府资助的功能增强研究可能是大流行的源头,集中的认识导致世界卫生组织数年没有承认Covid 是空气传播的,而强制性的社交隔离疫苗强制令导致的政治反弹可能会在数十年内产生余波。围绕 AI 或其他风险技术的任何风险都可能会发生类似的情况。去中心化的方法会更好地应对中心本身的风险。

  • 去中心化防御,但不关心加速:基本上,试图减缓技术进步或经济去增长

该策略的挑战有两个方面。首先,综合考虑,技术和经济增长对人类总体上有着巨大的好处,任何 延迟都将施加成本,且这些成本难以夸大。第二,在一个非极权的世界中,不进展是不稳定的:谁“作弊”最多,找到合理否认的方式继续成长,谁就会占据优势。减速主义策略在某些特定环境中可以在某种程度上发挥作用:例如,欧洲食品比美国产品更健康就是一个例子,核不扩散迄今为止的成功也是另一个。但这不会永远有效。

借助 d/acc,我们希望:

  • 在世界日益部落化的时刻坚守原则,而不是仅仅构建任何东西——更确切地说,我们希望构建特定的东西,使世界更安全、更美好
  • 认可指数型科技进步意味着世界将变得非常奇怪,而且人类对宇宙的总“足迹”也只会增加。我们保护脆弱的动物、植物和人类免受伤害的能力必须提高,但唯一的出路是向前。
  • 构建确保我们安全的技术而不依赖于“好人(或好的 AI)掌控”。我们通过构建自然更有效的工具来实现这一点,当用于建设和保护时,这些工具比用于摧毁时更有效。

另一种思考 d/acc 的方式是回到海盗党运动在零零年代晚期欧洲的一个框架上:赋权

目标是构建一个我们保护人类自主权的世界,实现负面自由——避免活跃干预(不论来自其他以私人身份行事的人、政府,还是来自超级智能机器人),并确保我们有知识和资源去塑造我们自己的命运。这呼应了一个持续了几个世纪的古典自由主义传统,其中还包括了 Stewart Brand 在“获取工具”上的侧重和 John Stuart Mill对教育的强调,同时将自由视为人类进步的关键组成部分——或许,Buckminster Fuller 希望看到全球解决过程成为参与式和广泛分散的想法,可以纳入其中。我们可以将 d/acc 视为根据21世纪的技术格局实现这些相同目标的一种方式。

第三维度:生存与发展 在我去年的文章中,d/acc 专注于防御技术:物理防御、生物防御、网络防御和信息防御。然而,单靠去中心化防御并不足以使世界伟大;你还需要一种前瞻性的积极愿景,以说明人类怎样利用新获得的去中心化和安全来成就某件事。去年的文章在两个地方确实包含了积极的愿景:

  1. 当我关注超级智能的挑战时,我提议了一条(与我无关)的路径,说明我们如何在不削弱力量的情况下拥有超级智能:
    1. 今天,构建 AI 作为工具,而不是高度自主的代理
    2. 明天使用虚拟现实、肌电和脑机接口创造 AI 和人类之间更紧密的反馈
    3. 随着时间推移,朝着最终目标前进,即超级智能成为机器与我们紧密结合的结果。
  2. 回谈信息防御时,我还提到,除了有防御性的 社会技术试图帮助社区在面对攻击者时保持凝聚力与高质量的话语,还有进步的 社会技术能够帮助社区更容易地做出高质量的判断:pol.is是一个例子,而预测 市场则是另一个。

但这两点似乎与 d/acc 论点没有关联:“这里是一些关于如何在基础层面创建一个更民主和更倾向于防御的世界的想法,顺便说一下,还有一些无关的关于我们可能如何实现超级智能的想法”。

然而,我认为实际上,“防御性”和“进步性”d/acc 技术之间确实有一些非常重要的联系。让我们扩展去年的 d/acc 图表,增加这一轴(同时,我们将其重新标记为“生存与发展”)并查看结果:

在所有领域中,能够帮助我们在一个领域中“生存”的科学、思想和工具与能够帮助我们“发展”的科学、思想和工具之间存在高度关联的一致模式。一些示例:

  • 许多近期反对 Covid 的研究集中在病毒持久性在身体中的作用,揭示了为什么 Long Covid 是一个如此严重的问题。最近,也有迹象表明病毒持久性可能与阿尔茨海默病有关——如果属实,这意味着在所有组织类型上解决病毒持久性可能是解决衰老问题的关键。
  • 低成本且微型的成像工具(例如由 Openwater 生产的工具)可以有效治疗微血栓、病毒持久性、癌症,它们也可以用于脑机接口
  • 非常类似的思路驱动了为高度对抗性环境构建的社会工具(例如社区笔记)与为相对合作性环境构建的社会工具(例如pol.is)。
  • 预测市场在高合作高逆境环境中都很有价值
  • 零知识证明和类似可以在保护隐私的同时对数据进行计算的技术,既增加了用于科学等有用工作的数据,也增加了隐私。
  • 太阳能和电池不仅适用于增强下一波清洁经济增长,而且对去中心化和物理韧性(resilience)也具有重要意义。

除了这些,主题之间还有重要的相互依赖关系:

  • 脑机接口与信息防御和协作技术密切相关,因为它能够让我们更详细地传达我们的思想和意图。脑机接口不仅仅是机器人与意识的连接:还可以是意识与机器人再到意识的连接。这使得多数概念对脑机接口的价值更加引人关注。
  • 许多生物技术依赖信息共享,并且在许多情况下,人们只有在确信信息将仅用于一个特定应用时,才会愿意分享。这依赖于隐私技术(例如 ZKP、全同态加密、混淆等)。
  • 协作技术可以用来协调其他技术领域的资金

困难问题:AI 安全、短期时间表和监管

针对我去年文章的最有说服力的反对意见来自 AI 安全社区。论点是:“当然,如果我们有半个世纪的时间才能得到强大的 AI,我们就可以集中精力构建所有这些好的东西。但实际上,看起来我们有三年的时间表才能做到 AGI,另三年才能得到超级智能。因此如果我们不希望世界被摧毁或陷入不可逆转的陷阱,我们不能_仅仅_加速好的事物,我们还必须减缓坏的事物,这意味着需要通过强有力的监管,这可能会让权力雄厚的人感到不满。”在我去年的文章中,我确实没有提出任何具体策略来“减缓坏的事物”,除了模糊的呼吁不要构建危险的超级智能。因此,在这里值得直接回答这个问题:如果我们正生活在最不方便的世界,AI 风险高且时间表可能只有五年,那么我会支持什么样的监管?

首先,对新监管的谨慎案例

去年,主要提议的 AI 监管是加利福尼亚州的SB-1047法案。SB-1047要求最强大的模型的开发者(训练成本超过 1 亿美元,或微调超过 1000 万美元)在发布之前采取一些安全测试措施。此外,该法案对 AI 模型的开发者施加了责任,如果他们未能妥善处理。许多反对者表示该法案是“对开源的威胁”;我不同意,因为成本门槛意味着它仅影响最强大的模型:即使是 LLama3 也可能低于门槛。然而回看时,我认为该法案存在一个更大的问题: 大多数监管一样,它对现今形势过度拟合。对训练成本的关注在新技术面前表现脆弱:最近的最先进的质量 Deepseek v3 模型的训练成本仅为600万美元,而在新模型如 o1中,成本正更普遍地从训练转向推理。

其次,实际上最有可能对 AI 超级智能末日场景负责的参与者是军事。正如我们在过去半个世纪的生物安全中所看到的那样,(见这里(及其他)),军事愿意做出令人生畏的事情,并且容易犯错。如今,AI 在军事中的使用正在迅速推进(请参见乌克兰加沙)。任何政府所通过的安全监管,默认将不包括其军事及与军事紧密合作的公司。

诚然,这些论点并不是让我们放手不管和什么都不做的理由。相反,我们可以将它们作为指导,尽量制定触发这些担忧最低的规则。

策略1:责任

如果有人以某种方式造成了法定可追究损害,他们可以 起诉。这并不能解决军事和其他“越权”参与者所带来的风险,但这是一种非常通用的方法,可以避免过度拟合,并且通常得到倾向自由意志主义的经济学家的支持,正是基于这个理由。

迄今为止,被认为是责任主要目标的包括:

  • 用户——使用 AI 的人
  • 部署者——提供 AI 服务给用户的中介
  • 开发者——构建 AI 的人

将责任放在用户身上似乎是最具激励相容性的。虽然模型的开发与使用之间的联系往往不明确,但用户决定 AI 的确切用法。对用户施加责任,会产生强烈压力,以便以我认为正确的方式使用 AI:专注于为人类思维构建机械工具,而不专注于创造新的自维生智能生命。前者响应用户意图,因此不会导致灾难性行为,除非用户希望如此。而后者则最有可能开启经典的“AI 脱轨”场景。将责任尽可能靠近最终使用的另一个好处是,最大限度减少责任导致的其他方式的有害行动的风险(例如,封闭源、KYC 和监视、国家与商业之间勾结,秘密限制用户,例如停止银行业务,剥夺世界大部分地区的用户访问)。

人们普遍反对将责任完全放在用户上:用户可能是普通个人,资金也不丰厚,甚至是匿名的,导致实在无人能实际支付巨大的损害。这个论点被夸大了:即使_某些_用户太小而无法追责,AI 开发者的平均客户 却不是,因此 AI 开发者仍然受激励去构建能给客户提供保证,从而使其面临较小责任风险的产品。尽管如此,这仍然是一个有效的论点,并需要被解决。你需要刺激_某个_在流程中有资源可以采取适当措施的人,部署者和开发者都是可以轻松寻找的目标,并且对模型的安全性或不安全性依然有很多影响力。

将责任放在部署者身上似乎是合理的。一个常被提及的关注点是这不适用于开源模型,但这似乎是可以管理的,尤其是因为最强大的模型极有可能是闭源模型(而如果它们最终是开源的,尽管部署者责任不是很有用,但也不会造成太大伤害)。开发者责任面临相同的担忧(尽管对开源模型来说需要微调一个模型才能导致其在某些最初被禁止的操作方面造成影响),但同样的反论点适用。一般原则是,对控制施加“税”,基本上是说“你可以构建你不控制的事物,或你可以构建你控制的事物,但如果你构建你控制的事物,那么20%的控制必须用于我们的目的”,这似乎是法治的合理立场。

有一个似乎未被充分探讨的想法是对流程中的其他参与者施加责任,因为他们更有保障有资源。一个对 d/acc 非常友好的建议是对任何 AI 在执行某些严重有害操作期间占据的设备的所有者或操作员施加责任(例如,通过黑客攻击)。这会产生非常宽泛的激励,使得将全球的(特别是计算和生物)基础设施尽可能安全成为必做的工作。

策略2:全球“软暂停”工业规模硬件

如果我相信我们需要一种比责任规则“更强劲”的东西,这就是我追求的目标。目标是具备能力,在关键时期将全球可供计算能力减少约90-99%持续1-2年,为人类争取更多准备时间。1-2年的时间不应被夸大:一年的“战争模式”可以轻松弥补在懈怠状态下进行的百年工作。实施暂停的方法已经被探索,包括诸如要求登记核实注册地点等具体提案。

一种更高级的方法是使用聪明的加密技术:例如,生产出的工业规模(但非消费级的)AI 硬件可以配备可信的硬件芯片,只有在每周获得国际机构的3/3授权时才能继续运行,其中至少包括一个非军方有关的机构。这些签字将与设备无关(若需要,我们甚至可以要求提供证明其在区块链上发布的零知识证明),因此将实施全有或全无:实际上没有办法单独授权一种设备维持运行而不授权所有其他设备。

这一策略似乎“符合所有标准”,可最大化利益,并最小化风险:

  • 这是一个有用的能力:如果我们得到警告信号,表明接近超级智能的 AI 开始做一些冒风险的灾难性行为,我们会希望更慢地进行令接力变流。
  • 在这一关键时刻过去之前,拥有软暂停的能力将对开发者造成的伤害极少。
  • 专注于工业规模硬件,且目标仅为90-99%,将避免对消费级计算机进行监视,或迫使小国采取严厉措施反对其意愿的反乌托邦。
  • 专注于硬件似乎对技术变化非常稳健。我们在多个 AI 世代中已经看到,质量高度依赖于可用计算能力,特别是在新范式的早期版本中。因此,减少可用计算能力10-100倍,将轻易使得拥有超级智能的 AI 输掉与人类抗争的快速战斗。
  • 每周都需要在线获得签字的固有麻烦感将对延伸到消费硬件产生强烈的压力。
  • 它可以通过随机检验进行验证,并通过硬件层面实施将使豁免特定用户变得困难(基于法律上强迫关闭的方式,而不是技术上,并不具有这种全有或全无的属性,这使得它们更有滑坡风险成为军事豁免等)

目前已经强烈考虑硬件监管,但通常是通过出口控制的框架进行,而这固有地具备一种“信任我们的一方而不信任另一方”的哲学。Leopold Aschenbrenner 很有名地主张美国应急速获得决定性优势,然后基本迫使中国签署一种限制其被允许运行多少_盒子_的协议。在我看来,这种做法风险颇多,可能结合多极化竞争的缺陷与中心化。如果我们要对所有人进行限制,限制每个人获得平等的发展水平似乎更好,反而应真正合作组织。

d/acc 技术与 AI风险

这两种策略(责任和硬件暂停按钮)都有不足之处,很明显,它们只是暂时的权宜之计:如果某事在时间 T 的超级计算机上成为可能,通常在时间 T + 5 年的笔记本电脑上将有可能。因此,我们需要一个更稳固的买时间的方案。许多 d/acc 技术在此处具有相关性。我们可以按照以下方式来看待 d/acc 技术的作用:如果 AI 接管世界,它会如何做到这一点?

  • 黑入我们的计算机 → 网络防御
  • 制造超级瘟疫 → 生物防御
  • 劝服我们(信任其或不信任彼此)→ 信息防御

如上简短提到的,责任规则是一种天然的 d/acc 友好的监管方式,因为它们能非常高效地促使世界各方采用这些防御措施并认真对待。台湾最近一直在尝试对虚假广告施加责任,可以视为通过责任推动信息防御的一个例子。我们不应过于热衷于把责任铺开,注意充分发挥自由为小人物参与创新提供了能力的优越性,但在需要增强安全的地方,责任可能是非常灵活和有效的。

d/acc中的加密货币角色 d/acc 的很多内容超越了典型区块链主题:生物安全、脑机接口和协作话语工具似乎与加密货币相关话题相去甚远。不过,我认为加密货币与 d/acc 之间仍然有重要的联系,尤其是:

  • d/acc 是加密货币潜在价值的延伸(去中心化、抵制审查、开放全球经济和社会)到其他技术领域。
  • 由于加密用户是最自然的早期采用者,并且价值观之间存在一致性,加密社区是 d/acc 技术的自然早期使用者。强烈的社区意识(包括线上和线下,例如活动及快闪店),以及这些社区实际上进行高风险实践而不仅是互相交谈,使得加密社区成为 d/acc 技术尤其吸引的孵化器和测试场,尤其是集中在团体而非个人上的技术(例如,信息防御和生物防御占很大比例)。加密用户确实会一起去做事情。
  • 许多加密技术可以应用于 d/acc的主题领域:区块链用于建立更具韧性且去中心化的金融、治理和社交媒体基础设施,零知识证明用于保护隐私等。目前,许多最大的预测市场构建在区块链之上,并且逐渐变得更复杂、更去中心化和更民主。
  • 还有合作双赢的机会,共同开发出紧密于加密项目需求、但同时也是实现 d/acc 目标的关键技术形式验证、计算机软件和硬件安全、对抗性强的治理技术。这些东西使以太坊区块链、钱包和 DAO 更加安全和强韧,并且为减少我们对网络攻击的脆弱性(包括可能来自超级智能 AI 的攻击)等重要的社会防御目标做出贡献。

Cursive 是一款应用,利用全同态加密 (FHE) 让用户能够识别与其他用户的共同兴趣领域,同时保护隐私。这项技术被应用于边缘城市(Edge City),这是许多 Zuzalu 的衍生项目之一,位于清迈。

除了这些直接交集之外,还有另一个重要的共同兴趣点:融资机制

d/acc 和公共产品融资

我一直关注的兴趣之一是提出更好的机制来资助公共产品:对非常大群体有价值的项目,但这些项目没有自然可行的商业模式。我过去在这方面的工作包括我对二次融资的贡献,以及它在Gitcoin Grants回溯 PGF和更近期的 深度融资中的应用。

许多人对公共产品这一概念持怀疑态度。怀疑的来源一般有两个:

  1. 公共产品历史上常常被用作重手中央规划和政府干预社会经济的理由。
  2. 普遍认为公共产品融资缺乏严谨性,并倾向于社会可取性偏差——听起来很好,而不是确实好——并偏向于能够参与社会游戏的内部人士。

这些都是重要的批评,且是好的批评。然而,我认为强有力的去中心化公共产品融资对于 d/acc 视角至关重要,因为一个关键的 d/acc 目标(最小化中央控制点)本质上会挫败许多传统商业模式。基于开源构建成功的商业是可能的——几家 Balvi 受赠人正在这样做——但在某些情况下,重要项目需要额外的持续支持。因此,我们必须克服困难,找出如何以一种解决以上两点批评的方式来进行公共产品融资

第一个问题的解决方案基本上是可信中立性去中心化。中央规划有问题,因为它将控制权交给可能会滥用权力的精英,并且它往往过于贴合当今的情况,随着时间的推移效果会越来越差。二次融资和类似机制正是为了以尽可能可信中立和(在架构和政治上)去中心化的方式资助公共产品。

第二个问题较为挑战。关于二次融资,一个常见的批评是其迅速变成了流行度竞赛,这要求项目资助者花费大量精力进行公开宣传。此外,“曝光度高”的项目(即终端用户应用)获得融资,而更“隐蔽”的项目(典型的“依赖在内布拉斯加州的一位人士维护”)则完全未获融资。乐观的回溯融资依赖于数量较少的专家徽章持有者,这里流行度竞赛的影响被减弱,但与徽章持有者的紧密个人关系的社会效应被放大。

深度融资是我自己在解决这个问题方面的最新努力。深度融资有两个主要创新:

  1. 依赖图。我们不问每个陪审员一个_全球_问题(“项目 A 对人类的价值是什么?”),而是问一个_局部_问题(“项目 A 或项目 B 对结果 C 的价值更高?大约高多少?”)。人类在全球问题上表现不佳:在一项著名研究中,当被问到为拯救 N 只鸟愿意支付多少钱时,回应者对 N=2000、N=20000 和 N=200000 的答复均大致为 $80。局部问题要易得得多。然后,我们通过维护“依赖图”将局部答案结合成全球答案:对于每个项目,哪些其他项目对其成功做出了贡献,以及贡献了多少?
  2. AI 作为 提炼的人类判断。陪审员只被分配一小部分所有问题的随机样本。通过一个开放竞争,任何人都可以提交试图有效填补_所有_图中边缘的 AI 模型。最终答案是与陪审员答案最兼容的模型加权总和。查看此处代码示例。这种方式使机制能够扩展到非常大规模,同时要求陪审员仅提交少量的“比特”信息。这减少了腐败的机会,并确保每一比特都是高质量的:陪审员可以长时间思考每个问题,而不是快速点击数百个问题。通过使用开放竞争的 AI,我们降低了来自任何一个单一 AI 训练和管理过程的偏见。开放市场中的 AI 作为引擎,人类作为方向盘

但深度融资只是最新的例子;在此之前还有其他公共产品融资机制的想法,未来也会有许多。 allo.expert 很好地整理了它们。根本目标是创造一个社会工具,能够以至少接近市场为公共产品提供资金的准确性、公平性和开放性。它不必是完美的;毕竟,市场本身也远非完美。但它应该有效到使得致力于高质量开源项目、惠及所有人的开发者能够无需感到做出不可接受妥协的压力,而得以持续开展工作。

如今,在大多数 d/acc 主题领域的领先项目:疫苗、BCI、类似[手腕肌电]和眼动追踪的“边界 BCI”、抗衰老药物、硬件等,都是专有的。这在获取公众信任方面有很大的反面影响,正如我们在许多上述领域已经看见的那样。它还将注意力转向竞争动态(“我们的团队必须在这个关键行业中获胜!”),而不是集中在确保这些技术能快速发展,以便在超级智能 AI 的世界中保护我们。因此,强有力的公共产品融资可以成为开放和自由的有力推动者。这是加密社区能够帮助 d/acc 的另一个方式:通过对探索这些融资机制并使其在自身背景下良好运作进行认真努力,为更广泛采用开放源科学和技术做好准备。

未来

未来几十年将带来重要挑战。我近期思考的有两个挑战:

  • 强大的新技术浪潮,尤其是强人工智能,正在快速来临,而这些技术伴随重要的陷阱,我们需要避免。可能要五年才能到达“人工超智能”,也可能要五十年。无论哪种情况,默认结果是否自动乐观并不明确,正如在这篇帖子和前一篇中所描述,存在多个需要避免的陷阱。
  • 世界正变得不那么合作。许多强大的参与者以前似乎至少偶尔基于崇高原则(世界主义、自由、共同人性……还有更多)行事,但现在更公开且激烈地追求个人或部落自我利益。

然而,每一个挑战都有一个积极的一面。首先,我们现在有非常强大的工具来更快速地完成我们剩下的工作

  • 现在和不久的将来,人工智能可以被用来构建其他技术,并可以作为治理的组成部分(如在深度融资或信息金融中)。这也与 BCI 非常相关,它本身可以提供进一步的生产力提升。
  • 大规模协调现在可在比以往更大的规模上进行。互联网和社交媒体扩展了协调的覆盖范围,全球金融(包括加密货币)增强了其力量,现在信息防御和协作工具可以提高其质量,也许不久的将来 BCI 在人机交互中可以增强其深度
  • 形式验证、沙箱(网页浏览器、DockerQubesGrapheneOS等)和其他技术正在进步,使更好的网络安全成为可能。
  • 编写任何形式的软件比两年前显著容易。
  • 最近关于病毒工作原理的基础研究,尤其是对空气传播这一最重要的传播方式的简单理解,正在显示出如何改善生物防御的更清晰路径。
  • 最近在生物技术方面的进展(例如 CRISPR,生物成像的进展)使得各种生物技术无论是在防御、延续生命超级快乐、探索多种新的生物假设还是简单地做一些很酷的事情,变得更为易于获取。
  • 计算和生物技术的进步使得合成生物工具更具可用性,供你用来适应、监测和改善你的健康。网络防御技术,如密码学,使这一个性化维度变得更为可行。

其次,如今许多我们所珍视的原则不再被旧有权力的几个特定群体占用,任何世界各地的人都可以重新获得这些原则。这可能是最近全球政治“重组”的最大好处,值得利用。加密货币已经很好地利用这一点并获得全球的吸引力;d/acc 也可以做到同样。

获取工具意味着我们能够调整和改善我们的生物和环境,而 d/acc 的“防御”部分意味着我们能够不侵犯他人享有同样自由的权利。_自由多元主义原则_意味着我们可以在执行这些任务的方式上有很多样性,而我们对共同人性目标的承诺意味着这一切应该得以实现。

我们,人类,仍然是最闪亮的星星。我们未来的任务是建设一个更加辉煌的 21 世纪,既能维护人类的生存、自由和主动性,又能把我们引向星星,这是一项挑战性的工作。但我相信我们能够做到。

  • 原文链接: vitalik.eth.limo/general...
  • 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
点赞 0
收藏 0
分享
本文参与登链社区写作激励计划 ,好文好收益,欢迎正在阅读的你也加入。

0 条评论

请先 登录 后评论
Vitalik Buterin
Vitalik Buterin
https://vitalik.ca/