纽约时报观点 | 美国政府认为 A.G.I. 即将到来
拜登政府的人工智能顾问本·布坎南(Ben Buchanan)讨论了美国政府如何为通用人工智能(A.G.I.)做准备——以及仍然面临的所有挑战。图片来源……《纽约时报》
政府认为 A.G.I. 即将到来
拜登政府的人工智能顾问本·布坎南(Ben Buchanan)讨论了美国政府如何为通用人工智能(A.G.I.)做准备——以及仍然面临的所有挑战。
以下内容是“艾兹拉·克莱因秀”某一期节目的编辑整理版。您可以在NYT Audio App、Apple、Spotify、Amazon Music、YouTube、iHeartRadio或您常用的播客平台关注或收听本次对话。
在过去几个月里,我经历了一个奇怪的现象:来自人工智能实验室和政府的一个又一个人都来找我,他们说:“它真的要来了。我们即将实现通用人工智能。”
他们的意思是:他们长久以来都相信,我们正在通往一种变革性人工智能的道路上,这种人工智能几乎能够做任何人类能在电脑后面完成的工作——而且做得更好。之前他们认为可能需要5到15年。但现在他们觉得只要两到三年,也就是在唐纳德·特朗普的第二个任期内就能实现。
他们之所以这样相信,是因为他们正在发布的产品,以及他们在工作场所内部看到的情况。而我也认为他们是对的。
如果你一直在对自己说:“这不可能很快到来”,那我真的觉得你应该质疑这个想法。这不是 web3,也不是空想产品。我们所讨论的很多东西实际上现在就已经存在了。
我认为我们正处在一个人类历史上前所未有的时代的前夜。我们并没有准备好,部分原因是我们并不清楚该如何做准备。我们不知道这一切将呈现什么样子,我们不知道劳动力市场会如何响应,我们不知道哪个国家会率先到达那个终点,也不知道这对战争意味着什么,更不知道这对和平意味着什么。
虽然当今世界有很多事情可以关注,但我确实认为,将来回首这一人类历史时期时,人工智能很可能会是最重要的议题。
本·布坎南是其中一位联系我的人,他是拜登白宫的前人工智能特别顾问。我觉得邀请他上节目会很有意思,原因有几个:
- 他并不是一家人工智能实验室的人。所以,他不是拿大公司薪水的、给大家做“此技术即将到来”宣传的人。
- 他在过去几年政策制定的神经中枢——尤其是试图在中国之前保持领先这一方面——扮演了重要角色。
- 因为美国政府正在经历重大换届。新一届政府里有埃隆·马斯克、马克·安德森、大卫·萨克斯、J.D. 万斯等,这些人对人工智能都有非常强烈的观点。
现在正是政策制定者易手的时刻,而很可能正是在他们掌权的时候,通用人工智能或类似的东西会问世。那么他们会怎么做?我们需要做哪些决策?为了应对所有在这个领域工作的人极力警示我们即将到来的变化,我们需要现在就开始怎样的思考?
艾兹拉·克莱因(Ezra Klein):本·布坎南,欢迎做客本节目。
本·布坎南(Ben Buchanan):谢谢你邀请我。
在拜登政府任期结束后,我接到不少电话,人们都想告诉我他们做了哪些伟大的工作。但当你打电话给我时,你是想警示人们你的担忧:你认为即将发生什么?
我认为我们即将见证功能极其强大的人工智能系统。我并不喜欢“通用人工智能”这个词,但我认为这在未来几年非常可能成为现实,而且很有可能会出现在特朗普总统任期之内。
一直以来,都有一种观点把 A.G.I. 当成企业的炒作或纯属猜测。但我在白宫工作时(那时我明确不是在一个商业机构任职)看到的趋势很明显。在拜登总统的领导下,我们所做的就是让美国政府和我们的社会为这些系统做好准备。
在探讨如何做准备之前,你说会出现“功能极其强大的人工智能系统”。具体是什么意思?
我们并不喜欢“通用人工智能”这个称呼,但它的经典定义是:系统可以完成几乎任何人类能做的认知任务。接下来两三年我们也许还无法看到完全符合这个定义的东西,但我认为我们会看到足以和人类认知水平相当甚至在某些方面超越人类能力的广度和深度。
也就是说,这些系统可以在需要认知能力的工作岗位上替代人类。
是的,或者说至少能够替代其中的关键部分。
老实讲,我也认同我们正处在这一转变的边缘。所以我并不是怀疑论者。但我在心理上还是很难把自己放在那个场景里。
我也一样。
我最近用了一款名叫Deep Research的 OpenAI 新产品,目前只能在他们较高收费的版本里使用。大多数人可能还没体验过。但它能在几分钟内搭建出类似科学分析报告那样的东西。
我有自己的团队做节目,他们非常优秀,需要做大量高强度的研究工作。于是我让 Deep Research 针对 “麦迪逊式宪法体系与当前高度极化、全国性政党的冲突” 做了一份研究报告。结果它几分钟内生成的内容,至少和我过去各个团队几天时间才能做出的产出处于同一个水平。
我也和一些需要大量编程工作的公司交流过,他们告诉我,到今年或明年,大部分代码可能都会由机器而不是人来写。
我不明白这怎么可能不会对劳动力市场产生影响。
我觉得肯定会有影响。我不是研究劳动力市场的经济学家,但我认为这些系统功能非常强大。某种意义上,我很喜欢那句老话:“未来已经在这里,只是尚未广泛普及。”
如果你没真正接触过这些技术,你可能很难理解它们当下的能力有多强。而且要记住:当前的水平是它能达到的最差的水平,它只会越来越好。
我认为这就是我们在白宫跟踪的动态——我也认为这是下一届白宫以及整个美国社会在短时间内必须适应的动态。
对我来说有趣的是,这是第一个不依赖国防部资助的革命性技术。如果回顾过去100年历史,核武器、太空技术、互联网的早期、微处理器的早期、大规模航空、雷达、全球定位系统等——这些几乎都是国防部的资金支持下产生的。
虽然仍然由私人企业完成发明,但由于政府在其中扮演了中心角色,所以国防部和美国政府对这些技术的理解更深入,也能更直接地影响这些技术走向。而在人工智能领域,政府并没有一开始就参与,这就使得美国政府在理解和引导技术发展方向方面,都没有原本应有的主导权。
围绕人工智能的美国主流共识似乎是:我们必须在中国之前实现 A.G.I.。为什么?
我确实认为,如果能率先实现 A.G.I. 或变革性人工智能,会带来巨大的经济、军事和情报优势,对美国国家安全至关重要。因此保持对人工智能的领导地位对美国来说非常关键。
肯尼迪在1962年著名的莱斯大学演讲中有一句话:
肯尼迪演讲录音:我们选择在这个十年登月并完成其他任务,并不是因为它们容易,而是因为它们艰难。 大家都记得他那句“我们要登月”,但我认为他那次讲话里更好的部分是关于太空重要性的阐述:
肯尼迪演讲录音:因为太空科学、核科学以及所有技术本身都没有良心。它们将成为造福人类还是祸害人类,完全取决于我们。只有当美国处于领先地位,我们才能去影响这个新领域会成为和平之海还是恐怖的战场。 我认为这也适用于人工智能。这个技术有很大不确定性。
我并不是一个人工智能的“布道者”。我觉得这个技术可能带来巨大风险。但我也认为美国必须在其中发挥根本性作用,这并不是说我们要放弃国际合作,也不是说我们不和中国合作。
值得注意的是,总统在那份行政令里也提到,我们愿意和对手国家合作,以确保人工智能安全。但我认为,美国的领导地位至关重要,我们不能拱手让出。
给我们描绘一下场景:你认为如果中国先达成了这一成就,会有巨大的经济、国防和军事风险。请帮我们想象一下:如果中国先实现这一目标,会是怎样的世界?
让我们先考虑一个比较狭窄的例子:将人工智能用于情报分析和网络行动。
众所周知,如果拥有更强大的人工智能能力,网络行动在攻防两端都会更出色。
所谓网络行动就是侵入对手的网络获取信息——如果你能获取海量情报,那么人工智能系统可以帮助你进行分析。
国防高级研究计划局(DARPA)做过一个名为“AI Cyber Challenge”的项目,测试人工智能在这方面的能力。我不想生活在一个中国在攻防和网络方面都拥有更强大的人工智能,而美国却没有相应能力的世界里。并且在国家安全竞争的各个关键领域,这种差距都可能出现。
就我所知,一个相当普遍的观点是:要对一个成熟的国家进行黑客攻击,其实并不难。但随着人工智能的发展,无论是进攻者还是防御者都更能大规模部署,因为你可以让大量 AI 去做黑客或反黑客,而不再受限于人的数量。
那我们是不是要进入一个普通民众都更加数字化脆弱的世界?我不只指国家可能想监控的那部分人,更多是普通大众,因为到时可能各种坏人都会用这些 AI。
你会担心我们即将进入一个真正反乌托邦式的世界吗?
我们说的“黑客行为”就是在软件里找漏洞并加以利用,从而非法获取访问权限。更强大的人工智能会降低找到漏洞并利用的门槛,这对进攻方来说是利好。
但同样地,更强大的人工智能也会在防御端帮我们更好地编写安全代码,从而减少可被利用的漏洞,并更好地侦测攻击者。
我们当时尽可能地想把优势往防御方倾斜。但我同意,在未来几年,即在这个过渡时期——我们还没有把最新 AI 防御或软件开发技术大规模应用于旧系统时——旧的系统会在面对更强大的进攻者时更加脆弱。
可很多人确实在用这些旧系统……
我不完全确定这一点。你的手机也许已经很先进,或者谷歌系统也可能比较先进……
但很多人并没有及时更新,技术素养越低就越脆弱。
确实,我们也在指那些已经用了几十年的老旧电力系统和主机系统,因承担的角色重要而很少停机。那里才是更大的风险所在。对于个人设备,大规模更新确实要方便些,甚至还能顺带新的表情符号来吸引大家升级。
另外,也有人担心 AI 实验室本身的安全。
如果另一个国家能拿到 OpenAI 最新的模型,这将是极其宝贵的。OpenAI 内部人士跟我说,这确实是个问题,但严格的安全流程又会妨碍日常工作。
我在过去4年里都在 SCIF(机密信息隔离设施)里工作,那里是不允许带手机进去的,确实很不方便。
你觉得现在那些 AI 实验室自身的安全性成问题吗?
我对此很担忧。有被黑客侵入的风险。另一方面,你在旧金山的某些聚会可能也会碰到有人聊天时透露了他们在用什么技术,或者算法思路,虽然不一定分享模型本身,但也非常有价值。
这又回到之前提到的那点:人工智能是国家安全层面非常重要、甚至可能改变世界的技术,但在初期并没有政府介入,也不像过去那些技术是在政府支持下孵化的,所以在安全要求上,就缺少政府层面强制执行的保护。
在总统的行政令中,我们其实尝试提醒各大实验室,政府希望帮助他们维护安全。这个行政令是在2024年10月签署的,我们没多少时间来深化执行。但我相信这也是特朗普政府的优先事项。我无法想象有任何跨党派分歧会阻止政府保护这些正在创造未来的美国公司。
还有一方面也令人担忧:我们和苏联对峙时期,彼此可收集的数据量就没这么大;如今我们有海量卫星数据、各种监听数据。真正的问题在于,都是人来分析,很多数据都没利用。拥有能快速高效分析海量信息的 AI 会让情报优势大大增强。
是的,我们在白宫时就非常关注这个。拜登总统签署了一份国家安全备忘录,声明这是美国核心利益所在。
美国每天从卫星收集到海量图像,无力让足够多的人力去查看——即使人手够,也会是非常糟糕的工作环境。AI 可以帮助我们自动化地分析来自全球热点地区、航线等的卫星图像,从海量数据中筛选出最关键的信息。
从某种程度上,你可以说:“软件不一直都在做这些吗?”但 AI 越强大,这种自动化分析的能力就越突出,从而给美国带来情报优势。
另一方面也可能带来问题:拥有强大的 AI,你更有动力做更多间谍活动,因为现在每多收集一点信息都能被充分利用。
我同意。这时候就需要法律和制度来保障隐私权。无论我们对情报活动有多少争议,美国也有相对完善的情报监督结构。
而当 AI 让我们有能力收集更多信息时,这种监督也就更加重要。
你对在中国或美国可能出现的监控国家会有什么担忧?
有个经济学家 Samuel Hammond 发表过一篇名为 “Ninety-Five Theses on A.I.” 的文章,他说,如果完全可以做到完美执法,那么我们现在很多法律都会显得过于严格,因为这些法律原本就假设了执法资源是有限的。
所以,AI 若让警方、监控等都变得极其高效,会不会形成真正的警察国家?再加上连绵不绝的无人机战争,这真的很吓人。
我们最近听到很多安杜里尔(Anduril)这家公司的消息,他们和 OpenAI 有合作。Palantir 和 Anthropic 也有合作。非常明显,我们即将面对由 AI 驱动、国防实力大幅提升的新格局。
我懂我们不想被中国甩开。但我们自己的政府也因此获得了全新的能力。你怎么看?
我想把“人工智能与威权主义或警察国家”的问题分成两部分。
第一部分是针对中国这样的真正的威权国家:AI 可能实现国家对社会更全面的控制,而这是他们所期待的。这很可怕。
另一方面,美国有民主制度,我们要考虑 AI 与民主之间的关系。
我对此也有不安。我们历史上常常因为有人违反法律而促使法律修订,我们的司法体系一直保留着一些“人性化”的空间,我不想失去它。
我们要求司法部牵头研究 AI 在刑事司法中的应用,看看有哪些好处和风险。例如,AI 可以让类似的案件处理更一致。但系统本身也存在偏见,而如果广泛采用也会威胁个人权利。这方面的担心是非常现实的。
让我感到不安的是,我们像是在与另一个星球的盟友签订协议,和这个盟友竞争合作,而我们却并不理解它,也不知道把它融入到社会意味着什么。
大家都在说,一旦 AI 足够强大,做决策的回路就会更加快速且占优势。而当下,美国和中国正处于某种修昔底德陷阱式的竞争中,不断加速 AI 的发展。
这看起来很危险,像是一种极端竞争环境下加速生成了下一个地球上的智能形态。
是的,这里有很多需要讨论的。总之我非常同意你的担忧。也正因为如此,我们才推出了出口管制,试图阻止中国快速接近最前沿,为美国创造一点领先的空间,让我们有机会在安全上做更多努力,甚至与中国在这方面进行某种对话,而不是为了竞赛而竞赛。
我不认为我们在军事层面的应用上有拼命往前冲。那份国家安全备忘录有很长的篇幅在讲我们不会怎么做 AI,也列出了很多限制和高风险使用场景,还有专门的治理和风险管理框架。
然而现在是特朗普政府主政,你们的那些东西也可能被废除。
确实。特朗普政府目前没有废除这个备忘录。但可以肯定的是,我们过去那种“在保持美国领先的同时也注重安全”的做法,和现在这届政府可能有不同的思路。
有一种担忧是:美国把中国当作这么激烈的竞争对手,做各种芯片出口管制,可能会刺激中国更加全力以赴追赶。
我不是要幼稚地给中共辩护,他们确实想让下一个时代成为他们的时代。但做法上,你不得不承认,试图掐住下一代技术核心部件的脖子是相当具有对抗意味的。
我并不觉得“我们不卖给你最先进的芯片”就已经是很过分的对抗行为。这并不是宣战,也不代表新的冷战。我觉得这更像是:这些芯片关系美国国家安全,我们不想卖给你。
可问题是中国如何解读这一举动。
我过去做过与修昔底德陷阱相关的研究,所以我很明白大国之间可能互相误解。但我仍然认为,不卖芯片并不等于开战。
但我觉得他们应该不会真的误读。非常清楚美国的主流共识就是先于中国拿下这个技术。
我也承认在某种程度上他们清楚这一点。我们当初其实也和中国方面建立了一个 AI 对话机制,我也曾去日内瓦见了中方代表,讨论 AI 安全方面的合作。因此,这类事情并不一定是单向、对立的。
我并不后悔实行出口管制。老实讲,我们很高兴能在那时候做出这一步,这样我们可以在几年后继续保持对中国的领先。毕竟我们也看到 DeepSeek 的表现了。
DeepSeek 让美国舆论有点震惊的是:它似乎用更少的算力和更低的成本就达到了相当高的水平,几乎能和我们的前沿系统抗衡。
它迫使我们反思之前的很多假设。你是如何看待 DeepSeek 的?你觉得他们做对了什么,让我们感到意外?
让我们简单回顾一下 DeepSeek 的发展。
我们在白宫大概从 2023 年 11 月左右就开始关注 DeepSeek,当时他们出了第一个用于编程的模型。可以肯定的是,DeepSeek 的工程师水平非常高,他们在 2024 年的系统也在持续升级。
当他们的 CEO 说 DeepSeek 面临的最大问题并不是钱或人才,而是无法获取最先进的芯片——这一点我们挺欣慰的。虽然看起来他们还是通过合法或走私手段得到了部分芯片。
2024 年 12 月,他们发布了 DeepSeek-V3 版本,虽然没有引起大量媒体关注,但它其实已经显示出他们在算法效率方面有非常显著的进步。
然后在 2025 年 1 月,他们推出了 DeepSeek-R1。这种推理模型(Reasoning model)并不算特别稀奇,并不需要庞大的算力,只是对 V3 系统做了延伸而已……
如果用行话讲,这就是:他们一直在追求更高效的算法,也做得很不错。但美国公司在这方面同样也有很强的实力。
有人说,这证明了我们美国的 AI 发展模式是错的。我们以为需要海量算力、需要大公司垄断,但 DeepSeek 展示了用更少的算力、更少能源、更少成本也能办到。也有人认为我们被 OpenAI、谷歌、Anthropic 三巨头洗脑了,实际上完全可以走一种更加分散、更加“太阳朋克”的路径。
你同意这个看法吗?
我认为两件事是并行的:首先,最前沿的研究暂时还是需要极高的计算量和能源投入,这是大公司在做的事情。它们也有很强的动机去提高效率。但它们仍会需要这方面的投入。其次,除了这些前沿,确实会有一些稍微落后于前沿的扩散式应用,它们所需的计算和能源更少。我们在两方面都要赢。
AI 公司想要出口管制,但芯片公司就不乐意了。DeepSeek 让人们怀疑英伟达(Nvidia)的长期价值,英伟达当然不想出口管制。
你在白宫时,应该在这两派博弈的中心。你怎么看?
任何尖端 AI 芯片都能卖出去,这块市场现在相当火爆,而且看起来还会持续火爆。我们当时的态度是:我们必须做出口管制……
可英伟达的 CEO 很直接地表示过,这样做会减少英伟达芯片的市场。股市也看到了这一点。
在我们 2022 年 10 月第一次出台管制后,英伟达的股价还是翻了10倍。
我知道它股价现在确实表现不错,但英伟达 CEO 并不是说短期股票价格的问题,他说长期看,如果顶尖芯片不能销往中国,那么市场就会缩小。
我理解。但我们认为,这事关国家安全,所以要牺牲一部分市场空间。
而且英伟达自从有管制后,还是表现得很好,现在市盈率在50倍左右,说明市场仍然看好他们的增长。
在 AI 安全这方面,拜登政府也很重视,受到了某些“加速派”的反对。
我想播一段马克·安德森(Marc Andreessen)的访谈,他是著名风投家,也是特朗普政府的顾问。他说,和拜登政府关于 AI 的对话让他走向了更极端的加速主义。
马克·安德森访谈录音:2024年5月,我和本·霍洛维茨去华盛顿。我们没法见拜登,因为当时谁都见不到拜登。但我们见了白宫内部的高级官员,我们谈到对 AI 的担忧。他们的回应是:“是的,在拜登第二任期内,国家 AI 议程将是:让 AI 只掌握在两三家大企业手中,直接监管并控制这些公司,不会允许创业公司随意写代码并开源。” 你参与过他描述的对话吗?
我和他见过一次。我不确定那是不是他在引用的会议……
他是否跟你说过这样的话,或你是否跟他表达过相似的内容?
他确实表达过对创业企业和竞争的担忧。我认为从我们的角度看,我们一直在努力维护一个有活力的生态系统,这在我们的政策记录里很清楚。
比如那份 AI 行政令(后来特朗普总统刚刚废除)中,有很长一节谈到竞争问题。管理和预算办公室(OMB)关于政府如何采购 AI 的备忘录里也强调了要和不同厂商合作。CHIPS 科技法案中也写了很多关于竞争的内容。
所以我觉得我们对竞争的态度很明确。当然,算力规模和扩展规律会让顶尖研发向大公司集中,但我们在努力应对这个问题。
安德森提到的核心冲突是:如果想监管最强大的前沿模型,就必须控制这些模型的使用,不可能把它们随意开源,从而让任何人都能在自己电脑上跑。
而这就会限制小公司使用这些先进模型,所以他把这理解为大型公司和政府的“二人转”。
在2023年的那份行政令里,我们也在考虑开源问题。我们没有立即得出结论,只是发了一个范围很广的征求意见函,收到了很多反馈。2024年7月发布的报告里,我们的结论是:目前还没有证据显示需要对开源生态做出特别限制。开源对创新很重要——但我们也要继续监控,因为技术还在快速发展。
当时的反馈里,大公司主要在向你们提出什么?他们想要什么?尤其在你所说的“政府要为AI的到来做好准备”这一点上,他们有具体诉求吗?
他们最主要的诉求确实是:这项技术非常强大,关系到国家安全和经济社会,请政府务必做好准备。他们并没有特别在意一项具体的监管条款,更多是喊话:不要措手不及。
当时唯一算是有点强制力的要求是让他们做“安全测试”并将结果上报给政府,以帮助我们了解技术发展方向,这只针对顶尖公司。有的CEO很不乐意,因为他们觉得这会额外增加一点点人力支出。
所以说外界那种“政府被企业俘获并呼吁监管”根本不符合事实。
他们另外提到的是他们需要更多能源,并希望在美国本土建设数据中心。他们提出这是他们在美国扩张的主要瓶颈。
这确实是很多人近期开始担心的一点:如果算力需求巨大,而美国能源系统或电网不足,AI 企业可能就会把数据中心放在中东等拥有廉价能源的地方,与当地政府达成资源换技术的合作。长远看,这可能对美国不利。
这一点两党都认可。我们在2023年底和2024年都相当关注这问题。拜登总统在任期最后一周签了一个关于AI基础设施的行政令,试图加快在美国国内发展清洁能源和数据中心。
我自己非常支持气候保护,所以我认为这能一举两得:AI 公司愿意花钱买清洁能源,比如地热能源,帮助推进清洁能源技术规模化,形成良性循环。
现在出现了两种针对AI的思潮:AI安全派和AI加速派。
J.D. 万斯最近在巴黎的AI峰会上发表了演讲。我想放他的一段话:
J.D. 万斯演讲录音:在这样的峰会上,通常我们谈的是如何谨慎、如何避免风险。但我从来没见过一个新技术如此清晰地告诉我们:别犹豫,该加速就得加速。 你怎么评价他的观点?
我认为他在做二元对立:“要么顾安全要么求加速”,这并不完全合理。不过我听了他演讲的全文,他讲到要关注工人利益,要保持美国的世界领先地位等等,这些都是我们在之前也非常认可的。
如果他说“安全”和“机会”是无法兼得的,那我就不同意。如果回顾历史就会发现,恰当的安全举措往往能释放更多机会甚至加速发展。比如早期的铁路系统事故频发,后来引入了区间信号、空气制动、统一轨距等安全标准后,反而让铁路更快普及。并不是所有安全规定都好,但总体上安全和发展并不必然对立。
有观点拿核能作对比。核能潜力无穷,但也因为几次事故使人们非常恐惧,而导致严格监管极大地限制了核能的发展。
是的,核能确实是一个反例,因此我们要平衡好。现在来看,我们并没有对 AI 采取类似核能的那种严厉管控。我们也几乎没真正管它,除了让几家大实验室做自愿的安全测试汇报而已。
我们主要是设立机构,比如美国人工智能安全研究院,专注国家安全风险(网络、生命科学、AI失控风险等),并与业界自愿合作。目前跟 Anthropic、OpenAI、xAI 都签了谅解备忘录。我们的思路是:先把政府的 AI 专家团队搭起来,和私营部门合作,然后视情况决定要不要立法或进一步监管。现在这要看特朗普政府会怎么做了。
这让我想到所谓的“文化差异”。我感觉万斯的演讲不仅仅是要让人们别怕拥抱机遇,而是要推动政府部门少关心潜在风险,多关注优势。
可以说这届特朗普-马斯克政府总体倾向先行动后补救,一种“先弄坏点东西,如果真坏了再修”态度。他们认为过度谨慎会错失良机。
我同意他们跟我们在文化上可能不同,但其实我们也一直强调 AI 的机会和好处,并举办过各种会议探讨 AI 带来的益处。拜登总统签署的行政令也说要在政府部门更多应用 AI。因此“安全和机会对立”这种看法并不是我们的想法。
特朗普政府刚发布了他们自己的行政令,给自己六个月时间去研究下一步怎么做。我们还是看他们具体做什么再判断吧。
再说机遇方面。万斯的讲话中我很认同的一点是:我们也没在为潜在的好处做足够准备。假如 AI 带来比如新药物分子快速设计等突破,现行的药物测试体系很繁琐,临床实验流程极漫长……会成为新的瓶颈。
同样在教育、基础建设等领域也是如此。我们的社会制度往往跟不上飞速创新的技术,这就限制了技术的正面潜能。似乎现在还没多少人去认真思考如何加速这些现实落地环节。
是的,我同意。我们在2023、2024年就开始考虑这个,包括临床试验。大家都知道美国医疗体系很复杂。我们确实需要更快地把 AI 带来的科研成果转化为临床应用。
而这并非空想。比如谷歌的“联合科学家”(co-scientist)项目,英伟达和 Arc Institute(一个做生物研究的机构)也联手推出了最先进的分子设计模型,还有 FutureHouse 做的科学研究,都是在往这方面推进。
政府可以从制度和组织层面为此铺路。
我最近在华盛顿跟不少特朗普政府官员交流,他们也在讨论一个观点:联邦政府目前效率过低,无法快速利用 AI。要充分利用 AI,就要对政府系统来一次彻底的推倒重建,“DOGE”之类的举措就是在做这个。只有清除旧官僚体系,才能快速引入 AI。
你怎么看这个观点?
坦白说,我并不觉得解散美国国际开发署(USAID)就能让政府更好地使用 AI。我理解马斯克对 AI 很了解,但 DOGE 似乎并不是为了重建美国政府以便适应 AI。
不过,政府确实需要加快节奏来应用新的技术,这一点你会同意吗?
我当然同意。政府在技术上的迭代速度确实太慢。拜登总统当时才会设立我的职位,让我们比传统政府节奏更快行动。
万斯在演讲中也提到要让 AI 对工人友好。你觉得这指的是什么?
这确实很重要。我们有两个层面:
- 在工作场所部署 AI 时,要有尊重工人、保护其权益的制度。总统非常关注工作尊严(dignity of work),也担心 AI 如果部署不当,会让人的工作变得刻板和压抑。
- 我们希望 AI 最终能赋能工人,让他们有更强的自主性和能力。至于 AI 对劳动力市场的具体冲击,会有各种观点。有诺奖经济学家说不会冲击太大,也有人说会非常剧烈。我个人倾向后者。但总之我们要确保工人能够在这场转型里有发言权,而这是非常困难的,美国在历史上也不是做得很好。
我想再追问,你一直说你不是劳动力经济学家,但大家都知道没有谁能准确预测 AI 对就业的影响。然而如果 AI 真的像你说的那样在两三年内颠覆“坐在电脑前做认知工作”的职业,那将是史上最迅猛的大规模冲击。
此前的电气化、铁路化都需要漫长的基础设施建设,而 AI 的推广周期非常短。
是啊,但我还是想说它的扩散并不一定一次性覆盖所有行业或所有公司,还是会有先后……
我觉得正因为会出现不平衡,才特别具有破坏性。比如大量19岁的学生在学市场营销,但实际上 AI 可以做很多市场营销工作了。最先适应 AI 的公司会显著减少对毕业生的需求。
在软件工程领域,我觉得有的工作可能会被替代,但也会因为需求增加而提供很多新职位。但其他行业并不具备这种弹性。
政府内部有人认真讨论过这些潜在的失业冲击吗?还是说大家就坐等事发再处理?
我们在2023、2024年也和一些经济学家探讨了这个问题。但当时我们知道在拜登的任期内,这种冲击不会大范围落地,而且需要国会介入才能通过重大政策,所以也就停留在学术层面的讨论阶段。
对,你说的这些担忧我理解并赞同。我也认为把 AI 引入会让部分人获得更大的能力,但也可能把另一些人淘汰。“智力商品化”这一点非常值得关注,而我们要确保就业的体面和经济活力并行。
我对民主党这边的思考力度感到失望——我认为在促进劳动力适应 AI 这方面,本该有更多预案。即便要国会立法,也需要事先就思路清晰。
我知道在新政府里,马斯克、萨克斯、安德森、万斯这几个人对 AI 都非常有见解,他们也做了很多“非主流”的思考。我觉得民主党人有时过于拘泥于现有制度,缺乏一些超前的想象力。所以你在白宫时,真没什么更具体的构想吗?
没有人会说我们已经搞定了这一切。我们只是为以后打下一个基础。
我承认我们还没有彻底的方案。我们能做的是建立一些制度,把问题留给未来。因为我们也无法确切知道2027年或2028年会是什么情况。
我感到最大的落差是:我们一开始说,AI 是人类历史最重大的潜在革命,两三年就会到来。可真谈到政府要怎么应对,却又没有什么实质的举措。除了芯片管制和让企业做自愿测试,就啥都没干……这也太反差了吧?
我觉得我们应该有一定的谦逊态度。要先理解问题再去制定政策。我们知道 AI 的变革潜力很大,但要先搭好管理架构,打好基础。
所以我们做了芯片管制,但其他真正的硬性政策没有。我们也建了 AI 安全研究院,让政府能更好地理解技术的发展。我觉得这些行动是能在我们任期内落地的,同时也为下届政府创造了条件。如果他们想更进一步,则可以在我们铺好的路上往前走。
你觉得接下来的两年,特朗普政府在 AI 上最要紧的决策有哪些?
你提到的是否要限制开源,就是一个很大的问题。我们当初选择“不去管”。他们要再决定一次是否继续不管或者开始管。
另一个是:政府和私营企业的关系如何?当初我们是自愿合作,如果要变成强制,他们会怎么做?
再一个是国防领域的应用。我们之前确立了很多安全和伦理规范,如果他们想更快推进军用AI,也许会撤销一些限制。这也是很重要的选择。
最后一个惯例问题:你可以给我们推荐三本书吗?
第一本是托马斯·库恩(Thomas Kuhn)的《科学革命的结构》(The Structure of Scientific Revolutions)。这本书提出了“范式转变”这个概念,也就是我们今天一直在谈的——技术和科学认知发生重大飞跃,进而对社会产生深远影响。库恩用历史案例和理论框架来说明这种范式转变是如何发生的。
第二本是托马斯·里德(Thomas Rid)的《机器崛起》(Rise of the Machines),讲的是最初只有极客才玩的那些机器,如何在七八十年代成为国家安全的重要工具。我们聊过的互联网、微处理器、国防资金等等都在里面出现,这对我们今天思考AI极具参考价值。
最后一本有点奇怪,但我觉得很重要:乔治·桑德斯(George Saunders)的《在雨中的池塘里游泳》(A Swim in the Pond in the Rain)。他是个很棒的散文家、短篇小说家和小说家,他在书里以俄国文学名著短篇为例,做了现代阅读和解析。对我来说,这本书体现了深刻的人文性:它探讨的是人对文学作品的现代诠释。我希望这类对文学、对人性深度的品读是人工智能无法轻易取代的。也许有一天 AI 也能做,但我希望这依然是我们的独有能力。
本期《艾兹拉·克莱因秀》由 Rollin Hu 制作。Michelle Harris、Kate Sinclair 和 Mary Marge Locker 负责事实核查。Isaac Jones 负责音频混音,Efim Shapiro 和 Aman Sahota 提供协助。我们的监制编辑是 Claire Gordon。节目团队还包括 Elias Isquith、Kristin Lin 和 Jack McCordick。Pat McCusker 为节目创作了原声音乐。Kristina Samulewski 和 Shannon Busta 负责受众拓展。New York Times Opinion Audio 的执行制片人是 Annie-Rose Strasser。特别感谢 Switch and Board Podcast Studio。
艾兹拉·克莱因(Ezra Klein)于 2021 年加入《纽约时报》观点版。在此之前,他是 Vox 的创始人、主编及特约编辑,也是播客“The Ezra Klein Show”的主持人,并著有《我们为何如此两极分化》(Why We’re Polarized)。更早之前,他在《华盛顿邮报》担任专栏作家与编辑,创立并领导了 Wonkblog。欢迎在Threads找到他。