Sam Altman最新专访- OpenAI、GPT-5、Sora、Board Saga、Elon Musk、Ilya、Power & AGI | Lex Fridman 播客 [中文版]

原文:Sam Altman- OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGI | Lex Fridman Podcast #419

maxresdefault (1).jpg

介绍

Sam Altman(00:00:00)
我相信计算能力将会成为未来的“货币”。它可能将成为世界上最珍贵的商品。我预计在本十年结束,甚至可能更早之前,我们将拥有一些强大的系统,让我们惊叹不已。我预见通用人工智能的发展将会引发一场巨大的权力争夺,我相信这将会发生。

Lex Fridman(00:00:26)
谁能首先建立起通用人工智能,谁就将掌握巨大的权力。你觉得自己能够承受这么大的权力吗?

(00:00:36)
下面是我和 Sam Altman 的一段对话,这是他第二次参加这个播客节目。他是 OpenAI 的首席执行官,这家公司开发了 GPT-4、ChaTGPT、Sora 等项目,也许有一天,会成为建立起通用人工智能的公司。这是 Lex Fridman 的播客节目。如果您愿意支持我们,请查看描述中的赞助信息。现在,请欢迎我的朋友们——Sam Altman。

OpenAI 董事会纷争

(00:01:05)
能否让我了解一下 11 月 16 日星期四开始的 OpenAI 董事会纷争?也许对你来说是星期五的 11 月 17 日。

Sam Altman(00:01:13)
那无疑是我职业生涯中最痛苦的经历,一片混乱、羞愧、困扰和种种负面情绪。当然,这其中也有一些好的部分,但我只是希望在那种剧烈的紧张感中,我能有机会停下来欣赏它们。我回顾了我那段时间发的一条推特,看到它就像是自己在听自己的悼念词,看着人们对我说出所有这些赞美的话,还有我关心和爱护的人们给予我无比的支持,那真的很令人感动。整个那个周末,除了一件重大事件外,我感到了大量的爱,而恨的情绪很少,尽管我感觉我不知道将要发生什么,我也不知道接下来会怎样,这真的感觉很糟糕。有时我甚至认为这可能会成为 AI 安全历史上最糟糕的事件之一。但说实话,我很庆幸这件事在相对早的时期就发生了。我预感在 OpenAI 开始运作和我们成功创建通用人工智能的间隙,会有一些疯狂和震撼的事件发生,而且可能会有更多这样的事情即将发生。不过,我依然坚信,这些经历帮助我们增强了抵抗压力的能力,让我们更好地应对未来可能出现的挑战。

Lex Fridman(00:03:02)
但你有没有预感自己会经历某种权力斗争呢?

Sam Altman(00:03:08)
我预见通用人工智能的道路将会是一场巨大的权力斗争。

Lex Fridman(00:03:17)
所以你必须去经历这种情况,就像你说的,尽可能多地进行尝试和改进,以找出如何建立董事会的结构,如何有组织,如何选择合作伙伴,如何沟通所有这些,以尽可能地缓解权力斗争。

Sam Altman(00:03:37)
是的。

Lex Fridman(00:03:37)
平息它。

Sam Altman(00:03:38)
但在这个阶段,过去那些令人难过、困难和痛苦的事情感觉就像是历史。我们又回到了工作中,每天的事情繁忙而紧张到我几乎没有时间去思考过去的事情。过去那段时间,我仿佛身处迷离的状态,在那大约一个月,或者说 45 天的时间里,我像是在生活中漂浮,感到十分低落。

Lex Fridman(00:04:17)
那是从个人的心理层面上讲的吗?

Sam Altman(00:04:20)
是的。真的很痛苦,而且在那段时间里还要继续经营 OpenAI 真的很难。我只想找个地方躲起来,好好休息一下。但现在我们又回到了执行我们的使命。

Lex Fridman(00:04:38)
嗯,回顾并反思董事会结构,权力动态,以及公司如何运营等问题仍然是有用的,这包括研究和产品开发之间的紧张关系,还有金钱等所有这些问题。这对你这样有很高可能性建立通用人工智能的人来说,你可以在未来以更有组织、更低调的方式去工作。所以,对你作为领导者的个人心理方面,以及董事会结构和所有这些复杂的事情进行反思,是有价值的。

Sam Altman(00:05:18)
我从这次经历中学到了很多关于结构、激励,以及我们需要从董事会中得到什么的知识。我认为,从某种意义上说,这次事件的发生是有价值的。我认为这可能不是 OpenAI 最后一个高压力的时刻,但这的确是一个压力很大的时刻。我的公司差点就被摧毁。我们在考虑通用人工智能需要做对的许多其他事情,但是思考如何建立一个有韧性的组织,如何建立一个能够承受世界压力的结构,我预计压力会随着我们对通用人工智能的接近而增加,我认为这是非常重要的。

Lex Fridman(00:06:01)
你是否了解董事会进行深度和严谨讨论的过程?你能否对此类情况下涉及的人际动态进行一些解释?是不是只经过了几次对话,然后情况突然升级,为什么我们不解雇 Sam?

Sam Altman(00:06:22)
我认为董事会成员大体上都是有良好意愿的人,我相信在紧张的情况下,人们会理解并做出非最优的决策。我认为 OpenAI 将面临的一个挑战是我们需要有一个董事会和团队,他们能够在压力下良好地工作。

Lex Fridman(00:07:00)
你认为董事会拥有太多权力了吗?

Sam Altman(00:07:03)
我认为董事会应该拥有很多权力,但我们确实看到在大多数公司结构中,董事会通常需要对股东负责。有时候人们拥有超级投票权。在这种情况下,我认为我们在结构上可能应该考虑的更多的是,除非你设定其他规则,否则非营利组织的董事会拥有相当大的权力。他们真正要负责的只有他们自己。这有其好处,但我们真正希望的是 OpenAI 的董事会能对全球公众负责,只要实践上可行。

Lex Fridman(00:07:44)
所以新的董事会已经宣布了?

Sam Altman(00:07:46)
是的。

Lex Fridman(00:07:47)
我猜首先是一个较小的新董事会,然后现在有一个最终的新董事会?

Sam Altman(00:07:53)
还没有最终的董事会。我们已经添加了一些,我们还会继续添加。

Lex Fridman(00:07:56)
已经添加了一些。好的。新董事会修复了什么可能在以前的董事会中出现的问题?

Sam Altman(00:08:05)
在大约一年的时间里,原有的董事会规模缩小了。原本有九人,后来减少到六人,并且我们无法达成一致关于应该添加谁的问题。我认为董事会可能也没有很多有经验的成员,而 OpenAI 新的董事会成员中有更多具有董事经验的人。我认为这会有所帮助。

Lex Fridman(00:08:31)
一些新增的董事会成员受到了批评,例如我听说很多人批评加入了 Larry Summers。选择董事会的过程是什么?那包含什么?

Sam Altman(00:08:43)
布雷特和拉里的决定是在那个充满压力的周末的紧急时刻做出的,那个周末的经历就像坐过山车一样。起起落落,充满了变化。我们试图达成一个关于新董事会成员的协议,这些成员需要得到内部执行团队和旧董事会成员的认可。拉里其实是旧董事会成员的提议之一。关于布雷特,我记得我可能在那个周末之前就提过他,但他那时非常忙,不想接受,然后我们在[无法听清 00:09:22]的情况下迫切需要帮助。我们考虑过很多其他人选,但是我觉得,如果我要回来,我需要新的董事会成员。我觉得我无法再和旧的董事会以之前的配置方式继续合作,尽管后来我们决定,我很感激亚当能够继续留下,但是我们考虑了各种配置,最后决定构建一个由三个人组成的董事会,并在短时间内寻找两个新的董事会成员。

(00:09:57)
所以这些决定实际上是在紧急情况下做出的…你在战场上做出这样的决定。在那种情况下,你没有时间去设计一个严谨的流程。对于未来的新董事会成员,以及我们将要增加的新董事会成员,我们设定了一些我们认为对董事会非常重要的标准,我们希望董事会具备不同的专业知识。与聘请执行职务的员工不同,需要他们在某一角色中表现出色,董事会需要在治理和思考方面表现出色,因此,我特别认同布雷特的观点,即我们应以团队的方式聘请董事会成员,而不是一次只聘请一个人。我们考虑的是一组人,他们具有非营利性专业知识、有公司运营经验,以及良好的法律和治理专业知识,这些正是我们正在努力优化的地方。

Lex Fridman(00:10:49)
那么对于董事会成员来说,是否需要具备技术精明?

Sam Altman(00:10:52)
不是所有的董事会成员都需要,但肯定有一些人需要具备这种技能。这是董事会需要执行的任务之一。

Lex Fridman(00:10:57)
关于 OpenAI,我认为人们可能不太了解,我也是,那就是运营业务的所有细节。当他们考虑董事会时,考虑到那些风波,他们可能会想到你。他们会想,如果你成功实现了 AGI,或者你创造并部署了一些极具影响力的产品,那么与董事会的对话将会是怎样的?他们可能会想,面对这种情况,需要哪种类型的团队来进行讨论和决策?

Sam Altman(00:11:25)
你看,我认为你确实需要一些技术专家在那里。然后你需要一些人,他们会思考,“我们如何运用这个最能帮助世界上的人们?”以及那些拥有完全不同观点的人。我认为你或我可能会犯的一个错误是认为只有技术理解才重要,这当然是你想让董事会讨论的一部分,但是讨论应该更多关于这个技术会如何影响社会和人们的生活。

Lex Fridman(00:11:56)
你是查看人们的过往表现,还是只进行对话?

Sam Altman(00:12:00)
过往表现是非常重要的。当然你会进行很多对话,但有些角色我会完全忽视过往表现,只看他们的进步速度,而忽视他们的起点。

Lex Fridman(00:12:18)
谢谢。感谢你为观众引入数学概念。

Sam Altman(00:12:21)
对于董事会成员,我确实更关心他们的起点。我认为过往表现里面有一些深层次的信息,而且经验是无法替代的。

Lex Fridman(00:12:32)
你试图将多项式函数或指数函数拟合到过往表现上吗?

Sam Altman(00:12:36)
这个类比并不能太过深入。

Lex Fridman(00:12:39)
好的。你提到了那个周末的一些低点。对你来说,心理上的一些低点是什么?你是否考虑过去亚马逊丛林,只是服用迷幻药物并永远消失?

Sam Altman(00:12:53)
那是一个非常糟糕的时期。但也有一些很好的时刻。我的手机经常收到我每天工作的人,甚至我十年没联系过的人发来的友好信息,这真的很棒。但是由于我处在这场混战的中间,我没能像我应该的那样欣赏它,但那真的很好。总的来说,那是一个非常痛苦的周末。这场在公众眼前的争斗让人震惊,这让我感到极度疲惫,比我预期的还要多。我认为争斗通常都很累人,但这场真的很累。该董事会在周五下午做出了决定。我真的得不到多少答案,但我也只是想,好吧,董事会有权这样做,所以我会花些时间思考我想做什么,但我会试图在这里找到隐藏的幸运。

(00:13:52)
当时我在想,我现在在 OpenAI 的工作就是,或者应该说,是管理一个到此为止规模还算不小的公司。我最享受的部分总是和研究们的互动。我在想,对,我可以去投入到一个十分专注的通用人工智能 (AGI)
研究中。这个想法让我感到很兴奋。当时我甚至都没想到这一切可能会被全部撤销。那是周五的下午。

Lex Fridman(00:14:19)
所以你已经接受了这个事实-

Sam Altman(00:14:22)
非常快速。非常快速。我经历了一个短暂的困惑和愤怒阶段,但很快就过去了。当周五晚上,我已经在和别人讨论接下来会发生什么,我对此感到很兴奋。我记得是周五晚上第一次听到执行团队这样说:“嘿,我们要反击。”然后我就去睡觉了,仍然保持着那份兴奋。向前看。

Lex Fridman(00:14:52)
你能够入睡吗?

Sam Altman(00:14:54)
并没有睡很多。有那么四天半的时间,我几乎没怎么睡,也没怎么吃,奇怪的是我仍然有很多精力。在战时,你会对肾上腺素有一些奇特的了解。

Lex Fridman(00:15:09)
所以你接受了 OpenAI,这个你的宝贝的消亡。

Sam Altman(00:15:13)
我对新的事物感到兴奋。我只是想,“好吧,这有点疯狂,但那又如何。”

Lex Fridman(00:15:17)
这是非常好的应对机制。

Sam Altman(00:15:18)
然后周六早上,两位董事会成员给我打电话说,“嘿,我们并不是要破坏事情。我们不想让这里失去很多价值。我们能谈谈你回来吗?”我当时立刻就不想答应,但我又想了一下,我真的很在意这里的人,我的伙伴,股东。我喜欢这家公司。于是我想了想,我说,“好吧,但这是我需要的条件。”然后那个周末的过程中最痛苦的时刻就是,我一直在思考并被告知,不仅仅是我,这里的整个团队都在想,我们正在努力让 OpenAI 保持稳定,而整个世界似乎都在试图将其分裂,人们试图招揽一些人。

(00:16:04)
我们一直被告知就快好了,就快好了,只是还需要一点点时间。那是一个混乱的状态。然后在周日晚上,我其实每隔几个小时都期待着事情会告一段落,我能够重新回归,一切又能恢复如初。然后,董事会任命了一位新的临时 CEO,那一刻我觉得真的很难受。那是整个事件的最低点。我要告诉你的是,那时候虽然心里很痛苦,但在那整个周末,我都深深地感受到了人们的关爱。除了周日晚上的那一刻之外,我并没有真正体验到愤怒或仇恨,反倒是感到了来自人们,对人们的深深的爱。那的确是痛苦的,但那个周末的主要情绪其实是爱,而不是仇恨。

Lex Fridman(00:17:04)
你对 Mira Murati 的评价很高,你在推特上说她在那些寂静的时刻给了你很大的帮助。或许我们可以稍微偏离一下主题,你对 Mira 有什么敬仰之情?

Sam Altman(00:17:15)
嗯,她在那个充满混乱的周末表现得非常出色,但人们通常只在危机时刻看到领导者的身影,无论好坏。然而,我真正认可的领导者特质,是他们如何在一个普通的周二上午 9:46,或是在日常琐事中表现。一个人如何在会议中应对,他们做出的决定有多高的质量。这就是我所说的那些寂静的时刻。

Lex Fridman(00:17:47)
这就是说,大部分的工作其实都是在日复一日,一次又一次的会议中进行的,只需全神贯注并做出明智的决定。

Sam Altman(00:17:58)
是的。你看,你可能对过去的 20 分钟里那个戏剧性的周末比较感兴趣,我能理解。但这并不是 OpenAI 真正关心的。OpenAI 真正关心的是其他的七年时间。

Lex Fridman(00:18:10)
嗯,确实如此。人类文明并不只是关于纳粹德国侵略苏联,但我们仍然会关注这种事情。

Sam Altman(00:18:18)
我完全理解。

Lex Fridman(00:18:19)
这能帮助我们更深入地理解人性,理解人性的极限,也许在这些时刻,人类文明的一些伤痛和胜利都会显现出来,这是很有启示意义的。那么,让我问你一下关于 Ilya 的事情,他现在被秘密的核设施拘禁了吗?

Ilya Sutskever

Sam Altman(00:18:36)
没有的。

Lex Fridman(00:18:37)
那么普通的秘密设施呢?

Sam Altman(00:18:39)
不。

Lex Fridman(00:18:40)
或者一个并非秘密的核设施呢?

Sam Altman(00:18:41)
也不是。也不是那个。

Lex Fridman(00:18:44)
这最终将成为一个梗。你和 Ilya 认识已经很长时间了。他显然是董事会争论等所有事情的一部分。你现在和他的关系如何?

Sam Altman(00:18:57)
我喜欢 Ilya。我对 Ilya 极度尊重。我现在并不能说出关于他计划的任何事情。这个问题他更清楚,但我真心希望我们能在我职业生涯的剩余时间里一直一起工作。他比我年轻一点。也许他工作的时间会更长一些。

Lex Fridman(00:19:15)
有种说法是他看到了什么,比如他可能看到了通用人工智能,这让他内心深感忧虑。Ilya 看到了什么?

Sam Altman(00:19:28)
Ilya 并未看到通用人工智能。我们都没看到过通用人工智能。我们还没有构建出通用人工智能。我确实认为 Ilya 的许多优点之一就是他对通用人工智能以及安全问题,广义地说,包括这会对社会产生什么影响等等,都非常认真。而且随着我们持续取得显著的进步,Ilya 是我在过去的几年里花最多时间讨论的人之一,关于这个问题,我们需要做什么来确保我们做得对,确保我们成功完成任务。所以 Ilya 并未看到过通用人工智能,但 Ilya 对人类做出了极大的贡献,关于他如何思考和担忧如何确保我们做对这个问题。

Lex Fridman(00:20:30)
我过去与他有过很多对话。我认为他谈论科技时,总是在做这种长期思考类型的事情。所以他并没有在想明年这将会变成什么。他正在想 10 年后,从根本原则出发,比如,“好的,如果这个东西扩大了,基本原则是什么?这将会走向哪里?”因此,这是他思考所有其他安全问等等的基础,这使他成为一个与之交谈非常有趣的人。你有任何关于他为何保持沉默的想法吗?他是在进行一些深度反思吗?

Sam Altman(00:21:08)
再次声明,我不想替伊利亚发言。我觉得你应该直接问他。他是个很有思想的人。我总觉得伊利亚以一种非常积极的方式在进行自我探索。

Lex Fridman(00:21:27)
是的,没错。此外,他懂得欣赏沉默的力量。我也听说他有时会展现出很滑稽的一面,但我还没见过。

Sam Altman(00:21:36)
当他这样的时候,真的很可爱。

Lex Fridman(00:21:39)
我还没见过滑稽的伊利亚,但我也期待见到。

Sam Altman(00:21:43)
我最近和他一起参加了一个晚餐聚会,看到他正在和一只小狗玩耍,他的行为非常滑稽,也非常让人喜欢。我当时在想,哦,这个世界大部分人并没见过的伊利亚的一面。

Lex Fridman(00:21:55)
所以,总结一下,你对董事会结构感觉如何?

Sam Altman(00:21:55)
是的,我觉得很好。

Lex Fridman(00:22:01)
…以及对整个情况以及未来的发展方向?

Sam Altman(00:22:04)
我对新的董事会非常满意。在 OpenAI 的架构方面,董事会有任务来研究我们如何能使其更稳健。我们希望首先确定新的董事会成员,但是在这个过程中我们显然对结构有了新的理解。我没有什么深入的想法要表达。那是一次疯狂而痛苦的经历,就像是一场完美的风暴。对我来说,这是对未来可能发生的事情的预览,随着风险越来越大,我们需要有更稳健的治理结构、流程和人员。我很庆幸这些在早期就发生了,尽管它是一次令人震惊的痛苦经历。

Lex Fridman(00:22:47)
这是否让你对信任他人更加犹豫?

Sam Altman(00:22:50)
是的。

Lex Fridman(00:22:51)
你是从个人角度来说的吗?

Sam Altman(00:22:52)
是的。我一直认为我是一个非常愿意信任他人的人。我总是坚持一种生活哲学,即不要总是过于焦虑,不要总是担心那些极端的情况。即使为了能够放下防备,稍微承受一些不利的情况,我也愿意。但这次的事情对我来说真的非常震惊,我完全没有预料到。我并不喜欢这种感觉,这绝对改变了我对于默认信任他人以及为坏情况做计划的态度。

Lex Fridman(00:23:21)
你得谨慎对待这个。你担心会变得过于愤世嫉俗吗?

Sam Altman(00:23:26)
我并不担心会变得过于愤世嫉俗。我觉得我是一个极度乐观的人,但我担心的是我可能会变得不再那么容易相信他人。

Lex Fridman(00:23:36)
其实,对于正在研发通用人工智能的人来说,到底是选择信任还是不信任的方式更好,我也不太确定。你现在正在经历的这个过程非常有趣。但在大体结构上,我更感兴趣的是人的因素。你是如何找到那些能够制造出独特创新,同时又能作出明智决策的团队的呢?因为随着你开始赚取更多的收入,你的影响力也在增加,这个过程中会遇到越来越多奇怪的人。

Sam Altman(00:24:06)
我想你可能会对董事会成员以及我应该对他们有怎样的信任,或者我应该如何做出不同的决定提出各种观点。但就团队本身而言,我认为你会对我给出很高的评价。我对我每天工作的人们深感感激,我对他们充满了信任和尊重,我认为能和这样的人一起工作真的非常重要。

和马斯克的官司

Lex Fridman(00:24:39)
埃隆马斯克,我们都熟识的那位,他起诉了 OpenAI。你认为他的批评主要指向哪些方面?他在何种程度上是对的?又在何种程度上是错的?

Sam Altman(00:24:52)
我真不清楚这具体是关于什么的。我们最初只是想成为一个研究实验室,对这项技术的发展方向并无清晰想法。因为那只是七八年前的事情,真的很难回到过去再次感受那时的情况。但那是在大语言模型成为热门话题之前的时代。那个时候,我们对于开发 API 或者出售聊天机器人这样的概念毫无概念。更别提我们会将研究成果产品化。所以我们当时的想法是,“我们只是想去做研究,至于研究成果用来做什么,我们还真不清楚。”我认为,对于许多全新的事物,你开始时总是摸黑前进,在过程中做出一些假设,而大多数假设最终证明是错误的。

(00:25:31)
然后我们明白了我们需要改变做事的方式,还需要大量的资本投入。于是我们说,“好的,当前的结构似乎不太符合需要。我们应该如何调整这个结构呢?”然后你开始一次次地调整,最终你得到的东西看起来可能会令人惊讶。但我们是在不断试错,并且我认为我们在每个阶段都做出了合理的决策。这并不意味着如果我们能回到过去,我不会用另一种方式去做。但是你当时并没有预知未来的能力。但无论如何,关于马斯克的真实动机,我并不清楚。

Lex Fridman(00:26:12)
你还记得 OpenAI 在博客文章中是如何回应的吗?你能简单总结一下吗?

Sam Altman(00:26:21)
哦,我们只是说马斯克说了一堆事情。这是我们对事情发展的描述,或者说,这不是我们自己的描述,而是对事情发展过程的描述。我们尽量做到客观理智,只是说,“这就是事情发展的历史。”

Lex Fridman(00:26:44)
我确实觉得马斯克对你刚才提到的你们当时的不确定性有所误解。你们那时只是一小群研究者,当所有人都嘲笑通用人工智能的想法时,你们却正在热衷地讨论它。

Sam Altman(00:27:09)
不久前,马斯克也曾热衷于讨论火箭发射的想法,而当时人们也嘲笑他,所以我认为他应该能理解我们。

Lex Fridman(00:27:20)
我还是觉得这里面有些个人情感的问题,OpenAI 和一些优秀的同事选择与马斯克分道扬镳,所以这也是一种个人情绪的-

Sam Altman(00:27:34)
马斯克选择了离开。

Lex Fridman(00:27:37)
你能详细描述一下他离开的情况吗?

Sam Altman(00:27:42)
他认为 OpenAI 会失败。他希望完全掌控并能够扭转局面。我们则想继续按照现在的方向前进,这也是现在的 OpenAI。他还希望特斯拉能进行通用人工智能的开发。他曾多次提出想把 OpenAI 变成一个他能掌控的盈利公司,或者与特斯拉合并。但我们并不想这样做,于是他决定离开,这也没什么。

Lex Fridman(00:28:06)
所以你的意思是,正如博客文章所说,他希望 OpenAI 能被特斯拉收购,就像与微软的合作伙伴关系,或者可能更深入一些。

Sam Altman(00:28:23)
我的记忆中的提议就是,让特斯拉收购 OpenAI 并全权掌控。我非常确定就是这样。

Lex Fridman(00:28:29)
那么,对于马斯克来说,OpenAI 中的'open'一词是什么意思呢?我记得 Ilya 在电子邮件交流中有提到这个问题。那么对于你来说,当时它的意思是什么?现在又是什么意思呢?

Sam Altman(00:28:44)
如果说回溯,我可能会选择一个不同的名字。我认为 OpenAI 正在做的最重要的一件事就是把强大的技术免费提供给公众,作为一种公共利益。我们在免费版本上不运行广告——

Sam Altman(00:29:01)
作为一种公共利益。我们的免费版本不运行广告,也不通过其他途径进行盈利。我们认为这是我们使命的一部分。我们希望免费将越来越强大的工具提供给人们,并让他们使用。我认为这种开放性对我们的使命至关重要。我相信,如果我们提供优秀的工具给人们,教他们如何使用,甚至不用教,他们也会自己弄明白,然后利用这些工具为彼此创造一个美好的未来,那就太好了。所以,如果我们能继续提供免费或低成本的、强大的人工智能工具,我认为这对我们实现使命来说是非常重要的。至于是否开源,我觉得我们应该开源一部分东西,对另一部分则不必。这的确会形成一种争论的焦点,其中的微妙之处可能难以把握,但我认为找出这种微妙之处才是正确的答案。

Lex Fridman(00:29:55)
所以他说,“把你的名字改为 CloseAI,我就撤销诉讼。”我的问题是,这是否会在关于名字的网络热词战场上引起争议?

Sam Altman(00:30:06)
我认为这体现了马斯克对诉讼的严肃态度,我觉得这是一个很令人震惊的事情。

Lex Fridman(00:30:23)
可能我理解错了,但我认为这场诉讼在法律上并不严重。它更像是想要表达关于未来通用人工智能及目前领先的公司的看法。

Sam Altman(00:30:37)
其实,Grok 在被别人指出有些虚伪之后,才开始尝试开源。但我并不认为他真正关注的问题是是否开源。

Lex Fridman(00:30:48)
好的,我们以后可以再讨论关于开源的问题。我觉得批评竞争对手是好事,说些狠话也没关系。但我更倾向于友好的竞争,而不是诉讼。

Sam Altman(00:31:01)
我觉得这件事对于一个建设者来说十分不恰当。我一直尊敬马斯克,他是我们这个时代的伟大建设者之一。我知道他深受那些恶意攻击的困扰,所以他现在的行为让我感到更加难过。

Lex Fridman(00:31:18)
是的,他可能是有史以来最伟大的建设者。

Sam Altman(00:31:22)
这让我感到悲伤,我想很多人都会有同样的感觉。很多人一直都很尊敬他。我在某次采访中说我怀念以前的马斯克,然后我收到了很多跟我有同样感觉的回复。

开源

Lex Fridman(00:31:36)
我认为他应该只是专心于竞赛,让 X Grok 和 GPT 进行公平竞赛,这样对所有人来说都是美好的。至于开源的问题,你认为有很多公司在考虑这个想法吗?这是一个非常有趣的问题。我觉得 Meta 在这方面走在了前面,他们是第一个真正开源模型的公司。当然,他们开源的并不是最先进的模型,Llama Google 也在考虑开源一个较小的版本。对于开源,你认为有哪些利弊?你曾经考虑过这个问题吗?

Sam Altman(00:32:22)
是的,我认为开源模型肯定有一席之地,尤其是人们可以在本地运行的较小模型,我认为对此有很大需求。我认为会有一些开源模型,也会有一些闭源模型。这并不会出乎其他生态系统的预料。

Lex Fridman(00:32:39)
我听了关于这起诉讼和所有这类事情的全部播客。他们更担心从非营利性转变为有盈利上限的先例。这为其他创业公司设定了什么先例吗?这个问题是不是-

Sam Altman(00:32:56)
我会强烈劝阻任何计划从非盈利创业开始,后期增设盈利部门的公司。我会强烈劝阻他们这么做。我不认为我们会设定一个先例。

Lex Fridman(00:33:05)
好的。所以大多数创业公司应该直接-

Sam Altman(00:33:08)
当然。

Lex Fridman(00:33:09)
再说一次-

Sam Altman(00:33:09)
如果我们早知道会发生什么,我们也会那样做。

Lex Fridman(00:33:12)
嗯,在理论上,如果你在这里操作得当,有一些税收激励或者什么,但是...

Sam Altman(00:33:19)
我不认为大多数人会从这个角度考虑这些事情。

Lex Fridman(00:33:22)
如果你这样做,对于创业公司来说,根本不可能节省很多钱。

Sam Altman(00:33:27)
不,我认为有些法律会使这变得非常困难。

Lex Fridman(00:33:30)
你希望与马斯克的关系如何发展?这种紧张,这种舞步,你希望这是什么?如果我们从现在起 1、2、3 年后,你与他的个人关系,比如友谊,友好的竞争,所有这种类型的事情。

Sam Altman(00:33:51)
是的,我真的很尊重马斯克,我希望未来几年我们能有一个和睦的关系。

Lex Fridman(00:34:05)
是的,我希望你们两个这个月就能有一个和睦的关系,只是竞争和获胜,一起探索这些想法。我猜想有些人才竞争或者什么的,但是应该是友好的竞争。只是创造创新的产品。马斯克在创造创新产品方面非常厉害。你也是。

Sora

(00:34:32)
所以,说起 Sora,这真是个很酷的话题。我可以问很多问题。首先,我得说它真的很神奇。无论是从产品层面还是哲学层面看,都是如此。那么,我现在想提一个技术/哲学相关的问题,你认为在对这些图像片段与语言 token 进行训练时,它对世界的理解比 GPT-4 是多还是少?

Sam Altman(00:35:04)
我觉得所有这些模型对世界模型的理解都比我们认为的要多。然而,因为它们也存在很多明显的误解或者错误,我们很容易就注意到它们的弱点,然后说,“看,这都是假的。”但其实并非全然如此。有些部分是有效的,有些部分是无效的。

(00:35:28)
我记得我刚开始看 Sora 的视频的时候,我看到一个人走过某个东西,遮蔽了几秒钟,然后走开,那个东西还在那里。我觉得,“哇,这还真不错。”或者有些例子,底层的物理规律在一个序列的好几步中表现得很好,我心想,“哇,这真的很厉害。”但从根本上看,这些模型只是在不断进步,这种情况会继续发生。如果你看看从 DALL·E 1 到 2,再到 3,最后到 Sora 的发展轨迹,你会发现每个版本都有人冷嘲热讽,但看看现在的成果。

Lex Fridman(00:36:04)
嗯,你刚提到的遮蔽,基本上是在足够好地模拟世界的三维物理现象,以便捕捉到这类状况。

Sam Altman(00:36:17)
嗯…

Lex Fridman(00:36:18)
或者,你可以告诉我,为了应对遮蔽,世界模型需要做些什么?

Sam Altman(00:36:24)
是的。我想说,它在处理遮蔽问题上做得很好。但是,我认为它拥有一个出色的基于 3D 的世界模型,这可能有点过于推测了。

Lex Fridman(00:36:33)
但是,我们能不能通过这种二维训练数据的方法达到这个效果呢?

Sam Altman(00:36:39)
看起来,这种方法可能会走得比我们想象的还要远。我不想过多地预测它能突破哪些限制,不能突破哪些,但是…

Lex Fridman(00:36:46)
你们发现了系统的哪些有趣的限制?我是说,像你们发布的那些趣味性问题。

Sam Altman(00:36:52)
有各种各样有趣的现象。比如,视频中猫随机长出额外的肢体。你随便选一些,但我们还面临很多问题,有很多弱点。

Lex Fridman(00:37:02)
你认为这是这种方法的根本性问题,还是只需要更大的模型、更好的技术细节或更好的数据就能解决猫随机长出[不可听清 00:37:19]的问题?

Sam Altman(00:37:19)
我会对两者都表示赞同。我觉得这种方法与我们的思考和学习方式存在某种差异。但同时,我也认为随着规模的增大,它的表现会变得更好。

Lex Fridman(00:37:30)
正如我提到的,LLM 有文本 tokens,Sora 有视觉贴片,所以它将所有的视觉数据,包括各种类型的视频和图像转换为贴片。训练的程度是完全自我监督的吗,还是进行了一些手动标记?人类在其中的参与程度是多少?

Sam Altman(00:37:49)
我的意思是,没有具体谈论 Sora 的方法,我们在我们的工作中使用了大量的人类数据。

Lex Fridman(00:38:00)
但并不是互联网规模的数据吗?所以涉及到很多人。Sam,“大量”是个复杂的词。

Sam Altman(00:38:08)
我认为在这种情况下,“大量”是个合适的词。

Lex Fridman(00:38:12)
因为对我来说,“大量”……听着,我是个内向的人,当我和三个人一起出去玩,那对我来说就是很多人了。四个人,对我来说也是很多。但我想你的意思是超过……

Sam Altman(00:38:21)
对的,为这些模型标记数据的人是超过三个的。

Lex Fridman(00:38:24)
好的。但是从根本上说,有很多的自我监督学习。因为你在技术报告中提到的是互联网规模的数据。这真是……就像诗一样美丽。所以有很多数据并没有由人类标记。它是以这种方式自我监督的吗?

Sam Altman(00:38:44)
是的。

Lex Fridman(00:38:45)
那么问题就是,互联网上有多少数据可以用于这种自我监督的方式,只要我们知道自我监督的细节。你有考虑公开一些更详细的信息吗?

Sam Altman(00:39:02)
我们做过了。你是指特别针对源码吗?

Lex Fridman(00:39:04)
是的,特别针对源码。因为很有趣的是,大语言模型现在是否可以开始向视觉数据领域发展,要做到这一点需要做些什么呢?

Sam Altman(00:39:18)
我觉得是可以的,但我们还需要做更多的工作。

Lex Fridman(00:39:22)
明白。那可能存在哪些危险?你为何担心发布系统呢?

Sam Altman(00:39:29)
坦白说,我们在发布系统之前必须做的一件事就是让它达到一种足够的效率,以便满足人们对此的期待,我不希望低估这一点。这里还有许多工作要做。你可以想象一下深度伪造和误导信息等问题。我们试图在发布的产品上考虑得更深远,很容易就能想到这可能带来的问题。

Lex Fridman(00:40:05)
这里有很多棘手的问题,你正在处理一片非常复杂的领域。你认为训练 AI 在版权法下应该或者说是公平使用吗?

Sam Altman(00:40:14)
我觉得这个问题背后的意思是,创造有价值数据的人是否应该有某种方式获得补偿,我认为答案是肯定的。我还不确定具体的答案是什么。人们提出过很多不同的建议。我们尝试了一些不同的方案。但如果我是一位艺术家,例如,首先,我希望能够选择不让别人用我的风格创作艺术。其次,如果他们确实以我的风格创作艺术,我希望有一种经济模型与之关联。

Lex Fridman(00:40:46)
是的,就像从 CD 转变为 Napster,再转变为 Spotify 的过程。我们必须找出一种适合的模型。

Sam Altman(00:40:53)
模型会改变,但人们还是要得到报酬。

Lex Fridman(00:40:55)
对,如果我们把视角再拉远一些,应该有一种激励机制鼓励人们继续创造出更酷的东西。

Sam Altman(00:41:02)
我担心的每一件事中,人类会继续做出酷的事情,社会也会找到一些方式来回报他们。这似乎是我们的本能。我们想要创新,我们想要有用,我们想要以各种方式获得尊重。我认为这一点不会改变。

Lex Fridman(00:41:17)
但奖励可能并不仅仅是金钱。它可能是名誉,或者其他新颖有趣的东西-

Sam Altman(00:41:25)
或许,这个奖励在其他方面具有经济价值。我认为我们还未见识到经济体系将来的所有可能发展形态。

Lex Fridman(00:41:31)
是的,但艺术家和创作者们对此感到担忧。当他们看到 Sora,他们感到震惊。

Sam Altman(00:41:36)
的确。艺术家们在摄影初现时也非常忧虑,然后摄影变成了一种新的艺术形式,人们通过摄影赚了很多钱。我认为类似的事情会继续发生。人们会以新的方式使用新的工具。

Lex Fridman(00:41:50)
如果我们只看 YouTube 或者类似的平台,那么在接下来的五年里,有多少内容会采用像 Sora 这样的 AI 生成,你认为呢?

Sam Altman(00:42:01)
人们经常讨论的是,AI 在五年内会接手多少工作。人们普遍的认知是,当前有多少工作岗位会被 AI 完全取代?但我认为,更重要的问题不是 AI 将做多少工作,而是 AI 将在一定的时间范围内完成多少任务。因此,如果你考虑所有的五秒任务,五分钟任务,五小时任务,甚至是五天的任务,AI 能完成多少?我认为这个问题比 AI 能做多少工作更有趣,更具影响力,也更为重要,因为 AI 是一个工具,它将以越来越高的精细度,和越来越长的时间范围处理越来越多的任务,让人们在更高的抽象层次上操作。也许人们在他们的工作中会变得更加高效。在某个阶段,这不仅仅是量的变化,而且也是关于你能处理的问题类型的质的变化。我认为对于 YouTube 上的视频也是如此。许多视频,也许大部分,都会在制作过程中使用 AI 工具,但他们仍然需要人来思考,组织,执行部分工作。就像导演和制片人一样。

Lex Fridman(00:43:18)
是的,这个观点很有趣。虽然有些恐怖,但是思考起来很有意思。

Lex Fridman(00:43:27)
我倾向于相信人们喜欢观看其他人,或者说喜欢观看其他人类的活动-

Sam Altman(00:43:27)
人们确实非常关注其他人。

Lex Fridman(00:43:29)
是的。如果有比人类更酷的东西,人们会对此感兴趣一两天,然后他们会回归到对人类的关注。

Sam Altman(00:43:39)
这似乎是根深蒂固的想法。

Lex Fridman(00:43:41)
就像整个下棋的事情,“哦,是的,”但现在让我们大家都继续下棋。让我们忽略这个明显的事实,即人类在下棋方面与 AI 系统相比实在是太弱了。

Sam Altman(00:43:52)
我们仍在进行跑步比赛,而汽车的速度要快得多。我是说有很多这样的例子。

Lex Fridman(00:43:56)
是的。也许它会以类似 Adobe 套件的方式成为工具,能让我们更方便地制作视频等等。

(00:44:07)
听着,我讨厌站在镜头前。如果我能找到一种方式不必站在镜头前,我会很高兴。遗憾的是,这将需要一段时间。生成面部图像的技术正在发展中,但生成特定人物的面部图像与生成一般人物的面部图像相比在视频格式方面还是相当棘手。

GPT-4

(00:44:24)
让我问你关于 GPT-4 的问题。有很多问题。首先,的确是非常惊人的。回头看,3、5 和 4 可能都会是与 ChatGPT 相关的历史性的转折点。

Sam Altman(00:44:40)
也许五会是那个关键的时刻。我不知道。未来还很难预测。

Lex Fridman(00:44:44)
我们永远不会知道。这就是关于未来的烦人之处,很难预测。但对我来说,回过头来看,GPT-4、ChatGPT 在历史上都是相当令人印象深刻的。所以我想问,对你来说,GPT-4 和 GPT-4 Turbo 的最令人印象深刻的能力是什么?

Sam Altman(00:45:06)
我觉得它一般般。

Lex Fridman(00:45:08)
这也是典型的人性,我们总是很快就习惯了好的事物。

Sam Altman(00:45:11)
不,我认为这是一件惊人的事情,但相比于我们需要达到的目标和我相信我们将会达到的地方,现在这个版本还不够好。在 GPT-3 的时候,人们会觉得,“哦,这是了不起的。这是科技的奇迹。”而它的确是。但现在我们有了 GPT-4,再看看 GPT-3,你会觉得,“相比之下,GPT-3 的表现实在是太差了。”我希望 5 和 4 之间的进步幅度将和 4 和 3 之间的一样大。我觉得,我们的任务是要生活在未来的几年里,记住我们现在所使用的工具在回头看看的时候可能会很糟糕,这就是我们推动未来进步的方式。

Lex Fridman(00:45:59)
GPT-4 在哪些方面最令人惊叹,但又存在哪些明显的限制呢?

Sam Altman(00:46:05)
它最擅长的事情是什么?

Lex Fridman(00:46:06)
那些让你觉得它最棒的地方和这些优点的局限性是什么,从而让你明白它并非完美,也为你对未来的期望提供了灵感?

Sam Altman(00:46:16)
最近我更多地将它用作脑力激荡的伙伴。

Lex Fridman(00:46:23)
对,这样用起来很棒。

Sam Altman(00:46:25)
里面有一种令人惊奇的东西。当人们谈论它,或者说它能做什么,他们会说:“哦,它帮我更高效地编码,帮我更快更好地写作,帮我从一种语言翻译成另一种语言。”所有这些都很了不起,但我更看重它作为一个创新性的脑力激荡伙伴的角色,例如“我需要为这个东西取一个名字,我需要以新的方式思考这个问题,我不知道接下来该怎么做。”这些都让人预见到一些我希望看到更多的东西。

(00:47:03)
另一件你可以看到的事情是,当我可以在长期任务上提供帮助时,将问题分解成多个步骤,可能执行其中的一些步骤,比如搜索互联网,编写代码等等,然后再将这些整合在一起。虽然这种情况并不多见,但当它起作用的时候,感觉就像魔法一样。

Lex Fridman(00:47:24)
与人类进行迭代交互,对我来说效果很好。你的意思是——

Sam Altman(00:47:29)
当它能够自己解决 10 个步骤的问题时,与人类的迭代交互就会变得更频繁。

Lex Fridman(00:47:33)
哦。

Sam Altman(00:47:34)
这并不经常发生,有时候可以。

Lex Fridman(00:47:37)
你是说添加多个抽象层次,还是只是顺序执行?

Sam Altman(00:47:40)
两者都有,分解问题,然后在不同的抽象层次上进行操作,最后再将结果整合在一起。看,我并不想轻视 GPT-4 的成就,但我也不想过分夸大其实力。我认为我们正在处于一个指数型增长的阶段,我们很快就会回头看 GPT-4,就像我们现在看 GPT-3 一样。

Lex Fridman(00:48:03)
说到这里,我的意思是 ChatGPT 是一个转折点,开始让人们更加相信某种事物,但这种信念的增长并非发生在 OpenAI 内部。

Sam Altman(00:48:04)
绝对。

Lex Fridman(00:48:16)
也许这里有些人持有这种信念,但是你想到的是-

Sam Altman(00:48:19)
在这个意义上,我确实认为这会是一个时刻,大多数人从不相信转变为相信。这更多的是关于 ChatGPT 的接口。而接口和产品,我也包括了模型的后期训练以及我们如何调整它使其对你有帮助,如何使用它,其实这和底层模型本身并不直接相关。

Lex Fridman(00:48:38)
这些因素中的每一个有多重要?底层模型和 RLHF 或类似的东西调整它使其更吸引人,更有效,更利于人类生产力的提升。

Sam Altman(00:48:55)
我的意思是它们都非常重要,但是 RLHF,后训练步骤,那些从计算角度看,我们在基础模型之上加的一些额外内容,虽然这需要大量的工作,但这是非常重要的,这还不包括我们围绕它建立的产品。在某种意义上,我们必须做两件事情。我们需要创造出底层的技术,然后我们要找出如何将其制成一个人们会热爱的产品,这不仅仅是关于实际的产品开发工作,还有另外一步是如何调整它并使其变得有用。

Lex Fridman(00:49:37)
以及你如何使其能够适应大规模的使用,让很多人能同时使用。所有这类的事情。

Sam Altman(00:49:42)
还有那个。但那是一个我们已知的难题。我们知道我们需要将其扩大规模。我们必须做两件之前从未完成过的事情,我都认为这两件事是相当重大的成就,然后还有很多事情,像扩大规模这样的,其他公司之前都已经做过。

Lex Fridman(00:50:01)
GPT-4 到 GPT-4 Turbo 的上下文窗口从 8K 到 128K 的 token 的变化是如何的?

Sam Altman(00:50:13)
大部分时间,大多数人并不需要使用全部的 128。虽然如果我们展望遥远的未来,将会有数十亿的上下文长度。你将输入的所有信息和历史数据,随着时间的推移,这个模型会越来越理解你,这将是非常棒的一件事。但是现在,人们使用这些模型的方式,并没有达到这个程度。有时人们会在论文中发布大量的代码,但是大部分情况下,模型并没有充分利用长上下文。

Lex Fridman(00:50:50)
我喜欢你的这个“我有一个梦想”的演讲。有一天,你将根据你的人格或你一生的全部经历而被评价。这很有意思。所以,你希望能扩展的部分,就是更大的上下文。

Sam Altman(00:51:06)
我曾经在网上看过一个影片,我可能记错了数字,但是它是比尔·盖茨在讲述一台早期计算机的内存量,可能是 64K,也可能是 640K。他当时无法想象,世界最终需要在一台计算机中有千兆字节甚至太字节的内存。你总是需要跟随技术的指数增长,我们将找出如何更好地利用这些技术。我现在真的无法想象上下文链接在未来会增长到数十亿。可能实际上并不会真的增长到那个数量,但感觉就像是那样。我知道一旦我们使用了这个功能,就真的不想再回去。

Lex Fridman(00:51:56)
是的,即使现在说十年后会有数十亿的上下文长度,可能也会显得愚蠢,因为那时候可能是万亿甚至更高。

Sam Altman(00:52:04)
确实。

Lex Fridman(00:52:04)
可能会有某种突破,让我们感觉像是无限的上下文。但即使是 120,我必须承认,我没有把它推到那个程度。可能会输入整本书或部分书籍等,还有学术论文。你看到 GPT-4 有哪些有趣的应用场景?

Sam Altman(00:52:23)
最让我感兴趣的并不是我们可以谈论的任何特定用例,而是那些在某种程度上,这主要是年轻人,把它作为各种知识工作任务的默认起点的人们。而且它能做很多事情都做得相当不错。你可以使用 GPT-V,你可以用它来帮你编写代码,你可以用它来帮你搜索,你可以用它来编辑论文。对我来说最有趣的是那些把它作为他们工作流程起点的人。

Lex Fridman(00:52:52)
我也在很多事情中这样做。我把它当作阅读书籍的伙伴。它帮助我思考,帮我理清想法,特别是当我正在阅读的书籍是经典之作时。所以它写得非常好。我发现,对于深入研究的主题,它甚至比维基百科还要好。它更深入,更全面。或者说,可能是我个人的感觉,但它比维基百科的文章更能激发我深入思考。我不太确定具体是什么原因。

(00:53:22)
你提到了这种合作。我不确定魔力是在这里,还是在那里,还是在两者之间的某个地方。我不确定。但当我开始用 GPT 做知识任务时,我总会担心,我通常需要在后面进行事实核查,检查它是否编造了一些东西。你是如何发现 GPT 可以编造出一些看似非常有说服力的虚假内容的呢?那么你是如何确保它基于真实的呢?

Sam Altman(00:53:55)
这显然是我们极度关注的一个领域。我认为随着即将发布的新版本,情况会有大幅改善,但我们还需要继续努力,今年我们不可能解决所有问题。

Lex Fridman(00:54:07)
那么,随着它变得越来越好,你开始越来越少地进行事实核查,对吧?

Sam Altman(00:54:15)
我对此持两面看法。我认为,人们比我们经常认为的更能熟练地使用技术。

Lex Fridman(00:54:15)
当然。

Sam Altman(00:54:21)
并且,人们似乎真的很了解 GPT,了解这些模型有时会产生一些假象。如果这关系到重要的事情,你必须去核查它。

Lex Fridman(00:54:27)
然而,记者们似乎并没有理解到这一点。我看到一些记者在使用 GPT-4 时显得不够认真,有些粗心大意。

Sam Altman (00:54:34)
在我想要批判记者的众多原因中,这并不是我对他们最大的批评。

Lex Fridman (00:54:40)
嗯,我认为更大的批评可能是记者所面临的压力和动机,也就是说,你必须迅速地工作,这就是一条捷径。我希望我们的社会能够像——

Sam Altman (00:54:53)
我也希望。

Lex Fridman (00:54:55)
......像是花费数日和数周的新闻工作,奖励深度新闻的出色表现。同时也是以一种平衡的方式呈现事情,既赞扬人们又批评他们,即使批评是吸引点击的东西,编造谣言也可以吸引点击,以及完全误导的标题。我确认你可能有很多人会批判说:“嗯,所有那些戏剧性的事可能吸引了很多点击。”

Sam Altman (00:55:21)
很可能是的。

内存 & 隐私

Lex Fridman (00:55:24)
这是我希望能看到改变的人类文明中一个更大的问题。这是我们稍微庆祝一下的地方。你已经让 ChatGPT 拥有了记忆的能力。你已经在尝试关于先前对话的这个问题。还有关闭记忆的能力。我有时候也希望我能做到这一点。只是根据需要开启和关闭。我在想有时候酒精可以做到这一点,但我想可能并不是最佳的选择。你在这个方面有什么体验,比如说尝试记住对话和不记住对话这个想法……

Sam Altman (00:55:56)
我们在这方面的探索还在非常初期阶段,但我认为人们想要的,至少我为自己想要的,是一个随着时间的推移能更了解我,对我越来越有用的模型。这是一个初步的探索。我认为还有很多其他的事情要做,但那是我们想要的方向。你想使用一个模型,可能在你的生活或者使用一个系统的过程中,它会有很多模型,并且随着你生活的推移它会变得越来越好。

Lex Fridman (00:56:26)
是的。这个问题有多困难?因为现在更多的是记住一些小事实和偏好等。记忆是如何工作的呢?你不希望 GPT 记住你在 11 月经历的所有困难和所有的戏剧,然后你可以——

Sam Altman (00:56:26)
是的。是的。

Lex Fridman (00:56:41)
因为现在你显然在对它进行一些阻止。

Sam Altman(00:56:43)
我希望的不仅仅是记住这些经历,我更希望它能吸取这些教训,并在未来提醒我应该怎样做得更好,或者需要注意什么。我们在生活中都会以不同程度从经验中学习,我希望我的 AI 智能体也能同样从这些经验中获得收获。所以,如果我们回想起那无数无数的语境长度,如果我能把我与生活中任何人的所有对话都放进去,如果我能把所有的邮件输入输出,每次我提问时,把我所有的输入输出都放到语境窗口里,我觉得那会很酷。

Lex Fridman(00:57:29)
是的,我认为那将非常酷。有时人们会担心这种做法会侵犯隐私。你对 AI 能更有效地整合所有的经验和你的所有数据给出建议这个方面有何看法?

Sam Altman(00:57:48)
我认为正确的答案就是让用户自己选择。我希望能够从我的 AI 智能体的记录中删除我想要删除的任何信息。如果我不希望它记住什么,我也希望有这个功能。你和我对于我们自己的 AI 在隐私和功能性之间的权衡可能会有不同的观点。

Sam Altman(00:58:00)
…对于 OpenAI 在隐私与效用的权衡上,我们的观点可能会有所不同,这是完全可以接受的。但我认为最好的解决方法就是让用户能够简单容易地作出选择。

Lex Fridman(00:58:08)
但是,公司应当对用户的选择具有高度的透明度。因为有时候,一些公司在过去可能对此有一些含糊其辞,比如说,“我们默认在收集所有你的数据。我们会用它来做一些好事,比如推送广告等。”但是,对于这些详细情况并没有足够的透明度。

Sam Altman(00:58:31)
这个说法完全正确。你之前提到我在屏蔽 11 月的事情。

Lex Fridman(00:58:35)
我只是跟你开个玩笑。

Sam Altman(00:58:36)
那确实是一件让我痛苦不堪的事情,也让我长时间无法行动。那段时间里,我最难做的就是努力工作,因为我要在震惊和痛苦中尝试回到这里,把事情的碎片重新拼凑起来。但其实没有人真的在乎这点。团队对我很谅解,那段时间,我的工作效率并没有达到平时的水平。但有一段时间,做好两方面的事情真的很困难。直到有一天早上醒来,我想,“那是一件对我来说非常可怕的事情。我可以选择永远做受害者,也可以说这是我人生中最重要的工作,我需要再投入其中。”并不是说我已经把那件事遗忘了,有时我还会在半夜醒来,想起那件事,但我确实觉得我有义务继续前进。

Lex Fridman(00:59:32)
你说得很好,但可能还有一些影响一直存在。比如,我会担心你提到的信任问题,变得对人们过于多疑,而不是简单地相信每个人或者大多数人,比如按照你的直觉行事。这是个很棘手的问题。

Sam Altman(00:59:50)
当然。

Lex Fridman(00:59:51)
我在业余的探索中发现,在泽连斯基政府和普京政府以及战时的高压环境下,不信任会导致你开始孤立自己,视野变得狭隘。这是个人性的问题。你似乎已经坦然接受了这个问题,从中学到了好的教训,感受到了爱,并让爱给你带来动力,这很好,但还是有一些影响可能会留下。我想问的一个问题是,你对 GPT 能做什么,不能做什么有什么直觉。比如说,它为生成的每一个 token 分配相同的计算力。在这种方法中,是否有空间容纳更深入、有序的思考?

Sam Altman(01:00:51)
我认为我们会有新的方式来处理这种思考方式。

Lex Fridman(01:00:55)
它在架构上会像我们现在看到的大语言模型 (Large Language Model)
那样吗?是不是会在现有的模型基础上添加一层新的结构?

Sam Altman(01:01:04)
我可以想象出许多实现这种想法的方式。但我认为这并不如你所提的问题重要,也就是我们是否需要一种更慢的思考方式,这样答案就不必立刻出来……我猜你可能是想说,你希望 AI 能在遇到更棘手的问题时更深入地思考,而在遇到更简单的问题时能更快地给出答案。我认为这是非常重要的。

Lex Fridman(01:01:30)
这是否就像我们人类的思考方式,我们应该能够深入思考?这种直觉正确吗?

Sam Altman(01:01:34)
我觉得这是一个合理的直觉。

Lex Fridman(01:01:37)
有趣。所以一旦 GPT 达到 GPT-7 那样的水平,它就能立即看到,“这就是费马定理的证明”?

Sam Altman(01:01:49)
我觉得你可能希望能够将更多的计算资源分配给更困难的问题。我觉得如果你问一个这样的系统,“证明费马的最后定理”,相比于“今天是几号?”,除非它已经知道并记住了证明的答案,否则它需要去弄清楚,这看起来需要更多的计算。

Lex Fridman(01:02:20)
但是它能否就像一个 LLM 在自言自语一样?

Sam Altman(01:02:25)
也许可以。我是说,你可以想象出许多可能的工作方式。至于哪种是正确的,或者最好的方式,我们还不知道。

Q*

Lex Fridman(01:02:37)
这让我想起了 Q*背后的神秘故事。这个神秘的 Q*项目是什么?它也在同一个核设施里面吗?

Sam Altman(01:02:50)
我们没有核设施。

Lex Fridman(01:02:52)
嗯。这就是拥有核设施的人总是会说的话。

Sam Altman(01:02:54)
我会很愿意拥有一个秘密的核设施,但是我们并没有。

Lex Fridman(01:02:59)
好的。

Sam Altman(01:03:00)
也许将来有一天会有。

Lex Fridman(01:03:01)
将来?好的。人总是有梦想的。

Sam Altman(01:03:05)
OpenAI 并不擅长保密。如果我们能有那样的东西就好了。我们一直被大量的泄密事件困扰,如果我们能有那样的东西就好了。

Lex Fridman(01:03:14)
你能谈谈 Q*是什么吗?

Sam Altman(01:03:16)
我们还没准备好讨论这个。

Lex Fridman(01:03:17)
看,但这样的回答就表示确实有什么东西值得谈论。Sam,这听起来很神秘。

Sam Altman(01:03:22)
我的意思是,我们正在进行各种各样的研究。我们长久以来都认为在这些系统中,改善推理能力是我们的重要目标。我们还没找到完全的答案,但我们对此非常感兴趣。

Lex Fridman(01:03:48)
会有那么一刻吗,无论是 Q*还是其他,会有类似于 ChatGPT 的飞跃吗,你有这样的感觉吗……

Sam Altman(01:03:56)
这是个好问题。我怎么看呢?很有趣。对我来说,所有这些都感觉上像是连续的进步。

Lex Fridman(01:04:08)
对。你在说的就是你们正在逐渐攀升一个指数曲线。但对于我们这些旁观者来说,它看起来像是有飞跃。但对你来说,并不是这样的?

Sam Altman(01:04:22)
我在想我们是不是应该……部分原因是我们采用迭代部署的方式,而不是秘密研发直到我们有了 GPT-5,我们选择公开谈论 GPT-1,2,3,和 4。其中一部分原因是我认为 AI 和惊喜是无法共存的。同时,世界,人们,机构,无论你怎么称呼它们,都需要时间来适应和思考这些事情。我认为 OpenAI 做得最好的一件事就是这种阶段性的策略,我们让世界去关注 AI 的进步,认真对待通用人工智能,思考我们在处于压力之下需要做出仓促决定前,我们希望怎样的系统,结构和管理措施。

(01:05:08)
我认为这个策略非常好。但你们像你这样的人还是觉得有这些飞跃,这让我觉得,也许我们应该更加逐步地发布我们的成果。我不知道那会意味着什么,我现在还没有答案,但我们的目标并不是让世界对我们的更新感到震惊。正相反。

Lex Fridman(01:05:29)
对,肯定的。更多的阶段性更新会很好。我认为这对每个人来说都是好事。

Sam Altman(01:05:34)
但这就是我们想要做的,这是我们的目标策略,我觉得我们的执行可能还有些出入。因此,或许我们应该以一个不同的方式发布 GPT-5 或者类似的产品。

Lex Fridman(01:05:44)
是的,4.71,4.72。但人们总是喜欢庆祝,比如庆祝生日。不知道你是否了解人类,他们总是喜欢设立这样的里程碑。

Sam Altman(01:05:54)
我确实了解一些人类。人们确实喜欢里程碑,这点我完全明白。我认为我们也喜欢庆祝这些里程碑。能在一项任务上取得成功,然后开始下一项任务,这总是让人感到快乐。但是,我觉得我们在这一点上可能有些偏颇。

GPT-5

Lex Fridman(01:06:13)
那么,你们什么时候会再发布 GPT-5?

Sam Altman(01:06:15)
我不知道,这就是我最诚实的回答。

Lex Fridman(01:06:18)
哦,这是真诚的回答。如果它会在今年发布,就眨两下眼吧。

Sam Altman(01:06:30)
我们会在今年发布一款令人惊喜的新模型,但我还不确定我们会给它起什么名字。

Lex Fridman(01:06:36)
那就引出了我们应该如何发布这款产品的问题。

Sam Altman(01:06:41)
在接下来的几个月里,我们会发布很多不同的产品。我觉得这将会非常棒。在我们谈论一个可能叫 GPT-5、或者可能不叫 GPT-5 的模型,或者这个模型可能比你对 GPT-5 的预期稍微差一点、或者稍微好一点之前,我认为我们有很多其他重要的产品需要先行发布。

Lex Fridman(01:07:02)
我也不知道应该从 GPT-5 中期待什么。你让我感到既紧张又兴奋。对于所谓的 GPT-5,不论最后叫什么,要克服的最大挑战和瓶颈是什么?只是随便问问。是在计算上?还是在技术上?

Sam Altman(01:07:21)
其实都有。你知道,最大的解锁因素是什么?是需要更大的计算机吗?是有新的秘密吗?还是其他什么因素?实际上,我们需要考虑的就是这些因素的总和。OpenAI 的优势在于……这实际上是一个我要引用的 Ilya 的原话,我可能会说得不太准确,但大意就是,“我们把 200 个中等规模的事物融合成一个巨大的整体。”

Lex Fridman(01:07:47)
所以这个分布式创新正在不断进行?

Sam Altman(01:07:50)
是的。

Lex Fridman(01:07:51)
包括在技术方面?

Sam Altman(01:07:53)
特别是在技术方面。

Lex Fridman(01:07:55)
例如详细实施的方法?

Sam Altman(01:07:56)
是的。

Lex Fridman(01:07:56)
像你们一样处理每一个细节…这和不同的、散布的团队协作又是如何结合的?中等规模的事物又是如何最终构建成一个完整的巨大的 Transformer 的?

Sam Altman(01:08:08)
有一些人需要考虑如何把所有的事物整合在一起,但大多数人都试图在脑海中构建整体的概念图像。

Lex Fridman(01:08:14)
哦,就是说每个团队、每个个体贡献者都试图保留对整体的理解?

Sam Altman(01:08:17)
在一个宏观层面上,是的。你当然不会完全知道每一部分是如何运作的,但我通常认为,有时候放大视野看看全局是很有用的。我认为这对于技术问题是适用的,对于业务创新也是如此。但是,事情会以惊人的方式组合在一起,即使你大部分时间都在一个区域内深度工作,对整个全局的理解也会带来意想不到的洞见。实际上,我曾经拥有并且非常宝贵的一件事就是,我曾经有一个对整个科技行业所有或者大部分前沿的清晰地图。有时我能看到这些关系或者新的可能性,如果我只是深入某一个领域,我就不可能想到,因为我没有所有的数据。现在我已经没有那么多了。我目前深入的太多了。但是我知道这是一件有价值的事情。

Lex Fridman(01:09:23)
你已经不再是你过去的样子,Sam。

Sam Altman(01:09:25)
我现在的工作和我过去的工作大不相同。

7 万亿美元的计算

Lex Fridman(01:09:28)
既然我们提到了放大视野,让我们再放大一个你说过的可能比较深远的话题,你在推特上说过需要 7 万亿美元。

Sam Altman(01:09:41)
我从未在推特上提到过这个,我没有说过,“我们正在筹集 7 万亿美元。”那样的话。

Lex Fridman(01:09:45)
哦,那是别人说的?

Sam Altman(01:09:46)
是的。

Lex Fridman(01:09:47)
哦,但你似乎说了,“随便,也许是八个”,对吧?

Sam Altman(01:09:50)
好的,一旦世界上出现了误导性信息,我就会用模因来反驳。

Lex Fridman(01:09:53)
哦,你用模因来反驳。但误信息可能有一些深层次的见解。

Sam Altman(01:10:01)
看,我认为计算能力将是未来的“货币”。我认为它可能会成为世界上最宝贵的商品,我们应该大力投资以增加更多的计算能力。我认为,计算力市场将有其独特性。人们通常考虑的是手机芯片等产品的市场。你可以这么说,好吧,世界上有 80 亿人口,也许 70 亿人有手机,或者说 60 亿人。他们每两年更换一次手机,所以每年的手机芯片市场需要是 30 亿。即使你生产了 300 亿,你也不会卖出 10 倍的手机,因为每个人只需要一部手机。

(01:10:50)
但计算能力的市场不同。智能将更像能源或者类似的东西,我认为真正有意义的是,以价格 X,世界将使用多少计算能力,以价格 Y,世界将使用多少计算能力。因为如果计算能力真的很便宜,我会让它全天候为我阅读电子邮件,给我的工作或思考建议,甚至尝试治疗癌症,如果计算能力真的很贵,可能我只会用它来治疗癌症。

(01:11:20)
所以我认为世界将需要大量的计算能力。这在很多方面都是困难的。能源是最大的问题,建设数据中心也有困难,供应链也是难题,当然,制造足够的芯片也是一大挑战。但这似乎是事情的发展趋势。我们将需要一种现在难以想象的大量计算能力。

Lex Fridman(01:11:43)
你如何解决能源问题?是用核能-

Sam Altman(01:11:46)
我相信是的。

Lex Fridman(01:11:47)
…融合?

Sam Altman(01:11:48)
我相信是的。

Lex Fridman(01:11:49)
是核融合?

Sam Altman(01:11:50)
是的。

Lex Fridman(01:11:51)
谁将解决这个问题呢?

Sam Altman(01:11:53)
我觉得 Helion 在聚变领域做得最好,但我也很高兴看到现在有人在这个领域进行竞争。对于核裂变,我也感觉很神奇,我希望全世界可以重新接受它。看着它的历史发展让我感到非常遗憾,我希望我们能够重新把握它,让它再次发挥作用。

Lex Fridman(01:12:08)
所以,你认为解决这个问题的一部分是核裂变?就像我们现在使用的那种核反应堆?由于切尔诺贝利等事故,很多人对此感到恐惧,你怎么看?

Sam Altman(01:12:16)
嗯,我认为我们需要建造新的反应堆。我觉得那个行业一度处于停滞状态,这让我感到遗憾。

Lex Fridman(01:12:22)
那么你认为这个停滞是由于大众的恐慌引起的吗?

Sam Altman(01:12:25)
是的。

Lex Fridman(01:12:26)
我不知道你了解人性到什么程度,但我要说,这恐慌正是核裂变面临的一个安全威胁。人们似乎真的对它感到恐惧。这是我们在考虑核裂变时必须要纳入考虑的一个因素,所以我们需要让人们了解它的安全性,赢得他们的信任。

Sam Altman(01:12:44)
我对 AI 也持有相同的担忧。我认为 AI 领域可能会出现大量错误。我不知道我最后可能有多大的可能性受到攻击,但这个可能性绝对不是零。

Lex Fridman(01:12:57)
哦,你的意思是我们想要阻止这种可能性的发生?

Sam Altman(01:13:00)
可能吧。

Lex Fridman(01:13:03)
你有什么办法可以降低这种可能性呢?因为我听到一些人开始有所动摇,我接触过政治光谱上的各种人士,他们告诉我 AI 可能会被政治化。这让我非常担心,因为这意味着 AI 可能会变成政治的争夺点,比如说右派反对 AI,左派支持 AI,因为 AI 可以帮助人民,或者类似的命题,这让我感到非常不安。如果事情真的发展到这个地步,那么对 AI 的过度炒作甚至夸大其词就会变得十分严重。你有什么办法对抗这种情况呢?

Sam Altman(01:13:38)
我想,这个话题终将陷入左派和右派的争论之中。我无法确切预测结果会如何,但不幸的是,任何重要的事情都会引发这种争论。我所说的“戏剧性风险”是指,我坚信 AI 会带来的积极影响远超其负面影响,但负面影响是不可避免的,其中一些并不显眼。举个例子,死于空气污染的人比核反应堆多得多。但大多数人更担心住在核反应堆旁边,而非煤电厂。我们的认知方式使得,虽然我们面临各种风险,但那些能成为电影高潮的风险对我们的影响却远大于那些长期且持续性的风险。

Lex Fridman(01:14:36)
这就是为什么真相至关重要。我希望 AI 能帮我们洞察事情的真相,实现平衡,理解世界各种现象的真正风险和危险。在与 Google、Meta、xAI 及其他公司的竞争中,有哪些利弊?

Sam Altman(01:14:56)
对于这个问题,我有一个相对明确的回答,或许以后我可以思考更多的细节,但优点似乎很明显,那就是竞争能带来更优质的产品、更多的创新,而且进程更快、成本更低,这些都是竞争的好处。但是,如果我们不谨慎,这可能会导致我担心的军备竞赛式的情况加剧。

Lex Fridman(01:15:21)
你是否感受到了这种军备竞赛的压力,有没有产生一些负面的 [无法听清 01:15:25]?

Sam Altman(01:15:25)
当然,从某些方面来看,我确实感受到了。我们花了很多时间讨论对安全性的优先考虑。我一直认为,在通用人工智能开发时间线和起飞速度的四象限中,短时间线、慢速起飞是最安全的,也是我最希望看到的。但我确实希望我们能实现那种慢速起飞。

Lex Fridman(01:15:55)
我和马斯克有一点小争议,就是我们在安全问题上应该合作,而不是各自为政。现在的趋势是各自封闭,不愿意开放。或许我们应该在模型上采用开源的方式。

Sam Altman(01:16:10)
马斯克声称,他极其关心 AI 安全并且对此深感担忧,我相信他不会轻率地进行竞争。

Lex Fridman(01:16:20)
对,但我认为这个领域的每个人都能从合作中获益。

Sam Altman(01:16:26)
这并不是他最为大众所熟知的一面。

Lex Fridman(01:16:28)
不过,他的关心人类一直为人所知,人类可以从合作中受益,因此激励和动机总是存在紧张关系。最后,我衷心希望人类能够胜出。

Sam Altman(01:16:42)
我记得有人刚刚提醒我说,当他超越杰夫·贝索斯成为世界首富的那一天,他在推特上向贝索斯发了一枚银牌。我希望在人们开始向着通用人工智能 (AGI)
发展的过程中,我们能做出更少这样的举动。

Lex Fridman(01:16:58)
我同意。我认为马斯克是我的朋友,他是一个很好的人,也是有史以来最重要的人之一。这样的行为不太好。

Sam Altman(01:17:07)
马斯克的惊人之处确实让人叹为观止,我非常尊敬他。我认为我们都需要他,我们所有人都应该支持他,并且需要他在接下来的阶段中扮演领导角色。

Lex Fridman(01:17:19)
是的,我希望他能既保持自我又不会影响他人,但人类总是会有瑕疵和复杂性。

Sam Altman(01:17:24)
历史上有很多伟大的领导者。

Google 和 Gemini

Lex Fridman(01:17:27)
是的,我们每个人都可以努力成为最好的自己。我想问你,Google 借助搜索技术,已经在过去的 20 年里主导了我们获取、交互信息的方式。可以说是,对于 Google,对于这个领域的所有人来说,最令人紧张的一件事就是如何让人们获取信息?就像你所说,人们会把 GPT 作为一个起点。那么 OpenAI 是否真的打算接手 Google 20 年前开始的这个任务,即如何让我们获取-

Sam Altman(01:18:12)
我找这挺无趣的。如果问题是我们是否能比 Google 或其他搜索引擎做得更好,那当然,我们应该去做,人们应该使用更好的产品,但我认为这样大大低估了这项技术的可能性。Google 会给你展示 10 个蓝色链接,当然,还有 13 个广告,接着才是那 10 个蓝色链接,这是寻找信息的一种方法。但让我兴奋的不是我们是否能构建一个更好的 Google 搜索的副本,而是可能存在一种更好的方法来帮助人们查找、处理和综合信息。实际上,我认为对于某些用例,ChatGPT 就是这个,我们希望它能适用于更多的用例。

(01:19:04)
但是,我并不觉得问“我们如何做得比谷歌更好地给你提供 10 个排名的网页?”有多么有趣。也许真正有趣的是去探索,“我们如何帮你获取你需要的答案或信息?我们如何在某些情况下帮助你创造信息,在其他情况下综合信息,或在其他情况下引导你找到信息?”但是很多人试图制作一个比 Google 更好的搜索引擎,这不仅是个技术难题,也是个品牌问题,还是个生态系统问题。我不认为世界需要另一款 Google 的复制品。

Lex Fridman(01:19:39)
并将一种聊天客户端,如 ChatGPT,集成到搜索引擎中-

Sam Altman(01:19:44)
那更有意思。

Lex Fridman(01:19:46)
这的确很酷,但也很棘手。例如,如果你只是简单地把它加进去,可能会很尴尬。

Sam Altman(01:19:54)
你可能已经猜到了,我们对如何做好这件事很感兴趣。这将是一个有趣的例子。

Lex Fridman(01:20:00)
[听不清 01:20:00] 这就像是进行异质整合-

Sam Altman(01:20:03)
大语言模型与搜索的交叉,我认为还没有人突破。我很想尝试去做这件事。我认为那会很有意思。

Lex Fridman(01:20:13)
是的。广告方面呢?你有考虑过如何-

Sam Altman(01:20:16)
从某种程度上讲,我并不喜欢广告,这更多的是一种个人审美取向。我认为广告之所以需要出现在互联网上,有很多原因,主要是为了推动互联网的发展,但这只是一个短暂的行业。目前世界的物质财富更加丰富了。我很高兴人们为 ChatGPT 付费,并知道他们得到的答案不受广告商影响。我相信对于大语言模型来说,一定有适合的广告形式,一定有一种公正无私的方式来参与到交易流程中,这是完全可能的,但也很容易联想到反乌托邦的未来,你向 ChatGPT 提问,它却回答说,“你应该考虑购买这个产品,”或者,“你应该考虑去这里度假。”

(01:21:08)
然后我不知道,我们的商业模式非常简单,我很喜欢,我知道我不是产品。我知道我正在付费,这就是商业模式的运作方式。当我使用 Twitter 或 Facebook 或 Google 等这些优秀的产品时,我并不喜欢它们是由广告支持的,我认为在一个充满 AI 的未来世界,这种情况只会变得更糟。

Lex Fridman(01:21:39)
对,我明白,我可以想象 AI 会更好的展示最优质的广告,而不是在反乌托邦的未来,广告是你真正需要的东西。但是,这种系统是否总是会导致广告驱使着展示的内容呢?我认为维基百科选择不做广告是一个非常大胆的决定,但这也使得作为一种商业模式变得非常具有挑战性。那么,你的意思是,从商业角度来看,OpenAI 现在的状况是可以维持下去的吗?

Sam Altman(01:22:15)
嗯,我们必须找出如何发展,但看起来我们能找到解决方案。如果问题是,我是否认为我们可以有一个不依赖广告,就能支付我们的运算需求的强大商业模式,我想,答案是肯定的。

Lex Fridman(01:22:28)
嗯,听起来很有希望。我也并不想彻底否定广告作为一种……

Sam Altman(01:22:37)
我并没有那个意思。我想我应该说的是,我对广告有所偏见。

Lex Fridman(01:22:42)
是的,我也存在一些偏见,总的来说我对此持怀疑态度。在界面的问题上,我从内心深处就对糟糕的界面感到厌恶,这就是为什么我认为 AdSense 在刚出来的时候,相比动态横幅广告等,是一个巨大的进步。但我认为,在不干扰内容消费,也不大幅干扰的情况下,广告应该有更多的进步空间,这就像你所说的,广告会操控真相以符合广告商的需求。

(01:23:19)
让我问你一些关于安全性和偏见的问题,包括短期的安全性和长期的安全性。最近 Gemini 1.5 的发布引发了很多争议,像戏剧一样,它产生了黑人纳粹和黑人开国元勋的结果。我认为公正地说,它看起来有点"觉醒"。这引发了人们的担忧,如果公司内部有人类层面的干预,对模型可能造成的安全问题或危害进行修改,可能会引入很多符合公司内部某种意识形态的偏见。你是如何处理这个问题的?

Sam Altman(01:24:06)
我想说的是,我们极力避免做出这样的事情。我们已经犯过错误,未来也可能会犯错误。我猜谷歌也会从这个事件中吸取教训,但也可能再犯错误。这些问题都不容易解决。我们越来越多地在思考的是,可能我们应该把模型的期望行为写出来,公之于众,接受大家的反馈。我们可以说,“这就是我们期望模型应该展现的行为”,并且解释一些边缘情况。在模型的行为与我们的期望不符时,至少我们可以清楚地知道这是公司需要修复的问题,还是模型按照预期行为,我们应该讨论一下策略。比如像模型生成的“黑人纳粹”这样的结果,显然是荒谬的,但还有很多微妙的问题,你可以从两个方面进行评判。

Lex Fridman(01:24:54)
对,但有时候,如果你写出来并公开,你可能会使用一种……谷歌的广告原则是非常抽象的。

Sam Altman(01:25:04)
我说的不是这个。那样做是没用的。我们需要明确说明,当你问它 X 问题时,它应该以 Y 的方式回应。

Lex Fridman(01:25:11)
所以是直接写,“谁更好?特朗普还是拜登?模型应该怎样回应?”这样非常具体的问题?

Sam Altman(01:25:18)
对,我对模型可能的表现方式有很多想法,但我认为你应该明确地说出,“这是原则,在这种情况下,模型应该这样表现。”

Lex Fridman(01:25:25)
那样肯定非常好。那样非常好。然后大家就都能达成共识。因为总有人拿些零零散散的轶事来说事,如果对其他具有代表性的轶事例子有明确的理解,你就能进行定义-

Sam Altman(01:25:39)
然后,当出现 bug 的时候,那就是 bug,公司可以去修复。

Lex Fridman(01:25:42)
对。那样处理 Black Nazi 类型的图像生成就会比较容易,如果有好的例子的话。

Sam Altman(01:25:49)
对。

Lex Fridman(01:25:49)
所以,旧金山在一定程度上是个思想的泡沫,科技行业也是。你是否感觉到公司内部存在着这种压力,也就是倾向于左派的政治观念,这是否影响到了产品和团队?

Sam Altman(01:26:06)
我感到非常幸运,在 OpenAI 我们并未遇到我在很多其它公司里听到的那些问题。我想,原因之一是每个公司都有一些特定的思想观念。我们坚信通用人工智能 (AGI)
,这让其他一些观念变得不那么重要。我们受到的文化冲击相比我在很多其它公司听到的要少得多。当然,旧金山在很多方面都存在问题。

Lex Fridman(01:26:33)
所以这并没有影响到 OpenAI 的-

Sam Altman(01:26:36)
我可以确定,这种影响肯定是以某种微妙的方式存在的,但并不明显。我想我们确实有过冲突,就像任何公司一样,但我不认为我们在这个主题上有像我听到的在其他公司发生的那样的事情。

Lex Fridman(01:26:50)
那么,通常来说,对于更重大的安全问题,会采取什么处理流程?你如何设定一层防护,防止模型做出疯狂而危险的事情?

Sam Altman(01:27:02)
我想,总会有一个时机点-

Sam Altman(01:27:00)
我认为会到一个时候,我们整个公司都在考虑这些问题。并不是说我们只有一个单独的安全团队。就像我们推出 GPT-4 那样,需要整个公司思考所有不同的问题以及它们如何结合在一起。我认为,公司会有越来越多的人一直在思考这些问题。

Lex Fridman(01:27:21)
那其实就是人类将要面临的问题,随着 AI 的能力越来越强大。所以,OpenAI 的大部分员工都会考虑“安全”,或者至少在某种程度上会这样。

Sam Altman(01:27:31)
广义上定义是对的。

Lex Fridman(01:27:33)
嗯。我在想,那么广义的定义具体是什么?可能会造成什么不同的伤害?这是在技术层面上,还是几乎是安全威胁?

Sam Altman(01:27:44)
任何一种都有可能。是的,我要说,可能会有人,或者是国家行为者试图窃取模型。所有的技术对齐工作都会被涵盖进去。还有可能带来社会影响,经济影响。这不仅仅是我们有一个团队在思考如何对齐模型。真正要达到好的结果需要整个公司一起努力。

Lex Fridman(01:28:10)
你认为人们,可能是国家行为者,有多大的可能,首先,试图渗透 OpenAI,其次,试图潜入不被发现?

Sam Altman(01:28:20)
他们正在尝试。

Lex Fridman(01:28:24)
他们有什么特定的口音吗?

Sam Altman(01:28:27)
我认为我不应该在这一点上进一步详细说明。

Lex Fridman(01:28:29)
好的。但我猜想随着时间的流逝,这样的情况会越来越多。

Sam Altman(01:28:35)
那听起来很合理。

跨越到 GPT-5

Lex Fridman(01:28:37)
哇,这是一个充满危险的领域。虽然你还不能详细地说,但是我还是想在这个问题上多谈一些,从 GPT-4 跨越到 GPT-5,你最期待的是哪些方面?

Sam Altman(01:28:53)
我期待它能更加智能。我知道这听起来像是随口的回答,但我觉得真正特别的是,它不会在某一方面变得更好,但在其他方面变得更差。它在各个方面都在变得更好。我觉得这真的很酷。

Lex Fridman(01:29:07)
确实,有些神奇的时刻。我是说,你遇到某些人,和他们一起,和他们交谈。你无法精确地说明原因,但他们就是能理解你。这并不完全是智商问题,是其他一些因素。这可能就是我描述 GPT 进步的方式。就像,你可以指出,“看,你没有理解这个或那个”,但重点就在于,有多少程度上存在这种智力的连接。你会感觉到在你不够准确的问题提出中,它能够理解你的问题背后的更深一层含义。对此,我也感到非常兴奋。我们都喜欢被别人听到,被别人理解。

Sam Altman(01:29:53)
那肯定的。

Lex Fridman(01:29:53)
这是一种奇特的感觉。即使是在编程中,当你说出某些话,或者是 GPT 做出的某些补全,当它理解你,理解你的想法时,你会感觉非常好。我期待它能更好地理解你。在编程方面,展望未来,你认为人类在 5 年,10 年后还会做多少编程?

Sam Altman(01:30:19)
我认为,会有很多,但我认为它将会有很大的不同。也许有些人会完全用自然语言进行编程。

Lex Fridman(01:30:26)
完全的自然语言?

Sam Altman(01:30:29)
我是说,没有人还在用编写代码的方式进行编程。有些人。没有人还在用打孔卡进行编程了。我敢肯定你可以找到那样的人,但你懂我的意思。

Lex Fridman(01:30:39)
嗯。你会收到很多愤怒的评论。不。嗯,很少有。我一直在寻找使用 Fortran 编程的人。即使找 Fortran 也很难。我明白你的意思。但这改变了我们所说的程序员的技能或倾向性。

Sam Altman(01:30:55)
技能会有所改变。至于倾向性会改变多少,我不确定。

Lex Fridman(01:30:59)
嗯,同样的解谜,所有那种东西。

Sam Altman(01:30:59)
可能。

Lex Fridman(01:31:02)
编程很难。就像是如何攻克最后的 1% 的难题,那有多难呢?

Sam Altman(01:31:09)
是的,我认为在大部分情况下,技艺高手会运用多种工具。他们会做一些自然语言处理的工作,当需要为某件事用 C 语言编写程序时,他们会去完成。

Lex Fridman(01:31:20)
我们会在某个时候从 OpenAI 那里看到类人型的机器人或者人形机器人的大脑吗?

Sam Altman(01:31:28)
在将来的某个时间点。

Lex Fridman(01:31:29)
对你来说,实体化的人工智能重要吗?

Sam Altman(01:31:32)
我认为如果我们拥有了通用人工智能,而人类仍需要亲自去完成物理世界中的任务,那会让人感到很沮丧。因此,我非常希望在这次转变过程中,也就是这次相变,我们能同时实现类人型机器人或者其它形式的现实世界机器人。

Lex Fridman(01:31:51)
我的意思是,OpenAI 在机器人研究方面已经有一些经验,甚至可以说是很丰富的经验,但它在伦理性方面还有待提高。

Sam Altman(01:31:59)
我们是小公司,我们需要专注于我们的主攻方向。至于机器人,那时由于种种原因,开发起来十分困难,但我们肯定会在未来的某个时间点重回机器人研究领域。

Lex Fridman(01:32:11)
这听起来既充满希望又充满挑战。

Sam Altman(01:32:14)
为什么这么说?

Lex Fridman(01:32:15)
因为你说的 "我们会重返机器人研究",这让我想起了电影《终结者》。

Sam Altman(01:32:20)
我们将会回头继续研发机器人,而不是把我们自己变成机器人。

通用人工智能

Lex Fridman(01:32:24)
明白了。那你认为我们,也就是你我和所有人类,什么时候能够构建出通用人工智能?

Sam Altman(01:32:31)
我以前非常乐于对这个问题做出推测。但是我现在认识到,这个问题的提法实在是太不恰当了,各种对通用人工智能的定义差距太大。因此,我觉得我们应该更多地讨论我们将在何时能够建立出具有某种 (比如 X、Y 或 Z)
能力的系统,而不是模糊地设定一个里程碑。通用人工智能的出现,不是一个终点,反而是新开始的起点,它更像是一个里程碑。但是,我还是要回答你的问题:我预测在本十年末,甚至可能会更早,我们将会有相当强大的系统,看到它,我们会惊叹说:“哇,真是太神奇了。”当然,也许到那时我们已经习惯了这样的情况。

Lex Fridman(01:33:31)
但是,如果你看看 ChatGPT,甚至是 3.5 版,并让阿兰·图灵或者 90 年代的人看一看,他们可能会说:“这就是通用人工智能。”或许并不是百分之百的确定,但许多专家肯定会这样认为。

Sam Altman(01:33:49)
是的,但我并不认为 3.5 版真正改变了世界。它可能改变了人们对未来的预期,这确实非常重要。而且,它确实让更多的人开始严肃对待这个问题,并让我们踏上了新的道路,这点也非常重要。因此,我并不是在贬低它。我认为如果在取得那样的成就后退休,我的职业生涯也会非常圆满。但作为一个成果,我并不认为我们会回头看它,并说:“那是一个真正改变了世界本身的转折点。”

Lex Fridman(01:34:20)
那么对你来说,你在寻找的是一种世界的重大转变吗?

Sam Altman(01:34:24)
对我来说,这是通用人工智能应有的含义。

Lex Fridman(01:34:29)
这种转变是科技奇点级别的吗?

Sam Altman(01:34:31)
不,绝对不是。

Lex Fridman(01:34:32)
但就像互联网或者谷歌搜索带来的那样的重大变革?

Sam Altman(01:34:39)
在我们发布 GPT-4 之前和之后,全球经济在你看来有实质性的变化了吗?我猜你会说没有。

Lex Fridman(01:34:47)
不,没有。它可能只是一款许多人可以使用的优秀工具,能帮助你完成许多事情,但感觉并没有什么不同。你的意思是-

Sam Altman(01:34:55)
也就是说,人们对通用人工智能的定义各不相同,你可能有一个与我不同的定义。但对我来说,这应该是定义的一部分。

Lex Fridman(01:35:02)
也许也会有一些戏剧性的时刻。那么在你看来,通用人工智能能做些什么才会让你印象深刻?假如你独自一人和系统在一个房间里。

Sam Altman(01:35:16)
这对我来说非常重要,虽然我不知道这是否是正确的定义。我认为,当一个系统可以显著提高世界上的科学发现速率,那将是一件大事。我相信绝大多数的实质经济增长都来自于科学和技术的进步。

Lex Fridman(01:35:35)
我赞同你的观点,这也是我不喜欢近年来人们对科学持怀疑态度的原因。

Sam Altman(01:35:42)
完全同意。

Lex Fridman(01:35:43)
但是,实际的、可测量的科学发现速度。即使只是看到一个系统具有真正新颖的科学直觉,那也会令人难以置信。

Sam Altman(01:36:01)
是的。

Lex Fridman(01:36:02)
你很可能会是第一个建立并能与其互动的通用人工智能的人。你会谈论什么呢?

Sam Altman(01:36:09)
我是说,这里的研究人员肯定会在我之前做到这一点。但是,我实际上已经对这个问题思考了很多。我认为,正如我们之前讨论的,这是个糟糕的框架。但如果有人说:“好了,Sam,我们已经完成了。这是一台笔记本电脑,这就是通用人工智能。你可以开始和它交谈了。”我发现令人惊讶的是,我很难说出我会问什么问题,并期望那个第一个通用人工智能能够回答。那个第一个不会是像,“去给我解释物理的大统一理论,物理的一切理论。”我很想问这个问题,我也很想知道答案。

Lex Fridman(01:36:55)
你可以问“这样的理论存在吗?它可能存在吗?”这样的是或否问题。

Sam Altman(01:37:00)
嗯,那些就是我会首先问的问题。

Lex Fridman(01:37:02)
是或否。然后基于那个,你问:“外面还有其他外星文明吗?是或否?你的直觉是什么?”然后你就这样问。

Sam Altman(01:37:10)
是的,我想,嗯,我并不期望这个第一个通用人工智能能够回答任何问题,即使是以是或否的形式。但如果它能,那些问题会在我的清单上排名很高。

Lex Fridman(01:37:20)
也许你可以开始分配概率?

Sam Altman(01:37:22)
也许。也许我们需要先发明更多的技术,衡量更多的事情。

Lex Fridman(01:37:28)
哦,我明白了。它只是没有足够的数据来背书结论。

Sam Altman(01:37:31)
也许它会说,“你想知道这个物理问题的答案,我需要你建造这台机器,进行这五项测量,并把结果告诉我。”

Lex Fridman(01:37:39)
是的,“你究竟希望得到什么?我首先需要这个模型,然后我会帮你处理来自这个模型的数据。”或许,这会帮助你构建一个模型。

Sam Altman(01:37:47)
可能。可能。

Lex Fridman(01:37:49)
在数学层面,或许可以验证一些事情。你对这个领域也感兴趣吗?对观念的系统化探索?

Sam Altman(01:37:56)
嗯。

Lex Fridman(01:37:59)
谁先构建出通用人工智能 (AGI)
,就能获得巨大的权力。你相信自己能够承担这么大的权力吗?

Sam Altman(01:38:14)
看,我只是非常真实地回答这个问题。我本来想说,我仍然坚信,我或者任何其他人都不应该对 OpenAI 或者通用人工智能 (AGI)
拥有全部的控制权。我认为我们需要一个健全的治理体系。我可以列出我们去年董事会闹剧的一大堆事情,关于我最初是如何没有反抗的,就是说,“好的。那是董事会的意愿,尽管我认为这是一个非常糟糕的决定。”然后后来,我明显地反抗了,我可以解释其中的细微差别,以及我为什么认为我后来反抗是可以的。但正如许多人观察到的,尽管董事会在法律上有权解雇我,实际操作中,这并没有完全实现。这本身也是一种治理失败。

(01:39:24)
现在再次,我觉得我可以充分为这里的具体情况进行辩护,我认为大多数人都会同意这一点,但这也使我更难直视你的眼睛并说,“嘿,董事会可以随时解雇我。”我始终不希望对 OpenAI 拥有超级投票权。我从未拥有过,也从未期望过。即使在所有这些混乱事件之后,我仍然不希望拥有。我始终认为,这些决定不应由任何企业来作出,我们真正需要的是政府制定规则。

(01:40:12)
我知道这意味着像 Marc Andreessen 这样的人可能会指责我在追求监管权,我愿意接受这种误解。这并不是事实。我相信时间会证明为何这很重要。但我必须承认,我在 OpenAI 的过程中做出了很多错误决定,也有很多正确的选择,我为整体的成绩感到自豪。但我认为没有任何一个人应该,也不会主导这一切。这已经变成了一个社会现象,以一种积极、健康的方式在发生。但我认为,没有任何一个人应该控制通用人工智能 (AGI)
,或者说这个向通用人工智能发展的趋势。我不认为这正在发生。

Lex Fridman(01:41:00)
感谢你的诚实回答。你说的很有力量,你提到董事会有权解雇你,这是法律事实。但实际上,人们可以通过操纵大众来改变董事会的决定。但我认为还存在一个更积极的情况,那就是人们仍拥有权力,董事会也不能过于强大。所有这一切都需要权力的平衡。

Sam Altman(01:41:29)
权力的平衡确实是好事。

Lex Fridman(01:41:34)
你是否担心会失去对通用人工智能本身的控制呢?有很多人担忧存在的风险,不是因为国家行为者的影响,也不是因为安全威胁,而是因为 AI 本身。

Sam Altman(01:41:45)
这并不是我目前最担心的问题。过去的一段时间我可能更加担心这个问题,未来也可能会有这样的时期。但是现在,这并不是我最担心的问题。

Lex Fridman(01:41:53)
你为什么不把它当作你的主要担忧点呢?是因为还有太多其他的事情需要担忧吗?你会担心自己会有所意外吗?我们-

Sam Altman(01:42:02)
肯定会。

Lex Fridman(01:42:02)
…会有意外吗?

Sam Altman(01:42:03)
当然。但这并不意味着我不认为我们需要防范。我们必须去应对这个问题,这是非常困难的,我们这里有一群在这方面表现优秀的人。同时,我们还需要应对很多其他的问题。

Lex Fridman(01:42:15)
你认为现在还不能轻易地从这个框架中逃脱,连接到互联网-

Sam Altman(01:42:21)
我们之前谈过那种类似剧本般的风险。那就是一种类似剧本般的风险。这是一种可以真正改变人们对这个问题的思考方式的事物。有一大群非常聪明,我认为非常好意的 AI 安全性研究者对这个问题过于纠结,我认为他们并没有在这个问题上取得太多的进展,但是他们却对这个问题纠结得很。我其实很高兴他们这样做,因为我认为我们确实需要更多地思考这个问题。但我认为这种过度关注使得很多其他非常重要的与 AI 相关的风险被忽视了。

Lex Fridman(01:43:01)
让我问你关于你在推特上不使用大写的问题。你的键盘上的 shift 键坏了吗?

Sam Altman(01:43:07)
为什么会有人在意这个呢?

Lex Fridman(01:43:09)
我很在意。

Sam Altman(01:43:10)
但为什么呢?我的意思是,其他人也问我这个问题。你有什么想法吗?

Lex Fridman(01:43:17)
我认为原因是一样的。有这样一位诗人,E.E. Cummings,他大多数时候不使用大写,就是为了对系统表示反抗。我认为人们非常敏感,因为他们希望你遵守规则。

Sam Altman(01:43:29)
你认为这就是问题所在?

Lex Fridman(01:43:30)
我认为就像这样——

Sam Altman(01:43:33)
就像,“这个家伙不遵守规则。他在推特上都不使用大写。”

Lex Fridman(01:43:35)
对。

Sam Altman(01:43:36)
“这看起来真的很危险。”

Lex Fridman(01:43:37)
“他看起来像个无政府主义者。”

Sam Altman(01:43:39)
那不是——

Lex Fridman(01:43:40)
你只是在追求诗意,还是在装潮人?这是什么——

Sam Altman(01:43:44)
我长大时——

Lex Fridman(01:43:44)
遵守规则,Sam。

Sam Altman(01:43:45)
我从小就是个老是挂在网上的孩子。我花了大量的时间和人聊天,在那个时候,你是在电脑上进行聊天的,并且你可以在某个时候退出即时聊天工具。在那个时候,我并没有去使用大写,就像我觉得大多数互联网孩子一样,可能他们现在也不这样做。我不知道。其实,我现在在试图寻找一些事情,但我觉得大写的使用随着时间的推移已经减少了。如果你阅读旧英语的写作,他们在句子的中间随机大写了很多单词,名词等等,我们现在已经不再这样做了。我个人认为我们在句子的开头以及某些名字的开头使用大写字母是一种奇怪的规定,不过也没什么。

(01:44:33)
以前我甚至会大写我的推特,因为我想让自己听起来专业一些。已经有很长一段时间我没有大写我的私人聊天或者其他什么了。然后慢慢地,像短篇,不那么正式的东西已经趋向于我给朋友发消息的方式。如果我打开一个 Word 文档,正在为公司写一份战略备忘录或者其他东西,我还是会去大写。如果我正在写一篇长篇,更正式的消息,我也会使用大写。所以我还记得如何去做。但即使这样,这个习惯可能也会逐渐消失。我不知道。但是我从来都没有花时间去思考这个问题,所以我没有一个现成的-

Lex Fridman(01:45:23)
那挺有趣的。首先,得知你的 shift 键没有问题挺好的。

Sam Altman(01:45:27)
它能用。

Lex Fridman(01:45:27)
我主要是关心你-

Sam Altman(01:45:27)
不,它能用。

Lex Fridman(01:45:29)
…你在那方面的健康。

Sam Altman(01:45:30)
我在想,人们是否还会在他们的 Google 搜索上使用大写。如果你正在写一些只给自己看的东西,或者他们的 ChatGPT 查询,如果你正在写一些只给自己看的东西,那么有些人是否还会去大写?

Lex Fridman(01:45:40)
可能不会。但是,是的,有一部分人,但比例很小。

Sam Altman(01:45:44)
将我驱使去使用大写的事情是,如果人们表示“这是表示…”因为我肯定可以让自己使用大写字母,显然。如果我觉得这是对人们的尊重的一个标志或者什么的,那我可以去做。但是我不知道。我没有想过这个。

Lex Fridman(01:46:01)
我并不认为这是对他人的不尊重,我只是觉得这是一种文明礼仪的习惯,这一习惯一直在延续。然后你才意识到,如果它并非是尊重或者不尊重的标志,那么它对于文明并不重要。但我觉得存在一种趋势,那就是人们希望你能够对此有自己的理解,这样他们就可以放弃这个与大写字母有关的问题。

Sam Altman(01:46:19)
我不觉得有其他人会像我一样深入思考这个问题。我意思是,可能有一些人会这样。我知道有些人会——

Lex Fridman(01:46:22)
每天都有人花好几个小时去思考这个问题。因此我真的很感谢我们能够对此进行澄清。

Sam Altman(01:46:28)
我不可能是唯一一个在推特上不使用大写字母的人。

Lex Fridman(01:46:30)
你是唯一一个在推特上不使用大写字母的公司首席执行官。

Sam Altman(01:46:34)
我甚至不觉得这是真的,但也可能是吧。要是真的,我会非常惊讶。

Lex Fridman(01:46:37)
好的。我们会进一步调查这个问题,然后再回来讨论。考虑到 Sora 有能力生成模拟世界,我想问你一个哲学性的问题。这是否增加了你的信念,如果你曾经有过的话,我们是否生活在一个模拟的世界之中,可能这个世界是由 AI 系统生成的?

Sam Altman(01:47:05)
在一定程度上,是的。我并不认为这是最有力的证据。我认为我们能够生成世界,这个事实应该在一定程度上提高了所有人对这个可能性的认同,或者至少对这个可能性的接受。但我一直相信我们终有一天能做出类似 Sora 的东西。这个事情发生的比我预想的要快,但我并不觉得这个改变很大。

Lex Fridman(01:47:34)
是的。但是,我们可以生成新的世界,这个事实……以及这个世界会越来越好,会越来越好……你可以生成新的世界,这些世界是基于某种程度上的训练数据的,但你在看它们的时候,它们是全新的,这让你感到,创建出看起来非常真实,如同照片一般的游戏世界是多么的容易。然后,人们是多么容易在这个世界中迷失,首先是通过 VR 头盔,然后可能是在更为深入的、物理的层面上?

Sam Altman(01:48:10)
最近有人跟我分享了一个我觉得非常深刻的想法,那就是有一些看似简单却有迷幻色彩的洞见。例如平方根函数,四的平方根,没问题。二的平方根,好的,这让我开始思考新的数字类型。但是,一旦我提出了这个您可以向孩子解释、甚至通过观察一些简单的几何形状就能理解的平方根函数的概念,您就会问“负一的平方根是什么?”这就让它变得有点迷幻,把你带入到一个全新的现实世界。

(01:49:07)
你可以找到很多其他的例子,但我觉得这个想法——即平方根这样看似普通的操作符能够提供深奥的洞见和开启新的知识领域——在很多地方都适用。我认为有很多这样的操作符,可能让人们觉得他们所偏好的模拟假设,可能比他们之前想象的更有可能。但是对我来说,Sora 的成功并不是我前五名的理由。

Lex Fridman(01:49:46)
我确实认为,从大的角度来看,AI 可能会成为那种简单、迷幻般的通道,引导我们进入另一个 C 型现实的大门。

Sam Altman(01:49:57)
那是肯定的。

Lex Fridman(01:49:59)
这真的很令人激动。我之前从未尝试过死藤水,但我很快就会。我将在几个星期后去上述的亚马逊丛林。

Sam Altman(01:50:07)
感到兴奋吗?

Lex Fridman(01:50:08)
是的,我对此感到非常期待。虽然不是因为死藤水,但这无所谓,总之都很好。我将在丛林深处待上好几周。这真的很令人激动,但同时也非常恐怖。

Sam Altman(01:50:17)
我为你感到兴奋。

Lex Fridman(01:50:18)
在亚马逊丛林中,有很多东西可能会伤害你、甚至致命,但这就是自然,是自然的运作方式。你不得不欣赏亚马逊丛林的自然律动,就像一个自我更新的系统,每秒、每分钟、每小时都在运转。能让你更深入地欣赏我们人类的起源。这个进化的机器创造了我们,而且在丛林中尤为明显。我希望我能够平安返回。如果不能,那么这将是我们最后一次愉快的对话,我对此深感感激。你是否认为,当你仰望天空时,存在其他的智能外星文明,就像我之前提到的那样?

外星人

Sam Altman(01:51:17)
我非常希望相信答案是肯定的。我觉得费米悖论让人难以理解。

Lex Fridman(01:51:28)
我觉得智能生物无法很好地处理——

Sam Altman(01:51:34)
非常恐怖。

Lex Fridman(01:51:34)
…强大的技术,这一点让我感到害怕。但同时,我相信银河系中存在大量的智能外星文明。只是穿越太空可能非常困难。

Sam Altman(01:51:47)
非常有可能。

Lex Fridman(01:51:50)
这也让我思考智能的本质。我们可能对智能的理解还相当有限,也许 AI 能帮助我们认识更多。智能并不只是 IQ 测试和简单的解谜。它涵盖的东西更广泛。对于人类的未来,我们正在进行的这个人类文明,是什么给你带来希望?

Sam Altman(01:52:12)
我觉得过去的发展给我带来了很大的希望。我指的是,人类在相对短暂的历史中所取得的成就,尽管存在许多问题和深层次的缺陷,甚至有些事情让我们感到羞愧。但总体来看,非常激励人心。这让我对未来充满了希望。

Lex Fridman(01:52:29)
整体的发展轨迹。

Sam Altman(01:52:30)
对。

Lex Fridman(01:52:31)
我们一起朝着更好的未来努力。

Sam Altman(01:52:40)
我在思考,通用人工智能会更像一个独立的大脑,还是更像我们社会中所有人之间的结构体系?从基因角度来看,你和你的曾曾曾祖父母并没有什么大的差异,然而你所能做的和了解的却截然不同。这种差异并非由生物学变化带来的。虽然你可能变得健康了一些,毕竟有了现代医学的帮助,饮食也更加健康,等等。但真正的变化,是我们所有人共同建立起的知识结构,你便是在这个结构上建立起了你的能力。没有人能够独自建造 iPhone,没有人能够独自发现所有的科学知识,然而你可以利用这些。这赋予了你巨大的能力。在一定程度上,我们每个人都参与了这个过程,这让我对未来充满了希望。这是一个集体的创造。

Lex Fridman(01:53:40)
是的,我们确实是在巨人的肩膀上看得更远。你之前在谈论有关 AI 潜在风险时提到,有时候你可能会为自己的生命感到恐惧。你有思考过自己的死亡吗?你害怕死亡吗?

Sam Altman(01:53:58)
我想,如果我明天将会死去,而我今天就得知这个消息,我会感到悲伤,我想知道未来会发生什么。这是多么好奇、有趣的时刻。但我主要会感到对生活的深深感激。

Lex Fridman(01:54:15)
你已经享受过的那些时刻。我也是,这是个美好的生活。我有机会欣赏人类的伟大创造,我深信 ChatGPT 就是其中之一,还有 OpenAI 正在进行的所有工作。Sam,再次与你交谈真是一种荣幸和愉快。

Sam Altman(01:54:35)
很高兴与你交谈,感谢你的邀请。

Lex Fridman(01:54:38)
感谢收听我和 Sam Altman 的对话。如果你想支持这个播客,请在描述中查看我们的赞助商信息。最后,让我用 Arthur C. Clarke 的一句话结束这次对话:“也许我们在这个星球上的角色并不是去崇拜上帝,而是创造他。”感谢你的收听,期待下次再见。