《麻省理工科技评论》独家起底OpenAI:理想主义被盈利压力碾碎
2020-02-23 06:49:08
  • 0
  • 0
  • 0

来源:麻省理工科技评论APP-头条号

尽管成立只有短短四年时间,OpenAI 已经成为世界领先的 AI 研究实验室之一,在 AI 研究领域与谷歌人工智能实验室、DeepMind、微软研究院、艾伦人工智能研究所相媲美。

而且,因其由埃隆 · 马斯克,以及投资家萨姆 · 阿尔特曼、天使投资人彼得 · 泰尔等传奇人物共同创立,OpenAI 无疑还是硅谷大亨们的宠儿。

所有这些都赋予了 OpenAI 非凡的使命,它的目标是要成为第一个创造出通用人工智能(Artificial General Intelligence,简称 AGI)的研究机构,让机器具备人类的学习和推理能力。该实验室的目的,是要确保这项技术被安全地开发出来,并造福全世界。

OpenAI 想成为 AGI 领域的领头羊,为此,它精心打造了自己的形象。在这个由财富公司占主导的科技领域,它以一个非营利组织的形象出现,其首次声明就表示,它将以这样的身份“为所有人带去价值而非股东”,它的章程宣称 OpenAI 的“主要信托责任是针对全人类的。”OpenAI 还表示,安全实现 AGI 是第一要义,如有其他研究组织能很快实现,它也会放下竞争并与其合作。曾经,这套说辞对投资者和媒体十分受用。

但是最近一年来,OpenAI 却饱受批评,先是发布最强 “通用”NLP 模型 GPT-2 而不开源;研发战略缺乏变化和多样性,单纯依赖大量的计算资源投入迭代产品;再就是接受微软 10 亿美元投资,从而转为“有限盈利” 企业......

图 | 从左至右:Greg Brockman,联合创始人兼首席技术官;Ilya Sutskever,联合创始人和首席科学家;Dario Amodei,研究主任(来源:Christie Hemm Klok)

种种迹象表明,OpenAI 与 4 年前马斯克所声明的那个 “人工智能非营利组织” 已然不同。

《麻省理工科技评论》记者 Karen Hao 通过在 OpenAI 办公室的三天观察,以及对离职和在职的员工、合作者、朋友和其他领域专家的近三十次采访,揭开了 OpenAI 的真实面貌:OpenAI 似乎放弃了其先前的开放性和透明性承诺,当众承诺一套,闭门经营的方式却是另外一套。随着时间的推移,它已经让激烈的竞争和越来越大的资金压力侵蚀了其透明、开放和合作的基本理念。

值得一提的是,目前已不再参与 OpenAI 事务的马斯克,在本报道推出后,发推文称,“OpenAI 应该更加开放”,“所有开发高级 AI 的组织都应受到监管。”

许多被采访者坚持匿名,因为他们没有被授权发言或害怕遭到报复。他们的叙述表明,尽管 OpenAI 有着崇高的抱负,但它仍然致力于维护秘密,保护自己的形象,并要求员工效忠。

初衷:OpenAI 将会是敞开

OpenAI 于 2015 年 12 月 11 日亮相世界。它并不是第一个宣称要创建 AGI 的组织,DeepMind 在 5 年前就已经提出这一目标,并于 2014 年被谷歌收购。但 OpenAI 似乎有所不同。

首先,它的标签令人震惊:马斯克、阿尔特曼和贝宝的联合创始人彼得 · 泰尔等私人投资者最初为这个项目联合注资 10 亿美元。

大佬云集的投资者名单引发了媒体疯狂报道,初始员工的名单同样亮眼:曾为支付公司 Stripe 负责技术业务的格雷格 • 布罗克曼将出任首席技术官;曾师从人工智能先驱杰弗里 · 辛顿的伊尔亚 · 苏茨克维将担任研究主管,还有七名刚从顶尖大学毕业或从其他公司挖过来的研究员将组成核心技术团队。

其次, OpenAI 以非营利组织身份发表了一则声明:“重要的是要有一个领先的研究机构,它可以优先考虑好的结果,而不是自己的私利。”“我们将大力鼓励研究人员发表他们的研究成果,无论是论文、博客文章还是代码,我们的专利(如果有的话)将与全世界共享。”

尽管 OpenAI 没有明确表达批判的说法,但言外之意很明显:DeepMind 等其他实验室由于受商业利益的约束不能服务全人类。在这些机构向人类关上大门的时候,OpenAI 将会是敞开的。

在一个越来越私有化、专注于短期财务收益的研究领域,OpenAI 提供了一种新的方式来推动在 AI 技术最大问题上取得进展。“这是一个希望的灯塔。”机器学习专家 Chip Huyen 说,他密切关注着 OpenAI 实验室的发展历程。

早期加入 OpenAI 的人还记得当初的活力,兴奋和目标感。当时的团队通过紧密的关系网组建——而管理上则保持宽松随意。每个人都相信在这样一个开放的、扁平的组织结构中,任何人都可以提出自己的想法并展开讨论。

马斯克在建立一个集体神话上扮演了重要角色。皮耶特 · 阿布比尔是加州大学伯克利分校的一名教授,在 OpenAI 建立起的最初两年,他和他的几位学生一起在那共事,他回忆说:“我第一次感受到他的这种才能是在一次讲话中,他说,‘我知道 AGI 也许很遥远,但如果不是这样呢?如果在未来 5 到 10 年内发生的几率有 1% 或 0.1%,那会怎么样?我们不是应该仔细考虑一下吗?’他的话引起了我的共鸣。”

但是这种轻松随意的想法也导致了后来某些方向上的模糊。2016 年 5 月,阿尔特曼和布罗克曼接待了时任谷歌研究员的达里奥 · 阿莫迪,后者告诉他们,没人明白他们在做什么,据《纽约客》当时发表的一篇报道称,尚不清楚 OpenAI 团队是否意识到这一点。布罗克曼对此表示:“我们现在的目标…… 是做当下最好的事情。”这仍然是模糊的答案。

尽管如此,阿莫迪还是在几个月后加入了 OpenAI 团队。

OpenAI 变了

到了 2017 年 3 月,也就是公司成立 15 个月后,领导层意识到是时候更加专注了。

于是布罗克曼和其他几个核心成员开始起草一份内部文件,为 AGI 铺平道路。但这个过程很快暴露出一个致命缺陷:当研究小组研究这一领域的趋势时,他们意识到在财务上保持非营利组织属性是站不住脚的。该领域内其他组织用于取得突破性成果的计算资源大概每 3.4 个月翻一番。布罗克曼表示,“为了保持相关性”,他们显然需要足够的资本来匹配或超过这种指数级增长。

这就需要一种新的组织模式,既能迅速聚拢资金,又能以某种方式忠于自己宣扬的使命。

2018 年 2 月,马斯克宣布,由于在公司发展方向上存在分歧,他将离开 OpenAI。一个月后,阿尔特曼辞去创业加速器(Y Combinator)的总裁一职,成为 OpenAI 的 CEO。

2018 年 4 月,在公众和大多数员工不知情的情况下,OpenAI 发布了新的章程,文件重新阐明了该实验室的核心价值,但巧妙地改变了语言方式,以反映新的现实问题。除了承诺 “避免使用危害人类或过度集中力量的人工智能或自动识别技术” 外,它还强调了对资源的需求。章程中提到:“我们预计需要调拨大量资源来完成我们的使命,但我们将始终努力采取行动,尽量减少员工和利益相关者之间可能损害广泛利益的矛盾冲突。”

布罗克曼表示:“我们花了很长时间与员工进行内部沟通,从而让整个公司都接受一套新观念。即使我们改变了结构,使命和要做的事情也必须和原来一样。”

这种转型发生于 2019 年 3 月,OpenAI 通过设置 “利润上限” 部门(回报达到投资的 100 倍之后才会分配利润)来摆脱其非营利组织的属性。此后不久,它宣布微软为其投资了十亿美元(尽管它没有透露这是微软云计算平台 Azure 的现金和信用分成)。

不难预料,此举引发了一波指责,外界认为 OpenAI 背离了初衷。声明发出后不久,一名用户在 Hacker News 上发帖质问,怎么实现 100 倍的利润上限,他们写道:“谷歌的早期投资者获得了大约 20 倍的资本回报,贵公司的赌注是将拥有一个比谷歌回报更高数量级的公司结构…… 而且不造成‘权力不正当集中’?这如何实现?如果不依靠资源集中,那权力又为何物?”

图 | 从左到右依次为:丹妮拉 · 阿莫迪,杰克 · 克拉克,达里奥 · 阿莫迪,杰夫 · 吴(技术人员),格雷格 · 布罗克曼,亚历克 · 拉德福德(技术语言团队负责人),克里斯汀 · 佩恩(技术人员),伊尔亚 · 苏茨克维和克里斯 · 伯纳(基础架构负责人)(图片来自:CHRISTIE HEMM KLOK)

此举也让许多员工感到不安,他们表达了类似的担忧。为了平息内部混乱,领导层起草了一份常见问题解答,作为一系列受到高度保护的过渡文件的一部分。有一个问题是:“OpenAI 可信吗?”答案开头是“可信”,后面跟了一段解释。

《OpenAI 章程》是该公司的核心所在,它是所有实验室研究的指向标。

该章程对 OpenAI 进行了全方位讲解,布罗克曼会在午饭时当圣经一般背诵一遍。有一次背诵时,他突然说,“我不是只在开会之前把它拿出来草草看几眼。我花了很多时间一遍又一遍重复这些内容,直到我对它了如指掌。”

如何在开发更高级的 AI 功能的同时,确保人类生活的意义呢?“我们认为,AI 的作用应该是帮助所有人实现经济自由,并帮助他们寻找前所未有的新机遇。”

如何才能实现 AGI 的公平分配?“我们的发展目标就是实现 AI 的实用性。但所有内容均取决于章程的规定。”

如何在确保安全的前提下实现 AGI 的优先发展?“我认为一定存在两全其美的办法,不过我们需要先了解章程中的内容。”

布罗克曼认为,严格遵守章程是 OpenAI 有条不紊发展的根源所在。除个别人以外,所有全职员工都要在同一间办公室工作,这样的内部协调十分重要。

对于政策团队负责人杰克 · 克拉克来讲,这意味着他每天需要往返于旧金山和华盛顿之间。不过他乐此不疲,并对此表示十分认同。这其实取决于个人态度,他认为,和同事一起吃午饭可以帮助所有人保持统一步调。

在这种方式下,效果十分明显:该公司的统一文化确实令人印象深刻。

员工工作时间很长,用餐和社交的时间也不忘讨论工作;很多人都会参加同一个聚会,他们十分认同 “有效利他主义” 的理性哲学。他们引用机器学习的术语自嘲生活:“你的生活有何种功能?”“你想要优化什么?”“生活只不过是函数罢了。”事实上,AI 研究人员都喜欢这么调侃,熟悉 OpenAI 的人深知这一点,OpenAI 的员工将 AI 研究视为一种身份认同,而非一份工作。

布罗克曼在去年 11 月迎娶了交往一年的女友安娜,婚礼的背景鲜花摆放成了 OpenAI 的 logo 图样。Sutskever 担任婚礼主持;机器人担任花童。

去年年中,章程的内容又进行了调整,它不仅仅是人们茶余饭后的谈资了。OpenAI 改为上限盈利机制以后,领导阶层很快对公司的薪资结构进行了调整,对每位员工实行任务责任制。

“统一技术型进阶”中除了 “工程专业知识” 和“研究方向”的内容以外,最后一栏中还要求填写员工对每一级的文化期望。第 3 级:“员工需了解并内化《OpenAI 章程》。”第 5 级:“确保所有团队成员在项目研究过程中遵从章程规定。”第 7 级:“员工有责任拥护和改进章程内容,并积极带动其他员工。”

噱头式成果发布

人们第一次了解 OpenAI 应该是在 2019 年 2 月 14 日,OpenAI 宣布了一项新的研究成果:GPT-2 模型,只需按下一个按钮,计算机就可以创造出行云流水的文章。如果输入《指环王》中的内容或麦莉 · 赛勒斯遭入室抢劫的新闻,计算机也可以立即创造出一段又一段同样风格的短文。

不过这也出现了一个问题:研究人员表示,GPT-2 模型存在很大风险,目前还无法发布。如果这种强大的 AI 模型用作他途,就会成为创造无数虚假信息的有力武器。

科学家纷纷提出反对意见。有人认为 OpenAI 就是以此为噱头作秀。GPT-2 模型还不够先进,因此也不会构成任何威胁。如果它真的存在风险,OpenAI 为何急于发布并妨碍群众监督呢?

“OpenAI 似乎是在制造 AI 恐慌。”罗格斯大学的助理教授布里特 • 帕里斯说,他专门研究 AI 制造的虚假信息。

去年 5 月,OpenAI 改变了之前的说法,并宣布了 “阶段式发布” 计划。接下来几个月,OpenAI 推出的 GPT-2 模型功能越来越强大。

在此期间,OpenAI 还与数个研究组织合作研究 GPT-2 算法滥用存在的潜在威胁,并制定了相应对策。最终,OpenAI 在 11 月发布了 GPT-2 的完整代码,并表示“目前还没有证据表明 GPT-2 会被用作他途。”

虽然人们一直指责 OpenAI 将 GPT-2 作为宣传噱头,但 OpenAI 予以否认。相反,它认为这是一次深思熟虑的实验,经过一系列的内部探讨和辩论才达成共识。

政策团队在后续 6 个月发布的博客内容中提到了这一点,这些观点都是大家开会一致决定的,当时我也在场。

“我认为章程绝对是我们取得成功的关键所在,”政策研究科学家 Miles Brundage 在谈到谷歌文档时表示。

不过 OpenAI 在宣传 GPT-2 时遵循了以前的模式,这也使广大 AI 社区普遍感到担忧。多年来,人们一直认为 OpenAI 在发布研究成果时存在炒作嫌疑。评论家也不止一次地指责 OpenAI 发布的研究成果有些夸大其词。

基于这些原因,这个领域的许多人都倾向于与 OpenAI 保持一定的距离。

不过 OpenAI 依然坚持投入资源重塑公众形象。它告别了传统的论文形式,将研究成果直接发表在了公司博客中。它可以内部完成多媒体制作以及研究成果封面设计等诸多工作。它还可以独立制作和 DeepMind 的 90 分钟纪录片 “AlphaGo” 相媲美的纪录片。

目前 OpenAI 将主要精力放在了独立制作上,布罗克曼和妻子安娜目前也进行了部分融资。

各种反对的声音也需要通过内部讨论解决。员工不满于外界批评的声音,领导层也担心这会瓦解 OpenAI 的影响力,导致人才流失。

内部章程中重点提到了这一问题,并提出了解决问题的有效策略,其中 “政策” 部分提到:“为了拥有政府级别的决策影响力,我们必须发展成人们最信赖的 ML(machine learning,机器学习)和 AGI 研究机构。”“获得 AI 研究界的广泛支持不仅是塑造声誉的有效方式,还可以扩大我们的影响力。”“策略”部分提到,“我们应将 ML 社区视为共同的利益相关者。言语冲突无法避免时,我们应调整说话的语气和谈论的内容。”

押注计算驱动,闷声造车

GPT-2 引发如此激烈的反弹还有另一个原因。人们觉得 OpenAI 再一次违背了它早先的开放和透明的承诺。一个月后,营利性机构转型的消息传出后,这项被搁置的研究让人们更加怀疑:这项技术一直处于保密状态,会不会是在为将来获得专利做准备呢?

但很少有人知道,这不是 OpenAI 唯一一次选择隐藏它的研究。事实上,它还对另一项研究完全保密。

关于实现 AGI 需要什么,有两种流行的技术理论。第一,所有必要的技术都已经存在,AGI 只需要解决如何缩放和组装它们。第二,需要一个全新的范式,目前人工智能的主导技术,也就是深度学习还不够。

大多数研究人员介于这两个极端之间,但 OpenAI 一直以来都几乎完全处于第一个技术理论中。它的大多数突破都是来源于将大量的计算资源投入到其他实验室。

布罗克曼和 Sutskever 否认这是他们唯一的策略,但实验室严密保护的研究表明并非如此。一个名为 “前瞻”(Foresight) 的团队进行了一些实验,以测试他们能在多大程度上推动人工智能能力的发展,方法是训练现有的算法,使用越来越多的数据和计算能力。对于领导层来说,这些实验的结果证实了他们的直觉,即实验室的全投入、计算驱动的策略是最好的方法。

在大约六个月的时间里,这些结果都没有向公众公布,因为 OpenAI 将这些内容视为自己的主要竞争优势。员工和实习生被明确告知不要透露这些信息,而离开的员工则签署了保密协议。

直到今年 1 月,这个团队才不动声色地在人工智能研究的一个主要开源数据库上发表了一篇论文。那些经历过保密工作的人不知道该如何应对这种变化。值得注意的是,另一篇来自不同研究人员的类似结果的论文已于一个月前发表。

随着时间的推移,领导层已经偏离了最初的信念——开放是建立有益的 AGI 的最佳方式。现在,保持沉默成为 OpenAI 研究人员的习惯,这包括在没有交流小组明确许可的情况下,绝不与记者交谈。

在我第一次去 OpenAI 办公室之后,当我开始联系不同的员工时,我收到一封来自其公关主管的电子邮件,提醒我所有的采访要求都必须通过她。我拒绝了她的请求,我说这样做会破坏别人告诉我的事情的有效性。她就指示员工随时向她汇报我的举动。克拉克曾是一名记者,后来他在信中表扬员工在记者 “四处打探” 时,能把消息捂得严严实实的。

OpenAI 的一名发言人在回应这一高度保密的声明中,提到了该公司宪章的一部分内容。“我们预计,基于安全和安全问题,我们将减少在未来的传统发布,”该部分说,“同时增加共享安全、政策和标准研究的重要性。”

该发言人还补充道:“此外,我们的每一次发布都要经过一个预估风险过程来权衡,我们希望缓慢发布我们的结果,以了解潜在的风险和影响,然后再公之于众。”

其中一个最大的秘密就是 OpenAI 正在进行的下一个项目。消息人士对我说,它基于该公司 4 年来的研究成果:一个使用大量计算资源对图像、文本和其他数据进行训练的人工智能系统。

一个小团队已经投入前期工作,并期望其他团队最终会加入进来。在宣布此事的公司全体会议上,不允许实习生参加。熟悉该计划的人士给出了一种解释:领导层认为,这将是最有希望达成 AGI 的方式。

推动 OpenAI 战略的是达里奥 • 阿莫德,他曾是谷歌员工,现在担任研究总监。

达里奥 • 阿莫德将实验室的策略分为两部分。他将第一部分比作投资者的“投资组合”,这一部分规定了该公司计划如何达到先进的人工智能能力。

OpenAI 的不同团队正在进行不同的押注。例如,语言团队的押注是一个理论,该理论假设人工智能可以通过单纯的语言学习延伸出对世界的重大理解。相比之下,机器人团队提出了一个相反的理论,即智能需要物理机体来发展。

就像在投资者的投资组合中一样,并不是每一次押注都有同等的权重。但是出于科学严谨的目的,所有项目都应该在被抛弃之前进行测试。达里奥 • 阿莫德以 GPT-2 非常逼真的自动生成文本为例,试图证明为什么保持开放的思想很重要。他说:“纯粹的语言是这个领域甚至我们中的一些人都有些怀疑的方向。”“但现在人们会说,‘哇,这真的很有前途。’”

随着时间的推移,不同的赌注越押越高,它们将激发更强烈的工作热情。然后它们会交叉糅合,目标是让越来越少的团队最终蜕变为 AGI 的单一技术方向。这正是 OpenAI 最新的绝密项目应该已经在进行的过程。

达里奥 • 阿莫德解释说,战略的第二部分集中在如何使这种不断发展的人工智能系统保证安全。这包括确保它们反映了人类的价值观,能够解释其决策背后的逻辑,能够在不伤害他人的情况下学习。

每一个致力于安全目标的团队都试图开发出可以在项目成熟时跨项目应用的方法。例如,可解释性团队开发的技术可以用于揭示 GPT-2 句子结构或机器人动作背后的逻辑。

达里奥 • 阿莫德承认,这部分策略有点随意,较少建立在该领域的既定理论上,更多是建立在直觉上。他表示:“到某个时候我们将建造 AGI,到那时,我希望这些系统在世界上的运行是让人满意的。”“任何我目前感觉不太好的事情,我都会专门为之创建并招募一个团队。”

在宣传和保密之间,达里奥 • 阿莫德说这话的时候看起来还是很真诚的。失败的可能性似乎使他不安。

“我们处在一个尴尬的境地:我们不知道 AGI 长什么样,”他说。“我们不知道什么时候会实现。”然后,他小心翼翼地补充道:“任何一个人的心智都是有限的。我发现最好的办法是聘请其他安全研究人员,他们通常会有不同的视野。我想要那种变化和多样性,因为那是你捕捉一切的唯一方式。”

商业化压力加剧

问题是,OpenAI 实际上几乎没有什么“变化和多样性”。

实验室的一位发言人说,在 120 多名员工中,25% 是女性和非二元性别者。她说,执行团队中有两名女性,领导团队中有 30% 是女性,不过她没有明确指出团队中的个人信息。比如布罗克曼和阿尔特曼在内的四名高管都是白人。我在领英等网站上找到了 112 名员工,其中绝大多数是白人或亚裔。

公平地说,这种多样性的缺乏在 AI 领域中是很常见的。

去年,总部位于纽约的研究所 AI Now 发布的一份报告发现,在主要人工智能会议上,女性作者仅占 18%,女性 AI 教授占 20%,Facebook 和谷歌的女性研究人员数量分别占 15% 和 10%。

OpenAI 的发言人说:“学术界和工业界肯定还有很多工作要做。而我们需要认真对待多样性和包容性,目前我们正在与 WiML、Girl Geek 和学者项目等方面进行合作,不断努力改进。”

事实上,OpenAI 已经在试图拓展人才库。2018 年,它启动了面向少数族裔的远程学者项目。尽管大家在工作中都表现的很积极,但第一批的八名学者中最后只有两名成为了正式员工。拒绝留在 OpenAI 的最常见原因是:他们必须住在旧金山。娜嘉 · 罗德斯曾是 OpenAI 的一名学者,现在是纽约一家公司的首席机器学习工程师。

如果缺乏多样性是人工智能行业普遍存在的一个问题,那么对于一家以 “让每个人都能公平享有技术” 为使命的公司来说,多样性则更是一个关乎生存的问题。现在的事实是,AI 行业缺乏最有可能被排挤在外的群体的代表。

正如布罗克曼经常提到的 OpenAI 的使命那样,他们现在并不清楚该如何计划把通用人工智能的“好处分配给全人类”。领导层在谈到这一点时总是含糊其辞,也没有采取什么行动来实施具体细节。

今年 1 月,牛津大学人类未来研究所与 OpenAI 的实验室合作发布了一份报告,提议分配一定比例的利润来作为福利。但报告作者指出 “在执行方面存在重大未解决的问题”。“这是我在 OpenAI 时遇到的最大的问题,” 一位不愿透露姓名的前雇员表示。

罗格斯大学的布里特 • 帕里斯回应称:“他们正试图利用成熟的技术手段让 AI 解决社会问题。但看起来他们没能真正理解什么是社会所需要的。他们只是觉得把目标定位在这里有利可图。”

布罗克曼表示认同,OpenAI 要实现其使命,技术和社会专业知识都是必不可少的。但他不同意从一开始就兼顾这两方面。他说:“要如何将伦理道德和其他观念引入其中?什么时候把这些加入 AI 中,怎么加进去?有一种策略是,从一开始就尽可能地把你需要的东西都塞进去,但我认为这种方法成功几率很低。”

他说,我们首先要弄清楚的是 AGI 到底应该是什么样子。只有了解了这个,才能够“确保我们会理解它带来的后果”。

去年夏天,在 OpenAI 转向利润上限模式和微软注资 10 亿美元后的几周,公司领导层向员工保证,这些变化不会在功能上改变 OpenAI 的研究方式。微软与实验室的价值观非常一致,并且都认为任何商业化的研究都是遥遥无期的;解决基本问题仍然是 OpenAI 工作的核心。

这些保证在一段时间内似乎是有效的,项目继续和往常一样进行。许多员工甚至不知道微软向他们做出了什么承诺。

但近几个月来,商业化压力开始加剧,能赚钱的研究听起来不再那么遥不可及了。Altman 私下与员工分享他的 2020 年实验室愿景时,传达的信息很明确:OpenAI 需要赚钱来做研究,而不是用研究来赚钱。

领导层表示,这是一种艰难但必要的权衡,因为 OpenAI 缺乏富有的慈善捐赠者,他们不得不做出这种权衡。相比之下,非营利组织 AI2 正雄心勃勃地推进人工智能基础研究,(至少在可预见的未来里)它的资金来源是已故亿万富翁保罗 • 艾伦留下的自筹资金。

然而事实上,OpenAI 面临这种权衡,不仅仅是因为它没有太多资金支持,还因为它的战略选择,它试图第一个碰触到 AGI 领域。这种压力迫使它做出的决定越来越偏离初衷。它急于通过大肆宣传来吸引资金和人才维持自己的研究,以期保持住领域优势,并追求一个计算量很大的战略。这不是因为它是通往 AGI 的唯一途径,而是因为它看起来是最快的途径。

不过 OpenAI 仍然是人才和前沿研究的基地,它不乏真诚地为人类利益而努力工作的员工。换句话说,它仍然拥有最重要的元素,仍然有机会来改变现状。

前远程学者罗德斯表示,“在我看来,OpenAI 确实存在一些问题,”她迟疑地开始说,“其中一些可能来自它所面临的环境;而有些来自它倾向于吸引的那类人,有些则来自它忽略的那类人。”

“但对我个人来讲,他们是在做一些正确的事,”她说,“我能感觉到那里的人非常认真努力。”

 
最新文章
相关阅读