ChatGPT背后的OpenAI,不会改变科技巨头之间的力量平衡

ChatGPT办公1年前 (2023)发布 一起用AI
372 0 0

ChatGPT背后的OpenAI,不会改变科技巨头之间的力量平衡

虽然 OpenAI 已经凭借 ChatGPT 吸引了公众的注意力和想象力,但最终这项技术可能不会改变科技巨头之间的力量平衡。本文来自编译,希望对您有所启发。

在斥资数十亿美元进行人工智能研发和收购之后,谷歌发现,自己将人工智能的风头拱手让给了 OpenAI。OpenAI 是一家后起之秀,其出色的聊天机器人 ChatGPT 公开测试版吸引了大众的想象力。据报道,谷歌现在担心 ChatGPT 人工智能可能会重塑搜索业务,而搜索业务时谷歌公司的基石。

但是,作为一家早在 2017 年就宣布自己是“人工智能优先”的公司,谷歌可能还会重新获得它在阳光下的地位。该公司在人工智能方面的投资可以追溯到 21 世纪初,当时他们认为这些投资可能会带来回报,甚至可能为公司下一个 25 年的增长提供动力(谷歌今年刚年满 25 岁)。

OpenAI 增强了自然语言处理(NLP)模型的功能,使其成为更大的模型,并为它们提供大量的训练数据,这些数据来自互联网上的免费电子书、维基百科页面、讨论区和小说。但是 OpenAI 并没有发明支持 ChatGPT 的 NLP 模型。GPT 是“生成式预训练转化器”(generative pretrained transformer)的缩写,谷歌在 2018 年用 BERT 发明了转化器语言模型,谷歌现在用它来增强其搜索和翻译能力。

但是谷歌在 BERT 之后并没有停止 NLP 方面的工作。事实上,谷歌声称它有一个叫做 LaMDA 的 NLP 聊天机器人,它比 ChatGPT 更强大(谷歌的一位工程师甚至坚持说这个东西是“有意识的”)。Alphabet 的子公司 DeepMind 也在考虑在今年晚些时候发布一款名为 Sparrow 的人工智能聊天机器人,谷歌的人工智能图像生成器 Imagen 据说可以与 OpenAI 的 DALL-E 2 竞争。

到目前为止,谷歌在向公众提供这些工具方面一直比较谨慎。这并不完全令人惊讶:谷歌是一家比 OpenAI 大得多的公司,如果它推出的 AI 出现任何失误,损失都会更大。谷歌认为生成式人工智能是一项不成熟的技术,其风险仍未得到正确的理解。据报道,谷歌公司担心,如果它的人工智能工具侵犯了某人的隐私,或侵犯了某人的版权,或造成了某种形式的垄断,那么这可能会招致反垄断诉讼。

但谷歌也能从人工智能中获益良多,并且它也已经准备要好提供新颖的人工智能功能了。该公司的做法是让基础的人工智能模型在后台运行,使公司的应用程序和服务能更好地运作。

1. 重塑搜索

搜索业务是一个很好的例子。谷歌已经在使用 BERT 语言模型来解释用户在搜索栏中输入的关键词和短语背后的意图了。BERT 被设计用来从文本中推断意义,但是更高级的语言模型(生成式模型)可以用来创造搜索结果,就像 ChatGPT 为用户问题生成文本答案那样。借助生成式人工智能,谷歌搜索的结果可能会辅以图片、视频、统计数据和链接,直接回答搜索者的问题,而不是仅仅返回一长串相关度越来越低的链接(伴随着广告)。

事实上,谷歌一直在研究这种生成式搜索方法。它的多任务统一模型(MUM)旨在帮助用户处理复杂或多方面的搜索请求。例如,用户可能会说或输入“我想去西藏旅行,需要准备什么?” MUM 将推断出查询中隐含的所有问题,然后生成一个定制的多媒体信息包,以解决所有问题,甚至提供更多额外的信息。

谷歌还有一个优势,那就是它拥有对网络及其海量内容进行长期抓取和编目的经验。该公司可能能够为其模型获得更多、更高质量的训练数据,这可能会带来优质的人工智能应用程序和服务,而不会产生不正确或“有毒”的内容。

Landing AI 创始人兼首席执行官吴恩达(Andrew Ng)说:“我确实认为像 ChatGPT 这样的大型语言模型,可能会颠覆网络搜索业务。但吴恩达很快补充说,让搜索成为与人工智能模型的来回对话形式并非易事:如何训练大型 NLP 模型?如何开发训练数据?然后还有如何盈利的问题。

“谷歌商业模式的核心动力是返回链接,并在结果旁边放置广告链接,”吴恩达说,他曾是谷歌大脑团队的创始负责人。“那么,如果谷歌现在直接从模型中返回答案,这对广告商业模式有何影响?我认为这些都是非常复杂的问题。”

对谷歌来说,将生成式人工智能模型集成到其生产力应用程序中可能会更简单一些。例如,这项技术可以用来帮助 Gmail 用户起草邮件信息,或者帮助 Docs 用户撰写文档或演示文稿,或者为 Meet 用户提供视频聊天摘要。

2. OpenAI 和微软

直到最近,OpenAI 和谷歌的竞争看起来就像是大卫和歌利亚的故事:一个小型灵活玩家用一种新颖的、颠覆性的技术,威胁着一个长期存在的科技巨头。OpenAI 决定向公众开放 ChatGPT 可能是希望延续这种印象,提高其公众形象,并尽可能吸引更多的投资资金。

这一策略似乎奏效了。OpenAI 已经与微软建立起合作伙伴关系,微软向该公司追加了 100 亿美元的投资。微软目前拥有 OpenAI 的大量股份,并打算将该技术构建到其必应(Bing)搜索引擎以及生产力应用程序中。

正因为如此,Index Ventures 合伙人迈克·沃尔皮(Mike Volpi)指出,我们现在面临的不再是类似大卫和歌利亚的情况了。

“OpenAI 不是一个小玩家,它基本上是微软的一个子公司了,”沃尔皮说,他的公司自 2016 年以来一直在投资人工智能初创公司。“OpenAI 的大部分资金来自微软,所以我认为可以把它看作微软的一个延伸。如果这样看的话,很多其他的事情就变得很清楚了。必应(在搜索广告业务上)的市场份额相对于谷歌要小得多,所以微软肯定想要搅动这一市场。”

3. “云”的重要性

微软将 OpenAI 视为通过其 Azure 云提供高级生成式人工智能服务的一种方式,Azure 云在云市场上仅次于亚马逊 AWS。微软也可能利用其与 OpenAI 的合作,为其“Azure 云比其他云服务更适合托管高级人工智能模型”的说法提供可信度支撑。

Azure 人工智能平台副总裁埃里克·博伊德(Eric Boyd)在本月的一篇博客文章中写道:“Azure 为计算密集型的 AI 训练和推理工作负载提供了一流的性能和扩展性。这就是世界领先的人工智能公司(包括 OpenAI、Meta、Hugging Face 等)选择 Azure 来推进其人工智能创新的原因。”

谷歌正在努力推广自己的云服务(其云业务正朝着盈利的方向发展),但它仍然远远落后于 Azure 和亚马逊的 AWS。Azure 增加的 OpenAI 服务可能会使谷歌的赶超努力变得更加困难。

4. 一场人工智能竞赛?

很难了解谷歌管理层对 OpenAI 的看法。去年 12 月中旬,谷歌的人工智能主管杰夫·迪恩(Jeff Dean)表示,如果推出一款会犯错或发布有毒内容的生成式人工智能工具,谷歌的损失会更大。但该公司正在认真应对 OpenAI 对下一代 AI 领导地位的争夺。据《纽约时报》报道,谷歌甚至请来了创始人拉里·佩奇和谢尔盖·布林(他们本来于 2019 年从公司的日常管理中退位了),来讨论如何对抗这家后起之秀。

据报道,在 12 月的一次战略会议上,谷歌表示,它将“重新调整”在发布面向公众的新生成式人工智能工具时愿意承担的风险水平。换句话说,ChatGPT 可能已经启动了一场人工智能军备竞赛。现在看来,谷歌很有可能在今年推出一些新的人工智能功能和产品。其中一些将针对开发人员:谷歌可能会开发像 GitHub 的 Copilot 这样的工具,这些工具经过了数百万至数十亿行代码的训练,可以直觉地判断开发人员的需求,并提出代码建议。

Index 的沃尔皮认为谷歌很可能会发布一个自然语言聊天机器人,其外观和行为都很像 ChatGPT。DeepMind 也有可能发布其 Sparrow 聊天机器人。谷歌搜索可能为某些类型的搜索提供聊天风格的体验。

一年后,OpenAI 可能看起来像是生成式人工智能领域的先行者,但它的模型可能不会像现在这样看起来那么新颖和具有革命性。最终,OpenAI 的故事可能不会显著改变大型科技公司之间的力量平衡。

沃尔皮说:“我不确定这是否会改变力量等级。“谷歌将会有一个(NLP 聊天)产品,亚马逊肯定也会有一个类似产品,苹果肯定也会做类似的事情来改进 Siri。

我们大众可以坐下来,看着这些公司一决雌雄,享受结果。但这里也有一些危险的因素。在 ChatGPT 之后,人工智能的开发步伐(在资金充足、有能力进行开发的公司内部)可能会加快。随着竞争的加剧,保密性也会增强。随着大型科技公司在人工智能研发方面投入更多,它们可能不太愿意在发表的研究论文中透露模型的细节以及其工作原理。

斯坦福大学以人为本人工智能研究所(Stanford’s Institute for Human-Centered AI)基础模型研究中心主任珀西·梁(Percy Liang)表示,过去一年,人工智能研究界的正常合作和科学开放性已经有所下降。梁说,重要的是,科技公司要愿意分享他们的模型、训练方法和细节,这样其他研究人员就可以重新创建模型及其输出,从而验证研究。OpenAI 确实发表了关于其创建的新模型的论文,但梁表示,该公司并不总是能提供关于其方法的足够细节。

“关于最新的 OpenAI 模型,我们完全不知道它们背后是什么,”他说,“而且直到最近,我们甚至都不知道这些模型的大小,训练的数据是什么,是否与我们使用 API 访问和测试的模型相同。OpenAI 已经发布了一篇小博客文章来解释其中的一些问题,这是朝着正确方向迈出的一小步,但仍然缺乏透明度。”

梁说,人工智能模型的最终输出,在很大程度上受到人类施加的微调和过滤的影响。开发人员必须这样做,以防止模型输出不正确的、有毒的、或偏向于某些用户类型而不利于其他用户类型的文本或图像。例如,如果你要求 OpenAI 早期版本的 GPT-3 模型写一个关于医生的简短故事,那么这个医生角色总是男性。到 ChatGPT 发布的时候,这种性别偏见已经消失了,它可能是通过额外的训练来获得修复的。这只是其中的一个例子,很可能有数百个这样的问题需要解决。

“OpenAI 喜欢谈论价值一致性,说这些模型将与人类价值观一致……所以他们不做坏事。但我想说的是,模型反映的是谁的价值观呢?这些价值观是什么呢?”梁说,“关于这些价值是什么,没有任何公布,这是某种不透明的决策过程。”

在 ChatGPT 测试版向公众开放时,OpenAI 愿意临时修复其中的一些问题。它甚至有一个“偏见赏金”计划,用户可以报告不正确或有偏见的输出,以换取赢得 500 美元 API 积分的机会。谷歌一直不愿意推出存在这些缺陷的人工智能产品和功能。但人工智能发展步伐的加快可能会给谷歌和所有大型科技公司带来压力,迫使它们在所有问题解决之前,就推出新模型。

从这个角度来说,输家可能是我们的用户。我们可能会看到生成式人工智能工具开始往本就信息混杂的互联网中,添加更多虚假、有毒和有偏见的内容。

译者:Jane

© 版权声明

相关文章