2024年人工智能趋势预测
发布时间:2024-03-29 浏览次数:145 来源:北京物联网智能技术应用协会

1.英伟达将大幅加强其成为云服务提供商的努力。大多数组织并不直接向英伟达支付GPU费用。相反,他们通过亚马逊网络服务、微软Azure和谷歌云平台等云服务提供商使用GPU,而这些云服务提供商则从英伟达批量购买芯片。

但亚马逊、微软和谷歌——英伟达最大的客户——正迅速成为其竞争对手。认识到当今人工智能中硅层的价值(英伟达的股价便是明证),主要的云服务提供商都在大力投资开发自家的人工智能芯片,这将直接与英伟达的GPU竞争。

随着云服务提供商寻求向下移动技术栈至硅层以捕获更多价值,不要惊讶于看到英伟达朝相反方向发展:提供自己的云服务并运营自己的数据中心,以减少其对云计算公司的传统分销依赖。

英伟达已经开始探索这条道路,今年早些时候推出了一项名为DGX Cloud的新云服务。我们预测,英伟达将在明年大幅推进这一战略。

这可能意味着英伟达自建数据中心(DGX Cloud目前位于其他云服务提供商的物理基础设施中);甚至可能意味着英伟达收购像CoreWeave这样的新兴云服务提供商,CoreWeave是其密切合作伙伴,作为垂直整合的一种方式。无论如何,预计随着我们进入2024年,英伟达与大型云服务提供商之间的关系将变得更加复杂。

《福布斯日报》:获取我们最佳故事、独家报道以及每个工作日收件箱中当天新闻的重要分析。

电子邮件地址 注册 通过注册,您接受并同意我们的服务条款(包括集体诉讼豁免和仲裁条款),并且您承认我们的隐私声明。

 

2.Stability AI将关闭。这是人工智能界最糟糕的秘密之一:曾经风头无两的初创公司Stability AI在2023年的大部分时间里都在慢慢崩溃。

Stability正在流失人才。近几个月的离职包括公司首席运营官、首席人力官、工程副总裁、产品副总裁、应用机器学习副总裁、通信副总裁、研究主管、音频主管和总法律顾问。

去年领导Stability高调的1亿美元融资轮的两家公司Coatue和Lightspeed,据报道最近几个月都已经退出了公司的董事会,因为与Stability首席执行官Emad Mostaque的争议。今年早些时候,该公司尝试以40亿美元的估值筹集额外资金,但未能成功。

明年,我们预测这家陷入困境的公司将在不断增加的压力下彻底关闭。

在投资者的压力下,Stability据报道已经开始寻找收购者,但到目前为止几乎没有找到兴趣。

Stability有一个有利因素:该公司最近从英特尔那里筹集了5000万美元,这笔资金将延长其运营时间。对于英特尔来说,这笔投资似乎反映了一种迫切的愿望,即希望获得一个高调的客户来承诺使用其新的人工智能芯片,以便在与竞争对手英伟达的竞争中取得优势。

但Stability以其极高的烧钱速度而闻名:在10月份英特尔投资时,据报道Stability每月支出800万美元,而收入只是这个数字的一小部分。按照这种速度,5000万美元的投资不会持续到2024年底。

 

3. “大型语言模型”和“LLM”这些术语的使用将变得不那么常见。在当今的人工智能中,“大型语言模型”(及其缩写LLM)经常被用作“任何高级人工智能模型”的简称。这是可以理解的,因为许多最初崭露头角的生成式人工智能模型(例如,GPT-3)都是纯文本模型。

但随着人工智能模型类型的增多,以及人工智能变得越来越多模态,这个术语将变得越来越不精确和无帮助。多模态人工智能的出现是2023年人工智能中的一个主要主题。如今的许多领先的生成式人工智能模型都结合了文本、图像、3D、音频、视频、音乐、物理动作等更多元素。它们远不仅仅是语言模型。

考虑一个人工智能模型,它已经根据已知蛋白质的氨基酸序列和分子结构进行了训练,以生成新的蛋白质治疗药物。尽管其底层架构是GPT-3等模型的延伸,但真的有必要称之为大型语言模型吗?

或者考虑机器人学中的基础模型:结合视觉和语言输入与广泛互联网规模知识的大型生成模型,以便在现实世界中采取行动,例如通过机械臂。对于这样的模型,应该并且将会有一个比“语言模型”更丰富的术语。(“视觉-语言-行动”或VLA模型是研究人员使用的另一个替代术语。)

关于DeepMind最近发布的FunSearch模型也可以提出类似的观点,尽管作者本人将其称为LLM,但它处理的是数学而非自然语言。

到2024年,随着我们的模型变得越来越多维,我们用来描述它们的术语也将变得越来越多维。

 

4.最先进的封闭模型将继续以显著的优势超越最先进的开放模型。当今人工智能话语中的一个重要话题是关于开源和闭源人工智能模型的辩论。虽然大多数尖端人工智能模型开发者——OpenAI、谷歌DeepMind、Anthropic、Cohere等——将其最先进的模型保持为专有的,但包括Meta和备受瞩目的新创公司Mistral在内的少数公司选择公开其最先进的模型权重。

如今,最高性能的基础模型(例如,OpenAI的GPT-4)是闭源的。但许多开源倡导者认为,闭源和开放模型之间的性能差距正在缩小,开放模型有望在性能上超越闭源模型,也许到明年就会实现。(最近流传的这张图表。)

我们不同意这一看法。我们预测,2024年(及以后),最好的闭源模型将继续显著超过最好的开放模型。

基础模型性能的最前沿是一个快速移动的边界。Mistral最近夸口说,它将在2024年的某个时候开源一个与GPT-4水平相当的模型,这一声明在开源社区引起了兴奋。但OpenAI在2023年初发布了GPT-4。到Mistral推出这个新模型的时候,它可能已经落后了一年多。到那时,OpenAI可能已经发布了GPT-4.5甚至GPT-5,建立了一个全新的性能前沿。(有传言称GPT-4.5甚至可能在2023年年底之前发布。)

在许多其他领域,作为快速追随者追赶前沿,比另一组在任何人都没有证明其可能性之前就建立新前沿更容易实现。例如,当这种方法以前没有被证明在这个规模上有效时,OpenAI构建使用混合专家架构的GPT-4风险更大、挑战更大、成本更高,而几个月后Mistral跟随OpenAI的脚步,用自己的混合专家模型就更容易了。

有一个基本的结构性原因让人怀疑开放模型会在2024年在性能上超越闭源模型。开发一个推进艺术状态的新模型所需的投资是巨大的,并且每一次模型能力的阶跃性增长都将继续膨胀。一些行业观察家估计,OpenAI将花费约20亿美元开发GPT-5。

Meta是一家最终要对其股东负责的上市公司。该公司似乎并不期望其开源模型发布产生任何直接收入。据报道,Llama 2的构建成本约为Meta 2000万美元;即使没有任何相关收入增长,鉴于战略利益,这种投资水平也可能是合理的。但Meta真的会投入近20亿美元建立一个超越现有任何人工智能模型的人工智能模型,然后开源它而不期望任何具体的投资回报吗?

像Mistral这样的新兴公司面临类似的困境。开源基础模型没有明确的收入模式(正如Stability AI所痛苦地了解到的)。例如,收取开源模型的托管费用,就变成了价格竞争到底,正如我们最近几天看到的Mistral的新Mixtral模型。所以——即使Mistral能够获得建立一个超越OpenAI的新模型所需的数十亿美元——它真的会选择转身免费提供该模型吗?

我们的悄悄怀疑是,随着像Mistral这样的公司投入越来越多的资金建立越来越强大的人工智能模型,它们可能最终会放宽对开源的立场,保留其最先进的模型为专有,以便它们可以收费。

(明确一点:这不是反对开源人工智能的优点。这不是说开源人工智能在未来的人工智能世界中不会重要。相反,我们预计开源模型在未来几年人工智能的普及中将发挥关键作用。然而:我们预测,推动人工智能可能性边界的最先进人工智能系统将继续保持专有。)

 

5.一些财富500强公司将创建一个新的C级职位:首席人工智能官。人工智能今年已经成为财富500强公司的首要任务,董事会和管理团队正在全力以赴地弄清楚这项强大的新技术对他们的业务意味着什么。

我们预计,明年在大型企业中采用的一种策略将变得更加普遍:任命一位“首席人工智能官”来领导组织的人工智能计划。

我们在十年前云计算兴起时看到了类似的趋势,许多组织聘请“首席云官”来帮助他们导航云的战略含义。

考虑到政府中已经在进行的类似趋势,这一趋势将在企业界获得进一步的势头。拜登总统最近关于人工智能的行政命令要求每个联邦政府机构任命一位首席人工智能官,这意味着未来几个月内将有400多名新的首席人工智能官在美国政府中被聘用。

命名首席人工智能官将成为公司向外界表明他们认真对待人工智能的一种流行方式。这些角色从长远来看是否有价值是另一个问题。(今天还有多少首席云官在职?)

 

6. Transformer架构的替代品将得到有意义的采用。transformer架构在2017年谷歌的一篇开创性论文中被引入,是当今人工智能技术的主导范式。每个主要的生成式人工智能模型和产品——ChatGPT、Midjourney、GitHub Copilot等——都是使用transformer构建的。

但没有任何技术可以永远占据主导地位。

在人工智能研究社区的边缘,一些小组一直在努力开发新型的、下一代人工智能架构,这些架构在不同方面优于transformer

这些努力的一个关键中心是斯坦福大学的克里斯·雷的实验室。

雷和他的学生的工作的中心主题一直是构建一个新的模型架构,该架构与序列长度的增长呈亚二次方关系(而不是像transformer那样呈二次方关系)。亚二次方缩放将使人工智能模型(1)计算强度更小,(2)比transformer更能处理长序列。雷实验室近年来出现的显著的亚二次方模型架构包括S4、Monarch Mixer和Hyena。

最新的亚二次方架构——也许是迄今为止最有前途的——是Mamba。就在上个月由两位雷门徒发表的Mamba在人工智能研究社区引起了巨大的轰动,一些评论者称赞它为“transformer的终结”。

其他构建transformer架构替代品的努力包括麻省理工学院开发的液态神经网络,以及由变压器共同发明者之一领导的新创公司Sakana AI。

明年,我们预测,一个或多个这些挑战者架构将突破并赢得真正的采用,从一个纯粹的研究新奇事物转变为在生产中使用的可信替代人工智能方法。

需要明确的是,我们不期望transformer在2024年消失。它们是世界上最重要的人工智能系统所基于的根深蒂固的技术。但我们确实预测,2024年将是切实可行的、用于现实世界人工智能用例的transformer替代品成为可行选择的一年。

 

7.云服务提供商对人工智能初创公司的战略投资及其相关的会计含义将受到监管机构的挑战。今年,大量的投资资本从大型科技公司流向人工智能初创公司。

微软在1月份向OpenAI投资了100亿美元,然后在6月领投了Inflection的13亿美元融资轮。今年秋天,亚马逊宣布将向Anthropic投资高达40亿美元。不甘落后,Alphabet几周后宣布将向Anthropic投资高达20亿美元。与此同时,英伟达可能是今年世界上最活跃的人工智能投资者,向包括Cohere、Inflection、Hugging Face、Mistral、CoreWeave、Inceptive、AI21 Labs和Imbue在内的数十家使用其GPU的人工智能初创公司投入资金。

不难看出,至少部分投资动机是为了确保这些高增长的人工智能初创公司成为长期的计算客户。

此类投资可能涉及会计规则中的一个重要灰色地带。这听起来可能像是一个专业话题——但它将对未来人工智能竞争格局产生巨大影响。

假设云供应商向人工智能初创公司投资1亿美元,基于保证初创公司将转身在云供应商的服务上花费这1亿美元。从概念上讲,这对云供应商来说并不是真正的独立收入;供应商实际上是在使用投资将自己的资产负债表现金人为地转化为收入。

这种类型的交易——通常被称为“往返交易”(因为钱出去又回来了)——今年在硅谷领袖如风险投资家比尔·古尔利(Bill Gurley)中引起了关注。

细节决定一切。并非上述所有交易都必然代表真正的往返交易。例如,投资是否伴随着初创公司有明确义务在投资者的产品上花费资本,或者只是鼓励两个组织之间的广泛战略合作,这些都很重要。微软和OpenAI之间的合同,或者亚马逊和Anthropic之间的合同,都不是公开的,所以我们无法确定它们的结构。

但至少在某些情况下,云供应商可能确实在通过这些投资确认了他们不应该确认的收入。

到目前为止,这些交易几乎没有受到任何监管审查。这将在2024年发生变化。预计明年美国证券交易委员会(SEC)将更加严格地审查人工智能投资中的往返交易——预计这种交易的数量和规模将因此大幅下降。

考虑到云服务提供商是迄今为止推动生成式人工智能热潮的最大资本来源,这可能对2024年整体人工智能融资环境产生实质性影响。

 

8.一些在2023年从加密货币转移到人工智能的炒作和从众行为将在2024年转回到加密货币。现在很难想象风险投资家和技术领袖会对除人工智能之外的任何事情感到兴奋。但一年是很长的时间,VC的“信念”可以非常快地改变。

加密货币是一个周期性行业。现在它不再流行,但毫无疑问,另一轮大牛市将到来——就像2021年、再之前是2017年,再之前是2013年。如果您还没有注意到,比特币价格在今年年初低于17,000美元,过去几个月价格已经大幅上涨,从9月份的25,000美元上涨到今天的40,000美元以上。比特币的大幅上涨可能正在酝酿中,如果是这样,将会有大量的加密货币活动和炒作。

一些知名的风险投资家、企业家和技术专家今天将自己定位为“全力以赴”的人工智能,在2021-2022年的牛市期间深度投身于加密货币。如果明年加密资产价格确实大幅回升,预计其中一些人将跟随热点转向那个方向,就像他们今年跟随热点转向人工智能一样。

 

9.至少一个美国法院将裁定,在互联网上训练的生成式人工智能模型构成侵犯版权。这个问题将开始逐步上升至美国最高法院。今天的整个生成式人工智能领域都潜伏着一个重大且被低估的法律风险:世界领先的生成式人工智能模型已经接受了大量受版权保护的内容的训练,这一事实可能引发巨额责任并改变行业经济学。

无论是GPT-4或Claude 2的诗歌,DALL-E 3或Midjourney的图像,还是Pika或Runway的视频,生成式人工智能模型之所以能够产生令人惊叹的复杂输出,是因为它们已经接受了世界上大部分数字数据的训练。在大多数情况下,人工智能公司免费从互联网上拉取这些数据,并随意使用它们来开发模型。

但是,实际上创造了所有这些知识产权的数百万个体——撰写书籍、作诗、拍摄照片、绘制画作、拍摄视频的人们——是否有权决定人工智能从业者是否以及如何使用它们?他们是否有权分享由此产生的人工智能模型所创造的一些价值?

这些问题的答案将取决于法院对一个关键法律概念即“合理使用”(fair use)的解释。合理使用是一个历史悠久的法律学说,已经存在了几个世纪。但将其应用于新兴的生成式人工智能领域,产生了没有明确答案的复杂新理论问题。

“机器学习中的人们可能并不一定意识到合理使用的细微差别,与此同时,法院已经裁定某些高调的现实世界例子不受合理使用保护,但那些例子看起来就像人工智能正在输出的东西,”斯坦福研究员彼得·亨德森说。“这个领域的诉讼结果如何尚不确定。”

这些问题将如何得到解决?通过个别案件和法院裁决。

将合理使用学说应用于生成式人工智能将是一个复杂的任务,需要创造性思维和主观判断。在这个问题的两边都将存在可信的论点和可辩护的结论。

因此,不要惊讶于看到至少一个美国法院在明年裁定像GPT-4和Midjourney这样的生成式人工智能模型确实构成版权侵犯,以及建立它们的公司对模型训练所依据的知识产权所有者负有责任。

这将不会解决问题。在其他司法管辖区,面对不同的事实模式的其他美国法院,很可能得出相反的结论:生成式人工智能模型受到合理使用学说的保护。

这个问题将开始逐步上升至美国最高法院,最终提供一个决定性的法律解决方案。(通往国家最高法院的道路是漫长且曲折的;不要期待明年就会有最高法院的裁决。)

与此同时,将会有大量的诉讼,大量的和解将被协商,律师们将忙于在世界各地导航法律案例的拼图。数十亿美元将悬而未决。