AI竞赛推动英伟达股价暴涨超90% 科技巨头承诺将继续“买买买”|环球通讯

科技公司对于人工智能的强劲需求正在推动芯片巨头英伟达的股价暴涨。今年以来,英伟达股价累计涨幅超过了90%,成为美国科技巨头企业中涨幅最大的公司,英伟达市值目前已经超过6800亿美元,高于特斯拉。


(资料图)

业内预计,随着人工智能大模型的训练需求不断增长,还将推动英伟达的AI芯片销量。

巨头继续押注云基础设施支出

根据汇丰银行分析师上个月发布的一份最新的报告,OpenAI的GPT-3级别的AI大模型需要至少1000个英伟达A100图形芯片,才能完成一轮为期23天的训练。

在近期公布的科技公司财报中,为了说服投资人,企业都承诺将对人工智能加大投入,而这些任务几乎都避免不了使用英伟达的AI芯片。英伟达有望在本月24日发布财报时,透露关于AI需求的信息。

谷歌CEO桑达尔·皮查伊(Sundar Pichai)表示,谷歌除了使用自己研发的芯片为AI模型提供动力外,也使用英伟达的芯片处理器,用于训练和部署尖端的人工智能。

科技公司在投入巨额资金部署人工智能的同时,期待人工智能为其带来更高的盈利回报。包括谷歌、微软在内的企业都在竞相将人工智能迅速集成到自己的产品中。

微软正在其搜索引擎Bing中添加由GPT大模型支撑的聊天机器人功能。5月4日,该公司宣布将允许任何用户使用其新版Bing搜索引擎。微软曾表示,每增加一个百分点的搜索市场份额,其收入就会增加20亿美元。

而要让每一个人都获得AI搜索的能力,意味着微软需要在算力方面投入更多。此前有机构测算,微软基于ChatGPT的人工智能搜索必应(Bing AI)需要超过2万台DGX服务器系统,才能使Bing的模型支持每个人的搜索,这表明该功能可能需要微软投资40亿美元的基础设施支出。

微软CEO萨提亚·纳德拉(Satya Nadella)在最新的财报电话会上表示:“建设运行AI应用程序所需的大型数据中心将需要大量资金的投入,我们将继续投资于云基础设施,特别是与人工智能相关的支出。”

但他同时强调,人工智能最终将推动收入增长,并且已经刺激了公司应用程序的增长。自微软添加聊天机器人功能以来,Bing的下载量翻了4倍。

亚马逊首席执行官安迪·贾西 (Andy Jassy) 也告诉分析师,亚马逊的规模将使其成为少数几家构建大型语言模型(LLM)的公司之一,“LLM可能需要数百台计算机运行数周才能构建,只有少数公司愿意投入时间和金钱,亚马逊是其中之一。”贾西说道。

同样承诺将在AI方面投入巨资的公司是Meta。Meta创始人CEO扎克伯格表示,AI技术是过去几年Meta资本支出增长的“主要驱动力”。他强调:“Meta将继续购买图形处理器。”

算力需求激增或导致芯片“严重短缺”

在中国,企业也在想方设法获得最先进的芯片来训练人工智能模型,尽管这面临一定的监管挑战。有预测数据称,今年中国人工智能GPU的需求将增长超过40%。

“训练一个垂直的大模型可能也需要上千张GPU芯片集群,我们需要的GPU数量还远远不够。”达观数据创始人CEO陈运文近期告诉第一财经记者。

在算力需求激增的背景下,GPU几乎成为了唯一的“硬通货”。目前,支撑包括ChatGPT大模型在内的95%用于机器学习的芯片都是英伟达的A100,该芯片的单价超过1万美元。

此外,英伟达还推出了新版的旗舰图形芯片H100。英伟达表示,H100是第一款针对特定AI架构进行优化的芯片,该架构支撑着AI的众多最新进展(如transformers)。 行业专家表示,要构建比目前可用的模型更大、数据需求量更大的模型,将需要更强大的芯片。

上个月,在eBay等线上渠道,H100的售价已经被炒到4万多美金,反映了科技行业对训练和部署人工智能软件的需求仍未被满足。

英伟达在中国市场推出了H100的替代产品H800。英伟达创始人CEO黄仁勋在今年3月的GTC发布会上告诉第一财经记者,英伟达将通过中国的云服务商,比如阿里巴巴、腾讯、百度这些来提供超算能力,从而使得中国初创公司也有机会开发自己的大语言模型。

某国内生成式AI(AIGC)初创公司技术负责人告诉第一财经记者,尽管国内有渠道购买H800芯片,但他更倾向于租用A100芯片的能力。“这是因为我们对于算力还没有特别大量的需求。”他对第一财经记者表示。

今年早些时候,英伟达宣布推出新服务,允许一些企业以每月37000美元的价格租用搭载其人工智能芯片A100的超级计算机DGX。

不过,一些规模较大的中国科技公司对算力的需求也更大。据一家投资AI大模型的公司负责人称,未来对云服务商算力的需求至少会增加一倍,这将导致芯片“严重短缺”。

据第一财经记者不完全统计,目前中国至少有30家公司和机构正在训练人工智能大模型。除了已经公布相关聊天机器人产品的百度、阿里巴巴、商汤等公司之外,本周六,科大讯飞也将正式推出一个名为“星火”的AI大模型。这也意味着,未来企业对于人工智能服务器的需求和网络基础设施支出将会继续增加。

关键词: