尽管国产大模型公司深度求索(DeepSeek)使得AI(人工智能)芯片龙头英伟达股价暴跌,但英伟达依然给出高度评价。
当地时间1月27日,英伟达发言人表示:“DeepSeek是AI领域的一项卓越进步,也是测试时间缩放(Test Time Scaling)技术的完美范例。DeepSeek的工作展示了如何利用这种技术、广泛可用的模型以及完全符合出口管制的计算资源来创建新型号。”
发言人补充道:“推理过程需要大量英伟达GPU和高性能网络支持。我们现在掌握三种扩展规律:持续进行的预训练与后训练,以及新的测试时间缩放技术。”
值得注意的是,上述英伟达的表态也意味着,DeepSeek使用的GPU完全符合美国的出口管制要求。
其中,测试时间缩放技术是近来备受讨论的一个话题。AI热潮和对英伟达芯片的需求很大程度上是由“缩放定律(Scaling Law)”推动的,这是OpenAI研究人员在2020年提出的AI开发概念,通过扩展构建新模型所需的计算量和数据量来开发更好的AI系统。
而测试时间缩放技术指出,如果一个已完成完整训练的AI模型在预测、生成文本或图像时投入更多计算资源帮助其推理,相较于一味地缩短运行时间,模型将输出更优质的答案。在R1模型之前,该技术已被应用于OpenAI的o1等模型中。
当地时间1月27日,美股三大指数收盘涨跌不一,英伟达(Nasdaq:NVDA)股价暴跌16.86%收于每股118.58美元,跌至过去10月以来的最低点;总市值2.90万亿美元,一日蒸发5900亿美元(约合人民币4.28万亿元),创史上最大单日个股市值蒸发纪录。英伟达的暴跌也使得创始人黄仁勋的身家大幅缩水210亿美元。
在英伟达的带领下,美股半导体芯片板块集体受挫,甲骨文下跌13.78%,超微电脑下跌12.49%,芯片制造商博通下跌17.4%,台积电跌13%。随着DeepSeek用更少的芯片、更低的成本实现了高性能的大模型,引发市场对AI科技巨头估值的担忧。
DeepSeek系量化巨头幻方量化旗下大模型公司,1月20日,该公司正式发布推理大模型DeepSeek-R1。1月27日,DeepSeek应用登顶苹果中国地区和美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。
推出后不久,R1就凭借其出色的性能、开源的性质、大幅下降的售价和训练成本获得了广泛关注。更令市场惊讶的是,据DeepSeek介绍,R1的预训练费用只有557.6万美元,在2048块英伟达H800 GPU(针对中国市场的低配版GPU)集群上运行55天完成。
英伟达方面的发言证明了,DeepSeek所使用的GPU完全符合出口管制规定。此前,OpenAI和Anthropic等AI初创企业一直在与谷歌、Meta等科技巨头围绕大模型展开激烈竞争,“大力出奇迹”的“烧钱”模式成为了在这些企业间流行的选项。而DeepSeek的横空出世引发了对于“算力越多、能力越强”的质疑,震动了上游概念股。
外媒分析指出,如果DeepSeek的成功能够鼓励AI初创公司用更少的芯片构建强大的AI模型、并将它们更快地推向市场,那么英伟达的收入增长可能会放缓,因为大模型开发人员会复制DeepSeek使用数量更少且配置较低的AI芯片的策略。
美国银行证券分析师Justin Post在27日的报告中写道:“如果模型训练成本被证明可以大幅降低,我们预计,使用AI云服务的广告、旅游和其他消费应用公司将在短期内获得成本效益,而长期来看,超大规模AI的相关收入和成本可能会更低。”
投行韦德布什资深股票分析师Daniel Ives表示,DeepSeek使用英伟达性能较弱的芯片构建出的大模型足以媲美OpenAI的ChatGPT和Meta的Llama 3.1,因此引起了美国科技股的波动。
不过,Ives强调,这对于投资者来说可能是一个买入的机会:“这是另一个黄金买入机会,而不是恐慌的时候。只有英伟达能推出自主研发、可用于机器人和更广泛AI用例的芯片。DeepSeek的大模型虽然令人印象深刻,但不足以被视作威胁。为消费者使用推出具有竞争力的LLM模型是一回事,但推出更广泛的AI基础设施又是另一回事。”
接下来,市场将密切关注美国科技巨头的业绩表现,以及他们在AI方面的资本支出。1月末至2月初,亚马逊、微软、谷歌、Meta将集中披露财报。英伟达将在当地时间2月26日披露财报。
发表评论