国产大模型公司深度求索R1引发海外波澜,登顶多区APP榜且性能比肩OpenAI
国内大型模型公司DeepSeek最新模型的影响继续在海外发酵,并且该市场密切关注上游AI(人工智能)硬件市场是否会影响它。
1月27日,DeepSeek应用在Apple China和美国应用程序商店的免费应用程序下载排名高位,在美国下载列表中超过了Chatgpt。 DeepSeek的定量巨型幻想定量模型公司于1月20日正式发布了DeepSeek-R1,以推理大型模型。
推出后不久,R1以其开源性质,价格,成本和培训成本引起了广泛的关注。作为开源模型,可以正式在OpenAI O1型号上熟悉数学,代码,自然语言推理和其他任务中R1的性能,并采用MIT许可协议来支持免费的商业使用,任意修改并得出开发。
令人惊讶的是,根据DeepSeek的说法,R1的前培训成本仅为557.6亿美元,在2048年NVIDA H800 GPU(中国市场的低调GPU)中运行55天。
早些时候,AI Start -ups Openai和Anthropic一直在与Google和Meta等技术巨头的大型车型中激烈竞争。 “强大的奇迹”“燃烧金钱”模型已成为这些公司之间的流行选择。例如,预计Meta在2024年将花费380亿至400亿美元,根据以前的财务报告的统计数据,Google的2024年资本支出可能超过480亿美元。微软和亚马逊还希望2025年的资本支出继续上升。
毫无疑问,DeepSeek的生日增强了这些公司的危机感。 1月23日,当地时间,Facebook母公司Meta的雇员发布在匿名工作场所论坛的Temblind上,称Meta的内部进入了“恐慌模式”,因为DeepSeek-R1:Meta工程师正在努力努力分析DeepSeek的时间,尝试复制所有可能的技术。
R1发行后不久,Meta的首席执行官Mark Zuckerberg宣布,梅塔(Meta)在2025年的资本支出将超过600亿美元,增加了对AI的投资。根据外国媒体的报告,1月27日,梅塔(Meta)建立了四个专业研究团队,研究了DeepSeek的工作原理,DeepSeek是一种国内大型定量巨头模型,并基于此改进了其大型模型Llama。
1月24日,当地时间,诺贝尔奖获得了2024年的诺贝尔奖获得者,而Google Deepmind的首席执行官Demis Hassabis也在接受采访时对DeepSeek进行了评估:“可以肯定的是,他们的成就使他们的成就令人印象深刻,令人印象深刻,中国具有强大的工程和庞大的功能。
DeepSeek-R1的出现不仅使诸如Meta之类的技术巨头产生了一种危机感,而且震惊了上游概念库存。由于R1的显着改善并非完全基于计算能力,因此华尔街已经开始考虑对AI基础设施的巨额投资以及对NVIDIA芯片的需求是否合理。
截至发稿时,在美国股票市场之前,纳斯达克(NVDA)下降了11%以上,Broadcom下降了11%以上,TSMC和ARM下降了10%以上。同时,在日本股票市场,Advantest Corp(TYO:6857)股价下降了8.6%。
外国媒体分析指出,如果DeepSeek的成功可以鼓励AI初创公司建立一个强大的AI模型,并将其推向市场更快,那么Nvidia的收入增长可能会放缓,因为大型模型开发人员将DeepSeek的策略复制到使用较少的策略AI芯片的数量和较低的配置。
华尔街研究机构Yardeni Research的分析师Ed Yardeni在报告中写道:“对于“七个美国股票的巨人”,deepseek-r1可能是个坏消息。关键是,当AI飙升的资本支出速度时,远远超过了收入的增长率。
雷蒙德·詹姆斯(Raymond James)的分析师分析师Srini Pajjuri还在报告中写道:“ DeepSeek显然无法获得与美国大型大型企业相同的计算能力,但手动手动开发了一个看起来非常有竞争力的模型。一个模型。一个模型。自然出现的问题是,DeepSeek的出现将如何影响计算能力的增长以及对硬件和半导体的需求?
但是,Pajjuri指出,DeepSeek-R1也可能促使美国技术巨头“更紧急地利用其主要优势(即Nvida GPU),以远离便宜的替代方案。”
摩根大通(Morgan Chase)分析师约书亚·迈耶斯(Joshua Meyers)写道,DeepSeek的颠覆性主张是“更多的投资并不意味着更多的创新”,而这一概念已经开始引起美国AI领域的关注。但是,迈耶斯还表示,成本的降低并不意味着AI公司不再需要更多的计算能力,他们并不意味着投资最多的资金的一方不会获胜。相反,它将迫使DeepSeek的竞争对手成本。
Logenic AI公司的联合创始人Li Bojie告诉Surging News Reporters,关于为什么DeepSeek-R1会大大降低培训成本比训练阶段。它等同于“站在巨人的肩膀上”。但是,尽管可以复制这样的成功,但切割边缘大型模型探索仍然需要消耗大量的计算能力和成本,然后可以实现“步进右脚”的数据飞轮效应。
李博吉(Li Bojie)认为,AI模型的培训成本下降是否会影响上游AI硬件公司,尽管AI似乎会发展迅速的“更多(计算能力)卡和更多的资源仍然必须具有优势。 “
Futurelabs Future Laboratory的首席专家Hu Yanping说,DeepSeek的热量可以持续多长时间: ,您需要尽快尽快具有多模式的Wen Sheng图形图形图形图形图形图形图形图形图形图形图形图形图形文本文本尽快原始视频,理解图像,语音交互和其他功能,尤其是AVM(尤其是AVM)(全景成像系统),知识基础,与代理等结合在一起,是否可以形成模型矩阵和应用生态学等,可能会确定其受欢迎程度在于它的受欢迎程度在短期内,公众舆论的普及是否可以完全当场转变为一个市场,是否可以用豆袋和内部的Chatgpt食用”。
发表评论
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。