热门文档
- 2025-04-21 11:02:12 2025年中国宠物行业白皮书
- 2024-11-17 13:23:03 Mckinsey:2024中国消费趋势调研
- 2025-06-17 17:31:50 2024中国医疗器械行业发展报告
- 2024-07-31 22:30:59 城市飞行营地总体规划及主题体验区概念设计规划案
- 2025-03-07 11:57:25 【剧星传媒】《哪吒2》资源推荐0205
- 2025-10-14 11:53:22 中国微短剧精品化发展研究报告(2025)-新京智库
- 2024-12-23 13:57:51 哩哔哩《灵笼2》招商方案
- 2025-01-16 15:13:48 2025年全新品牌屋框架模型
- 2024-10-13 08:47:52 联合国:2024世界投资报告
- 2024-05-19 21:59:54 2024小红书餐饮行业方法论
- 2025-05-13 10:34:19 中国茶叶品牌发展报告(2024)会
- 2025-06-10 15:18:07 2025年秋冬淘宝服饰白皮书-篆商业智库

1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
联储证券证券研究报告LC Securities行业研究丨半导体2025年03月21日半导体行业策略:云巅千帆竞渡,端侧万物生辉,自主驭潮生王竞萱分析师Email:wangjingxuan1@lczq.comi证书:S1320525020001投资要点:进入2025年以来,半导体行业利好频出,我们认为2025年在多重因素市场表现共振下行业有望实现进一步增长,迎来复苏的新阶段,在当前趋势下,从—沪深300寻找各环节的最大公约数出发,我们看好以下方向:60%49%云端A:算力需求增长依旧强动,科技进步主体变化带来的边际形响或37%较为显着。预训练的算力膨胀方兴未艾,后训练和推理侧算力重要性愈发26%14%明显,成为维持行业快速增长斜率的关键动能,DeepSeek的横空出世促3%使国产软硬件进一步结合,国产云端A1生态开辟新场景,有望实现对海20%外算力、模型、系统之间闭环关系的解耦,构建国产A!产业链的良性循3218121023133/16环体系,建议关注:国产算力产业链。相关报告端侧A:边嫌A1设备的普及与端侧算力需求拜放,或催生新的增长点。下一阶段的三大重点即:手机与PC市场的回暖,搭载端侧AI实现应用半导体ETF:看周期趋势向好,多板块预场景落地;AoT产品不断创新,以延伸人体关键感觉器官实现功能解放示复苏为目标;汽车领域的智能化普及趋势加速,全民智驾初步走入现实。整体2024.07.09来看端侧大模型发挥空间十足,看好具有增长确定性的细分赛道,建议关注:S0C、MCU、电源管理、智驾芯片、CIS等,破与产能布局,同时全球产业能多元化楚势也将重业行业竞争格局。消电国补如约而至,非领域有望逐渐走出底部区间,设备材料国产替代趋势未改,制造封测“Local for Local”有望受益,建议关注底部反转的可能性以及自主可控进程较快的子行业,包括:半导体设备、晶圆代工、先进封装等。风险提示:下游需求复苏不及预期;国产A!发展速度不及预期;地缘政治风险加剧请务必阅读正文之后的信息拔露和法律声明联储证券LC Securities行业研究目录1.行情回顾.52.云侧A:叙事逻辑无重大变化,叙事主体出现转向趋势2.1模型训练侧:Scaling Law尚未见顶2.2 Deep Seek引爆全球,聚焦模型推理能力.72.3模型推理侧:当前推动算力需求增长的第二极.102.4如何看待当前A叙事逻辑下的算力需求?123.端侧Al:模型推理能力提升,Al Agent开启人机协作.153.2AIoT:以Al眼镜为代表的设备机会显现.203.3智能驾驶:智驾逐渐成为亲民标配,市场空问有望大幅扩容234.自主可控:长期坚定不移地看好科技自立…254.1消费电子:国补弹性测度,有望带动产业链新活力.…….254.2集成电路制造&封测:非A慢慢出走底部,下游需求或拉动产业协同.284.3半导体设备&材料:制造封测端的机会传导,有望实现外退内进315.投资建议.…336.风险提示34请务必阅读正文之后的信息披露和法律声明联储证券LC Securities行业研究图表目录图1半导体销售额及同比变化….5图2近一年半导体行情复盘(截至2025年3月19日)6图32025年半导体销售额增速预测情况.6图4大摸型的参数数量持续增长.7图5大模型的算力授入持续增长图67Gok-3在基准测试中的表现图7Gok-3在xAl数据中心Colossus训练得到.图8DeepSeek App DAU迅速增长8图91月份全球AI网站访问量排名图10DeepSeek-R1的基准表现.8图11DeepSeek-R1与其它代表模型的对比.8图12DeepSeek-R1的训练流程.图13RL对增强模型推理能力的意义10图14蒸馏对增强模型推理能力的意义…10图15加大推理的算力投入可以显著降低测试误差…10图16o1模型的表现与train-time和test-time均呈正比11图17DeepSeek R1Lite表现出的推理Scaling Law11图18Post-training和Inference接棒Scaling Law.图19推理算力预计将走向新阶段…12图20推理芯片占比预计将进一步提升12图21四大CSP季度CapEx…12图22四大CSP年度CapEx.1图23DeepSeek-V3的训练成本...图24杰文斯悖论使得总需求反而有望提升13图252025年服务器产值13图26训练A模型的硬件和能源成本变化13图27训练AN模型的成本占比14图28国产AN产业链有望实现闭环…14图29国产芯片纷纷接入支持DeepSeek.图30DeepSeek-V3的架构....图31Al Agent的定义16图32Apple Intelligence登录iPhone、iPad和Mac图33中国地区苹果及非苹果手机出货量及同比变化19图34联想推出端侧部署DeepSeek的AlPC.…19图35AN手机渗透率情况20图36ANPC渗透率情况20图37Meta两代眼镜BOM成本对比.21图382024年A1眼镜季度销量.21图39A眼镜年度销量及预测….21图402024年国内外A1眼镜销量(万副)22图412024年国内外Al眼镜销量对比2图42A眼镜的三种方案框架…2图43比亚迪天神之眼首批上市车型价格23图44特斯拉为国内用户提供Autopilot.4图45智驾政策逐渐放开……24图462024年新能源汽车价位段占比.25图472024年20-25万元价格区间内的城市NOA汽车渗透率25图48主要家电品类零售量及同比变化26图49主要家电品类均价及同比变化26图50中国地区智能手机出货情况27请务必阅读正文之后的信息披露和法律声明3联储证券LC Securities行业研究图51中国智能手机价位段27图522025年1月国产手机市场排名28图53台积电月度营收及同比变化28图54联电月度营收及同比变化28图55世界先进月度营收及同比变化29图56力积电月度营收及同比变化29图57主要晶圆厂产能利用率29图58先进封装大幅提升互联密度30图59台积电CoWoS的演进路径30图60.30图61先进封装市场规模.…31图62各地区半导体设备销售额…31图63各地区半导体设备销售额同比变化31图64半导体材料销售额及同比变化32表1Al Agent和其它AN的区别16表2近期各大科技企业在Al Agent方面的动作17表3近期各厂旗舰手机的Al功能18表42024年新发布的A1眼镜20A眼镜的三种方案对比.23表6比亚迪三套天神之眼对比25表7补贴前后家电零售量变化情况26表8补贴前后家电均价变化情况27表9主要半导体设备自给情况33表10主要半导体材料自给情况33请务必阅读正文之后的信息披露和法律声明联储证券LC Securities行业研究1.行情回顾近两年半导体行业呈现“周期复苏+技术创新”双轮驱动格局:2024年行业触底反弹,2024年全球半导体总销售额达6180亿美元,同比增长18.1%,2025年预计突破7000亿美元,半导体本轮复苏主要由A!算力需求爆发、存储芯片价格反弹及国产替代加速推动。进入2025年,行业预计将进入复苏新阶段,A!的云端和终端应用仍然是全球半导体行业的核心增长点,同时国产科技的爆发使得自主可控的趋势有望加速,政策层面的利好将贯穿本轮周期,整体来看可以期待半导体在成长和周期兼备的情况下有望进一步走向增长。%10回顾近一年半导体行业市场行情,自2024年初至2025年3月19日,申万半导体指数涨幅达40.21%,大幅跑赢沪深300的18.42%,分阶段来看包含以下阶段:①2024年1月:由于消费电子需求疲软,叠加部分企业业绩预告不及预期,资金转向防守板块,行业成交额显著萎缩,半导体指数单边下跌24.63%,创历史最大单月跌幅,但是同时单月半导体销售额延续2023年12月的亮眼走势,同增18.15%,显示行业正在走出底部。@2024年2-5月:消费电子补库启动,智能手机、家电需求回暖;OpenAl发布Sora、英伟达GB200芯片发布等事件催化算力需求,带动国产云端算力芯片及服务器产业链走强;存储芯片库存情况得到改善,价格反弹,需求逐渐回暖;大基金三期成立,资金预期重点投向设备、材料等“卡脖子”环节,这一时期指数以震荡修复为主。③2024年7-9月:设备材料、晶圆制造等细分领域因国产替代加速,表现突出,H1净利润增速超100%企业占比达三成,复苏趋势明确,行业内呈现结构性分化,整体以积蓄力量的震荡表现为主,④2024年10-12月:以政策利好为主要推动力,财政货币政策宽松刺激市场信心,流动性得到大幅扩充,半导体板块领涨市场;地缘政治不确定性加速国产替代,海外限制事件频出,但同时国产技术在各环节加速发展,自主可控主线明确,市场表现为大幅上涨后高位震荡,期间最大涨幅达83.10%。⑤2025年1月至今:2025年开年,半导体行业呈现结构性分化与技术创新并行的特征,以DeepSeek为代表的一批科技企业在多个领域取得喜人成就,市场对于国产科技自立自强的预期拉升,硬科技板块持续获得资金流入,同时部分行业龙头业绩预增得到市场认可,年初至今行业指数涨幅达10.21%,请务必阅读正文之后的信息披露和法律声明5联储证券LC Securities行业研究60300-10-20402024-01-02-0203-02220242022024-042024-0-022024-05-022024-07-022024-09-022024-08-022024-11-022024-12-022025-02-022025-01-022025-03-02行至2025,我们认为半导体行业整体乐观,行业进一步复苏的可能性较大,据多家专业机构预测,2025年半导体销售额增速将保持在11%15%之间,即基本延续2024年的增长速度。0%2%4%6%10%12%14%16%Gartner (25/02)Marketsand Markets 25/02Future Horizons (25/01)KPMG(25/01)WSTS 24/12)RCD Advisors (24/12)但是同时,我们认为行业的增长仍然并非是全面性的,而是以结构性的行情表现为主。从半导体行业发展历史来看,每一轮周期激发行业高斜率增长的核心因素在于关键的下游需求变化,而本轮周期中A!叙事的延续与否预计依旧是行业增长前景的最大扰动项。展望2025,我们判断,“周期复苏+技术创新”的双轮驱动没有发生关键改变,寻找行业最大弹性的关键在于三个部分:第一,云端A的算力逻辑;第二,AI应用走向边缘端的可预期变化;第三,行业各环节自主可控的进程期待。2.云侧A:叙事逻辑无重大变化,叙事主体出现转向趋势2.1模型训练侧:Scaling Law尚未见顶ScalingLaw说明了Al模型训蛛领城的“大即是好”,是推动算力产业能爆发的核心法制。Scaling Law最早由OpenAl于2020年提出,用以描述模型性能(损失值)与三个因素:模型的参数量、模型的算力投入和模型的训练Tokn数据集之间的暴律关系,即通过提升这三个因素而提升模型性能是有迹可循的,对于Decorder--only的模型而言,算力授入、参数量与训练数据量三者通常成线性正比关系,即随着模型参数量训练数据量的提升,算力投入也需要相应地提升。请务必阅读正文之后的信息披露和法律声明6联储证券LC Securities行业研究模型规模大小成撸数上升,算力需求相应增长的规律未发生变化,纵观A!模型训练历史,自2010年后,新诞生的A1模型参数数量以平均每年2倍的速度提升,用于训练模型而投入的算力则以每年4.6倍速度提升。因此考虑模型的大小,训练数据量和计算量综合体现的模型规模大小始终处在快速增长中。因此我们认为,当前的新生AI模型仍然倾向于以提升模型规模大小的方式提升模型性能。4.6X年1.00E+122X/年1.00E+241.00E+101.00E+211.00E+181.00E+081.00E+151.00E+061.00E+121.5X/年1.00E+091.00E+041.00E+061.00E+02深度学习区1.00E+031.00E+01.00E+00深度学习区1949196019711982199320042014202519491960197119821993200420142025资科来源:E印och Al,.联储证泰研究院注:飙轴表示训练模型的参数数量Grok-3重旁发布,Al棋型表现持续推进。2025年2月18日,Elon Musk旗下的人工智能公司XAl发布了GOk3系列模型,根据官方公开的测试结果,G0k3在包括AME和GPQA等基准测试中超过了DeepSeek-V3和GPT-4o等顶尖模型,同时在大模型竞技场Chatbot Arena测试中,xAl工程师表示,早期版本的Grok-3获得了第一的成绩,达到了1402分,成为全球第一个突破1400分的A1模型,Grok-3再次印狂Scaling Law,其出众表现离不开鹿大的算力授入,Al第一阶段用了122天的时间构建了包含10万个GPU的数据中心Col0ssus,创造了全世界规模最大的H1O0集群;但是团队认为此时的算力投入并未达到他们的需求,因此xA!又用了92天的时问将数据中心的规模扩展到20万个GPU,而Gok-3的训练正是在这个基础设施上进行的,虽然GOk-3并未公布其模型的参数量,但是由训练其的算力投入倒推,预计Gok-3的参数量将远高于314B的Grok-1。因此我们认为Gok-3的出现一方面既证实了当前Scaling Law仍然在发挥效用,Al训练的“大力出奇迹”还在延续;另一方面,Gok-3出色的性能表现会鼓励各Al研究机构继续加大算力投入以期获得出色的模型性能,BenchmarksGmk-1Grok-3 minipepseec-v55资科来源:xAl Grok-3发布会,联储证春研究院2.2 DeepSeek引爆全球,聚焦模型推理能力请务必阅读正文之后的信息被露和法律声明联储证券LC Securities行业研究DeepSeek一经发布迅速吸引全球目光.DeepSeek于2024年12月26日开源DeepSeek-V3模型,2025年1月11日发布APP,1月20日开源DeepSeek-R1模型,APP上线20天全球日活DAU就突破了2000万,成为全球增速最快的Al应用;网站端访问量则以22.3倍的速度增长,1月网站月访问量达2.56亿,环比增长2230.89%;在1月累计获得1.25亿用户,其中80%以上用户来自最后一周,即DeepSeek在没有任何广告投放的情况下,仅用了7天完成了1亿用户的增长。图8 DeepSeek App DAU迅逢增长上线20天日话2000万14281145%2010 ShapE-COMMERCE31%DeepSeek的火爆袁现主要潭于其出色的推理表现,DeepSeek-R1与OpenAl-o1的水平相当,DeepSeek-R1的基准表现,R1在多个评测中表现结果持平甚至超过了OpenAl-o1,尤其是在数学领域的表现尤为突出,DeepSeek-R1在2024年AIME上的单次预测准确率达到79.8%;在MATH500上,它取得了令人瞩目的97.3的分数,与01-1217表现相当,显著超越了其他模型。在代码领战虽然表现差于01,但得分差距较小,在C0 deforces上获得了2029Elo评级,超过了96.3%的竞赛参与者,整体来看,DeepSeek-R1具有非常优秀的推理能力,图10 DeepSeek-R1的基准表现田11 DeepSeek-R1与其它代表模型的对比Dpestbe1-1217ance of DeepSeck-R资料来源:DeepSeek技术论文,联储证泰研究院DeepSeek-R1其训蛛亮,底在于探素了如何增强模型的推理能力。我们认为推理模型即具有回答复杂、多步骤、长链条问题能力的模型,其主要可用于解决如高级数学问题、高级编程问题等复杂问题,DeepSeek-R1作为一个典型的推理模型,其推理能力的获得是通过以下三种方式实现的,并通过三种方式得到了三种模型:DeepSeek-R1-ZeroDeepSeek-R1.DeepSeek-R1-Distill:①RL(Reinforcement Learning,飩强化学习)上DeepSeek团队设定了精度奖励和格式奖励两种奖励模型,精度奖励模型评估响应是否正确,格式奖励模型则要求模型提供思考过程,除此之外团队并未使用具有人类偏好的奖励模型,团队设计了一个简单的模板,引导模型首先生成推理过程,然后是最终答案,通过有意识地将约束限制在这请务必阅读正文之后的信息被露和法律声明联储证券LC Securities行业研究种结构格式上,训练得到了R1-Zero模型,②RL+sFT(Supervised Fine-Tuning,监音徽调上团队使用未经过SFT的R1-Zr0生成了冷启动SFT数据,进行了一轮微调,保留了精度奖励和格式奖励的同时,团队添加了一致性奖励模型,然后对模型开展了一个新的L阶段,在这轮RL结束后的检查点团队又收集了60万个推理数据以及20万个由V3模型生成的CoT(Chain ofThought,.思雏链)数据,并通过以上共80万个数据组成的数据集对模型进行了新一轮微调,在微调结束后,团队利用基于规则的奖励来指导数学、代码和逻辑推理领域,利用人类偏好奖励来指导通用数据,并进行了最后一轮RL,最终得到了R1模型。③SFT+蒸慵(Distillation)上为了让规模较小的模型也能获得类似于R1模型的推理能力,团队使用②中第二次微调所用到的80万个数据组成的数据集对Qwen2.5-Math-1.5B、Qwen2.5-Math-7B和ama-3.3-70B-Instruct等小模型进行了微调,得到了若千图12 DeepSeek-R1的列妹流程DeepSeek-V3(671B)RL with accuracyformat rewardsSFTeepSeek-F1-Zerocold start"RLdata纯强化学习Train with"cold start"dataRL with accuracy,format,and consistency rewardsSFTSFT(CoT)(knowledge)datadataRL with rule-basedverification(math,code)and human preferenceama 3 Qwen 2.5SFT+RLDeepSeel-R1监督微调+纯强化学习SFT+DistillationDeepSeek-R1-Distill-Qwen (1.5B-32B)DeepSeek-R1-Distill-Llama (8B 70B)资科来源:Ahead of Al,联储证泰研究院从效果观察,DeepSeek团队的探素对于增强模型推理能力的老义巨大,对于仅进行了RL的R1-Zero模型,其推理能力在多个雏度已经接近OpenAl-o1,甚至于在AIME(cos@64)以及MATH500测试上的得分超过了o1-0912,而在此基础上通过SFT+RL训练得到的R1的性能表现就更加出色了;对于蒸馏过后的模型,高效的R1-7B就能在所有指标上超越像GPT-400513这样的非推理模型,R1-14B在所有评估指标上都超过了QwQ-32B-Preview,而R1-32B和R1-70B在大多数基准测试中显著超越了o1-mini,请务必阅读正文之后的信息披露和法律声明联储证券LC Securities行业研究图13RL对增强模型推理能力的意义ModelAIME 2024MATH-500rating746Clasde-3.5-Senmet-10221607개339ModelMATH-500OpenAl-ol-mini636OwQ-32B-Previewe-Diwn5DeepSeek-R1-Distill-Qwen-14BDeepSeek--Dwen-DeepSeek-R1-Zero71.095.973.350.01444DeepSeek-R179.865.92029资科来源:DeepSeek技术论文,Ahead of Al,联储证泰研究院资科来源:DeepSeek技术论文,Ahead of Al,联储证泰研究院DeepSeek团队在R1模型的训蛛过程中的发现对于大模型推理能力的提升做出了清多贡献:第一,直接将RL应用于基础模型,而不依赖SFT作为初步步骤,这种方法使模型能够探索C0T来解决复杂问题,从而开发出了展示自我验证、反思和生成长思雏链等能力的R1-Zer0模型,且这是第一次通过纯RL激发大语言模型推理能力的公开研究;第二,团队证明了较大模型的推理模式可以蒸馏到较小模型中,蒸馏模型虽然比不上SFT+RL得到的模型,但是却并不比纯RL模型表现差,而蒸馏模型的参数量是远远更小的;第三,蒸馏模型与在小模型上通过强化学习发现的推理模式相比,能带来更好的性能。2.3模型推理侧:当前推动算力需求增长的第二极推理Scaling Law强调在推理阶段透过增加计算资源来提升模型性能.清华大学和卡内基梅隆联合研究团队展示了在不同推理策略(加权多数授票和Bst-of-N)下,GSM8k数据集上的推理扩展情况。可以看到,随着每个问题的推理算力增加,测试误差率显著下降。这一现象表明,推理侧的Scaling Law不仅影响模型的计算效率,还直接决定了模型在实际应用中的性能表现。通过合理调整推理策略和模型规模,可以在有限的计算资源下,最大化模型的准确性和效率。因此我们认为,深入研究和优化推理侧的Scaling Law,对于提升大规模模型的实际应用价值具有重要意义,Inference scaling (Weighted Majority)Inference scaling (Best-of-N)Sampling (7B)Sampling (7B)28REBASE (7B)REBASE (34B)REBASE (7B)-REBASE (34B)1612124816326412825648163264128256nference FLOPs per question (x1012)Figure 5:GSM8k inference scaling across inference strategies and model sizes (lower is bet-ter).The left/right panel shows the problem-solving error rate on GSM8K based on weightedmajority/best-of-n.MCTS is not included in the comparison because of its poor compute-accuracytrade-off.REBASE is the compute-optimal inference strategy,and the optimal model size varies.Yangzhen Wu et al.(2024)Inference Scaling Laws:An Empirical Analysis of Compute-OptimalInference for Problem-Solving with Language Models,联储证泰研究院随着模型规模的不断增大,推理侧的Scaling Law在提升模型性能方面的重要性愈发显着。OpnA团队通过大规模强化学习算法教会o1模型如何在高度数据高效的训练过程中使用CoT进行高效思考,无论是随着强化学习(train-time compute)的增加或请务必阅读正文之后的信息被露和法律声明10联储证券LC Securities行业研究是思考时间的增加(test-time compute,o1的性能均会不断提高,无独有偶,DeepSeek团队发现R1-Lte模型在数学竞赛上的得分也与测试所允许思考的长度紧密相关,即C0T越长则推理结果越精准。因此我们认为,在当前AI发展阶段,在预训练阶段之外,在后训练阶段对模型加大强化学习力度或在推理阶段允许模型多思考一会儿,都能使模型的“智能”程度明显提升,图16o1模型的表现与train-time来test-time均里正比图17 DeepSeek R1Lite表现出的推理Scaling Law后训练和推理的Scaling Law在当前时点下更可能有所作为,我们认为在当前时点:后训练阶段的Scaling Law强调在预训练完成后,通过RL和推理优化进一步提升模型性能,不仅能够提升模型的特定任务性能,还能在不显著增加模型参数的情况下实现性能飞跃;而推理阶段的Scaling Law则关注在模型部署阶段通过增加推理时间或计算资源来提升模型输出的质量。尽管当前的预训练阶段可能呈现出一定的参数扩展带来的边际收益逐渐递减的趋势,但是由于后训练和推理阶段的算力需求正接近“性能弹性”最大的阶段,因此发展A1模型整体的算力需求仍十分可观,因18Post-training和Inference接棒Scaling LawPre-TrainingPost-TrainingTest TimeTraining Compute资科来源:公开资科整理,联储证泰研究院绘制推理算力预计占比将不断提升,成为训练算力之外的第二极。我们认为随着A!的2B2C端应用越发广泛,A!使用将逐渐渗透到社会需求的各方面,对模型推理需求也势必会提升,叠加为追求模型性能优化而投入提升的test-ime,推理芯片将接棒训练芯片,有望复刻训练芯片的快速增长,根据DC数据,2020年中国数据中心用于推理的芯片的市场份额已经超过50%,预计到2025年,用于推理的工作负载的芯片将达到60.8%。预计单芯片的推理能力将逐渐增强,将单芯片算力耗尽的推理任务和小规模推理任务将出现混合部署趋势,芯片会逐步加强对于虚拟化技术的支持。请务必阅读正文之后的信息披露和法律声明11联储证券LC Securities行业研究图19推理算力预计将走向新阶段困20推理芯片占比预计将进一步提升90%60%30%0%Time2019202020212022E2023E2024E2025E资科来源:公开资科整理,联储证春研究院绘制资科来源:DC,联储证春研究院绘制四大CSP的CapEx依旧乐观,而2025年的支出可能达3200亿美元,北美四大CSP2024Q4 CapEx合计达723.48亿美元,YoY达68.22%,而2024年全年合计CapEx达2285.44亿美元,YoY达54.87%,展望2025,亚马逊表示公司2025年CapEx将增至1000亿美元;Meta于电话会议中申明2025年CapEx将在600亿至650亿美元之间,这笔资金将用于推动Al战略;微软则是宣布,FA2025将在A1数据中心方面开支800亿美元用于建设能够处理人工智能工作负载的数据中心;谷歌方面预期2025年资本开支750亿美元,Y0Y+43%。综合预计2025年北美四大CSP合计Ca即Ex有望超过3200亿美元,按此估算YoY也在40%以上。图21四大CSP季度Ca即Ex因22四大CSP年度CapEx800■亚马进亿美元1402500■亚马进亿美元700☐Meta亿美元120Me亿美元600YoY%(右轴10020005004006015004030030200100020010010500-4010-2020142015201620172018201920202021202220232024资科来源:问花顺FiD,联储证泰研究院资科来源:问花顺iFinD,联储证泰研究院注:已将口径统一为日历年度DeepSeek成本板低、算力有限实际上并不意味着全球算力需求姜缩.DeepSeek通过高细粒度的MoE(Mixture of Experts,混合专家)架构、MLA(Muti-head LatentAttention,多头潜在注意力)、FP8混合精度训练、减少通信开销的DualPipe算法等算法层面的优化,实现了仅用278.8万个H800的GPU小时就训练出了V3模型,即按照2美元每小时租债费用来算,训练成本仅为557.6万美元。与其它国际主流模型对比,DeepSeek的训练成本极低,因此产生了部分认为未来Al研发算力需求将会大幅减少的观声音。CSP的乐观CapEx在一定程度打破了算力需求楚弱的观,点。我们认为CSP持续加大投入的主要原因包括以下三方面:第一,DeepSeek在技术层面上确实提供了降低模型训练成本的可能,但A!军备竞赛具有商业层面的考量,A!技术领先可以在构建商请务必阅读正文之后的信息被露和法律声明12联储证券LC Securities行业研究业生态时获得明显的先发优势;第二,即由于杰文斯悖论的存在,A!算力需求仍然有较大的不降反升的可能,所谓杰文斯悴论即当技术进步提高了效率,资源消耗不仅没有减少,反而激增,例如,瓦特改良的蒸汽机让煤炭燃烧更加高效,但结果却是煤炭需求飙升,我们认为在A!领域也有可能会呈现这种发展趋势;第三,即我们在前面论证的,推理端算力成为下一阶段AI发展的重点,尤其对各大CSP而言,推理端实际上才是挂钩其收入的,因此模型推理效率的提升意味着算力投入的回报率提升,加大算力授入规模逻辑顺畅。图23 DeepSeek-V3的训蛛成本算力总需求额算力需求量Training CostsPre-Training Context Extension Post-Training Totalin H800 GPU HoursTable 1 Training costs of DeepSeek-V3,assuming the rental price of H800 is 52 per GPU hourDemand资科来源:DeepSeek技术论文,联储证泰研究院我们认为A基建的叙事仍在延线,训练A模型的成本或持续增长,AI服务器需求仍将持峡增长。从服务器看,根据TrendForce数据,2024年整体服务器产值约3060亿美元,其中A!服务器较通用服务器增长动能更为强劲,产值约为2050亿美元,预计2025年A1服务器需求仍将持续增长,且价端有望提高较大贡献,产值有机会提升至近2980亿美元,YoY达44.96%,占整体服务器产值比例进一步提升至7成以上。从A1训练成本看,根据Ep0chAl数据,从2016年到2024年,成本呈现出显著的上升趋势,前沿模型最终训练运行的摊销硬件和能源成本以每年2.4倍的速度快速增长,近年来的增长尤为明显,尽管技术取得了进步,但对更强大硬件和能源资源的需求继续推高成本,因此我们认为在不考虑算法优化的情况下,训练成本不断增长的趋势将持续演绎。图252025年派务产值450■非A服务器产值十亿美元400YoY14.45%350300250200YoY44.96%15010050020242025E资科来源:Trendforce,联储证泰研究院资科来源:Epoch Al,.联储证泰研究院不考虑人力成本的支出,芯片在A!的训蝽成本中占比最大,需求空间巨大。根据Epoch Al数据,芯片在Al训练成本中占据了显著的比例,以Gemini1.0Utra和GPT-4为例,A1芯片的成本占比均超过40%,而在OPT-175B和GPT-3175B中,这一比例更是接近50%,这表明,随着模型规模的增大,A!芯片在整体训练成本中的重要性愈发凸显。芯片作为计算的核心部件,直接决定了模型训练的效率和速度,因此A!研发团队对于高性能的芯片需求是天然巨大的,尽管其作为一次性支出的成本巨大,但是高性能芯片能够显著提升训练过程中的计算能力,从而缩短训练时间,降低单位计算成本,请务必阅读正文之后的信息被露和法律声明13联储证券LC Securities行业研究GPT-40PT-175BGPT-3 175B0%10%20%30%40%50%60%70%80%90%100%资科来源:Epoch Al,.联储证泰研究院国产算力产业链受益于DeepSeek发布,有望具有更强弹性,对于国内算力供应链而言,我们认为DeepSeek的出现是一剂强心针,标志着国产Al实现了比肩全球顶级模型水准的跨越,DeepSeek通过算法、架构、工程的软硬件协同优化创新,以有限算力超低成本实现了性能比肩顶尖国外模型的国产模型,印证了软硬协同这一技术路线对推动Scaling Law、突破算力瓶颈的有效性和巨大潜力。我们认为其对国产算力链的影响包括:第一,从当前国产Al生态来看,国产的算力资源仍然稀缺,随着以DeepSeek为代表的国产AI大模型的持续发展,国产算力缺口依旧较大,因此我们认为当前是软硬件协同实现国产算力芯片突破,进而实现国产A!生态闭环的关键窗口期,可以看到在DeepSeek-R1模型发布后国产硬件厂商用极快的速度纷纷接入DeepSeek,我们判断通过此次软硬件合力发力的机会为二者未来持续融合夯实了基础;第二,如我们在前文的分析中指出推理芯片的占比将会持续提升,CSP出于成本以及可得性考虑,我们判断ASIC在算力芯片中的比重将会不断提升,预计将持续为国产算力芯片创造发展动能。全国产化A产业链闭环资科来源:智东西公众号,屯子工程世界,联储证泰研究院整理鲸上,我们认为整个云端A1的算力需求扩张在2025年仍然值得期特。第一,petraining的Scaling Law仍在延续的背景下,post-training和推理侧的Scaling Law接棒,各A研究机构仍有足够动力加大各环节算力授入以追求模型性能的提升;第二,尽管DeepSeek的出现成功具象化了提升算法降低成本的路径,但是对各大CSP而言,Al技术正面临商业化落地的关键窗口,加大投入即意味着提升模型推理能力进而实现云端服务收入落地;第三,DeepSeek的出现一定程度上改善了之前仅有大型企业可以参与到AN前沿开发的竞争格局,DeepSeek具有成本低廉、开源、性能强悍等特征,有望激发部分新生玩家的需求;第四,对于国产厂商而言,DeepSeek成为了改变Al生态环境的先驱者,受其带动下国产硬件厂商切入参与到A!前沿产业链的机会增大。因此我们建议持峡关注国产算力产业链。请务必阅读正文之后的信息披露和法律声明14联储证券LC Securities行业研究3.端侧A:模型推理能力提升,Al Agent开启人机协作现有望得到大幅改善,2C落地进程或加快实现,具体原因如下:第一,DeepSeek的发布使得在终端设备上部普Al的技术完备性得以提升。DeepSeek模型在架构设计、训练优化及推理部署策略等多方面采用的创新技术,显著提升了模型性能和训练效率,降低了计算资源需求,为其在端侧设备部署A带来了可能,其创新技术包括:①DeepSeek MoE架构:采用更细粒度的专家划分,并设置共享专家,提高了模型训练效率。同时,创新的无辅助损失负载均衡策略,通过动态调整偏差项确保专家负载平衡,避免了因负载不均衡导致的性能下降,使得模型在资源受限的端侧设备上也能稳②MLA:通过对注意力键值进行低秩联合压缩,减少推理时的键值缓存,降低内存占用。仅需缓存特定向量,在保持性能的同时,显著减少了Key Value缓存,这对于端侧设备有限的内存资源来说至关重要,有助于模型在端侧设备上快速进行推理计算;③推理阶段优化:在推理时,采用分离预填充和解码阶段的部署策略。预填充阶段通过合理配置张量并行、数据并行和专家并行,提高计算效率;解码阶段将共享专家视为路由专家,减少计算复杂度,利用BGDA技术降低延迟提高通信效率,同时通过将两个微批次的相似计算工作量重叠提升了吞吐量并降低了全对全通信的开销,满足端侧设备对及时性的要求;④模型燕慵:前文我们提到的模型蒸馏通过将大型模型的知识转移到小型模型,使得在端侧设备有限的计算资源和存储条件下,依然能够实现高效的A推理,提升了端侧A应用的性能和用户体验。1第二,Al模型发晨迪来新范式,Agent形式的Al在2025年迎来更多关注.Al Agent是一种程序,它可以与环境互动,收集数据,并利用数据执行自决任务,以实现预定目标,人类设定目标,但Aget会独立选择实现这些目标所需的行动,Agent的工作原理是将复杂的任务简单化和自动化,大多数自主Aget在执行指定的任务时,都会遵循特定的工作流程如下:①确定目标:Aget从用户那里接收特定的指令或目标,然后将目标分解成若干个请务必阅读正文之后的信息披露和法律声明15

请如实的对该文档进行评分-
-
-
-
-
0 分