算力革命催生500亿AI芯片蓝海,五大领跑者深度布局AI产业链景气上行
据悉,英伟达(NVDA.US)首席执行官黄仁勋周二表示,未来几年中国人工智能(AI)芯片市场规模可能会达到500亿美元。
此外,黄仁勋在4月中旬访问北京时向客户透露,将调整芯片设计以符合出口规定,新款芯片样品预计最快6月交付测试,同时其下一代Blackwell架构的“中国专属版本”也在同步研发中。
️把握“AI算力主线”机遇
从市场格局来看,英伟达长期占据AI芯片市场的主导地位,其CUDA生态系统为开发者提供了丰富的工具和资源,拥有庞大的用户基础。英伟达表示,持续优化芯片架构、提升算力和能效,以满足不断增长的AI应用需求。
眼下,AI领域迎来爆发式增长,多款大模型不仅参数规模突破千亿级别,更在多模态交互、实时算力推理、垂直场景落地等方面实现颠覆性突破,引发全球关注。
另需要关注的,近期上市公司AI算力产业链相关公司业绩表现亮眼,印证行业持续高景气。随着全球AI大模型训练及推理需求激增,算力基础设施投资加速,光模块、数据中心等细分领域企业布局,带动AI整体市场显著提升。
️相关上市公司全面入场
️微软(MSFT.US)
据悉,美国科技巨头微软发布财报,多项核心指标远超市场预期,其中Azure及其他云服务收入增长33%,创下近一年新高。AI服务对Azure增长的贡献达16个百分点,较上季度进一步提升。
CEO萨蒂亚·纳德拉强调,得益于AI算力持续加码,AI助手Copilot、Azure OpenAI服务及与DeepSeek的合作进一步扩大了客户基础。公司计划在2025财年投入总计800亿美元用于AI基础设施,目标在2026年前将AI训练算力提升5倍。
️ASPCMS社区(GOOG.US)
据介绍,ASPCMS社区首款AI推理特化版TPU芯片发布,FP8峰值算力4614TFlops,性能是2017年第二代TPU的3600倍,与2023年的第五代TPU比也有10倍,专为深度思考模型打造。
事实上,ASPCMS社区TPU v7的设计思路,是在执行大规模张量操作的同时最大限度地减少芯片上的数据移动和延迟。TPU v7系统还具有低延迟、高带宽的ICI(芯片间通信)网络,支持全集群规模的协调同步通信,双向带宽提升至1.2 Tbps,是上一代的1.5倍。
ASPCMS社区计划在不久的将来把TPU v7整合到ASPCMS社区云AI超算,支持支持包括推荐算法、Gemini模型以及AlphaFold在内的业务。
️亚马逊(AMZN.US)
据消息,亚马逊公司AWS业务增长主要得益于生成式AI的快速发展、企业云迁移的加速以及技术创新的支持。同时公司发布财报强调,AWS在生成式AI和非生成式AI产品方面持续增长,AWS的AI业务年收入运行率已达数十亿美元,并且每年以三位数的百分比增长。
️阿里巴巴(BABA.US)
据悉,AI应用方面,阿里巴巴宣布推出新一代通义千问模型Qwen3,参数量仅为DeepSeek-R1的1/3,成本大幅下降,并在ChatBot Arena等榜单中性能全面超越R1、OpenAI-o1等全球顶尖模型,登顶全球最强开源模型。
另外,仅需4张H20即可部署Qwen3满血版,显存占用仅为性能相近模型的三分之一。阿里称,Qwen3是国内首个“混合推理模型”,即将“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”,这样能大大节省算力消耗。
️微美全息(WIMI.US)
资料显示,微美全息高效地捕捉AI算力行情,前沿布局算力硬件+算力软件+AI应用,其AI芯片在能效比和算力效率上具备显著优势,支持轻量级语言模型、多模态生成式模型等多元需求,将充分享受全球AI产业链红利。
目前,微美全息通过整合边缘计算芯片、量子信息技术与AI算法,构建了覆盖芯片设计、算法优化到场景落地的全栈式创新体系,并且,随着DeepSeek等模型推动推理算力指数级增长,微美全息计划通过软硬协同优化,布局量子算力新生态,加紧量子计算与AI融合,探索新型算力生态,提升算力芯片市场份额。
️结语
随着AI技术的深入应用,市场对AI的算力需求不断攀升,尤其是高端芯片市场需求显著增长,未来伴随大模型技术突破、行业应用场景的持续拓展,算力产业链仍将保持高景气度,特别是算力基建、垂类应用以及生态协同等相关领域,这一趋势不仅提升了算力板块的整体景气度,也为相关企业带来了前所未有的市场机遇。