B体育华泰证券发布研究报告称,头部科技大厂出于削减TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达(NVDA.US)最大竞争对手。英伟达刚推出NVIDIA HGX H200,从HBM3内存升级到HBM3e,也是首款采用HBM3e的GPU,相较于前代H100展现了显著的性能提升和效率革新。主要针对AI计算的两大瓶颈:内存容量与带宽B体育。其旗舰芯片迭代周期也显著加速,从大约两年发布转为一年多版。AWSB体育、谷歌云、微软Azure和甲骨文等将成为其主要客户。
英伟达GPU一直是AI训练端首选,华泰证券认为包括谷歌TPU和AMD MI300系列等少数芯片能与其匹敌。但当算法开始成熟,ASIC定制芯片凭着专用性和低功耗,能承接部分算力B体育。该机构认认为头部科技大厂出于削减TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达最大竞争对手,如特斯拉Dojo、亚马逊在18和20年发布的AI推理芯片Inferentia及训练芯片Trainium、以及微软或将在 11 月 14 日Ignite 会议推出的首款自研AI芯片“Athena(雅典娜)”。AI推理市场规模大,但对算力要求比训练低,目前虽以CPU主导,但GPU/FPGA/ASIC等也能占到一席位。
英伟达于美国时间11月13日推出NVIDIA HGX H200。H200从HBM3内存升级到HBM3e,是首款采用HBM3e的GPU,拥有高达141GB的内存容量,及4.8TB/s的带宽,对比H100的80GB和3.35TB/s大幅提升。在性能表现方面,H200重点强化了推理性能和HPC性能,有效降低了能耗和整体成本。根据SemiAnalysis在10月10日的报道,英伟达未来AI芯片路线图显示,公司计划在明后两年推出H200、B100和X100等芯片及配套方案B体育。这一策略标志着其旗舰芯片迭代周期的显著加速,即发布间隔从大约两年转变为一年多版,展示了公司的创新能力和领导地位。
NVIDIA的HGX H200相较于前代H100展现了显著的性能提升和效率革新。在推理应用中,H200将Llama 2(700亿参数的大型语言模型)的推理速度提高了近一倍。此外,H200还相对H100实现了TCO(Total Cost of Ownership)和能耗成本50%的降低。内存容量与带宽是限制AI计算的主要瓶颈B体育,H200在加速生成式AI和大型语言模型方面更为出色,标志着NVIDIA在高性能计算领域迈出了重要一步。成本的减低也将有利于整体AI芯片在推理场景的应用的推进。
风险提示:技术落地缓慢;中美竞争加剧;芯片需求不及预期;宏观经济不确定性。
投资者关系关于同花顺软件下载法律声明运营许可联系我们友情链接招聘英才用户体验计划
不良信息举报电话举报邮箱:增值电信业务经营许可证:B2-20090237