据知情人士透露,英伟达此前已完成今年向中国的先进制程AI芯片订单的交付,并力争在新规定于11月中旬生效之前提前交付2024年的部分订单。据悉,考虑到H100的所有新计算技术进步,H100的计算性能比A100高出约6倍。此外,它还可以提高AI和HPC工作负载的强大可扩展性,并显着提高架构的效率。
与NVIDIA的通用GPU相比,谷歌TPU采用低精度计算,在不影响深度学习处理效果的情况下,大大降低了功耗,加快了计算速度。对于中型LLM设计者来说尤其足够,因此他们可能不需要依赖高性能的NVIDIA A100/H100。此外,英伟达还与OpenAI、微软等公司合作,在其GPU上运行ChatGPT等大规模AI模型。
综合来看,A100 GPU提供了卓越的计算性能、大内存容量、高速数据传输和深度学习加速技术,使其成为大型模型训练的理想选择。如今,大车型之间的战争愈演愈烈。大型模型公司想要更快地推出模型和AI应用,就必须大量采购Nvidia芯片。经过多年的发展,国产CPU最强的两家逐渐崛起,分别是龙芯中科和海光信息。
因此,未来几年,英伟达若想保持在AI领域的领导地位和增长动力,实现加速计算机行业转型的愿景,还需要持续创新、投资与合作。根据GPU Utils今年8月更新的Nvidia H100显卡供需状况分析文章,保守估计H100的供应缺口达到43万台。例如,英伟达去年宣布将以400 亿美元收购ARM,但该交易遭到多国反垄断机构和ARM 客户的质疑和反对。
这不仅仅是一场芯片之战,更是一场中美科技智慧的较量,一场关乎芯片未来的传奇商战。从技术角度来看,与NVIDIA A100/H100等通用GPU相比,谷歌TPU设计的初衷是专注于深度学习领域,尤其是全面加速神经网络训练和推理效率。市场封锁迫使英伟达调整定位,推出专门针对中国市场的AI芯片。因此,很多大型模型公司都在努力摆脱NVIDIA的垄断。有自研能力的就自己研究,没有自研能力的就创造条件。
但随着时间的推移,中国科技实力逐渐崛起,成为全球科技创新的重要力量。此前数据显示,海光DCU神算一号是国内唯一能够支持FP64双精度浮点运算的产品,性能相当于Nvidia A100的70%。基于目前我国AI大模型算力的布局,无论是训练还是推理,AI大模型算力主要分为三组:
最后总结一下,海光信息是国产处理器芯片的领先者。目前,公司已完成授权技术的消化吸收,具备独立完成后续技术迭代和产品升级的能力。有望成为中国版NVIDIA,值得持续关注。