AI算力芯片市场分析.docx
《AI算力芯片市场分析.docx》由会员分享,可在线阅读,更多相关《AI算力芯片市场分析.docx(8页珍藏版)》请在优知文库上搜索。
1、AI算力芯片市场分析一、A1.处史上最长繁荣期,算力国产化需求迫切A1.正处史上最长繁荣大周期人工智能从1956年被正式提出以来,经历了数十年的发展历程。人工智能诞生初期,其研究主要分为三个流派,即逻辑演绎、归纳统计和类脑计算。人工智能研究的三大流派各有优劣势。类脑计算流派的目标最为宏远,但在未得到生命科学的支撑之前,难以取得实际应用。归纳演绎流派的思考方式与人类相似,具有较强的可解释性。由于对数据和算力的依赖较少,归纳演绎流派成为人工智能前两次繁荣的主角。随着学界对人工智能困难程度的理解逐渐加深,数理逻辑方法的局限性被不断放大,并最终在第三次繁荣期中,逐渐让位于统计学习的“暴力美学”。在进入
2、21世纪以来,在大数据和大算力的支持下,归纳统计方法逐渐占据了人工智能领域的主导地位,深度学习的浪潮席卷人工智能,人工智能迎来史上最长的第三次繁荣期,至今仍未有结束的趋势。智能算力规模将快速增长复杂的模型和大规模的训练需要大规模的高算力支持,这不仅需要消耗大量计算资源,而且对算力的速度、精度、性能也提出更高要求。市场对于更高性能的智能算力需求将显著提升,智能算力增长速率约通用算力的两倍据IDC和浪潮信息测算,2022年中国通用第力规模达54.5EF1.OPS,预计到2027年通用算力规模将达到117.3EF1.OPSo2022年中国智能算力规模达259.9EF1.OPS,预计到2027年将达到
3、1117.4EF1.OPS02022-2027年期间,中国智能算力规模年复合增长率达33.9%,同期通用算力规模年复合增长率为16.6%.:.A1.服务器需求旺盛从感知智能到生成式智能,人工智能越来越需要依赖“强算法、高算力、大数据”的支持。模型的大小、训练所需的参数量等因素将宜接影响智能涌现的质量,人工智能模型需要的准确性越高,训练该模型所需的计算力就越高。IDC预计,全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,五年年复合增长率达17.3%:在中国,预计2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%,2027年将达到
4、134亿美元,五年年复合增长率达21.8%。二、A1.技术收敛,GPU主宰算力芯片A1.芯片架构众多A1.芯片根据其技术架构,可分为GPU、FPGA.AS1.C及类脑芯片一,同时CPU可执行通用A1.计第。相较于传统的中央处理器(CPU),GPU具有并行计算、高效能和高并发等优势,因此在人工智能、机器学习、数据挖掘等领域得到广泛应用。A1.芯片根据其在网络中的位置可以分为云端A1.芯片、边缘及终端A1.芯片:根据其在实践中的目标,可分为训练芯片和推理芯片。云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘和终端主要部署推
5、理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。GPU与深度学习技术相契合GPU设计之初用于对图形进行渲染,需要并行处理海量数据,涉及大量矩阵运算。深度学习依赖于数学和统计学计算,所以图形港染与深度学习有着相似之处,这两种场景都需要处理每秒大量的矩阵乘法运算。GPU拥有数千个内核的处理器,能够并行执行数百万个数学运算。因此GPU完美地与深度学习技术相契合。使用GPU做辅助计算,能够更快地提高A1.的性能。CPU+GPU是人工智能异构计算的主要组合形式异构计第仍然是芯片发展趋势之一。异构计算通过在单一系统中利用不同类型的处理器(如CPU、GPU、ASIC、F
6、PGA.NPU等)协同工作,执行特定任务,以优化性能和效率,更高效地利用不同类型的计算资源,满足不同的计算需求。得益于硬件支持与软件编程、设计方面的优势,CPU+GPU成为了目前应用最广泛的平台。截至2023年10月,中国市场普遍认为“CPU+GPU”的异构方式是人工智能异构计算的主要组合形式。三、“AI信创”驱动,培育国产算力生态GPU行业需跨越CUDA横亘英伟达CUDA已经实现了与算法工程师、芯片客户的强绑定,众多算法工程师已经习惯了一套工具库、一套编程语言,向外迁移存在不习惯等问题。所以很多第力芯片硬件厂商选择了赖容CUDA的路线使硬件能够直接用CUDA调动起来,以降低用户的硬件迁移痛点
7、。兼容CUDA需要巨大时间和成本投入。据集微网,兼容CUDA涉及50个驱动、50个编译器、50个数学库、300个应用层工程师,3-5年的时间。功能的验证,用户的培养需要额外3-5年,每年还要至少开支1000万-3000万元资助外部开发者。从头部A1.厂商布局来看,英伟达竞争者AMD选择兼容CUDA+F1.研原生“两条腿”并行,英伟达客户谷歌、Meta、亚马逊等均已推出自己的A1.芯片。我们认为,国产GPU在起步阶段兼容CUDA生态更容易发展,易于生存。在美国技术封锁的大背景之下,“AI信创”为国产算力芯片提供了市场窗口,远期国产GPU还是需要发展原生生态。国产算力有待提升当下诸多国内本土芯片技
8、术储备和生态能力仍围绕小模型时代的识别式人工智能展开,难以匹配大模型和生成式人工智能发展所需的软件生态、模型框架、性能需求,因此本土人工智能芯片仍需在发展、继承和竞争中成长。在中美脱钩的时代背景下,国产算力芯片正经历“可用”到“好用”的阶段,国产算力芯片整体实力有待提升。从生态成熟度来看,我们认为,华为海思和海光信息有望率先替代英伟达算力芯片。受益于华为ICT行业的领先地位,界腾系列将获得从芯片设计、芯片制造、算力部署、应用生态的全方位支持,有更大概率成为主流国产算力芯片。四、HBM解决GPU内存危机,成为存储下一主战场A1.算力刺激更多存储器用量A1.服务器存储容量倍增,带动存储器需求成长。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- AI 芯片 市场分析