AI算力行业研究:智算供给格局分化国产化进程有望加速.docx
《AI算力行业研究:智算供给格局分化国产化进程有望加速.docx》由会员分享,可在线阅读,更多相关《AI算力行业研究:智算供给格局分化国产化进程有望加速.docx(14页珍藏版)》请在优知文库上搜索。
1、AI算力行业研究:智算供给格局分化,国产化进程有望加速1大模型浪潮推动作用下,算力需求缺口将持续扩大1.1 大模型发展对算力需求的推动作用大模型的训练效果、成本和时间与算力资源有密切的关系。大模型发展浪潮有望进一步增加Al行业对智算算力的需求规模。1.1.1 国外大模型的发展大模型数量加速增长,算力成为模型竞赛底座。自2018年以来,海外云厂商巨头接连发布NLP大模型。据赛迪顾问2023年7月发布的数据显示,海外大模型发布数量逐年上升,年发布数量在五年中由2个增长至48个。且仅2023年17月就发布了31个大模型。自2021年起,海外大模型数量呈现加速增长的趋势,结合2023年1-7月的情况,
2、该趋势有望延续。2017-2023年,从各公司发布的公开信息来看,大模型在7年的时间里实现参数量从千万到万亿级的指数型增长。2017年,谷歌团队提出Transformer架构,奠定了当前大模型领域主流的算法架构基础。2018年6月,OpenAI发布了TranSfOrmer模型GPT-1,训练参数量1.2亿。同年10月,谷歌发布了大规模预训练语言模型BERT,参数量超过3亿。2019年,OPenAl推出15亿参数的GPT-2o2019年9月,英伟达推出了83亿参数的Megatron-LMo同年,谷歌推出了110亿参数的T5,微软推出了170亿参数的图灵Turing-NLGo2020年,OpenA
3、I推出了大语言训练模型GPT-3,参数达到1750亿。微软和英伟达在同年10月联合发布了5300亿参数的Megatron-Turing大模型。2021年1月,谷歌推出SwitchTransformer模型,参数量达到1.6万亿,大模型参数量首次突破万亿。2022年,OpenAI推出基于GPT-3.5大模型的ChatGPT,宣告了GPT-3.5版本的存在。2023年,OpenAI推出GPT-4,估计参数规模达到1.8万亿。GPU数量与不同量级大模型所需的算力之间的线性关系。根据2021年8月DeepakNarayanan等人发布的论文,随着模型参数增加,大模型训练需要的总浮点数与GPU数量呈现正
4、相关的线性关系。175B参数量级的大模型所需的A100级别芯片数量为1024片(Token数为300B,训练34天情况下)。当参数增长到IT时,大模型训练所需的A100芯片数量为3072片(TOken数为450B,i)练84天情况下)。加大成本投入,海外大模型训练周期有望进一步缩短。从2020年6月OPenAl发布首个千亿参数量级大模型GPT-3到2021年1月谷歌推出首个万亿参数量级的SwitchTranSformer模型,大模型实现参数量级从千亿到万亿的跨越只用了不到一年。随着海外大厂商加大对大模型训练的成本投入,预计大模型发布周期将进一步缩短。在商业逻辑上,大模型发布数量指数型增长,意味
5、着市场竞争越来越激烈。厂商更愿意通过使用高性能的芯片缩短大模型训练时间,使大模型更早投入应用为公司带来业务增长。因此,芯片性能的提高并不会削弱厂商对芯片数量的需求意愿。1.1.2 国内大模型的发展数量增长情况与海外类似,短期内呈现密集发布的特点。自2019年至2023年7月底,国内累计发布130个大模型,2023年17月国内共有64个大模型发布,大模型发布数量呈现加速增长趋势。数量增长趋势与海外情况一致,我国大模型研发起步较晚,随着在大模型领域布局的厂商数量快速增加,大模型发布周期逐步缩短,预期未来两到三年内国产大模型数量将呈现爆发式增长局面。图3:国内大模型发布数量巨头引领,千亿级参数规模大
6、模型陆续落地。2023年3月,百度发布文心一言1.0;同年4月,阿里发布通义千问大模型、商汤科技发布日日新大模型体系;同年5月,科大讯飞发布星火大模型;同年7月,华为发布面向行业的盘古大模型3.0,千亿级参数规模大模型密集发布。2023年10月,随着百度发布万亿级参数大模型文心一言4.0,国产大模型或将具备对标GPT-4性能的能力。按类型划分,大模型分为行业大模型和通用大模型。据赛迪顾问于2023年7月统计的数据显示,我国通用大模型和行业大模型占比分别为40%和60%o行业大模型分布较多的领域为商业(14个)、金融(13个)、医疗(10个)、工业(7个)、教育(6个)和科研(6个)。研究显示,
7、通用大模型在行业领域及行业细分场景的表现一般。但行业模型可以在通用模型的基础上通过行业数据库进一步训练出来。大模型应用向细分场景下沉。华为发布的盘古大模型实际分为LO(基础大模型)L1(行业大模型)L2(场景模型)三个层级。采取5+N+X模式,即5个基础大模型、N个行业大模型和X个细分场景应用模型。目前行业模型主要应用于矿山、政务、气象、汽车、医学、数字人和研发共七大领域,覆盖14个细分场景。这种通过基础大模型+行业大模型实现大模型商业化落地的模式已经逐渐得到验证,未来行业大模型有望带动大模型本地化部署热潮,在解决行业长尾问题上将发挥更大优势并成为打通大模型“最后一公里”的桥梁。1.2 国产大
8、模型Al算力需求测算大模型算力需求测算方法:根据2023年8月腾讯公布的大模型算力评估通用方法,在大模型训练过程中,训练侧算力需求可量化表达为:训练所需浮点运算量(FLOPS)=6STrainingTokens若训练中使用激活重计算技术,则对应算力需求可量化表达为:训练所需浮点运算量(FLOPS)=8参数量XTrainingTOkenS同时,在大模型推理过程中的算力需求可量化表达为:推理侧所需浮点运算量(FLOPs)=2参数量XPromptTokens由于激活重计算技术是可选的,因此假设在训练中没有选择使用激活重计算技术,按照以上计算方法可得:训练GPT-3量级的大模型算力需求估算为3.15E
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- AI 力行 研究 供给 格局 分化 国产化 进程 有望 加速