>> 中泰证券-电子行业:从ChatGPT看芯片产业机遇,ChatGPT引发算力革命,AI芯片产业链有望率先受益-230319
上传日期: |
2023/3/20 |
大小: |
5051KB |
格式: |
pdf 共58页 |
来源: |
中泰证券 |
评级: |
-- |
作者: |
王芳,杨旭,李雪峰 |
行业名称: |
电子 |
下载权限: |
此报告为加密报告 |
|
ChatGPT快速渗透,AI产业迎发展新机 ChatGPT是由OpenAI公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。根据World of Engineering数据显示,ChatGPT达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之相比,TikTok达到1亿用户用了9个月,Instagram则花了2年半的时间。从用户体验来看,ChatGPT不仅能实现流畅的文字聊天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。 ChatGPT爆火的背后是人工智能算法的迭代升级。ChatGPT是基于GPT-3.5微调得到的新版本模型,能够借助人类反馈的强化学习(RLHF)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。从2008年第一代生成式预训练模型GPT-1诞生以来,GPT系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型(LLM)技术的不断突破,AI相关应用有望加速落地,AI产业或将迎来新一轮发展机遇。 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇 ChatGPT是生成式人工智能技术(AIGC)的一种,与传统的决策/分析式AI相比,生成式AI并非通过简单分析已有数据来进行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。AIGC的应用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。 AIGC产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能AI芯片、服务器和数据中心为AIGC模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责AI数据的采集、清洗、标注及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、推荐等场景,未来有望在多个行业呈现井喷式革新。 多模态赋能下游行业智慧化升级 多模态大模型有望成为AI主流,赋能下游行业智能升级。生成式AI主要依赖于人工智能大模型,如Transformer、BERT、GPT系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习,将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。 模型更新升级带动下游行业不断发展 从GPT-1到ChatGPT,模型参数与训练数据量不断增加,所需算力资源不断提升: GPT-1:最早的GPT模型之一,包含了1.17亿个参数,预训练数据量约为5GB。 GPT-2:参数数量达到了1.5亿个,预训练数据量达40GB。 GPT-3:是目前为止最大的语言模型之一,包含了1750亿个参数,预训练数据量为45TB。 ChatGPT:基于GPT-3模型的变种之一,参数量预计与GPT-3相近。 GPT-4性能提升显著,AIGC应用市场空间广阔 多模态模型是实现人工智能应用的关键。3月14日OpenAI发布GPT-4多模态大模型,拥有1)强大的识图能力;2)文字输入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上,GPT-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下GPT-3.5在倒数10%左右。多模态大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快速增长。 AIGC下游市场渗透率低,增长空间广阔。根据Gartner数据,目前由人工智能生成的数据占所有数据的1%以下,预计2023年将有20%的内容被生成式AI所创建,2025年人工智能生成数据占比将达到10%。根据前瞻产业研究院数据,2025年中国生成式商业AI应用规模将达2070亿元,CAGR(2020-2025)为84.06%。 风险提示 行业需求不及预期的风险:若包括手机、PC、可穿戴等终端产品需求回暖不及预期,则产业链相关公司的业绩增长可能不及预期。 下游技术迭代不及预期:存在行业技术迭代速度不及预期从而对需求造成影响的风险。 产能瓶颈的束缚:2021年缺芯潮带来产业链公司业绩快速增长,产能成关键限制因素,若包括代工厂、封测厂等产能扩张进度不及预期,则可能影响公司业务的增速速度。 去库存不及预期、大陆厂商技术进步不及预期、中美贸易摩擦加剧、研报使用的信息更新不及时的风险、报告中各行业相关业绩增速测算未剔除负值影响,计算结果存在与实际情况偏差的风险、行业数据或因存在主观筛选导致与行业实际情况存在偏差风险。
研究报告全文:证券研究报告2023年03月19日ChatGPT引发算力革命AI芯片产业链有望率先受益从ChatGPT看芯片产业机遇中泰电子王芳团队分析师王芳分析师杨旭执业证书编号S0740521120002执业证书编号S0740521120001分析师李雪峰分析师游凡执业证书编号S0740522080004执业证书编号S07405221200021目录一ChatGPT激起AI浪潮多场景创新产业链空间广阔11AI创新浪潮兴起多模态赋能下游行业12算力芯片迎来产业机遇二芯片是ChatGPT底层土壤三芯片需求增长拉动产业链机会四投资建议及风险提示2ChatGPT快速渗透AI产业迎发展新机ChatGPT是由OpenAI公司开发的人工智能聊天机器人程序于2022年11月发布推出不久便在全球范围内爆火根据WorldofEngineering数据显示ChatGPT达到1亿用户量用时仅2个月成为史上用户增长速度最快的消费级应用程序与之相比TikTok达到1亿用户用了9个月Instagram则花了2年半的时间从用户体验来看ChatGPT不仅能实现流畅的文字聊天还可以胜任翻译作诗写新闻做报表编代码等相对复杂的语言工作ChatGPT爆火的背后是人工智能算法的迭代升级ChatGPT是基于GPT-35微调得到的新版本模型能够借助人类反馈的强化学习RLHF技术来指导模型训练实现模型输出与人类预期的需求使对话内容更加人性化和富有逻辑性从2008年第一代生成式预训练模型GPT-1诞生以来GPT系列模型几乎按照每年一代的速度进行迭代升级未来随着大语言模型LLM技术的不断突破AI相关应用有望加速落地AI产业或将迎来新一轮发展机遇图表应用程序达到1亿用户量所需时间月数图表GPT模型迭代过程来源OpenAI官网WorldofEngineering中泰证券研究所3ChatGPT激起AI浪潮大算力芯片迎来产业机遇ChatGPT是生成式人工智能技术AIGC的一种与传统的决策分析式AI相比生成式AI并非通过简单分析已有数据来进行分析与决策而是在学习归纳已有数据后进行演技创造基于历史进行模仿式缝合式创作生成全新的内容AIGC的应用非常广泛包括自然语言生成图像生成视频生成音乐生成艺术创作等领域AIGC产业链主要分为上游算力硬件层中游数据算法软件层和下游行业应用层硬件层依靠高性能AI芯片服务器和数据中心为AIGC模型的训练提供算力支持是承载行业发展的基础设施数据算法层软件层主要负责AI数据的采集清洗标注及模型的开发与训练多方厂商入局自然语言处理计算机视觉多模态模型等领域行业应用层目前主要涉及搜索对话推荐等场景未来有望在多个行业呈现井喷式革新图表AIGC产业链全景图来源甲子光年中泰证券研究所4多模态赋能下游行业智慧化升级多模态大模型有望成为AI主流赋能下游行业智能升级生成式AI主要依赖于人工智能大模型如TransformerBERTGPT系列等这些模型通常包含数十亿至数万亿个参数需要庞大的数据集进行训练致使AI算力的需求也呈现出指数级的增长多模态是一种全新的交互生成模式集合了图像语音文本等方式因其可以结合多种数据类型和模态的学习将有望彻底改变我们与机器互动的方式快速占据人工智能主导地位我们认为多模态大模型长期来看不仅可以从成本端降本增效需求端也将通过快速渗透推广为下游行业带来持续增长需求从而快速推动下游行业智慧化应用升级图表国外部分AIGC预训练模型一览厂商预训练模型应用参数量领域BERT语言理解与生成4810亿NLPPaLM语言理解与生成推理代码生成5400亿NLP谷歌Imagen语言理解与图像生成110亿多模态Parti语言理解与图像生成200亿多模态Florence视觉识别64亿CV微软Turing-NLG语言理解生成170亿NLPGato多面手的智能体12亿多模态DeepMindGopher语言理解与生成2800亿NLPAlphaCode代码生成414亿NLPGPT3语言理解与生成推理等1750亿NLPCLIPDALL-E图像生成跨模态检索120亿多模态OpenAlCodex代码生成120亿NLPChatGPT语言理解与生成推理等13-1750亿NLP来源腾讯AIGC发展报告2023中泰证券研究所5模型更新升级带动下游行业不断发展从GPT-1到ChatGPT模型参数与训练数据量不断增加所需算力资源不断提升GPT-1最早的GPT模型之一包含了117亿个参数预训练数据量约为5GBGPT-2参数数量达到了15亿个预训练数据量达40GBGPT-3是目前为止最大的语言模型之一包含了1750亿个参数预训练数据量为45TBChatGPT基于GPT-3模型的变种之一参数量预计与GPT-3相近图表四代GPT模型参数与预训练数据量对比模型发布时间参数量预训练数据量预估成本消耗资源GPT-12018年6月117亿约5GB在8个GPU上训练一个月GPT-22019年2月15亿40GB在256个GoogleCloudTPUv3上训练一周GPT-32020年5月1750亿45TB训练一次460万美元总成本1200万美元在355个GPU上训练一年ChatGPT2022年11月未公布未公布训练一次成本超过1200万美元根据参数量而定来源OpenAI官网中泰证券研究所6GPT-4性能提升显著AIGC应用市场空间广阔多模态模型是实现人工智能应用的关键3月14日OpenAI发布GPT-4多模态大模型拥有1强大的识图能力2文字输入限制提升至25万字3回答准确性显著提高4能够生成歌词创意文本实现风格变化在各种专业和学术基准上GPT-4已具备与人类水平相当表现如在模拟律师考试中其分数在应试者前10相比下GPT-35在倒数10左右多模态大模型在整体复杂度及交互性上已有较大提升模型升级有望加速细分垂直应用成熟赋能下游智慧化升级带动需求快速增长AIGC下游市场渗透率低增长空间广阔根据Gartner数据目前由人工智能生成的数据占所有数据的1以下预计2023年将有20的内容被生成式AI所创建2025年人工智能生成数据占比将达到10根据前瞻产业研究院数据2025年中国生成式商业AI应用规模将达2070亿元CAGR2020-2025为8406图表AIGC下游应用落地时间预测图表中国生成式商业AI应用规模应用规模亿元规模增速25003002070250200025016062001500107715010006639310050034362495098290020202021E2022E2023E2024E2025E来源SEQUOIAOpenAI前瞻产业研究院中泰证券研究所7目录一ChatGPT激起AI浪潮多场景创新产业链空间广阔11AI创新浪潮兴起多模态赋能下游行业12算力芯片迎来产业机遇二芯片是ChatGPT底层土壤三芯片需求增长拉动产业链机会四投资建议及风险提示8AI芯片是人工智能的底层基石AI人工智能的发展主要依赖两个领域的创新和演进一是模仿人脑建立起来的数学模型和算法其次是半导体集成电路AI芯片AI的发展一直伴随着半导体芯片的演进过程20世纪90年代贝尔实验室的杨立昆YannLeCun等人一起开发了可以通过训练来识别手写邮政编码的神经网络但在那个时期训练一个深度学习卷积神经网络ConvolutionalNeuralNetworkCNN需要3天的时间因此无法实际使用而硬件计算能力的不足也导致了当时AI科技泡沫的破灭AI芯片是AI发展的底层基石英伟达早在1999年就发明出GPU但直到2009年才由斯坦福大学发表论文介绍了如何利用现代GPU远超过多核CPU的计算能力超过70倍把AI训练时间从几周缩短到了几小时算力模型数据一直是AI发展的三大要素而AI芯片所代表的算力则是人工智能的底层基石图表AI人工智能与半导体计算芯片发展历程19401960198020002020学习的心理海马位置细胞研究突破模型视觉皮层的时间编码感知器Hopfield网络新的DNN算法第一块FPGA第一个晶体管第一块CPUMCU第一块GPU类脑芯片第一块芯片神经网络芯片基于深度学习的AI芯片来源AI芯片前沿技术与创新未来中泰证券研究所9ChatGPT激起AI浪潮大算力芯片迎来产业机遇算力硬件层是构成AIGC产业的核心底座主要包括AI芯片AI服务器和数据中心AI芯片是算力硬件层的基石AI芯片主要分为CPUGPUFPGA和ASIC四类CPU是AI计算的基础GPUFPGAASIC作为加速芯片协助CPU进行大规模计算目前AI芯片主要被国际厂商垄断根据CounterpointIDC数据Intel和AMD共计占2022年全球数据中心CPU市场收入的9245Nvidia占2021年中国加速卡市场份额的80以上AI服务器是AI芯片的系统集成AI服务器采用CPU加速芯片的架构形式在进行模型的训练和推断时会更具有效率优势与国外AI芯片厂商的垄断局面不同中国AI服务器水平位于世界前列据IDC数据在2021H1全球AI服务器市场竞争格局中浪潮信息以202的份额排名第一联想和华为分别以61和48的份额位列第四五名数据中心的计算服务是承接AI算力需求的直接形式AIGC的模型训练是通常是通过云计算服务完成的其本质是AIGC模型厂商借助IDC的算力资源在云端实现模型的训练目前国内的数据中心厂商主要包括三大运营商华为联想中科曙光等提供云计算的厂商主要有阿里腾讯等互联网企业图表2022年全球数据中心CPU市场份额图表2021H1全球AI服务器市场份额235IntelAMD20AWSAmpereComputing71Others来源智通财经CounterpointIDC中泰证券研究所10ChatGPT激起AI浪潮大算力芯片迎来产业机遇ChatGPT单次训练所需算力约275PFlops-day单颗NVIDIAV100需计算220天根据OpenAI数据GPT-3XL参数规模为132亿训练所需算力为275PFlops-day由于ChatGPT是在13亿参数的InstructGPT基础上微调而来参数量与GPT-3XL接近因此预计ChatGPT训练所需算力约为275PFlops-day以NVIDIAV100芯片为例一颗NVLink版本V100芯片的深度学习算力为125TFlops则ChatGPT模型的训练至少需要1颗V100芯片计算220天才能完成随着模型参数的不断增加模型训练所需算力将进一步提升将进一步拉动对算力芯片的需求根据OpenAI数据随着GPT-3系列模型参数规模由125亿增加至1746亿训练所需算力从26PFlops-day上升至3640PFlops-day规模参数13968倍与算力需求1400倍呈同比例增长图表不同NLP模型参数量及训练算力对比模型总计算量PFlops-day总计算量Flops参数量百万个T5-Small208E00180E2060T5-Base764E00660E20220T5T5-Large267E01231E21770T5-3B104E02900E213000T5-11B382E02330E2211000BERT-Base189E00164E20109BERT-Large616E00533E20355BERTRoBERTa-Base174E01150E21125RoBERTa-Large493E01426E21355GPT-3Small260E00225E20125GPT-3Medium742E00641E20356GPT-3Large158E01137E21760GPT-3XL275E01238E211320GPT-3GPT-327B552E01477E212650GPT-367B139E02120E226660GPT-313B268E02231E2212850GPT-3175B364E03314E23174600来源LanguageModelsareFew-ShotLearners中泰证券研究所11ChatGPT激起AI浪潮大算力芯片迎来产业机遇ChatGPT单月运营所需算力成本约667万美元根据Fortune数据每次用户与ChatGPT互动产生的算力云服务成本约001美元Similarweb数据显示2023年1月ChatGPT访问量达667亿次因此我们粗略推算2023年1月ChatGPT运营算力成本约为667万美元此外2023年1月ChatGPT访问量环比增长1194用户访问量的激增导致ChatGPT发生了因云算力不足而宕机的情况据OpenAI数据1月ChatGPT重大停机Majoroutage时长为5小时30分钟部分停机Partialoutage16小时21分钟运营算力不足已经开始影响ChatGPT的稳定性和响应速度我们预测随着ChatGPT等新兴AI应用的落地将会不断打开下游市场需求而伴随算力的增长也将带来对上游半导体芯片的需求量快速提升图表ChatGPT月访问量亿次图表ChatGPT2023年1月停机情况时间状态时长202315部分停机2小时46分钟202317部分停机1小时7分钟202318部分停机1小时27分钟2023110部分停机1小时47分钟部分停机2小时8分钟2023111部分停机1小时6分钟2023125重大停机4小时20分钟2023130重大停机13分钟2023131重大停机57分钟来源OpenAI官网Similarweb中泰证券研究所12ChatGPT激起AI浪潮大算力芯片迎来产业机遇算力需求的快速增长与芯片计算能力的增长形成剪刀差根据OpenAI数据2012-2018年期间人工智能训练任务中使用的算力正呈指数级增长速度为每35个月翻一倍人们对于算力的需求增长了超过300000倍相比之下摩尔定律是每18个月翻倍如果是以摩尔定律的速度这期间只会有12倍的增长因此当前模型计算量的增长远超人工智能硬件算力的增长模型算力需求增长与芯片计算性能增长之间的不匹配剪刀差的扩大将带来对算力基础设施供给需求的不断增长图表2012至2019年算力需求增长情况图表后摩尔时代对芯片算力要求来源OpenAI官网中泰证券研究所13目录一ChatGPT激起AI浪潮多场景创新产业链空间广阔二芯片是ChatGPT底层土壤21AI芯片有望率先受益CPUXPU异构形式成为主流22国产芯片厂商加速布局23AI算力需求存储芯片受益三芯片需求增长拉动产业链机会四投资建议及风险提示14AI芯片根据下游应用可分为训练推断两类机器学习主要包括训练training和推断inference两个步骤通常需要不同类型的AI芯片来执行训练是指通过大数据训练出一个复杂的神经网络模型通过大量标记过的数据来训练相应的系统使其能够适应特定的功能推理是指利用训练好的模型使用新数据推理出各种结论训练芯片通过大量的数据输入构建复杂的深度神经网络模型的一种AI芯片需要较高的计算性能能够处理海量的数据具有一定的通用性以便完成各种各样的学习任务注重绝对的计算能力推断芯片推断芯片主要是指利用训练出来的模型加载数据计算推理出各种结论的一种AI芯片注重综合指标侧重考虑单位能耗算力时延成本等性能图表AI芯片代表企业训练AI芯片代表企业推理AI芯片代表企业来源甲子光年智库中泰证券研究所15全球AI芯片有望达到726亿美元规模AI芯片是AI算力的核心需求有望率先扩张AI芯片是用于加速人工智能训练和推理任务的专用硬件主要包括GPUFPGAASIC等具有高度并行性和能够实现低功耗高效计算的特点随着AI应用的普及和算力需求的不断扩大AI芯片需求有望率先扩张根据IDC预测中国AI算力规模将保持高速增长预计到2026年将达12714EFLOPSCAGRA2022-2026年达523在此背景下IDC预测异构计算将成为主流趋势未来18个月全球人工智能服务器GPUASIC和FPGA的搭载率均会上升2025年人工智能芯片市场规模将达726亿美元图表中国AI算力规模及预测图表全球AI芯片市场规模及预测EFLOPS规模增速140016012001401201000100800806006040040200200020192020202120222023202420252026来源IDC中泰证券研究所16云端边缘端芯片同步发展深度学习的应用开发可分成云端与边缘侧两大部分云端指的是数据中心或超级计算机具有强大的计算能力利用海量数据进行模型训练也可以进行推理边缘侧指的是数据中心外的设备如自动驾驶汽车机器人智能手机无人机或IoT设备用训练好的模型进行推理根据场景不同形成了两种不同要求的AI芯片云端芯片具有最大的计算能力和最高的性能主要对深度学习算法模型进行训练有时也进行推断目前云端主要以CPUGPU异构计算为主根据wind数据在机器学习服务器和高性能服务器中CPUGPU的成本占比分别为83与51边缘端芯片计算性能有限主要使用从云端传来的训练好的模型和数据进行推断在边缘侧或手机等端侧设备中很少有独立的芯片AI加速通常由SoC上的一个IP实现例如苹果智能手机里最大的应用处理器ApplicationProcessorAP芯片就是一块带有AI核的SoC这类SoC的性能一般可以达到510TOPS图表各类型服务器成本构成图表云端与边缘端AI芯片规模CPUGPU成本内存存储器成本其他云端训练芯片亿元云端推断芯片亿元边缘端推断芯片亿元1003509030080250706020050150403010020501000机器学习服务器推理服务器高性能服务器基础服务器201920202021来源赛迪顾问WindAI芯片前沿技术与创新未来中泰证券研究所17AI芯片有望率先受益CPUXPU异构形式成为主流云端训练和推断计算主要由Al服务器完成底层算力芯片包括CPUGPUFPGAASIC等CPU是AI计算的基础负责控制和协调所有的计算操作在AI计算过程中CPU用于读取和准备数据并将数据来传输到GPU等协处理器进行计算最后输出计算结果是整个计算过程的控制核心根据IDC数据CPU在基础型高性能型推理型训练型服务器中成本占比分别为322332598是各类服务器处理计算任务的基础硬件GPUFPGAASIC是AI计算的核心作为加速芯片处理大规模并行计算具体来看GPU通用性较强适合大规模并行计算且设计及制造工艺较成熟目前占据AI芯片市场的主要份额FPGA具有开发周期短上市速度快可配置性等特点目前被大量应用于线上数据处理中心和军工单位ASIC根据特定需求进行设计在性能能效成本均极大的超越了标准芯片非常适合AI计算场景是当前大部分AI初创公司开发的目标产品图表AI加速芯片特点及应用场景对比技术架构种类定制化程度可编程性算力价格优点缺点应用场景通用性较强且适合大规模并行运算高级复杂算法和通用性人工智能平GPU通用型不可编辑中高并行运算能力在推理端无法完全发挥设计和制造工艺成熟台可通过编程灵活配置芯片架构适应量产单价高峰值计算能力较低硬件FPGA半定制化容易编辑高中算法迭代平均性能较高功耗较低适用于各种具体的行业编程困难开发时间较短6个月通过算法固化实现极致的性能和能前期投人成本高研发时间长1年当客户处在某个特殊场景可以为其ASIC全定制化难以编辑高低效平均性很强功耗很低体积小量技术风险大独立设计一套专业智能算法软件产后成本最低来源亿欧智库中泰证券研究所18AI芯片有望率先受益CPUXPU异构形式成为主流目前CPUXPU异构形式成为AI服务器主流架构传统的CPU单元对于AI计算任务的处理能力有限而XPU包括GPUFPGAASIC等则可以提供更强大的计算能力因此将CPU和XPU结合起来使用可以实现计算任务的高效处理和资源的最优利用一般来说CPU负责整个系统的管理和控制而加速芯片则负责AI计算任务的加速两者相互协作共同提升整个系统的性能服务器计算架构从单核的串行走向多核的并行又进一步从同构并行走向异构并行未来或将从异构并行走向超异构并行目前在AI服务器中常见的异构组合有8xGPU2xCPU4xGPU2xCPU8xFPGA1xCPU4xFPGA1xCPU在异构计算的趋势下AI加速芯片搭载率将持续增高根据IDC全球范围调研显示2022年每台AI服务器上普遍多配置2个GPU未来18个月GPUASICFPGA的搭载率均会上升根据IDC数据2021H1全球AI服务器市场规模达666亿美元同比增长率超过全球AI整体市场增长率224预计在2025年全球AI服务器市场规模将达到277亿美元CAGR2020-2025为203图表AI服务器异构形式演进趋势来源个人图书馆中泰证券研究所19算力时代AI芯片有望率先受益图表AI芯片特点及具体参数对比特点CPUGPUFPGAASIC60逻辑单元60-70计算单元基本架构门电路资源固化的门电路资源40计算单元30逻辑控制单元架构图定制化程度通用型通用型半定制化定制化延迟高较高低约为GPU的110低约为GPU的110复杂逻辑运算能力强擅长并行计算浮点数据计算能力强可进行数据并行和流水线并行AI运算效率高优势擅长逻辑控制软硬件体系一致可编程灵活度高功耗低体积小面积大功耗高由于通用性要求难开发周期长灵活性差算法支持有限劣势核数少不擅长处理并行任务以专一面对某一模型深度优化复杂算法开发难度大算法迭代后需重新开发可能是用于训练的最佳芯片AI训练效果效果较差唯一量产可用于训练的硬件效率不高但目前没有量产产品在云端和边缘端均占据主导地位云应用场景主要用于推断场景主要用于推断场景主要应用于推断场景端训练份额最高具体芯片对比E5-2699V3TeslaK80Virtex7-690TGoogleTPU计算单元个数个18256bit780432bit360032bit655368bit峰值运算能力TOPS133单精度浮点874单精度浮点18单精度浮点928bit整点功耗W1453003040能耗比GFLOPSW929602300来源中泰证券研究所20
|
|