怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)

借着ChatGPT的热度,AI最重要的硬件支持之一,算力硬件也在不自觉中再度上了科技类热搜。

然而,在热闹的市场背后,却少有朋友知道,藏着这背后的炒作逻辑。

今天,就让我们来搞清一个,朋友们问我最多的问题之一:为什么算力支持现在在炒GPU,而不是CPU?

GPU,英文全称是Graphics Processing Unit,即图形处理器,也就是我们所说的显卡。真正用来作为人工智能算力支持的GPU,不是普通的显卡,而是GPGPU。

GPU前面加一个“GP”,就变为General-Purpose Computing on Graphics Processing Units,即通用计算图形处理器。我们去术语化,可以直接说这是一种用于处理非特定需求(通用类型)计算目的的算力单元(芯片)。通常,它们也被简称为通用GPU。

如果朋友们还有记忆的话,肯定记得国内电子货币“挖矿”一度盛行时,带起了显卡的市场价格。这些显卡中有不少,就是目前主流被用于提升算力的通用GPU。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(1)

对比GPU和CPU:虽然两者本质都是算力芯片(最早的GPU,也就是显卡概念,也是由通用CPU演化而出),但最后在构架上的区别,导致了GPU在面对AI大数据流算力时,能够做的更好

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(2)

简单来说,CPU更擅长复杂逻辑的运算,而GPU构架相对简单,但运算核心多,适用于大量逻辑简单但高并发量的高密度计算。(CPU最多也就十几个核心,GPU动辄几百上千个核心)成本方面,虽然FPGA和ASIC芯片也被用于AI领域,但由于它们是针对其中某些需求的半定制和全定制芯片(主要是模拟人脑神经元结构),在通用领域的性价比完全无法和较为成熟的GPU相比。

(FPGA和ASIC芯片也是市场概念,但这里不多累述,以后有机会会跟大家盘一盘)

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(3)

详细一点可以这样认为,并行计算一般有2种类型:基于任务的并行处理和基于数据的并行处理。前者主要指的是把算力任务拆分成若干个小的但不同的任务,然后再根据算力芯片内的不同核心做不同的计算分,从而形成一条算力流水线。后者主要指的是将数据分解为多个部分,让多个运算单元分别去计算这些小块的数据,形成一个计算网格,最后再把这些网格完成的任务汇总起来。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(4)

我们常说的CPU多线程编程偏向于前者,GPU的并行编程模式则偏向于后者。后者对庞大但逻辑简单的算力需求,有明显更强更高效的支持能力。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(5)

或者我们也可以这么认为:AI领域的大数据流运算本来就是一个模糊概率问题,并没有多少很精准的计算需求,也就不要那么多的算力“牛人”(CPU),需要的是很多能够干一般活的“工人”(通用GPU)

从发展的时间线来看,通用GPU是一个近年来才产生,并在短期内高热度计算机芯片概念。它的出现,是一个与人工智能相互成就的过程。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(6)

最早提出GPU概念的是英伟达(NVIDIA)。早期英伟达提出GPU概念,是为了把电脑显示芯片独立出来,减少影像处理输出过程对CPU的依赖,且可以部分分担CPU的工作。

2012年发生的一件事,让人工智能领域研究者认识到了,GPU在算力支持领域的发掘潜力。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(7)

2012年,前谷歌计算机科学家Alex Krizhevsky利用深度学习 GPU的方案,赢得Image Net LSVRC-2010图像识别大赛,并奇迹般地将识别成功率从74%提升到85%。事件发生后,NVIDIA洞察到了这一趋势,耗费巨资对自家的传统GPU做改造。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(8)

3年后,NVIDIA提出了基于自家GPU的CUDA深度学习生态系统的算力GPU,将GPU的性能直接提升了65倍。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(9)

此外,为了建立自己的通用GPU生态,NVIDIA还开放了基于自己GPU的从后端模型训练到前端推理应用的全套深度学习解决方案让全球范围的内一般开发人员都可以非常容易地使用GPU进行深度学习开发或高性能运算,最后奠定了自己在GPU算力领域的老大地位。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(10)

作为目前AI服务器最主流的算力选择,2021年通用GPU服务器销售额占据我国AI加速服务器市场的88.4%,其中80%以上的国内市场被NVIDIA占据。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(11)

回到我们开头说的。ChatGPT的正式推出,一方面可以说是“启动了人工智能革命”,另一方面也可以说是“拉开了新一轮的硬件竞赛”。截止最新的市场报,ChatGPT在微软Azure AI云服务器上完成训练,总算力消耗为3640PF-days,已经导入超1万颗英伟达高端GPU。Citi Bank(花旗)等预测ChatGPT能促使NVIDIA 12个月营收增加30亿美金。

另据相关市场机构测算,ChatGPT模型进入线上运营阶段后,每亿活跃用户将带来13.5Eflops的算力需求,需要6.9万台NVIDIADGXA10080G服务器支撑。根据中国信通院数据,2021年全球计算设备算力总规模达到615EFlops,其中超算算力规模为14EFlops。换言之,在每个用户每天收到1500字回答的情况下,以2021年全球超算算力的规模,仅能支撑Chatgpt最多拥有1亿日均上线人数。那么假设未来最后全球有5-6家科技巨头能够在3年内各自拥有一款活跃人数2亿的ChatGPT类应用,则会带来至少162EFlops超算算力需求——是目前的10倍以上。

参考招商证券以商汤AIDC计算的市场估值:每新建1Eflops算力需要投资15亿元,其中ICT硬件投资占比72%。活跃人数每增加1亿人需要新增投资203亿元,其中ICT硬件投资146亿元。依旧是未来5-6家科技巨头有这类产品,3年后ICT硬件投资将新增需求1,755亿元。叠加未来AIGC技术向音频、视频等领域蔓延,算力硬件的市场需求会更大。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(12)

只不过,根据一份去年8月底9月初的“GPU产业专家交流要点纪要”显示,虽然我国在该领域的市场前景很大,但是主要生产企业却面临“比较尴尬”的情况。其中最重要的一点是,仅仅是做GPGPU的公司数量不少,但是整体产品层次不高。看起来有这个市场需求,但是很多订单国内厂商抢不下来。

如果要做高端的产品,去年美国在这块也开始卡我们,直接加大了国内大厂想要在这个领域发力的门槛。比如重要的芯片IP(一般也被成为IP核,指的是芯片中具有独立功能的电路模块的成熟设计)供应商都是美国公司。

设计工具EDA方面,全球3大EDA占据了绝大多数的市场。30年前,我们曾尝试过使用制度性优势做EDA,但最后3巨头把产品免费送给高校,导致国产EDA不仅失去了市场(销售供养研发),更失去了建立生态的机会。到了今天,我们的数字电路设计EDA缺乏全流程工具。即使是去年炒作过的华大九天等公司有模拟电力设计EDA,但仅仅是有流程平台,工艺支持等能力还亟待加强。

怎么知道cpu拖后腿还是显卡拖后腿(怎么突然抛弃了CPU)(13)

回到二级市场本身,盘了一下“GPGPU”和“AI领域数据芯片”的关键词,发现能在一定程度上有关注价值的并不多。文章最后给大家简单整理了一下,如果大家有更好的观点和意见,也欢迎讨论和补充!


【郑重声明】

本文内容纯属个人观点分享,依据客观市场资料、公开信息以及数据,所做的资料整合与合理客观分析,不含任何投资理财导向以及其他意图!市场有风险,投资需谨慎!

#人工智能##算力##计算机##硬件##科技##A股##股市分析##财经##股票财经##2月财经新势力#

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。