雷竞技平台官网-CPU、GPU这样协作更配,IBM和NVIDIA新款人工智能服务器又把英特尔秒了

2023-12-01 11:57:19
浏览次数:
返回列表
本文摘要:这一标准的CPU屈指可数,Power8则是其中之一(英特尔不出此之佩)。

这一标准的CPU屈指可数,Power8则是其中之一(英特尔不出此之佩)。这就意味著,Power8 CPU需要和Tesla P100 GPU以更高的速度已完成通信,这一特性并能IBMPower Systems S822LC for High Performance Computing中的CPU和GPU之间的相连速度远快于普通的在PCIe总线上互相交换数据的展现出。IBM回应,“这一功能意味著,不同于在GPU正处于PCI-E界面上的x86系统上,数据库应用程序、高性能分析应用程序和高性能计算出来应用于程序运行需要在要小得多的数据集上运营。

”另外,Tesla P100的半精度浮点运算性能超过了每秒21万亿次 —— 比放入现代PCI-E插槽的GPU高达约14%,这样的处置能力对训练深度神经网络的重要性不言而喻。IBM还做到了个横向对比,和老款Power S822LC服务器的Tesla K80 GPU加速器比起,新款服务器的加快能力提高了两倍多。

预计明年问世的IBM Power9不会沿袭对CPU+GPU人组的优化。为何是“CPU+GPU”?众所周知,在人工智能人工智能和深度自学等计算出来任务上,CPU早就致使重任。

因此,不少企业争相发售人工智能专用芯片概念,例如谷歌的TPU(Tensor Processing Unit);还有业内人士力挺FPGA更加合适深度自学的算法,这也是英特尔以高价并购Altera的主要原因。不过,上述两个替代CPU的方案都还未成熟,目前大多数企业使用的仍然是“CPU+GPU”的人组,或者称作异构服务器。一般来说来说,在这种异构模式下,应用程序的串行部分在CPU上运营,而GPU作为协处理器,主要负责管理计算出来任务艰巨的部分。

因为和CPU比起,GPU的优势非常明显:1.CPU主要为串行指令而优化,而GPU则是为大规模的分段运算而优化。所以,后者在大规模分段运算的速度更加慢;2.同等面积下,GPU上享有更好的运算单元(整数、浮点的乘加单元,类似运算单元等等);3.一般情况下,GPU享有更大比特率的 Memory,因此在大吞吐量的应用于中也不会有很好的性能。

4.GPU对能源的市场需求相比之下高于CPU。当然,这并不代表人工智能服务器对CPU没市场需求,CPU仍然是计算出来任务不可或缺的一部分,在深度自学算法处置任务中还必须高性能的CPU来继续执行指令并且和GPU展开数据传输,同时充分发挥CPU的通用性和GPU的简单任务处置能力,才能超过最差的效果,通俗点说道就是构建CPU和GPU的协同计算出来。虽然NVIDIA和Intel等芯片商正在为GPU和CPU孰强孰很弱陷于了口水战,但实质上这些企业早已开始在异构计算上增大了研发力度,最少在近期内,CPU和GPU的融合将之后沦为人工智能领域最有效地的方案。原创文章,予以许可禁令刊登。

下文闻刊登须知。


本文关键词:雷竞技平台官网

本文来源:雷竞技平台官网-www.geekmantra.com

搜索