1. 首页
  2. 科技

英特尔公布Nervana NNP

本文经超能网授权转载  ,其他人媒体转载请经超能网同意。

以前深度学习提高已作为人工智能的最重要的在那个方向  ,其实 研究中成果以前应用于日常并对中。但训练人工智能模型能够 强非常大 算力需要支持  ,其实 出几几 个并对GPU加速训练外  ,那种 厂商其实 强势推出专用于深度学习提高训练的ASIC芯片。英特尔在人工智能相关领域投入颇多  ,出几几 个FPGA其他产品线外  ,也强势推出几Nervana深度学习提高加速器  ,在是今天的Hot Chips 31会议中  ,英特尔公布了旗下Nervana NNP-T深度学习提高加速器的细节。

该款Nervana NNP-T深度学习提高加速器代号为Spring Cast  ,是目前已英特尔最该款的专用深度学习提高加速器。该款加速器被命名为NNP-T  ,向媒体其再就 用于深度学习提高图片来源来源模型训练工作时定制。渐渐地经济深度学习提高模型愈发非常大  ,其实 专等等采用三训练加速器也其实 流行愈发  ,如NVIDIA也强势推出几Tesla T4 GPU。

确定到加速器核心上  ,据了解英特尔反常的并对了台积电16nm CLN16FF+工艺  ,而显然Nervana在收购前就并对是有台积电28nm工艺制造其第二代的Lake Cast芯片。显然并对是有台积电的工艺  ,但都所用了那种 台积电的最新各种技术。芯片采用三了4个8GB HBM2-2400内存  ,每针脚2.4GB/s的传输速率 ,都能够 安装在是个非常大 的1200平方毫米的硅基板上。另外 另外 计算核心与HBM内存并对台积电最和新CoWoS晶圆级封装各种技术并对互联。没能得其实 是个60 x 60mm ,极具 3325 pin的BGA封装。

在展示中称据了解因此HBM2与核心是无源封装  ,其实 为2.5D封装各种技术。而HBM2因此是4Hi,其实 总的来看为3D封装。显然英特尔自家出几几 个EMIB嵌入式多芯片互联桥接那种桥接各种技术。四个HBM2堆栈共有64条SerDes通道  ,每种通道需要支持28GB/s的传输速率。

确定的核心规模上  ,Nervana NNP-T的计算核心拥有完整270亿晶体管  ,另外 24个Tensor Processors(TPC)。出几几 个TPC外  ,芯片裸片中出几几 个60MB的SRAM出几几 个那种 专等等采用三接口  ,如IPMI、I2C及16条PCI-E 4.0通道。

芯片的工作时频率为1.1GHz  ,风冷基本条件下功率配置为150W到250W ,可并对水冷能够 更强非常大 性能总的来看表现。另外 另外 Nervana NNP-T加速器还拥有完整OCP卡及PCI-E两种规格  ,以供数据数据中心一选则。

Nervana NNP-T加速器充分多种途径内存模块和互联图片来源来源因此计算核心得以充分并对。计算核心需要支持bFloat16矩阵乘法、FP32、BF16出几几 个另外 再就 操作中。另外 另外 在并对上英特尔以前并对开源的nGraph库将深度学习提高框架连接到硬件后端的编译器。以前英特尔仍在与常见的Paddle Paddle、Pytorch及TensorFlow深度学习提高框架并对合作多。

因此采用三了可扩展架构集OCP及PCI-E规格  ,其实 而对数据数据中心一等场景能够 方便地并对扩展。架构需要支持扩展到1024个节点  ,每种节点拥有完整8个NNP-T计算核心。

英特尔向媒体他们的将在下半年年底向新客户公司提供 NNP-T的样品  ,再就 并对出几几 个云产品服务公司提供 商  ,在2020年其实 面向更好消费用户。



本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.juchuangbao.com/keji/481.html