百度与英特尔合作开发Nervana神经网络处理器

  在本周于北京举行的百度创新大会上,英特尔公司副总裁Naveen Rao宣布,百度正在与英特尔合作开发后者的Nervana神经网络训练处理器,也称为NNP-T 1000(以前的NNP-L 1000)。这两家公司将结合各自的专长,开发能够快速高效训练AI模型的高速加速器硬件。

  英特尔将代号为“Spring Crest”的16nm NNP-T描述为“新型”人工智能模型硬件,旨在“大规模加速分布式培训”。“它针对图像识别进行了优化,其架构与其他芯片不同,因为它缺乏标准的缓存层次结构,芯片上的内存由软件直接管理。英特尔声称,NNP- t的24个计算集群、32GB的HBM2栈和本地SRAM使其能够提供最多10倍于竞争显卡的人工智能训练性能,以及该公司首款NNP芯片Lake Crest 3-4倍的性能。

  此外,NNP-T由于其高速的片内和片外互连,能够将神经网络参数分布到多个芯片上,从而实现很高的并行度。此外,它还使用了一种新的数字格式——BFloat16,这种格式可以增强对推断任务至关重要的标量计算,使NNP-T能够适应大型机器学习模型,同时保持“行业领先”的电源效率。

  NNP-T预计将在今年晚些时候与10nm Nervana神经网络推断处理器(NNP-I)一起上市。NNP-I是一种人工智能推理芯片,基于英特尔冰湖架构,封装了通用处理器核心。

  Rao说:“未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。”“英特尔和百度正专注于他们长达十年的合作,建立全新的硬件,与支持软件协同设计,这将随着新的现实而发展——我们称之为‘AI 2.0’。”

  这不是英特尔和百度第一次合作开发针对人工智能应用的解决方案。自2016年以来,英特尔一直在为其Xeon可伸缩处理器优化百度的paddleblade深度学习框架(NNP-T将支持该框架),两家公司正在合作开发MesaTEE,这是一个基于英特尔软件保护扩展(SGX)技术的内存安全功能即服务(FaaS)计算框架。

  最近,百度和英特尔揭开了BIE-AI-Box的神秘面纱。BIE-AI-Box是为分析驾驶舱摄像机捕捉到的帧而定制的硬件套件。为此,它结合了BIE专门为此设计的技术,并与摄像头连接,用于道路识别、车身监控、驾驶员行为识别等任务。

  英特尔的未来是人工智能。它的书暗示了同样的含义。这家位于圣克拉拉的公司的人工智能芯片部门去年实现了10亿美元的收入,英特尔预计,到2022年,市场机会将从2017年的25亿美元每年增长30%,达到100亿美元。从这个角度来看,以数据为中心的营收目前占所有部门所有业务的一半左右,而五年前这一比例仅为三分之一左右。

  至于百度,它期待着超过4000亿美元的云计算市场的增长。该公司最近与英伟达(Nvidia)合作,将该芯片制造商的Volta图形平台引入百度云,并于2018年7月推出了两款用于人工智能工作负载的新芯片:用于机器学习模型培训的昆仑818-300和用于推理的昆仑818-100。