yaboPP电子
新闻

英特尔、高通、谷歌和英伟达竞相开发人工智能芯片和平台

2017年8月22日通过希瑟Hamilton-Post

人工智能实验室竞相开发更大、更快、更强的处理器。

人工智能实验室竞相开发更大、更快、更强的处理器。

随着大公司推出人工智能芯片,小型初创公司紧随其后,不可否认,人工智能的未来确实已经到来。虽然这两款手机的功能略有不同,但它们都在努力提供易用性、速度和多功能性。制造商表现出了比以往任何时候都更强的适应性,并正在迅速开发新版本,以满足日益增长的需求。

在一个除了增长什么都不做的市场中,这四家公司已经做好了应对冲击的准备。

高通神经处理引擎

边缘报告称,高通的处理器约占移动市场的40%,因此他们进入人工智能游戏并不令人意外。不过,他们采取了一种略有不同的方法——利用高通的优势调整现有技术。他们开发了一个神经处理引擎,这是一个SDK,允许开发者优化应用程序,使其在Snapdragon 600和800处理器上运行不同的AI应用程序。最终,这种整合意味着更高的效率。

图片由Qualcomm

Facebook已经开始使用其SDK在移动应用中加速增强现实过滤器网站它还可以用来帮助设备的相机识别物体,检测物体以更好的拍摄构图,以及使设备上的后期处理美化成为可能。他们还承诺通过虚拟语音助手提供更多功能,并向广大市场应用的用户保证——“从医疗保健到安全,在无数的移动和嵌入式设备上,”他们写道。他们还吹嘘优越的恶意软件保护。

高通(Qualcomm)人工智能和机器学习部门负责人加里•布洛特曼(Gary Brotman)表示:“它允许你根据你希望为用户提供的电力性能配置,选择你的核心选择。”

高通的SDK与流行的AI框架工作,包括张量流,Caffe,和咖啡因2。

谷歌云TPU

谷歌的AI芯片较早地出现在AI领域,颠覆了原本相当单一的市场。谷歌并没有出售这款处理器的计划,而是通过一种新的云服务来分销这款处理器。任何人都可以通过互联网构建和操作软件,谷歌数据中心中有数百个处理器《连线》杂志

芯片,叫做TPU 2.0或云TPU它是谷歌的人工智能服务雏形的后续产品,不过它也可以用来训练神经网络,而不仅仅是像它的前身那样运行它们。开发人员需要学习一种不同的构建神经网络的方法,因为它是为Tensorflow设计的,但是他们期望——考虑到芯片的可承受性——用户会遵守。谷歌提到过,与更多公众分享研究成果的研究人员将获得免费访问权。

图片由谷歌

人工智能实验室谷歌Brain的负责人杰夫·迪恩(Jeff Dean)表示,需要这种芯片来提高训练效率。它每秒可以处理180万亿次浮点运算。几片芯片连接在一起形成了一个“豆荚”,提供11500万亿次浮点运算的计算能力,这意味着32块CPU板只需要6个小时就能在一个“豆荚”的一部分上运行,而以前需要一整天。

英特尔Movidius神经计算棒

英特尔通过Movidius神经计算棒,这是一个带有专门视觉处理单元的USB 3.0设备。它是Xeon和Xeon Phi的补充,售价仅为79美元。

虽然它针对视觉应用进行了优化,但英特尔表示,它可以处理多种DNN应用。他们写道:“Movidius神经计算棒专为产品开发者、研究人员和制造商设计,旨在通过提供专用的高性能深度神经网络处理,减少开发、调优和部署人工智能应用程序的障碍。”

图片由Movidius

这种操纵杆由VPU提供动力,就像你可能在智能安全摄像头、人工智能无人机和工业设备中看到的那样。它可以与训练好的基于Caffe框架的前馈卷积神经网络一起使用,或者用户可以选择另一个预先训练好的网络。Movidius神经计算棒支持Cnn分析、原型和调优工作流,通过一个USB Type a端口提供电源和数据,不需要云连接,并在同一平台上运行多个设备。

从树莓派到PC, Movidius神经计算棒可以与任何USB 3.0平台一起使用。

NVIDIA Tesla V100

英伟达是第一个真正认真对待人工智能的公司,但他们现在更认真了。他们的新chip-the特斯拉V100是一个数据中心图形处理器。据报道,这引起了不小的轰动导致英伟达的股价飙升宣布后的第二天,这一比例为17.8%。

图片由英伟达

该芯片在训练中与众不同,训练通常需要将数据矩阵一次相乘一个数字。相反,Volta GPU架构会同时增加行和列,从而加快AI训练过程。

有640个张量核,沃尔塔比Pascal快5倍,将训练时间从18小时减少到7.4小时,并使用下一代高速互连技术,据该网站称,“使更先进的模型和数据并行方法实现强大的伸缩性,以实现绝对最高的应用性能。”


听说管道里会有更多的人工智能芯片?请在下面的评论中告诉我们!