首页 > 资讯 > 企业新闻

Nvidia/Xilinx/Intel 谁会成为AI芯片大赢家?

字号: T | T
2017-09-20   作者:中图电子网  浏览次数: 25
[摘要]《纽约时报》9月16日报导,科技产业板块正出现剧烈变化。辉达(NVIDIACorp.)执行长黄仁勋日前在受访时表示,现在有点像是网际网络刚开始的时候。由黄学东(XuedongHuang)所领导的微软(Microsoft)语音识别研究团队利用辉达所开发的,在一年内就达到识别准确度超

    《纽约时报》9月16日报导,科技产业板块正出现剧烈变化。辉达(NVIDIACorp.)执行长黄仁勋日前在受访时表示,现在有点像是网际网络刚开始的时候。由黄学东(XuedongHuang)所领导的微软(Microsoft)语音识别研究团队利用辉达所开发的,在一年内就达到识别准确度超越普通人的境界。黄学东说,微软如果没有这项武器(基础设施),至少得花上5年的时间才能获得相同的成果。

Nvidia/Xilinx/Intel 谁会成为AI芯片大赢家?

    英特尔(IntelCorp.)在两年前斥资167亿美元购并现场可程式逻辑门阵列(FPGA)厂商Altera。报导指出,微软利用Altera的FPGA芯片协助改善Bing搜寻服务的机器学习演算法。丰田研究所(ToyotaResearchInstitute,TRI)执行长GillPratt指出,能够将运算工作分散至微小低耗能芯片的机器,就能以接近人类大脑的方式进行运作,因为效率是大脑正常运作的关键。

    机器智能开发主要分成两个阶段:

    1.透过现代机器学习技术,利用大量样本数据对演算法进行训练;

    训练环境通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据(大数据)和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间,在训练环节GPU目前暂时扮演着难以轻易替代的角色。

    2.在需要解读现实世界数据的终端应用中执行演算南风化工市场趋势分析法。第二阶段也被称为「推理」,在装置内执行推理有许多好处,包括降低延迟、功耗和避开隐私问题。

    推断(inference)环节指利用训练好的模型,使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。在推断环节,除了使用CPU或GPU进行运算外,FPGA以及AS均能发挥重大作用。

    Movidius(英特尔旗下公司)总经理RemiEl-Ouazzane曾表示,Movidius神经计算棒内建的「MovidiusMyriad2觉处理单元(VPU)」提供强大且有效率的表现,可以在1瓦的功率下提供超过每秒1,000亿次浮点运算性能、以便直接在装置上执行即时深度神经网络。他说,这使得许多AI应用都能在离线状态下部署。

    英特尔2016年9月宣布收购行动图像处理技术开发商MovidiusTechnology。Movidius与英特尔旗下现有资产的结合将使得全球龙头得以在电脑视觉、深度学习解决方案(从装置到云端)领域处于领先地位。

    英特尔并于2016年8月宣布购并一家名为NervanaSystems的人工智能新创企业。同年5月,英特尔宣布收购电脑视觉(CV)技术公司ItseezInc.。Itseez可协助客户创造出自动驾驶、数字安全与监控等创新深度学习CV应用产品。

    英国《电讯报》「TelegraphMoney」专栏8月13日列举7档自驾车、AI/机器学习、机器视觉、大数据概念主要受惠股,当中提到赛灵思(Xilinx)所生产的芯片就是负责机器学习过程中的推论部分。

    赛灵思表示,伙伴厂商利用FPGA芯片进行基因体定序与优化语音识别所需的深度学习,察觉FPGA的耗能低于GPU且处理速度较快。相较于GPU只能处理运算,FPGA能以更快速的速度一次处理所有与AI相关的资讯。


  • 打印
  • 关闭