加入收藏 | 设为首页 | 会员中心 | 我要投稿 玉林站长网 (https://www.0775zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

用于智能物联网设备的深度研究处理器

发布时间:2021-06-16 17:15:03 所属栏目:大数据 来源:互联网
导读:在过去的几年中,人工智能领域已进入高速增长阶段,这在很大程度上受诸如深度学习(DL)和强化学习(RL)之类的机器学习方法的推动。这些技术的组合展示了在解决各种问题方面的空前性能,这些问题从以超人的角度玩Go到像专家一样诊断癌症。 在我们以前的博客
在过去的几年中,人工智能领域已进入高速增长阶段,这在很大程度上受诸如深度学习(DL)和强化学习(RL)之类的机器学习方法的推动。这些技术的组合展示了在解决各种问题方面的空前性能,这些问题从以超人的角度玩Go到像专家一样诊断癌症。
 
在我们以前的博客中,智能物联网和雾计算趋势以及物联网中无处不在的计算机视觉的兴起,我们谈到了物联网中DL的一些有趣用例。应用将是广泛而深入的。它们将在未来几十年内刺激对新型处理器的需求。
 
深度学习工作流程概述
 
DL / RL创新正以惊人的速度发生(每年在众多与AI相关的会议上发表数千篇有关新算法的论文)。尽管预测最终的解决方案为时尚早,但硬件公司正在争相构建处理器、工具和框架。他们试图利用多年研究人员的经验来确定DL工作流程中的痛点和瓶颈(图1)。
 
 
 
图1:深度学习基础流程
 
训练DL模型的平台
 
让我们从培训平台开始。基于图形处理单元(GPU)的系统通常是训练高级DL模型的选择。Nvidia早已意识到将GPU用于通用高性能计算的优势。
 
GPU有数百个计算核心,它们支持大量的硬件线程和高吞吐量的浮点计算。 Nvidia开发了Compute Unified Device Architecture(CUDA)编程框架,使GPU友好地供科学家和机器学习专家使用。
 
CUDA工具链改善了耗时问题,为研究人员提供了一种灵活而友好的方式来实现高度复杂的算法。几年前,Nvidia恰当地发现了DL的机会,并为大多数DL运营不断开发CUDA支持。 Caffe、Torch和Tensorflow等标准框架均支持CUDA。
 
在AWS之类的云服务中,开发人员可以选择使用CPU还是GPU(更具体地说是Nvidia GPU)。平台的选择取决于神经网络的复杂性、预算和时间。基于GPU的系统通常可以比CPU减少训练时间几倍,但价格更高(图2)。
 
 
 
图2:AWS EC2 GPU实例
 
GPU / CPU的替代品
 
替代品来了。 Khronos在2009年提出了OpenCL,这是一种用于在各种硬件(例如CPU、GPU、DSP或FPGA)上进行并行计算的开放标准。它将使其他处理器(如AMD GPU)进入DL培训市场,为开发人员提供更多选择。
 
但是,它在DL库支持方面仍落后于CUDA。希望这种情况在未来几年内会有所改善。英特尔还通过收购Nervana开发了针对DL培训定制的处理器。
 
DL推理的竞争格局
 
DL推理是一个竞争激烈的市场。通常可以根据用例的要求在多个级别上部署应用:
 
云/企业:图像分类、网络安全、文本分析、NLP等。
智能网关:生物识别、语音识别、智能代理等。
边缘端点:移动设备、智能相机等。
云推理
 
在Google、Facebook、百度或阿里巴巴等互联网巨头的大力推动下,云推理市场将实现巨大的增长。例如,Google Cloud和Microsoft Azure提供了非常强大的图像分类、自然语言处理和面部识别API,开发人员可以轻松地将其集成到他们的云应用中。
 
云推理平台将需要可靠地支持数百万并发用户。扩展吞吐量的能力至关重要。此外,降低能耗是控制服务运营成本的另一个重中之重。
 
在云推理空间上,除GPU外,数据中心还使用FPGA或定制处理器来使云推理应用更具成本效益和功效。例如,Microsoft Project Brainwave使用英特尔FPGA来证明在运行诸如CNN、LSTM等的DL算法时的强大性能和灵活性。

(编辑:玉林站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读