你的位置:首页 > 市场 > 正文

ARM:未来AI将可以跑在所有设备上

发布时间:2018-06-19 来源:大半导体产业网 责任编辑:lina

【导读】「未来AI将可以跑在所有类型的设备上。 」ARM副总裁暨客户事业部总经理Nandan Nayampally如此说道。 针对爆红AI芯片市场,他近日来台时也揭露ARM未来的行动AI产品战略。

 
Nandan Nayampally表示,现在不只是行动装置的处理器有这样的能力,就算是非常小的微控制器(MCU),都已具备了基本的AI执行处理能力,如ARM Cortex-M0、Arm Cortex-M3系列等, 现在已经可以在上面跑影像或语音方面的机器学习模型。
 
随着越来越多主打AI功能或特色的行动处理器推出,他观察到,开始有越来越多结合CPU与GPU功能的AP应用处理器,被运用在处理不同类型用途的AI运算工作上,比如物体侦测、语音识别,或人脸识别等。 不只这些应用处理器采用ARM架构,市面上许多具备AI功能的智能装置,也都有采用ARM架构,例如智能语音装置、智能相机,或是智能电视机等等,即便是在云端上,他说,现在它的架构也有被使用在中国、日本的超级计算机上来做不同应用。
 
Nandan Nayampally强调,以后AI在行动装置上将会越来越普及,「几乎在所有装置上都能够执行。 」至于能够在上面跑什么类型的AI应用,他表示,将取决于装置的硬件。 他进一步说明,机器学习(ML)和AI都是软件,跑在硬件上,如果是简单的AI应用,不需要经过太多运算,单以CPU或GPU就足以应付;如果需要经过高度复杂的运算处理时,则须搭配神经网络加速器(Neural Network Accelerator),来加速运算,以做为更进阶的AI应用。
 
Nandan Nayampally表示,未来公司也将持续强化CPU、GPU在机器学习或AI的处理能力,不仅在设计架构上,将加入了更多指令集、功能或工具,提供机器学习、甚至深度学习更强大的支持,还会透过软件来优化排程, 以发挥出更高的使用效率,他举例说,最近刚推出的Cortex-A76 CPU架构,在机器学习任务的执行上,就比前代A75能获得4倍的效能提升,另外在Mali-G76 GPU方面,也比G72足足高出3倍效能表现。
 
不只是芯片开发设计要结合AI,ARM今年也开始聚焦神经网络加速器,它以Project Trillium全新架构推出 Machine Learning processor(MLP)与Object Detection processor(ODP)两款全新IP系列,这是ARM今年初发表的全新人工智能(AI)芯片家族。
 
前者用于机器学习加速,每个处理器的浮点运算效能高达4.6Teraflops,而且也更省电,功耗上,每瓦可达到3Teraflops浮点运算效能。 后者则是用于计算机视觉运算加速,与传统的DSP数字讯号专用芯片相比,效能提升多达80倍,并且能处理高达每秒60帧画面的Full HD高画质影片。
 
不仅如此,Nandan Nayampally也相当看好物体侦测(Object Detection)在AR、VR领域的应用发展,甚至他说,公司2年前买下Apical这家以嵌入式计算机视觉和影像应用为主的技术公司, 帮助它加快切入AR、VR装置市场,除了现有已支持视觉运算(Vision computing)的ARM产品以外,他说,之后也将会有下一代Vision解决方案推出。
 


推荐阅读:
医疗显示产品这一利基市场前景广阔 
AMD来势汹汹 分析师认为Intel明年将有硬战
大功率LED价格小幅下调,厂商积极布局植物照明市场
2025年中国5G用户数将占全球总数逾40%
 
特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索
 

关闭

 

关闭