[摘要] 原标题:行动AI晶片市场爆红!ARM:未来AI将可以跑在所有装置上 “未来AI将可以跑在所有类型的装置上”ARM副总裁暨客户事业部总经理Nandan△Nayampally如此说道。针对爆红AI晶片市场,他
原标题:行动AI晶片市场爆红!ARM:未来AI将可以跑在所有装置上
“未来AI将可以跑在所有类型的装置上”ARM副总裁暨客户事业部总经理Nandan△Nayampally如此说道。针对爆红AI晶片市场,他近日来台时也揭露ARM未来的AI产品战略。Nandan△Nayampally表示,现在不只是行动装置的处理器...
“未来AI将可以跑在所有类型的装置上”ARM副总裁暨客户事业部总经理Nandan△Nayampally如此说道。针对爆红AI晶片市场,他近日来台时也揭露ARM未来的AI产品战略。
Nandan△Nayampally表示,现在不只是行动装置的处理器有这样的能力,就算是非常小的微控制器(MCU),都已具备了基本的AI执行处理能力,如ARM△Cortex-M0、Arm△Cortex-M3系列等,现在已经可以在上面跑影像或语音方面的机器学习模型。
随着越来越多主打AI功能或特色的行动处理器推出,他观察到,开始有越来越多结合CPU与GPU功能的AP应用处理器,被运用在处理不同类型用途的AI运算工作上,比如物体侦测、语音分辨,或人脸识别等。不只这些应用处理器采用ARM架构,市面上许多具备AI功能的智慧装置,也都有采用ARM架构,例如智慧语音装置、智慧相机,或是智慧电视机等等,即便是在云端上,他说,现在它的架构也有被使用在中国、日本的超级电脑上来做不同应用。
Nandan△Nayampally强调,以后AI在行动装置上将会越来越普及,“几乎在所有装置上都能够执行。”至于能够在上面跑什么类型的AI应用,他表示,将取决于装置的硬件。他进一步说明,机器学习(ML)和AI都是软件,跑在硬件上,如果是简单的AI应用,不需要经过太多运算,单以CPU或GPU就足以应付;如果需要经过高度复杂的运算处理时,则须搭配神经网络加速器(Neural△Network△Accelerator),来加速运算,以做为更进阶的AI应用。
Nandan△Nayampally表示,未来公司也将持续强化CPU、GPU在机器学习或AI的处理能力,不仅在设计架构上,将加入了更多指令集、功能或工具,提供机器学习、甚至深度学习更强大的支援,还会通过软件来优化排程,以发挥出更高的使用效率,他举例说,最近刚推出的Cortex-A76 CPU架构,在机器学习任务的执行上,就比前代A75能获得4倍的效能提升,另外在Mali-G76 GPU方面,也比G72足足高出3倍效能表现。
不只是晶片开发设计要结合AI,ARM今年也开始聚焦神经网络加速器,它以Project△Trillium全新架构推出 ML△processor(MLP)与 OD△processor(ODP)两款全新IP系列,这是ARM今年初发表的全新人工智能(AI)晶片家族。
前者用于机器学习加速,每个处理器的浮点运算效能高达4.6Teraflops,而且也更省电,功耗上,每瓦可达到3Teraflops浮点运算效能。后者则是用于电脑视觉运算加速,与传统的DSP数位讯号专用晶片相比,效能提升多达80倍,并且能处理高达每秒60幀画面的Full△HD高画质视频。
Nandan△Nayampally也非常看好物体侦测(Object△Detection)在AR、VR领域的应用发展,甚至他说,公司2年前买下Apical这家以嵌入式电脑视觉和影像应用为主的技术公司,帮助它加快切入AR、VR应用市场,除了现有支援Vision的ARM产品以外,之后针对物体侦测也将会出下一代Vision解决方案。
橙山网(Csnd.net)简评:针对爆红AI晶片市场,他近日来台时也揭露ARM未来的AI产品战略。Nandan△Nayampally表示,现在不只是行动装置的处理器...“未来AI将可以跑在所有类型的装置上”ARM副总裁暨客户事业部
网友评论