首页 资讯 LOOKin 娱乐 体育 明星 时尚 游戏 旅游 生活 母婴 营销 邮箱 商业 视频 财经 健康 段子 消费 汽车 购物 科技
首页 > 汽车 > 正文
Qzone
微博
微信

微芯科技与IHWK合作加速边缘AI/ML推理 为自动驾驶打造超低功耗APU

汽车 盖世汽车    2023-09-18 09:24

盖世汽车讯 为了应对人工智能(AI)网络边缘计算及其相关推理算法的快速崛起,Intelligent Hardware Korea(IHWK)正在为神经技术设备和现场可编程神经形态设备研发神经形态计算平台。据外媒报道,微芯科技(Microchip Technology)通过子公司Silicon Storage Technology (SST)协助研发该平台,为其SuperFlash® memBrain™神经形态内存解决方案提供评估系统。该解决方案基于已得到业内验证的非易失性内存(NVM)SuperFlash技术打造,经过优化,通过模拟内存计算法为神经网络执行向量矩阵乘法(VMM)。

53134651376_7a4da5d0c8_b.jpg

微芯科技与IHWK合作(图片来源:微芯科技)

 

memBrain技术评估套件旨在让IHWK能够展示其神经形态计算平台在边缘运行推理算法的绝对功率效率。最终目标是为可生成式AI模型、自动驾驶车辆、医疗诊断、语音处理、安全/监控和商用无人机等应用打造一个超低功耗的模拟处理单元(APU)。

由于目前进行边缘推理的神经网络模型需要5000万个或更多的突触(权重),为纯数字解决方案所需的片外DRAM提供足够的带宽变得十分具有挑战性,从而让神经网络计算遇到了瓶颈,限制了整体的计算能力。相比之下,memBrain解决方案以超低功耗亚阈值模式将突触权重存储在片上浮栅中,并采用相同的内存单元执行计算,在功耗效率和系统延迟方面都得到了显着改善。与传统的基于数字DSP和SRAM/DRAM的方法相比,该解决方案可在做出每个推理决策方面降低10至20倍的功耗,还能显着减少用料清单。

为了研发APU,IHWK还与韩国科学技术院(KAIST)合作设备研发,与延世大学(Yonsei University)合作设备协助设计。最终的APU预计将可优化系统级算法,推理和运行算力为20-80 TeraOPS/W,是为电池供电设备设计的、具有最佳性能的内存计算解决方案。

将神经模型永久存储在memBrain解决方案的处理元素中,可支持实时神经网络处理的即时功能。IHWK正在利用SuperFlash内存浮栅单元的非易失性,在低功耗边缘计算设备中实现了一个新的基准,支持采用先进机器学习(ML)模型进行机器学习推理。

【以上内容转自“盖世汽车”,不代表本网站观点。 如需转载请取得盖世汽车网许可,如有侵权请联系删除。】

 

延伸阅读:

 

责任编辑: cxr4186

责任编辑: cxr4186
人家也是有底线的啦~
广告
Copyright © 2018 TOM.COM Corporation, All Rights Reserved 雷霆万钧版权声明
违法信息/未成年人举报:010-85181169     举报邮箱/未成年人举报:jubao@tomonline-inc.com