存算一体(Computing-in-memory)技术有望消除在网络边缘进行人工智能(AI)语音处理产生的大量数据通信瓶颈,但需要一种可同时进行神经网络计算和存储权重的嵌入式内存解决方案。今日,Microchip Technology Inc.(美国微芯科技公司)通过旗下子公司冠捷半导体(SST)宣布,其SuperFlash memBrain神经形态存储器解决方案为知存科技(WITINMEM)神经处理SoC解决了这一难题。这是首款批量生产的SoC,可使亚毫安级系统在开机后立即实时降低语音噪音并识别数以百计的指令词。
Microchip与知存科技合作,将Microchip基于SuperFlash技术的memBrain模拟内存计算解决方案整合到知存科技的超低功耗SoC中。该SoC采用用于神经网络处理的存算一体技术,包括语音识别、声纹识别、深度语音降噪、场景检测和健康状态监测。知存科技目前正在与多个客户合作,将在2022年向市场推出基于该SoC的产品。
知存科技首席执行官王绍迪表示:“知存科技正在借助Microchip的memBrain解决方案,基于先进神经网络模型解决网络边缘的实时AI语音计算密集型挑战。我们在2019年率先开发了用于音频的存算一体芯片,现在又实现了另一个里程碑,在超低功耗神经处理SoC中批量采用了这项技术,简化并提高了智能语音和健康产品的语音处理性能。
SST半导体(SST)许可部门副总裁Mark Reiten表示:“我们很高兴知存科技成为我们的主要客户,感谢知存科技选择使用我们的技术推出这么优秀的产品,进军不断膨胀的人工智能边缘处理市场。知存科技SoC展现了使用memBrain技术创建基于存算一体神经处理器的单芯片解决方案的价值,消除了传统处理器使用数字DSP和基于SRAM/DRAM的方法来存储和执行机器学习模型存在的问题。”
Microchip的memBrain神经形态存储器产品经过优化,可为神经网络执行矢量矩阵乘法(VMM)。它使得用于电池供电和深度嵌入式边缘设备的处理器能够提供尽可能高的单位瓦特人工智能推理性能。这是通过将神经模型的权重作为数值存储在内存阵列中和将内存阵列作为神经计算元素来实现的,功耗比其他方法低10至20倍,同时由于不需要外部DRAM和NOR,处理器整体材料清单(BOM)成本也较低。
将神经模型永久存储在memBrain解决方案的处理元件中也能够支持实时神经网络处理的即时开启功能。知存科技利用SuperFlash技术的浮动栅极存储单元的非易失性,在空闲状态下关闭存算一体宏,可以进一步降低要求严苛的物联网应用的静态泄漏功耗。
如需了解更多信息,请联系info sst.com或访问SST网站。