yaboPP电子
消息

Tinyml:当小型物联网设备呼叫压缩机学习时

2020年5月27日经过凡妮莎撒母耳

小型物联网设备上的机器学习给设计师带来了几个挑战:功耗、延迟和准确性。

我们中的许多人都熟悉机器学习的概念,因为它涉及到神经网络。那么TinyML呢?

对TinyML的兴趣激增

TinyML指的是在最小的微处理器上使用最小的功率(通常在mW范围或更低),同时以最大化结果为目标的机器学习技术。

随着物联网设备的普及,瑞萨(Renesas)和Arm等大公司已经对tinymm产生了浓厚的兴趣——例如,Arm最近就收购了tinymm通过新机器学习和神经加工IP扩展其AI产品组合瑞萨发布了其TinyML平台,Qeexo Automl.,这不需要代码,也不需要ML的专业知识。

示例用例实现QEEXO Automl。

示例用例实现QEEXO Automl。使用的图像礼貌瑞萨

其他公司在伙伴关系中归零,这将有助于他们夸大Tinyml的效用。Eta computing和Edge Impulse最近宣布了他们的合作伙伴关系它们将结合ETA Compute的神经传感器处理器的优势,ECM3532,边缘脉冲的Tinyml平台。着眼于电池容量(这是tinymm的一个难点),该合作伙伴关系希望在数十亿低功耗物联网产品中加速机器学习的上市时间。

另一种方式可以评估Tinyml的进展是反思的Tinyml Summit该会议于今年早些时候举行。会议上的几个演讲阐述了机器学习在最小层次上的关键概念。

小峰上的倒影

2月,AAC贡献者卢克詹姆斯预测2020个Tinyml峰会的高目标,这将与过去几年一样,聚焦Tinyml的发展。峰会在线发表的演示文稿并探索了与TinyML有关的许多类别:硬件(专用集成电路),系统,算法和软件以及应用程序。

Tinyml峰会的创始人和赞助商

tinyML峰会的创始人和赞助商。图片使用的礼貌Tinyml Summit

以下是一些值得注意的演示,因为它们与设计工程师有关。

模型的压缩

会议上的两位演讲者通过讨论我们都拥有的一种设备——移动电话,让tinyML的现实成为焦点。在他们讨论“模型的压缩麻省理工学院研究员林宇军解释说,典型的机器学习设备,如手机,大约有8gb的RAM,而微控制器大约有100 KB到1 MB的RAM。因为微控制器有重量和激活约束,它们需要模型压缩。

该概念是将预先训练的大型模型缩小到较小的模型,而不会降低精度。这可以在修剪和深压缩等过程中实现。修剪解析突触突出和神经元,导致连接的十倍。深压缩需要将逐步提取与量化(每权重比特)和称为“霍夫曼编码”的技术进行修剪。

深度压缩过程示意图

深压缩过程的图。屏幕截图使用的礼貌Tinyml Summit

研究人员认为,通过结合一个被称为神经硬件架构搜索通过非专业用法进入神经网络,我们可以改善AI-Gasted硬件。三星高级理工学院长期富富(长古Choi)的VP和实验室主任进一步详细说明了深模范压缩,但他的重点是加速到传感器AI

深增强学习

另一个专家,海荷yoo,ICT赋予了Kaist工程学学校的主席教授(韩国先进的科学技术研究所)谈到了深神经网络(DNN)内深增强学习(DRL)加速器的重要性。

在他的讨论中,他指出“DNN训练的软硬件协同优化对于低功耗和高速加速器是必要的,就像它给DNN推理加速器的性能带来了显著提高一样。”

Yoo还解释说,DRL是TinyML中的一个重要因素,因为它能够在低权力、“未知环境”或难以捕获标记数据的环境中进行持续决策。

对于电池供电的设备,可以始终开启AI的DNN

另一家公司Syntiant展示了他们的一款设备theNDP100神经决策处理器(NDP),讨论更广泛的概念:在算法天才的深度学习的价值。Syntigatiant的首席技术官Stephen Bailey博士解释说公司NDP的魔力,一个始终如一的和“倾听”设备,是其深度神经网络(DNN)- 在DNN上进行讨论。

NDP100的框图

NDP100的框图。图片(修改)使用courtesy ofsyntiant.

Syntiant NDP将声学特征馈送到大DNN(无需级联或能量门控),并在具有大数据集和宽范围的增强的DNN列出DNN。除了抗噪声之外,NDP100的尺寸非常小(1.4毫米×1.8毫米),消耗小于140μW。

自从峰会以来,Syntiant也发布了NDP101它将计算能力和内存结合起来,以利用“深度学习和计算所固有的巨大并行性,而这些并行性只需要数值精度”。Syntiant表示,与cpu和dsp的存储程序架构相比,这些特性提高了100倍的效率。

更小的设备需要压缩的机器学习

在较大系统中的机器学习的硬件要求类似于小型IOT中的Tinyml。但有时,由于设备的小尺寸:精度,延迟和功耗,赌注更高。随着较小的物联网设备达到市场,工程师可能越来越多地涉及Tinyml,熟悉深度神经网络,模型压缩和深度增强学习等概念。


如果您与Tinyml一起使用,那么您努力的关键设计差异是什么(而不是在更大系统上的机器学习)?在下面的评论中分享您的经验。