随着近年来科技的发展,人工智能也越来越备受关注,2012年,在著名的ImageNet图像识别大赛中,杰弗里辛顿领导的小组采用深度学习模型AlexNet一举夺冠。深度学习技术正式进入人们的视野,人们也认为人工智能时代到来了;2020年的今天,AI人工智能正在逐步从尖端技术慢慢变得普及。
 
AI人工智能要想变的更智能就需要不断的进行学习训练,即使人工智能本身已经具备模型算法,训练师们仍然需要对成千上万条新语料不断进行梳理、分析、处理,机器学习让人工智能的“智商”跟上高密度的、复杂的询问场景。
 
而深度学习其实就是一个反复调整模型参数的过程,得力于GPU等硬件性能的提升,使得复杂的深度学习训练成为了可能。收敛速度过慢,训练时间过长,一方面使得相同总训练时间内的迭代次数变少,从而影响准确率,另一方面使得训练次数变少,从而减少了尝试不同超参数的机会。因此,加快收敛速度是一大痛点。
 
如今,有两种可能的深度学习技术部署:云端和边缘设备
 
由于对处理能力和内存消耗的广泛需求以及AI模型的规模,这些部署中的大多数依赖于云。尽管云部署使AI可以从高性能计算系统的功能中受益,但挑战依然存在。需要将数据从设备来回发送到云以进行处理会引起隐私问题,并且由于延迟,带宽和连接性而存在限制。
 
这促使业界专注于边缘AI的开发,这是我在上一篇文章中谈到的主题。这些工作主要围绕引入用于训练AI模型的新方法进行,这些方法可以减少占用空间,因此可以将这些模型直接部署在边缘设备上。
 
边缘AI将通过使智能设备实时做出真正自主的决策来解决深度云的不足,从而促进深度学习。具体而言,这将消除了将所有数据连续发送到云或从云连续发送的需要,从而改善了隐私,带宽和延迟限制。此外,新兴的边缘AI部署方法极大地提高了速度,功耗和内存消耗,从而可以降低成本并限制对环境的影响。

dawei

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注