CN115953651B - 一种基于跨域设备的模型训练方法、装置、设备及介质 - Google Patents
一种基于跨域设备的模型训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115953651B CN115953651B CN202310232993.4A CN202310232993A CN115953651B CN 115953651 B CN115953651 B CN 115953651B CN 202310232993 A CN202310232993 A CN 202310232993A CN 115953651 B CN115953651 B CN 115953651B
- Authority
- CN
- China
- Prior art keywords
- information matrix
- matrix
- model
- current
- fisher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请公开了一种基于跨域设备的模型训练方法、装置、设备及介质,涉及深度学习领域。该方法中,当属性信息与预测属性信息之间的差值时大于第一阈值,更新模型并使用更新后的模型再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,完成对模型的训练。在模型训练过程中,将第一费歇耳信息矩阵拆分为第二费歇耳矩阵,求解各第二费歇耳矩阵的逆矩阵,并进行迭代;在相邻两次迭代的改变量小于第二阈值时利用上一次迭代的第二费歇耳信息矩阵的第二逆矩阵作为当前次迭代的第二费歇耳信息矩阵的逆矩阵。可见,减小了迭代过程中的计算量以及费歇耳信息矩阵更新频率,较准确、高效地对目标对象进行识别;此外,避免了模型转存造成的资源浪费。
Description
技术领域
本申请涉及深度学习领域,特别是涉及一种基于跨域设备的模型训练方法、装置、设备及介质。
背景技术
图像识别等深度学习模型在边缘设备中的应用极为广泛,例如手机中的目标对象识别等。部署在边缘设备的深度学习模型初期训练所需算力较为庞大,单个边缘设备计算能力不足,并且单个边缘设备所拥有的训练数据不足,因此,需要联合边缘域内所有的边缘计算设备进行训练,共同更新模型参数,最终完成深度学习模型训练。
由此可见,如何基于跨域设备对人工智能模型进行训练,从而利用训练好的人工智能模型进行目标对象的识别是本领域人员亟需解决的技术问题。
发明内容
本申请的目的是提供一种基于跨域设备的模型训练方法、装置、设备及介质,用于对人工智能模型进行训练,从而使得可以利用训练好的人工智能模型对目标对象进行识别。
为解决上述技术问题,本申请提供一种基于跨域设备的人工智能模型训练方法,包括:
获取图像采集设备采集的目标对象的图像、所述目标对象对应的属性信息;
将所述目标对象的所述图像输入至当前人工智能模型中;
通过所述当前人工智能模型输出所述目标对象的预测属性信息;
通过损失函数获取所述属性信息与所述预测属性信息之间的差值;
在所述差值小于或等于第一阈值的情况下,将所述当前人工智能模型作为用于识别所述目标对象的最终模型;
在所述差值大于所述第一阈值的情况下,更新所述当前人工智能模型并获取更新后的人工智能模型;将所述更新后的人工智能模型作为所述当前人工智能模型,返回所述将所述目标对象的所述图像输入至当前人工智能模型中的步骤。
优选地,获取所述更新后的人工智能模型包括:
获取用于确定所述人工智能模型的模型参数的样本数据;其中,所述样本数据至少包括样本目标对象的图像、样本目标对象对应的属性信息、学习率以及目标优化函数;
根据所述当前人工智能模型获取当前层的第一费歇耳信息矩阵并将所述第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵;
将所述样本数据、所述第二费歇耳信息矩阵的逆矩阵进行多次迭代并获取相邻两次迭代所述第二费歇耳信息矩阵的改变量;
在所述改变量大于或等于第二阈值的情况下,获取当前次迭代的第二费歇耳信息矩阵的第一逆矩阵;根据所述第一逆矩阵获取所述模型参数以确定所述更新后的人工智能模型;
在所述改变量小于所述第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数以确定所述更新后的人工智能模型。
优选地,获取所述当前层的第一费歇耳信息矩阵包括:
获取所述当前层的梯度信息矩阵以及所述当前层的输出信息矩阵;
获取所述梯度信息矩阵和所述输出信息矩阵的张量积以作为所述第一费歇耳信息矩阵。
优选地,将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵,包括:
获取所述第二费歇耳信息矩阵的拆分块的选择维度;
获取各所述选择维度下的所述第二费歇耳信息矩阵的误差因子;
获取各所述选择维度下的硬件性能参数;
根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵;其中,所述预设大小为所述选择维度之一。
优选地,所述获取各所述选择维度下的所述第二费歇耳信息矩阵的误差因子包括:
分别获取各所述选择维度下的所述第二费歇耳信息矩阵与对应的所述第二费歇耳信息矩的转置矩阵的第一乘积,并将所述第一乘积作为第一矩阵;
对所述第一矩阵进行奇异值分解并获取所有的第一奇异值的和;
获取所述第一费歇耳信息矩阵及所述第一费歇耳信息矩阵对应的转置矩阵的第二乘积,并将所述第二乘积作为第二矩阵;
对所述第二矩阵进行奇异值分解并获取所有的第二奇异值的和;
根据所述第一奇异值和所述第二奇异值确定各所述选择维度下的所述第二费歇耳信息矩阵的所述误差因子。
优选地,在所述根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵之前,所述方法还包括:
分别获取各所述选择维度下的所述硬件性能参数与所述选择维度中最大维度下的所述硬件性能参数的比值,以作为各所述选择维度下归一化后的所述硬件性能参数;
对应地,所述根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵包括:
根据所述误差因子、归一化后的所述硬件性能参数确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵。
优选地,所述根据所述误差因子、归一化后的所述硬件性能参数确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵包括:
获取根据各所述选择维度下的所述误差因子的建立的第一曲线和根据各所述选择维度下的归一化后的所述硬件性能参数建立的第二曲线;
获取所述第一曲线与所述第二曲线的交点;
根据所述交点确定所述预设大小;
按照所述预设大小将所述第一费歇耳信息矩阵拆分为所述第二费歇耳信息矩阵。
优选地,所述根据所述交点确定所述预设大小包括:
判断所述交点与目标维度是否相同;其中,所述目标维度为所述选择维度中的一个所述维度;
若是,则将所述目标维度作为所述预设大小;
若否,则从所述选择维度中获取距离所述交点最近的所述选择维度;将最近的所述选择维度作为所述预设大小。
优选地,在所述根据所述当前人工智能模型获取当前层的第一费歇耳信息矩阵并将所述第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵之后,所述方法还包括:
判断所述预设大小是否大于第三阈值;
若是,则对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
优选地,所述对拆分后的所述第二费歇耳信息矩阵进行再次拆分包括:
根据预设的选择维度下的误差因子与硬件性能参数对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
优选地,在所述获取所述当前层的梯度信息矩阵以及所述当前层的输出信息矩阵之后,所述方法还包括:
判断所述梯度信息矩阵的块的大小和/或所述输出信息矩阵的块的大小是否大于第四阈值;
若是,则对所述梯度信息矩阵和/或所述输出信息矩阵进行再次拆分。
优选地,对所述梯度信息矩阵和/或所述输出信息矩阵进行再次拆分包括:
根据预设的选择维度下的误差因子与硬件性能参数对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
优选地,获取相邻两次迭代所述第二费歇耳信息矩阵的改变量包括:
获取所述当前层在所述当前次迭代的当前梯度信息矩阵的迹和当前输出信息矩阵的迹、所述当前次迭代的上一次迭代的初始梯度信息矩阵的迹和初始输出信息矩阵的迹;
获取所述当前次迭代的上一次迭代的初始费歇耳信息矩阵的迹;
根据所述当前梯度信息矩阵的迹、所述当前输出信息矩阵的迹、所述初始梯度信息矩阵的迹、所述初始输出信息矩阵的迹、所述初始费歇耳信息矩阵的迹确定相邻两次迭代所述费歇耳信息矩阵的所述改变量。
优选地,所述在所述改变量小于所述第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数包括:
在所述改变量小于所述第二阈值且大于第五阈值的情况下,获取所述当前次迭代的上一次迭代的第二费歇耳信息矩阵的所述第二逆矩阵以作为所述当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数;其中,所述第二逆矩阵为所述当前梯度信息矩阵的逆矩阵和所述初始输出信息矩阵的逆矩阵的张量积。
优选地,所述方法还包括:
在所述改变量小于或等于所述第五阈值且大于0情况下,在当前次迭代的后续迭代中根据所有的迭代过程中最后一次获取的所述当前梯度信息矩阵的逆矩阵、所述初始输出信息矩阵的逆矩阵更新所述模型参数。
为了解决上述技术问题,本申请还提供一种基于跨域设备的模型训练装置,包括:
第一获取模块,用于获取图像采集设备采集的目标对象的图像、所述目标对象对应的属性信息;
输入模块,用于将所述目标对象的所述图像输入至当前人工智能模型中;
输出模块,用于通过所述当前人工智能模型输出所述目标对象的预测属性信息;
第二获取模块,用于通过损失函数获取所述属性信息与所述预测属性信息之间的差值;
作为模块,用于在所述差值小于或等于第一阈值的情况下,将所述当前人工智能模型作为用于识别所述目标对象的最终模型;
更新及获取模块,用于在所述差值大于所述第一阈值的情况下,更新所述当前人工智能模型并获取更新后的人工智能模型;将所述更新后的人工智能模型作为所述当前人工智能模型,并触发所述输入模块。
为了解决上述技术问题,本申请还提供一种基于跨域设备的模型训练设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述的基于跨域设备的模型训练的方法的步骤。
为了解决上述技术问题,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于跨域设备的模型训练的方法的步骤。
本申请所提供的一种基于跨域设备的模型训练方法,包括:获取图像采集设备采集的目标对象的图像、目标对象对应的属性信息;将目标对象的图像输入至当前人工智能模型中;通过当前人工智能模型输出目标对象的预测属性信息;通过损失函数获取属性信息与预测属性信息之间的差值;在差值小于或等于第一阈值的情况下,将当前人工智能模型作为用于识别目标对象的最终模型;在差值大于第一阈值的情况下,更新当前人工智能模型并获取更新后的人工智能模型;将更新后的人工智能模型作为当前人工智能模型,返回将目标对象的图像输入至当前人工智能模型中的步骤。
通过本申请提供的方法完成了对基于跨域设备的人工智能模型的训练,从而通过训练好的人工智能模型能够较准确地对目标对象进行识别;大大减少了每次迭代的计算时间、费歇耳信息矩阵更新频率、费歇耳信息矩阵的求逆次数以及迭代过程中的计算量也大大缩减,提高了人工智能模型的训练基于跨域设备的人工智能模型训练的效率,进而提高了在使用人工智能模型时输出待识别的目标对象的属性信息的效率;此外,由于之前使用的模型训练规则为在数据中心进行完全的模型训练,人工智能模型与所使用数据都保存在数据中心,在数据中心把人工智能模型训练完成后,再部署到边缘端或者终端设备中进行使用,会导致如下缺点:在人工智能模型训练阶段,边缘端或者终端的算力没有利用,只使用了数据中心的算力设备进行训练,造成了一定的资源浪费;人工智能模型在数据中心训练好后,需要通过存储设备拷贝部署到边缘端或者终端设备中,其中数据传输所消耗的存储与时间资源,很大程度上降低了模型训练与使用的能效。而本申请中基于跨域设备进行模型训练,人工智能模型保留在边缘设备或者终端设备中进行训练,不是统一在数据中心训练,避免人工智能模型转存造成资源浪费;数据中心设备与边缘设备/终端设备进行协同训练,将云边端算力都协同调度起来,大大提高算力的利用率,避免造成资源浪费,数据中心与边缘设备/终端设备交互主要是人工智能模型训练过程中的参数,数据传输量大大小于人工智能模型整体的转存;人工智能模型训练过程所使用的训练数据大都是在边缘端或者终端采集到的,训练数据不用再转存到数据中心,可以直接留在边缘端或者终端设备中,对边缘端或者终端的人工智能模型进行训练,这样也节省了训练数据转存所消耗的资源。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种跨域训练设备的系统架构示意图;
图2为本申请实施例提供的一种基于跨域设备的模型训练方法的流程图;
图3为本申请实施例提供的一种获取更新后的人工智能模型的方法的流程图;
图4为本申请实施例提供的根据误差因子和标准化后性能数据确定矩阵拆分块的大小的示意图;
图5为本申请实施例提供的矩阵拆分示意图;
图6为本申请实施例提供的一种基于跨域设备的模型训练装置的结构图;
图7为本申请实施例提供的一种基于跨域设备的模型训练设备的结构图。
附图标记如下:1为数据中心域设备,2为边缘域设备,3为终端域设备,10为第一获取模块,11为输入模块,12为输出模块,13为第二获取模块,14为判断模块,15为作为模块,16为更新及获取模块,20为存储器,21为处理器,22为显示屏,23为输入输出接口,24为通信接口,25为电源,26为通信总线,201为计算机程序,202为操作系统,203为数据。图4中的参数R表示误差因子,参数S表示标准化后性能数据;图5中的为矩阵,将矩阵/>进行拆分后得到的矩阵/>、矩阵/>、矩阵/>、……、矩阵/>。
具体实施方式
本申请的核心是提供一种基于跨域设备的模型训练方法、装置、设备及介质,用于对人工智能模型进行训练,从而使得可以利用训练好的人工智能模型对目标对象进行识别。
人工智能落地场景日趋复杂,融合云边端设备的跨域分布式人工智能占比越来越高。业务场景碎片化以及底层计算设备多样性问题给当前基于跨域设备的人工智能模型训练带来极大挑战。跨域网络的不确定性,给模型训练带来的通信屏障,严重影响了模型训练效能。针对跨域异质设备条件下的深度学习领域提出一种模型训练策略。本训练方法是针对跨域异质设备条件下所提出的(这里面跨域指的是跨地理域,异质设备指的是包含各种不同形态的边缘设备。边缘设备具有一定的计算能力)。
图1为本申请实施例提供的一种跨域训练设备的系统架构示意图,如图1所示,该系统架构中,主要包含三部分,分别为数据中心域设备1、边缘域设备2以及终端域设备3。数据中心域设备1可以指的不同学校的数据中心、学校的数据中心和医院的数据中心、或不同医院的数据中心等;边缘域设备2可以指的是某一学校/医院等的服务器;终端域设备3可以指的是摄像头、车载图像采集设备、个人电脑、手机等设备。边缘域设备2和终端域设备3均可以进行模型拆分;终端域设备3中进行不同层深度学习模型的训练;边缘域设备2和终端域设备3可以互相进行数据传输。
图像识别、语音识别等深度学习模型在边缘设备中的应用极为广泛,例如手机中的目标对象识别,语音转文字等。部署在边缘设备的深度学习模型初期训练所需算力较为庞大,单个边缘设备计算能力不足,并且单个边缘设备所拥有的训练数据不足,因此,需要联合边缘域内所有的边缘计算设备进行训练,共同更新模型参数,最终完成深度学习模型训练。
为了使本技术领域的人员更好地理解本申请方案,下面结合附图和具体实施方式对本申请作进一步的详细说明。图2为本申请实施例提供的一种基于跨域设备的模型训练方法的流程图,如图2所示,该方法包括:
S10:获取图像采集设备采集的目标对象的图像、目标对象对应的属性信息;
S11:将目标对象的图像输入至当前人工智能模型中;
S12:通过当前人工智能模型输出目标对象的预测属性信息;
S13:通过损失函数获取属性信息与预测属性信息之间的差值;
S14:判断差值是否小于或等于第一阈值;若是,则进入步骤S15,若否,则进入步骤S16;
S15:将当前人工智能模型作为用于识别目标对象的最终模型;
S16:更新当前人工智能模型并获取更新后的人工智能模型;将更新后的人工智能模型作为当前人工智能模型,返回步骤S11。
图像采集设备可以是手机、摄像头、电脑等,获取图像采集设备采集的待识别的目标对象的图像。用来进行人工智能模型训练的对象即为目标对象,对于目标对象、目标对象对应的属性信息不作限定,根据实际情况确定,如,目标对象为花,花对应的属性信息为花1。对于图像采集设备采集待识别的目标对象的图像的频率、数量等不作限定。如将花的图像输入至当前人工智能模型中,可能输出的预测属性信息是数字,通过损失函数获取花1与数字之间的差值,将差值与第一阈值进行比较。对于第一阈值不作限定,实际中可以根据需要的模型精度来确定。但是,目前选取的第一阈值通常为0.001。差值大于第一阈值,说明通过当前人工智能模型得出的预测属性信息与属性信息的差别较大,即通过当前人工智能模型不能够对目标对象进行较准确地识别,故而需要更新当前人工智能模型,对当前人工智能模型进行再次训练,直到通过属性信息与通过当前人工智能模型输出的预测属性信息之间的差值小于或等于第一阈值,如通过当前人工智能模型识别出的预测属性信息为花1,即说明人工智能模型训练完成,并且通过该人工智能模型可以较准确地对目标对象进行识别。
本实施例所提供的一种基于跨域设备的模型训练方法,包括:获取图像采集设备采集的目标对象的图像、目标对象对应的属性信息;将目标对象的图像输入至当前人工智能模型中;通过当前人工智能模型输出目标对象的预测属性信息;通过损失函数获取属性信息与预测属性信息之间的差值;在差值小于或等于第一阈值的情况下,将当前人工智能模型作为用于识别目标对象的最终模型;在差值大于第一阈值的情况下,更新当前人工智能模型并获取更新后的人工智能模型;将更新后的人工智能模型作为当前人工智能模型,返回将目标对象的图像输入至当前人工智能模型中的步骤。可见,该方法中,获取属性信息与预测属性信息之间的差值即代表对目标对象的真实属性信息与通过当前人工智能模型预测出的目标对象的属性信息之间的差值,两者之间的差值大于第一阈值,通过更新人工智能模型使用更新后的人工智能模型对再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,说明当前人工智能模型可以用来较准确地对目标对象进行识别,即完成对基于跨域设备的人工智能模型训练,从而通过训练好的人工智能模型能够较准确地对目标对象进行识别。
目前,使用边缘设备进行协同模型训练时,面临数据传输带宽受限,优化算法计算量过大等多种问题,本申请实施例主要从以下几个方面针对现有的跨域异质设备条件下人工智能(Artificial Intelligence,AI)模型训练方案进行改进:
1、传统的跨域分布式二阶优化算法采用的是每次迭代都计算费歇耳信息矩阵的逆,由于求费歇耳信息矩阵的逆计算量较为庞大,导致该算法迭代速度较慢,针对该问题,这里提出一种减少更新频率的分布式优化训练算法;
2、二阶优化算法中求解费歇耳信息矩阵的逆计算量较大,本申请提出一种基于硬件拆分的矩阵计算策略,以此较少求解大规模费歇耳信息矩阵逆的计算量。
由于目前的基于跨域设备的人工智能模型训练效率低,因此导致在使用上述的人工智能模型识别目标对象时识别的效率下降。故而本申请对人工智能模型进行优化,以提高目标对象识别的效率。图3为本申请实施例提供的一种获取更新后的人工智能模型的方法的流程图,如图3所示,该方法包括:
S17:获取用于确定人工智能模型的模型参数的样本数据;其中,样本数据至少包括样本目标对象的图像、样本目标对象对应的属性信息、学习率以及目标优化函数;
S18:根据当前人工智能模型获取当前层的第一费歇耳信息矩阵并将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵;
S19:将样本数据、第二费歇耳信息矩阵的逆矩阵进行多次迭代并获取相邻两次迭代第二费歇耳信息矩阵的改变量;
S20:判断改变量是否大于或等于第二阈值;若是,则进入步骤S21;若否,则进入步骤S22;
S21:获取当前次迭代的第二费歇耳信息矩阵的第一逆矩阵;根据第一逆矩阵获取模型参数以确定更新后的人工智能模型;
S22:获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据第二逆矩阵获取模型参数以确定更新后的人工智能模型。
设深度学习神经网络为 ,其中/> 为深度神经网络的参数,模型训练过程为通过 大量训练数据,反复迭代计算,找到合适的参数/> ,使整个深度学习模型/> 达到某种预设 的功能。在迭代过程中,需要选择合适的优化算法,兼顾计算量与模型收敛速度。当前使用 较多的优化算法为随机梯度下降法类(Stochastic Gradient Descent,SGD)与自适应学习 率算法,这两类算法都是使用一阶梯度信息,即神经网络函数/> 在/> 处展开:
函数展开取到雅克比矩阵,算法取到一阶信息,这类算法的迭代公式为:
其中,表示当前次迭代后模型的参数,/>表示当前次迭代的下一次迭代后模型的参数,/>表示学习率,/>表示目标优化函数(目标优化函数通常又称为交叉熵损失函数)。
在梯度下降过程中,信息量较少,不能选择合适的梯度下降方向,导致需要多次的迭代才能达到收敛。二阶优化算法将神经网络函数进行高阶展开,取到Hession矩阵/>,即:
该类算法由于需要求解Hession矩阵,计算量较大,尤其是在神经网络参数较大情况下,计算量更是巨大的。但是该类算法在迭代过程中能使用较多的神经网络函数信息,能更好的调整梯度下降方向,以较快的速度收敛。
二阶分布式优化算法的原始迭代公式为:
其中矩阵为Hession矩阵(欧式空间梯度下降法)或者为费歇耳信息矩阵(自然梯度下降法)。
在每个终端设备中,获取用于确定人工智能模型的模型参数的样本数据;其中,样本数据至少包括样本目标对象的图像、样本目标对象对应的属性信息、学习率以及目标优化函数/>。
在根据样本数据获取当前层的第一费歇耳信息矩阵时,获取当前层的梯度信息矩阵以及当前层的输出信息矩阵;获取梯度信息矩阵和输出信息矩阵的张量积以作为第一费歇耳信息矩阵。
获取当前层的第一费歇耳信息矩阵的公式如下:
其中,表示为当前/>层的输入矩阵,也就是上一层/>的输出矩阵,/>表示当前层的一阶梯度矩阵。
由于第一费歇耳信息矩阵较大,若直接对第一费歇耳信息矩阵求逆,则计算量很大,因此,本实施例中将第一费歇耳信息矩阵进行拆分得到第二费歇耳信息矩阵,对于预设大小不作限定,根据实际情况确定。将求解较大的第一费歇耳信息矩阵转换为求解多个较小规模矩阵的逆,进行迭代。之前的方案中,迭代一次,则对费歇耳信息矩阵更新一次,即费歇耳信息矩阵的更新频率较大。但是实际中,在迭代过程中两次迭代第二费歇耳信息矩阵的改变量可能较小,因此,对于这种情况,本实施例中对两次迭代中的最后一次迭代时不更新费歇耳信息矩阵,故而可以使用两次中第一次迭代时的费歇耳信息矩阵,以此来减少更新费歇耳信息矩阵的频率。具体地,获取相邻两次迭代第二费歇耳信息矩阵的改变量;若改变量是否大于或等于第二阈值,则说明费歇耳信息矩阵变化明显,因此,获取当前次迭代的第二费歇耳信息矩阵的第一逆矩阵;根据第一逆矩阵获取模型参数;若改变量小于第二阈值,则说明费歇耳信息矩阵变化不明显,即可以用当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据第二逆矩阵获取模型参数。对于第二阈值不作限定,根据实际情况确定。经过多次循环迭代,直到达到收敛精度,输出训练结果,即一系列参数。对于第二阈值不作限定,实际中可以根据需要的模型精度来确定。但是,目前选取的第二阈值通常为0.005。
本实施例所提供的基于跨域设备的模型训练方法中,将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵,获取第二费歇耳信息矩阵的逆矩阵,进而进行迭代,相比于之前的求解第一费歇耳信息矩阵的逆矩阵进行迭代的方式,本申请的方法中将第一费歇耳信息矩阵拆分为较小的第二费歇耳信息矩阵,即将求解较大矩阵的逆转换为求解多个较小规模矩阵的逆,因此可以减少每次迭代的计算时间;其次,在改变量小于第二阈值的情况下,利用当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵,即减少费歇耳信息矩阵更新频率,进而减少费歇耳信息矩阵的求逆次数,迭代过程中的计算量也大大缩减,故而,提高了基于跨域设备的人工智能模型训练的效率,进而提高了在使用人工智能模型时输出待识别的目标对象的属性信息的效率。
在对第一费歇耳信息矩阵进行拆分时,优选的实施方式是,将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵:
获取第二费歇耳信息矩阵的拆分块的选择维度;
获取各选择维度下的第二费歇耳信息矩阵的误差因子;
获取各选择维度下的硬件性能参数;
根据硬件性能参数、误差因子确定将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵;其中,预设大小为选择维度之一。
在实施中,拆分块的选择维度根据人工智能模型的类型确定。如人工智能模型为ResNet模型,拆分块的选择维度的最大值为2048。
获取各选择维度下的第二费歇耳信息矩阵的误差因子包括:
分别获取各选择维度下的第二费歇耳信息矩阵与对应的第二费歇耳信息矩的转置矩阵的第一乘积,并将第一乘积作为第一矩阵;
对第一矩阵进行奇异值分解并获取所有的第一奇异值的和;
获取第一费歇耳信息矩阵及第一费歇耳信息矩阵对应的转置矩阵的第二乘积,并将第二乘积作为第二矩阵;
对第二矩阵进行奇异值分解并获取所有的第二奇异值的和;
根据第一奇异值和第二奇异值确定各选择维度下的第二费歇耳信息矩阵的误差因子。
在进行拆分块大小的确定时,首先给定矩阵拆分块选择空间,(该空间可以根据需要自由划定):
其中,m表示深度神经网络的最大网络层,表示每层网络的输入输出切分为/>个块,这/>个块之间即是独立的。
根据确定的矩阵维度,使用谱范数计算每个维度下的矩阵损失即计算损失因子,具体计算流程如下:
求解矩阵拆分块选择空间中每个矩阵块与其转置相乘所得到矩阵的奇异值:
设为矩阵拆分块选择空间的子矩阵,其转置为/>,进一步计算子矩阵与子矩阵的转置的乘积/>,/>,对矩阵进行奇异值分解:/>,计算矩阵E主对角线所有元素(所有奇异值)的和/>,/>,其中,/>,/>表示矩阵E中主对角线元素个数。
假设第一费歇耳信息矩阵即原始矩阵,计算原始矩阵/>及其转置矩阵/>的乘积/>及其所有奇异值之和:
计算矩阵主对角线所有元素(所有奇异值)的和/>:/>
根据每一个和/>计算误差因子/>:
根据的计算公式计算出每一个拆分矩阵块对应的误差因子。
在根据硬件性能参数、误差因子确定将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵之前,基于跨域设备的人工智能模型训练方法还包括:
分别获取各选择维度下的硬件性能参数与选择维度中最大维度下的性能参数的比值,以作为各选择维度下归一化后的硬件性能参数;
对应地,根据硬件性能参数、误差因子确定将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵包括:
根据误差因子、归一化后的硬件性能参数确定将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵。
硬件性能参数即硬件感知参数。根据跨域条件下,不同计算设备的计算性能,计算每个维度下的矩阵求逆时间(不同硬件的计算时间不一样,所以成为硬件感知切分),再根据的计算公式:
/>
其中,表示每个维度下标准化后性能数据,/>表示不同维度下的矩阵的性能数据,/>表示第/>个维度下的性能数据。
本实施例提供的根据硬件性能参数、误差因子确定拆分块的大小,使得能够选取较为合适的分块大小。
在上述实施例的基础上,根据误差因子、归一化后的硬件性能参数确定将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵包括:
获取根据各选择维度下的误差因子的建立的第一曲线和根据各选择维度下的归一化后的硬件性能参数建立的第二曲线;
获取第一曲线与第二曲线的交点;
根据交点确定预设大小;
按照预设大小将第一费歇耳信息矩阵拆分为第二费歇耳信息矩阵。
图4为本申请实施例提供的根据误差因子和标准化后性能数据确定矩阵拆分块的大小的示意图,如图4所示,误差因子曲线与标准化后性能数据曲线的交点为拆分块的大小。
相比于拆分成其它维度,本实施例将交点处的大小作为拆分块的大小,误差最小且硬件性能相对较高(即计算逆矩阵的速度相对较快)。
在上述实施例的基础上,第一曲线和第二曲线的交点可能并不是设定的选择维度中的任意一个,为了确定拆分块的大小,优选的实施方式是,根据交点确定预设大小包括:
判断交点与目标维度是否相同;其中,目标维度为选择维度中的一个维度;
若是,则将目标维度作为预设大小;
若否,则从选择维度中获取距离交点最近的选择维度;将最近的选择维度作为预设大小。
如图4中,两条曲线交点处,即为最佳的矩阵拆分大小处。当交点处为小数时,进行取整。例如,交点大小为510.4,则取矩阵拆分大小为512。
这样,在跨域分布式训练中,根据不同的终端设备,将A矩阵拆分出不同大小的子矩阵,进一步缩小了矩阵求逆的规模。图5为本申请实施例提供的矩阵拆分示意图。如图5所示,将矩阵拆分为/>、/>、/>、……、/>。
在迭代过程中,
表示由/>、/>、/>、……、/>矩阵组成的块对角矩阵,分布在主对角线上。较大规模矩阵/>的逆转换为求解/>、/>、/>、……、/>一系列小规模矩阵的逆,大大减少了计算量。
在实施中,对第一费歇耳信息矩阵进行拆分后得到第二费歇耳信息矩阵,可能会出现第二费歇耳信息矩阵仍然较大的情况,求解逆矩阵时的计算量仍然很大,因此,优选的实施方式是,在根据当前人工智能模型获取当前层的第一费歇耳信息矩阵并将第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵之后,基于跨域设备的人工智能模型训练方法还包括:
判断预设大小是否大于第三阈值;
若是,则对拆分后的第二费歇耳信息矩阵进行再次拆分。
第三阈值通常根据选取的人工智能模型确定。以上述的人工智能模型为ResNet模型为例,第三阈值最大为2048。对拆分后的第二费歇耳信息矩阵进行再次拆分包括:根据预设的选择维度下的误差因子与硬件性能参数对拆分后的第二费歇耳信息矩阵进行再次拆分。需要说明的是,对第二费歇耳信息矩阵进行再次拆分的方式与对第一费歇耳信息矩阵的拆分方式相同,上文已对第一费歇耳信息矩阵的拆分的实施例进行了详细地描述,因此,此处对于第二费歇耳信息矩阵拆分的实施例不再赘述。
本实施例提供的方法中,在第二费歇耳信息矩阵较大时继续对第二费歇耳信息矩阵进行拆分,使得能够进一步地减少求逆矩阵时的计算量。
在实施中,为了进一步地减少求解逆矩阵时的计算量,优选的实施方式是,在获取当前层的梯度信息矩阵以及当前层的输出信息矩阵之后,基于跨域设备的人工智能模型训练方法还包括:
判断梯度信息矩阵的块的大小和/或输出信息矩阵的块的大小是否大于第四阈值;
若是,则对梯度信息矩阵和/或输出信息矩阵进行再次拆分。
对于第四阈值不作限定,通常根据选取的人工智能模型的类型确定,以上述的人工智能模型为ResNet模型为例,第四阈值为1024。对梯度信息矩阵和/或输出信息矩阵进行再次拆分包括:根据预设的选择维度下的误差因子与硬件性能参数对拆分后的第二费歇耳信息矩阵进行再次拆分。需要说明的是,对梯度信息矩阵和/或输出信息矩阵进行再次拆分的方式与对第一费歇耳信息矩阵的拆分方式相同,上文已对第一费歇耳信息矩阵的拆分的实施例进行了详细地描述,因此,此处对于梯度信息矩阵和/或输出信息矩阵进行再次拆分的方式的实施例不再赘述。
本实施例提供的对梯度信息矩阵和/或输出信息矩阵进行再次拆分,使得能够进一步减少求取逆矩阵时的计算量。
本实施例中根据相邻次迭代的改变量以确定是否需要更新费歇耳信息矩阵,进而减少费歇耳信息矩阵的更新频率。在实施中,获取相邻两次迭代第二费歇耳信息矩阵的改变量包括:
获取当前层在当前次迭代的当前梯度信息矩阵的迹和当前输出信息矩阵的迹、当前次迭代的上一次迭代的初始梯度信息矩阵的迹和初始输出信息矩阵的迹;
获取当前次迭代的上一次迭代的初始费歇耳信息矩阵的迹;
根据当前梯度信息矩阵的迹、当前输出信息矩阵的迹、初始梯度信息矩阵的迹、初始输出信息矩阵的迹、初始费歇耳信息矩阵的迹确定相邻两次迭代第二费歇耳信息矩阵的改变量。
终端设备中所获取训练数据,学习率/>,目标优化函数/>,初始化相关参数:时间步长/>;
在每一个终端设备中,做如下循环:
1、;/>
2、将原始迭代公式转换成如下形式:
其中,为当前/>的一阶梯度矩阵的逆,/>为当前/>层的输入的逆,也就是上一层/>的输出。
3、根据每个终端内的数据集,求解每一层的梯度信息:,求解当前层的输出信息/>。
4、求解矩阵的迹/>与矩阵/>的迹/>:
其中,、/>、……、/>分别为矩阵/>对角线上的元素;/>、/>、……、/>分别为矩阵/>的对角线上的元素。
5、求解费歇耳信息矩阵F与费歇耳信息矩阵的迹:
其中, 、/> 、……、/>分别表示费歇耳信息矩阵F的对角线上的元素。
6、求解是否更新判别式:
其中,为第/>次迭代费歇耳信息矩阵值。/>为两次迭代之间的相对误差,显示的是两次迭代费歇耳信息矩阵的改变大小。
7、在计算,/>的过程中,由于矩阵A、G是根据深度神经网络层大小拆分出来的,在较大神经网络层时,矩阵A的值也较大,求解其逆过程也耗费较多计算量,所以将矩阵A、矩阵G进行拆分的计算策略,提高计算效率。
在实施中,为了减小计算量,优选的实施方式是,在改变量小于第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据第二逆矩阵获取模型参数包括:
在改变量小于第二阈值且大于第五阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据第二逆矩阵获取模型参数;其中,第二逆矩阵为当前梯度信息矩阵的逆矩阵和初始输出信息矩阵的逆矩阵的张量积。
基于跨域设备的人工智能模型训练方法,还包括:
在改变量小于或等于第五阈值且大于0情况下,在当前次迭代的后续迭代中根据所有的迭代过程中最后一次获取的当前梯度信息矩阵的逆矩阵、初始输出信息矩阵的逆矩阵更新模型参数。需要说明的是,第二阈值一般选取0.005,故而,第五阈值为0至0.005中的任意一个值。
在上述实施例的基础上,还包括如下步骤:
8、判定是否更新费歇耳信息矩阵,设定值,/>,/>,制定如下规则:
1)时,进一步计算/>,/>,更新公式:
2)时,不计算/>,/>,沿用上一次迭代过程中/>,/>的计算值,更新公式:
3)时,后续迭代不再判断/>的值,一直沿用最后一次计算出的/>,的值。
本实施例提供的更新费歇耳信息矩阵的方法,使得能够减少对费歇耳信息矩阵更新的频率。
在上述实施例中,对于基于跨域设备的人工智能模型训练方法进行了详细描述,本申请还提供基于跨域设备的人工智能模型训练装置对应的实施例。需要说明的是,本申请从两个角度对装置部分的实施例进行描述,一种是基于功能模块的角度,另一种是基于硬件的角度。
图6为本申请实施例提供的一种基于跨域设备的模型训练装置的结构图。本实施例基于功能模块的角度,包括:
第一获取模块10,用于获取图像采集设备采集的目标对象的图像、目标对象对应的属性信息;
输入模块11,用于将目标对象的图像输入至当前人工智能模型中;
输出模块12,用于通过当前人工智能模型输出目标对象的预测属性信息;
第二获取模块13,用于通过损失函数获取属性信息与预测属性信息之间的差值;
判断模块14,用于判断差值是否小于或等于第一阈值,若是,则触发作为模块15,若否,则触发更新及获取模块16;
作为模块15,用于将当前人工智能模型作为用于识别目标对象的最终模型;
更新及获取模块16,用于更新当前人工智能模型并获取更新后的人工智能模型;将更新后的人工智能模型作为当前人工智能模型,并触发输入模块11。
由于装置部分的实施例与方法部分的实施例相互对应,因此装置部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本实施例所提供的一种基于跨域设备的模型训练装置,该装置中,获取属性信息与预测属性信息之间的差值即代表对目标对象的真实属性信息与通过当前人工智能模型预测出的目标对象的属性信息之间的差值,两者之间的差值大于第一阈值,通过更新人工智能模型使用更新后的人工智能模型对再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,说明当前人工智能模型可以用来较准确地对目标对象进行识别,即完成对基于跨域设备的人工智能模型训练,从而通过训练好的人工智能模型能够较准确地对目标对象进行识别。
图7为本申请实施例提供的一种基于跨域设备的模型训练设备的结构图。本实施例基于硬件角度,如图7所示,基于跨域设备的模型训练设备包括:
存储器20,用于存储计算机程序;
处理器21,用于执行计算机程序时实现如上述实施例中所提到的基于跨域设备的模型训练的方法的步骤。
本实施例提供的基于跨域设备的模型训练设备可以包括但不限于智能手机、平板电脑、笔记本电脑或台式电脑等。
其中,处理器21可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用数字信号处理器(Digital Signal Processor,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(CentralProcessing Unit,CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以集成有图形处理器(Graphics Processing Unit,GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括人工智能(Artificial Intelligence,AI)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器20可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器20还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。本实施例中,存储器20至少用于存储以下计算机程序201,其中,该计算机程序被处理器21加载并执行之后,能够实现前述任一实施例公开的基于跨域设备的模型训练方法的相关步骤。另外,存储器20所存储的资源还可以包括操作系统202和数据203等,存储方式可以是短暂存储或者永久存储。其中,操作系统202可以包括Windows、Unix、Linux等。数据203可以包括但不限于上述所提到的基于跨域设备的模型训练方法所涉及到的数据等。
在一些实施例中,基于跨域设备的模型训练设备还可包括有显示屏22、输入输出接口23、通信接口24、电源25以及通信总线26。
本领域技术人员可以理解,图7中示出的结构并不构成对基于跨域设备的模型训练设备的限定,可以包括比图示更多或更少的组件。
本申请实施例提供的基于跨域设备的模型训练设备,包括存储器和处理器,处理器在执行存储器存储的程序时,能够实现如下方法:基于跨域设备的模型训练方法,效果同上。
最后,本申请还提供一种计算机可读存储介质对应的实施例。计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述方法实施例中记载的步骤。
Claims (16)
1.一种基于跨域设备的模型训练方法,其特征在于,应用于各所述跨域设备中,其中,所述跨域设备包括边缘域设备、终端域设备,各所述跨域设备之间不进行数据交互,包括:
获取图像采集设备采集的目标对象的图像、所述目标对象对应的属性信息;
将所述目标对象的所述图像输入至当前人工智能模型中;
通过所述当前人工智能模型输出所述目标对象的预测属性信息;
通过损失函数获取所述属性信息与所述预测属性信息之间的差值;
在所述差值小于或等于第一阈值的情况下,将所述当前人工智能模型作为用于识别所述目标对象的最终模型;
在所述差值大于所述第一阈值的情况下,更新所述当前人工智能模型并获取更新后的人工智能模型;将所述更新后的人工智能模型作为所述当前人工智能模型,返回所述将所述目标对象的所述图像输入至当前人工智能模型中的步骤,以实现在各所述跨域设备中均完成对所述模型的训练;
获取所述更新后的人工智能模型包括:
获取用于确定所述人工智能模型的模型参数的样本数据;其中,所述样本数据至少包括样本目标对象的图像、样本目标对象对应的属性信息、学习率以及目标优化函数;
根据所述当前人工智能模型获取当前层的第一费歇耳信息矩阵并将所述第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵;其中,所述预设大小根据所述第二费歇耳信息矩阵的误差因子以及所述跨域设备的硬件性能参数确定的;所述误差因子根据所述第一费歇耳信息矩阵与所述第一费歇耳信息矩阵的转置矩阵的乘积得到的矩阵的奇异值的和、所述第二费歇耳信息矩阵与所述第二费歇耳信息矩阵的转置矩阵的乘积得到的矩阵的奇异值的和确定;所述当前人工智能模型为深度学习模型时,所述当前层为所述深度学习模型中任意一层;
将所述样本数据、所述第二费歇耳信息矩阵的逆矩阵进行多次迭代并获取相邻两次迭代所述第二费歇耳信息矩阵的改变量;
根据所述改变量确定更新或不更新所述第二费歇耳信息矩阵的逆矩阵;
根据更新或不更新的所述第二费歇耳信息矩阵的逆矩阵获取所述模型参数以确定所述更新后的人工智能模型;
其中,获取相邻两次迭代所述第二费歇耳信息矩阵的改变量包括:
获取所述当前层在所述当前次迭代的当前梯度信息矩阵的迹和当前输出信息矩阵的迹、所述当前次迭代的上一次迭代的初始梯度信息矩阵的迹和初始输出信息矩阵的迹;
获取所述当前次迭代的上一次迭代的初始费歇耳信息矩阵的迹;
根据所述当前梯度信息矩阵的迹、所述当前输出信息矩阵的迹、所述初始梯度信息矩阵的迹、所述初始输出信息矩阵的迹、所述初始费歇耳信息矩阵的迹确定相邻两次迭代所述费歇耳信息矩阵的所述改变量;
所述根据所述改变量确定更新或不更新所述第二费歇耳信息矩阵的逆矩阵;根据更新或不更新的所述第二费歇耳信息矩阵的逆矩阵获取所述模型参数以确定所述更新后的人工智能模型包括:
在所述改变量大于或等于第二阈值的情况下,获取当前次迭代的第二费歇耳信息矩阵的第一逆矩阵;根据所述第一逆矩阵获取所述模型参数以确定所述更新后的人工智能模型;
在所述改变量小于所述第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数以确定所述更新后的人工智能模型。
2.根据权利要求1所述的基于跨域设备的模型训练方法,其特征在于,获取所述当前层的第一费歇耳信息矩阵包括:
获取所述当前层的梯度信息矩阵以及所述当前层的输出信息矩阵;
获取所述梯度信息矩阵和所述输出信息矩阵的张量积以作为所述第一费歇耳信息矩阵。
3.根据权利要求2所述的基于跨域设备的模型训练方法,其特征在于,将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵,包括:
获取所述第二费歇耳信息矩阵的拆分块的选择维度;
获取各所述选择维度下的所述第二费歇耳信息矩阵的误差因子;
获取各所述选择维度下的硬件性能参数;
根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵;其中,所述预设大小为所述选择维度之一。
4.根据权利要求3所述的基于跨域设备的模型训练方法,其特征在于,所述获取各所述选择维度下的所述第二费歇耳信息矩阵的误差因子包括:
分别获取各所述选择维度下的所述第二费歇耳信息矩阵与对应的所述第二费歇耳信息矩的转置矩阵的第一乘积,并将所述第一乘积作为第一矩阵;
对所述第一矩阵进行奇异值分解并获取所有的第一奇异值的和;
获取所述第一费歇耳信息矩阵及所述第一费歇耳信息矩阵对应的转置矩阵的第二乘积,并将所述第二乘积作为第二矩阵;
对所述第二矩阵进行奇异值分解并获取所有的第二奇异值的和;
根据所述第一奇异值和所述第二奇异值确定各所述选择维度下的所述第二费歇耳信息矩阵的所述误差因子。
5.根据权利要求3所述的基于跨域设备的模型训练方法,其特征在于,在所述根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵之前,所述方法还包括:
分别获取各所述选择维度下的所述硬件性能参数与所述选择维度中最大维度下的所述硬件性能参数的比值,以作为各所述选择维度下归一化后的所述硬件性能参数;
对应地,所述根据所述硬件性能参数、所述误差因子确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵包括:
根据所述误差因子、归一化后的所述硬件性能参数确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵。
6.根据权利要求5所述的基于跨域设备的模型训练方法,其特征在于,所述根据所述误差因子、归一化后的所述硬件性能参数确定将所述第一费歇耳信息矩阵拆分为所述预设大小的所述第二费歇耳信息矩阵包括:
获取根据各所述选择维度下的所述误差因子的建立的第一曲线和根据各所述选择维度下的归一化后的所述硬件性能参数建立的第二曲线;
获取所述第一曲线与所述第二曲线的交点;
根据所述交点确定所述预设大小;
按照所述预设大小将所述第一费歇耳信息矩阵拆分为所述第二费歇耳信息矩阵。
7.根据权利要求6所述的基于跨域设备的模型训练方法,其特征在于,所述根据所述交点确定所述预设大小包括:
判断所述交点与目标维度是否相同;其中,所述目标维度为所述选择维度中的一个所述维度;
若是,则将所述目标维度作为所述预设大小;
若否,则从所述选择维度中获取距离所述交点最近的所述选择维度;将最近的所述选择维度作为所述预设大小。
8.根据权利要求1所述的基于跨域设备的模型训练方法,其特征在于,在所述根据所述当前人工智能模型获取当前层的第一费歇耳信息矩阵并将所述第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵之后,所述方法还包括:
判断所述预设大小是否大于第三阈值;
若是,则对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
9.根据权利要求8所述的基于跨域设备的模型训练方法,其特征在于,所述对拆分后的所述第二费歇耳信息矩阵进行再次拆分包括:
根据预设的选择维度下的误差因子与硬件性能参数对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
10.根据权利要求2所述的基于跨域设备的模型训练方法,其特征在于,在所述获取所述当前层的梯度信息矩阵以及所述当前层的输出信息矩阵之后,所述方法还包括:
判断所述梯度信息矩阵的块的大小和/或所述输出信息矩阵的块的大小是否大于第四阈值;
若是,则对所述梯度信息矩阵和/或所述输出信息矩阵进行再次拆分。
11.根据权利要求10所述的基于跨域设备的模型训练方法,其特征在于,对所述梯度信息矩阵和/或所述输出信息矩阵进行再次拆分包括:
根据预设的选择维度下的误差因子与硬件性能参数对拆分后的所述第二费歇耳信息矩阵进行再次拆分。
12.根据权利要求1所述的基于跨域设备的模型训练方法,其特征在于,所述在所述改变量小于所述第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数包括:
在所述改变量小于所述第二阈值且大于第五阈值的情况下,获取所述当前次迭代的上一次迭代的第二费歇耳信息矩阵的所述第二逆矩阵以作为所述当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数;其中,所述第二逆矩阵为所述当前梯度信息矩阵的逆矩阵和所述初始输出信息矩阵的逆矩阵的张量积。
13.根据权利要求12所述的基于跨域设备的模型训练方法,其特征在于,所述方法还包括:
在所述改变量小于或等于所述第五阈值且大于0情况下,在当前次迭代的后续迭代中根据所有的迭代过程中最后一次获取的所述当前梯度信息矩阵的逆矩阵、所述初始输出信息矩阵的逆矩阵更新所述模型参数。
14.一种基于跨域设备的模型训练装置,其特征在于,应用于各所述跨域设备中,其中,所述跨域设备包括边缘域设备、终端域设备,各所述跨域设备之间不进行数据交互,包括:
第一获取模块,用于获取图像采集设备采集的目标对象的图像、所述目标对象对应的属性信息;
输入模块,用于将所述目标对象的所述图像输入至当前人工智能模型中;
输出模块,用于通过所述当前人工智能模型输出所述目标对象的预测属性信息;
第二获取模块,用于通过损失函数获取所述属性信息与所述预测属性信息之间的差值;
作为模块,用于在所述差值小于或等于第一阈值的情况下,将所述当前人工智能模型作为用于识别所述目标对象的最终模型;
更新及获取模块,用于在所述差值大于所述第一阈值的情况下,更新所述当前人工智能模型并获取更新后的人工智能模型;将所述更新后的人工智能模型作为所述当前人工智能模型,并触发所述输入模块,以实现在各所述跨域设备中均完成对所述模型的训练;
获取所述更新后的人工智能模型包括:
获取用于确定所述人工智能模型的模型参数的样本数据;其中,所述样本数据至少包括样本目标对象的图像、样本目标对象对应的属性信息、学习率以及目标优化函数;
根据所述当前人工智能模型获取当前层的第一费歇耳信息矩阵并将所述第一费歇耳信息矩阵拆分为预设大小的第二费歇耳信息矩阵;其中,所述预设大小根据所述第二费歇耳信息矩阵的误差因子以及所述跨域设备的硬件性能参数确定的;所述误差因子根据所述第一费歇耳信息矩阵与所述第一费歇耳信息矩阵的转置矩阵的乘积得到的矩阵的奇异值的和、所述第二费歇耳信息矩阵与所述第二费歇耳信息矩阵的转置矩阵的乘积得到的矩阵的奇异值的和确定;所述当前人工智能模型为深度学习模型时,所述当前层为所述深度学习模型中任意一层;
将所述样本数据、所述第二费歇耳信息矩阵的逆矩阵进行多次迭代并获取相邻两次迭代所述第二费歇耳信息矩阵的改变量;
根据所述改变量确定更新或不更新所述第二费歇耳信息矩阵的逆矩阵;
根据更新或不更新的所述第二费歇耳信息矩阵的逆矩阵获取所述模型参数以确定所述更新后的人工智能模型;
其中,获取相邻两次迭代所述第二费歇耳信息矩阵的改变量包括:
获取所述当前层在所述当前次迭代的当前梯度信息矩阵的迹和当前输出信息矩阵的迹、所述当前次迭代的上一次迭代的初始梯度信息矩阵的迹和初始输出信息矩阵的迹;
获取所述当前次迭代的上一次迭代的初始费歇耳信息矩阵的迹;
根据所述当前梯度信息矩阵的迹、所述当前输出信息矩阵的迹、所述初始梯度信息矩阵的迹、所述初始输出信息矩阵的迹、所述初始费歇耳信息矩阵的迹确定相邻两次迭代所述费歇耳信息矩阵的所述改变量;
所述根据所述改变量确定更新或不更新所述第二费歇耳信息矩阵的逆矩阵;根据更新或不更新的所述第二费歇耳信息矩阵的逆矩阵获取所述模型参数以确定所述更新后的人工智能模型包括:
在所述改变量大于或等于第二阈值的情况下,获取当前次迭代的第二费歇耳信息矩阵的第一逆矩阵;根据所述第一逆矩阵获取所述模型参数以确定所述更新后的人工智能模型;
在所述改变量小于所述第二阈值的情况下,获取当前次迭代的上一次迭代的第二费歇耳信息矩阵的第二逆矩阵以作为当前次迭代的第二费歇耳信息矩阵的逆矩阵;根据所述第二逆矩阵获取所述模型参数以确定所述更新后的人工智能模型。
15.一种基于跨域设备的模型训练设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至13任一项所述的基于跨域设备的模型训练方法的步骤。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至13任一项所述的基于跨域设备的模型训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310232993.4A CN115953651B (zh) | 2023-03-13 | 2023-03-13 | 一种基于跨域设备的模型训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310232993.4A CN115953651B (zh) | 2023-03-13 | 2023-03-13 | 一种基于跨域设备的模型训练方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115953651A CN115953651A (zh) | 2023-04-11 |
CN115953651B true CN115953651B (zh) | 2023-09-12 |
Family
ID=87282840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310232993.4A Active CN115953651B (zh) | 2023-03-13 | 2023-03-13 | 一种基于跨域设备的模型训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115953651B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117687801B (zh) * | 2024-02-02 | 2024-05-10 | 浪潮电子信息产业股份有限公司 | 一种跨域分布式计算系统、方法、存储介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126515A (zh) * | 2020-03-30 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 基于人工智能的模型训练方法和相关装置 |
CN113011587A (zh) * | 2021-03-24 | 2021-06-22 | 支付宝(杭州)信息技术有限公司 | 一种隐私保护的模型训练方法和系统 |
CN113723603A (zh) * | 2020-05-26 | 2021-11-30 | 华为技术有限公司 | 一种更新参数的方法、装置及存储介质 |
CN113743571A (zh) * | 2020-05-30 | 2021-12-03 | 华为技术有限公司 | 数据处理的方法、电子设备和存储介质 |
CN114282258A (zh) * | 2021-10-28 | 2022-04-05 | 平安银行股份有限公司 | 截屏数据脱敏方法、装置、计算机设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0428191D0 (en) * | 2004-12-23 | 2005-01-26 | Cambridge Display Tech Ltd | Digital signal processing methods and apparatus |
US11323514B2 (en) * | 2019-04-30 | 2022-05-03 | EMC IP Holding Company LLC | Data tiering for edge computers, hubs and central systems |
-
2023
- 2023-03-13 CN CN202310232993.4A patent/CN115953651B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126515A (zh) * | 2020-03-30 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 基于人工智能的模型训练方法和相关装置 |
CN113723603A (zh) * | 2020-05-26 | 2021-11-30 | 华为技术有限公司 | 一种更新参数的方法、装置及存储介质 |
CN113743571A (zh) * | 2020-05-30 | 2021-12-03 | 华为技术有限公司 | 数据处理的方法、电子设备和存储介质 |
CN113011587A (zh) * | 2021-03-24 | 2021-06-22 | 支付宝(杭州)信息技术有限公司 | 一种隐私保护的模型训练方法和系统 |
CN114282258A (zh) * | 2021-10-28 | 2022-04-05 | 平安银行股份有限公司 | 截屏数据脱敏方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
THOR, Trace-Based Hardware-Driven Layer-Oriented Natural Gradient Descent Computation;Mengyun Chen;《The Thirty-Fifth AAAI Conference on Artificial Intelligence (AAAI-21)》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115953651A (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020199693A1 (zh) | 一种大姿态下的人脸识别方法、装置及设备 | |
US11307864B2 (en) | Data processing apparatus and method | |
US11307865B2 (en) | Data processing apparatus and method | |
WO2020233130A1 (zh) | 一种深度神经网络压缩方法及相关设备 | |
CN111488985B (zh) | 深度神经网络模型压缩训练方法、装置、设备、介质 | |
CN110659725B (zh) | 神经网络模型的压缩与加速方法、数据处理方法及装置 | |
CN105512723A (zh) | 一种用于稀疏连接的人工神经网络计算装置和方法 | |
WO2018107383A1 (zh) | 神经网络的卷积运算方法、装置及计算机可读存储介质 | |
JP2022172362A (ja) | 画像処理方法、顔認識モデルトのレーニング方法、装置及び機器 | |
CN115953651B (zh) | 一种基于跨域设备的模型训练方法、装置、设备及介质 | |
CN112163601A (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
WO2022111002A1 (zh) | 用于训练神经网络的方法、设备和计算机可读存储介质 | |
WO2023020613A1 (zh) | 一种模型蒸馏方法及相关设备 | |
CN113241064A (zh) | 语音识别、模型训练方法、装置、电子设备和存储介质 | |
JPWO2019220755A1 (ja) | 情報処理装置および情報処理方法 | |
CN112052884A (zh) | 一种基于局部边缘特征增强的点云分类方法及系统 | |
CN113409307A (zh) | 基于异质噪声特性的图像去噪方法、设备及介质 | |
CN116976461A (zh) | 联邦学习方法、装置、设备及介质 | |
JP7352609B2 (ja) | ニューラルネットワーク加速器のデータ処理方法、装置、機器及び記憶媒体 | |
WO2023019996A1 (zh) | 图像特征的融合方法、装置、电子设备和存储介质 | |
CN114445692B (zh) | 图像识别模型构建方法、装置、计算机设备及存储介质 | |
CN114758130B (zh) | 图像处理及模型训练方法、装置、设备和存储介质 | |
CN116502721A (zh) | 基于量子系统的信息处理方法及装置、电子设备和介质 | |
CN115906987A (zh) | 深度学习模型的训练方法、虚拟形象驱动方法和装置 | |
WO2019127926A1 (zh) | 一种稀疏神经网络的计算方法及计算装置、电子装置、计算机可读存储介质以及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |