CN110991512A - 物体识别模型的联合训练方法、服务器及电器设备 - Google Patents

物体识别模型的联合训练方法、服务器及电器设备 Download PDF

Info

Publication number
CN110991512A
CN110991512A CN201911176849.3A CN201911176849A CN110991512A CN 110991512 A CN110991512 A CN 110991512A CN 201911176849 A CN201911176849 A CN 201911176849A CN 110991512 A CN110991512 A CN 110991512A
Authority
CN
China
Prior art keywords
model
object recognition
characteristic parameters
electrical equipment
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911176849.3A
Other languages
English (en)
Other versions
CN110991512B (zh
Inventor
吴博文
朱林楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Midea Group Co Ltd
Guangdong Midea White Goods Technology Innovation Center Co Ltd
Original Assignee
Midea Group Co Ltd
Guangdong Midea White Goods Technology Innovation Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Midea Group Co Ltd, Guangdong Midea White Goods Technology Innovation Center Co Ltd filed Critical Midea Group Co Ltd
Priority to CN201911176849.3A priority Critical patent/CN110991512B/zh
Publication of CN110991512A publication Critical patent/CN110991512A/zh
Application granted granted Critical
Publication of CN110991512B publication Critical patent/CN110991512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

本申请公开了一种物体识别模型的联合训练方法、服务器及电器设备,该方法包括:中心服务器至少接收分别来自两个电器设备的两组特征参数,特征参数是电器设备利用本地样本数据对电器设备上的物体识别初始模型进行训练时得到的;联合至少两组特征参数计算得到融合损失;响应于融合损失收敛,向各所述电器设备发送更新模型通知,以使各所述电器设备利用提取最终特征参数时所对应的模型参数更新所述物体识别初始模型,得到更新后的物体识别模型;所述最终特征参数是所述融合损失收敛时所对应的每组所述特征参数。通过上述方式,本申请能够提高模型训练的效率、保护样本数据的隐私和安全。

Description

物体识别模型的联合训练方法、服务器及电器设备
技术领域
本申请涉及智能家居技术领域,特别是涉及物体识别模型的联合训练方法、服务器及电器设备。
背景技术
随着无线网络技术的发展,智能家居领域的迅速崛起,使我们的生活更加舒适、便利和安全。物联网是在计算机互联网的基础上,利用射频自动识别技术、无线数据通信技术等构造一个覆盖世界万物的网络。智能家居控制系统具有网络远程控制、遥控器控制、触摸开关控制、自动报警等功能,使得物联网的应用更加生活化,为每个家庭带来了极大的便利。智能家居作为物联网产业中的重要一环,其巨大的市场潜力已逐渐显现出来,并得到了越来越多的关注度。
现有的家用电器物体识别系统一般是将离线训练好的模型嵌入到相应的产品中。因此,为了得到好的物体识别效果,需要对每种电器基于各自的场景训练出相应的模型,耗费了大量的人力和物力。此外,各个场景所能得到的数据也是非常有限的,从而给模型嵌入到产品的工作带来了极大的困难。
发明内容
本申请主要解决的技术问题是提供一种物体识别模型的联合训练方法、服务器及电器设备,能够提高模型训练的效率、保护样本数据的隐私和安全。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种物体识别模型的联合训练方法,该方法包括:中心服务器至少接收分别来自两个电器设备的两组特征参数,特征参数是电器设备利用本地样本数据对电器设备上的物体识别初始模型进行训练时得到的;联合至少两组特征参数计算得到融合损失;响应于融合损失收敛,向各电器设备发送更新模型通知,以使各电器设备利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型;最终特征参数是融合损失收敛时所对应的每组特征参数。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种物体识别模型的联合训练方法,该方法包括电器设备利用本地样本数据对电器设备上的物体识别初始模型进行训练,得到特征参数;将特征参数加密后发送给中心服务器,以使中心服务器联合至少两组特征参数计算得到融合损失,直至融合损失收敛;接收来自中心服务器的更新模型通知,利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型,最终特征参数是融合损失收敛时所对应的每组特征参数。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种服务器,该服务器包括处理器,处理器用于执行指令以实现上述任一项所述的物体识别模型的联合训练方法。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种电器设备,该电器设备包括处理器,处理器用于执行指令以实现上述任一项所述的物体识别模型的联合训练方法。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种存储介质,存储有指令,该指令被执行时实现上述任一项所述的物体识别模型的联合训练方法。
本申请的有益效果是:区别于现有技术的情况,本申请通过利用中心服务器来协调多个电器设备对物体识别模型进行联合训练,且在联合训练时,各电器设备只与服务器交互特征参数,并不需要共享上载样本数据,各电器设备的样本数据均保留在本地,既能够实现模型数据的共享,提高训练效率,还保护了样本数据的隐私和安全。
附图说明
图1是本申请一实施方式中物体识别模型的联合训练方法的流程示意图;
图2是本申请另一实施方式中物体识别模型的联合训练方法的流程示意图;
图3是本申请又一实施方式中物体识别模型的联合训练方法的流程示意图;
图4是本申请再一实施方式中物体识别模型的联合训练方法的流程示意图;
图5是本申请一实施方式中服务器的结构示意图;
图6是本申请一实施方式中电器设备的结构示意图;
图7为本申请一实施方式中存储介质的结构示意图。
具体实施方式
为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。
本申请提供一种物体识别模型的联合训练方法,利用大数据技术,可联合多个电器设备端和/或多种场景中的样本数据进行模型训练,能够解决单个电器设备和单个场景的数据单一性和匮乏性问题,同时还能够实现不同场景间模型的移植,提高模型训练效率,同时可降低训练成本。
请参阅图1,图1是本申请一实施方式中物体识别模型的联合训练方法的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图1所示的流程顺序为限。该实施方式中,利用中心服务器来协调各个电器设备端的联合训练,该实施例包括:
S110:中心服务器至少接收分别来自两个电器设备的两组特征参数。
其中,特征参数是电器设备利用本地样本数据对电器设备上的物体识别初始模型进行训练时得到的。每个电器设备得到一组特征参数,每组特征参数可包含一个或多个数据,服务器端以电器设备为单位区分特征参数,即有几个电器设备与中心服务器交互,服务器就会收到几组特征参数。
该实施方式中,为了保护样本数据的隐私和安全,各个电器设备不需要将其拥有的样本数据上传至服务器,而是各自在本地,利用本地的样本数据对模型进行学习训练,然后只将训练所得的特征参数上传至服务器。通过这种方式,能够将模型训练与直接访问原始训练数据的需求分离开来,使数据攻击面仅限于设备,而不是设备和云,能够显著降低隐私和安全风险。同时,各电器设备还不用公开具体的样本数据,保护了样本数据的隐私。
S120:联合至少两组特征参数计算得到融合损失,直至融合损失收敛。
其中,服务器在得到各个电器设备发送的特征参数后,可联合各个特征参数计算得到融合损失,融合损失是联合各个电器设备上的物体识别模型的损失计算得到的总损失,如可以是将各个电器设备上的物体识别模型的损失进行加权平均计算得到融合损失。若融合损失收敛,则训练结束,服务器向每个电器设备发送更新模型通知;若融合损失不收敛,则返回继续训练通知,各电器设备继续迭代训练,直至融合损失收敛。
S130:响应于融合损失收敛,向各电器设备发送更新模型通知。
其中,电器设备在接收到更新模型通知后,利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型,实现模型的联合训练。最终特征参数是融合损失收敛时所对应的每组特征参数。
该实施方式中,通过利用中心服务器来协调多个电器设备对物体识别模型进行联合训练,且在联合训练时,各电器设备只与服务器交互特征参数,并不需要共享上载样本数据,各电器设备的样本数据均保留在本地,既能够实现模型数据的共享,提高训练效率,还保护了样本数据的隐私和安全。
在一实施方式中,参与联合训练的各电器设备可以是冰箱、烤箱、微波炉、电饭锅、洗衣机等家用电器;也可以是手机、电脑、相机等电子设备。在一般的家电产品(如冰箱、烤箱、微波炉等)中,其物体识别模型往往只依赖于某一特定场景的数据而训练得到,使得最终的模型无法在不同的家电产品之间进行很好的移植;即使同一应用场景的数据也仅限于某一设备上,没能很好的关联其他同类型的产品。本申请所提供的方法可联合同一应用场景的多个电器设备进行训练,也可以联合不同应用场景的多个电器设备进行训练,以提高模型的训练效率、识别率和通用性。下面将分别以同一应用场景的多电器设备联合训练和不同应用场景的多电器设备联合训练为例对本申请的物体识别模型的联合训练方法进行说明。
请参阅图2,图2是本申请另一实施方式中物体识别模型的联合训练方法的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图2所示的流程顺序为限。该实施方式中,利用中心服务器来协调同一应用场景的多个电器设备的联合训练,该实施例包括:
S210:各电器设备嵌入物体识别初始模型。
其中,各电器设备可嵌入相同的已训练好的初始深度网络模型,该初始模型是利用目前已有训练数据训练得到的。在一实施方式中,所嵌入模型可以是轻量化卷积神经网络模型,如mobilenet-v2模型等,在此不对具体模型架构做限定,以能够实现物体识别目的的模型架构均可。
S220:建立各电器设备与中心服务器的通信连接。
其中,可以利用5G通信技术建立各电器设备与中心服务器的通信连接。5G无线网主设备普遍采用支持100MHz带宽的64T64R设备,相比4G网络,提供了超过60倍的小区峰值吞吐率能力,使5G整体网络架构也更加灵活,功能更加丰富,业务趋向多样化。5G的应用可实现增强移动宽带(eMBB)、高可靠低时延通信(uRLL)和海量物联(mMTC)等。利用5G通信技术建立通信连接,能够提高承载容量和安全性。在其他实施方式中,也可以通过4G、Wi-Fi、蓝牙等无线方式建立通信连接,或者也可利用有线方式建立通信连接。
其中,S210、S220的执行顺序仅为示意,可以调换先后顺序或者同时进行。
S230:各电器设备分别利用本地样本数据对电器设备上的物体识别初始模型进行训练,得到特征参数,并将特征参数发送至中心服务器。
其中,特征参数可以是模型输出的特征值、模型的损失值等。可设定具体训练参数,如所采用的参与训练的样本数据的数量、训练迭代次数、模型梯度函数、学习率等。
在一实施方式中,各电器设备可直接利用样本数据对已嵌入的初始模型进行训练。在另一实施方式中,各电器设备也可先从中心服务器处获取预存的第三方模型参数,第三方模型参数是服务器中预存的其他电器设备的模型参数,可以优选获取与该电器设备应用场景相同的电器设备的模型参数,如新加入设备为冰箱,可以先从服务器中获取预存的其他冰箱的模型参数。先利用第三方模型参数更新初始模型,然后再利用本地数据对更新后的模型进行训练。通过这种方式,使电器设备预先获知共享数据,特别是后续加入联合训练的电器设备,能够减少信息交互次数和训练迭代次数,提高训练效率。
在一实施方式中,为了提高特征参数在电器设备和服务端之间传输的准确性以及安全性,服务端和电器设备均可以对发送的特征参数进行加密处理,并对接收到的特征参数进行解密处理。例如,服务端在接收到多个电器设备发送的特征参数后,可以检测接收到的特征参数是否被加密,若是,则对加密的特征参数进行解密处理。在此,对加密处理和解密处理的方法不作具体限定。例如,可以采用对称加密算法或不对称加密算法对特征参数进行加密处理。进一步地,可利用同态加密、差分隐私加密或区块链加密的方式对特征参数进行加密。
S240:中心服务器联合至少两组特征参数计算得到融合损失。
在一实施方式中,特征参数为模型输出的特征值,中心服务器先分别利用每组特征参数计算得到每个子损失,子损失为电器设备上的物体识别模型的损失值,再将各子损失进行加权平均来计算得到融合损失。可为每个电器设备的子损失赋予一特定的损失权重因子,将赋予损失权重因子之后的各个子损失之和作为融合损失。其中,样本数据含量多,模型使用频率高的电器设备端的损失函数值的比重将越高。
其中,可采用fi(w)=Ι(xi,yi;w),即模型参数w在样例(xi;yi)上的预测损失。如假设有K个电器设备对数据进行划分,Pk是电器设备K上的数据点的索引集,其中nk=|Pk|,因此,可利用式1中的损失函数来计算融合损失。
Figure BDA0002290179150000071
若融合损失收敛,则停止训练过程,中心服务器向各电器设备发送更新模型通知。以使电器设备利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型;最终特征参数是融合损失收敛时所对应的每组特征参数。即将融合损失收敛时服务器和各电器设备当前的参数作为最终的模型参数。
若融合损失不收敛,则向各电器设备发送继续训练的通知,以使各电器设备继续进行迭代训练,直至融合损失收敛。继续训练通知中可包括训练指示参数(如梯度值等),以指示训练方向。
在另一实施方式中,服务器可先对各模型的输出特征值进行联合计算,得到融合特征值,然后再获取融合特征值对应的融合损失,以判断融合损失是否收敛。若融合损失收敛,则服务器通知训练结束,可利用当前模型参数更新模型。
在又一实施方式中,特征参数也可以包括电器设备自己计算获得的物体识别模型的损失值(子损失),直接将损失值发送给服务器。服务器利用各子损失计算得到融合损失,若融合损失收敛,则服务器通知结束训练,可利用当前模型参数更新模型。
在一实施方式中,若多轮迭代训练后,融合损失均不收敛,可以筛选电器设备的损失值或电器设备的类型和场景,剔除部分明显不相同的电器设备,因为这些电器设备可能不能很好的与其他电器设备共享模型。如一些电器设备都是冰箱、烤箱、微波炉等识别食物的电器,其所拥有的样本数据都是食物相关,而某电器设备是洗衣机,其所具有的样本数据都是衣服的图案和标识,特别是衣服上有抽象的食物图案,这可能会影响正常食物图案的识别,应剔除该电器设备。
S250:响应于融合损失收敛,中心服务器向各电器设备发送更新模型通知。
S260:电器设备接收更新模型通知,利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型。最终特征参数是融合损失收敛时所对应的每组特征参数。
该实施方式中,通过联合多电器设备进行模型训练,能够提高模型的识别率和稳定性。如在训练冰箱中所用物体识别模型时,由于每个家庭端冰箱中的物体的摆放各不相同,我们通过联合训练可以得到多家庭在冰箱场景中各种菜品的照片数据,使得最终得到的物体识别模型更加稳定。
请参阅图3,图3是本申请又一实施方式中物体识别模型的联合训练方法的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图3所示的流程顺序为限。该实施方式中,利用中心服务器来协调不同应用场景的多个电器设备端的联合训练,该实施例包括:
S310:各电器设备嵌入物体识别初始模型。
其中,各电器设备所嵌入的模型可以是相同的,也可以是各自根据各自的应用场景预先训练得到的。
S320:建立各电器设备与中心服务器的通信连接。
S330:各电器设备分别利用本地样本数据对电器设备上的物体识别初始模型进行训练,得到特征参数,并将特征参数发送至中心服务器。
S340:中心服务器联合至少两组特征参数计算得到融合损失。
在一实施方式中,可利用深度度量学习技术对模型的训练过程进行调控,即利用深度度量学习算法联合至少两组特征参数计算得到融合损失。通过利用深度度量学习算法,能够使得同一类别的物体提取的特征更加接近,不同类别的物体提取的特征相距较远。在其他实施方式中,也可以利用边缘计算方法对多个电器设备端的特征参数进行联合训练。
其中,在计算融合损失时,强制约束相同场景的同类物体的特征距离<不同场景之间的同类物体的特征距离<不同类物体的特征距离(包括相同场景和不同场景)。通过该方法得到的模型不仅能够识别不同类的物体,同时也考虑了对不同场景的物体识别问题。如假设有M个电器设备,每个电器设备中有D个样本数据,具体可利用式2中的损失函数来计算融合损失。
Figure BDA0002290179150000091
其中,pc和qc代表不同场景的c类的物体。
其中,
Figure BDA0002290179150000092
其中,
Figure BDA0002290179150000093
若融合损失收敛,则停止训练过程,中心服务器向各电器设备发送更新模型通知。以使电器设备利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型;最终特征参数是融合损失收敛时所对应的每组特征参数。即将融合损失收敛时服务器和各电器设备当前的参数作为最终模型的参数。
若融合损失不收敛,则向各电器设备发送继续训练的通知,以使各电器设备继续进行迭代训练,直至融合损失收敛。
S350:响应于融合损失收敛,中心服务器向各电器设备发送更新模型通知。
S360:各电器设备接收更新模型通知,利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型。最终特征参数是融合损失收敛时所对应的每组特征参数。
该实施方式中,通过联合多个场景的不同电器设备进行模型训练,不仅使各个电器设备可以利用的数据更加丰富多样,且利用深度度量学习技术使模型在做精确分类的同时能够考虑到各个场景数据的关联信息,最终得到更加稳定的模型,避免因背景差异较大而产生的误识别现象。所得模型为通用共享模型,可实现不同设备间的模型移植。
请参阅图4,图4是本申请再一实施方式中物体识别模型的联合训练方法的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图4所示的流程顺序为限。该实施方式中,各电器设备端利用本地样本数据进行模型训练,该实施例包括:
S410:利用本地样本数据对电器设备上的物体识别初始模型进行训练,得到特征参数。
S420:将特征参数加密后发送给中心服务器。
S430:接收来自中心服务器的更新模型通知,利用提取最终特征参数时所对应的模型参数更新物体识别初始模型,得到更新后的物体识别模型。最终特征参数是融合损失收敛时所对应的每组特征参数。
具体详细执行过程请参阅上述实施方式的描述,在此不再赘述。
请参阅图5,图5是本申请一实施方式中服务器的结构示意图。该实施方式中,服务器10包括处理器11。
处理器11还可以称为CPU(Central Processing Unit,中央处理单元)。处理器11可能是一种集成电路芯片,具有信号的处理能力。处理器11还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
服务器10可以进一步包括存储器和通信电路(图中未示出),用于存储处理器11运行所需的指令和数据,用于与电器设备进行通信。
处理器11用于执行指令以实现上述本申请物体识别模型的联合训练方法任一实施例及任意不冲突的组合所提供的方法。
服务器10可以是独立的一台计算机、服务器,也可以是分布式服务器、服务器集群等。
请参阅图6,图6是本申请一实施方式中电器设备的结构示意图。该实施方式中,电器设备20包括处理器21。
处理器21还可以称为CPU(Central Processing Unit,中央处理单元)。处理器21可能是一种集成电路芯片,具有信号的处理能力。处理器21还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
电器设备20可以进一步包括存储器和通信电路(图中未示出),用于存储处理器21运行所需的指令和数据,用于与电器设备进行通信。
处理器21用于执行指令以实现上述本申请物体识别模型的联合训练方法任一实施例及任意不冲突的组合所提供的方法。
电器设备20可以是冰箱、烤箱、微波炉、电饭锅、洗衣机等家用电器;也可以是手机、电脑、相机等电子设备。
请参阅图7,图7为本申请一实施方式中存储介质的结构示意图。本申请实施例的存储介质30存储有指令31,该指令被执行时实现本申请物体识别模型的联合训练方法任一实施例以及任意不冲突的组合所提供的方法。其中,该指令可以形成程序文件以软件产品的形式存储在上述存储介质中,以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (12)

1.一种物体识别模型的联合训练方法,其特征在于,包括:
中心服务器至少接收分别来自两个电器设备的两组特征参数,所述特征参数是所述电器设备利用本地样本数据对所述电器设备上的物体识别初始模型进行训练时得到的;
联合至少两组所述特征参数计算得到融合损失;
响应于所述融合损失收敛,向各所述电器设备发送更新模型通知,以使各所述电器设备利用提取最终特征参数时所对应的模型参数更新所述物体识别初始模型,得到更新后的物体识别模型;所述最终特征参数是所述融合损失收敛时所对应的每组所述特征参数。
2.根据权利要求1所述的物体识别模型的联合训练方法,其特征在于,所述联合至少两组特征参数计算得到融合损失包括:
分别利用每组所述特征参数计算得到每个子损失,所述子损失为所述电器设备上的物体识别模型的损失值;
将各个所述子损失进行加权平均得到所述融合损失。
3.根据权利要求1所述的物体识别模型的联合训练方法,其特征在于,所述电器设备至少包括第一电器设备和第二电器设备,所述第一电器设备与所述第二电器设备的应用场景不同,所述联合至少两组特征参数计算得到融合损失包括:
利用深度度量学习算法联合至少两组所述特征参数计算得到所述融合损失。
4.根据权利要求3所述的物体识别模型的联合训练方法,其特征在于,所述利用深度度量学习算法联合至少两组所述特征参数计算得到所述融合损失包括:
约束相同场景的同类物体的特征距离小于不同场景之间的同类物体的特征距离,不同场景之间的同类物体的特征距离小于不同类物体的特征距离。
5.根据权利要求1所述的物体识别模型的联合训练方法,其特征在于,所述物体识别初始模型为mobilenet-v2模型。
6.根据权利要求1所述的物体识别模型的联合训练方法,其特征在于,所述中心服务器至少接收分别来自两个电器设备的两组特征参数之前包括:
利用5G通信技术建立所述电器设备与所述中心服务器之间的通信连接。
7.一种物体识别模型的联合训练方法,其特征在于,包括:
电器设备利用本地样本数据对所述电器设备上的物体识别初始模型进行训练,得到特征参数;
将所述特征参数加密后发送给中心服务器,以使所述中心服务器联合至少两组所述特征参数计算得到融合损失,直至所述融合损失收敛;
接收来自所述中心服务器的更新模型通知,利用提取最终特征参数时所对应的模型参数更新所述物体识别初始模型,得到更新后的物体识别模型,所述最终特征参数是所述融合损失收敛时所对应的每组所述特征参数。
8.根据权利要求7所述的物体识别模型的联合训练方法,其特征在于,所述将特征参数加密后发送给中心服务器包括:
利用同态加密、差分隐私加密或区块链加密的方式对所述特征参数进行加密。
9.根据权利要求7所述的物体识别模型的联合训练方法,其特征在于,所述电器设备利用本地样本数据对所述电器设备上的物体识别初始模型进行训练之前包括:
所述电器设备从所述中心服务器处获取第三方模型参数,所述第三方模型参数是所述中心服务器预存的其他电器设备上的物体识别模型的模型参数;
利用所述第三方模型参数更新所述物体识别初始模型。
10.一种服务器,其特征在于,包括:处理器,所述处理器用于执行指令以实现如权利要求1-6中任一项所述的物体识别模型的联合训练方法。
11.一种电器设备,其特征在于,包括:处理器,所述处理器用于执行指令以实现如权利要求7-9中任一项所述的物体识别模型的联合训练方法。
12.一种存储介质,存储有指令,其特征在于,所述指令被执行时实现如权利要求1-9中任一项所述的物体识别模型的联合训练方法。
CN201911176849.3A 2019-11-26 2019-11-26 物体识别模型的联合训练方法、服务器及电器设备 Active CN110991512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911176849.3A CN110991512B (zh) 2019-11-26 2019-11-26 物体识别模型的联合训练方法、服务器及电器设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911176849.3A CN110991512B (zh) 2019-11-26 2019-11-26 物体识别模型的联合训练方法、服务器及电器设备

Publications (2)

Publication Number Publication Date
CN110991512A true CN110991512A (zh) 2020-04-10
CN110991512B CN110991512B (zh) 2023-08-04

Family

ID=70087164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911176849.3A Active CN110991512B (zh) 2019-11-26 2019-11-26 物体识别模型的联合训练方法、服务器及电器设备

Country Status (1)

Country Link
CN (1) CN110991512B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200711A (zh) * 2020-10-27 2021-01-08 支付宝(杭州)信息技术有限公司 一种水印分类模型的训练方法及系统
CN113902473A (zh) * 2021-09-29 2022-01-07 支付宝(杭州)信息技术有限公司 业务预测系统的训练方法及装置
WO2022217784A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805185A (zh) * 2018-05-29 2018-11-13 腾讯科技(深圳)有限公司 模型的训练方法、装置、存储介质及计算机设备
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805185A (zh) * 2018-05-29 2018-11-13 腾讯科技(深圳)有限公司 模型的训练方法、装置、存储介质及计算机设备
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WU BOWEN: "Scalable similari-consitent deep metric learning for face recognition" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200711A (zh) * 2020-10-27 2021-01-08 支付宝(杭州)信息技术有限公司 一种水印分类模型的训练方法及系统
WO2022217784A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质
CN113902473A (zh) * 2021-09-29 2022-01-07 支付宝(杭州)信息技术有限公司 业务预测系统的训练方法及装置

Also Published As

Publication number Publication date
CN110991512B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN110991512B (zh) 物体识别模型的联合训练方法、服务器及电器设备
US9400943B2 (en) Identifying IoT devices/objects/people using out-of-band signaling/metadata in conjunction with optical images
Jiao et al. Clustering scheme for cooperative spectrum sensing in cognitive radio networks
US20150312296A1 (en) Method and device for pushing multimedia resource and display terminal
CN104169946B (zh) 用于视觉搜索的可扩展查询
CN113095512A (zh) 联邦学习建模优化方法、设备、介质及计算机程序产品
CN108985954A (zh) 一种建立各标识的关联关系的方法以及相关设备
CN110325998A (zh) 使用机器学习对实例进行分类
CN112804697B (zh) 待联网设备配网方法、装置、电子设备和计算机可读介质
Dong et al. Secure distributed on-device learning networks with byzantine adversaries
CN103218238A (zh) 一种基于操作系统对应用程序分类的方法
CN116468132A (zh) 用户数据处理的系统、方法以及装置
CN105992198B (zh) 一种确定无线局域网安全程度的方法及装置
Aloqaily et al. Reinforcing industry 4.0 with digital twins and blockchain-assisted federated learning
CN104135759B (zh) 用于近场通信或d2d通信的二级用户动态功率控制方法
CN103888423A (zh) 信息处理方法和信息处理设备
JP6452707B2 (ja) 生成された文法の複雑さを測定することによってデバイスの既存のネットワークのホリスティックな価値を定量化するための方法および装置
CN109819522B (zh) 一种平衡能耗与用户服务质量的用户带宽资源分配方法
CN115361406A (zh) 基于物联网的智能设备厂测方法、系统、介质以及终端
Yang et al. Defending against social network sybils with interaction graph embedding
WO2024079129A1 (en) Security for ai/ml model storage and sharing
CN112152821B (zh) 定向通信方法和装置、存储介质及电子设备
WO2024100035A1 (en) Authorizing federated learning participant in 5g system (5gs)
CN110310138A (zh) 一种确定用户关系的方法及装置
EP4312164A1 (en) Apparatus and method for training a learning model in a communication network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant