CN114662706A - 一种模型训练方法、装置及设备 - Google Patents
一种模型训练方法、装置及设备 Download PDFInfo
- Publication number
- CN114662706A CN114662706A CN202210296231.6A CN202210296231A CN114662706A CN 114662706 A CN114662706 A CN 114662706A CN 202210296231 A CN202210296231 A CN 202210296231A CN 114662706 A CN114662706 A CN 114662706A
- Authority
- CN
- China
- Prior art keywords
- model
- target model
- noise
- target
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 182
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000012545 processing Methods 0.000 claims abstract description 53
- 238000000605 extraction Methods 0.000 claims abstract description 49
- 230000006870 function Effects 0.000 claims description 52
- 230000002265 prevention Effects 0.000 claims description 22
- 238000010276 construction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 26
- 230000007246 mechanism Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Abstract
本说明书实施例公开了一种模型训练方法、装置及设备,该方法应用于终端设备,包括:获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,以触发服务器基于该噪声样本特征对目标模型进行联邦训练。
Description
技术领域
本文件涉及计算机技术领域,尤其涉及一种模型训练方法、装置及设备。
背景技术
联邦学习已经成为解决业界隐私保护问题的标准范式,在标准端云联邦场景中,往往通过有监督的方式对某模型进行训练,上述方式在搜索、推荐、营销等具有实时显式标签的场景取得了较好的应用,然而,在某些其它场景中面临着很多挑战,无法直接应用。
例如,风险防控场景中,风险防控场景下的标签信息具有滞后性,通常,某样本数据的标签信息需要通过用户举报或投诉,然后,经过服务提供方审理定性后确定,而且,用户举报或投诉后往往要在该样本数据对应的事件发生的多天之后才能得到相应的标签信息,且该标签信息存储于服务器,终端设备中不存在样本数据的标签信息,此外,样本数据的标签信息对于服务提供方来说隐私性较强,如果将其下发到终端设备,很容易被黑产获取,黑产可以根据获取到的标签信息干预其终端设备的模型训练,从而降低端云联邦学习的模型效果。基于此,需要提供一种通过无监督方式进行联邦学习的技术方案,以使得多种场景(如风险防控场景等)下的联邦学习得以应用。
发明内容
本说明书实施例的目的是提供一种通过无监督方式进行联邦学习的技术方案,以使得多种场景(如风险防控场景等)下的联邦学习得以应用。
为了实现上述技术方案,本说明书实施例是这样实现的:
本说明书实施例提供的一种模型训练方法,应用于终端设备,所述方法包括:获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息。根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例提供的一种模型训练方法,应用于服务器,所述方法包括:接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型。基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息。将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型。接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例提供的一种模型训练装置,所述装置包括:样本获取模块,获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息。模型处理模块,根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。特征提取模块,将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。噪声模块,向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给所述装置,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例提供的一种模型训练装置,所述装置包括:特征接收模块,接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型。梯度确定模块,基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息。梯度发送模块,将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型。模型接收模块,接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例提供的一种模型训练设备,所述模型训练设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息。根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给所述设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例提供的一种模型训练设备,所述模型训练设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型。基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息。将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型。接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例还提供了一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息。根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例还提供了一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型。基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息。将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型。接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1A为本说明书一种模型训练方法实施例;
图1B为本说明书一种模型训练过程的示意图;
图2为本说明书一种模型训练系统的结构示意图;
图3A为本说明书另一种模型训练过程的示意图;
图3B为本说明书又一种模型训练过程的示意图;
图4A为本说明书另一种模型训练方法实施例;
图4B为本说明书又一种模型训练过程的示意图;
图5为本说明书又一种模型训练过程的示意图;
图6为本说明书又一种模型训练过程的示意图;
图7为本说明书一种模型训练装置实施例;
图8为本说明书另一种模型训练装置实施例;
图9为本说明书一种模型训练设备实施例。
具体实施方式
本说明书实施例提供一种模型训练方法、装置及设备。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
实施例一
如图1A和图1B所示,本说明书实施例提供一种模型训练方法,该方法的执行主体可以为终端设备,其中,该终端设备可以如手机、平板电脑等移动终端设备,还可以如笔记本电脑或台式电脑等计算机设备,或者,也可以为IoT设备(具体如智能手表、车载设备等)等。该方法具体可以包括以下步骤:
在步骤S102中,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息。
其中,目标模型可以是任意用户或功能的模型,例如用于进行风险防控的模型、用于进行生物识别的模型等,目标模型可以通过多种不同的算法构建,例如目标模型可以基于卷积神经网络算法构建,还可以基于分类算法构建等,具体可以根据实际情况设定,本说明书实施例对此不做限定。样本数据可以包括图像数据、文本数据等,可以根据目标模型的功能或作用等确定样本数据的数据类型,例如,目标模型为生物识别模型,则样本数据可以是不同用户的指纹数据、面部数据或虹膜数据等,如果目标模型为风险防控模型,则样本数据可以是某业务的业务数据,具体如某金融业务的业务数据等,在实际应用中,样本数据可以是结构换数据,也可以是非结构化数据,具体可以根据实际情况设定,本说明书实施例对此不做限定。标签信息可以是通过有监督的方式训练某模型时所需要的标签,例如,目标模型为用于进行风险防控的模型,则标签信息可以为存在风险或不存在风险等,再例如,目标模型为用于进行生物识别的模型,则标签信息可以为用户xxx(用户标识)等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,联邦学习已经成为解决业界隐私保护问题的标准范式,在标准端云联邦场景中,终端设备上同时具备样本数据的样本特征和样本数据的标签信息,在终端设备上通过有监督的方式对某模型进行训练,并不断与服务器进行通信以保证该模型能够收敛。上述方式在搜索、推荐、营销等具有实时显式标签的场景取得了较好的应用。然而,上述方式在某些其它场景(如在风险防控场景)中面临着很多挑战,无法直接应用,以风险防控场景为例,风险防控场景下的标签信息具有滞后性,通常,某样本数据的标签信息需要通过用户举报或投诉,然后,经过服务提供方审理定性后确定,而且,用户举报或投诉后往往要在该样本数据对应的事件发生的多天之后才能得到相应的标签信息,且该标签信息存储于服务器,终端设备中不存在样本数据的标签信息,此外,样本数据的标签信息对于服务提供方来说隐私性较强,如果将其下发到终端设备,很容易被黑产获取,黑产可以根据获取到的标签信息干预其终端设备的模型训练,从而降低端云联邦学习的模型效果。为此,需要在终端设备没有标签信息的前提下进行联邦学习以构建相应的模型,通过无监督学习和表征学习将终端设备中的样本数据的样本特征映射到连续低维空间中,同时,对连续低维空间中的样本特征进行隐私处理,使得模型推理阶段,以及上传到服务器的样本特征不会泄露用户的隐私信息。由于图像数据和文本数据等类型的数据之间具有语义上的共通性,在一个数据集上训练到的某模型,将该模型直接迁移到新数据集上后,该模型仍然可以具备较高的模型性能。而某些类型的数据(如结构化数据等)在不同业务之间可能没有直接的语义关联,并且不同业务的数据格式不相同,在不同的业务之间无法进行有效的迁移学习。在无监督学习中,终端设备中的模型训练过程中需要借助其它设备上的数据信息,难以仅根据自身的数据对该模型进行训练,因此,传统的有监督的联邦学习方式无法直接应用。基于此,需要提供一种通过无监督方式进行联邦学习的技术方案,以使得多种场景(如风险防控场景等)下的联邦学习得以应用。本说明书实施例提供一种可实现的技术方案,具体可以包括以下内容:
对于联邦学习,如图2所示,其系统架构可以包括用户的终端设备和服务器,其中,服务器中可以包括需要训练的模型(即目标模型),服务器可以将目标模型下发给每个用户的终端设备,用户的终端设备可以将服务器下发的目标模型作为初始模型,并可以通过终端设备中的样本数据对该初始模型进行训练,具体地,为了训练终端设备中的目标模型,需要使用相应的样本数据,该样本数据可以根据目标模型的需求而设定,在实际应用中,用户通过终端设备处理某些业务时,终端设备可以存储相关数据,当到达指定的周期或间隔一定的时长时,终端设备可以获取上述指定周期内或间隔的时长内产生的相关数据,可以将获取的上述数据作为用于训练目标模型的样本数据,其中,该样本数据中可以不包括用于训练目标模型的标签信息。
在步骤S104中,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。
其中,节点选取次数可以根据实际情况设定,具体如2次或3次等,具体可以根据实际情况设定,本说明书实施例对此不做限定。模型节点可以是目标模型在训练的过程中形成并需要使用的节点,如神经网络模型中可以包括多种不同的“神经元”,该“神经元”即可以作为模型节点,针对不同的目标模型,可以设置多种不同的模型节点,该模型节点可以是目标模型中的一个表达某种逻辑关系的节点,也可以是目标模型中构建的网络结构中的网络节点,还可以是目标模型中的一个计算节点等,具体可以根据实际情况设定,本说明书实施例对此不做限定。预设丢弃概率可以预先设定的从目标模型中丢弃模型节点的概率,具体如50%或10%等,预设丢弃概率可以由用户或技术人员根据实际情况设定,也可以随机设定预设丢弃概率等,具体可以根据实际情况设定。
在实施中,为了提升目标模型的泛化性,同时由于样本数据中不存在标签信息,因此也为了使得通过无监督学习的方式得到的目标模型达到更高的性能,可以采用Dropout机制对目标模型进行处理,其中,Dropout机制是能够提升目标模型泛化性的一种机制,具体地,在模型训练的过程中,每次按照一定的概率将一些模型节点暂时从该模型中丢弃,但在通过模型进行预测时需要保留所有的模型节点,此外,通过执行多次Dropout机制还可以使得无监督方式训练的模型达到更高的性能,因此,可以预先设定需要执行Dropout机制的次数,可以将确定的次数作为节点选取次数,此外,还需要设定预设丢弃概率,其中,任意两次执行Dropout机制的过程中,预设丢弃概率可以不同,例如,节点选取次数为2次,则第1次的预设丢弃概率可以为10%,第2次的预设丢弃概率可以为15%,节点选取次数为3次,则第1次的预设丢弃概率可以为30%,第2次的预设丢弃概率可以为45%,第3次的预设丢弃概率可以为20%等。在另一个实施例中,任意两次执行Dropout机制的过程中,预设丢弃概率可以相同,也可以不同,具体可以根据实际情况设定。以节点选取次数为2次,则第1次的预设丢弃概率可以为10%,第2次的预设丢弃概率可以为15%为例,基于此,可以在目标模型中加入多个Dropout层,通过多个Dropout层可以实现Dropout机制。终端设备执行Dropout机制,此时,可以根据预设丢弃概率10%,从目标模型中包含的模型节点中选取需要丢弃的模型节点,选取完成后,可以从目标模型中暂时丢弃选取的模型节点,并可以将剩余的模型节点构成的目标模型作为一个待训练的目标模型,然后,终端设备可以再次执行Dropout机制,此时,可以根据预设丢弃概率15%,从目标模型中包含的模型节点中选取需要丢弃的模型节点,选取完成后,可以从目标模型中暂时丢弃选取的模型节点,并可以将剩余的模型节点构成的目标模型作为另一个待训练的目标模型。
在步骤S106中,将上述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。
在实施中,目标模型中可以包括特征提取子模型,特征提取子模型可以通过特征提取算法构建,特征提取子模型可以对待处理的数据进行特征提取处理,从而得到待处理数据的数据特征,具体地,通过上述方式可以得到多个目标模型(剩余的模型节点构成的目标模型),针对其中的任意一个目标模型,可以将上述样本数据输入到该目标模型中,通过目标模型中的特征提取算法对样本数据进行特征提取处理,可以得到相应的样本特征。基于相同的处理方式,可以对下一个目标模型执行上述处理过程,得到相应的样本特征,最终,可以得到每个剩余模型节点构成的目标模型对应的样本特征。
在步骤S108中,向上述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,该噪声样本特征用于触发服务器基于预设的损失函数确定该噪声样本特征对应的损失信息,并确定该噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对目标模型进行联邦训练,得到训练后的目标模型。
其中,预设的噪声数据可以包括多种,例如高斯噪声数据、椒盐噪声数据等,具体可以根据实际情况设定,本说明书实施例对此不做限定。损失函数可以包括多种,例如基于相似度确定的损失函数(即某两个特征之间的距离最大化和/或某两个特征之间的距离最小化)等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,终端设备可以向上述得到的样本特征中分别加入预设的噪声数据,从而得到每个样本特征对应的噪声样本特征,由于在样本特征中加入了噪声数据,从而保护了样本特征中可能包含的用户隐私信息,此外,由于样本数据不包含标签信息,因此,在样本特征中加入噪声数据后,对最终训练得到的目标模型的影响有限,并且还可以增加训练得到的目标模型的鲁棒性,然后,可以将每个噪声样本特征发送给服务器。服务器可以基于预设的损失函数确定该噪声样本特征对应的损失信息,可以基于确定的损失信息确定每个噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备。终端设备可以基于该梯度信息确定相应的模型参数,并基于该模型参数更新目标模型,可以通过样本数据对目标模型进行训练,得到训练后的目标模型,可以将训练后的目标模型对应的模型参数发送给服务器,服务器可以基于终端设备发送的模型参数确定服务器中的目标模型的模型参数,可以基于确定的目标模型的模型参数更新服务器中的目标模型,可以将更新的目标模型发送给各个终端设备。
本说明书实施例提供一种模型训练方法,应用于终端设备,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例二
如图3A所示,本说明书实施例提供一种模型训练方法,该方法的执行主体可以为终端设备,其中,该终端设备可以如手机、平板电脑等一定终端设备,还可以如笔记本电脑或台式电脑等计算机设备,或者,也可以为IoT设备(具体如智能手表、车载设备等)等。该方法具体可以包括以下步骤:
在步骤S302中,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息。
其中,目标模型可以为用于进行风险防控的模型,具体可以是某业务系统的风险防控的模型,例如,可以是金融业务系统中的转账业务的风险防控的模型,或者,可以是某系统的登录业务的风险防控的模型等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,由于风险防控系统中标签信息的滞后性和标签信息的隐私性,终端设备上无法实时或异步获取到真实的标签信息,从而使得联邦学习的模型训练方式难以实现。风险防控系统中一种常用的模型训练方式为使用不包括用户隐私信息的样本数据训练目标模型,然后将其迁移到新任务中,直接部署到终端设备上提取原始数据的表征向量,之后,可以将无语义可解释性的脱敏的表征向量回传到服务器进行机器学习以建立相应的目标模型。然而,上述方式局限于图像数据和文本数据等,当样本数据为ID化数据、结构化数据、业务自定义序列数据时,无法直接应用上述通过不包括用户隐私信息的样本数据训练的目标模型。另一方面,随着模型逆向技术的发展,直接将无语义可解释性的表征向量回传到服务器时仍面临着用户隐私泄露的风险。为此,可以通过两种方式解决以上问题:即通过使用两次Dropout机制和相似度对数损失函数来实现样本数据通过无监督学习的方式建立目标模型,此外,还可以在终端设备将样本特征发往服务器之前,向样本特征加入噪声数据,从而通过差分隐私的方式保护用户隐私,具体可以参见下述相关内容。
在步骤S304中,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型。
其中,节点选取次数可以为2次,节点选取次数中不同次数对应的预设丢弃概率不同,具体如,第1次对应的预设丢弃概率为20%,第2次对应的预设丢弃概率为10%等。
在实施中,如图3B所示,通过执行2次Dropout机制可以使得无监督方式训练的模型达到更高的性能,因此,可以在目标模型的特征提取子模型中加入多个Dropout层,在对目标模型进行训练的过程中,将同样的样本数据通过两种不同的随机Dropout机制得到两个不同的样本特征,具体地,可以设定需要执行2次Dropout机制,即节点选取次数为2次,终端设备执行Dropout机制,并可以根据预设丢弃概率,从目标模型中包含的模型节点中选取需要暂时丢弃的模型节点,得到剩余的模型节点构成的目标模型,然后,终端设备可以再次执行Dropout机制,再次得到剩余的模型节点构成的目标模型。
在步骤S306中,将上述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征。
在步骤S308中,向上述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,该噪声样本特征用于触发服务器基于预设的损失函数确定该噪声样本特征对应的损失信息,并确定该噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对目标模型进行联邦训练,得到训练后的目标模型。
其中,预设的噪声数据为随机噪声的数据。
在步骤S310中,接收服务器发送的噪声样本特征对应的梯度信息。
在步骤S312中,基于上述梯度信息对目标模型进行更新,当更新次数达到预设阈值或更新后的目标模型满足预设的收敛条件时,获取更新后的目标模型。
其中,更新次数对应的预设阈值可以根据实际情况设定,具体如1000或800等。
在步骤S314中,将更新后的目标模型发送给服务器,更新后的目标模型用于触发服务器基于不同终端设备发送的更新后的目标模型确定服务器中的目标模型。
在实施中,如图3B所示,服务器接收到各个终端设备发送的更新后的目标模型后,可以对多个更新后的目标模型进行平均计算,得到平均后的目标模型,可以将得到的平均后的目标模型作为服务器中的目标模型,服务器可以将该目标模型下发给各个终端设备,以使得各个终端设备基于该目标模型进行风险防控处理。
需要说明的是,在模型训练完成后,可以将终端设备上得到的样本特征加入预设的噪声数据后发往服务器,服务器还可以进行某些业务的有监督方式的模型训练。训练完成后,将训练的模型部署于终端设备上,与前置的特征提取子模型组成一个完整的目标模型,同时去除掉加入噪声数据的网络层,在保护用户隐私的同时保证目标模型对于相同数据具有相同的业务输出。此外,上述目标模型输出往往是一个0-1之间的浮点数,即使以明文的形式传回服务器也不会泄露终端设备中的样本数据中的用户隐私信息,因此,上述处理对于用户隐私信息来说是安全的。
本说明书实施例提供一种模型训练方法,应用于终端设备,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例三
如图4A和图4B所示,本说明书实施例提供一种模型训练方法,该方法的执行主体可以为服务器,其中,该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。该方法具体可以包括以下步骤:
在步骤S402中,接收不同的终端设备发送噪声样本特征,该噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,该样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,该样本数据不包含用于训练目标模型的标签信息,剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点后得到的模型。
在步骤S404中,基于预设的损失函数确定每个噪声样本特征对应的损失信息,并基于每个噪声样本特征对应的损失信息确定每个噪声样本特征对应的梯度信息。
在实施中,可以根据样本数据的异同、样本特征的不同等因素,确定相应的损失函数。针对任一噪声样本特征,可以使用确定的损失函数计算该噪声样本特征对应的损失信息。可以基于该噪声样本特征对应的损失信息调整目标模型的模型参数,基于调整了模型参数的目标模型,可以确定相应的噪声样本特征对应的梯度信息,通过上述方式,可以计算得到每个噪声样本特征对应的梯度信息。
在步骤S406中,将上述噪声样本特征对应的梯度信息发送给相应的终端设备,该噪声样本特征对应的梯度信息用于触发相应的终端设备更新终端设备中的目标模型。
在步骤S408中,接收不同的终端设备发送的更新的目标模型,并基于更新的目标模型更新本地的目标模型。
上述步骤S402~步骤S408的具体处理过程可以参见上述相关内容,在此不再赘述。
本说明书实施例提供一种模型训练方法,应用于服务器,终端设备获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例四
如图5所示,本说明书实施例提供一种模型训练方法,该方法的执行主体可以为服务器,其中,该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。该方法具体可以包括以下步骤:
在步骤S502中,接收不同的终端设备发送噪声样本特征,该噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,该样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,该样本数据不包含用于训练目标模型的标签信息,剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点后得到的模型。
在步骤S504中,基于预设的损失函数确定每个噪声样本特征对应的损失信息,并基于每个噪声样本特征对应的损失信息确定每个噪声样本特征对应的梯度信息。
其中,预设的损失函数通过相同终端设备提供的不同噪声样本特征之间的相似度、不同的终端设备提供的噪声样本特征之间的相似度确定。在目标模型的更新中,将同样的样本数据通过两种不同的随机Dropout得到两个不同的样本特征,由于上述样本特征由相同的样本数据通过目标模型投影到低维空间,因此,两者的相似度会较高,如果两个样本特征由不同的样本数据得到,则两者的相似度会较低,基于此,预设的损失函数可以如下公式:
其中,hi,分别由相同的样本数据的样本特征得到,hi,hj分别由不同的样本数据的样本特征得到,hj,分别由另一个相同的样本数据的样本特征得到,τ表示常数,N为噪声样本特征的数量,sim为相似度,即表示hi与之间的相似度(或距离等),具体可以根据实际情况设定,本说明书实施例对此不做限定。
在步骤S506中,将上述噪声样本特征对应的梯度信息发送给相应的终端设备,该噪声样本特征对应的梯度信息用于触发相应的终端设备更新终端设备中的目标模型。
在步骤S508中,接收不同的终端设备发送的更新的目标模型。
在步骤S510中,获取不同的终端设备提供的更新的目标模型的模型参数。
在步骤S512中,确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将该模型参数的平均值作为本地的目标模型的模型参数,构建目标模型。
在步骤S514中,将构建的目标模型部署于不同的终端设备中。
上述步骤S502~步骤S514的具体处理过程可以参见上述相关内容,在此不再赘述。
本说明书实施例提供一种模型训练方法,应用于服务器,终端设备获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例五
如图6所示,本说明书实施例提供一种模型训练方法,该方法的执行主体可以为服务器,其中,该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。该方法具体可以包括以下步骤:
在步骤S602中,接收不同的终端设备发送噪声样本特征,该噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,该样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,该样本数据不包含用于训练目标模型的标签信息,剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点后得到的模型。
在步骤S604中,基于预设的损失函数确定每个噪声样本特征对应的损失信息,并基于每个噪声样本特征对应的损失信息确定每个噪声样本特征对应的梯度信息。
其中,预设的损失函数通过相同所述终端设备提供的不同噪声样本特征之间的相似度、不同的所述终端设备提供的噪声样本特征之间的相似度确定。
在步骤S606中,将上述噪声样本特征对应的梯度信息发送给相应的终端设备,该噪声样本特征对应的梯度信息用于触发相应的终端设备更新终端设备中的目标模型。
在步骤S608中,接收不同的终端设备发送的更新的目标模型。
服务器除了可以通过无监督的方式对目标模型进行训练外,还可以通过有监督的方式对目标模型进行训练,具体可以参见下述步骤S610~步骤S616的处理。
在步骤S610中,获取不同的终端设备提供的更新的目标模型的模型参数。
在步骤S612中,确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将该模型参数的平均值作为本地的目标模型的模型参数,构建目标模型。
在步骤S614中,获取用于训练构建的目标模型的目标样本数据,目标样本数据中包括用于训练目标模型的标签信息。
在步骤S616中,基于目标样本数据对构建的目标模型进行有监督的模型训练,得到训练后的目标模型。
在步骤S618中,将训练后的目标模型部署于不同的终端设备中。
针对上述步骤S602~步骤S618的处理,服务器通过多个终端设备上传的噪声样本特征,并通过相似度对数损失函数(如上公式)计算得到的相应的损失信息,并计算每个用户的终端设备的样本数据对应的梯度信息,之后将各自的梯度信息回传给终端设备,终端设备继续在本地进行后向传播计算其本地的目标模型的梯度信息并更新目标模型。同时,借鉴有监督方式的联邦学习中的模型平均算法,各个终端设备在其本地更新多次目标模型后,将目标模型发送给服务器,以获取各终端设备的平均模型作为服务器中的目标模型。
上述步骤S602~步骤S618的具体处理过程可以参见上述相关内容,在此不再赘述。
需要说明的是,在模型训练完成后,可以将终端设备上得到的样本特征加入预设的噪声数据后发往服务器,服务器还可以进行某些业务的有监督方式的模型训练。训练完成后,将训练的模型部署于终端设备上,与前置的特征提取子模型组成一个完整的目标模型,同时去除掉加入噪声数据的网络层,在保护用户隐私的同时保证目标模型对于相同数据具有相同的业务输出。此外,上述目标模型输出往往是一个0-1之间的浮点数,即使以明文的形式传回服务器也不会泄露终端设备中的样本数据中的用户隐私信息,因此,上述处理对于用户隐私信息来说是安全的。
本说明书实施例提供一种模型训练方法,应用于服务器,终端设备获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例六
以上为本说明书实施例提供的模型训练系统,基于同样的思路,本说明书实施例还提供一种模型训练装置,如图7所示。
该模型训练装置包括:样本获取模块701、模型处理模块702、特征提取模块703和噪声模块704,其中:
样本获取模块701,获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
模型处理模块702,根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
特征提取模块703,将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
噪声模块704,向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给所述装置,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例中,所述节点选取次数为2次,所述节点选取次数中不同次数对应的预设丢弃概率不同。
本说明书实施例中,所述预设的噪声数据为随机噪声的数据。
本说明书实施例中,所述装置还包括:
梯度信息接收模块,接收所述服务器发送的所述噪声样本特征对应的梯度信息;
模型更新模块,基于所述梯度信息对所述目标模型进行更新,当更新次数达到预设阈值或更新后的所述目标模型满足预设的收敛条件时,获取更新后的所述目标模型;
模型发送模块,将更新后的所述目标模型发送给所述服务器,更新后的所述目标模型用于触发所述服务器基于不同终端设备发送的更新后的目标模型确定所述服务器中的目标模型。
本说明书实施例中,所述目标模型为用于进行风险防控的模型。
本说明书实施例提供一种模型训练装置,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例七
基于同样的思路,本说明书实施例还提供一种模型训练装置,如图8所示。
该模型训练装置包括:特征接收模块801、梯度确定模块802、梯度发送模块803和模型接收模块804,其中:
特征接收模块801,接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
梯度确定模块802,基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
梯度发送模块803,将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
模型接收模块804,接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例中,所述预设的损失函数通过相同所述终端设备提供的不同噪声样本特征之间的相似度、不同的所述终端设备提供的噪声样本特征之间的相似度确定。
本说明书实施例中,所述模型接收模块804,包括:
第一参数获取单元,获取不同的终端设备提供的更新的目标模型的模型参数;
第一模型构建单元,确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
第一模型部署单元,将构建的所述目标模型部署于所述不同的终端设备中。
本说明书实施例中,所述模型接收模块804,包括:
第二参数获取单元,获取不同的终端设备提供的更新的目标模型的模型参数;
第二模型构建单元,确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
样本获取单元,获取用于训练构建的所述目标模型的目标样本数据,所述目标样本数据中包括用于训练所述目标模型的标签信息;
模型训练单元,基于所述目标样本数据对构建的所述目标模型进行有监督的模型训练,得到训练后的所述目标模型;
第二模型部署单元,将训练后的所述目标模型部署于所述不同的终端设备中。
本说明书实施例提供一种模型训练装置,终端设备获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例八
以上为本说明书实施例提供的模型训练装置,基于同样的思路,本说明书实施例还提供一种模型训练设备,如图9所示。
所述模型训练设备可以为上述实施例提供终端设备或服务器等。
模型训练设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器901和存储器902,存储器902中可以存储有一个或一个以上存储应用程序或数据。其中,存储器902可以是短暂存储或持久存储。存储在存储器902的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对模型训练设备中的一系列计算机可执行指令。更进一步地,处理器901可以设置为与存储器902通信,在模型训练设备上执行存储器902中的一系列计算机可执行指令。模型训练设备还可以包括一个或一个以上电源903,一个或一个以上有线或无线网络接口904,一个或一个以上输入输出接口905,一个或一个以上键盘906。
具体在本实施例中,模型训练设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对模型训练设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例中,所述节点选取次数为2次,所述节点选取次数中不同次数对应的预设丢弃概率不同。
本说明书实施例中,所述预设的噪声数据为随机噪声的数据。
本说明书实施例中,还包括:
接收所述服务器发送的所述噪声样本特征对应的梯度信息;
基于所述梯度信息对所述目标模型进行更新,当更新次数达到预设阈值或更新后的所述目标模型满足预设的收敛条件时,获取更新后的所述目标模型;
将更新后的所述目标模型发送给所述服务器,更新后的所述目标模型用于触发所述服务器基于不同终端设备发送的更新后的目标模型确定所述服务器中的目标模型。
本说明书实施例中,所述目标模型为用于进行风险防控的模型。
此外,具体在本实施例中,模型训练设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对模型训练设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例中,所述预设的损失函数通过相同所述终端设备提供的不同噪声样本特征之间的相似度、不同的所述终端设备提供的噪声样本特征之间的相似度确定。
本说明书实施例中,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
将构建的所述目标模型部署于所述不同的终端设备中。
本说明书实施例中,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
获取用于训练构建的所述目标模型的目标样本数据,所述目标样本数据中包括用于训练所述目标模型的标签信息;
基于所述目标样本数据对构建的所述目标模型进行有监督的模型训练,得到训练后的所述目标模型;
将训练后的所述目标模型部署于所述不同的终端设备中。
本说明书实施例提供一种模型训练设备,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
实施例九
进一步地,基于上述图1A到图6所示的方法,本说明书一个或多个实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
本说明书实施例中,所述节点选取次数为2次,所述节点选取次数中不同次数对应的预设丢弃概率不同。
本说明书实施例中,所述预设的噪声数据为随机噪声的数据。
本说明书实施例中,还包括:
接收所述服务器发送的所述噪声样本特征对应的梯度信息;
基于所述梯度信息对所述目标模型进行更新,当更新次数达到预设阈值或更新后的所述目标模型满足预设的收敛条件时,获取更新后的所述目标模型;
将更新后的所述目标模型发送给所述服务器,更新后的所述目标模型用于触发所述服务器基于不同终端设备发送的更新后的目标模型确定所述服务器中的目标模型。
本说明书实施例中,所述目标模型为用于进行风险防控的模型。
此外,在另一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
本说明书实施例中,所述预设的损失函数通过相同所述终端设备提供的不同噪声样本特征之间的相似度、不同的所述终端设备提供的噪声样本特征之间的相似度确定。
本说明书实施例中,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
将构建的所述目标模型部署于所述不同的终端设备中。
本说明书实施例中,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
获取用于训练构建的所述目标模型的目标样本数据,所述目标样本数据中包括用于训练所述目标模型的标签信息;
基于所述目标样本数据对构建的所述目标模型进行有监督的模型训练,得到训练后的所述目标模型;
将训练后的所述目标模型部署于所述不同的终端设备中。
本说明书实施例提供一种存储介质,获取用于训练目标模型的样本数据,该样本数据不包含用于训练目标模型的标签信息,然后,根据预设的节点选取次数,每次从目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型,将该样本数据输入到上述每个目标模型中进行特征提取处理,得到每个目标模型对应的样本特征,向该样本特征中分别加入预设的噪声数据,得到噪声样本特征,将该噪声样本特征发送给服务器,服务器基于该噪声样本特征对目标模型进行联邦训练,这样,通过Dropout机制每次按照一定的预设丢弃概率将一些模型节点暂时从目标模型中丢弃(但在预测时保留所有模型节点),不仅可以提升目标模型的泛化性,而且,还可以使得无监督方式得到的目标模型达到更高的性能,此外,在终端设备上的样本特征发往服务器之前,向样本特征中加入噪声数据得到噪声样本特征,从而以最大程度地保护终端设备中样本数据中的用户隐私信息,使原始数据难以被还原,由于无监督学习下样本数据不存在标签信息,因此,上述加入的噪声数据对目标模型性能的影响有限,且可增加训练得到的目标模型的鲁棒性。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的实施例是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程欺诈案例的串并设备的处理器以产生一个机器,使得通过计算机或其他可编程欺诈案例的串并设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程欺诈案例的串并设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程欺诈案例的串并设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (15)
1.一种模型训练方法,应用于终端设备,所述方法包括:
获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
2.根据权利要求1所述的方法,所述节点选取次数为2次,所述节点选取次数中不同次数对应的预设丢弃概率不同。
3.根据权利要求1所述的方法,所述预设的噪声数据为随机噪声的数据。
4.根据权利要求1-3中任一项所述的方法,所述方法还包括:
接收所述服务器发送的所述噪声样本特征对应的梯度信息;
基于所述梯度信息对所述目标模型进行更新,当更新次数达到预设阈值或更新后的所述目标模型满足预设的收敛条件时,获取更新后的所述目标模型;
将更新后的所述目标模型发送给所述服务器,更新后的所述目标模型用于触发所述服务器基于不同终端设备发送的更新后的目标模型确定所述服务器中的目标模型。
5.根据权利要求4所述的方法,所述目标模型为用于进行风险防控的模型。
6.一种模型训练方法,应用于服务器,所述方法包括:
接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
7.根据权利要求6所述的方法,所述预设的损失函数通过相同所述终端设备提供的不同噪声样本特征之间的相似度、不同的所述终端设备提供的噪声样本特征之间的相似度确定。
8.根据权利要求6所述的方法,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
将构建的所述目标模型部署于所述不同的终端设备中。
9.根据权利要求6所述的方法,所述基于更新的所述目标模型更新本地的所述目标模型,包括:
获取不同的终端设备提供的更新的目标模型的模型参数;
确定不同的终端设备提供的更新的目标模型的模型参数对应的平均值,将所述模型参数的平均值作为本地的所述目标模型的模型参数,构建所述目标模型;
获取用于训练构建的所述目标模型的目标样本数据,所述目标样本数据中包括用于训练所述目标模型的标签信息;
基于所述目标样本数据对构建的所述目标模型进行有监督的模型训练,得到训练后的所述目标模型;
将训练后的所述目标模型部署于所述不同的终端设备中。
10.一种模型训练装置,所述装置包括:
样本获取模块,获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
模型处理模块,根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
特征提取模块,将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
噪声模块,向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给所述装置,以对所述目标模型进行联邦训练,得到训练后的目标模型。
11.一种模型训练装置,应用于终端设备,所述装置包括:
特征接收模块,接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
梯度确定模块,基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
梯度发送模块,将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
模型接收模块,接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
12.一种模型训练设备,所述模型训练设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给所述设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
13.一种模型训练设备,所述模型训练设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
14.一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:
获取用于训练目标模型的样本数据,所述样本数据不包含用于训练所述目标模型的标签信息;
根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点,得到剩余模型节点构成的目标模型;
将所述样本数据输入到每个剩余模型节点构成的目标模型中进行特征提取处理,得到每个剩余模型节点构成的目标模型对应的样本特征;
向所述样本特征中分别加入预设的噪声数据,得到噪声样本特征,将所述噪声样本特征发送给服务器,所述噪声样本特征用于触发所述服务器基于预设的损失函数确定所述噪声样本特征对应的损失信息,并确定所述噪声样本特征对应的梯度信息,将得到的梯度信息发送给终端设备,以对所述目标模型进行联邦训练,得到训练后的目标模型。
15.一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:
接收不同的终端设备发送噪声样本特征,所述噪声样本特征是向确定的样本特征中分别加入预设的噪声数据后得到的,所述样本特征是将获取的样本数据输入到剩余模型节点构成的目标模型中进行特征提取处理得到的,所述样本数据不包含用于训练所述目标模型的标签信息,所述剩余模型节点构成的目标模型是根据预设的节点选取次数,每次从所述目标模型中包含的模型节点中选取满足预设丢弃概率的模型节点,并从所述目标模型中去除选取的模型节点后得到的模型;
基于预设的损失函数确定每个所述噪声样本特征对应的损失信息,并基于每个所述噪声样本特征对应的损失信息确定每个所述噪声样本特征对应的梯度信息;
将所述噪声样本特征对应的梯度信息发送给相应的终端设备,所述噪声样本特征对应的梯度信息用于触发相应的终端设备更新所述终端设备中的所述目标模型;
接收不同的终端设备发送的更新的所述目标模型,并基于更新的所述目标模型更新本地的所述目标模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210296231.6A CN114662706A (zh) | 2022-03-24 | 2022-03-24 | 一种模型训练方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210296231.6A CN114662706A (zh) | 2022-03-24 | 2022-03-24 | 一种模型训练方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114662706A true CN114662706A (zh) | 2022-06-24 |
Family
ID=82030618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210296231.6A Pending CN114662706A (zh) | 2022-03-24 | 2022-03-24 | 一种模型训练方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114662706A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020098606A1 (zh) * | 2018-11-15 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 节点分类方法、模型训练方法、装置、设备及存储介质 |
CN111461215A (zh) * | 2020-03-31 | 2020-07-28 | 支付宝(杭州)信息技术有限公司 | 业务模型的多方联合训练方法、装置、系统及设备 |
US20210064760A1 (en) * | 2019-09-03 | 2021-03-04 | Microsoft Technology Licensing, Llc | Protecting machine learning models from privacy attacks |
CN113033082A (zh) * | 2021-03-10 | 2021-06-25 | 中国科学技术大学苏州高等研究院 | 基于异构算力感知的去中心化联邦学习框架及建模方法 |
CN113361658A (zh) * | 2021-07-15 | 2021-09-07 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的图模型训练方法、装置及设备 |
WO2021179196A1 (zh) * | 2020-03-11 | 2021-09-16 | Oppo广东移动通信有限公司 | 一种基于联邦学习的模型训练方法、电子设备及存储介质 |
CN113807538A (zh) * | 2021-04-09 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
CN113888318A (zh) * | 2021-10-21 | 2022-01-04 | 浙江省农业融资担保有限公司 | 风险检测方法及系统 |
-
2022
- 2022-03-24 CN CN202210296231.6A patent/CN114662706A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020098606A1 (zh) * | 2018-11-15 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 节点分类方法、模型训练方法、装置、设备及存储介质 |
US20210064760A1 (en) * | 2019-09-03 | 2021-03-04 | Microsoft Technology Licensing, Llc | Protecting machine learning models from privacy attacks |
WO2021179196A1 (zh) * | 2020-03-11 | 2021-09-16 | Oppo广东移动通信有限公司 | 一种基于联邦学习的模型训练方法、电子设备及存储介质 |
CN111461215A (zh) * | 2020-03-31 | 2020-07-28 | 支付宝(杭州)信息技术有限公司 | 业务模型的多方联合训练方法、装置、系统及设备 |
CN113033082A (zh) * | 2021-03-10 | 2021-06-25 | 中国科学技术大学苏州高等研究院 | 基于异构算力感知的去中心化联邦学习框架及建模方法 |
CN113807538A (zh) * | 2021-04-09 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
CN113361658A (zh) * | 2021-07-15 | 2021-09-07 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的图模型训练方法、装置及设备 |
CN113888318A (zh) * | 2021-10-21 | 2022-01-04 | 浙江省农业融资担保有限公司 | 风险检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
李健萌: "基于联邦学习的大数据风险控制技术研究与应用", 中国优秀硕士学位论文全文数据库 信息科技辑, no. 08, 15 August 2020 (2020-08-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112200132B (zh) | 一种基于隐私保护的数据处理方法、装置及设备 | |
CN110688974B (zh) | 一种身份识别方法及装置 | |
CN112398838B (zh) | 一种基于隐私保护的认证方法、装置、设备及存储介质 | |
US10692089B2 (en) | User classification using a deep forest network | |
CN113297396B (zh) | 基于联邦学习的模型参数更新方法、装置及设备 | |
CN114818973A (zh) | 一种基于隐私保护的图模型训练方法、装置及设备 | |
CN112381216B (zh) | 混合图神经网络模型的训练、预测方法和装置 | |
CN114819614A (zh) | 数据处理方法、装置、系统及设备 | |
CN112035881B (zh) | 一种基于隐私保护的应用程序识别方法、装置及设备 | |
CN113435585A (zh) | 一种业务处理方法、装置及设备 | |
CN115712866A (zh) | 数据处理方法、装置及设备 | |
CN114969293A (zh) | 数据处理方法、装置及设备 | |
CN113221717B (zh) | 一种基于隐私保护的模型构建方法、装置及设备 | |
CN117392694B (zh) | 数据处理方法、装置及设备 | |
CN116308738B (zh) | 一种模型训练的方法、业务风控的方法及装置 | |
CN115204395A (zh) | 数据的处理方法、装置及设备 | |
CN112967044B (zh) | 一种支付业务的处理方法及装置 | |
CN114638998A (zh) | 模型更新方法、装置、系统及设备 | |
CN114662706A (zh) | 一种模型训练方法、装置及设备 | |
CN116112366A (zh) | 数据处理方法及装置、设备、存储介质 | |
CN113569873A (zh) | 一种图像的处理方法、装置及设备 | |
CN115905876A (zh) | 一种模型的处理方法、装置及设备 | |
CN115859110A (zh) | 一种数据处理方法、装置及设备 | |
CN115423485B (zh) | 数据处理方法、装置及设备 | |
CN111275445B (zh) | 一种数据的处理方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |