CN111737921B - 基于循环神经网络的数据处理方法、设备及介质 - Google Patents
基于循环神经网络的数据处理方法、设备及介质 Download PDFInfo
- Publication number
- CN111737921B CN111737921B CN202010595987.1A CN202010595987A CN111737921B CN 111737921 B CN111737921 B CN 111737921B CN 202010595987 A CN202010595987 A CN 202010595987A CN 111737921 B CN111737921 B CN 111737921B
- Authority
- CN
- China
- Prior art keywords
- neural network
- time sequence
- target
- model
- sequence data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 143
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 84
- 238000003672 processing method Methods 0.000 title claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 150
- 238000012549 training Methods 0.000 claims abstract description 121
- 238000003062 neural network model Methods 0.000 claims abstract description 115
- 238000000034 method Methods 0.000 claims abstract description 26
- 230000000306 recurrent effect Effects 0.000 claims description 60
- 238000004891 communication Methods 0.000 claims description 12
- 230000000644 propagated effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000010276 construction Methods 0.000 abstract description 5
- 230000003993 interaction Effects 0.000 abstract description 2
- 238000007405 data analysis Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 239000008280 blood Substances 0.000 description 4
- 210000004369 blood Anatomy 0.000 description 4
- HVYWMOMLDIMFJA-DPAQBDIFSA-N cholesterol Chemical compound C1C=C2C[C@@H](O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2 HVYWMOMLDIMFJA-DPAQBDIFSA-N 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- LEHOTFFKMJEONL-UHFFFAOYSA-N Uric Acid Chemical compound N1C(=O)NC(=O)C2=C1NC(=O)N2 LEHOTFFKMJEONL-UHFFFAOYSA-N 0.000 description 2
- TVWHNULVHGKJHS-UHFFFAOYSA-N Uric acid Natural products N1C(=O)NC(=O)C2NC(=O)NC21 TVWHNULVHGKJHS-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 235000012000 cholesterol Nutrition 0.000 description 2
- 229940116269 uric acid Drugs 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/10—Numerical modelling
Abstract
本申请公开了一种基于循环神经网络的数据处理方法、装置、设备和介质,该方法包括:获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的;基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。本申请解决现有技术中,不同数据方之间不能直接进行时序数据的交互,导致模型构建时长过长,计算效率变低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能技术领域,尤其涉及一种基于循环神经网络的数据处理方法、设备及介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对数据处理也有更高的要求。
循环神经网络(Recurrent Neural Network,RNN)模型常用于处理时序数据,其中,时序数据指的是基于时间序列排列的数据,时序数据包括同一用户的同一时刻,在不同数据源如不同服务器上的特征数据,例如,用户X在便利店购买了A商品,在便利店的服务器中产生一条新的销售记录,同时,用户X在银行系统的服务器也伴随着产生一条新的支出记录,另外,时序数据还包括同一用户的不同时刻,在不同数据源如不同服务器上的特征数据,例如,同一用户在不同时刻消耗的水费、电费和燃气费等特征数据为同一用户的不同时刻,在不同数据源上的特征数据。
目前,不同时序数据存储在不同数据持有方或者数据方的服务器上,出于对时序数据的隐私保护,不同服务器之间不能直接进行时序数据的交互,即各服务器之间不能共享各自的时序数据以进行联合建模,进而导致各服务器建模的时序数据过少,且建模的时序数据的特征丰富度过低,导致模型构建时所花费的时长变长,导致计算效率变低。
发明内容
本申请的主要目的在于提供一种基于循环神经网络的数据处理方法、装置、设备和介质,旨在解决现有技术中,不同数据方之间不能直接进行时序数据的交互,导致模型构建时长过长,计算效率变低的技术问题。
为实现上述目的,本申请提供一种基于循环神经网络的数据处理方法,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的;
基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理装置应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理装置包括:
第一获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的;
处理模块,用于基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
本申请还提供一种基于循环神经网络的数据处理设备,所述基于循环神经网络的数据处理设备为实体设备,所述基于循环神经网络的数据处理设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述基于循环神经网络的数据处理方法的程序,所述基于循环神经网络的数据处理方法的程序被处理器执行时可实现如上述的基于循环神经网络的数据处理方法的步骤。
本申请还提供一种介质,所述介质上存储有实现上述基于循环神经网络的数据处理方法的程序,所述基于循环神经网络的数据处理方法的程序被处理器执行时实现如上述的基于循环神经网络的数据处理方法的步骤。
本申请通过获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。与现有技术中基于少量时序数据进行建模,进而处理待处理时序数据相比,在本申请中,基于在得到待处理时序数据后,基于已经训练完成的数据处理模型对所述待处理时序数据执行预设数据处理流程,以得到目标预测标签的技术手段,由于数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,也即,由于每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,降低模型构建时所花费的时长,以提升计算效率,且由于实现了基于海量时序数据联邦构建模型,因而提升了对待处理时序数据进行类型等预测的准确性,解决现有技术中,不同参与方之间不能直接进行时序数据的交互,致使难以准确对时序数据进行预测的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请基于循环神经网络的数据处理方法第一实施例的流程示意图;
图2为本申请基于循环神经网络的数据处理方法第一实施例中所述基于所述数据处理模型对所述待处理时序数据执行预设基于循环神经网络的数据处理流程的步骤之前的细化流程示意图;
图3为本申请实施例方案涉及的硬件运行环境的设备结构示意图;
图4为本申请基于循环神经网络的数据处理方法中的第一场景示意图;
图5为本申请基于循环神经网络的数据处理方法中的第二场景示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种基于循环神经网络的数据处理方法,在本申请基于循环神经网络的数据处理方法的第一实施例中,所述基于循环神经网络的数据处理方法应用于第二设备,参照图1,所述基于循环神经网络的数据处理方法包括:
步骤S10,获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
步骤S20,基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
具体步骤如下:
步骤S10,获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
需要说明的是,在本实施例中,数据处理模型可以应用在小额贷款领域,即是基于在不同时刻,在不同参与方上等的消费记录,确定用户的贷款需求类型,定向地向用户进行小额贷款推送。具体地,例如,金融机构要在特定时间为消费者精确推荐个人小额贷款,则可以建立个人小额贷款的预设数据处理模型,该预设数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为银行的第二样本时序数据联合同一目标时刻的各个商店(或者水电缴纳处)的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,即,由于每个时刻的循环神经网络模型都联邦了该时刻不同的参与方(银行,商店,水电缴纳处)等)的时序数据进行训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,提升了计算效率。
另外,数据处理模型基于在不同时刻,在不同参与方上等的消费记录,确定用户的商品需求类型,定向地向用户进行商品推送。即具体地,预设数据处理模型还可以应用在目标网上商店,以在特定时间为消费者精确推荐商品,该预设数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为目标网上商店的第二样本时序数据联合同一目标时刻的各个商店的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,即,由于每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,提升了计算效率。
获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中,以便数据处理模型对待处理时序数据进行处理,即在本实施例中,通过已经训练好的,数据处理模型(第二设备中的)处理时序数据,其中,时序数据指的是基于时间序列排列的数据,本实施例中的时序数据包括同一用户的同一时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,例如,用户X在便利店(参与方或者设备)购买了A商品,在便利店的服务器中产生一条新的销售记录,同时,用户X在银行系统(参与方或者设备)的服务器也伴随着产生一条新的支出记录,这是时序数据包括的同一用户的同一时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,另外,时序数据还包括同一用户的不同时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,例如,同一用户在不同时刻消耗的水费、电费和燃气费等特征数据为同一用户的不同时刻,在不同数据源(参与方或者设备)上的特征数据。
在本实施例中,所述数据处理模型是基于各个时刻具有预设标签的第二样本时序数据(具有预设标签的第二样本时序数据可以指的是第二设备的数据源),对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,其中,对不同时刻的循环神经网络模型进行迭代训练,而同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的具体指的是:对t1时刻的循环神经网络模型进行第一训练,具体地,联合第一时刻如t1时刻的第二样本时序数据以及第一时刻如t1时刻的第一样本时序数据,对t1时刻的循环神经网络模型进行联邦前向传播训练后,进行联邦反向传播训练,对t2时刻的循环神经网络模型(t1时刻前反向更新的循环神经网络模型)进行第二训练,具体地,联合第一时刻如t2时刻的第二样本时序数据以及第一时刻如t2时刻的第一样本时序数据,对t2时刻的循环神经网络模型进行联邦前向传播训练后,进行联邦反向传播训练,基于此不断进行迭代训练,需要说明的是,尽管是基于具有预设标签的第二样本时序数据(第二设备中的),进行训练后得到目标模型,但是在进行每个时刻的训练过程中,还涉及不包括不具有预设标签的第一样本时序数据(第一设备中的第一样本时序数据,以用于联邦训练)。
在本实施例中,需要说明的是,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,即具体地,在本实施例中,每个时刻都进行前向传播、反向传播的,其中,前向传播、反向传播也是按照时序进行的。
所述基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程的步骤之前,所述方法包括:
步骤S11,获取具有预设标签的第二样本时序数据;
在本实施例中,获取各个时刻具有预设标签的第二样本时序数据,其中,预设标签包括类型标签等类型,具有预设标签的第二样本时序数据指的是具有预设标签的按照时间排列的数据。
步骤S12,对不同时刻的循环神经网络模型进行迭代训练,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
在得到所述第二样本时序数据后,基于所述第二样本时序数据,对不同时刻的循环神经网络模型进行迭代训练,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,具体地,包括,在得到所述第二样本时序数据后,基于所述第二样本时序数据,对不同时刻的循环神经网络模型进行基于多个数据源(参与方或者设备)或者两个数据源(参与方或者设备)的迭代训练得到的,需要说明的是,包含具有预设标签的第二样本时序数据为主数据源(主参与方或者主设备),即为本实施例中的第二设备,非主数据源(非主参与方或者非主设备,可以为多个)即为本实施例中的第一设备。
其中,所述第二设备与第一设备进行预设联邦通信,
所述对不同时刻的循环神经网络模型进行迭代训练,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的步骤,包括:
步骤a1,接收第一设备在目标时刻的前向传播的第一中间参数,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数;
在本实施例中,具体地,以两个不同数据源(参与方或者设备)即数据源A(参与方或者设备)和数据源B(参与方或者设备)的同一时刻的时序数据共同即联邦进行该时刻的循环神经网络模型的训练为例进行具体说明(参与方或者设备还可以为多个),需要说明的是,在本实施例中,由于第二样本时序数据在数据源A中,因而,A是第二设备,数据源B为第一设备,具体地,如图4所示,其中一行数据与/>记录了用户k在时刻t1时产生的不同时序特征,而数据/>与/>记录了用户k在时刻t2时产生的不同时序特征,对于第二设备即数据源A和第一设备即数据源B而言,是包括多个用户的,如一行数据/>与/>记录了用户2在时刻t1时产生的不同时序特征,需要说明的是,对不同时刻的循环神经网络模型进行迭代训练,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的实质为:第二设备即数据源A的在目标时刻的数据联邦第一设备即数据源B的在目标时刻的数据,进行目标时刻的循环神经网络模型的训练流程(包括目标时刻的预设前向传播,预设反向传播)后,以基于第二设备即数据源A的在目标时刻对应下一时刻的数据,联邦第一设备即数据源B的在目标时刻对应下一时刻的数据,进行目标时刻对应下一时刻的训练流程,直至得到目标模型。
具体地,接收第一设备在目标时刻的前向传播的第一中间参数(联邦时序子流程),其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和循环神经网络模型的第一模型子参数(第一模型子参数指的是第一设备的)确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数,如图5所示,数据源B即第一设备基于目标时刻的循环算子(h)、在目标时刻的第一样本时序数据即与和第一子模型参数,确定目标时刻的前向传播的第一中间参数/>将所述的前向传播的第一中间参数前向传播给所述第二设备(数据源A);其中,所述目标循环算子为初始参数或者所述第二设备计算的上一时刻的第二中间参数。
步骤a2,基于所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数;
步骤a3,基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的预设预测模型,计算所述第二设备在目标时刻的第二中间梯度,并基于所述第二设备在目标时刻的第二中间梯度,更新所述目标时刻的循环神经网络模型的第二模型子参数并计算所述目标时刻的第一中间梯度;
基于所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数,基于所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数,具体地,所述第二设备(数据源A)用于基于所述目标时刻的第一中间参数所述目标时刻的第二样本时序数据/>和第二子模型参数,确定所述目标时刻的第二中间参数/>基于所述第二中间参数/>和预设预测模型,确定所述目标时刻的第二中间梯度/>基于所述第二中间梯度/>更新所述第二子模型参数,并计算所述目标时刻的第一中间参数梯度
步骤a4,将所述目标时刻的第一中间梯度发送给所述第一设备,以供所述第一设备基于所述目标时刻的第一中间梯度更新所述目标时刻的循环神经网络模型的第一模型子参数;
将所述目标时刻的第一中间梯度发送给所述第一设备,以供所述第一设备基于所述目标时刻的第一中间梯度更新所述第一模型子参数,具体地,第一设备接收所述第二设备反向传播的第一中间参数梯度并基于所述第一中间参数梯度/>更新所述第一子模型参数。
步骤a5,将所述第二设备在目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备确定所述目标时刻对应下一时刻的循环算子,以供所述第二设备对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型。
将所述第二设备在目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备确定所述目标时刻对应下一时刻的循环算子,以供所述第二设备对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型,具体地,第一设备接收所述第二设备前向传播的所述目标时刻的第二中间参数将所述目标时刻的第二中间参数/>确定为下一时刻的循环算子h1,继续进行迭代训练,直到得到满足预设条件的目标模型。
需要说明的是,在本实施例中,当不同时刻的循环神经网络模型的迭代训练次数达到预设次数,或者是通过某一时刻的循环神经网络模型对具有预设标签的第二样本时序数据进行预测后得到的预测结果,与预存的具有预设标签的第二样本时序数据的真实结果之间的误差值或者损失值小于预设值时,将该某一时刻的循环神经网络模型设置为数据处理模型。
步骤S13,将所述目标模型设置为所述数据处理模型。
将所述目标模型设置为所述数据处理模型。
步骤S20,基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在得到所述数据处理模型后,基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在本实施例中,由于所述数据处理模型是已经经过训练的,得到的准确模型,因而,在得到待处理时序数据后,能够准确得到所述待处理时序数据的目标预测标签,该目标预测标签可以是对待处理时序数据进行分类的分类标签,如待处理时序数据对应用户在对应时序段是高消费用户等。
基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签至少包括如下两种方式:
方式一:通过已经训练好的数据处理模型,对当下时刻的待处理时序数据(第二设备中的第二待处理时序子数据)执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
方式二:通过已经训练好的数据处理模型,对当下时刻的待处理时序数据(第二设备中的第二待处理时序子数据和第一设备中的第一待处理时序子数据联合得到)执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
其中,样本时序数据为医疗样本时序数据,所述第二待处理时序数据为第二待处理医疗时序数据,所述数据处理模型为医疗属性预测模型;
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本医疗时序数据联合同一目标时刻的第一设备的第一样本医疗时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
所述基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤,包括:
基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果。
具体地,第二待处理医疗时序数据可以是当前检测到的血压,血脂,血糖,尿酸,胆固醇,检测次数,检测时长等数据,将所述第二待处理医疗时序数据输入至训练好的医疗属性预测模型中(所述医疗属性预测模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本医疗时序数据(之前在医疗机构检测到的血压,血脂,血糖,尿酸,胆固醇,检测次数,检测时长等数据)联合同一目标时刻的第一设备的第一样本医疗时序数据(如在某些机构上的消费数据,贷款数据))进行联邦前向传播训练后,进行联邦反向传播训练得到的)后,基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果,该医疗属性预测结果包括大于第一预设标签值的第一医疗属性预测结果(某一医疗属性数据可能性大于90%),或者小于第一预设标签值大于第二预设标签值的第二医疗属性预测结果,或者小于第二预设标签值的第三医疗属性预测结果医疗属性预测结果不同,基于医疗属性预测结果得到的关联贷款额度不同。
本申请通过获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。与现有技术中基于少量时序数据进行建模,进而处理待处理时序数据相比,在本申请中,基于在得到待处理时序数据后,基于已经训练完成的数据处理模型对所述待处理时序数据执行预设数据处理流程,以得到目标预测标签的技术手段,由于数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,也即,由于每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,降低模型构建时所花费的时长,以提升计算效率,且由于实现了基于海量时序数据联邦构建模型,因而提升了对待处理时序数据进行类型等预测的准确性,解决现有技术中,不同参与方之间不能直接进行时序数据的交互,致使难以准确对时序数据进行预测的技术问题。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,所述基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的预设预测模型,计算所述第二设备在目标时刻的第二中间梯度的步骤,包括:
步骤b1,基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的循环神经网络的预设预测模型,确定在所述目标时刻的所述第二样本时序数据的目标时刻预测结果;
步骤b2,确定所述目标时刻预测结果和所述预设标签之间的损失值;
步骤b3,基于所述损失值,计算所述第二设备在目标时刻的第二中间梯度。
在本实施例中,是确定如何计算所述第二设备在目标时刻的第二中间梯度的步骤,具体地,基于所述第二中间参数和预设预测模型,确定所述目标时刻的第二预测结果和真实结果(目标时刻的预设标签)之间的损失值,并基于所述损失值,确定所述目标时刻的第二中间参数梯度/>基于所述第二中间参数梯度/>更新所述第二子模型参数,并计算所述目标时刻的第一中间参数梯度/>
本实施例通过基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的循环神经网络的预设预测模型,确定在所述目标时刻的所述第二样本时序数据的目标时刻预测结果;确定所述目标时刻预测结果和所述预设标签之间的损失值;基于所述损失值,计算所述第二设备在目标时刻的第二中间梯度。进而为准确得到目标模型奠定基础。
进一步地,基于本申请中第一实施例和第二实施例,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述接收第一设备在目标时刻的前向传播的第一中间参数,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数的步骤,包括:
步骤c1,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
在本实施例中,第二设备可以接收多个第一设备的在目标时刻的前向传播的第一中间参数,并对该多个第一设备的在目标时刻的前向传播的第一中间参数进行联合处理,进而得到联合的第一中间参数,其中,各个第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。另外,在本实施例中,第一设备以及第二设备还可以通过第三方实现对循环神经网络模型的训练,具体地,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,所述第一设备在目标时刻的第一中间子参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。由于通过第三方进行相关联邦参数的处理(可以以加密方式),因而,提升了模型训练的安全性。
所述接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的步骤,包括:
步骤d1,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
在本实施例中,在第二设备通过第三方与多个第一设备进行联邦时,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间参数,进行预设均值处理得到的,也即,在本实施例中,联合的方式是对各个第一设备在目标时刻的各第一中间参数进行均值处理,以得到前向传播的第一中间参数。
本实施例通过接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。在本实施例中,通过第三方实现多个第一设备与第二设备进行联邦,以实现扩充时序数据。
本申请实施例提供一种基于循环神经网络的数据处理方法,在本申请基于循环神经网络的数据处理方法的另一实施例中,所述基于循环神经网络的数据处理方法应用于第一设备,所述第二设备与第一设备进行预设联邦通信,所述基于循环神经网络的数据处理方法包括:
步骤e1,获取各个时刻的第一样本时序数据;
步骤e2,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对不同时刻的循环神经网络模型进行迭代训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理;
其中,同一时刻的循环神经网络模型为第一样本时序数据联合同一目标时刻的第二设备具有预设标签的第二样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的。
在本实施例中,获取各个时刻的第一样本时序数据,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对不同时刻的循环神经网络模型进行迭代训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理;其中,同一时刻的循环神经网络模型为第一样本时序数据联合同一目标时刻的第二设备具有预设标签的第二样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的。在本实施例中,第一设备提供各个时刻的第一样本时序数据,以供第二设备进行时序迭代训练,为准确预测待处理时序数据的类型等奠定基础。
在本实施例中,还提供一种基于循环神经网络的数据处理系统,该基于循环神经网络的数据处理系统至少包括第一设备与第二设备,其中,所述第二设备用于实现如下步骤;
获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
参照图3,图3是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图3所示,该基于循环神经网络的数据处理设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatilememory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该基于循环神经网络的数据处理设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图3中示出的基于循环神经网络的数据处理设备结构并不构成对基于循环神经网络的数据处理设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图3所示,作为一种计算机介质的存储器1005中可以包括操作系统、网络通信模块以及基于循环神经网络的数据处理程序。操作系统是管理和控制基于循环神经网络的数据处理设备硬件和软件资源的程序,支持基于循环神经网络的数据处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与基于循环神经网络的数据处理系统中其它硬件和软件之间通信。
在图3所示的基于循环神经网络的数据处理设备中,处理器1001用于执行存储器1005中存储的基于循环神经网络的数据处理程序,实现上述任一项所述的基于循环神经网络的数据处理方法的步骤。
本申请基于循环神经网络的数据处理设备具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理装置应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理装置包括:
第一获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的;
处理模块,用于基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
可选地,所述基于循环神经网络的数据处理装置包括:
第二获取模块,用于获取具有预设标签的第二样本时序数据;
训练模块,用于对不同时刻的循环神经网络模型进行迭代训练,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的;
设置模块,用于将所述目标模型设置为所述数据处理模型。
可选地,所述第二设备与第一设备进行预设联邦通信,
所述训练模块包括:
接收单元,用于基于接收的所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数;
计算单元,用于基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的预设预测模型,计算所述第二设备在目标时刻的第二中间梯度,以更新所述目标时刻的循环神经网络模型的第二模型子参数并计算所述目标时刻的第一中间梯度;
第一发送单元,用于将所述目标时刻的第一中间梯度发送给所述第一设备,以供所述第一设备基于所述目标时刻的第一中间梯度更新所述目标时刻的循环神经网络模型的第一模型子参数;
第二发送单元,用于将所述第二设备在目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备确定所述目标时刻对应下一时刻的循环算子,以供所述第二设备对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型。
可选地,所述计算单元包括:
第一确定子单元,用于基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的循环神经网络的预设预测模型,确定在所述目标时刻的所述第二样本时序数据的目标时刻预测结果;
第二确定子单元,用于确定所述目标时刻预测结果和所述预设标签之间的损失值;
计算子单元,用于基于所述损失值,计算所述第二设备在目标时刻的第二中间梯度。
可选地,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述接收单元包括:
接收子单元,用于接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
可选地,所述接收子单元用于实现:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
可选地,样本时序数据为医疗样本时序数据,所述第二待处理时序数据为第二待处理医疗时序数据,所述数据处理模型为医疗属性预测模型;
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本医疗时序数据联合同一目标时刻的第一设备的第一样本医疗时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
所述处理模块包括:
处理单元,用于基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理装置应用于第一设备,所述第一设备中包括各个时刻的的第一样本时序数据,所述基于循环神经网络的数据处理装置包括:
第三获取模块,用于获取各个时刻的第一样本时序数据;
联合模块,用于基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对不同时刻的循环神经网络模型进行迭代训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理;
其中,同一时刻的循环神经网络模型为第一样本时序数据联合同一目标时刻的第二设备具有预设标签的第二样本时序数据进行联邦前向传播训练后,进行联邦后向传播训练得到的。
本申请基于循环神经网络的数据处理装置的具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种介质,且所述介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的基于循环神经网络的数据处理方法的步骤。
本申请介质具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (11)
1.一种基于循环神经网络的数据处理方法,其特征在于,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练;
基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
2.如权利要求1所述基于循环神经网络的数据处理方法,其特征在于,所述基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程的步骤之前,所述方法包括:
获取具有预设标签的第二样本时序数据;
对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
将所述目标模型设置为所述数据处理模型。
3.如权利要求2所述基于循环神经网络的数据处理方法,其特征在于,所述第二设备与第一设备进行预设联邦通信,
所述对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的步骤,包括:
基于接收的所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数;
基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的预设预测模型,计算所述第二设备在目标时刻的第二中间梯度,以更新所述目标时刻的循环神经网络模型的第二模型子参数并计算所述目标时刻的第一中间梯度;
将所述目标时刻的第一中间梯度发送给所述第一设备,以供所述第一设备基于所述目标时刻的第一中间梯度更新所述目标时刻的循环神经网络模型的第一模型子参数;
将所述第二设备在目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备确定所述目标时刻对应下一时刻的循环算子,以供所述第二设备对不同时刻的循环神经网络模型进行迭代训练,直到得到满足预设条件的目标模型。
4.如权利要求3所述基于循环神经网络的数据处理方法,其特征在于,所述基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的预设预测模型,计算所述第二设备在目标时刻的第二中间梯度的步骤,包括:
基于所述第二设备在目标时刻的第二中间参数以及所述目标时刻的循环神经网络的预设预测模型,确定在所述目标时刻的所述第二样本时序数据的目标时刻预测结果;
确定所述目标时刻预测结果和所述预设标签之间的损失值;
基于所述损失值,计算所述第二设备在目标时刻的第二中间梯度。
5.如权利要求3-4任一项所述基于循环神经网络的数据处理方法,其特征在于,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述接收第一设备在目标时刻的前向传播的第一中间参数,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数的步骤,包括:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
6.如权利要求5所述基于循环神经网络的数据处理方法,其特征在于,所述接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的步骤,包括:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
7.如权利要求1所述基于循环神经网络的数据处理方法,其特征在于,
样本时序数据为医疗样本时序数据,所述待处理时序数据为待处理医疗时序数据,所述数据处理模型为医疗属性预测模型;
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本医疗时序数据联合同一目标时刻的第一设备的第一样本医疗时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的;
所述基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤,包括:
基于所医疗属性预测模型对所述待处理医疗时序数据执行医疗属性预测处理,得到所述待处理医疗时序数据的医疗属性预测结果。
8.一种基于循环神经网络的数据处理方法,其特征在于,所述基于循环神经网络的数据处理方法应用于第一设备,所述第一设备中包括各个时刻的第一样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取各个时刻的第一样本时序数据;
基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对不同时刻的循环神经网络模型进行迭代训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理,每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练;
其中,同一时刻的循环神经网络模型为第一样本时序数据联合同一目标时刻的第二设备具有预设标签的第二样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的。
9.一种基于循环神经网络的数据处理装置,其特征在于,所述基于循环神经网络的数据处理装置应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理装置包括:
第一获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行迭代训练得到的,其中,同一时刻的循环神经网络模型为第二样本时序数据联合同一目标时刻的第一设备的第一样本时序数据进行联邦前向传播训练后,进行联邦反向传播训练得到的,每个时刻的循环神经网络模型都联邦了该时刻不同的参与方的时序数据进行训练;
处理模块,用于基于所述数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
10.一种基于循环神经网络的数据处理设备,其特征在于,所述基于循环神经网络的数据处理设备包括:存储器、处理器以及存储在存储器上的用于实现所述基于循环神经网络的数据处理方法的程序,
所述存储器用于存储实现基于循环神经网络的数据处理方法的程序;
所述处理器用于执行实现所述基于循环神经网络的数据处理方法的程序,以实现如权利要求1至8中任一项所述基于循环神经网络的数据处理方法的步骤。
11.一种介质,其特征在于,所述介质上存储有实现基于循环神经网络的数据处理方法的程序,所述实现基于循环神经网络的数据处理方法的程序被处理器执行以实现如权利要求1至8中任一项所述基于循环神经网络的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595987.1A CN111737921B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595987.1A CN111737921B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111737921A CN111737921A (zh) | 2020-10-02 |
CN111737921B true CN111737921B (zh) | 2024-04-26 |
Family
ID=72651302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010595987.1A Active CN111737921B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111737921B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948126A (zh) * | 2021-03-29 | 2021-06-11 | 维沃移动通信有限公司 | 数据处理方法、装置及芯片 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778014A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大学 | 一种基于循环神经网络的患病风险预测方法 |
CN107730087A (zh) * | 2017-09-20 | 2018-02-23 | 平安科技(深圳)有限公司 | 预测模型训练方法、数据监控方法、装置、设备及介质 |
CN109165725A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109711529A (zh) * | 2018-11-13 | 2019-05-03 | 中山大学 | 一种基于值迭代网络的跨领域联邦学习模型及方法 |
CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111222628A (zh) * | 2019-11-20 | 2020-06-02 | 深圳前海微众银行股份有限公司 | 循环神经网络训练优化方法、设备、系统及可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11256990B2 (en) * | 2016-05-20 | 2022-02-22 | Deepmind Technologies Limited | Memory-efficient backpropagation through time |
US11526760B2 (en) * | 2018-11-09 | 2022-12-13 | Wisconsin Alumni Research Foundation | Training system for artificial neural networks having a global weight constrainer |
-
2020
- 2020-06-24 CN CN202010595987.1A patent/CN111737921B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778014A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大学 | 一种基于循环神经网络的患病风险预测方法 |
CN107730087A (zh) * | 2017-09-20 | 2018-02-23 | 平安科技(深圳)有限公司 | 预测模型训练方法、数据监控方法、装置、设备及介质 |
CN109165725A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109711529A (zh) * | 2018-11-13 | 2019-05-03 | 中山大学 | 一种基于值迭代网络的跨领域联邦学习模型及方法 |
CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111222628A (zh) * | 2019-11-20 | 2020-06-02 | 深圳前海微众银行股份有限公司 | 循环神经网络训练优化方法、设备、系统及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
基于联邦学习和卷积神经网络的入侵检测方法;王蓉;马春光;武朋;;信息网络安全(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111737921A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3627759A1 (en) | Method and apparatus for encrypting data, method and apparatus for training machine learning model, and electronic device | |
CN111340558B (zh) | 基于联邦学习的线上信息处理方法、装置、设备及介质 | |
CN111737922A (zh) | 基于循环神经网络的数据处理方法、装置、设备及介质 | |
CN110866771A (zh) | 信息处理方法、系统、介质和计算机系统 | |
CA3095309A1 (en) | Application of trained artificial intelligence processes to encrypted data within a distributed computing environment | |
CN111737920B (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN112182118B (zh) | 基于多数据源的目标对象预测方法及其相关设备 | |
CN110135702A (zh) | 一种实时更新的还款积极度评估方法、装置、系统和记录介质 | |
CN111737921B (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN116432040B (zh) | 基于联邦学习的模型训练方法、装置、介质以及电子设备 | |
CN111738422A (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN113822734A (zh) | 用于生成信息的方法和装置 | |
US20210027478A1 (en) | Method and device for determining geometric transformation relation for images | |
CN116228391A (zh) | 一种风险识别方法、装置、存储介质及电子设备 | |
CN116090913A (zh) | 基于数字孪生技术的员工服务数据的处理方法及相关装置 | |
US20230325757A1 (en) | Computer-implemented method and system for testing a model | |
CN115758271A (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
US20230053859A1 (en) | Method and apparatus for outputting information | |
CN111738421A (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN113609397A (zh) | 用于推送信息的方法和装置 | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 | |
WO2023145048A1 (ja) | 情報処理装置、情報処理方法、及び、記憶媒体 | |
CN115203312A (zh) | 用户数据处理方法、装置、计算机设备和存储介质 | |
CN116894728A (zh) | 异常账户确定方法、装置、计算机设备和存储介质 | |
CN113902438A (zh) | 硬件钱包数据同步方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |