CN111737920B - 基于循环神经网络的数据处理方法、设备及介质 - Google Patents
基于循环神经网络的数据处理方法、设备及介质 Download PDFInfo
- Publication number
- CN111737920B CN111737920B CN202010595164.9A CN202010595164A CN111737920B CN 111737920 B CN111737920 B CN 111737920B CN 202010595164 A CN202010595164 A CN 202010595164A CN 111737920 B CN111737920 B CN 111737920B
- Authority
- CN
- China
- Prior art keywords
- neural network
- time sequence
- moment
- data processing
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 142
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 91
- 238000003672 processing method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 166
- 238000012545 processing Methods 0.000 claims abstract description 145
- 238000003062 neural network model Methods 0.000 claims abstract description 132
- 238000000034 method Methods 0.000 claims abstract description 33
- 230000000306 recurrent effect Effects 0.000 claims description 66
- 230000000644 propagated effect Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 abstract description 6
- 238000010276 construction Methods 0.000 abstract description 5
- 230000003993 interaction Effects 0.000 abstract description 2
- 238000007405 data analysis Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000008280 blood Substances 0.000 description 4
- 210000004369 blood Anatomy 0.000 description 4
- HVYWMOMLDIMFJA-DPAQBDIFSA-N cholesterol Chemical compound C1C=C2C[C@@H](O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2 HVYWMOMLDIMFJA-DPAQBDIFSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012804 iterative process Methods 0.000 description 4
- LEHOTFFKMJEONL-UHFFFAOYSA-N Uric Acid Chemical compound N1C(=O)NC(=O)C2=C1NC(=O)N2 LEHOTFFKMJEONL-UHFFFAOYSA-N 0.000 description 2
- TVWHNULVHGKJHS-UHFFFAOYSA-N Uric acid Natural products N1C(=O)NC(=O)C2NC(=O)NC21 TVWHNULVHGKJHS-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 235000012000 cholesterol Nutrition 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 229940116269 uric acid Drugs 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/10—Numerical modelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种基于循环神经网络的数据处理方法、装置、设备和介质,该方法包括:获取待处理时序数据,输入至预设数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。本申请解决现有不同数据方之间不能直接进行时序数据的交互,导致模型构建时长过长,计算效率变低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能技术领域,尤其涉及一种基于循环神经网络的数据处理方法、设备及介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对数据处理也有更高的要求。
循环神经网络(Recurrent Neural Network,RNN)模型常用于处理时序数据,其中,时序数据指的是基于时间序列排列的数据,时序数据包括同一用户的同一时刻,在不同数据源如不同服务器上的特征数据,例如,用户X在便利店购买了A商品,在便利店的服务器中产生一条新的销售记录,同时,用户X在银行系统的服务器也伴随着产生一条新的支出记录,另外,时序数据还包括同一用户的不同时刻,在不同数据源如不同服务器上的特征数据,例如,同一用户在不同时刻消耗的水费、电费和燃气费等特征数据为同一用户的不同时刻,在不同数据源上的特征数据。
目前,不同时序数据存储在不同数据持有方或者数据方的服务器上,出于对时序数据的隐私保护,不同服务器之间不能直接进行时序数据的交互,即各服务器之间不能共享各自的时序数据以进行联合建模,进而导致各服务器建模的时序数据过少,且建模的时序数据的特征丰富度过低,导致模型构建时所花费的时长变长,导致计算效率变低。
发明内容
本申请的主要目的在于提供一种基于循环神经网络的数据处理方法、装置、设备和介质,旨在解决现有技术中,不同数据方之间不能直接进行时序数据的交互,导致模型构建时长过长,计算效率变低的技术问题。
为实现上述目的,本申请提供一种基于循环神经网络的数据处理方法,
所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
第一获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
其中,所述数据处理模型是基于具有预设标签的标签时序数据,对循环神经网络模型进行包括第一预设纵向联邦时序子流程和预设前向传播时序子流程的第一预设时序迭代流程的第一迭代训练,以及进行包括第二预设纵向联邦时序子流程和预设反向传播时序子流程的第二预设时序迭代流程的第二迭代训练后得到的目标模型;
第一处理模块,用于基于所述预设数据处理模型对所述待处理时序数据执行预设基于循环神经网络的数据处理流程,得到所述待处理时序数据的目标预测标签。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理装置应用于第一设备,所述第一设备中包括各个时刻的的第一样本时序数据,所述基于循环神经网络的数据处理装置包括:
第三获取模块,用于获取各个时刻的第一样本时序数据;
检测模块,用于在检测到对不同时刻的循环神经网络模型联邦前向训练完成后,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对联邦前向训练完成的不同时刻的循环神经网络模型进行各个时刻的联邦反向训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理。
本申请还提供一种基于循环神经网络的数据处理设备,所述基于循环神经网络的数据处理设备为实体设备,所述基于循环神经网络的数据处理设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述基于循环神经网络的数据处理方法的程序,所述基于循环神经网络的数据处理方法的程序被处理器执行时可实现如上述的基于循环神经网络的数据处理方法的步骤。
本申请还提供一种介质,所述介质上存储有实现上述基于循环神经网络的数据处理方法的程序,所述基于循环神经网络的数据处理方法的程序被处理器执行时实现如上述的基于循环神经网络的数据处理方法的步骤。
本申请通过获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。在本申请中,在得到待处理时序数据后,基于已经训练完成的,数据处理模型对所述待处理时序数据执行执行预设数据处理流程,以得到目标预测标签,由于数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据,也即,联邦该时刻不同的参与方的时序数据先对不同时刻的循环神经网络模型进行联邦前向训练,然后联邦该时刻不同的参与方的时序数据进行反向训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,降低了模型构建时所花费的时长,以提升计算效率。且由于在保护参与方用户隐私的情况下提升特征丰富度,因而提升了对待处理时序数据的预测准确性,解决现有技术中难以准确对待处理时序数据进行预测的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请基于循环神经网络的数据处理方法第一实施例的流程示意图;
图2为本申请基于循环神经网络的数据处理方法第一实施例中当所述目标颜色空间是预设第一颜色空间时,对所述目标颜色空间进行预设第二颜色空间的颜色空间转换处理,得到目标转换图像的步骤的细化流程示意图;
图3为本申请实施例方案涉及的硬件运行环境的设备结构示意图;
图4为本申请基于循环神经网络的数据处理方法中的第一场景示意图;
图5为本申请基于循环神经网络的数据处理方法中的第二场景示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种基于循环神经网络的数据处理方法,在本申请基于循环神经网络的数据处理方法的第一实施例中,参照图1,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
步骤S10,获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
步骤S20,基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
具体步骤如下:
步骤S10,获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中,以便预设数据处理模型对待处理时序数据进行处理,即在本实施例中,通过已经训练好的,预设数据处理模型(第二设备中的)处理待处理时序数据,其中,时序数据指的是基于时间序列排列的数据,本实施例中的时序数据包括同一用户的同一时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,例如,用户X在便利店(参与方或者设备)购买了A商品,在便利店的服务器中产生一条新的销售记录,同时,用户X在银行系统(参与方或者设备)的服务器也伴随着产生一条新的支出记录,这是时序数据包括的同一用户的同一时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,另外,时序数据还包括同一用户的不同时刻,在不同数据源(参与方或者设备)如不同服务器上的特征数据,例如,同一用户在不同时刻消耗的水费、电费和燃气费等特征数据为同一用户的不同时刻,在不同数据源(参与方或者设备)上的特征数据。
也即在本实施例中,数据处理模型可以应用在小额贷款领域,即是基于在不同时间段,在不同参与方上等的消费记录,确定用户的贷款需求类型,定向地向用户进行小额贷款推送。具体地,例如,金融机构要在特定时间为消费者精确推荐个人小额贷款,则可以建立个人小额贷款的预设数据处理模型,该预设数据处理模型为为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据(银行的)和同一目标时刻的第一设备的第一样本时序数据(各个商店或者贷款机构的),即,由于循环神经网络模型前向以及反向训练都联邦了该时刻不同的参与方(银行,各个商店,其他银行等)的时序数据进行训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,提升了计算效率。
在本实施例中,所述预设数据处理模型是基于具有预设标签的第二样本时序数据(具有预设标签的第二样本时序数据具体可以指的是第二设备的数据源),对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型进行联合同一目标时刻的第一样本时序数据和第二样本时序数据的联邦反向训练后得到的前反向传播联合模型,其中,对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型进行联合同一目标时刻的第一样本时序数据和第二样本时序数据的联邦反向训练具体指的是:基于第一时刻的具有预设标签的第二样本时序数据,对循环神经网络模型进行包括对t1时刻的循环神经网络模型进行联邦前向训练后,对t1时刻的循环神经网络模型进行联邦前向训练,得到t2时刻的循环神经网络模型,继续对t2时刻的循环神经网络模型进行联邦前向训练,直至得到最后时刻的循环神经网络模型,在得到最后时刻的循环神经网络模型,联合同一目标时刻如最后时刻的第一样本时序数据和第二样本时序数据,对联邦前向训练完成的最后时刻的循环神经网络模型进行最后时刻的反向传播训练,对最后时刻的循环神经网络模型进行更新,并继续反向传播训练,对最后时刻上一时刻的循环神经网络模型进行更新,并继续反向传播训练,直至得到得到目标模型。
在本实施例中,需要强调的是,所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型进行联合同一目标时刻的第一样本时序数据和第二样本时序数据的联邦反向训练后得到的,即具体地,在本实施例中,在完成各个时刻的循环神经网络模型的前向传播后、再进行已经完成前向传播的各个时刻的循环神经网络模型的反向传播训练,其中,前向传播、反向传播也是按照时序进行的。
所述基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤之前,所述方法还包括:
步骤S11,获取具有预设标签的第二样本时序数据;
在本实施例中,获取各个时刻具有预设标签的第二样本时序数据,其中,预设标签包括类型标签等类型,具有预设标签的第二样本时序数据指的是具有预设标签的按照时间排列的数据。
步骤S12,对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,得到前反向传播联合模型;
其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
在本实施例中,对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型进行联合同一目标时刻的第一样本时序数据和第二样本时序数据的联邦反向训练,得到前反向传播联合模型,具体地,包括,在得到所述第二样本时序数据后,基于所述第二样本时序数据,对循环神经网络模型进行基于多个数据源(参与方或者设备)或者两个数据源(参与方或者设备)的的联邦前向训练,以及联合同一目标时刻的第一样本时序数据和第二样本时序数据,对联邦前向训练完成的不同时刻的循环神经网络模型进行联邦反向训练,需要说明的是,多个数据源或者两个数据源中必然存在一个主数据源(主参与方或者主设备),该主数据源(主参与方或者主设备)即为本实施例中的第二设备,非主数据源(非主参与方或者非主设备,可以为多个)即为本实施例中的第一设备。
其中,所述第二设备与第一设备进行预设联邦通信;
所述对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,得到前反向传播联合模型的步骤,包括:
步骤a1,基于接收的所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定所述第二设备在目标时刻的第二中间参数;
在本实施例中,具体地,以两个不同数据源(参与方或者设备)即数据源A(参与方或者设备)和数据源B(参与方或者设备)的样本时序数据共同即联邦进行循环神经网络的训练为例进行具体说明(参与方或者设备还可以为多个),需要说明的是,如图4所示,在本实施例中,由于第二样本时序数据在数据源A中,因而,A是第二设备,B为第一设备,具体地,其中一行数据与/>记录了用户k在时刻t1时产生的不同时序特征,而数据/>与/>记录了用户k在时刻t2时产生的不同时序特征,对于第二设备即数据源A和第一设备即数据源B而言,是包括多个用户的,如一行数据/>与/>记录了用户2在时刻t1时产生的不同时序特征,需要说明的是,基于所述第二样本时序数据,对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型进行联合同一目标时刻的第一样本时序数据和第二样本时序数据的联邦反向训练,得到前反向传播联合模型的步骤在本实施例中的实质为:第二设备即数据源A的在目标时刻的第二样本时序数据联邦第一设备即数据源B的在目标时刻的第一样本时序数据,进行目标时刻的循环神经网络模型的联邦前向训练流程后,还基于第二设备即数据源A的在目标时刻对应下一时刻的第二样本时序数据,联邦第一设备即数据源B的在目标时刻对应下一时刻的第一样本时序数据,进行目标时刻对应下一时刻的联邦前向训练流程,并不断进行迭代训练,以得到最后时刻的循环神经网络模型,在得到最后时刻的循环神经网络模型后,基于第二设备即数据源A的在最后时刻的第二样本时序数据,联邦第一设备即数据源B的在最后时刻的第一样本时序数据,进行最后时刻的循环神经网络模型的反向传播训练,基于第二设备即数据源A的在最后时刻对应上一时刻的第二样本时序数据,联邦第一设备即数据源B的在最后时刻对应上一时刻的第一样本时序数据,进行最后时刻对应上一时刻的循环神经网络模型的反向传播训练,并不断进行反向迭代训练,以得到目标模型。
具体地,接收第一设备在目标时刻的前向传播的第一中间参数(第一预设纵向联邦时序子流程),其中,第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数,如图5所示,数据源B即第一设备基于目标时刻的循环算子(h)、在目标时刻的第一样本时序数据即第一训练数据与和第一子模型参数,确定目标时刻的的前向传播的第一中间参数/>将所述的前向传播的第一中间参数/>前向传播给所述第二设备(数据源A);其中,所述目标循环算子为初始参数或者所述第二设备计算的上一时刻的第二中间参数。
步骤a2,基于所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定所述第二设备在目标时刻的第二中间参数;
步骤a2,将所述目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备将所述目标时刻的第二中间参数作为所述目标时刻对应下一时刻的循环算子,以得到所述目标时刻对应下一时刻的第一中间参数,接收所述第一设备发送的所述目标时刻对应下一时刻的第一中间参数,以对不同时刻的循环神经网络模型进行联邦前向训练,得到最后时刻的第二中间参数;
步骤a3,基于所述最后时刻的第二中间参数,预设预测模型以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度;
步骤a4,基于所述最后时刻的第二中间梯度,对联邦前向训练完成的不同时刻的循环神经网络模型进行联邦反向训练,得到前反向传播联合模型。
基于所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和循环神经网络模型的第二模型子参数,确定第二设备在目标时刻的第二中间参数,将所述目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备将所述目标时刻的第二中间参数作为所述目标时刻对应下一时刻的循环算子,并进行联邦前向训练,得到所述目标时刻对应最后时刻的第二中间参数,基于所述最后时刻的第二中间参数,预设预测模型,以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度,并基于所述最后时刻的第二中间梯度更新最后时刻的循环神经网络模的第二模型子参数和计算所述最后时刻的第一中间梯度,具体地,所述第二设备(数据源A)用于基于所述目标时刻的第一中间参数所述目标时刻的第二样本时序数据/>和第二子模型参数,确定所述目标时刻的第二中间参数/>(h1),将所述目标时刻的第二中间参数/>发送给所述第一设备B,以供所述第一设备B将所述目标时刻的第二中间参数/>作为所述目标时刻对应下一时刻的循环算子,以得到所述目标时刻对应下一时刻的第一中间参数/>基于所述第一设备发送的所述目标时刻对应下一时刻的第一中间参数所述目标时刻对应下一时刻的第二样本时序数据/>和第二子模型参数得到所述目标时刻对应下一时刻的的第二中间参数/>不断进行训练,得到所述目标时刻对应最后时刻的第二中间参数/>基于所述最后时刻的第二中间参数/>预设预测模型以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度/>并基于所述最后时刻的第二中间梯度/>更新所述第二模型子参数和计算所述最后时刻的第一中间梯度/>
将所述最后时刻的第一中间梯度发送给所述第一设备,以供所述第一设备基于所述最后时刻的第一中间梯度/>计算所述最后时刻对应上一时刻的第二中间参数/>以及最后时刻的第一样本时序数据,计算所述最后时刻对应上一时刻的第二中间参数/>后,基于所述最后时刻对应上一时刻的第二样本时序数据,所述最后时刻对应上一时刻的第二中间参数/>计算所述最后时刻对应上一时刻的第二中间梯度/>基于所述最后时刻对应上一时刻的第二中间梯度/>继续对联邦前向训练完成的不同时刻的循环神经网络模型进行联邦反向训练,直到得到满足预设条件的目标模型即前反向传播联合模型。具体地,基于所述最后时刻对应上一时刻的第二中间梯度/>计算得到所述最后时刻对应上一时刻的第一中间梯度/>以计算所述最后时刻对应上上一时刻的第二中间参数/>进而计算所述最后时刻对应上上上一时刻的第二中间梯度,不断进行第二迭代训练,直到得到满足预设条件的目标模型。
需要说明的是,在本实施例中,当联邦前向训练和联邦反向训练的执行次数都达到预设次数,或者是循环神经网络模型对具有预设标签的第二样本时序数据进行预测后得到的预测结果,与预存的具有预设标签的第二样本时序数据的真实结果之间的误差值或者损失值小于预设值时,满足预设条件。
步骤S13,将所述前反向传播联合模型设置为所述预设数据处理模型。
将所述目标模型设置为所述预设数据处理模型。
步骤S20,基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在得到所述预设数据处理模型后,基于所述预设数据处理模型对所述待处理时序数据执行执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在本实施例中,由于所述预设数据处理模型是已经经过训练的,得到的准确模型,因而,在得到待处理时序数据后,能够准确得到所述待处理时序数据的目标预测标签,该目标预测标签可以是对待处理时序数据进行分类的分类标签,如待处理时序数据对应用户在对应时序段是高消费用户等。
基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签至少包括如下两种方式:
方式一:通过已经训练好的数据处理模型,对当下时刻的待处理时序数据(第二设备中的第二待处理时序子数据)执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
方式二:通过已经训练好的数据处理模型,对当下时刻的待处理时序数据(第二设备中的第二待处理时序子数据和第一设备中的第一待处理时序子数据联合得到)执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在本实施例中,样本时序数据为医疗样本时序数据,所述第二待处理时序数据为第二待处理医疗时序数据,所述数据处理模型为医疗属性预测模型,
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练均联合第二样本医疗时序数据和同一目标时刻的第一设备的第一样本医疗时序数据;
所述基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤,包括:
基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果。
具体地,第二待处理医疗时序数据可以是当前检测到的血压,血脂,血糖,尿酸,胆固醇,检测次数,检测时长等数据,将所述第二待处理医疗时序数据输入至训练好的医疗属性预测模型中(所述医疗属性预测模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练均联合第二样本医疗时序数据(之前在医疗机构检测到的血压,血脂,血糖,尿酸,胆固醇,检测次数,检测时长等数据)和同一目标时刻的第一设备的第一样本医疗时序数据(如在某些机构上的消费数据,贷款数据))后,基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果,该医疗属性预测结果包括大于第一预设标签值的第一医疗属性预测结果(某一医疗属性数据可能性大于90%),或者小于第一预设标签值大于第二预设标签值的第二医疗属性预测结果,或者小于第二预设标签值的第三医疗属性预测结果医疗属性预测结果不同,基于医疗属性预测结果得到的关联贷款额度不同。
本申请通过获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。在本申请中,在得到待处理时序数据后,基于已经训练完成的,数据处理模型对所述待处理时序数据执行执行预设数据处理流程,以得到目标预测标签,由于数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据,也即,联邦该时刻不同的参与方的时序数据先对不同时刻的循环神经网络模型进行联邦前向训练,然后联邦该时刻不同的参与方的时序数据进行反向训练,因而,在保护参与方用户隐私的情况下提升特征丰富度,将各个参与方的小孤岛数据分析变为大数据分析,降低了模型构建时所花费的时长,以提升计算效率。且由于在保护参与方用户隐私的情况下提升特征丰富度,因而提升了对待处理时序数据的预测准确性,解决现有技术中难以准确对待处理时序数据进行预测的技术问题。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,所述基于所述最后时刻的第二中间参数以及预设预测模型,计算所述最后时刻的第二中间梯度的步骤,包括:
步骤b1,基于所述最后时刻的第二中间参数以及预设预测模型,确定在所述目标时刻所述第二样本时序数据的目标时刻预测结果;
步骤b2,确定所述目标时刻预测结果和预设标签之间的损失值;
步骤b3,基于所述损失值以及所述最后时刻的第二样本时序数据,计算所述第二设备在目标时刻的第二中间梯度。
在本实施例中,是确定如何计算所述第二设备在目标时刻的第二中间梯度的步骤,具体地,基于最后时刻的第二中间参数和预设预测模型,确定所述目标时刻预测结果和预设真实结果之间的损失值,基于所述损失值以及所述最后时刻的第二样本时序数据,计算所述第二设备在目标时刻的第二中间梯度。
本实施例基于所述最后时刻的第二中间参数以及预设预测模型,确定在所述目标时刻所述第二样本时序数据的目标时刻预测结果;确定所述目标时刻预测结果和预设标签之间的损失值;基于所述损失值以及所述最后时刻的第二样本时序数据,计算所述第二设备在目标时刻的第二中间梯度。进而为准确得到目标模型奠定基础。
进一步地,基于本申请中第一实施例和第二实施例,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述接收第一设备在目标时刻的前向传播的第一中间参数,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数的步骤,包括:
步骤C1,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
在本实施例中,第二设备可以接收多个第一设备的在目标时刻的前向传播的第一中间参数,并对该多个第一设备的在目标时刻的前向传播的第一中间参数进行联合处理,进而得到联合的第一中间参数,其中,各个第一设备在目标时刻的第一中间参数是通过所述第一设备在目标时刻的循环算子、在目标时刻的第一样本时序数据和第一循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。另外,在本实施例中,第一设备以及第二设备还可以通过第三方实现对循环神经网络模型的训练,具体地,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,所述第一设备在目标时刻的第一中间子参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和第一循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。由于通过第三方进行相关联邦参数的处理(可以以加密方式),因而,提升了模型训练的安全性。
所述接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的步骤,包括:
步骤d1,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
在本实施例中,在第二设备通过第三方与多个第一设备进行联邦时,接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的,也即,在本实施例中,联合的方式是对各个第一设备在目标时刻的各第一中间子参数进行均值处理,以得到前向传播的第一中间参数。
本实施例接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。在本实施例中,通过第三方实现多个第一设备与第二设备进行联邦,以实现扩充时序数据。
本申请实施例提供一种基于循环神经网络的数据处理方法,在本申请基于循环神经网络的数据处理方法的另一实施例中,所述基于循环神经网络的数据处理方法应用于第一设备,所述第二设备与第一设备进行预设联邦通信,所述第一设备中包括各个时刻的的第一样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取各个时刻的第一样本时序数据;
在检测到对不同时刻的循环神经网络模型联邦前向训练完成后,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对联邦前向训练完成的不同时刻的循环神经网络模型进行各个时刻的联邦反向训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理。
在本实施例中,第一设备获取各个时刻的第一样本时序数据。在检测到对不同时刻的循环神经网络模型联邦前向训练完成后,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对联邦前向训练完成的不同时刻的循环神经网络模型进行各个时刻的联邦反向训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理,在本实施例中,为准确预测待处理时序数据的类型等奠定基础。
在本实施例中,还提供一种基于循环神经网络的数据处理系统,该基于循环神经网络的数据处理系统至少包括第一设备与第二设备,其中,所述第二设备用于实现如下步骤;
获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
在本实施例中,基于循环神经网络的数据处理系统从属于基于循环神经网络的数据处理设备,以实现预测待处理时序数据的类型。
参照图3,图3是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图3所示,该基于循环神经网络的数据处理设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatilememory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该基于循环神经网络的数据处理设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图3中示出的基于循环神经网络的数据处理设备结构并不构成对基于循环神经网络的数据处理设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图3所示,作为一种计算机介质的存储器1005中可以包括操作系统、网络通信模块以及基于循环神经网络的数据处理程序。操作系统是管理和控制基于循环神经网络的数据处理设备硬件和软件资源的程序,支持基于循环神经网络的数据处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与基于循环神经网络的数据处理系统中其它硬件和软件之间通信。
在图3所示的基于循环神经网络的数据处理设备中,处理器1001用于执行存储器1005中存储的基于循环神经网络的数据处理程序,实现上述任一项所述的基于循环神经网络的数据处理方法的步骤。
本申请基于循环神经网络的数据处理设备具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
第一获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
其中,所述数据处理模型是基于具有预设标签的标签时序数据,对循环神经网络模型进行包括第一预设纵向联邦时序子流程和预设前向传播时序子流程的第一预设时序迭代流程的第一迭代训练,以及进行包括第二预设纵向联邦时序子流程和预设反向传播时序子流程的第二预设时序迭代流程的第二迭代训练后得到的目标模型;
第一处理模块,用于基于所述预设数据处理模型对所述待处理时序数据执行预设基于循环神经网络的数据处理流程,得到所述待处理时序数据的目标预测标签。
可选地,所述基于循环神经网络的数据处理装置还包括:
第二获取模块,用于获取具有预设标签的第二样本时序数据;
第二处理模块,用于对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,得到前反向传播联合模型;
其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
设置模块,用于将所述前反向传播联合模型设置为所述预设数据处理模型。
可选地,所述第二设备与第一设备进行预设联邦通信;
所述第二处理模块包括:
第一接收单元,用基于接收的所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定所述第二设备在目标时刻的第二中间参数;
发送单元,用于将所述目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备将所述目标时刻的第二中间参数作为所述目标时刻对应下一时刻的循环算子,以得到所述目标时刻对应下一时刻的第一中间参数,接收所述第一设备发送的所述目标时刻对应下一时刻的第一中间参数,以对不同时刻的循环神经网络模型进行联邦前向训练,得到最后时刻的第二中间参数;
计算单元,用于基于所述最后时刻的第二中间参数,预设预测模型以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度;
更新单元,用于基于所述最后时刻的第二中间梯度,对联邦前向训练完成的不同时刻的循环神经网络模型进行联邦反向训练,得到前反向传播联合模型。
可选地,所述计算单元包括:
第一确定子单元,用于基于所述最后时刻的第二中间参数以及预设预测模型,确定在所述目标时刻所述第二样本时序数据的目标时刻预测结果;
第二确定子单元,用于确定所述目标时刻预测结果和预设标签之间的损失值;
计算子单元,用于基于所述损失值以及所述最后时刻的第二样本时序数据,计算所述第二设备在目标时刻的第二中间梯度。
可选地,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述第一接收单元包括:
接收子单元,用于接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
可选地,所述接收子单元用于实现:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
可选地,样本时序数据为医疗样本时序数据,所述第二待处理时序数据为第二待处理医疗时序数据,所述数据处理模型为医疗属性预测模型,
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练均联合第二样本医疗时序数据和同一目标时刻的第一设备的第一样本医疗时序数据;
所述预测模块包括:
获取单元,用于基于所医疗属性预测模型对所述第二待处理医疗时序数据执行医疗属性预测处理,得到所述第二待处理医疗时序数据的医疗属性预测结果。
本申请还提供一种基于循环神经网络的数据处理装置,所述基于循环神经网络的数据处理装置应用于第一设备,所述第一设备中包括各个时刻的的第一样本时序数据,所述基于循环神经网络的数据处理装置包括:
第三获取模块,用于获取各个时刻的第一样本时序数据;
检测模块,用于在检测到对不同时刻的循环神经网络模型联邦前向训练完成后,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对联邦前向训练完成的不同时刻的循环神经网络模型进行各个时刻的联邦反向训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理。
本申请基于循环神经网络的数据处理装置的具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种介质,且所述介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的基于循环神经网络的数据处理方法的步骤。
本申请介质具体实施方式与上述基于循环神经网络的数据处理方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (11)
1.一种基于循环神经网络的数据处理方法,其特征在于,所述基于循环神经网络的数据处理方法应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据,其中,在完成各个时刻的循环神经网络模型的前向传播后、再进行已经完成前向传播的各个时刻的循环神经网络模型的反向传播训练,所述前向传播训练和所述反向传播训练是按照时序进行的;
基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
2.如权利要求1所述基于循环神经网络的数据处理方法,其特征在于,所述基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤之前,所述方法还包括:
获取具有预设标签的第二样本时序数据;
对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,得到前反向传播联合模型;
其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据;
将所述前反向传播联合模型设置为所述预设数据处理模型。
3.如权利要求2所述基于循环神经网络的数据处理方法,其特征在于,所述第二设备与第一设备进行预设联邦通信;
所述对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练,得到前反向传播联合模型的步骤,包括:
基于接收的所述第一设备在目标时刻的前向传播的第一中间参数,所述目标时刻的第二样本时序数据和目标时刻的循环神经网络模型的第二模型子参数,确定所述第二设备在目标时刻的第二中间参数;
将所述目标时刻的第二中间参数发送给所述第一设备,以供所述第一设备将所述目标时刻的第二中间参数作为所述目标时刻对应下一时刻的循环算子,以得到所述目标时刻对应下一时刻的第一中间参数,接收所述第一设备发送的所述目标时刻对应下一时刻的第一中间参数,以对不同时刻的循环神经网络模型进行联邦前向训练,得到最后时刻的第二中间参数;
基于所述最后时刻的第二中间参数,预设预测模型以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度;
基于所述最后时刻的第二中间梯度,对联邦前向训练完成的不同时刻的循环神经网络模型进行联邦反向训练,得到前反向传播联合模型。
4.如权利要求3所述基于循环神经网络的数据处理方法,其特征在于,所述基于所述最后时刻的第二中间参数,预设预测模型以及最后时刻的第二样本时序数据,计算所述最后时刻的第二中间梯度的步骤,包括:
基于所述最后时刻的第二中间参数以及预设预测模型,确定在所述目标时刻所述第二样本时序数据的目标时刻预测结果;
确定所述目标时刻预测结果和预设标签之间的损失值;
基于所述损失值以及所述最后时刻的第二样本时序数据,计算所述第二设备在目标时刻的第二中间梯度。
5.如权利要求3-4任一项所述基于循环神经网络的数据处理方法,其特征在于,所述第一设备包括多个,所述多个第一设备与所述第二设备通过预设第三方进行预设联邦通信;
所述接收第一设备在目标时刻的前向传播的第一中间参数,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数的步骤,包括:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的,其中,第一设备在目标时刻的前向传播的第一中间参数是通过所述第一设备在目标时刻的循环算子、在所述目标时刻的第一样本时序数据和目标时刻的循环神经网络模型的第一模型子参数确定的,所述第一设备的循环算子为初始参数或所述第一设备前向传播的、所述目标时刻对应上一时刻的第一中间参数。
6.如权利要求5所述基于循环神经网络的数据处理方法,其特征在于,所述接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设联合处理得到的步骤,包括:
接收第三方发送的在目标时刻的前向传播的第一中间参数,其中,所述第一中间参数是第三方基于接收到的各第一设备在目标时刻的各第一中间子参数,进行预设均值处理得到的。
7.如权利要求1所述基于循环神经网络的数据处理方法,其特征在于,样本时序数据为医疗样本时序数据,所述待处理时序数据为待处理医疗时序数据,所述数据处理模型为医疗属性预测模型,
所述医疗属性预测模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练均联合第二样本医疗时序数据和同一目标时刻的第一设备的第一样本医疗时序数据;
所述基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签的步骤,包括:
基于所医疗属性预测模型对所述待处理医疗时序数据执行医疗属性预测处理,得到所述待处理医疗时序数据的医疗属性预测结果。
8.一种基于循环神经网络的数据处理方法,其特征在于,所述基于循环神经网络的数据处理方法应用于第一设备,所述第一设备中包括各个时刻的的第一样本时序数据,所述基于循环神经网络的数据处理方法包括:
获取各个时刻的第一样本时序数据;
在检测到对不同时刻的循环神经网络模型联邦前向训练完成后,基于所述各个时刻的第一样本时序数据,联合同一目标时刻的第二设备具有预设标签的第二样本时序数据对联邦前向训练完成的不同时刻的循环神经网络模型进行各个时刻的联邦反向训练,以供所述第二设备得到数据处理模型,以基于所述数据处理模型对预设待处理数据进行处理,其中,在完成各个时刻的循环神经网络模型的前向传播后、再进行已经完成前向传播的各个时刻的循环神经网络模型的反向传播训练,所述前向传播训练和所述反向传播训练是按照时序进行的。
9.一种基于循环神经网络的数据处理装置,其特征在于,所述基于循环神经网络的数据处理装置应用于第二设备,所述第二设备中包括各个时刻的具有预设标签的第二样本时序数据,所述基于循环神经网络的数据处理装置包括:
获取模块,用于获取待处理时序数据,将所述待处理时序数据输入至预设数据处理模型中;
所述数据处理模型为对不同时刻的循环神经网络模型进行联邦前向训练后,对联邦前向训练完成的不同时刻的循环神经网络模型再进行各个时刻的联邦反向训练得到的,其中,同一时刻的循环神经网络模型的各训练联合第二样本时序数据和同一目标时刻的第一设备的第一样本时序数据,其中,在完成各个时刻的循环神经网络模型的前向传播后、再进行已经完成前向传播的各个时刻的循环神经网络模型的反向传播训练,所述前向传播训练和所述反向传播训练是按照时序进行的;
预测模块,用于基于所述预设数据处理模型对所述待处理时序数据执行预设数据处理流程,得到所述待处理时序数据的目标预测标签。
10.一种基于循环神经网络的数据处理设备,其特征在于,所述基于循环神经网络的数据处理设备包括:存储器、处理器以及存储在存储器上的用于实现所述基于循环神经网络的数据处理方法的程序,
所述存储器用于存储实现基于循环神经网络的数据处理方法的程序;
所述处理器用于执行实现所述基于循环神经网络的数据处理方法的程序,以实现如权利要求1至8中任一项所述基于循环神经网络的数据处理方法的步骤。
11.一种介质,其特征在于,所述介质上存储有实现基于循环神经网络的数据处理方法的程序,所述实现基于循环神经网络的数据处理方法的程序被处理器执行以实现如权利要求1至8中任一项所述基于循环神经网络的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595164.9A CN111737920B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595164.9A CN111737920B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111737920A CN111737920A (zh) | 2020-10-02 |
CN111737920B true CN111737920B (zh) | 2024-04-26 |
Family
ID=72651224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010595164.9A Active CN111737920B (zh) | 2020-06-24 | 2020-06-24 | 基于循环神经网络的数据处理方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111737920B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111737922A (zh) * | 2020-06-24 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 基于循环神经网络的数据处理方法、装置、设备及介质 |
CN113724116B (zh) * | 2020-12-18 | 2024-10-22 | 京东城市(北京)数字科技有限公司 | 一种区域人群活跃度确定方法、装置及电子设备 |
CN115460590B (zh) * | 2021-06-07 | 2024-10-22 | 中国移动通信集团浙江有限公司 | 数据加解密方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313722A (zh) * | 2016-05-20 | 2019-02-05 | 渊慧科技有限公司 | 存储器高效的基于时间的反向传播 |
CN110321603A (zh) * | 2019-06-18 | 2019-10-11 | 大连理工大学 | 一种用于航空发动机气路故障诊断的深度计算模型 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN110874553A (zh) * | 2018-09-03 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种识别模型训练方法及装置 |
CN111222628A (zh) * | 2019-11-20 | 2020-06-02 | 深圳前海微众银行股份有限公司 | 循环神经网络训练优化方法、设备、系统及可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10755172B2 (en) * | 2016-06-22 | 2020-08-25 | Massachusetts Institute Of Technology | Secure training of multi-party deep neural network |
-
2020
- 2020-06-24 CN CN202010595164.9A patent/CN111737920B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313722A (zh) * | 2016-05-20 | 2019-02-05 | 渊慧科技有限公司 | 存储器高效的基于时间的反向传播 |
CN110874553A (zh) * | 2018-09-03 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种识别模型训练方法及装置 |
CN110321603A (zh) * | 2019-06-18 | 2019-10-11 | 大连理工大学 | 一种用于航空发动机气路故障诊断的深度计算模型 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111222628A (zh) * | 2019-11-20 | 2020-06-02 | 深圳前海微众银行股份有限公司 | 循环神经网络训练优化方法、设备、系统及可读存储介质 |
Non-Patent Citations (4)
Title |
---|
基于循环神经网络的时序fMRI数据分类方法研究;张兆晨;冀俊忠;;小型微型计算机系统;20180715(第07期);全文 * |
基于时间递归序列模型的短文本语义简化;蔺伟斌;杨世瀚;;物联网技术;20190520(第05期);全文 * |
基于联邦学习和卷积神经网络的入侵检测方法;王蓉;马春光;武朋;;信息网络安全(第04期);全文 * |
时频联合长时循环神经网络;庄连生;吕扬;杨健;李厚强;;计算机研究与发展(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111737920A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111737920B (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
AU2021218153A1 (en) | Method and apparatus for encrypting data, method and apparatus for training machine learning model, and electronic device | |
CN109389072B (zh) | 数据处理方法和装置 | |
CN113743607B (zh) | 异常检测模型的训练方法、异常检测方法及装置 | |
WO2021258882A1 (zh) | 基于循环神经网络的数据处理方法、装置、设备及介质 | |
CN110059623B (zh) | 用于生成信息的方法和装置 | |
CN111860865A (zh) | 模型构建和分析的方法、装置、电子设备和介质 | |
CN111737921B (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
US20230325757A1 (en) | Computer-implemented method and system for testing a model | |
CN111738422A (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN113822734A (zh) | 用于生成信息的方法和装置 | |
CN117314337A (zh) | 业务办理方法、装置、计算机设备和存储介质 | |
CN110347973A (zh) | 用于生成信息的方法和装置 | |
CN116432040A (zh) | 基于联邦学习的模型训练方法、装置、介质以及电子设备 | |
CN116992976A (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
CN109643209A (zh) | 在客户端应用中动态地呈现大数据集 | |
CN111738421A (zh) | 基于循环神经网络的数据处理方法、设备及介质 | |
CN114296839B (zh) | 支付控制方法、装置和设备及计算机存储介质 | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 | |
CN111625572A (zh) | 在数据隐私保护下执行机器学习的方法和系统 | |
CN115051799B (zh) | 一种基于区块链的数字信息处理系统 | |
US20180225728A1 (en) | System and method for facilitating non-parametric weighted correlation analysis | |
WO2023145048A1 (ja) | 情報処理装置、情報処理方法、及び、記憶媒体 | |
CN111131355B (zh) | 用于处理信息的方法和装置 | |
CN113902438A (zh) | 硬件钱包数据同步方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |