CN113408747A - 模型参数更新方法、装置、计算机可读介质及电子设备 - Google Patents

模型参数更新方法、装置、计算机可读介质及电子设备 Download PDF

Info

Publication number
CN113408747A
CN113408747A CN202110720441.9A CN202110720441A CN113408747A CN 113408747 A CN113408747 A CN 113408747A CN 202110720441 A CN202110720441 A CN 202110720441A CN 113408747 A CN113408747 A CN 113408747A
Authority
CN
China
Prior art keywords
participant
data
model
training
sent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110720441.9A
Other languages
English (en)
Inventor
周一竞
孟丹
李宏宇
李晓林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huai'an Jiliu Technology Co ltd
Original Assignee
Huai'an Jiliu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huai'an Jiliu Technology Co ltd filed Critical Huai'an Jiliu Technology Co ltd
Priority to CN202110720441.9A priority Critical patent/CN113408747A/zh
Publication of CN113408747A publication Critical patent/CN113408747A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开的实施例提供了一种模型参数更新方法、装置、计算机可读介质及电子设备,涉及计算机技术领域;包括:接收各参与方发送的待联邦训练数据;对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;将联合计算结果发送至各参与方,以使得各参与方根据联合结果更新各自对应的模型参数。可见,实施本公开实施例的技术方案,能够对多个参与方发送的待联邦训练数据进行联邦计算,从而得到融合了各参与方发送的待联邦训练数据的联合计算结果并反馈至各参与方,各参与方基于联合计算结果进行模型训练,可以基于跨样本训练提升各参与方的由软决策树组成的模型训练效率。

Description

模型参数更新方法、装置、计算机可读介质及电子设备
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种模型参数更新方法、装置、计算机可读介质及电子设备。
背景技术
在机器学习领域,一般会通过标记好的样本数据训练机器学习模型,以使得该模型适用于识别图像、文字、某个对象等。一般来说,基于决策树的模型属于较为常用的模型,决策树组成该模型的方式一般为串联,但是,这样容易导致训练效率较低的问题。
发明内容
本公开实施例的目的在于提供一种模型参数更新方法、模型参数更新装置、计算机可读介质及电子设备,能够基于跨样本训练提升各参与方的由软决策树组成的模型训练效率。
本公开实施例的第一方面提供了一种模型参数更新方法,包括:
接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成;
对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;
将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。
在本公开的一种示例性实施例中,接收各参与方发送的待联邦训练数据之前,上述方法还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的模型参数;其中,训练后的模型对应的模型参数包括权重值和/或偏置项;
各参与方将各自对应的模型参数确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
在本公开的一种示例性实施例中,接收各参与方发送的待联邦训练数据之前,上述方法还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的梯度值;
各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
在本公开的一种示例性实施例中,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果。
在本公开的一种示例性实施例中,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果。
在本公开的一种示例性实施例中,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
检测各参与方发送的待联邦训练数据是否对应于同一数据类型;
如果是,则对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
在本公开的一种示例性实施例中,各参与方根据联合结果更新各自对应的模型参数之后,上述方法还包括:
各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
根据本公开实施例的第二方面,提供一种模型参数更新装置,包括:
数据接收单元,用于接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成;
联合计算单元,用于对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;
数据发送单元,用于将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。
在本公开的一种示例性实施例中,数据接收单元接收各参与方发送的待联邦训练数据之前,上述装置还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的模型参数;其中,训练后的模型对应的模型参数包括权重值和/或偏置项;
各参与方将各自对应的模型参数确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
在本公开的一种示例性实施例中,数据接收单元接收各参与方发送的待联邦训练数据之前,上述装置还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的梯度值;
各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
在本公开的一种示例性实施例中,联合计算单元对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果。
在本公开的一种示例性实施例中,联合计算单元对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果。
在本公开的一种示例性实施例中,联合计算单元对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
检测各参与方发送的待联邦训练数据是否对应于同一数据类型;
如果是,则对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
在本公开的一种示例性实施例中,各参与方根据联合结果更新各自对应的模型参数之后,上述装置还包括:
各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
根据本公开实施例的第三方面,提供了一种计算机可读介质,其上存储有计算机程序,程序被处理器执行时实现如上述实施例中第一方面所述的模型参数更新方法。
根据本公开实施例的第四方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现如上述实施例中第一方面所述的模型参数更新方法。
根据本申请的第五方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述的各种可选实现方式中提供的方法。
本公开实施例提供的技术方案可以包括以下有益效果:
在本公开的一些实施例所提供的技术方案中,可以接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成;对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。实施本公开的实施例,一方面,可以基于跨样本训练提升各参与方的由软决策树组成的模型训练效率。另一方面,能够对多个参与方发送的待联邦训练数据进行联邦计算,从而得到融合了各参与方发送的待联邦训练数据的联合计算结果并反馈至各参与方,各参与方基于联合计算结果进行模型训练,可以提升模型的泛化性。再一方面,多个参与方可以在不透露自身数据的前提下实现联邦训练,从而有利于保证参与方自身的数据安全。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了可以应用本公开实施例的一种模型参数更新方法及装置的示例性系统架构的示意图;
图2示意性示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的一个实施例的模型参数更新方法的流程图;
图4示意性示出了根据本公开的一个实施例的基于模型参数的联邦训练流程示意图;
图5示意性示出了根据本公开的一个实施例的基于梯度值的联邦训练流程示意图;
图6示意性示出了图3中的一个实施例的模型参数更新方法的流程图;
图7示意性示出了根据本公开的一个实施例中的模型参数更新装置的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示意性示出了可以应用本公开实施例的一种模型参数更新方法及装置的示例性系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。例如,服务器105可以执行:接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成;对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从储存部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在(RAM)203中,还存储有系统操作所需的各种程序和数据。(CPU)201、(ROM)202以及(RAM)203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至(I/O)接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的储存部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至(I/O)接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入储存部分208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,示出了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图3所示的各个步骤等。
本示例实施方式提供了一种模型参数更新方法。参考图3所示,该模型参数更新方法可以包括以下步骤S310至步骤S330,具体地:
步骤S310:接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成。
步骤S320:对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
步骤S330:将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。
需要说明的是,步骤S310至步骤S330可以由第三方执行,第三方可以为服务器,也可以为终端设备,本申请实施例不作限定。此外,本申请可以应用于风控、金融、医疗、图像、营销等各种场景,各参与方对应的可以是各个数据公司,第三方对应的可以是银行或任一可信公司。各个数据公司具有不同的应用场景和不同的样本,通过联合建模的方式进行模型训练,可以提升各参与方的模型的泛化能力,各参与方的样本可以是场景(如,草地、篮球场、银行等),也可以是对象(如,人、猫、狗等)。
举例来说,当各参与方对应的是各医疗机构且第三方对应的是可信公司时,各医疗机构的样本数据可以是患者数据(如,核磁共振图),基于联邦训练的模式,各医疗机构可以在不泄露自身数据的前提下,实现联邦式的模型训练,从而提升模型学习效率,改善模型泛化能力。
实施图3所示的模型参数更新方法,可以基于跨样本训练提升各参与方的由软决策树组成的模型训练效率,还能够对多个参与方发送的待联邦训练数据进行联邦计算,从而得到融合了各参与方发送的待联邦训练数据的联合计算结果并反馈至各参与方,各参与方基于联合计算结果进行模型训练,可以提升模型的泛化性。另外,多个参与方可以在不透露自身数据的前提下实现联邦训练,从而有利于保证参与方自身的数据安全。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成。
具体地,待联邦训练数据中可以包含模型参数和梯度值中至少一种。每个参与方对应的待联邦训练数据不相同。本申请中的参与方数量可以为两个或两个以上,本申请实施例不作限定。
具体地,各参与方可以为服务器或终端设备,各参与方运行的模型可以为SoftGBDT模型,Soft GBDT可以由多个基础学习器(如,软决策树)组成,多个基础学习器串联可以得到Soft GBDT,多个基础学习器中各基础学习器可以并行执行计算也可以串行执行计算。其中,软决策树包含多层节点,每层基于逻辑回归决定左右分支概率,最后一层节点通过输出固定分布,最终结果可以是概率最大路径对应的分类分布/所有路径的加权平均。在软决策树中,每个样本不再是严格落在一个分支节点上,而是以一定的概率落在每一个分支节点上。基于对软决策树的应用,可以实现多个基础学习器的训练并行化(即,模型的前向传播和反向传播均可以并行化),这样可以提升模型训练效率。
作为一种可选的实施例,接收各参与方发送的待联邦训练数据之前,上述方法还包括:各参与方基于各自对应的样本数据进行模型训练;各参与方确定训练后的模型对应的模型参数;其中,训练后的模型对应的模型参数包括权重值和/或偏置项;各参与方将各自对应的模型参数确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
具体地,样本数据可以为图片数据、文本数据、音频数据、视频数据等,本申请实施例不作限定。若样本数据为图片数据,那么,各参与方的图片数据的特征为图片尺寸大小展开的行向量。
其中,各参与方基于各自对应的样本数据进行模型训练之前,上述方法还可以包括:各参与方检测样本集中的样本数据是否符合样本规则,其中,样本规则用于限定样本数据的维度、尺寸、数量、通道等;若样本集中存在不符合样本规则的样本数据,则依据样本规则对不符合样本规则的样本数据进行归一化处理。
其中,各参与方基于各自对应的样本数据进行模型训练之前,上述方法还可以包括:各参与方对各自对应的模型进行初始化,以预先设定模型参数。
其中,各参与方基于各自对应的样本数据进行模型训练,包括:各参与方基于各自对应的样本数据对模型进行N次迭代,以实现模型训练;其中,N为正整数。
另外,各参与方基于各自对应的样本数据进行模型训练,包括:各参与方将各自对应的样本数据输入各自的模型,并根据模型输出的结果计算损失函数
Figure BDA0003136714710000111
其中,lm是模型中各基础学习器的局部损失函数。这样可以通过最小化全局损失函数
Figure BDA0003136714710000112
训练整个模型,虽然各基础学习器的结果拟合的是上一基础学习器的残差,但由于软决策树的节点和树之间的独立性,只需要在最终综合所有树的计算结果最小化
Figure BDA0003136714710000113
进行训练即可,以充分利用并行计算来提升模型训练的速度。
可见,实施该可选的实施例,能够使得各参与方对各自的模型进行训练从而得到需要进行联邦训练的模型参数,进而可以基于各参与方之间数据保密的情况下请求第三方融合各参与方的模型参数,从而得到联邦训练之后的模型参数,以便于根据该联邦训练之后的模型参数对各自对应的模型进行优化,从而提升模型优化效率,提升模型的泛化性。
作为一种可选的实施例,接收各参与方发送的待联邦训练数据之前,上述方法还包括:各参与方基于各自对应的样本数据进行模型训练;各参与方确定训练后的模型对应的梯度值;各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
具体地,梯度值用于描述模型参数的变化速率。每个参与方对应于一组唯一的解密密钥和加密密钥,解密密钥与加密密钥均可以为随机数,由字符串进行表示。加密密钥用于加密发送至第三方的梯度值,解密密钥用于解密第三方返回的联合计算结果。其中,各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密之前,上述方法还可以包括:各参与方根据阈值同态加密算法预生成各自对应的一组解密密钥和加密密钥。
可见,实施该可选的实施例,能够使得各参与方对各自的模型进行训练从而得到需要进行联邦训练的梯度值,进而可以基于各参与方之间数据保密的情况下请求第三方融合各参与方的梯度值,从而得到联邦训练之后的梯度值,以便于根据该联邦训练之后的梯度值对各自对应的模型进行参数优化,从而提升模型优化效率,提升模型的泛化性。
在步骤S320中,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
具体地,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果之后,上述方法还可以包括:丢弃各参与方发送的待联邦训练数据,不作保存以避免数据被盗,从而保证对于各参与方的待联邦训练数据的保密性。
作为一种可选的实施例,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果。
具体地,对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果,包括:对各参与方C1、C2、……、Cn发送的模型参数w1、w2、……、wn进行均值计算(w1+w2+……+wn)/n,并将得到的均值w确定为联合计算结果;其中,n为正整数。进一步地,对各参与方C1、C2、……、Cn发送的模型参数w1、w2、……、wn进行均值计算(w1+w2+……+wn)/n,包括:对各参与方C1、C2、……、Cn发送的模型参数w1、w2、……、wn进行加权均值计算(a1*w1+a2*w2+……+an*wn)/n;其中,a1、a2、……、an可以为常数。
可见,实施该可选的实施例,能够利用第三方进行模型参数的联合训练,利用更多的样本数据优化参数,从而提升模型的泛化程度,提升模型分类精度。
请参阅图4,图4示意性示出了根据本公开的一个实施例的基于模型参数的联邦训练流程示意图。如图4所示,基于模型参数的联邦训练过程包括:步骤S400~步骤S418。
步骤S400:参与方A接收信息并存储信息。其中,信息可以为联邦训练的触发信息也可以为用于作为样本数据的样本信息。
步骤S402:第三方接收信息并存储信息。其中,信息可以为联邦训练的触发信息也可以为用于作为样本数据的样本信息。
步骤S404:参与方B接收信息并存储信息。其中,信息可以为联邦训练的触发信息也可以为用于作为样本数据的样本信息。
步骤S406:参与方A通过样本数据进行模型训练。进而可以得到训练后的模型对应的模型参数A并将模型参数A发送至第三方。
步骤S408:参与方B通过样本数据进行模型训练。进而可以得到训练后的模型对应的模型参数B并将模型参数B发送至第三方。
步骤S410:第三方计算联合计算结果=0.5*(模型参数A+模型参数B)。进而,第三方可以将联合计算结果发送至参与方A和参与方B。
步骤S412:参与方A接收联合计算结果。
步骤S414:参与方B接收联合计算结果。
步骤S416:参与方A检测样本集中是否存在新样本数据。如果是,则执行步骤S406,如果否,则结束流程。
步骤S418:参与方B检测样本集中是否存在新样本数据。如果是,则执行步骤S408,如果否,则结束流程。
作为一种可选的实施例,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果。
另外,对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果,包括:对解密后的各参与方C1、C2、……、Cn发送的梯度值g1、g2、……、gn进行均值计算(g1+g2+……+gn)/n,并将得到的均值g确定为联合计算结果;其中,n为正整数。进一步地,对解密后的各参与方C1、C2、……、Cn发送的梯度值g1、g2、……、gn进行均值计算(g1+g2+……+gn)/n,包括:对解密后的各参与方C1、C2、……、Cn发送的梯度值g1、g2、……、gn进行加权均值计算(a1*g1+a2*g2+……+an*gn)/n;其中,a1、a2、……、an可以为常数。
另外,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果,进而通过解密密钥对联合计算结果进行解密,将解密结果作为新的联合计算结果。
可见,实施该可选的实施例,能够利用第三方进行梯度值的联合训练,利用更多的样本数据优化参数,从而提升模型的泛化程度,提升模型分类精度。
请参阅图5,图5示意性示出了根据本公开的一个实施例的基于梯度值的联邦训练流程示意图。如图5所示,基于梯度值的联邦训练过程包括:步骤S500~步骤S518。
步骤S500:参与方A接收加密密钥。
步骤S502:第三方接收信息并存储信息。其中,信息可以为联邦训练的触发信息也可以为用于作为样本数据的样本信息。
步骤S504:参与方B接收加密密钥。
步骤S506:参与方A通过样本数据进行模型训练,并计算训练后的模型对应的模型参数的梯度值A,通过预生成的加密密钥a加密梯度值A。进而,可以将加密后的梯度值A发送至第三方。
步骤S508:参与方B通过样本数据进行模型训练,并计算训练后的模型对应的模型参数的梯度值B,通过预生成的加密密钥b加密梯度值B。进而,可以将加密后的梯度值B发送至第三方。
步骤S510:第三方计算联合计算结果=0.5*(梯度值A+梯度值B)。进而,第三方可以将联合计算结果发送至参与方A和参与方B。
步骤S512:参与方A接收联合计算结果,通过解密密钥a解密联合计算结果,并根据解密后的联合计算结果更新模型参数。
步骤S514:参与方B接收联合计算结果,通过解密密钥b解密联合计算结果,并根据解密后的联合计算结果更新模型参数。
步骤S516:参与方A检测样本集中是否存在新样本数据。如果是,则执行步骤S506,如果否,则结束流程。
步骤S518:参与方B检测样本集中是否存在新样本数据。如果是,则执行步骤S508,如果否,则结束流程。
作为一种可选的实施例,对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:检测各参与方发送的待联邦训练数据是否对应于同一数据类型;如果是,则对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
具体地,若各参与方发送的待联邦训练数据均为模型参数,则各参与方发送的待联邦训练数据属于同一数据类型,若一些参与方发送的待联邦训练数据为模型参数,另一些参与方发送的待联邦训练数据为梯度值,则各参与方发送的待联邦训练数据不属于同一数据类型。
可见,实施该可选的实施例,能够在各参与方发送的待联邦训练数据对应于同一数据类型的情况下进行联合计算,从而保证联合计算结果有效性,以改善模型训练效率。
在步骤S330中,将联合计算结果发送至各参与方,以使得各参与方根据联合结果更新各自对应的模型参数。
作为一种可选的实施例,各参与方根据联合结果更新各自对应的模型参数之后,上述方法还包括:各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
具体地,若待联邦训练数据为梯度值,各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止,实现对于模型的进一步训练,包括:各参与方根据联合计算结果更新各自对应的模型参数,并基于新样本数据训练参数更新后的模型。其中,各参与方根据联合计算结果更新各自对应的模型参数,包括:各参与方计算预设学习率与联合计算结果的乘积,并将该乘积与对应的模型参数的和作为新的模型参数。其中,预设学习率可以为预设常数。
另外,样本集用于存储一个或多个样本数据,其中,已用于模型训练的样本数据为旧样本数据,未用于模型训练的样本数据为新样本数据。
可见,实施该可选的实施例,能够基于第三方实现联邦训练,基于联邦训练的结果进行模型优化,可以提升模型的泛化性。
请参阅图6,图6示意性示出了图3中的一个实施例的模型参数更新方法的流程图。如图6所示,该模型参数更新方法包括:步骤S610~步骤S650。
步骤S610:各参与方基于各自对应的样本数据进行模型训练,确定训练后的模型对应的模型参数,并将各自对应的模型参数确定为待联邦训练数据并发送至第三方。
步骤S620:第三方对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果,第三方将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。进而,执行步骤S650。
步骤S630:各参与方基于各自对应的样本数据进行模型训练,确定训练后的模型对应的梯度值,并各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方。
步骤S640:第三方对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果,第三方将联合计算结果发送至各参与方,以使得各参与方通过各自对应的解密密钥解密联合计算结果并根据联合结果更新各自对应的模型参数。进而,执行步骤S650。
步骤S650:各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
需要说明的是,步骤S610~步骤S650与图3所示的各步骤及其实施例相对应,针对步骤S610~步骤S650的具体实施方式,请参阅图3所示的各步骤及其实施例,此处不再赘述。
可见,实施图6所示的方法,可以基于跨样本训练提升各参与方的由软决策树组成的模型训练效率,还能够对多个参与方发送的待联邦训练数据进行联邦计算,从而得到融合了各参与方发送的待联邦训练数据的联合计算结果并反馈至各参与方,各参与方基于联合计算结果进行模型训练,可以提升模型的泛化性。另外,多个参与方可以在不透露自身数据的前提下实现联邦训练,从而有利于保证参与方自身的数据安全。
进一步的,本示例实施方式中,还提供了一种模型参数更新装置。参考图7所示,该模型参数更新装置700可以包括:
数据接收单元701,用于接收各参与方发送的待联邦训练数据;其中,待联邦训练数据为相应的参与方基于模型的训练结果确定得到,模型由多个软决策树构成;
联合计算单元702,用于对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;
数据发送单元703,用于将联合计算结果发送至各参与方,以使得各参与方根据联合计算结果更新各自对应的模型参数。
可见,实施图7所示的装置,可以基于跨样本训练提升各参与方的由软决策树组成的模型训练效率,还能够对多个参与方发送的待联邦训练数据进行联邦计算,从而得到融合了各参与方发送的待联邦训练数据的联合计算结果并反馈至各参与方,各参与方基于联合计算结果进行模型训练,可以提升模型的泛化性。另外,多个参与方可以在不透露自身数据的前提下实现联邦训练,从而有利于保证参与方自身的数据安全。
在本公开的一种示例性实施例中,数据接收单元701接收各参与方发送的待联邦训练数据之前,上述装置还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的模型参数;其中,训练后的模型对应的模型参数包括权重值和/或偏置项;
各参与方将各自对应的模型参数确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
可见,实施该可选的实施例,能够使得各参与方对各自的模型进行训练从而得到需要进行联邦训练的模型参数,进而可以基于各参与方之间数据保密的情况下请求第三方融合各参与方的模型参数,从而得到联邦训练之后的模型参数,以便于根据该联邦训练之后的模型参数对各自对应的模型进行优化,从而提升模型优化效率,提升模型的泛化性。
在本公开的一种示例性实施例中,数据接收单元701接收各参与方发送的待联邦训练数据之前,上述装置还包括:
各参与方基于各自对应的样本数据进行模型训练;
各参与方确定训练后的模型对应的梯度值;
各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方,以使得第三方接收各参与方发送的待联邦训练数据。
可见,实施该可选的实施例,能够使得各参与方对各自的模型进行训练从而得到需要进行联邦训练的梯度值,进而可以基于各参与方之间数据保密的情况下请求第三方融合各参与方的梯度值,从而得到联邦训练之后的梯度值,以便于根据该联邦训练之后的梯度值对各自对应的模型进行参数优化,从而提升模型优化效率,提升模型的泛化性。
在本公开的一种示例性实施例中,联合计算单元702对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方发送的模型参数进行均值计算,并将得到的均值确定为联合计算结果。
可见,实施该可选的实施例,能够利用第三方进行模型参数的联合训练,利用更多的样本数据优化参数,从而提升模型的泛化程度,提升模型分类精度。
在本公开的一种示例性实施例中,联合计算单元702对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对各参与方对应的梯度值进行均值计算,并将得到的均值确定为联合计算结果。
可见,实施该可选的实施例,能够利用第三方进行梯度值的联合训练,利用更多的样本数据优化参数,从而提升模型的泛化程度,提升模型分类精度。
在本公开的一种示例性实施例中,联合计算单元702对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
检测各参与方发送的待联邦训练数据是否对应于同一数据类型;
如果是,则对各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
可见,实施该可选的实施例,能够在各参与方发送的待联邦训练数据对应于同一数据类型的情况下进行联合计算,从而保证联合计算结果有效性,以改善模型训练效率。
在本公开的一种示例性实施例中,各参与方根据联合结果更新各自对应的模型参数之后,上述装置还包括:
各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
可见,实施该可选的实施例,能够基于第三方实现联邦训练,基于联邦训练的结果进行模型优化,可以提升模型的泛化性。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本公开的示例实施例的模型参数更新装置的各个功能模块与上述模型参数更新方法的示例实施例的步骤对应,因此对于本公开装置实施例中未披露的细节,请参照本公开上述的模型参数更新方法的实施例。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种模型参数更新方法,其特征在于,包括:
接收各参与方发送的待联邦训练数据;其中,所述待联邦训练数据为相应的参与方基于模型的训练结果确定得到,所述模型由多个软决策树构成;
对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;
将所述联合计算结果发送至所述各参与方,以使得所述各参与方根据所述联合计算结果更新各自对应的模型参数。
2.根据权利要求1所述的方法,其特征在于,接收各参与方发送的待联邦训练数据之前,所述方法还包括:
所述各参与方基于各自对应的样本数据进行模型训练;
所述各参与方确定训练后的模型对应的模型参数;其中,训练后的模型对应的模型参数包括权重值和/或偏置项;
所述各参与方将各自对应的模型参数确定为待联邦训练数据并发送至第三方,以使得所述第三方接收所述各参与方发送的待联邦训练数据。
3.根据权利要求1所述的方法,其特征在于,接收各参与方发送的待联邦训练数据之前,所述方法还包括:
所述各参与方基于各自对应的样本数据进行模型训练;
所述各参与方确定训练后的模型对应的梯度值;
所述各参与方根据各自预生成的加密密钥对各自对应的梯度值进行加密,将加密后的梯度值确定为待联邦训练数据并发送至第三方,以使得所述第三方接收所述各参与方发送的待联邦训练数据。
4.根据权利要求2所述的方法,其特征在于,对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对所述各参与方发送的模型参数进行均值计算,并将得到的均值确定为所述联合计算结果。
5.根据权利要求3所述的方法,其特征在于,对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
对所述各参与方对应的梯度值进行均值计算,并将得到的均值确定为所述联合计算结果。
6.根据权利要求1所述的方法,其特征在于,对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果,包括:
检测所述各参与方发送的待联邦训练数据是否对应于同一数据类型;
如果是,则对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述各参与方根据所述联合结果更新各自对应的模型参数之后,所述方法还包括:
所述各参与方基于新样本数据训练参数更新后的模型,直到样本集中无新样本为止。
8.一种模型参数更新装置,其特征在于,包括:
数据接收单元,用于接收各参与方发送的待联邦训练数据;其中,所述待联邦训练数据为相应的参与方基于模型的训练结果确定得到,所述模型由多个软决策树构成;
联合计算单元,用于对所述各参与方发送的待联邦训练数据进行联合计算,得到联合计算结果;
数据发送单元,用于将所述联合计算结果发送至所述各参与方,以使得所述各参与方根据所述联合计算结果更新各自对应的模型参数。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~7中任一项所述的模型参数更新方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1~7中任一项所述的模型参数更新方法。
CN202110720441.9A 2021-06-28 2021-06-28 模型参数更新方法、装置、计算机可读介质及电子设备 Pending CN113408747A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110720441.9A CN113408747A (zh) 2021-06-28 2021-06-28 模型参数更新方法、装置、计算机可读介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110720441.9A CN113408747A (zh) 2021-06-28 2021-06-28 模型参数更新方法、装置、计算机可读介质及电子设备

Publications (1)

Publication Number Publication Date
CN113408747A true CN113408747A (zh) 2021-09-17

Family

ID=77679838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110720441.9A Pending CN113408747A (zh) 2021-06-28 2021-06-28 模型参数更新方法、装置、计算机可读介质及电子设备

Country Status (1)

Country Link
CN (1) CN113408747A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117251805A (zh) * 2023-11-20 2023-12-19 杭州金智塔科技有限公司 基于广度优先算法的联邦梯度提升决策树模型更新系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284313A (zh) * 2018-08-10 2019-01-29 深圳前海微众银行股份有限公司 基于半监督学习的联邦建模方法、设备及可读存储介质
CN109299728A (zh) * 2018-08-10 2019-02-01 深圳前海微众银行股份有限公司 联邦学习方法、系统及可读存储介质
CN111242316A (zh) * 2020-01-09 2020-06-05 深圳前海微众银行股份有限公司 纵向联邦学习模型训练优化方法、装置、设备及介质
CN111461874A (zh) * 2020-04-13 2020-07-28 浙江大学 一种基于联邦模式的信贷风险控制系统及方法
CN111523686A (zh) * 2020-04-23 2020-08-11 支付宝(杭州)信息技术有限公司 一种模型联合训练的方法和系统
CN112200321A (zh) * 2020-12-04 2021-01-08 同盾控股有限公司 基于知识联邦和图网络的推理方法、系统、设备及介质
CN112799708A (zh) * 2021-04-07 2021-05-14 支付宝(杭州)信息技术有限公司 联合更新业务模型的方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284313A (zh) * 2018-08-10 2019-01-29 深圳前海微众银行股份有限公司 基于半监督学习的联邦建模方法、设备及可读存储介质
CN109299728A (zh) * 2018-08-10 2019-02-01 深圳前海微众银行股份有限公司 联邦学习方法、系统及可读存储介质
CN111242316A (zh) * 2020-01-09 2020-06-05 深圳前海微众银行股份有限公司 纵向联邦学习模型训练优化方法、装置、设备及介质
CN111461874A (zh) * 2020-04-13 2020-07-28 浙江大学 一种基于联邦模式的信贷风险控制系统及方法
CN111523686A (zh) * 2020-04-23 2020-08-11 支付宝(杭州)信息技术有限公司 一种模型联合训练的方法和系统
CN112200321A (zh) * 2020-12-04 2021-01-08 同盾控股有限公司 基于知识联邦和图网络的推理方法、系统、设备及介质
CN112799708A (zh) * 2021-04-07 2021-05-14 支付宝(杭州)信息技术有限公司 联合更新业务模型的方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王文成: "《神经网络及其在汽车工程中的应用》", vol. 1998, 31 July 1998, 北京理工大学出版社, pages: 261 - 262 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117251805A (zh) * 2023-11-20 2023-12-19 杭州金智塔科技有限公司 基于广度优先算法的联邦梯度提升决策树模型更新系统
CN117251805B (zh) * 2023-11-20 2024-04-16 杭州金智塔科技有限公司 基于广度优先算法的联邦梯度提升决策树模型更新系统

Similar Documents

Publication Publication Date Title
CN110245510B (zh) 用于预测信息的方法和装置
US20220230071A1 (en) Method and device for constructing decision tree
US11354539B2 (en) Encrypted data model verification
US11196541B2 (en) Secure machine learning analytics using homomorphic encryption
WO2022089256A1 (zh) 联邦神经网络模型的训练方法、装置、设备、计算机程序产品及计算机可读存储介质
CN109002861B (zh) 联邦建模方法、设备及存储介质
CN114401079B (zh) 多方联合信息价值计算方法、相关设备及存储介质
US20200019867A1 (en) Learning and inferring insights from encrypted data
CN113239404B (zh) 一种基于差分隐私和混沌加密的联邦学习方法
CN111784001B (zh) 一种模型训练方法、设备及计算机可读存储介质
CN111428887B (zh) 一种基于多个计算节点的模型训练控制方法、装置及系统
CN113362048B (zh) 数据标签分布确定方法、装置、计算机设备和存储介质
CN112805769B (zh) 秘密s型函数计算系统、装置、方法及记录介质
CN115496204B (zh) 一种跨域异质场景下的面向联邦学习的评测方法及装置
CN114881247A (zh) 基于隐私计算的纵向联邦特征衍生方法、装置、介质
CN113609781A (zh) 基于联邦学习的汽车生产模具优化方法、系统、设备及介质
CN115605895A (zh) 使用安全多方计算和概率数据结构来保护对信息的访问
CN114239863B (zh) 机器学习模型的训练方法及其预测方法、装置、电子设备
CN113408747A (zh) 模型参数更新方法、装置、计算机可读介质及电子设备
CN111125301B (zh) 文本方法及装置、电子设备和计算机可读存储介质
CN115277197B (zh) 模型所有权验证方法、电子设备、介质及程序产品
Beg et al. Dynamic parameters-based reversible data transform (RDT) algorithm in recommendation system
CN115205089A (zh) 图像加密方法、网络模型的训练方法、装置及电子设备
CN115757933A (zh) 推荐信息生成方法、装置、设备、介质和程序产品
CN115965093A (zh) 模型训练方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination