CN116011560A - 模型的训练方法、数据重构方法以及电子设备 - Google Patents

模型的训练方法、数据重构方法以及电子设备 Download PDF

Info

Publication number
CN116011560A
CN116011560A CN202211707606.XA CN202211707606A CN116011560A CN 116011560 A CN116011560 A CN 116011560A CN 202211707606 A CN202211707606 A CN 202211707606A CN 116011560 A CN116011560 A CN 116011560A
Authority
CN
China
Prior art keywords
model
pseudo
target
client
training sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211707606.XA
Other languages
English (en)
Inventor
张兰
高欣奔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202211707606.XA priority Critical patent/CN116011560A/zh
Publication of CN116011560A publication Critical patent/CN116011560A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种模型的训练方法、数据重构方法、装置、设备及存储介质,可以应用于人工智能技术领域,具体应用于分布式机器学习技术领域。该方法包括:从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,其中,第一目标标签信息与第二目标标签信息相对应,第二目标标签信息是与第二目标训练样本对应的标签信息;将第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息;将第一伪中间层输出信息输入第一服务器模型,得到第一输出信息;根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数。

Description

模型的训练方法、数据重构方法以及电子设备
技术领域
本公开涉及人工智能技术领域,具体涉及分布式机器学习技术领域,尤其涉及一种模型的训练方法、数据重构方法、装置、设备、介质和程序产品。
背景技术
个人和机构的隐私保护受到了越来越多的重视,因此,对数据隐私安全的监管也更为严格。分散于大量用户之间的数据在法律法规的限制下不能直接上传至云计算中心进行传统的集中式机器学习模型训练,分布于各方的数据成为了数据孤岛,彼此之间不能互相流通,导致大数据无法充分发挥其效能和价值。因此,如何较好的保证数据隐私安全是相关技术中需要解决的技术问题。
发明内容
鉴于上述问题,本公开提供了一种模型的训练方法、数据重构方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种第一伪客户端模型的训练方法,第一深度学习模型包括第一伪客户端模型和第一服务器模型,上述第一深度学习模型部署于服务器,包括:
从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,其中,上述第一目标标签信息与第二目标标签信息相匹配,上述第二目标标签信息是与第二目标训练样本对应的标签信息,上述第二目标训练样本用于训练第二深度学习模型中的第一真实客户端模型,上述第二深度学习模型还包括上述第一服务器模型,上述第一真实客户端模型部署于客户端;
将上述第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息;
将上述第一伪中间层输出信息输入上述第一服务器模型,得到第一输出信息;以及
根据上述第一输出信息和上述第一目标标签信息,调整上述第一伪客户端模型的模型参数。
根据本公开的实施例,上述从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,包括:
响应于接收到来自上述客户端的第二目标标签信息,根据与上述第二目标标签信息一致的上述第一目标标签信息,从上述训练样本集中确定与上述第一目标标签信息对应的上述第一目标训练样本。
根据本公开的实施例,上述根据上述第一输出信息和上述第一目标标签信息,调整上述第一伪客户端模型的模型参数,包括:
将上述第一输出信息和上述第一目标标签信息输入第一损失函数,得到第一损失值;
根据上述第一损失值,得到第一梯度;
将上述第一梯度输入上述第一伪客户端模型,得到第二梯度;
根据上述第二梯度,调整上述第一伪客户端模型的模型参数。
本公开的第二方面提供了一种第二伪客户端模型的训练方法,第三深度学习模型包括第二伪客户端模型和第二服务器模型,上述第二伪客户端模型包括第一伪客户端模块和第二伪客户端模块,上述第三深度学习模型部署于服务器,上述方法包括:
从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,其中,上述第三目标标签信息与第四目标标签信息相对应,上述第四目标标签信息是与第四目标训练样本对应的标签信息,上述第四目标训练样本用于训练第四深度学习模型中的第二真实客户端模型,上述第二真实客户端模型包括第一真实客户端模块和第二真实客户端模块,上述第四深度学习模型还包括上述第二服务器模型,上述第二真实客户端模型部署于客户端;
将上述第三目标训练样本输入上述第一伪客户端模块,得到第二伪中间层输出信息;
将上述第二伪中间层输出信息输入上述第二服务器模型,得到第三伪中间层输出信息;
将上述第三伪中间层输出信息输入上述第二伪客户端模块,得到第二输出信息;以及
根据上述第二输出信息和上述第三目标标签信息,调整上述第二伪客户端模型的模型参数。
根据本公开的实施例,上述从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,包括:
响应于接收到来自上述客户端的第四目标训练样本,随机确定上述第三目标标签信息;以及
根据上述第三目标标签信息,从上述训练样本集中确定与上述第三目标标签信息对应的上述第三目标训练样本。
根据本公开的实施例,上述根据上述第二输出信息和上述第三目标标签信息,调整上述第二伪客户端模型的模型参数,包括:
将上述第二输出信息和上述第三目标标签信息输入第二损失函数,得到第二损失值;
根据上述第二损失值,得到第三梯度和第四梯度;
将上述第三梯度通过上述第二服务器模型输入上述第一伪客户端模块,得到第五梯度;
根据上述第四梯度,调整上述第二伪客户端模块的模型参数;以及
根据上述第五梯度,调整上述第一伪客户端模块的模型参数。
本公开的第三方面提供了一种重构模型的训练方法,包括:
将第五目标训练样本输入伪客户端模型,得到第四伪中间层输出信息;
将上述第四伪中间层输出信息输入第五深度学习模型,得到重构样本;以及
根据上述第五目标训练样本和上述重构样本,调整上述第五深度学习模型的模型参数,得到上述重构模型;
其中,上述伪客户端模型包括上述第一伪客户端模型和上述第二伪客户端模型中的之一。
本公开的第四方面提供了一种数据重构方法,包括:
将目标数据输入重构模型,得到原始重构数据;
将上述原始重构数据输入伪客户端模型,得到中间重构数据;
在确定上述目标数据和上述中间重构数据之间的差值满足预设条件的情况下,将上述原始重构数据确定为目标重构数据;
其中,上述伪客户端模型包括上述第一伪客户端模型和上述第二伪客户端模型中的之一。
根据本公开的实施例,上述数据重构方法还包括:
在确定上述目标数据和上述中间重构数据之间的差值不满足上述预设条件的情况下,调整上述原始重构数据,得到新的中间重构数据,直至上述目标数据和上述新的中间重构数据之间的差值满足上述预设条件。
本公开的第五方面提供了一种第一伪客户端模型的训练装置,包括:确定模块、第一获得模块、第二获得模块和调整模块。其中,确定模块,用于从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,其中,第一目标标签信息与第二目标标签信息相匹配,第二目标标签信息是与第二目标训练样本对应的标签信息,第二目标训练样本用于训练第二深度学习模型中的第一真实客户端模型,第二深度学习模型还包括第一服务器模型,第一真实客户端模型部署于客户端。第一获得模块,用于将第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息。第二获得模块,用于将第一伪中间层输出信息输入第一服务器模型,得到第一输出信息。调整模块,用于根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数。
本公开的第六方面提供了一种第二伪客户端模型的训练装置,包括:确定模块、第一获得模块、第二获得模块、第三获得模块和调整模块。其中,确定模块,用于从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,其中,第三目标标签信息与第四目标标签信息相对应,第四目标标签信息是与第四目标训练样本对应的标签信息,第四目标训练样本用于训练第四深度学习模型中的第二真实客户端模型,第二真实客户端模型包括第一真实客户端模块和第二真实客户端模块,第四深度学习模型还包括第二服务器模型,第二真实客户端模型部署于客户端。第一获得模块,用于将第三目标训练样本输入第一伪客户端模块,得到第二伪中间层输出信息。第二获得模块,用于将第二伪中间层输出信息输入第二服务器模型,得到第三伪中间层输出信息。第三获得模块,用于将第三伪中间层输出信息输入第二伪客户端模块,得到第二输出信息。调整模块,用于根据第二输出信息和所述第三目标标签信息,调整第二伪客户端模型的模型参数。
本公开的第七方面提供了一种重构模型的训练装置,包括:第一获得模块、第二获得模块和调整模块。其中,第一获得模块,用于将第五目标训练样本输入伪客户端模型,得到第四伪中间层输出信息。第二获得模块,用于将第四伪中间层输出信息输入第五深度学习模型,得到重构样本。调整模块,用于根据第五目标训练样本和重构样本,调整第五深度学习模型的模型参数,得到重构模型,其中,伪客户端模型包括第一伪客户端模型和第二伪客户端模型中的之一。
本公开的第八方面提供了一种数据重构装置,包括:第一获得模块、第二获得模块和确定模块。其中,第一获得模块,用于将目标数据输入重构模型,得到原始重构数据。第二获得模块,用于将原始重构数据输入伪客户端模型,得到中间重构数据。确定模块,用于在确定目标数据和中间重构数据之间的差值满足预设条件的情况下,将原始重构数据确定为目标重构数据,其中,伪客户端模型包括第一伪客户端模型和第二伪客户端模型中的之一。
本公开的第九方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述方法。
本公开的第十方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述方法。
本公开的第十一方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法。
根据本公开提供的模型的训练方法、数据重构方法、装置、设备、介质和程序产品,通过模型的训练方法得到的伪客户端模型,能够使得服务器在不破坏拆分学习主线,不被真实客户端检测到,真实客户端模型结构未知且存在几个数量级的训练样本的前提下,完成对真实客户端模型功能的获取,通过模型训练方法得到的重构模型,再根据数据重构方法,能够实现对真实客户端模型隐私数据的重构,同时,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,使得分布于各方的数据不再成为数据孤岛,彼此之间再次实现了互相流通,实现了大数据充分发挥其效能和价值,并保护了数据隐私安全的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的模型的训练方法、数据重构方法、装置、设备、介质和程序产品的应用场景图;
图2示意性示出了根据本公开实施例的第一伪客户端模型的训练方法的流程图;
图3示意性示出了根据本公开实施例的第一伪客户端模型功能获取和执行推理的示意图;
图4示意性示出了根据本公开实施例的第二伪客户端模型的训练方法的流程图;
图5示意性示出了根据本公开实施例的第二伪客户端模型功能获取和标签推断的示意图;
图6示意性示出了根据本公开实施例的重构模型的训练方法的流程图;
图7示意性示出了根据本公开实施例的数据重构方法的流程图;
图8示意性示出了根据本公开实施例的隐私数据重构的示意图;
图9示意性示出了根据本公开实施例的标签对齐实验结果对比的示意图;
图10示意性示出了根据本公开实施例的延迟启动实验结果对比的示意图;
图11示意性示出了根据本公开实施例的模型拆分策略的示意图;
图12示意性示出了根据本公开实施例的PCAT伪客户端模型的准确率和损失值收敛曲线示意图;
图13(a)示意性示出了根据本公开实施例的在MNIST数据集上的输入数据重建结果示意图;
图13(b)示意性示出了根据本公开实施例的在CIFAR-10数据集上的输入数据重建结果示意图;
图13(c)示意性示出了根据本公开实施例的在Tiny ImageNet数据集上的输入数据重建结果示意图;
图14示意性示出了根据本公开实施例的第一伪客户端模型的训练装置的结构框图;
图15示意性示出了根据本公开实施例的第二伪客户端模型的训练装置的结构框图;
图16示意性示出了根据本公开实施例的重构模型的训练装置的流程图;
图17示意性示出了根据本公开实施例的数据重构装置的流程图;以及
图18示意性示出了根据本公开实施例的适于实现模型训练方法、数据重构方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开的技术方案中,对数据的获取、收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在实施本公开的过程中发现,分散于大量用户之间的数据不能直接上传至云计算中心进行传统的集中式机器学习模型训练,因此,分布于各方的数据成为了数据孤岛,彼此之间不能互相流通,并导致大数据无法充分发挥其效能和价值。在这种背景下,拆分学习技术应用而生。拆分学习是一种分布式机器学习的新范式,其利用拆分将深度神经网络拆分成客户端模型和服务器模型两部分,客户端只需要执行轻量级计算并输出中间层激活,以避免输出原始数据,从而保护原始数据。针对拆分学习的客户端模型功能的获取,存在破坏拆分学习主线,并被客户端检测的问题。
图1示意性示出了根据本公开实施例的模型的训练方法、数据重构方法的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括第一终端设备101、第二终端设备102、第三终端设备103、网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
例如,第一真实客户端模型可以部署于第一终端设备101、第二终端设备102、第三终端设备103。可以通过第一终端设备101、第二终端设备102、第三终端设备103根据原始输入数据得到第二目标标签信息和第二目标训练样本,同时,将第二目标标签信息和第二目标训练样本发送给服务器,并未将原始输入数据直接发送给服务器,保护了隐私数据安全。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
例如,第一伪客户端模型和第一服务器模型可以部署于服务器105。可以通过服务器105从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,将第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息,将第一伪中间层输出信息输入第一服务器模型,得到第一输出信息,并根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数。
需要说明的是,本公开实施例所提供的模型训练方法、数据重构方法一般可以由服务器105执行。相应地,本公开实施例所提供的模型训练装置、数据重构装置一般可以设置于服务器105中。本公开实施例所提供的模型训练方法、数据重构方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的模型训练装置、数据重构装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图13对公开实施例的模型训练方法、数据重构方法进行详细描述。
图2示意性示出了根据本公开实施例的第一伪客户端模型的训练方法的流程图。
根据本公开的实施例,第一伪客户端模型部署于服务器。
如图2所示,该方法200包括操作S210~操作S240。
在操作S210,从训练样本集中确定与第一目标标签信息对应的第一目标训练样本。
根据本公开的实施例,第一深度学习模型可以包括第一伪客户端模型和第一服务器模型,第一深度学习模型部署于服务器。
根据本公开的实施例,第一目标标签信息与第二目标标签信息相匹配,第二目标标签信息是与第二目标训练样本对应的标签信息,第二目标训练样本可以用于训练第二深度学习模型中的第一真实客户端模型,第二深度学习模型还可以包括第一服务器模型,第一真实客户端模型部署于客户端。
根据本公开的实施例,训练样本集可以包括第一图像集。训练样本集可以表征服务器中的训练样本集。
根据本公开的实施例,在进行第一伪客户端模型训练之前,随机初始化第一伪客户端模型,并设置一个时间段作为第一伪客户端模型训练的时间。
根据本公开的实施例,第一真实客户端模型的原始数据可以包括第二图像集。
根据本公开的实施例,根据第二图像集,将原始数据输入第一真实客户端模型,执行前向传播,得到第二图像集中图像的中间层输出和第二目标标签信息,并将中间层输出和第二目标标签信息发送到服务器,其中,第二目标训练样本可以包括中间层输出,原始数据可以表征第一真实客户端模型的隐私数据,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,保护了数据隐私安全。
根据本公开的实施例,在第一真实客户端模型的标签信息可知的情况下,服务器根据接收到的第二目标标签信息,从训练样本集中,选择与第二目标标签信息相匹配的第一目标标签信息,并选择与第一目标标签信息对应的第一目标训练样本。选择与第二目标标签信息相匹配的第一目标标签信息可以实现标签对齐。
在操作S220,将第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息。
根据本公开的实施例,将从第一图像集中确定的第一目标训练样本输入第一伪客户端模型,执行前向传播,得到第一伪中间层输出信息。
在操作S230,将第一伪中间层输出信息输入第一服务器模型,得到第一输出信息。
根据本公开的实施例,第一输出信息可以表征根据第一目标训练样本得到的输出值。将第一伪中间层输出信息输入第一服务器模型,得到第一伪中间层输出信息对应的输出值。
在操作S240,根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数。
根据本公开的实施例,在服务器的约束下,根据第一输出信息和第一目标标签信息,能够得到第一伪客户端模型的梯度。根据第一伪客户端模型的梯度,调整第一伪客户端模型的模型参数。
根据本公开的实施例,根据第一目标标签信息进行模型训练,能够得到第一伪客户端模型,使得服务器在不破坏拆分学习主线,不被真实客户端检测到,真实客户端模型结构未知且存在几个数量级的训练样本的前提下,完成对第一真实客户端模型功能的获取,同时,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,使得分布于各方的数据不再成为数据孤岛,彼此之间再次实现了互相流通,实现了大数据充分发挥其效能和价值,并保护了数据隐私安全的技术效果。
根据本公开的实施例,从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,包括:响应于接收到来自客户端的第二目标标签信息,根据与第二目标标签信息一致的第一目标标签信息,从训练样本集中确定与第一目标标签信息对应的第一目标训练样本。
根据本公开的实施例,根据与第二目标标签信息一致的第一目标标签信息,从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,能够实现标签对齐,提高第一伪客户端模型获得第一真实客户端模型功能的准确率。
根据本公开的实施例,根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数,包括:将第一输出信息和第一目标标签信息输入第一损失函数,得到第一损失值;根据第一损失值,得到第一梯度;将第一梯度输入第一伪客户端模型,得到第二梯度;根据第二梯度,调整第一伪客户端模型的模型参数。
根据本公开的实施例,将第一输出信息和第一目标标签信息输入第一损失函数,执行前向传播,得到第一损失值。根据第一损失值,执行反向传播,得到第一梯度,其中,第一梯度可以包括第一伪中间层输出的梯度。将第一梯度输入第一伪客户端模型,执行反向传播,得到第二梯度,其中,第二梯度可以包括第一伪客户端模型的梯度。
根据本公开的实施例,根据第一输出信息和第一目标标签信息,得到第一伪客户端模型的梯度,并根据第一伪客户端模型的梯度,调整第一伪客户端模型的模型参数,能够实现第一伪客户端模型的训练。
图3示意性示出了根据本公开实施例的第一伪客户端模型功能获取和执行推理的示意图。
如图3所示,在第一真实客户端模型的标签信息可知的情况下,以两方拆分学习模型为例。
Figure BDA0004025299030000131
可以表征第一伪客户端模型,
Figure BDA0004025299030000132
可以表征第一真实客户端模型,
Figure BDA0004025299030000133
可以表征第一服务器模型。
Figure BDA0004025299030000134
可以表征训练后的第一伪客户端模型,
Figure BDA0004025299030000135
可以表征训练后的第一服务器模型。Xserver可以表征第一目标训练样本,Xpriv可以表征第一真实客户端模型的原始数据,原始数据可以表征第一真实客户端模型的隐私数据。yserver可以表征第一目标标签信息,ypriv可以表征第二目标标签信息,其中,yserver=ypriv可以表征实现标签对齐。Xtext可以表征执行推理过程的原始输入,pred可以表征推理过程的输出信息。
根据本公开的实施例,第一伪客户端模型和第一服务器模型部署于服务器,第一真实客户端模型部署于客户端。
根据本公开的实施例,在进行第一伪客户端模型训练之前,随机初始化第一伪客户端模型,并设置一个时间段作为第一伪客户端模型训练的时间。
根据本公开的实施例,第一真实客户端模型根据自身的原始数据,执行前向传播,得到第二目标训练样本和第二目标标签信息系,其中,第二目标标签信息是与第二目标训练样本对应的标签信息,第二目标训练样本可以包括第一真实客户端模型的中间层输出信息。
根据本公开的实施例,在第一真实客户端模型的标签信息可知的情况下,将中间层输出信息和第二目标标签信息发送给服务器,其中,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,保护了数据隐私安全。服务器根据第二目标标签信息选择与第二目标标签信息的标签信息一致的第一目标标签信息,并根据第一目标标签信息选择第一目标训练样本,其中,第一目标标签信息和第二目标标签信息实现标签对齐。
根据本公开的实施例,将第一目标训练样本输入第一伪客户端模型,执行前向传播,得到第一伪中间层输出信息。并将第一伪中间层输出信息和中间层输出信息输入第一服务器模型。
根据本公开的实施例,第一服务器模型根据第一伪中间层输出信息得到第一输出信息,并将第一输出信息和第一目标标签信息输入第一损失函数,执行前向传播,得到第一损失值。根据第一损失值,执行反向传播,得到第一伪中间层输出的梯度。
根据本公开的实施例,将第一伪中间层输出的梯度输入第一伪客户端模型,执行反向传播,得到第一伪客户端模型的梯度,根据第一伪客户端模型的梯度,调整第一伪客户端模型的模型参数,实现第一伪客户端模型的训练。
根据本公开的实施例,第一服务器模型根据中间层输出信息,执行前向传播,得到第一真实客户端模型的损失值,并根据损失值,执行反向传播,得到第一服务器模型的梯度和中间层输出的梯度。根据第一服务器模型的梯度,调整第一服务器模型的模型参数。
根据本公开的实施例,将中间层输出的梯度发送给第一真实客户端模型,根据中间层输出的梯度,执行反向传播,得到第一真实客户端模型的梯度,并根据第一真实客户端模型的梯度,调整第一真实客户端模型的模型参数。
根据本公开的实施例,在到达第一伪客户端模型训练的设置时间的情况下,模型训练结束,完成对第一真实客户端模型功能的获取。在第一伪客户端模型完成对第一真实客户端模型功能的获取的情况下,服务器可以根据第一服务器模型和第一伪客户端模型,独立进行推理任务,不需要第一真实客户端模型的参与。
图4示意性示出了根据本公开实施例的第二伪客户端模型的训练方法的流程图。
根据本公开的实施例,第二伪客户端模型部署于服务器。
如图4所示,该方法400包括操作S410~操作S450。
在操作S410,从训练样本集中确定与第三目标标签信息对应的第三目标训练样本。
根据本公开的实施例,第三深度学习模型可以包括第二伪客户端模型和第二服务器模型,第二伪客户端模型可以包括第一伪客户端模块和第二伪客户端模块,第三深度学习模型部署于服务器。
根据本公开的实施例,第三目标标签信息与第四目标标签信息相对应,第四目标标签信息是与第四目标训练样本对应的标签信息,第四目标训练样本可以用于训练第四深度学习模型中的第二真实客户端模型,第二真实客户端模型可以包括第一真实客户端模块和第二真实客户端模块,第四深度学习模型还可以包括第二服务器模型,第二真实客户端模型部署于客户端。
根据本公开的实施例,训练样本集可以包括第三图像集。训练样本集可以表征服务器中的训练样本集。
根据本公开的实施例,在进行第二伪客户端模型训练之前,随机初始化第二伪客户端模型,并设置一个时间段作为第二伪客户端模型训练的时间。
根据本公开的实施例,第一伪客户端模块可以表征伪底部模型,第二伪客户端模块可以表征伪顶部模型。第一真实客户端模块可以表征底部模型,第二真实客户端模块可以表征顶部模型。
根据本公开的实施例,第一真实客户端模型的原始数据可以包括第四图像集。
根据本公开的实施例,根据第四图像集,将原始数据输入底部模型,执行前向传播,得到第四图像集中图像的中间层输出和第四目标标签信息,并将中间层输出发送到服务器,其中,第四目标训练样本可以包括中间层输出,原始数据可以表征第二真实客户端模型的隐私数据,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,保护了数据隐私安全。
根据本公开的实施例,在第二真实客户端模型的标签信息不可知的情况下,服务器根据接收到的第四目标训练样本,随机确定第三目标标签信息,并根据第三目标标签信息,从训练样本集中,选择与第三目标标签信息相对应的第三目标训练样本,并将第三目标标签信息输入伪顶部模型。
在操作S420,将第三目标训练样本输入第一伪客户端模块,得到第二伪中间层输出信息。
根据本公开的实施例,将从第三图像集中确定的第三目标训练样本输入伪底部模型,执行前向传播,得到第二伪中间层输出信息。
在操作S430,将第二伪中间层输出信息输入第二服务器模型,得到第三伪中间层输出信息。
根据本公开的实施例,将第二伪中间层输出信息输入第二服务器模型,通过第二服务器模型将接收到的第二伪中间层输出信息转化为第二服务器模型要发送的第三伪中间层输出信息。
在操作S440,将第三伪中间层输出信息输入第二伪客户端模块,得到第二输出信息。
根据本公开的实施例,第二输出信息可以表征根据第三目标训练样本得到的输出值。将第三伪中间层输出信息输入伪顶部模型可以得到第三伪中间层输出信息对应的输出值。
在操作S450,根据第二输出信息和第三目标标签信息,调整第二伪客户端模型的模型参数。
根据本公开的实施例,在服务器的约束下,根据第二输出信息和第三目标标签信息,能够得到伪顶部模型的梯度和伪底部模型的梯度。根据伪顶部模型的梯度,调整伪顶部模型的模型参数。根据伪底部模型的梯度,调整伪底部模型的模型参数。
根据本公开的实施例,根据第三标签信息进行模型训练,能够得到第二伪客户端模型,使得服务器,在不破坏拆分学习主线,不被真实客户端检测到,真实客户端模型结构未知且存在几个数量级的训练样本的前提下,完成对第二真实客户端模型功能的获取,同时,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,使得分布于各方的数据不再成为数据孤岛,彼此之间再次实现了互相流通,实现了大数据充分发挥其效能和价值,并保护了数据隐私安全的技术效果。
根据本公开的实施例,从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,包括:响应于接收到来自客户端的第四目标训练样本,随机确定第三目标标签信息;以及根据第三目标标签信息,从训练样本集中确定与第三目标标签信息对应的第三目标训练样本。
根据本公开的实施例,在第二真实客户端模型的标签信息不可知的情况下,随机确定第三目标标签信息,在服务器的约束下,也可以实现对第二真实客户端模型功能的获取。
根据本公开的实施例,根据第二输出信息和第三目标标签信息,调整第二伪客户端模型的模型参数,包括:将第二输出信息和第三目标标签信息输入第二损失函数,得到第二损失值;根据第二损失值,得到第三梯度和第四梯度;将第三梯度通过第二服务器模型输入第一伪客户端模块,得到第五梯度;根据第四梯度,调整第二伪客户端模块的模型参数;以及根据第五梯度,调整第一伪客户端模块的模型参数。
根据本公开的实施例,将第二输出信息和第三目标标签信息输入第二损失函数,执行前向传播,得到第二损失值。根据第二损失值,执行反向传播,得到第三梯度和第四梯度,其中,第三梯度可以包括第二伪中间层输出的梯度,第四梯度可以包括伪顶部模型的梯度。将第三梯度通过第二服务器模型输入伪底部模型,执行反向传播,得到第五梯度,其中,第五梯度可以包括伪底部模型的梯度。
根据本公开的实施例,根据伪底部模型的梯度,调整伪底部模型的模型参数。根据伪顶部模型的梯度,调整伪顶部模型的模型参数。
根据本公开的实施例,根据第二输出信息和第三目标标签信息,得到伪顶部模型的梯度和伪底部模型的梯度,并根据伪顶部模型的梯度和伪底部模型的梯度,分别调整伪顶部模型和伪底部模型的模型参数,能够实现对第二伪客户端模型的训练。
图5示意性示出了根据本公开实施例的第二伪客户端模型功能获取和标签推断的示意图。
如图5所示,在第二真实客户端模型的标签信息不可知的情况下,以U形拆分学习模型为例。
Figure BDA0004025299030000181
可以表征第一伪客户端模块,
Figure BDA0004025299030000182
可以表征第二伪客户端模块,
Figure BDA0004025299030000183
可以表征第一真实客户端模块,
Figure BDA0004025299030000184
可以表征第二真实客户端模块,
Figure BDA0004025299030000185
可以表征第二服务器模型。第一伪客户端模块可以表征伪底部模型,第二伪客户端模块可以表征伪顶部模型。第一真实客户端模块可以表征底部模型,第二真实客户端模块可以表征顶部模型。
Figure BDA0004025299030000186
可以表征训练后的伪顶部模型,
Figure BDA0004025299030000187
可以表征训练后的第二服务器模型,
Figure BDA0004025299030000188
可以表征训练后的底部模型。Xserver可以表征第三目标训练样本,Xpriv可以表征底部模型的原始数据,原始数据可以表征第二真实客户端模型的隐私数据。yserver可以表征第三目标标签信息,ypriv可以表征第四目标标签信息,其中,yserver≠ypriv。Xpriv可以表征标签推断过程的原始输入,pred可以表征标签推断过程的输出信息。
根据本公开的实施例,第二伪客户端模型和第二服务器模型部署于服务器,第二真实客户端模型部署于客户端。
根据本公开的实施例,在进行第二伪客户端模型训练之前,随机初始化第二伪客户端模型,并设置一个时间段作为第二伪客户端模型训练的时间。
根据本公开的实施例,底部模型根据自身的原始数据,执行前向传播,得到第四目标训练样本和第四目标标签信息,其中,第四目标标签信息是与第四目标训练样本对应的标签信息,第四目标训练样本可以包括底部模型的中间层输出信息。
根据本公开的实施例,在第二真实客户端模型的标签信息不可知的情况下,将中间层输出信息发送给服务器,其中,真实客户端将通过隐私数据得到的中间层输出发送给服务器,并未将隐私数据直接发送给服务器,保护了数据隐私安全。服务器随机确定第三目标标签信息,并根据第三目标标签信息选择第三目标训练样本,并将第三目标标签信息输入伪顶部模型,将第三目标训练样本输入伪底部模型。
根据本公开的实施例,将第三目标训练样本输入伪底部模型,执行前向传播,得到第二伪中间层输出信息。并将第二伪中间层输出信息和中间层输出信息输入第二服务器模型。
根据本公开的实施例,第二服务器模型根据接收到的第二伪中间层输出信息,得到第二服务器模型要发送的第三伪中间层输出信息。将第三伪中间层输出信息输入伪顶部模型,得到第二输出信息,并将第二输出信息和第三目标标签信息输入第二损失函数,执行前向传播,得到第二损失值。根据第二损失值,执行反向传播,得到第二伪中间层输出的梯度和伪顶部模型的梯度。根据伪顶部模型的梯度,调整伪顶部模型的模型参数,实现伪顶部模型的训练。
根据本公开的实施例,将第二伪中间层输出的梯度通过第二服务器模型输入伪底部模型,执行反向传播,得到伪底部模型的梯度,根据伪底部模型的梯度,调整伪底部模型的模型参数,实现伪底部模型的训练。
根据本公开的实施例,通过第二服务器模型将接收到的中间层输出信息,输入顶部模型,执行前向传播,得到底部模型的损失值,并根据损失值,执行反向传播,得到顶部模型的梯度和中间层输出的梯度。根据顶部模型的梯度,调整顶部模型的模型参数。
根据本公开的实施例,将中间层输出的梯度发送给第二服务器模型,根据中间层输出的梯度,执行反向传播,得到第二服务器模型的梯度,并根据第二服务器模型的梯度,调整第二服务器模型的模型参数。
根据本公开的实施例,将中间层输出的梯度通过第二服务器模型发送给底部模型,根据中间层输出的梯度,执行反向传播,得到底部模型的梯度,并根据底部模型的梯度,调整底部模型的模型参数。
根据本公开的实施例,在到达第二伪客户端模型训练的设置时间的情况下,模型训练结束,完成对第二真实客户端模型功能的获取。在第二伪客户端模型完成对第二真实客户端模型功能的获取的情况下,服务器可以根据第二服务器模型和第二伪客户端模型,独立进行推理任务,不需要第一真实客户端模型的参与,同时,根据底部模型、第二服务器模型和伪顶部模型可以实现标签信息的推断。
图6示意性示出了根据本公开实施例的重构模型的训练方法的流程图。
如图6所示,该方法600包括操作S610~操作S630。
在操作S610,将第五目标训练样本输入伪客户端模型,得到第四伪中间层输出信息。
根据本公开的实施例,伪客户端模型可以包括第一伪客户端模型和第二伪客户端模型中的伪底部模型。第一伪客户端模型和第二伪客户端模型中的伪底部模型均是经过上述训练的模型,可以获得原始输入数据与中间层输出的特征空间之间的映射关系。
根据本公开的实施例,第五目标训练样本是服务器从服务器中的训练样本集中获取的。第五目标训练样本可以包括图像样本。
根据本公开的实施例,以第五目标训练样本作为伪客户端模型的原始输入数据,可以得到图像样本的第四伪中间层输出信息。
在操作S620,将第四伪中间层输出信息输入第五深度学习模型,得到重构样本。
根据本公开的实施例,第五深度学习模型可以包括重构模型,重构模型可以包括逆模型,逆模型可以包括转置卷积和上采样层。
在操作S630,根据第五目标训练样本和重构样本,调整第五深度学习模型的模型参数,得到重构模型。
根据本公开的实施例,将图像样本输入伪客户端模型,得到图像样本的第四伪中间层输出信息,能够将高分辨率的原始输入数据变为低分辨率的第四伪中间层输出信息。将第四伪中间层输出信息输入逆模型,得到重构样本,调整逆模型的模型参数,使得得到的重构样本值与第五目标训练样本值相等,得到重构模型。
根据本公开的实施例,根据第五目标训练样本和重构样本,得到重构模型,能够用来将中间层输出映射回原始输入数据。
图7示意性示出了根据本公开实施例的数据重构方法的流程图。
如图7所示,该方法700包括操作S710~操作S730。
在操作S710,将目标数据输入重构模型,得到原始重构数据。
根据本公开的实施例,目标数据可以包括真实中间层输出,重构模型是经过上述训练得到的模型。
在操作S720,将原始重构数据输入伪客户端模型,得到中间重构数据。
根据本公开的实施例,伪客户端模型可以包括第一伪客户端模型和第二伪客户端模型中的伪底部模型。第一伪客户端模型和第二伪客户端模型中的伪底部模型均是经过上述训练的模型,可以获得原始输入数据与中间层输出的特征空间之间的映射关系。
在操作S730,在确定目标数据和中间重构数据之间的差值满足预设条件的情况下,将原始重构数据确定为目标重构数据。
根据本公开的实施例,目标重构数据可以表征真实客户端模型的原始输入数据,原始输入数据可以表征真实客户端模型的隐私数据。
根据本公开的实施例,根据重构模型和伪客户端模型,在确定目标数据和中间重构数据之间的差值满足预设条件的情况下,确定得到的原始重构数据为目标重构数据,能够实现对真实客户端模型隐私数据的重构。
根据本公开的实施例,上述数据重构方法还包括:在确定目标数据和中间重构数据之间的差值不满足预设条件的情况下,调整原始重构数据,得到新的中间重构数据,直至目标数据和新的中间重构数据之间的差值满足预设条件。
根据本公开的实施例,根据重构模型和伪客户端模型,在确定目标数据和中间重构数据之间的差值不满足预设条件的情况下,对得到原始重构数据进行调整,能够实现对真实客户端模型隐私数据的重构。
图8示意性示出了根据本公开实施例的隐私数据重构的示意图。
如图8所示,f-1可以表征重构模型,Xserver可以表征第五目标训练样本和重构样本,
Figure BDA0004025299030000221
可以表征训练后的伪客户端模型,Xsmashed可以表征目标数据,目标数据可以表征真实中间层输出,Xrec1可以表征原始重构数据。
根据本公开的实施例,伪客户端模型和逆模型可以用来训练重构模型。重构模型可以用来实现原始数据的粗粒度重构,再根据伪客户端模型可以用来对原始重构数据进行调整,得到细粒度的原始数据。
图9示意性示出了根据本公开实施例的标签对齐实验结果对比的示意图。
如图9所示,横坐标可以表示每类样本数,纵坐标可以表示精确度差距(Gap inaccuracy),每组对比中左侧表示随机选择策略,右侧表示标签对齐策略。
根据本公开的实施例,在手写数字分类任务下,在服务器数据集中每类有25个样本的情况下,随机选择策略,也就是无标签对齐训练所得的伪客户端模型和真实客户端模型之间的推理准确率差距为1.95%;标签对齐训练所得的伪客户端模型和真实客户端模型之间推理准确率的差距降低到1.09%。实验结果表明标签对齐可以明显提高伪客户端模型的准确性。
图10示意性示出了根据本公开实施例的延迟启动实验结果对比的示意图。
如图10所示,以左侧坐标为准,从上往下的曲线依次表示为第一个训练周期中拆分学习主线的损失(Loss),第一个训练周期中拆分学习主线的测试准确率(Textaccuracy)和伪客户端模型从某轮迭代开始训练的最终测试准确度(Accuracy)。下方横坐标表示伪客户端模型开始训练的起始迭代次数(Indexof the start batch)。PCAT(Pseudoclientmodel attack algorithm,伪客户端模型对真实客户端模型功能的获取)Acc标注表示第一个训练周期中拆分学习主线的测试准确率(Text accuracy)曲线,Acc标注表示第一个训练周期中拆分学习主线的测试准确率(Text accuracy),Loss标注表示第一个训练周期中拆分学习主线的损失(Loss)。
根据本公开的实施例,实验在MNIST(Mixed National Institute of Standardsand Technology database,手写数字识别)数据集,LeNet-5(用于手写体字符识别的卷积神经网络)模型上进行,且服务器每类有一个样本。在伪客户端模型训练从第100次迭代开始的情况下,推理准确率可以从89.57%提高到91.05%。但不能启动太晚,否则服务器模型和真实客户端模型已经开始收敛,伪客户端模型会丢失一部分引导信息。服务器应该在真实客户端模型的测试准确率开始上升和损失开始下降的情况下,启动伪客户端模型训练。实验结果表示适当的延迟启动可以提高伪模型的性能。
图11示意性示出了根据本公开实施例的模型拆分策略的示意图。
根据本公开的实施例,在三种常见的机器学习任务下实现伪客户端模型对真实客户端模型功能的获取。
(1)MNIST数据集与LeNet-5模型:MNIST数据集包含70000个手写数字,其中,60000个训练样本和10000个测试样本,每个样本是一个28×28的灰度图像。使用包括约61.5K参数的LeNet-5模型在MNIST上训练手写数字分类任务。
(2)CIFAR-10(用于普适物体识别的计算机视觉数据集)数据集和VGG16(VisualGeometry Group Network,视觉几何群网络)模型:CIFAR-10数据集包括10个类别和60000张具有32×32分辨率的彩色图像,其中,50000个训练样本和10000个测试样本。使用包括14.6M个参数的VGG16在CIFAR-10上训练彩色图像分类任务。
(3)Tiny ImageNet(图像分类数据集)数据集和MobileNet(可分离卷积)模型:Tiny ImageNet数据集是ImageNet的一个子数据集,包括200个类别和120000个样本,其中,100000个训练样本,10000个验证样本和10000测试样本。使用包括28.5M参数的MobileNet在Tiny ImageNet上训练图像分类任务。
根据本公开的实施例,对于两方拆分学习,被分为服务器模型和客户端模型两部分,由于客户端计算资源有限,将更多层分配给服务器。对于U形拆分学习,客户端的底部模型和顶部模型均有一层或两层,而中间层被分配给服务器。
根据本公开的实施例,数据处理过程中,将每个公开数据集的训练集随机划分为公开数据集Xpub和隐私数据集Xpriv,使得Xpub∶Xpriv=1∶9。将Xpriv分配给真实客户端模型作为拆分学习的隐私训练集。Xpub是一个公开数据集,服务器可以从公开数据集Xpub或隐私数据集Xpriv中获得一些样本来组成训练样本集Xserver。若未作特殊说明,设定Xserver和Xpriv独立同分布(i.i.d.)。将分析PCAT在非独立同分布数据集(non-i.i.d.)上的有效性。在测试阶段,使用原始测试集来评估伪客户端模型的准确率。
如图11所示,根据本公开的实施例,在Xserver和Xpriv是独立同分布(i.i.d.)且
Figure BDA0004025299030000241
的情况下,实现伪客户端模型对真实客户端模型功能的获取。为了使真实客户端模型更加复杂,采用split layer=2(分割层)的模型拆分策略。对于MNIST、CIFAR-10和Tiny ImageNet三种数据集,服务器每类各有5、250和10个训练样本。
图12示意性示出了根据本公开实施例的PCAT伪客户端模型的准确率和损失值收敛曲线示意图。
如图12所示,以坐标右侧为准,三个曲线图从上往下的曲线均依次可以表示为拆分学习主线Acc,PCAT Acc,Vanilla-PCAT Acc,独立训练Acc,Vanilla-PCAT MSE和PCATMSE。Iter可以表示一轮迭代,一个Epoch可以表示将整个数据集迭代完,一个Epoch可以包括100个Iter,MNIST数据集收敛得比较快,只需个位数个Epoch,所以选用Iter。
根据本公开的实施例,独立训练是指服务器只使用自己的数据Xserver训练一个完整的模型。拆分学习主线是指在Xpriv上训练的真实客户端模型和服务器模型。MSELoss可以表示真实特征空间和伪特征空间之间的距离。
根据本公开的实施例,Vanilla-PCAT(普通的PCAT)可以指固定服务器模型的最终参数,随机初始化伪客户端模型并用Xserver进行训练。Vanilla-PCAT与PCAT的区别是PCAT使用了一系列服务器模型的中间结果,Vanilla-PCAT用于对比PCAT的效果。
根据本公开的实施例,对于MNIST、CIFAR-10和TinyImageNet,服务器的数据集中每类分别有5、250和10个训练样本且
Figure BDA0004025299030000251
所有模型的拆分策略均为splitlayer=2。
根据本公开的实施例,在服务器仅使用自己的数据Xserver独立训练一个完整的模型的情况下,在三个数据集上的准确率分别只有63.38%、74.16%和13.62%。在使用相同的服务器数据集Xserver的情况下,PCAT将推理准确率提高到96.89%、89.48%和73.46%,非常接近目标客户端模型的性能。根据实验结果可知,PCAT能有效地获取客户端模型的功能。
图13(a)示意性示出了根据本公开实施例的在MNIST数据集上的输入数据重建结果示意图。
如图13(a)所示,服务器使用来自Xpriv的每类5个样本用于split layer=1和每类10个样本用于split layer=2,得到的重建结果。
图13(b)示意性示出了根据本公开实施例的在CIFAR-10数据集上的输入数据重建结果示意图。
如图13(b)所示,服务器使用来自xpriv的每类50个样本用于情况split layer=1和每类250个样本用于情况split layer=2,得到的重建结果。
图13(c)示意性示出了根据本公开实施例的在Tiny ImageNet数据集上的输入数据重建结果示意图。
如图13(c)所示,服务器使用来自Xpriv的每类5个样本用于情况split layer=1和每类10个样本用于情况split layer=2,得到的重建结果。
根据本公开的实施例,根据图13(a)~图13(b)可知,获取真实客户端模型的功能后,服务器可以重建真实客户端的隐私数据。根据实验结果表明,PCAT重建的图像是清晰的,即使在真实客户端模型和学习任务很复杂的情况下,如真实客户端模型在CIFAR-10上且VGG16模型有两层的情况下,仍然可以重建具有相当好清晰度的输入图像。
根据本公开的实施例,针对U形拆分学习进行标签推理,如表1所示,PCAT推断标签的准确率高。在MNIST数据集上,在服务器每类只有2个样本的情况下,标签推断准确率为94.42%,在服务器每类有25个样本的情况下,标签推断的准确率为98.23%。
表1
Figure BDA0004025299030000261
基于上述模型的训练方法、数据重构方法,本公开还提供了一种第一伪客户端模型的训练装置。以下将结合图14对该装置进行详细描述。
图14示意性示出了根据本公开实施例的第一伪客户端模型的训练装置的结构框图。
如图14所示,该实施例的第一伪客户端模型的训练装置1400包括确定模块1410、第一获得模块1420、第二获得模块1430和调整模块1440。
确定模块1410用于从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,其中,第一目标标签信息与第二目标标签信息相匹配,第二目标标签信息是与第二目标训练样本对应的标签信息,第二目标训练样本用于训练第二深度学习模型中的第一真实客户端模型,第二深度学习模型还包括所述第一服务器模型,第一真实客户端模型部署于客户端。在一实施例中,确定模块1410可以用于执行前文描述的操作S210,在此不再赘述。
第一获得模块1420用于将第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息。在一实施例中,第一获得模块1420可以用于执行前文描述的操作S220,在此不再赘述。
第二获得模块1430用于将第一伪中间层输出信息输入第一服务器模型,得到第一输出信息。在一实施例中,第二获得模块1430可以用于执行前文描述的操作S230,在此不再赘述。
调整模块1440用于根据第一输出信息和第一目标标签信息,调整第一伪客户端模型的模型参数。在一实施例中,调整模块1440可以用于执行前文描述的操作S240,在此不再赘述。
根据本公开的实施例,确定模块1410包括确定单元。
确定单元,用于响应于接收到来自客户端的第二目标标签信息,根据与第二目标标签信息一致的第一目标标签信息,从训练样本集中确定与第一目标标签信息对应的第一目标训练样本。
根据本公开的实施例,调整模块1440包括第一获得单元、第二获得单元、第三获得单元和调整单元。
第一获得单元,用于将第一输出信息和第一目标标签信息输入第一损失函数,得到第一损失值。
第二获得单元,用于根据第一损失值,得到第一梯度。
第三获得单元,用于将第一梯度输入第一伪客户端模型,得到第二梯度。
调整单元,用于根据第二梯度,调整第一伪客户端模型的模型参数。
根据本公开的实施例,确定模块1410、第一获得模块1420、第二获得模块1430和调整模块1440中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,确定模块1410、第一获得模块1420、第二获得模块1430和调整模块1440中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,确定模块1410、第一获得模块1420、第二获得模块1430和调整模块1440中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
基于上述模型的训练方法、数据重构方法,本公开还提供了一种第二伪客户端模型的训练装置。以下将结合图15对该装置进行详细描述。
图15示意性示出了根据本公开实施例的第二伪客户端模型的训练装置的结构框图。
如图15所示,该实施例的第二伪客户端模型的训练装置1500包括确定模块1510、第一获得模块1520、第二获得模块1530、第三获得模块1540和调整模块1550。
确定模块1510用于从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,其中,第三目标标签信息与第四目标标签信息相对应,第四目标标签信息是与第四目标训练样本对应的标签信息,第四目标训练样本用于训练第四深度学习模型中的第二真实客户端模型,第二真实客户端模型包括第一真实客户端模块和第二真实客户端模块,第四深度学习模型还包括第二服务器模型,第二真实客户端模型部署于客户端。在一实施例中,确定模块1510可以用于执行前文描述的操作S410,在此不再赘述。
第一获得模块1520用于将第三目标训练样本输入第一伪客户端模块,得到第二伪中间层输出信息。在一实施例中,第一获得模块1520可以用于执行前文描述的操作S420,在此不再赘述。
第二获得模块1530用于将第二伪中间层输出信息输入第二服务器模型,得到第三伪中间层输出信息。在一实施例中,第二获得模块1530可以用于执行前文描述的操作S430,在此不再赘述。
第三获得模块1540用于将第三伪中间层输出信息输入第二伪客户端模块,得到第二输出信息。在一实施例中,第三获得模块1540可以用于执行前文描述的操作S440,在此不再赘述。
调整模块1550用于根据第二输出信息和第三目标标签信息,调整第二伪客户端模型的模型参数。在一实施例中,调整模块1550可以用于执行前文描述的操作S450,在此不再赘述。
根据本公开的实施例,确定模块1510包括第一确定单元和第二确定。
第一确定单元,用于响应于接收到来自客户端的第四目标训练样本,随机确定第三目标标签信息。
第二确定,用于根据第三目标标签信息,从训练样本集中确定与第三目标标签信息对应的第三目标训练样本。
根据本公开的实施例,调整模块1550包括第一获得单元、第二获得单元、第三获得单元、第一调整单元和第二调整单元。
第一获得单元,用于将第二输出信息和第三目标标签信息输入第二损失函数,得到第二损失值。
第二获得单元,用于根据第二损失值,得到第三梯度和第四梯度。
第三获得单元,用于将第三梯度通过第二服务器模型输入第一伪客户端模块,得到第五梯度。
第一调整单元,用于根据第四梯度,调整第二伪客户端模块的模型参数。
第二调整单元,用于根据第五梯度,调整第一伪客户端模块的模型参数。
根据本公开的实施例,确定模块1510、第一获得模块1520、第二获得模块1530、第三获得模块1540和调整模块1550中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,确定模块1510、第一获得模块1520、第二获得模块1530、第三获得模块1540和调整模块1550中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,确定模块1510、第一获得模块1520、第二获得模块1530、第三获得模块1540和调整模块1550中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
基于上述模型的训练方法、数据重构方法,本公开还提供了一种重构模型的训练装置。以下将结合图16对该装置进行详细描述。
图16示意性示出了根据本公开实施例的重构模型训练装置的结构框图。
如图16所示,该实施例的重构模型训练装置1600包括第一获得模块1610、第二获得模块1620和调整模块1630。
第一获得模块1610用于将第五目标训练样本输入伪客户端模型,得到第四伪中间层输出信息。在一实施例中,第一获得模块1610可以用于执行前文描述的操作S610,在此不再赘述。
第二获得模块1620用于将所述第四伪中间层输出信息输入第五深度学习模型,得到重构样本。在一实施例中,第二获得模块16200可以用于执行前文描述的操作S620,在此不再赘述。
调整模块1630用于根据所述第五训练样本和所述重构样本,调整所述第五深度学习模型的模型参数,得到所述重构模型。在一实施例中,调整模块1630可以用于执行前文描述的操作S630,在此不再赘述。
根据本公开的实施例,第一获得模块1610、第二获得模块1620和调整模块1630中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一获得模块1610、第二获得模块1620和调整模块1630中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获得模块1610、第二获得模块1620和调整模块1630中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
基于上述模型的训练方法、数据重构方法,本公开还提供了一种数据重构装置。以下将结合图17对该装置进行详细描述。
图17示意性示出了根据本公开实施例的数据重构装置的结构框图。
如图17所示,该实施例的数据重构装置1700包括第一获得模块1710、第二获得模块1720和确定模块1730。
第一获得模块1710用于将目标数据输入重构模型,得到原始重构数据。在一实施例中,第一获得模块1710可以用于执行前文描述的操作S710,在此不再赘述。
第二获得模块1720用于将原始重构数据输入伪客户端模型,得到中间重构数据。在一实施例中,第二获得模块1720可以用于执行前文描述的操作S720,在此不再赘述。
确定模块1730用于在确定目标数据和中间重构数据之间的差值满足预设条件的情况下,将原始重构数据确定为目标重构数据。在一实施例中,确定模块1730可以用于执行前文描述的操作S730,在此不再赘述。
根据本公开的实施例,上述数据重构装置1700还包括调整模块。
调整模块,用于在确定目标数据和中间重构数据之间的差值不满足预设条件的情况下,调整原始重构数据,得到新的中间重构数据,直至目标数据和新的中间重构数据之间的差值满足预设条件。
根据本公开的实施例,第一获得模块1710、第二获得模块1720和确定模块1730中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一获得模块1710、第二获得模块1720和确定模块1730中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获得模块1710、第二获得模块1720和确定模块1730中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图18示意性示出了根据本公开实施例的适于实现模型的训练方法、数据重构方法的电子设备的方框图。
如图18所示,根据本公开实施例的电子设备1800包括处理器1801,其可以根据存储在只读存储器(ROM)1802中的程序或者从存储部分1808加载到随机访问存储器(RAM)1803中的程序而执行各种适当的动作和处理。处理器1801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1801还可以包括用于缓存用途的板载存储器。处理器1801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1803中,存储有电子设备1800操作所需的各种程序和数据。处理器1801、ROM 1802以及RAM 1803通过总线1804彼此相连。处理器1801通过执行ROM 1802和/或RAM1803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1802和RAM 1803以外的一个或多个存储器中。处理器1801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1800还可以包括输入/输出(I/O)接口1805,输入/输出(I/O)接口1805也连接至总线1804。电子设备1800还可以包括连接至I/O接口1805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1807;包括硬盘等的存储部分1808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1809。通信部分1809经由诸如因特网的网络执行通信处理。驱动器1810也根据需要连接至I/O接口1805。可拆卸介质1811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1810上,以便于从其上读出的计算机程序根据需要被安装入存储部分1808。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1802和/或RAM 1803和/或ROM 1802和RAM 1803以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器1801执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1809被下载和安装,和/或从可拆卸介质1811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1809从网络上被下载和安装,和/或从可拆卸介质1811被安装。在该计算机程序被处理器1801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (10)

1.一种第一伪客户端模型的训练方法,第一深度学习模型包括第一伪客户端模型和第一服务器模型,所述第一深度学习模型部署于服务器,所述方法包括:
从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,其中,所述第一目标标签信息与第二目标标签信息相匹配,所述第二目标标签信息是与第二目标训练样本对应的标签信息,所述第二目标训练样本用于训练第二深度学习模型中的第一真实客户端模型,所述第二深度学习模型还包括所述第一服务器模型,所述第一真实客户端模型部署于客户端;
将所述第一目标训练样本输入第一伪客户端模型,得到第一伪中间层输出信息;
将所述第一伪中间层输出信息输入所述第一服务器模型,得到第一输出信息;以及
根据所述第一输出信息和所述第一目标标签信息,调整所述第一伪客户端模型的模型参数。
2.根据权利要求1所述的方法,其中,所述从训练样本集中确定与第一目标标签信息对应的第一目标训练样本,包括:
响应于接收到来自所述客户端的第二目标标签信息,根据与所述第二目标标签信息一致的所述第一目标标签信息,从所述训练样本集中确定与所述第一目标标签信息对应的所述第一目标训练样本。
3.根据权利要求1所述的方法,其中,所述根据所述第一输出信息和所述第一目标标签信息,调整所述第一伪客户端模型的模型参数,包括:
将所述第一输出信息和所述第一目标标签信息输入第一损失函数,得到第一损失值;
根据所述第一损失值,得到第一梯度;
将所述第一梯度输入所述第一伪客户端模型,得到第二梯度;
根据所述第二梯度,调整所述第一伪客户端模型的模型参数。
4.一种第二伪客户端模型的训练方法,第三深度学习模型包括第二伪客户端模型和第二服务器模型,所述第二伪客户端模型包括第一伪客户端模块和第二伪客户端模块,所述第三深度学习模型部署于服务器,所述方法包括:
从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,其中,所述第三目标标签信息与第四目标标签信息相对应,所述第四目标标签信息是与第四目标训练样本对应的标签信息,所述第四目标训练样本用于训练第四深度学习模型中的第二真实客户端模型,所述第二真实客户端模型包括第一真实客户端模块和第二真实客户端模块,所述第四深度学习模型还包括所述第二服务器模型,所述第二真实客户端模型部署于客户端;
将所述第三目标训练样本输入所述第一伪客户端模块,得到第二伪中间层输出信息;
将所述第二伪中间层输出信息输入所述第二服务器模型,得到第三伪中间层输出信息;
将所述第三伪中间层输出信息输入所述第二伪客户端模块,得到第二输出信息;以及
根据所述第二输出信息和所述第三目标标签信息,调整所述第二伪客户端模型的模型参数。
5.根据权利要求4所述的方法,其中,所述从训练样本集中确定与第三目标标签信息对应的第三目标训练样本,包括:
响应于接收到来自所述客户端的第四目标训练样本,随机确定所述第三目标标签信息;以及
根据所述第三目标标签信息,从所述训练样本集中确定与所述第三目标标签信息对应的所述第三目标训练样本。
6.根据权利要求4或5所述的方法,其中,所述根据所述第二输出信息和所述第三目标标签信息,调整所述第二伪客户端模型的模型参数,包括:
将所述第二输出信息和所述第三目标标签信息输入第二损失函数,得到第二损失值;
根据所述第二损失值,得到第三梯度和第四梯度;
将所述第三梯度通过所述第二服务器模型输入所述第一伪客户端模块,得到第五梯度;
根据所述第四梯度,调整所述第二伪客户端模块的模型参数;以及
根据所述第五梯度,调整所述第一伪客户端模块的模型参数。
7.一种重构模型的训练方法,包括:
将第五目标训练样本输入伪客户端模型,得到第四伪中间层输出信息;
将所述第四伪中间层输出信息输入第五深度学习模型,得到重构样本;以及
根据所述第五训练样本和所述重构样本,调整所述第五深度学习模型的模型参数,得到所述重构模型;
其中,所述伪客户端模型包括所述第一伪客户端模型和所述第二伪客户端模型中的之一,所述第一伪客户端模型是利用根据权利要求1~3中任一项所述的方法训练得到的,所述第二伪客户端模型是利用根据权利要求4~6中任一项所述的方法训练得到的。
8.一种数据重构方法,包括:
将目标数据输入重构模型,得到原始重构数据;
将所述原始重构数据输入伪客户端模型,得到中间重构数据;
在确定所述目标数据和所述中间重构数据之间的差值满足预设条件的情况下,将所述原始重构数据确定为目标重构数据;
其中,所述重构模型是利用根据权利要求7所述的方法训练得到的,所述伪客户端模型包括所述第一伪客户端模型和所述第二伪客户端模型中的之一,所述第一伪客户端模型是利用根据权利要求1~3中任一项所述的方法训练得到的,所述第二伪客户端模型是利用根据权利要求4~6中任一项所述的方法训练得到的。
9.根据权利要求8所述的方法,还包括:
在确定所述目标数据和所述中间重构数据之间的差值不满足所述预设条件的情况下,调整所述原始重构数据,得到新的中间重构数据,直至所述目标数据和所述新的中间重构数据之间的差值满足所述预设条件。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~9中任一项所述的方法。
CN202211707606.XA 2022-12-29 2022-12-29 模型的训练方法、数据重构方法以及电子设备 Pending CN116011560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211707606.XA CN116011560A (zh) 2022-12-29 2022-12-29 模型的训练方法、数据重构方法以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211707606.XA CN116011560A (zh) 2022-12-29 2022-12-29 模型的训练方法、数据重构方法以及电子设备

Publications (1)

Publication Number Publication Date
CN116011560A true CN116011560A (zh) 2023-04-25

Family

ID=86029329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211707606.XA Pending CN116011560A (zh) 2022-12-29 2022-12-29 模型的训练方法、数据重构方法以及电子设备

Country Status (1)

Country Link
CN (1) CN116011560A (zh)

Similar Documents

Publication Publication Date Title
CN111401558B (zh) 数据处理模型训练方法、数据处理方法、装置、电子设备
EP4217934A1 (en) Method and system for relation learning by multi-hop attention graph neural network
WO2013067461A2 (en) Identifying associations in data
CA3028291A1 (en) Systems and methods for determining an optimal strategy
CN113569740B (zh) 视频识别模型训练方法与装置、视频识别方法与装置
US20240046160A1 (en) Methods, systems, and apparatuses for training privacy protection model
US20200341812A1 (en) Aggregated virtualized compute accelerators
US20230177729A1 (en) Object oriented image normalization
US20210319303A1 (en) Multi-source transfer learning from pre-trained networks
WO2023009511A1 (en) Customized deep learning classifier for detecting organization sensitive data in images on premises
CN116432040B (zh) 基于联邦学习的模型训练方法、装置、介质以及电子设备
CN118035876A (zh) 推荐信息生成方法、装置、设备及介质
CN117253085A (zh) 基于多任务的眼底图像分类方法、装置、设备及存储介质
CN111899239A (zh) 图像处理方法和装置
CN116597033A (zh) 图像重建方法、装置、设备和介质
CN116468970A (zh) 模型训练方法、图像处理方法、装置、设备及介质
CN116155628A (zh) 网络安全检测方法、训练方法、装置、电子设备和介质
CN116011560A (zh) 模型的训练方法、数据重构方法以及电子设备
US11675876B2 (en) Training robust machine learning models
US11621078B2 (en) Pre-processing whole slide images in cognitive medical pipelines
CN115587297A (zh) 构建图像识别模型和图像识别的方法、装置、设备及介质
Zhang et al. Deformable channel non‐local network for crowd counting
Wu et al. Pattern Recognition of Holographic Image Library Based on Deep Learning
CN116070695B (zh) 图像检测模型的训练方法、图像检测方法及电子设备
CN116310419A (zh) 图像识别方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination