CN116257885A - 基于联邦学习的隐私数据通信方法、系统和计算机设备 - Google Patents

基于联邦学习的隐私数据通信方法、系统和计算机设备 Download PDF

Info

Publication number
CN116257885A
CN116257885A CN202310287348.2A CN202310287348A CN116257885A CN 116257885 A CN116257885 A CN 116257885A CN 202310287348 A CN202310287348 A CN 202310287348A CN 116257885 A CN116257885 A CN 116257885A
Authority
CN
China
Prior art keywords
data
local
reconstruction
model
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202310287348.2A
Other languages
English (en)
Inventor
王俊仃
万莉
吴文静
冯利
杨瑞丽
陈艳华
赵涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shangqiu Institute of Technology
Original Assignee
Shangqiu Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shangqiu Institute of Technology filed Critical Shangqiu Institute of Technology
Priority to CN202310287348.2A priority Critical patent/CN116257885A/zh
Publication of CN116257885A publication Critical patent/CN116257885A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本发明涉及基于联邦学习的隐私数据通信方法、系统和计算机设备。该方法包括获取客户端的本地隐私数据和本地隐私数据对应的标签数据,将本地隐私数据输入至训练好的数据重构模型中,得到本地隐私数据的重构数据;将本地隐私数据的重构数据和对应的标签数据发送至服务端,供服务端利用重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。本发明解决了在客户端和服务端之间进行数据通信的过程中,如何提高更新模型参数与某个本地任务模型匹配度,进而提高客户端上本地任务模型执行任务的准确率的问题。

Description

基于联邦学习的隐私数据通信方法、系统和计算机设备
技术领域
本发明适用于通信技术领域,尤其涉及一种基于联邦学习的隐私数据通信方法、系统和计算机设备。
背景技术
现有技术中,基于联邦学习的隐私数据通信系统通常包括一个服务端和多个客户端,各个客户端根据自身的本地隐私数据对本地任务模型进行训练,通过通信的方式将训练好的模型参数发送给服务端,由服务端进行模型参数整合,即根据收集的模型参数进行联邦学习模型的训练,得到泛化能力更强的更新模型参数,再分发给各个客户端,由各个客户端中的本地任务模型配置接收到的更新模型参数,然后利用更新的本地任务模型进行相应任务,从而无需获取到客户端本地数据,保障了本地数据的隐私性,又让更新模型参数学习到的各个客户端本地数据的知识。
但是,现有将模型参数进行客户端和服务端通信,由服务端进行模型参数整合的方式,会存在更新模型参数与某个本地任务模型匹配度较低,导致客户端上本地任务模型执行任务的准确率较低。因此,在客户端和服务端之间进行数据通信的过程中,如何提高更新模型参数与某个本地任务模型匹配度,进而提高客户端上本地任务模型执行任务的准确率,成为目前亟待解决的问题。
发明内容
有鉴于此,本发明实施例提供了一种基于联邦学习的隐私数据通信方法、系统和计算机设备,以解决在客户端和服务端之间进行数据通信的过程中,如何提高更新模型参数与某个本地任务模型匹配度,进而提高客户端上本地任务模型执行任务的准确率的问题。
第一方面,提供一种基于联邦学习的隐私数据通信方法,所述隐私数据通信方法包括:
获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;
将所述本地隐私数据的重构数据和所述对应的标签数据发送至服务端,供服务端利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
可选的是,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型包括:
将所述更新模型参数配置于所述本地任务模型中,得到第一次参数更新的本地任务模型;
向第一次参数更新的本地任务模型中输入所述本地隐私数据,得到执行本地任务的输出结果及其输出概率,所述输出结果及其输出概率包括:分类任务结果,以及属于该分类任务结果的预测概率;
根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数,进行所述本地任务模型的第二次参数更新。
可选的是,根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数包括:
将同一个批次内的N个本地隐私数据分别输入至第一次参数更新的本地任务模型中,N≥2,得到N组输出结果及其输出概率;
计算所述同一个批次内所有输出概率的预测均值,确定所述预测均值与预设参考值之间的预测概率偏差值;
预设所述预测概率偏差值与所述本地任务模型的损失之间的负相关关系,确定所述本地任务模型的损失,当所述损失满足预设损失范围时,输出所述最优的更新模型参数。
可选的是,确定所述最优的更新模型参数之后,还包括:
计算各个所述本地隐私数据对于更新模型参数的影响因子;
根据所述影响因子计算为各个所述本地隐私数据分配的子损失权值;
根据各个所述本地隐私数据输入所述本地任务模型后产生的子损失以及各个所述子损失权值,计算所述本地任务模型在训练过程中的综合损失函数,用以再次训练所述本地任务模型,从而对所述最优的更新模型参数进行再次更新,进行所述本地任务模型的第三次参数更新。
可选的是,计算各个所述本地隐私数据对于更新模型参数的影响因子包括:
将各个所述本地隐私数据分别输入第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型;
当所述第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型的输出结果一致时,将所述第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型的输出概率作差,根据所述作差得到的差值确定各个各个所述本地隐私数据的参数影响程度值;
筛选出与各个本地隐私数据对应的最小所述差值,根据最小所述差值确定参数影响基准值;
求取各个所述本地隐私数据的参数影响程度值与所述参数影响基准值的比值,得到各个所述本地隐私数据对于更新模型参数的影响因子。
第二方面,提供一种基于联邦学习的隐私数据通信系统,所述隐私数据通信系统包括:
至少两个客户端,各个客户端用于获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;将所述本地隐私数据的重构数据和所述对应的标签数据进行外发;
服务端,用于接收各个客户端发送的所述本地隐私数据的重构数据和所述对应的标签数据,利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
所述各个客户端用于接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的隐私数据通信方法。
本发明与现有技术相比存在的有益效果是:
本发明在客户端和服务端之间进行数据通信的过程中,通过在客户端预先对本地隐私数据进行数据重构,得到与本地隐私数据具有相同特征表示但数据区别较大的重构数据,并将该重构数据以通信的方式发送给服务端,由服务端利用接收到各个客户端发来的重构数据进行联邦学习模型的训练,从而得到与各个客户端的本地任务模型匹配度较高的更新模型参数,加大了各个客户端的本地隐私数据的保护力度的同时,还能提高各个客户端上本地任务模型执行任务的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种基于联邦学习的隐私数据通信方法的一应用环境示意图;
图2是本发明实施例一提供的一种基于联邦学习的隐私数据通信方法的流程示意图;
图3是本发明实施例二提供的一种基于联邦学习的隐私数据通信方法的流程示意图;
图4是本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
本发明实施例一提供的一种基于联邦学习的隐私数据通信方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、云端计算机设备、个人数字助理(personal digital assistant,PDA)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
参见图2,是本发明实施例一提供的一种基于联邦学习的隐私数据通信方法的流程示意图,上述隐私数据通信方法可以应用于图1中的客户端,客户端对应的计算机设备通过预设的应用程序接口(Application Programming Interface,API)连接目标数据库。在目标数据被驱动运行以执行相应的任务时,会产生对应的任务日志,通过API可以采集到上述任务日志。如图2所示,该隐私数据通信方法可以包括以下步骤:
步骤S201,获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;
其中,本步骤以单个客户端为处理终端,该客户端采集到的多个本地隐私数据,在此以单个本地隐私数据进行举例说明,训练好的重构模型可以采用变分自编码器结构,该变分自编码器结构包括重构编码器和重构解码器,所述重构编码器用于提取所述本地隐私数据的特征,所述重构解码器用于进行所述本地隐私数据的特征重构,得到重构特征。本步骤中,所述数据重构模型的训练过程中,采用n个历史本地隐私数据作为训练数据集,n>2,训练方式采用自监督训练方式,损失函数包括用于增加历史本地隐私数据及历史重构数据之间差异的第一重构损失,以及用于约束本地特征和所述数据重构模型输出的重构特征之间相似度的第二重构损失,所述本地特征为将所述历史本地隐私数据输入配置于客户端中的本地任务模型或配置于服务端中联邦学习模型的特征提取模型后,所述本地任务模型或所述特征提取模型输出的特征,所述本地任务模型进行的任务为分类任务、预测任务或识别任务。
其中,特征提取模型另外一个编码器结构,为了便于应用,可以直接采用进行前次联邦学习时联邦学习模型中的编码器结构,若是初次训练,则采用联邦学习模型中的初始编码器结构。作为其他实施方式,该特征提取模型还可以采用本地任务模型中的编码器结构。其中,本地任务模型中的编码器结构和联邦学习模型中的编码器结构都可以用于输入历史本地隐私数据,从而确定本地特征;不同之处在于,在某一次联邦学习之后,通过联邦学习模型确定的更新模型参数,由服务端发送至客户端,客户端中的本地任务模型配置该更新模型参数之后又进行了模型训练,再次优化了本地任务模型的模型参数,模型参数再次优化后本地任务模型的编码器结构与之前联邦学习模型中的编码器结构不同,但都可以用于确定本地特征。
在本实施例中,联邦学习模型对应的任务可以不作限制,例如,联邦学习模型处理的任务可以为分类任务、预测任务、或识别任务等,在通常情况下,联邦学习模型总会包含有编码器,来用于进行特征提取操作。
可选的是,确定上述第一重构损失的步骤包括:
将各个所述历史本地隐私数据输入至所述数据重构模型中,得到历史重构数据;
计算所述历史重构数据与对应的历史本地隐私数据之间的欧式距离,求取所述欧式距离的倒数,以得到所述第一重构损失。
具体的,在上述数据重构模型的训练过程中,将一个历史本地数据输入至数据重构模型的编码器中进行特征提取,输出一个历史数据特征,再将历史数据特征输入数据重构模型的解码器中进行特征重构,输出一个历史重构数据,然后计算历史本地数据和历史重构数据之间的欧式距离,以欧式距离的倒数作为第一重构损失,该欧式距离越大,说明历史本地数据和历史重构数据相似度越小,此时第一重构损失越小;反之,欧式距离越小,说明历史本地数据和历史重构数据相似度越大,此时第一重构损失越大。
本步骤中,利用上述第一重构损失训练数据重构模型的目的是约束重构数据与本地隐私数据之间的差异足够大,从而在客户端和服务端之间的通信过程中实现数据加密的作用,令接收方也即服务器,无法根据得到的重构数据得到客户端的本地隐私数据,实现对客户端隐私数据的保护。
可选的是,确定所述第二重构损失的步骤包括:
获取联邦学习模型的特征提取模型,将所述历史本地隐私数据和历史重构数据分别输入至所述特征提取模型中,得到历史本地隐私数据特征和历史重构数据特征;
计算所述历史本地隐私数据特征和历史重构数据特征之间的欧式距离,以得到所述第二重构损失。
具体的,在上述数据重构模型的训练过程中,分别将历史本地数据和历史重构数据输入上述训练好的特征提取模型中,输出历史本地特征和历史重构特征,计算历史本地特征和历史重构特征的欧式距离,以该欧式距离直接作为第二重构损失,也即,利用上述第二重构损失训练数据重构模型的目的是约束本地特征和重构特征足够相似,从而保证接收方(即服务端)仅接收到重构数据,也能够正常进行联邦学习。
本步骤中,经过上述第一重构损失和第二重构损失训练得到的数据重构模型,能够使其输出的重构数据和本地隐私数据之间具有较明显的区别,但是二者之间的特征表示相同,在客户端和服务端之间的数据通信上起到了隐私保护的作用,同时,能够为服务端提供样本数据,而非现有技术中的模型参数,使得服务端能够利用接收的重构数据灵活的应用各种训练策略进行联邦学习模型的训练,例如采用自设定的dropout率等,提高了联邦学习的鲁棒性,也即提高了联邦学习模型的准确率,有助于提高更新模型参数的可靠性,增加更新模型参数与某个本地任务模型之间的匹配度。
步骤S202,将所述本地隐私数据的重构数据和所述对应的标签数据发送至服务端,供服务端利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
其中,服务端接收到各个客户端发送的重构数据,以及对应重构数据的标签数据(是指与重构数据具有一致特征表示的本地隐私数据的标签数据),可以采用服务端自设定的训练策略训练配置于服务端的联邦学习模型,得到更新模型参数,再分发给各个客户端。
并且,配置于服务端中用于联邦学习模型的损失函数可以根据模型任务确定常规的训练损失,例如,若联邦学习模型执行的任务为分类任务,则服务端训练的损失函数可以采用交叉熵损失函数,若联邦学习模型执行的任务为预测任务,则服务端训练的损失函数可以采用均方误差损失函数。
可选的是,所述服务端利用所述重构数据进行联邦学习模型的训练过程中,为接收到的各个重构数据分配训练权重,根据各个所述重构数据及其训练权重确定所述联邦学习模型的训练过程中的损失函数,当所述损失函数达到预设条件,得到联邦学习模型的更新模型参数。
可选的是,所述为接收到的各个重构数据分配训练权重包括:
对从各个客户端接收到的所有重构数据进行聚类,得到所述重构数据的k个聚类集合,k≥2;
确定从各个客户端接收到的重构数据总数,计算所述重构数据总数与各个聚类集合中重构数据数量之间的差值,将所述差值与所述重构数据总数的比值作为各个重构数据分配得到的训练权重。
举例说明,服务端采用自设定训练策略训练的方式,对所有接收到的重构数据,根据重构数据之间的相似度进行K-means聚类,得到k个聚类集合,统计每个聚类集合中重构数据的数量,针对任一个聚类集合,根据该聚类集合包含重构数据的数量占所有重构数据的比值,以1减去该比值,作为该聚类集合内所有重构数据的训练权重。
本步骤中,根据各个训练权重进行所有重构数据的损失函数计算,得到用于训练联邦学习模型训练的损失函数,从而得到样本影响程度均衡的更新模型参数。例如,联邦学习模型训练的损失函数采用交叉熵损失函数,在计算联邦学习模型训的损失时,通常是按照批次进行计算的,例如一个批次包含M个重构数据x,每个样本(即重构数据)有对应的标签y,以及输入联邦学习模型后对应的输出y',针对一个样本(即一个重构数据),其损失为f(y,y'),而针对一个批次,综合损失L为f(y_1,y'_1)+f(y_2,y'_2)+…+f(y_M,y'_M),通过利用多个重构数据对联邦学习模型训练,能够累加计算得到综合损失L,因此上述确定的各个训练权重是添加到综合损失函数的累加过程中的权重,比如数据标签y_1对应的重构数据x_1的训练权重为a_1,数据标签y_2对应的重构数据x_2的训练权重为a_2,…,数据标签y_M对应的重构数据x_M的训练权重为a_M,则损失为a_1*f(y_1,y'_1)+a_2*f(y_2,y'_2)+…+a_M*f(y_M,y'_M)。
步骤S203,接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
可选的是,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型包括:
将所述更新模型参数配置于所述本地任务模型中,得到第一次参数更新的本地任务模型;
向第一次参数更新的本地任务模型中输入所述本地隐私数据,得到执行本地任务的输出结果及其输出概率,所述输出结果及其输出概率包括:图像分类任务结果,以及属于该图像分类任务结果的预测概率;
根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数,进行所述本地任务模型的第二次参数更新。
本步骤中,对于本地任务模型的参数进行了两次更新,第一次更新参数是利用在服务端的联邦学习模型发送的更新模型参数,与现有技术相比,该参数与本地任务模型匹配度在一定程度上已经进行了提升,能够提高本地任务模型执行任务的准确率;在此基础上,
可选的是,根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数包括:
将同一个批次内的N个本地隐私数据分别输入至第一次参数更新的本地任务模型中,N≥2,得到N组输出结果及其输出概率;
计算所述同一个批次内所有输出概率的预测均值,确定所述预测均值与预设参考值之间的预测概率偏差值;
预设所述预测概率偏差值与所述本地任务模型的损失之间的负相关关系,确定所述本地任务模型的损失,当所述损失满足预设损失范围时,输出所述最优的更新模型参数。
其中,由于各个客户端在本地也存在于各种不同的任务需求,因此本步骤还需要对更新模型参数进行各自的适应性训练,此时,仍然采用本地隐私数据作为训练数据集,将本地隐私数据输入配置好的本地任务模型中,得到输出结果及其输出概率,在本步骤中,以本地隐私数据输入至本地任务模型的输出概率约束作为损失函数,也即,将一个批次的本地隐私数据分别输入配置好的本地任务模型中,得到对应本地隐私数据的输出结果及其输出概率,计算该批次内所有输出概率的预测均值,计算预测均值和预设参考值的差值(即预测概率偏差值),采用指数函数进行映射,,确定预测概率偏差值与本地任务模型的损失之间的负相关关系,形如:L=e-(μ-α),其中,L为本地任务模型的损失,μ为预测均值,α为预设参考值,当预测均值大于或者等于预设参考值时,损失函数在[0,1]范围内,数值较小,而当预测均值小于预设参考值时,损失函数较大,因此,利用上述损失函数会指导本地任务模型的参数进行再次更新,以使得测试时各个批次的本地隐私数据分别输入配置好的本地任务模型后的输出概率均值在参考值以上,例如,参考值可以设置为0.6至0.7之间。
本发明在客户端和服务端之间进行数据通信的过程中,通过在客户端预先对本地隐私数据进行数据重构,得到与本地隐私数据具有相同特征表示但数据区别较大的重构数据,并将该重构数据以通信的方式发送给服务端,由服务端利用接收到各个客户端发来的重构数据进行联邦学习模型的训练,从而得到与各个客户端的本地任务模型匹配度较高的更新模型参数,加大了各个客户端的本地隐私数据的保护力度的同时,还能提高各个客户端上本地任务模型执行任务的准确率。
需要说明的是,在上述步骤S201中,若采用联邦学习模型中的编码器结构作为用于确定本地特征的特征提取模型,则后续联邦学习仅能够用作训练下游任务模型部分,也即,编码器结构部分无法训练。其原因在于,本发明是以重构数据作为客户端提供给服务端的数据,而且限制了重构数据和本地隐私数据分别对应的特征相同,如果服务端对编码器,也就是特征提取部分进行训练,将无法保证本地隐私数据和重构数据对应特征的一致性。
为解决该问题,本发明还可以在联邦学习模型前添加一个嵌入层,该嵌入层提供基础的特征编码作用,但仅涉及浅层特征,服务端以通信的方式将训练好的嵌入层分发给客户端,客户端训练重构模型时,额外添加的特征提取模型采用训练好的嵌入层即可。
具体实施时,嵌入层加在联邦学习模型的编码器之前,可以理解为两层编码器,第一层编码器即嵌入层,用于提取浅层特征,第二层编码器用于提取深层特征,将第一层编码器的参数固定,以用作各个客户端本地进行重构模型训练,第二层编码器即为常规架构中的编码器结构,此时,在服务端内,重构数据先经过嵌入层,得到浅层特征(该浅层特征与本地隐私数据提取的浅层特征一致),再将浅层特征输入第二层编码器和下游任务模型(即与编码器输出端连接的任务模型,例如可以为全连接层,用于实现图像分类),得到输出结果,因此,服务端的联邦学习模型训练也是针对第二层编码器和下游任务模型进行的训练。
本发明的基于联邦学习的隐私数据通信方法的一种应用场景为:
例如为用户的购物偏好产品推荐,客户端A和客户端B均为用于客户购物的客户端,两个客户端均存在各自的本地隐私数据,客户端A和客户端B均具有向用户进行购物偏好产品推荐的需求,但出于隐私数据保护的需求,客户端A和客户端B之间不方便直接进行数据交换,因此,客户端A和客户端B可以分别利用上述的隐私数据通信方法,将各自的本地隐私数据输入至各自客户端的数据重构模型中进行数据重构,得到具有与原来本地隐私数据一致特征的重构数据Ai和Bi,i=1,2,…n,客户端A将数据重构模型输出的重构数据Ai发送给服务端,客户端B将数据重构模型输出的重构数据Bi发送给服务端,服务端收集所有重构数据Ai和Bi,利用所有重构数据对联邦学习模型进行训练,从而得到联邦学习模型的更新模型参数,再将更新模型参数分别通信发送给客户端A和客户端B,由客户端A和客户端B基于更新模型参数结合本地隐私数据进行本地任务模型的训练,各个客户端利用训练好的本地任务模型执行各自的任务,从而提高各个客户端上本地任务模型执行任务的准确率。
参见图3,是本发明实施例二提供的一种基于联邦学习的隐私数据通信方法的流程示意图,如图3所示,该隐私数据通信方法可以包括以下步骤:
步骤S301,获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;
步骤S302,将所述本地隐私数据的重构数据和所述对应的标签数据发送至服务端,供服务端利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
步骤S303,接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型;
其中,步骤S301至步骤S303与上述步骤S201至步骤S203的内容型相同,可参考步骤S201至步骤S203的描述,在此不再赘述。
步骤S304,确定所述最优的更新模型参数之后,还包括:
计算各个所述本地隐私数据对于更新模型参数的影响因子;
根据所述影响因子计算为各个所述本地隐私数据分配的子损失权值;
根据各个所述本地隐私数据输入所述本地任务模型后产生的子损失以及各个所述子损失权值,计算所述本地任务模型在训练过程中的综合损失函数,用以再次训练所述本地任务模型,从而对所述最优的更新模型参数进行再次更新,进行所述本地任务模型的第三次参数更新。
其中,在接收到更新模型参数时,客户端本地还可以通过比对本地隐私数据输入更新前的本地任务模型和更新后的本地任务模型的输出结果,来量化出本地隐私数据对于更新模型参数的贡献率,即量化指标。
各个客户端可以根据各个本地隐私数据的量化指标,自适应地设置本地任务模型再次更新的方式,例如,以1减去量化指标的结果作为本地数据的权值,在计算损失函数时,为不同的本地隐私数据分配对应的权值进行计算,从而均衡本地隐私数据对本地任务模型的影响程度。
本步骤相当于对本地任务模型进行再次训练,训练的损失函数根据任务确定,也是常规的损失函数,分类任务的交叉熵损失和预测任务的均方误差损失,也就是,根据本地隐私数据作为训练样本对更新后的本地模型再次训练,由于本地隐私数据是存在标签的,因此,训练方式也是常规的训练方式,唯一的差别在于,每个本地隐私数据有对应的权重,计算损失函数的方法与前述步骤S202中根据训练权重计算联邦学习模型训练的损失一致。
可选的是,计算各个所述本地隐私数据对于更新模型参数的影响因子包括:
将各个所述本地隐私数据分别输入第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型;
当所述第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型的输出结果一致时,将所述第二次参数更新前的本地任务模型和第二次参数更新后的本地任务模型的输出概率作差,根据所述作差得到的差值确定各个所述本地隐私数据的参数影响程度值;
筛选出与各个本地隐私数据对应的最小所述差值,根据最小所述差值确定参数影响基准值;
求取各个所述本地隐私数据的参数影响程度值与所述参数影响基准值的比值,得到各个所述本地隐私数据对于更新模型参数的影响因子。
举例说明,在本地隐私数据输入更新前的本地模型和更新后的本地模型的输出结果相同时,计算输出概率的差值,将差值映射为参数影响程度值,此时,需要得到所有用于测试的本地隐私数据分别对应的差值,由于联邦学习时联合了多个客户端的本地隐私数据,因此默认输出概率的差值是正值,也即,更新前的本地任务模型的预测概率相较于更新后的本地任务模型更高,更准确,确定所有差值的最小值,以1减去该最小值,将计算结果作为归一化底数值,将每个本地数据对应的输出概率差值被1减,再与归一化底数值作比,得到值域范围在[0,1]内的量化指标,用于量化每个本地数据对于更新模型参数的影响因子,或称贡献程度因子。
本发明实施例根据在联邦学习过程中,服务端可以自定义训练策略对模型进行更新,而非简单的模型参数整合,能够有效提高模型的准确率,同时,客户端可以对更新模型进行本地化优化,从而在保证模型泛化能力的同时,有效提高模型针对本地数据的推理能力,进一步提高各个本地任务模型的准确率。
对应于上文实施例的方法,图1示出了本发明实施例三提供的基于联邦学习的隐私数据通信系统的结构框图,上述隐私数据通信系统包括n个客户端和服务端,n≥2,各个客户端分别与服务端通信连接。
各个客户端用于获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;将所述本地隐私数据的重构数据和所述对应的标签数据进行外发;
服务端,用于接收各个客户端发送的所述本地隐私数据的重构数据和所述对应的标签数据,利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
所述各个客户端用于接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
可选的是,上述各个客户端中配置的重构模型包括:
重构编码器和重构解码器,所述重构编码器用于提取所述本地隐私数据的特征,所述重构解码器用于进行所述本地隐私数据的特征重构,得到重构特征;
所述数据重构模型的训练过程中,采用n个历史本地隐私数据作为训练数据集,n>2,训练方式采用自监督训练方式,损失函数包括用于增加历史本地隐私数据及历史重构数据之间差异的第一重构损失,以及用于约束本地任务模型输出的本地特征和所述数据重构模型输出的重构特征之间相似度的第二重构损失,所述本地特征为将所述历史本地隐私数据输入本地任务模型后,所述本地任务模型中输出的特征,所述本地任务模型进行的任务为分类任务、预测任务或识别任务。
可选的是,上述隐私数据通信系统的各个客户端中还配置有:
第一重构损失计算模块,用于将各个所述历史本地隐私数据输入至所述数据重构模型中,得到历史重构数据;计算所述历史重构数据与对应的历史本地隐私数据之间的欧式距离,求取所述欧式距离的倒数,以得到所述第一重构损失。
可选的是,上述隐私数据通信系统的各个客户端中还配置有:
第二重构损失计算模块,用于获取联邦学习模型的特征提取模型,将所述历史本地隐私数据和历史重构数据分别输入至所述特征提取模型中,得到历史本地隐私数据特征和历史重构数据特征;计算所述历史本地隐私数据特征和历史重构数据特征之间的欧式距离,以得到所述第二重构损失。
可选的是,上述隐私数据通信系统的服务端中配置有:
模型训练模块,用于在利用所述重构数据进行联邦学习模型的训练过程中,为接收到的各个重构数据分配训练权重,根据各个所述重构数据的训练权重确定重构数据的损失函数,当所述损失函数达到预设条件,得到联邦学习模型的更新模型参数。
可选的是,所述为接收到的各个重构数据分配训练权重包括:
对从各个客户端接收到的所有重构数据进行聚类,得到所述重构数据的k个聚类集合,k≥2;
确定从各个客户端接收到的重构数据总数,计算所述重构数据总数与各个聚类集合中重构数据数量之间的差值,将所述差值与所述重构数据总数的比值作为各个重构数据分配得到的训练权重。
可选的是,上述隐私数据通信系统的服务端中配置有:
参数更新模块,用于将所述更新模型参数配置于所述本地任务模型中,得到第一次参数更新的本地任务模型;
向第一次参数更新的本地任务模型中输入所述本地隐私数据,得到执行本地任务的输出结果及其输出概率,所述输出结果及其输出概率包括:分类任务结果,以及属于该分类任务结果的预测概率;
根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数。
可选的是,所述参数更新模块中配置有:
任务控制单元,用于将同一个批次内的N个本地隐私数据分别输入至第一次参数更新的本地任务模型中,N≥2,得到N组输出结果及其输出概率;
偏差计算单元,用于计算所述同一个批次内所有输出概率的预测均值,确定所述预测均值与预设参考值之间的预测概率偏差值;
模型参数更新单元,用于预设所述预测概率偏差值与所述本地任务模型的损失之间的负相关关系,根据所述负相关关系确定所述本地任务模型的损失,当所述损失满足预设损失范围时,输出所述最优的更新模型参数。
需要说明的是,上述模块之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图4为本发明实施例四提供的一种计算机设备的结构示意图。如图4所示,该实施例的计算机设备包括:至少三个处理器(图4中仅示出一个)、存储器以及存储在存储器中并可在至少三个处理器上运行的计算机程序,其中一个处理器用于执行服务端相关任务的计算机程序,剩余处理器分别用于执行各自客户端本地任务的计算机程序,所述至少三个处理器相配合共同实现上述隐私数据通信方法中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图4仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.基于联邦学习的隐私数据通信方法,其特征在于,所述隐私数据通信方法包括:
获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;
将所述本地隐私数据的重构数据和所述对应的标签数据发送至服务端,供服务端利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
2.根据权利要求1所述的隐私数据通信方法,其特征在于,所述数据重构模型包括重构编码器和重构解码器,所述重构编码器用于提取所述本地隐私数据的特征,所述重构解码器用于进行所述本地隐私数据的特征重构,得到重构特征;
所述数据重构模型的训练过程中,采用n个历史本地隐私数据作为训练数据集,n>2,训练方式采用自监督训练方式,损失函数包括用于增加历史本地隐私数据及历史重构数据之间差异的第一重构损失,以及用于约束本地特征和所述数据重构模型输出的重构特征之间相似度的第二重构损失,所述本地特征为将所述历史本地隐私数据输入配置于客户端中的本地任务模型或配置于服务端中联邦学习模型的特征提取模型后,所述本地任务模型或所述特征提取模型输出的特征,所述本地任务模型进行的任务为分类任务、预测任务或识别任务。
3.根据权利要求2所述的隐私数据通信方法,其特征在于,确定第一重构损失的步骤包括:
将各个所述历史本地隐私数据输入至所述数据重构模型中,得到历史重构数据;
计算所述历史重构数据与对应的历史本地隐私数据之间的欧式距离,求取所述欧式距离的倒数,以得到所述第一重构损失。
4.根据权利要求2所述的隐私数据通信方法,其特征在于,确定所述第二重构损失的步骤包括:
获取联邦学习模型的特征提取模型,将所述历史本地隐私数据和历史重构数据分别输入至所述特征提取模型中,得到历史本地隐私数据特征和历史重构数据特征;
计算所述历史本地隐私数据特征和历史重构数据特征之间的欧式距离,以得到所述第二重构损失。
5.根据权利要求1所述的隐私数据通信方法,其特征在于,所述服务端利用所述重构数据进行联邦学习模型的训练过程中,为接收到的各个重构数据分配训练权重,根据各个所述重构数据及其训练权重确定所述联邦学习模型的训练过程中的损失函数,当所述损失函数达到预设条件,得到联邦学习模型的更新模型参数。
6.根据权利要求5所述的隐私数据通信方法,其特征在于,所述为接收到的各个重构数据分配训练权重包括:
对从各个客户端接收到的所有重构数据进行聚类,得到所述重构数据的k个聚类集合,k≥2;
确定从各个客户端接收到的重构数据总数,计算所述重构数据总数与各个聚类集合中重构数据数量之间的差值,将所述差值与所述重构数据总数的比值作为各个重构数据分配得到的训练权重。
7.根据权利要求1所述的隐私数据通信方法,其特征在于,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型包括:
将所述更新模型参数配置于所述本地任务模型中,得到第一次参数更新的本地任务模型;
向第一次参数更新的本地任务模型中输入所述本地隐私数据,得到执行本地任务的输出结果及其输出概率,所述输出结果及其输出概率包括:分类任务结果,以及属于该分类任务结果的预测概率;
根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数,进行所述本地任务模型的第二次参数更新。
8.根据权利要求7所述的隐私数据通信方法,其特征在于,根据所述输出结果及其输出概率再次更新所述本地任务模型,确定最优的更新模型参数包括:
将同一个批次内的N个本地隐私数据分别输入至第一次参数更新的本地任务模型中,N≥2,得到N组输出结果及其输出概率;
计算所述同一个批次内所有输出概率的预测均值,确定所述预测均值与预设参考值之间的预测概率偏差值;
预设所述预测概率偏差值与所述本地任务模型的损失之间的负相关关系,根据所述负相关关系确定所述本地任务模型的损失,当所述损失满足预设损失范围时,输出所述最优的更新模型参数。
9.基于联邦学习的隐私数据通信系统,其特征在于,所述隐私数据通信系统包括:
至少两个客户端,各个客户端用于获取客户端的本地隐私数据和所述本地隐私数据对应的标签数据,将所述本地隐私数据输入至训练好的数据重构模型中,得到所述本地隐私数据的重构数据;将所述本地隐私数据的重构数据和所述对应的标签数据进行外发;
服务端,用于接收各个客户端发送的所述本地隐私数据的重构数据和所述对应的标签数据,利用所述重构数据进行联邦学习模型的训练,以得到联邦学习模型的更新模型参数;
所述各个客户端用于接收所述服务端发送的所述更新模型参数,利用所述更新模型参数和所述本地隐私数据更新所述客户端的本地任务模型。
10.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述的隐私数据通信方法。
CN202310287348.2A 2023-03-22 2023-03-22 基于联邦学习的隐私数据通信方法、系统和计算机设备 Withdrawn CN116257885A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310287348.2A CN116257885A (zh) 2023-03-22 2023-03-22 基于联邦学习的隐私数据通信方法、系统和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310287348.2A CN116257885A (zh) 2023-03-22 2023-03-22 基于联邦学习的隐私数据通信方法、系统和计算机设备

Publications (1)

Publication Number Publication Date
CN116257885A true CN116257885A (zh) 2023-06-13

Family

ID=86680874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310287348.2A Withdrawn CN116257885A (zh) 2023-03-22 2023-03-22 基于联邦学习的隐私数据通信方法、系统和计算机设备

Country Status (1)

Country Link
CN (1) CN116257885A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116938672A (zh) * 2023-09-18 2023-10-24 中国电信股份有限公司 任务模型分发方法、装置、计算机设备、介质及产品

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116938672A (zh) * 2023-09-18 2023-10-24 中国电信股份有限公司 任务模型分发方法、装置、计算机设备、介质及产品
CN116938672B (zh) * 2023-09-18 2024-02-23 中国电信股份有限公司 任务模型分发方法、装置、计算机设备、介质及产品

Similar Documents

Publication Publication Date Title
CN108171203B (zh) 用于识别车辆的方法和装置
CN111046027B (zh) 时间序列数据的缺失值填充方法和装置
CN110929799B (zh) 用于检测异常用户的方法、电子设备和计算机可读介质
CN112102959B (zh) 一种服务器、数据处理方法、装置及可读存储介质
CN112883990A (zh) 数据分类方法及装置、计算机存储介质、电子设备
CN111340226B (zh) 一种量化神经网络模型的训练及测试方法、装置及设备
CN116257885A (zh) 基于联邦学习的隐私数据通信方法、系统和计算机设备
CN115034315A (zh) 基于人工智能的业务处理方法、装置、计算机设备及介质
CN113435499B (zh) 标签分类方法、装置、电子设备和存储介质
CN116662904A (zh) 数据类型的变异检测方法、装置、计算机设备及介质
CN110348581B (zh) 用户特征群中用户特征寻优方法、装置、介质及电子设备
CN115358914B (zh) 用于视觉检测的数据处理方法、装置、计算机设备及介质
CN116342164A (zh) 目标用户群体的定位方法、装置、电子设备及存储介质
CN116703659A (zh) 一种应用于工程咨询的数据处理方法、装置及电子设备
CA3046225A1 (en) Correcting bias in supervised machine learning data
CN113989569B (zh) 图像处理方法、装置、电子设备和存储介质
CN115934484A (zh) 基于扩散模型数据增强的异常检测方法、存储介质及设备
CN115601042A (zh) 信息识别方法、装置、电子设备及存储介质
CN111160969A (zh) 一种电力价格预测方法及装置
CN111178630A (zh) 一种负荷预测方法及装置
CN113591983A (zh) 图像识别方法和装置
CN115238838A (zh) 持续学习的模型更新方法、装置、设备及介质
CN113591987A (zh) 图像识别方法、装置、电子设备和介质
CN116486206A (zh) 基于模型优化的数据处理方法、装置、计算机设备及介质
CN116821689A (zh) 文本分类的数据增强方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20230613