CN115544580B - 保护数据隐私的两方联合训练预测模型的方法及装置 - Google Patents

保护数据隐私的两方联合训练预测模型的方法及装置 Download PDF

Info

Publication number
CN115544580B
CN115544580B CN202211507939.8A CN202211507939A CN115544580B CN 115544580 B CN115544580 B CN 115544580B CN 202211507939 A CN202211507939 A CN 202211507939A CN 115544580 B CN115544580 B CN 115544580B
Authority
CN
China
Prior art keywords
sequence
behavior
noise
party
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211507939.8A
Other languages
English (en)
Other versions
CN115544580A (zh
Inventor
赵闻飙
吴若凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202211507939.8A priority Critical patent/CN115544580B/zh
Publication of CN115544580A publication Critical patent/CN115544580A/zh
Application granted granted Critical
Publication of CN115544580B publication Critical patent/CN115544580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6227Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database where protection concerns the structure of data, e.g. records, types, queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供一种保护数据隐私的两方联合训练预测模型的方法及装置,其中第一方和第二方对应部署预测模型中的序列表征层和预测层。所述方法应用于第一方,包括:利用序列表征层处理其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为,具体地,利用行为表征子层确定T个行为对应的T个行为表征;利用注意力子层确定该T个行为表征对应的T个注意力权重,并用其对T个行为表征进行加权求和,得到原始序列表征;利用加噪子层对该原始序列表征添加基于行为个数T而确定的差分隐私噪声,得到加噪序列表征;从第二方接收其基于该加噪序列表征、其持有的对应用户行为序列的序列标签和预测层而确定的针对序列表征层的训练梯度。

Description

保护数据隐私的两方联合训练预测模型的方法及装置
技术领域
本说明书一个或多个实施例涉及数据安全技术领域,尤其涉及一种保护数据隐私的两方联合训练预测模型的方法及装置。
背景技术
随着监管力度的不断加大,数据隐私成为了各个平台需要考虑的重要问题。当数据以非中心化的形式组织时,为充分挖掘数据价值,多方联合建模的机制正获得越来越多的关注。这一领域最流行的处理方式是联邦学习(Federated Learning,简称FL)。FL中的一种主流范式是纵向联邦学习(Vertical Federated Learning,简称VFL),VFL也称样本对齐的联邦学习,其中某个参与方持有一批样本的样本标签,其他参与方持有同一批样本的样本特征。
然而,目前VFL的方式具有的隐私保护强度有限。因此,需要一种方案,可以有效提升VFL的隐私保护强度,从而满足更高的隐私保护需求。
发明内容
本说明书实施例描述一种保护数据隐私的两方联合训练预测模型的方法,仅需添加非常小的噪音即可对样本序列的隐私进行充分保护,从而达到更好的实用性。
根据第一方面,提供了一种保护数据隐私的两方联合训练预测模型的方法,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述方法应用于所述第一方,包括:获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;利用所述序列表征层处理所述用户行为序列,具体包括:利用行为表征子层确定所述T个行为对应的T个行为表征;利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;将所述加噪序列表征发送给所述第二方;从所述第二方接收针对所述序列表征层的训练梯度,所述训练梯度由所述第二方基于所述加噪序列表征、其持有的对应所述用户行为序列的序列标签和所述预测层而确定。
在一个实施例中,所述用户行为序列中包含各个行为的行为特征向量;其中,利用行为表征子层确定所述T个行为对应的T个行为表征,包括:获取T个行为特征向量,作为所述T个行为表征。
在一个实施例中,所述注意力子层中包括对应所述T个行为表征的可学习的T个参数向量;其中,利用注意力子层确定所述T个行为表征对应的T个注意力权重,包括:针对各个行为表征,将其与对应的参数向量进行点乘,并基于所述点乘的结果确定其对应的注意力分数;对T个注意力分数进行归一化处理,得到所述T个注意力权重。
在一个具体的实施例中,基于所述点乘的结果确定其对应的注意力分数,包括:利用值域非负的激活函数处理所述点乘的结果,得到所述注意力分数。
在一个实施例中,利用加噪子层对所述原始序列表征添加差分隐私噪声,包括:基于所述原始序列表征的确定方式,确定差分隐私机制下的查询敏感度,所述确定方式涉及所述行为个数T;基于所述查询敏感度确定所述噪声分布,用于采样所述差分隐私噪声。
在一个具体的实施例中,所述噪声分布为高斯噪声分布;其中,基于所述查询敏感度确定所述噪声分布,包括:基于所述查询敏感度和预设的隐私预算确定所述高斯噪声分布中的噪声方差。
在一个更具体的实施例中,基于所述查询敏感度确定所述噪声分布,包括:以0作为所述高斯噪声分布中的均值。
在一个实施例中,所述原始序列表征为D维;利用加噪子层对所述原始序列表征添加差分隐私噪声,包括:对所述噪声分布进行D次随机采样,得到D个采样噪声,形成对应所述差分隐私噪声的噪声向量;在所述原始序列表征上叠加所述噪声向量。
在一个实施例中,在从所述第二方接收针对所述序列表征层的训练梯度之后,所述方法还包括:利用所述训练梯度更新所述序列表征层中的模型参数。
根据第二方面,提供了一种保护数据隐私的两方联合训练预测模型的方法,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层。所述方法包括:所述第一方获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;所述第一方利用所述序列表征层处理所述用户行为序列,具体包括:利用行为表征子层确定所述T个行为对应的T个行为表征,利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;所述第二方利用从所述第一方接收的所述加噪序列表征、其持有的对应所述用户行为序列的序列标签和所述预测层,确定针对所述预测层的第二训练梯度和针对所述序列表征层的第一训练梯度;所述第二方利用所述第二训练梯度更新所述预测层中的模型参数,并将所述第一训练梯度发送给所述第一方。
根据第三方面,提供了一种保护数据隐私的两方联合训练预测模型的装置,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述装置集成于所述第一方,包括:序列获取单元,配置为获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;序列处理单元,配置为利用所述序列表征层处理所述用户行为序列,具体包括:行为表征子单元,配置为利用行为表征子层确定所述T个行为对应的T个行为表征;注意力处理子单元,配置为利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;加噪子单元,配置为利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;表征发送单元,配置为将所述加噪序列表征发送给所述第二方;梯度接收单元,配置为从所述第二方接收针对所述序列表征层的训练梯度,所述训练梯度由所述第二方基于所述加噪序列表征、其持有的对应所述用户行为序列的序列标签和所述预测层而确定。
根据第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面或第二方面的方法。
根据第五方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,该处理器执行所述可执行代码时,实现第一方面或第二方面的方法。
采用本说明书实施例提供的方法和装置,用户行为序列的持有方对利用注意力机制得到的原始序列表征添加差分隐私噪声,再将得到的加噪序列表征发送给序列标签的持有方,以获取用于更新模型参数的回传梯度。如此,仅需添加非常小的噪音,即可实现对用户行为序列中单个行为的保护,具有良好的实用性和足够高的隐私保护强度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出根据一个实施例的两方数据分布图;
图2示出根据一个实施例的两方联合训练预测模型的方案实施架构示意图;
图3示出根据一个实施例的保护数据隐私的联合训练预测模型的两方交互示意图;
图4示出根据一个实施例的DP-PPAM机制的实施示意图;
图5示出根据一个实施例的保护数据隐私的两方联合训练预测模型的装置结构示意图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
承前所述,需要一种方案,可以有效提升纵向联邦学习的隐私保护强度。由此,发明人提出一种聚焦于序列数据处理的纵向联邦学习方案,可以对两方联合训练预测模型中用到的原始序列数据进行隐私保护的加强。
为便于理解,先对训练数据和预测模型在两方中的分布和部署进行概要性介绍。两方包括第一方和第二方,对应记作PA方和PB方。图1示出根据一个实施例的两方数据分布图,其中示意PA方持有多个样本用户的特征,即,各个样本用户的用户行为序列,其中包括对应用户在多个(记作T个)历史时刻下对应做出的T个行为。PB方中持有多个样本用户的标签(或称序列标签)。
图2示出根据一个实施例的两方联合训练预测模型的方案实施架构示意图。如图2所示,预测模型包括部署在PA方中的序列表征层210和部署在PB方中预测层220。
以上,对PA方和PB方各自持有的训练数据部分和各自部署的模型层进行简要介绍。
进一步,在发明人提出的方案中,设计PA方在利用注意力机制处理行为序列而得到的原始序列表征上,添加符合差分隐私机制的噪声,使得传输给PB方的加噪序列表征具有差分隐私特性,即使对加噪序列表征、或基于加噪序列表征确定的预测结果进行成员推断攻击,也无法破解原始行为序列中的任何一个行为,从而有效提升对原始序列数据的隐私保护。对此,如图2所示,PA方先利用序列表征层210中的行为表征子层211处理用户行为序列,得到T个行为表征(图2中未示出),再利用注意力子层212处理T个行为表征,得到原始序列表征(图2中未示出),接着对原始序列表征添加差分隐私噪声,得到加噪序列表征;之后,PB方利用预测层220处理加噪表征向量,得到序列预测结果,再利用序列预测结果和序列标签计算训练梯度,回传给PA方。
下面结合更多的实施例,对上述方案的实施步骤进行展开介绍。图3示出根据一个实施例的保护数据隐私的联合训练预测模型的两方交互示意图,其中PA方和PB方均可以实现为任何具有计算、存储、处理能力的装置、平台、服务器或设备集群等。
如图3所示,所述交互过程包括以下步骤:
步骤S310,PA方获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为。可以理解,PA方持有对应多个样本用户的多个用户行为序列,在一个实施例中,本步骤中获取的用户行为序列可以是该多个用户行为序列中任意的一个;在另一个实施例中,因对预测模型的训练涉及多个轮次,本步骤获取的用户行为序列可以是当前训练轮次所对应一批次用户行为序列中的任意一个。
用户行为序列中包括对应用户在T个时刻做出的T个行为,且各个行为包括对应D项行为特征(或称属性)的D个特征值(或称属性值),形成对应的行为特征向量,其中D为正整数。在一个实施例中,各个行为属于交易行为,相应地,D项行为特征可以包括交易时间、交易地址、交易金额、交易类目、进行交易操作的终端设备信息、交易方信息等。在另一个实施例中,各个行为属于点击行为,D项行为特征可以包括点击时间、点击地址、浏览时长、进行点击操作的终端设备信息等。另一方面,在一个实施例中,用户行为序列中的T个行为按照发生时刻的先后顺序排列。
以上,介绍PA方获取的用户行为序列。
接着,在步骤S320,PA方利用序列表征层210处理用户行为序列,具体包括以下子步骤S321至步骤S323。
先在子步骤S321,利用行为表征子层211确定所述T个行为对应的T个行为表征。
在一个实施例中,可以利用行为表征子层211分别对各个行为的行为特征向量进行特征交互处理,得到对应的行为表征。此时,行为表征子层211可以实现为若干(指代一个或多个)全连接层或深度神经网络(Deep Neural Networks,简称DNN)等。
在另一个实施例中,可以利用行为表征子层211对T个行为特征向量进行注意力处理,得到对应的T个注意力编码向量,作为上述T个行为表征。此时,行为表征子层211可以实现为Transformer中的编码器(encoder)等。
在又一个实施例中,可以利用行为表征子层211获取各个行为对应的上述行为特征向量,作为其行为表征。
由上,可以得到用户行为序列对应的T个行为表征,记作[x1,…,xT]。然后,基于此T个行为表征执行子步骤S322和子步骤S323,在利用注意力机制处理T个行为表征而得到的原始表征序列上添加差分隐私噪声,得到加噪序列表征。为简洁描述,文中或将此过程称为基于差分隐私协议的隐私保护注意力机制(Privacy-Preserving Attention MechanismBased on Differential Privacy Protocol,简称DP-PPAM)。
具体地,在子步骤S322,利用注意力子层212确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征。
需说明,注意力子层212中包括对应T个行为表征的可学习的T个参数向量,记作[w1,…,wT],其中可学习是指各个参数向量中的参数为可学习、可优化的参数,需要在训练中进行优化更新。基于此,可以参见图4示出的DP-PPAM机制的实施示意图,其中针对各个行为表征xi,先将其与对应的参数向量wi进行点乘,再基于所述点乘的结果,即xi*wi,确定其对应的注意力分数βi
在一个实施例中,可以利用值域为非负数的激活函数处理上述点乘结果xi*wi,得到注意力分数βi,对此可记作βi=σ(xi*wi),其中激活函数σ可以是线性整流函数(RectifiedLinear Unit, 简称ReLU)或sigmoid函数等。在另一个实施例中,可以直接将点乘结果作为对应的注意力分数。
由此,可以得到T个注意力分数{βi}T。进一步,参见图4,对T个注意力分数{βi}T进行归一化处理,可以得到T个注意力权重{αi}T。在一个实施例中,归一化处理可以采用softmax函数实现,对此可记作:
                             (1)
在上式(1)中,t=T,需说明,本文中T和t是互相通用的;i∈[t]表示i为区间[1,t]中的整数。
在另一个实施例中,归一化处理可以采用简单求占比的方式实现。
之后,利用T个注意力权重{αi}T对T个行为表征[x1,…,xT]进行加权求和,可以得到原始序列表征h,对此可记作:
                             (2)
由上,可以得到用户行为序列对应的原始序列表征h。
在步骤S323,利用加噪子层213对原始序列表征h添加差分隐私噪声,得到加噪序列表征,其中差分隐私噪声的噪声分布基于行为个数T而确定。
可以理解,上述差分隐私噪声指符合差分隐私机制的噪声。在描述本步骤的具体实施方式之前,先对差分隐私(Differential Privacy,简称DP)机制进行简单介绍。
DP协议是目前最主流的隐私计算协议之一,差分隐私要求一个具体的输出对于其输入数据集存在一个数据点的差异情况下,输出的改变在概率意义上无法进行分别,从而实现即使多次进行输出查询,也无法反推出单条数据是否存在于输入数据集中。
设有随机算法M,OM为算法M所有可能的输出构成的集合。对于任意两个邻近数据集X和X′(即X和X′仅有一条数据记录不同)以及OM的任何子集Y,若随机算法M满足:
              (3)
则称算法M提供ε-DP保护,其中参数ε称为隐私保护预算,用于平衡隐私保护程度和准确度。ε通常可以预先设定。ε越接近0,eε越接近1,随机算法对两个邻近数据集X和X′的处理结果越接近,隐私保护程度越强。
实践中,对式(1)示出的严格的ε-差分隐私可以进行一定程度放宽,实现为(ε,δ)差分隐私,即如下式(2)所示:
               (4)
其中,δ为松弛项,又称为容忍度,可以理解为不能实现严格差分隐私的概率。
差分隐私的实现方式包括,噪声机制、指数机制等。若采样噪声机制,则需要根据隐私预算确定噪声功率,再从基于噪声功率确定的噪声分布中采样噪声,添加至上述原始序列表征。
上述噪声机制有多种,包括高斯噪声机制、拉普拉斯噪声机制等。下面,以采用高斯噪声机制为例,对噪声分布的确定进行示例性说明。高斯噪声分布的参数变量包括均值和方差,其中方差也可以视作上述噪声功率。示例性地,可以将均值变量的变量值取0。而其中噪声功率,需要根据预设的隐私预算和查询敏感度(或简称敏感度)来确定。对于其中隐私预算ε和δ的参数值,可以由工作人员根据实际需要预先设定。
对于敏感度,其通用定义式可以记作:
              (5)
其中,X~X'表示 X和X'为邻近数据集,符号||∙||表示二范数。
由此,在本说明书实施例中,对查询敏感度的计算过程如下:
                  (6)
对式(6),可参见上式(1)和(2)。
由此,可以将敏感度具体定义为:
                 (7)
其中,
             (8)
有:
    (9)
由此,通过对S1 和S2 进行估计,可以得到敏感度S。
在一种优选的实施方式中,上述T个表征[x1,…,xT]中的各个表征xi已经过归一化处理,即||xi||=1,此时,式(9)中的0≤βi≤1,于是,对所有i∈[t]成立。于是,对于S1有:
                         (10)
对于S2有:
        (11)
因此有敏感度
                          (12)
以上可以计算出敏感度S。进一步,可以根据敏感度S,以及预设的隐私预算ε和δ,计算出噪声功率δ2 。可以理解,噪声功率δ2 的通用计算式如下:
                      (13)
进而可以得到以0为均值,以噪声功率δ2为方差的高斯噪声分布N(0, δ2)。 示例性地,通过将公式(12)中的敏感度代入公式(13),可以得到本步骤中计算出噪声功率,从而得到高斯噪声分布:
由上可以确定出高斯噪声分布。进一步,可以采样得到符合差分隐私机制的噪声,用于对原始序列表征进行加噪处理,得到加噪序列表征,对此,可以示意性记作:
                 (14)
需理解,公式(14)还出现在了图4中。通过观察公式(14)中的噪声功率可知,其将高斯噪声的量级控制在了LDP的1/t2倍,这意味着,采用本说明书实施例披露的方案允许使用非常小的噪音来保护序列表征的数据隐私,因而具有很好的实用性。
更具体地,原始序列表征h为D维,基于此,在一个实施例中,可以对高斯噪声分布进行D次随机采样,得到D个采样噪声,形成D维的噪声向量;在另一个实施例中,可以对高斯噪声分布进行少于D次地随机采样,并通过随机复制已采样噪声,形成D维的噪声向量。进一步,对原始序列表征h和噪声向量进行求和处理,可以得到加噪序列表征
由上,PA方通过执行步骤S320,可以得到序列表征层210处理用户行为序列而输出的加噪序列表征。从而在步骤S330,PA方可以将加噪序列表征发送给PB方。
之后,在步骤S340,PB方基于加噪序列表征、其持有的对应用户行为序列的序列标签y和预测层220,确定针对预测层220的第一训练梯度和针对序列表征层210的第二训练梯度。
具体地,先利用预测层220处理加噪序列表征,得到序列预测结果。可以理解,预测层220的结构可以根据实际需要设定,示例性地,可以实现为多个全连接层,或者,可以实现为一个全连接层和一个用于多分类的softmax层。
再利用得到的序列预测结果和PB方持有的对应上述用户行为序列的序列标签dy,确定训练损失。在一个实施例中,用户行为序列为交易行为序列,此时,在一个具体的实施例中,序列标签可以是针对用户的风险标签;在另一个具体的实施例中,序列标签可以是针对序列中最后一个交易行为的风险标签。示例性地,文中提及的风险标签可以是风险类别标签,如高风险或低风险等,又或者,可以是风险分值标签。在另一个实施例中,用户行为序列为点击行为序列,此时,序列标签可以是行为标签,指示用户下次做出点击行为的业务对象,或者,指示用户是否会对目标对象做出点击行为。
在一个实施例中,上述训练损失的计算式可以采用交叉熵损失函数或(MeanSquare Error,简称MSE)损失函数。
在确定训练损失后,可以采用反向传播法计算训练梯度。具体地,先计算针对预测层220的第二训练梯度,并利用第二训练梯度调整预测层220中的模型参数;以及,根据第二训练梯度和预测层中的模型参数,计算第一训练梯度,并发送给PA方。
如此,PB方可以计算出针对序列表征层210的第二训练梯度,从而在步骤S350,将第二训练梯度发送给PA方,使得PA方在步骤S360,利用第二训练梯度更新序列表征层210中的模型参数。
由上,PA和PB两方可以实现对预测模型的联合训练。可以理解,在对预测模型进行多轮次迭代训练,直到达到收敛标准,如预测损失的波动幅度足够小或迭代达到预设次数后,两方可以各自得到训练好的序列表征层和预测层。之后,在一种使用方式中,可以通过参数传递,构建完整的预测模型。在另一种使用方式中,两方各自维护自己的模型层,并进行联合预测。
综上,采用本说明书实施例披露的保护数据隐私的两方联合训练预测模型的方法,用户行为序列的持有方对利用注意力机制得到的原始序列表征添加差分隐私噪声,再将得到的加噪序列表征发送给序列标签的持有方,以获取用于更新模型参数的回传梯度。如此,仅需添加非常小的噪音,即可实现对用户行为序列中单个行为的保护,具有良好的实用性和足够高的隐私保护强度。
另外需说明,上述方法处理的数据是用户行为序列,实际还可以是其他序列数据,如商品销量序列,其中可以包括商品在T个时刻的销量,相应,序列标签可以是该商品在T+1时刻的销量,等等。
与上述训练方法相对应地,本说明书实施例还披露训练装置。图5示出根据一个实施例的保护数据隐私的两方联合训练预测模型的装置结构示意图,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述装置集成于所述第一方。如图5所示,所述装置500包括:
序列获取单元510,配置为获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为。序列处理单元520,配置为利用所述序列表征层处理所述用户行为序列,具体包括:行为表征子单元521,配置为利用行为表征子层确定所述T个行为对应的T个行为表征;注意力处理子单元522,配置为利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;加噪子单元523,配置为利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定。表征发送单元530,配置为将所述加噪序列表征发送给所述第二方。梯度接收单元540,配置为从所述第二方接收针对所述序列表征层的训练梯度,所述训练梯度由所述第二方基于所述加噪序列表征、其持有的对应所述用户行为序列的序列标签和所述预测层而确定。
在一个实施例中,所述用户行为序列中包含各个行为的行为特征向量;行为表征子单元521具体配置为:获取T个行为特征向量,作为所述T个行为表征。
在一个实施例中,所述注意力子层中包括对应所述T个行为表征的可学习的T个参数向量;所述注意力处理子单元522配置为利用注意力子层确定所述T个行为表征对应的T个注意力权重,包括:针对各个行为表征,将其与对应的参数向量进行点乘,并基于所述点乘的结果确定其对应的注意力分数;对T个注意力分数进行归一化处理,得到所述T个注意力权重。
在一个具体的实施例中,所述注意力处理子单元522具体配置为基于所述点乘的结果确定其对应的注意力分数,包括:利用值域非负的激活函数处理所述点乘的结果,得到所述注意力分数。
在一个实施例中,所述加噪子单元523具体配置为:基于所述原始序列表征的确定方式,确定差分隐私机制下的查询敏感度,所述确定方式涉及所述行为个数T;基于所述查询敏感度确定所述噪声分布,用于采样所述差分隐私噪声。
在一个具体的实施例中,所述噪声分布为高斯噪声分布;所述加噪子单元523具体配置为基于所述查询敏感度确定所述噪声分布,包括:基于所述查询敏感度和预设的隐私预算确定所述高斯噪声分布中的噪声方差。
在一个具体的实施例中,所述噪声分布为高斯噪声分布;所述加噪子单元523具体配置为基于所述查询敏感度确定所述噪声分布,包括:以0作为所述高斯噪声分布中的均值。
在一个实施例中,所述原始序列表征为D维;所述加噪子单元523具体配置为:对所述噪声分布进行D次随机采样,得到D个采样噪声,形成对应所述差分隐私噪声的噪声向量;在所述原始序列表征上叠加所述噪声向量。
在一个实施例中,所述装置500还包括:参数更新单元550,配置为利用所述训练梯度更新所述序列表征层中的模型参数。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图3所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图3所描述的方法。本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (13)

1.一种保护数据隐私的两方联合训练预测模型的方法,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述方法应用于所述第一方,包括:
获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;
利用所述序列表征层处理所述用户行为序列,具体包括:利用行为表征子层确定所述T个行为对应的T个行为表征;利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;
将所述加噪序列表征发送给所述第二方;
从所述第二方接收针对所述序列表征层的训练梯度,所述训练梯度由所述第二方利用所述预测层处理所述加噪序列表征得到序列预测结果,并利用所述序列预测结果和其持有的对应所述用户行为序列的序列标签而确定。
2.根据权利要求1所述的方法,其中,所述用户行为序列中包含各个行为的行为特征向量;其中,利用行为表征子层确定所述T个行为对应的T个行为表征,包括:
获取T个行为特征向量,作为所述T个行为表征。
3.根据权利要求1所述的方法,其中,所述注意力子层中包括对应所述T个行为表征的可学习的T个参数向量;其中,利用注意力子层确定所述T个行为表征对应的T个注意力权重,包括:
针对各个行为表征,将其与对应的参数向量进行点乘,并基于所述点乘的结果确定其对应的注意力分数;
对T个注意力分数进行归一化处理,得到所述T个注意力权重。
4.根据权利要求3所述的方法,其中,基于所述点乘的结果确定其对应的注意力分数,包括:
利用值域非负的激活函数处理所述点乘的结果,得到所述注意力分数。
5.根据权利要求1所述的方法,其中,利用加噪子层对所述原始序列表征添加差分隐私噪声,包括:
基于所述原始序列表征的确定方式,确定差分隐私机制下的查询敏感度,所述确定方式涉及所述行为个数T;
基于所述查询敏感度确定所述噪声分布,用于采样所述差分隐私噪声。
6.根据权利要求5所述的方法,其中,所述噪声分布为高斯噪声分布;其中,基于所述查询敏感度确定所述噪声分布,包括:
基于所述查询敏感度和预设的隐私预算确定所述高斯噪声分布中的噪声方差。
7.根据权利要求6所述的方法,其中,基于所述查询敏感度确定所述噪声分布,包括:
以0作为所述高斯噪声分布中的均值。
8.根据权利要求1所述的方法,其中,所述原始序列表征为D维;利用加噪子层对所述原始序列表征添加差分隐私噪声,包括:
对所述噪声分布进行D次随机采样,得到D个采样噪声,形成对应所述差分隐私噪声的噪声向量;
在所述原始序列表征上叠加所述噪声向量。
9.根据权利要求1所述的方法,其中,在从所述第二方接收针对所述序列表征层的训练梯度之后,所述方法还包括:
利用所述训练梯度更新所述序列表征层中的模型参数。
10.一种保护数据隐私的两方联合训练预测模型的方法,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述方法包括:
所述第一方获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;
所述第一方利用所述序列表征层处理所述用户行为序列,具体包括:利用行为表征子层确定所述T个行为对应的T个行为表征,利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;
所述第二方利用所述预测层处理从所述第一方接收的所述加噪序列表征,得到序列预测结果;利用所述序列预测结果和其持有的对应所述用户行为序列的序列标签,确定训练损失;基于所述训练损失确定针对所述预测层的第二训练梯度;基于所述第二训练梯度和所述预测层中的模型参数,确定针对所述序列表征层的第一训练梯度;
所述第二方利用所述第二训练梯度更新所述预测层中的模型参数,并将所述第一训练梯度发送给所述第一方。
11.一种保护数据隐私的两方联合训练预测模型的装置,其中第一方和第二方对应部署所述预测模型中的序列表征层和预测层;所述装置集成于所述第一方,包括:
序列获取单元,配置为获取其持有的用户行为序列,其中包括样本用户在T个时刻做出的T个行为;
序列处理单元,配置为利用所述序列表征层处理所述用户行为序列,具体包括:
行为表征子单元,配置为利用行为表征子层确定所述T个行为对应的T个行为表征;
注意力处理子单元,配置为利用注意力子层确定所述T个行为表征对应的T个注意力权重,并用其对所述T个行为表征进行加权求和,得到原始序列表征;
加噪子单元,配置为利用加噪子层对所述原始序列表征添加差分隐私噪声,得到加噪序列表征,所述差分隐私噪声的噪声分布基于行为个数T而确定;
表征发送单元,配置为将所述加噪序列表征发送给所述第二方;
梯度接收单元,配置为从所述第二方接收针对所述序列表征层的训练梯度,所述训练梯度由所述第二方利用所述预测层处理所述加噪序列表征得到序列预测结果,并利用所述序列预测结果和其持有的对应所述用户行为序列的序列标签而确定。
12.一种计算机可读存储介质,其上存储有计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-10中任一项所述的方法。
13.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-10中任一项所述的方法。
CN202211507939.8A 2022-11-29 2022-11-29 保护数据隐私的两方联合训练预测模型的方法及装置 Active CN115544580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211507939.8A CN115544580B (zh) 2022-11-29 2022-11-29 保护数据隐私的两方联合训练预测模型的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211507939.8A CN115544580B (zh) 2022-11-29 2022-11-29 保护数据隐私的两方联合训练预测模型的方法及装置

Publications (2)

Publication Number Publication Date
CN115544580A CN115544580A (zh) 2022-12-30
CN115544580B true CN115544580B (zh) 2023-04-07

Family

ID=84722730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211507939.8A Active CN115544580B (zh) 2022-11-29 2022-11-29 保护数据隐私的两方联合训练预测模型的方法及装置

Country Status (1)

Country Link
CN (1) CN115544580B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084520A (zh) * 2020-09-18 2020-12-15 支付宝(杭州)信息技术有限公司 保护数据隐私的双方联合训练业务预测模型的方法及装置
CN113379042A (zh) * 2021-07-23 2021-09-10 支付宝(杭州)信息技术有限公司 保护数据隐私的业务预测模型训练方法及装置
WO2022022024A1 (zh) * 2020-07-27 2022-02-03 深圳前海微众银行股份有限公司 训练样本构建方法、装置、设备及计算机可读存储介质
US11270028B1 (en) * 2020-09-16 2022-03-08 Alipay (Hangzhou) Information Technology Co., Ltd. Obtaining jointly trained model based on privacy protection
CN115222040A (zh) * 2022-06-10 2022-10-21 支付宝(杭州)信息技术有限公司 属性预测模型的训练方法、属性预测方法和装置
CN115345293A (zh) * 2022-08-01 2022-11-15 支付宝(杭州)信息技术有限公司 基于差分隐私的文本处理模型的训练方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022022024A1 (zh) * 2020-07-27 2022-02-03 深圳前海微众银行股份有限公司 训练样本构建方法、装置、设备及计算机可读存储介质
US11270028B1 (en) * 2020-09-16 2022-03-08 Alipay (Hangzhou) Information Technology Co., Ltd. Obtaining jointly trained model based on privacy protection
CN112084520A (zh) * 2020-09-18 2020-12-15 支付宝(杭州)信息技术有限公司 保护数据隐私的双方联合训练业务预测模型的方法及装置
CN113379042A (zh) * 2021-07-23 2021-09-10 支付宝(杭州)信息技术有限公司 保护数据隐私的业务预测模型训练方法及装置
CN115222040A (zh) * 2022-06-10 2022-10-21 支付宝(杭州)信息技术有限公司 属性预测模型的训练方法、属性预测方法和装置
CN115345293A (zh) * 2022-08-01 2022-11-15 支付宝(杭州)信息技术有限公司 基于差分隐私的文本处理模型的训练方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
汤凌韬.联邦学习中的隐私问题研究进展.软件学报.2022, 全文 . *

Also Published As

Publication number Publication date
CN115544580A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
Lu et al. Best of both worlds: Transferring knowledge from discriminative learning to a generative visual dialog model
CN111814977B (zh) 训练事件预测模型的方法及装置
CN111241291B (zh) 利用对抗生成网络生成对抗样本的方法及装置
CN111695415A (zh) 图像识别模型的构建方法、识别方法及相关设备
CN110210233B (zh) 预测模型的联合构建方法、装置、存储介质及计算机设备
CN112215604B (zh) 交易双方关系信息识别方法及装置
Naderahmadian et al. Correlation based online dictionary learning algorithm
CN111242283B (zh) 评估交互事件的自编码器的训练方法及装置
CN113221183A (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN112100642B (zh) 在分布式系统中保护隐私的模型训练方法及装置
CN113628059A (zh) 一种基于多层图注意力网络的关联用户识别方法及装置
Pomponi et al. Bayesian neural networks with maximum mean discrepancy regularization
CN115293235A (zh) 建立风险识别模型的方法及对应装置
CN115345293A (zh) 基于差分隐私的文本处理模型的训练方法及装置
Liu et al. PAC-Bayes bounds for meta-learning with data-dependent prior
Patro et al. Probabilistic framework for solving visual dialog
Qu et al. Improving the reliability for confidence estimation
CN115544580B (zh) 保护数据隐私的两方联合训练预测模型的方法及装置
US20220230262A1 (en) Patent assessment method based on artificial intelligence
Naghsh et al. Unified left eigenvector (ULEV) for blind source separation
Ren et al. Bayesian neural networks avoid encoding complex and perturbation-sensitive concepts
Gambs et al. Fair mapping
Gao et al. BI-FedGNN: Federated graph neural networks framework based on Bayesian inference
CN116976473A (zh) 基于标签传播算法的标签预测方法、装置、设备及介质
CN117540791B (zh) 一种对抗训练的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant