CN110807207B - 数据处理方法、装置、电子设备及存储介质 - Google Patents

数据处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN110807207B
CN110807207B CN201911046975.7A CN201911046975A CN110807207B CN 110807207 B CN110807207 B CN 110807207B CN 201911046975 A CN201911046975 A CN 201911046975A CN 110807207 B CN110807207 B CN 110807207B
Authority
CN
China
Prior art keywords
data
model
desensitization
training
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911046975.7A
Other languages
English (en)
Other versions
CN110807207A (zh
Inventor
陈尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201911046975.7A priority Critical patent/CN110807207B/zh
Publication of CN110807207A publication Critical patent/CN110807207A/zh
Application granted granted Critical
Publication of CN110807207B publication Critical patent/CN110807207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种数据处理方法、装置、电子设备及存储介质,在获得用户数据之后,利用预先完成训练的数据处理模型对用户数据中的目标数据添加扰动,得到与用户数据对应的脱敏数据。本发明提供的技术方案中,数据处理模型是通过对抗学习训练获得的,一方面能够保证难以通过脱敏数据推导出原始的用户数据,也无法通过脱敏数据确定用户的标识,从而保证用户数据的安全性,避免暴露用户隐私,另一方面保证了脱敏数据仍具有统计意义。

Description

数据处理方法、装置、电子设备及存储介质
技术领域
本发明属于数据安全技术领域,尤其涉及数据处理方法、装置、电子设备及存储介质。
背景技术
数据平台(也称为数据中台)是互联网公司搜集、汇总数据,并进行数据分析、建模和应用的系统和装置。数据平台存储有大量的用户数据,其中会包含用户的隐私数据,如何防止用户的隐私数据被泄露是非常重要的问题。
目前,为了保障用户数据不被泄露,采用的处理方式主要为:在数据中加入随机噪音,使得数据在统计意义上保持性质稳定,但对个体样本失去意义。
但是,在数据中加入随机噪音,无可避免的会带来信息损失,而且损失是无监督的,无法预估出信息损失程度。另外,在数据中加入随机噪音这种脱敏方法依赖于人工,可能会出现脱敏程度不足的问题,仍然存在逆向推理出原始数据的可能。例如,针对用户数据增加一个标准差为0.01的随机扰动,通过取最接近的合法值就可以逆向获得原始的用户数据。
因此,如何提供一种针对用户数据的处理方法,保证用户数据的安全性,降低用户隐私被暴露的可能性,同时又保证处理后的用户数据具有统计意义,是本领域技术人员需要考虑的问题。
发明内容
有鉴于此,本发明的目的在于提供一种数据处理方法、装置、电子设备及存储介质,以保证用户数据的安全性,降低用户隐私被暴露的可能性,同时保证处理后的用户数据具有统计意义。
为实现上述目的,本发明提供如下技术方案:
一方面,本发明提供一种数据处理方法,包括:
获得用户数据;
调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;
通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据。
可选的,所述数据处理模型的训练过程,包括:
获得多个训练样本;
通过预先建立的数据处理模型分别对所述多个训练样本添加扰动,得到多个脱敏样本;
通过预先建立的数据识别模型分别对所述多个训练样本和所述多个脱敏样本进行识别,得到所述多个训练样本和所述多个脱敏样本的识别结果;
根据所述识别结果调整所述数据处理模型和所述数据识别模型的模型参数,直至调整后的数据处理模型和数据识别模型满足预设的收敛条件。
可选的,所述根据所述识别结果调整所述数据处理模型和所述数据识别模型的模型参数,包括:
根据所述识别结果确定预设的损失函数的取值,所述损失函数表征所述数据识别模型对所述多个训练样本和所述多个脱敏样本的识别正确率;
以增大所述损失函数的取值为训练目标,调整所述数据识别模型的模型参数;
以减小所述损失函数的取值为训练目标,调整所述数据处理模型的模型参数。
可选的,所述预设的损失函数为:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值。
可选的,所述预设的损失函数为:所述多个训练样本属于脱敏样本的预测概率与1之间的距离、以及所述多个脱敏样本属于脱敏样本的预测值与0之间的距离的和值。
可选的,所述预设的收敛条件包括:所述损失函数的取值的变化率小于预设值,且训练样本和对应的脱敏样本的相似度满足预设要求。
另一方面,本发明提供一种数据处理装置,包括:
数据获取单元,用于获得用户数据;
模型调用单元,用于调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;
数据处理单元,用于通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据。
可选的,数据处理装置还包括模型训练单元;
所述模型训练单元用于:获得多个训练样本;通过预先建立的数据处理模型分别对多个训练样本添加扰动,得到多个脱敏样本;通过预先建立的数据识别模型分别对所述多个训练样本和所述多个脱敏样本进行识别,得到所述多个训练样本和所述多个脱敏样本的识别结果;根据所述识别结果调整所述数据处理模型和所述数据识别模型的模型参数,直至调整后的数据处理模型和数据识别模型满足预设的收敛条件。
另一方面,本发明提供一种电子设备,包括处理器和存储器;
所述处理器,用于调用并执行所述存储器中存储的程序;
所述存储器用于存储所述程序,所述程序至少用于:
获得用户数据;调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据。
另一方面,本发明提供一种存储介质,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上任意一个数据处理方法。
由此可见,本发明的有益效果为:
本发明提供的数据处理方法、装置、电子设备及存储介质,在获得用户数据之后,利用预先完成训练的数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。数据处理模型是通过对抗学习训练获得的,一方面能够保证难以通过脱敏数据推导出原始的用户数据,也无法通过脱敏数据确定用户的标识,从而保证用户数据的安全性,避免暴露用户隐私,另一方面保证了脱敏数据仍具有统计意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种数据处理系统的架构图;
图2为本发明实施例提供的一种数据处理方法的流程图;
图3为本发明实施例提供的一种训练数据处理模型的方法的流程图;
图4为本发明实施例提供的一种根据识别结果调整数据处理模型和数据识别模型的模型参数的方法的流程图;
图5为本发明实施例提供的训练数据处理模型的方法的原理图;
图6为本发明实施例提供的在一个应用场景下的数据处理方法的信令图;
图7为本发明实施例提供的一种数据处理装置的结构示意图;
图8为本发明实施例提供的一种电子设备的硬件结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种数据处理方法,以保证用户数据的安全性,降低用户隐私被暴露的可能性,同时保证处理后的用户数据具有统计意义。
本发明提供的数据处理方法可以应用于服务器或者终端。其中,前述的终端可以是诸如台式计算机、移动终端(例如智能手机和平板电脑)等电子设备。前述的服务器可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者是一个云计算服务中心。
请参见图1,图1为本发明实施例提供的数据处理系统的架构图。
该数据处理系统包括终端101和服务器102。其中,终端101和服务器102之间通过通信网络进行数据交互。
在一种可能的实现方式中,终端101采集用户数据,调用预先完成训练的数据处理模型,通过该数据处理模型对用户数据中的目标数据进行处理,得到脱敏数据,将脱敏数据向服务器102发送。服务器102存储接收到的脱敏数据。
在另一种可能的实现方式中,终端101采集用户数据,将用户数据向服务器102发送。服务器102调用预先完成训练的数据处理模型,通过该数据处理模型对用户数据中的目标数据进行处理,得到脱敏数据,并存储。
其中,数据处理模型对用户数据中的目标数据进行处理,具体是在目标数据中添加扰动。
实施中,脱敏数据可以作为分析用户属性的依据。用户属性包括但不限于:用户对视频类型的偏好,用户对音乐类型的偏好,用户的风险等级,用户的消费偏好。
请参见图2,图2为本发明实施例提供的一种数据处理方法的流程图。该方法包括:
S201:获得用户数据。
可选的,用户数据包括但不限于:用户的身份属性数据和用户的操作行为数据。用户的身份属性数据包括但不限于:用户的年龄、性别、生活区域、受教育程度和职业。用户的操作行为数据包括但不限于:针对预设应用程序的使用数据、多媒体访问数据。其中,多媒体访问数据包括但不限于文章阅读数据和视频访问数据。
S202:调用预先完成训练的数据处理模型。
其中,数据处理模型是通过对抗学习训练获得的。数据处理模型的作用是对用户数据中的目标数据进行处理,得到脱敏数据。
需要说明的是,完成训练的数据处理模型具备难以通过脱敏数据逆向推导用户数据的能力,并且用户数据与脱敏数据之间的差异在允许范围内,也就是说,用户数据和对应的脱敏数据之间的相似度满足预设要求,脱敏数据仍具备统计意义。也可以理解为,脱敏样本相对于训练样本损失的信息在允许范围内。
在训练过程中,数据处理模型和数据识别模型相互监督进行对抗学习。在训练中,数据处理模型对训练样本进行处理,具体的,在训练样本中添加扰动,得到脱敏样本;数据识别模型的作用是对训练样本和脱敏样本进行识别,输出识别结果,以便基于识别结果调整数据处理模型和数据识别模型的模型参数。数据处理模型的目标是:生成尽量难以逆向推导的脱敏数据,并且保证脱敏数据具有统计意义。数据识别模型的目标是:尽可能区分数据处理模型输出的脱敏数据和原始的用户数据。
S203:通过数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。
在一个可能的实现方式中,数据处理模型的输入数据类型与用户数据的数据类型相同,那么用户数据中的目标数据为全部的用户数据,根据用户数据生成特征向量,将该特征向量作为数据处理模型的输入,数据处理模型的输出即为脱敏数据。
其中,数据处理模型的输入数据类型是指:数据处理模型的输入数据的数据类型。用户数据的数据类型是指:用户数据所包含的数据的数据类型。数据类型包括但不限于年龄、性别、生活区域、受教育程度、职业、针对应用程序的使用数据、多媒体访问数据。
在另一个可能的实现方式中,数据处理模型的输入数据类型少于用户数据的数据类型,那么根据数据处理模型的输入数据类型在用户数据中确定目标数据。具体的,将用户数据中数据类型与数据处理模型的输入数据类型相同的数据作为目标数据。之后,根据用户数据中的目标数据生成特征向量,将该特征向量作为数据处理模型的输入,数据处理模型的输出、以及用户数据中未经数据处理模型处理的数据构成脱敏数据。用户数据中未经数据处理模型处理的数据也就是目标数据中除目标数据之外的数据。
例如,数据处理模型的输入数据类型包括类型1,类型2,类型3和类型4,用户数据包含数据A(数据类型为类型1)、数据B(数据类型为类型2)、数据C(数据类型为类型3)、数据D(数据类型为类型4)和数据E(数据类型为类型5)。那么,用户数据中的目标数据为数据A、数据B、数据C和数据D,根据前述目标数据生成特征向量,将特征向量输入数据处理模型,数据处理模型的输出为数据A′、数据B′、数据C′和数据D′,数据A′、数据B′、数据C′、数据D′和数据E构成前述用户数据对应的脱敏数据。
上述实施方式具有以下优势:
第一,这使得完成训练的数据处理模型具有更大的使用范围,在用户数据的数据类型不同于数据处理模型的输入数据类型的情况下,也可以通过数据处理模型对用户数据中的部分数据进行处理,从而得到脱敏数据。
第二,通过数据处理模型对用户数据中的部分数据添加扰动,这使得最终得到的脱敏数据既包含经过处理后的数据,也包含用户的部分真实数据,增大了数据使用方确定获取到的数据是真实的用户数据还是经过处理后数据的难度,能够更好的保护用户隐私。
需要说明的是,本发明提供的数据处理方法对用户隐私的保护包括两个层面。第一个层面,数据处理模型对用户数据中的目标数据添加扰动,得到敏感数据,敏感数据的使用方难以通过敏感数据逆向推导出原始的用户数据;第二个层面,敏感数据的使用方难以通过敏感数据确定用户标识,其中,用户标识可以为用户的真实身份信息(如用户的姓名)或者用户使用的账号,通常用户使用的账号绑定了用户的真实身份信息。
本发明提供的数据处理方法,在获得用户数据之后,利用预先完成训练的数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。数据处理模型是通过对抗学习训练获得的,一方面能够保证难以通过脱敏数据推导出原始的用户数据,也无法通过脱敏数据确定用户的标识,从而保证用户数据的安全性,避免暴露用户隐私,另一方面保证了脱敏数据仍具有统计意义。
下面对本发明上述实施例使用的数据处理模型的训练过程进行说明。请参见图3所示。包括:
S301:获得多个训练样本。
S302:通过预先建立的数据处理模型分别对多个训练样本添加扰动,得到多个脱敏样本。
训练样本是原始的用户数据。
针对每个训练样本分别生成相应的特征向量。例如,每个训练样本包括k个数据,针对第i个训练样本生成的特征向量为xi=(xi,0,xi,1,…,xi,k)。数据处理模型对多个训练样本的特征向量进行处理,输出新的特征向量。例如,数据处理模型对第i个训练样本的特征向量添加扰动,生成新的特征向量xi′=(x′i,0,x′i,1,…,x′i,k)。
S303:通过预先建立的数据识别模型分别对多个训练样本和多个脱敏样本进行识别,得到多个训练样本和多个脱敏样本的识别结果。
多个训练样本和数据处理模型输出的多个脱敏样本均输入数据识别模型,由数据识别模型对输入的多个训练样本和多个脱敏样本进行识别,得到多个训练样本和多个脱敏样本的识别结果。需要说明的是,数据处理模型每次对一个训练样本或者脱敏样本进行处理,得到识别结果。
在一种可能的实现方式中,数据处理模型输出的识别结果为:训练样本和脱敏样本属于训练样本的概率。也就是说,数据处理模型输出的是训练样本被识别为训练样本的概率值,以及脱敏样本被识别为训练样本的概率值。
在另一种可能的实现方式中,数据处理模型输出的识别结果为:训练样本和脱敏样本属于脱敏样本的概率。也就是说,数据处理模型输出的是训练样本被识别为脱敏样本的概率值,以及脱敏样本被识别为脱敏样本的概率值。
S304:根据识别结果调整数据处理模型和数据识别模型的模型参数,直至调整后的数据处理模型和数据识别模型满足预设的收敛条件。
数据处理模型的目标是:生成尽量难以逆向推导出用户数据的脱敏数据,并且保证脱敏数据具有统计意义。数据识别模型的目标是:尽可能区分数据处理模型输出的脱敏数据和原始的用户数据。
在数据识别模型和数据处理模型的对抗学习训练过程中,调整数据识别模型的模型参数是以使得数据识别模型能够准确区分训练样本和脱敏样本为目的,调整数据处理模型的模型参数是以使得数据识别模型无法准确区分训练样本和脱敏样本,且脱敏样本相对于训练样本损失的信息较少为目的。数据识别模型输出的识别结果表征了数据识别模型是否正确地区分出训练样本和脱敏样本,因此,根据数据识别模型输出的识别结果调整数据处理模型和数据识别模型的模型参数,当满足预设收敛条件时,完成数据识别模型和数据处理模型的对抗学习训练过程,将该数据处理模型用于对用户数据的处理过程。
在一种可能的实现方式中,根据识别结果调整数据处理模型和数据识别模型的模型参数,采用如图4所示的方案,包括:
S401:根据识别结果确定预设的损失函数的取值。
其中,损失函数表征数据识别模型对多个训练样本和多个脱敏样本的识别正确率。
S402:以增大损失函数的取值为训练目标,调整数据识别模型的模型参数。
S403:以减小损失函数的取值为训练目标,调整数据处理模型的模型参数。
损失函数表征了数据识别模型对多个训练样本和多个脱敏样本的识别正确率。当损失函数的取值较大时,表示数据识别模型能够较好的区分训练样本和脱敏样本;当损失函数的取值较小时,表示数据处理模型对训练样本的伪装效果较好。
调整数据识别模型的模型参数是以使得数据识别模型能够准确区分训练样本和脱敏样本为目的,调整数据处理模型的模型参数是以使得数据识别模型无法准确区分训练样本和脱敏样本,且脱敏样本相对于训练样本损失的信息较少为目的。因此,以增大损失函数的取值为训练目标,调整数据识别模型的模型参数,以减小损失函数的取值为训练目标,调整数据处理模型的模型参数。
在一种可能的实现方式中,预设的损失函数为:多个训练样本属于训练样本的预测概率与0之间的距离、以及多个脱敏样本属于训练样本的预测概率与1之间的距离的和值。
例如,
Figure BDA0002254367200000101
其中:
Q为损失函数;
B为训练样本的数量,也是脱敏样本的数量;
L()为距离函数,例如,L(x,y)表示x与y之间的距离;
WA为数据处理模型的模型参数;
WD为数据识别模型的模型参数;
xi为训练样本;
A(xi,WA)为数据处理模型对训练样本xi处理得到的脱敏样本;
D(xi,WD)为数据识别模型输出的训练样本属于训练样本的预测概率;
D(A(xi,WA),WD)为数据识别模型输出的脱敏样本属于训练样本的预测概率。
在另一种可能的实现方式中,预设的损失函数为:多个训练样本属于脱敏样本的预测概率与1之间的距离、以及多个脱敏样本属于脱敏样本的预测概率与0之间的距离的和值。
在一种可能的实现方式中,预设的收敛条件包括:损失函数的取值的变化率小于预设值,且训练样本和对应的脱敏样本的相似度满足预设要求。其中,该预设要求可以为训练样本和对应的脱敏样本的相似度等于或大于预设的阈值。也就是说,当损失函数的取值趋向于平衡状态,且脱敏样本相对于训练样本损失的信息在允许范围内时,完成针对数据处理模型和数据识别模型的训练。
在另一种可能的实现方式中,预设的收敛条件包括:对数据处理模型和数据识别模型的模型参数进行调整的次数达到预设的迭代次数,且训练样本和对应的脱敏样本的相似度满足预设要求。
这里以B个训练样本为例,对训练数据处理模型和数据识别模型的过程进行说明:
B个训练样本可以为B个用户的用户数据。
数据处理模型分别对B个训练样本进行处理,得到B个脱敏样本。这B个训练样本和B个脱敏样本均作为数据识别模型的输入。数据识别模型分别对B个训练样本和B个脱敏样本进行识别,得到2*B个识别结果。
在一种实施方式中,识别结果为训练样本和脱敏样本属于训练样本的概率。相应的,损失函数为:B个训练样本属于训练样本的预测概率与0之间的距离、以及B个脱敏样本属于训练样本的预测概率与1之间的距离的和值。
在另一种实施方式中,识别结果为训练样本和脱敏样本属于脱敏样本的概率。相应的,损失函数为:B个训练样本属于脱敏样本的预测概率与1之间的距离、以及B个脱敏样本属于脱敏样本的预测概率与0之间的距离的和值。
之后,以减小损失函数的取值为训练目标,调整数据处理模型的模型参数,以增大损失函数的取值为训练目标,调整数据识别模型的模型参数。当满足预设的收敛条件时,完成针对两个模型的训练。
在一种可能的实现方式中,采用交替更新方式对数据处理模型和数据识别模型的模型参数进行更新。也就是说,在对其中一个模型的模型参数进行更新时,另一个模型的模型参数保持不变。
需要说明的是,上述的交替更新方式并不限定为:调整第一模型(数据处理模型和数据识别模型中的一个模型)的模型参数后,调整第二模型(数据处理模型和数据识别模型中的另一个模型)的模型参数,再调整第一模型的模型参数,再调整第二模型的模型参数。实施中,交替更新方式可以为:对其中一个模型的模型参数执行N次调整处理后,对另一模型的模型参数执行1次调整处理,N为1或者大于1的整数。
对数据识别模型的模型参数进行优化的目标是增大损失函数的取值,使得数据识别模型能够区分训练样本和脱敏样本,对数据处理模型的模型参数进行优化的目标是减小损失函数的取值,使得数据处理模型对训练样本进行更好的伪装,而且要使得脱敏样本相对于训练样本损失的信息较少,保证脱敏样本具有统计意义。
对抗学习训练的过程中,在开始阶段,数据处理模型输出的脱敏样本与训练样本可能存在较大的差异,此时数据识别模型可以很快地学习到脱敏样本和训练样本的区别,输出识别结果;数据处理模型以减小损失函数为目的,对自身的模型参数进行调整,使得输出的脱敏样本和训练样本的差异减小;之后,数据识别模型学习新的脱敏样本和训练样本的区别,输出新的识别结果,并对自身的模型参数进行调整;数据处理模型仍以减小损失函数为目的,对自身的模型参数进行调整,使得输出的脱敏样本和训练样本的差异减小。
通过反复的对抗学习训练,损失函数的取值趋向于一个平衡的状态,且训练样本和对应的脱敏样本的相似度满足预设要求时,完成针对数据处理模型和数据识别模型的对抗学习训练。利用完成训练的数据处理模型对用户数据进行处理得到脱敏数据,该脱敏数据具有以下特性:难以通过脱敏数据推导出原始的用户数据,而且脱敏数据与原始的用户数据相比,损失的信息较少,仍具有统计意义。
参见图5,图5为本发明实施例提供的训练数据处理模型的方法的原理图。
通过图5可以看到,数据处理模型的输入为训练样本xi,数据处理模型对训练样本xi进行处理,输出脱敏样本xi′。数据识别模型的输入为训练样本xi和数据处理模型输出的脱敏样本xi′,数据识别模型对训练样本xi和脱敏样本xi′进行识别,输出针对训练样本xi的识别结果和针对脱敏样本xi′的识别结果。数据处理模型根据识别结果调整自身的模型参数,数据识别模型根据识别结果调整自身的模型参数。
可选的,数据处理模型和数据识别模型可以采用DNN(深度神经网络)、RNN(循环神经网络)、Wide&Deep(深度排序网络)中的任意一种网络结构。
下面结合一个具体的应用场景,对本发明提供的数据处理方法进行说明。
参见图6所示,具体包括:
S601:终端中的应用采集用户的操作行为数据。
该应用能够响应用户请求,输出用户请求的文章或者视频。
实施中,该应用采集的用户的操作行为数据包括但不限于:文章阅读数据和视频访问数据。
可选的,文章阅读数据包括用户阅读预设类型文章的数量。例如,用户在预设时间内阅读惊险刺激类型文章的数量、用户在预设时间内阅读医疗保健类型文章的数量。
可选的,视频访问数据包括用户观看预设类型视频的数量和/时长。例如,用户在预设时间内观看惊险刺激类型视频的数量和/时长、用户在预设时间内观看健身类型视频的数量和/时长、用户在预设时间内观看医疗保健类型视频的数量和/时长。
S602:终端向服务器发送用户数据。
其中,用户数据至少用户的操作行为数据。另外,用户数据还可以包括用户的身份属性数据。用户的身份属性数据包括但不限于用户的年龄、性别、生活区域、受教育程度和职业。终端可以对各个应用采集的数据进行汇总,获得用户的身份属性数据。
S603:服务器通过预先完成训练的数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。
S604:服务器向数据平台发送脱敏数据。
S605:数据平台存储脱敏数据。
终端发送的用户数据涉及到了用户的隐私,如果直接将用户数据发送到数据平台,极易导致用户的隐私被泄露。因此,服务器在接收到终端发送的用户数据后,通过预先完成训练的数据处理模型对用户数据进行处理,得到脱敏数据。服务器向数据平台发送脱敏数据。数据平台保存的是脱敏数据,而不是原始的用户数据。由于脱敏数据与用户数据之间存在差异,因此可以避免用户隐私被泄露。另外,脱敏数据仍然具有统计意义,可以从数据平台获取用户的脱敏数据,根据用户的脱敏数据对用户的属性进行分析。
另一方面,本发明还提供一种数据处理装置。
下面对本发明实施例提供的数据处理装置进行介绍。下文中描述的数据处理装置可认为是,电子设备为实现本发明实施例提供的数据处理方法所需设置的程序模块。下文中关于数据处理装置的描述,可与上文中关于数据处理方法的描述相互参照。
参见图7,图7为本发明实施例提供的一种数据处理装置的结构示意图。
该装置包括:
数据获取单元701,用于获得用户数据;
模型调用单元702,用于调用预先完成训练的数据处理模型,其中,数据处理模型是通过对抗学习训练获得的;
数据处理单元703,用于通过数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。
数据处理单元703的具体实现可以参见前文中的描述。
可选的,在图7所示数据处理装置的基础上,进一步设置模型训练单元。
该模型训练单元用于:获得多个训练样本;通过预先建立的数据处理模型分别对多个训练样本添加扰动,得到多个脱敏样本;通过预先建立的数据识别模型分别对多个训练样本和多个脱敏样本进行识别,得到多个训练样本和多个脱敏样本的识别结果;根据识别结果调整数据处理模型和数据识别模型的模型参数,直至调整后的数据处理模型和数据识别模型满足预设的收敛条件。
在一种可能的实现方式中,模型训练单元根据识别结果调整数据处理模型和数据识别模型的模型参数,具体为:根据识别结果确定预设的损失函数的取值,其中,损失函数表征数据识别模型对多个训练样本和多个脱敏样本的识别正确率;以增大损失函数的取值为训练目标,调整数据识别模型的模型参数;以减小损失函数的取值为训练目标,调整数据处理模型的模型参数。
另一方面,本发明还提供一种电子设备。
参见图8,图8为本发明实施例提供的一种电子设备的硬件结构图。该电子设备可以包括处理器801和存储器802。
可选的,该电子设备还可以包括:通信接口803、输入单元804、显示器805和通信总线806。其中,处理器801、存储器802、通信接口803、输入单元804、显示器805均通过通信总线806完成相互间的通信。
在本发明实施例中,该处理器801可以为中央处理器(Central ProcessingUnit,CPU),特定应用集成电路,数字信号处理器、现成可编程门阵列或者其他可编程逻辑器件等。
该处理器801可以调用存储器802中存储的程序。
存储器802中用于存放一个或者一个以上程序,程序可以包括程序代码,程序代码包括计算机操作指令。在本发明实施例中,该存储器中至少存储有用于实现以下功能的程序:
获得用户数据;调用预先完成训练的数据处理模型,其中,数据处理模型是通过对抗学习训练获得的;通过数据处理模型对用户数据中的目标数据添加扰动,得到脱敏数据。
在一种可能的实现方式中,该存储器802可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、以上所提到的程序等;存储数据区可存储根据计算机设备的使用过程中所创建的数据等。
此外,存储器802可以包括高速随机存取存储器,还可以包括非易失性存储器。
该通信接口803可以为通信模块的接口。
该输入单元804可以包括感应触摸显示面板上的触摸事件的触摸感应单元、键盘等等。
该显示器805包括显示面板,如触摸显示面板等。
当然,图8所示的电子设备结构并不构成对本发明实施例中电子设备的限定,在实际应用中电子设备可以包括比图8所示的更多或更少的部件,或者组合某些部件。
在一些实施例中,上述电子设备可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
另一方面,本发明还提供一种存储介质,该存储介质中存储有计算机可执行指令,该计算机可执行指令被处理器加载并执行时,实现如上任意一个实施例中的数据处理方法。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置、电子设备及存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种数据处理方法,其特征在于,包括:
获得用户数据;
调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;
通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据;
在所述数据处理模型的输入数据类型少于用户数据的数据类型的情况下,所述通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据包括:将所述用户数据中数据类型与所述数据处理模型的输入数据类型相同的数据作为目标数据;根据所述用户数据中的目标数据生成特征向量,将所述特征向量作为所述数据处理模型的输入;通过所述数据处理模型对所述特征向量添加扰动,得到所述数据处理模型的输出;将所述数据处理模型的输出、以及所述用户数据中未经所述数据处理模型处理的数据构成脱敏数据;
所述数据处理模型的训练过程,包括:
获得多个训练样本;
通过预先建立的数据处理模型分别对所述多个训练样本添加扰动,得到多个脱敏样本;
通过预先建立的数据识别模型分别对所述多个训练样本和所述多个脱敏样本进行识别,得到所述多个训练样本和所述多个脱敏样本的识别结果,所述识别结果包括:训练样本被识别为训练样本的概率值,以及脱敏样本被识别为训练样本的概率值;或,训练样本被识别为脱敏样本的概率值,以及脱敏样本被识别为脱敏样本的概率值;
根据所述识别结果采用交替更新方式,调整所述数据处理模型和所述数据识别模型的模型参数,直至损失函数的取值的变化率小于预设值,且训练样本和对应的脱敏样本的相似度满足预设要求,所述交替更新方式为在对其中一个模型的模型参数进行更新时,另一个模型的模型参数保持不变,所述交替更新方式包括:对其中一个模型的模型参数执行N次调整处理后,对另一模型的模型参数执行1次调整处理,N为1或者大于1的整数;
预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值;或,所述多个训练样本属于脱敏样本的预测概率与1之间的距离、以及所述多个脱敏样本属于脱敏样本的预测值与0之间的距离的和值;
在所述预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值的情况下,所述预设的损失函数公式如下:
Figure FDA0003241275760000021
其中:
Q为损失函数;
B为训练样本的数量,也是脱敏样本的数量;
L()为距离函数;
WA为数据处理模型的模型参数;
WD为数据识别模型的模型参数;
xi为训练样本;
A(xi,WA)为数据处理模型对训练样本xi处理得到的脱敏样本;
D(xi,WD)为数据识别模型输出的训练样本属于训练样本的预测概率;
D(A(xi,WA),WD)为数据识别模型输出的脱敏样本属于训练样本的预测概率。
2.根据权利要求1所述的方法,其特征在于,所述根据所述识别结果采用交替更新方式,调整所述数据处理模型和所述数据识别模型的模型参数,包括:
根据所述识别结果采用交替更新方式,确定预设的损失函数的取值,所述损失函数表征所述数据识别模型对所述多个训练样本和所述多个脱敏样本的识别正确率;
以增大所述损失函数的取值为训练目标,调整所述数据识别模型的模型参数;
以减小所述损失函数的取值为训练目标,调整所述数据处理模型的模型参数。
3.一种数据处理装置,其特征在于,包括:
数据获取单元,用于获得用户数据;
模型调用单元,用于调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;
数据处理单元,用于通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据;
在所述数据处理模型的输入数据类型少于用户数据的数据类型的情况下,所述通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据包括:将所述用户数据中数据类型与所述数据处理模型的输入数据类型相同的数据作为目标数据;根据所述用户数据中的目标数据生成特征向量,将所述特征向量作为所述数据处理模型的输入;通过所述数据处理模型对所述特征向量添加扰动,得到所述数据处理模型的输出;将所述数据处理模型的输出、以及所述用户数据中未经所述数据处理模型处理的数据构成脱敏数据;
还包括模型训练单元;
所述模型训练单元用于:获得多个训练样本;通过预先建立的数据处理模型分别对所述多个训练样本添加扰动,得到多个脱敏样本;通过预先建立的数据识别模型分别对所述多个训练样本和所述多个脱敏样本进行识别,得到所述多个训练样本和所述多个脱敏样本的识别结果,所述识别结果包括:训练样本被识别为训练样本的概率值,以及脱敏样本被识别为训练样本的概率值;或,训练样本被识别为脱敏样本的概率值,以及脱敏样本被识别为脱敏样本的概率值;根据所述识别结果采用交替更新方式,调整所述数据处理模型和所述数据识别模型的模型参数,直至损失函数的取值的变化率小于预设值,且训练样本和对应的脱敏样本的相似度满足预设要求,所述交替更新方式为在对其中一个模型的模型参数进行更新时,另一个模型的模型参数保持不变,所述交替更新方式包括:对其中一个模型的模型参数执行N次调整处理后,对另一模型的模型参数执行1次调整处理,N为1或者大于1的整数;
预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值;或,所述多个训练样本属于脱敏样本的预测概率与1之间的距离、以及所述多个脱敏样本属于脱敏样本的预测值与0之间的距离的和值;
在所述预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值的情况下,所述预设的损失函数公式如下:
Figure FDA0003241275760000041
其中:
Q为损失函数;
B为训练样本的数量,也是脱敏样本的数量;
L()为距离函数;
WA为数据处理模型的模型参数;
WD为数据识别模型的模型参数;
xi为训练样本;
A(xi,WA)为数据处理模型对训练样本xi处理得到的脱敏样本;
D(xi,WD)为数据识别模型输出的训练样本属于训练样本的预测概率;
D(A(xi,WA),WD)为数据识别模型输出的脱敏样本属于训练样本的预测概率。
4.一种电子设备,其特征在于,包括处理器和存储器;
所述处理器,用于调用并执行所述存储器中存储的程序;
所述存储器用于存储所述程序,所述程序至少用于:
获得用户数据;调用预先完成训练的数据处理模型,所述数据处理模型通过对抗学习训练获得;通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据;在所述数据处理模型的输入数据类型少于用户数据的数据类型的情况下,所述通过所述数据处理模型对所述用户数据中的目标数据添加扰动,得到与所述用户数据对应的脱敏数据包括:将所述用户数据中数据类型与所述数据处理模型的输入数据类型相同的数据作为目标数据;根据所述用户数据中的目标数据生成特征向量,将所述特征向量作为所述数据处理模型的输入;通过所述数据处理模型对所述特征向量添加扰动,得到所述数据处理模型的输出;将所述数据处理模型的输出、以及所述用户数据中未经所述数据处理模型处理的数据构成脱敏数据;
所述数据处理模型的训练过程,包括:
获得多个训练样本;
通过预先建立的数据处理模型分别对所述多个训练样本添加扰动,得到多个脱敏样本;
通过预先建立的数据识别模型分别对所述多个训练样本和所述多个脱敏样本进行识别,得到所述多个训练样本和所述多个脱敏样本的识别结果,所述识别结果包括:训练样本被识别为训练样本的概率值,以及脱敏样本被识别为训练样本的概率值;或,训练样本被识别为脱敏样本的概率值,以及脱敏样本被识别为脱敏样本的概率值;
根据所述识别结果采用交替更新方式,调整所述数据处理模型和所述数据识别模型的模型参数,直至损失函数的取值的变化率小于预设值,且训练样本和对应的脱敏样本的相似度满足预设要求,所述交替更新方式为在对其中一个模型的模型参数进行更新时,另一个模型的模型参数保持不变,所述交替更新方式包括:对其中一个模型的模型参数执行N次调整处理后,对另一模型的模型参数执行1次调整处理,N为1或者大于1的整数;
预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值;或,所述多个训练样本属于脱敏样本的预测概率与1之间的距离、以及所述多个脱敏样本属于脱敏样本的预测值与0之间的距离的和值;
在所述预设的损失函数包括:所述多个训练样本属于训练样本的预测概率与0之间的距离、以及所述多个脱敏样本属于训练样本的预测概率与1之间的距离的和值的情况下,所述预设的损失函数公式如下:
Figure FDA0003241275760000061
其中:
Q为损失函数;
B为训练样本的数量,也是脱敏样本的数量;
L()为距离函数;
WA为数据处理模型的模型参数;
WD为数据识别模型的模型参数;
xi为训练样本;
A(xi,WA)为数据处理模型对训练样本xi处理得到的脱敏样本;
D(xi,WD)为数据识别模型输出的训练样本属于训练样本的预测概率;
D(A(xi,WA),WD)为数据识别模型输出的脱敏样本属于训练样本的预测概率。
5.一种存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上权利要求1至2中任一项所述的数据处理方法。
CN201911046975.7A 2019-10-30 2019-10-30 数据处理方法、装置、电子设备及存储介质 Active CN110807207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911046975.7A CN110807207B (zh) 2019-10-30 2019-10-30 数据处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911046975.7A CN110807207B (zh) 2019-10-30 2019-10-30 数据处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110807207A CN110807207A (zh) 2020-02-18
CN110807207B true CN110807207B (zh) 2021-10-08

Family

ID=69489689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911046975.7A Active CN110807207B (zh) 2019-10-30 2019-10-30 数据处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110807207B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625858B (zh) * 2020-05-10 2023-04-07 武汉理工大学 一种垂直领域下的智能化多模态数据脱敏方法和装置
CN111695674B (zh) * 2020-05-14 2024-04-09 平安科技(深圳)有限公司 联邦学习方法、装置、计算机设备及可读存储介质
CN111475852B (zh) * 2020-06-19 2020-09-15 支付宝(杭州)信息技术有限公司 基于隐私保护针对业务模型进行数据预处理的方法及装置
CN111475855B (zh) * 2020-06-24 2020-12-25 支付宝(杭州)信息技术有限公司 实现隐私保护的数据处理方法及装置
CN111523146B (zh) * 2020-07-03 2020-09-29 支付宝(杭州)信息技术有限公司 实现隐私保护的数据处理方法及装置
CN113221747B (zh) * 2021-05-13 2022-04-29 支付宝(杭州)信息技术有限公司 一种基于隐私保护的隐私数据处理方法、装置及设备
CN113420322B (zh) * 2021-05-24 2023-09-01 阿里巴巴新加坡控股有限公司 模型训练、脱敏方法、装置、电子设备及存储介质
CN113886885A (zh) * 2021-10-21 2022-01-04 平安科技(深圳)有限公司 数据脱敏方法、数据脱敏装置、设备及存储介质
CN114758423A (zh) * 2022-04-29 2022-07-15 支付宝(杭州)信息技术有限公司 一种生物识别方法、装置及设备
CN116956335A (zh) * 2022-11-01 2023-10-27 中国移动通信集团设计院有限公司 基于区块链的数据交易方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491497A (zh) * 2018-03-20 2018-09-04 苏州大学 基于生成式对抗网络技术的医疗文本生成方法
CN109784091A (zh) * 2019-01-16 2019-05-21 福州大学 一种融合差分隐私gan和pate模型的表格数据隐私保护方法
CN109948670A (zh) * 2019-03-04 2019-06-28 腾讯科技(深圳)有限公司 数据识别模型的训练方法及装置、数据处理方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818076B (zh) * 2016-09-12 2021-11-12 微软技术许可有限责任公司 针对自然语言的语义处理
CN106997380B (zh) * 2017-03-21 2019-07-12 北京工业大学 基于dcgan深度网络的成像光谱图像安全检索方法
CN107368752B (zh) * 2017-07-25 2019-06-28 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
CN108229130B (zh) * 2018-01-30 2021-04-16 中国银联股份有限公司 一种验证方法及装置
US20190244138A1 (en) * 2018-02-08 2019-08-08 Apple Inc. Privatized machine learning using generative adversarial networks
CN110135193A (zh) * 2019-05-15 2019-08-16 广东工业大学 一种数据脱敏方法、装置、设备及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491497A (zh) * 2018-03-20 2018-09-04 苏州大学 基于生成式对抗网络技术的医疗文本生成方法
CN109784091A (zh) * 2019-01-16 2019-05-21 福州大学 一种融合差分隐私gan和pate模型的表格数据隐私保护方法
CN109948670A (zh) * 2019-03-04 2019-06-28 腾讯科技(深圳)有限公司 数据识别模型的训练方法及装置、数据处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Data Synthesis based on Generative Adversarial Networks;Noseong Park等;《Proceedings of the VLDB Endowment》;20180704;第11卷(第10期);第1-16页 *

Also Published As

Publication number Publication date
CN110807207A (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
CN110807207B (zh) 数据处理方法、装置、电子设备及存储介质
CN108322317B (zh) 一种账号识别关联方法及服务器
Ozsoy et al. Trust based recommendation systems
US20210019612A1 (en) Self-healing machine learning system for transformed data
US20170236176A1 (en) Method for using customer attributes to select a service representative
CN111159570B (zh) 一种信息推荐方法及服务器
JP2019113943A (ja) 情報提供装置、情報提供方法、およびプログラム
US11748578B1 (en) Predictive text system
US10560338B2 (en) Event-based data path detection
CN112231570A (zh) 推荐系统托攻击检测方法、装置、设备及存储介质
CN115841366B (zh) 物品推荐模型训练方法、装置、电子设备及存储介质
CN111291217B (zh) 一种内容推荐方法、装置、电子设备以及计算机可读介质
CN108763251B (zh) 核身产品的个性化推荐方法及装置和电子设备
Margaris et al. Improving collaborative filtering's rating prediction quality by considering shifts in rating practices
CN110874638B (zh) 面向行为分析的元知识联邦方法、装置、电子设备及系统
CN115455280A (zh) 一种推荐列表确定方法和服务器
CN110598949B (zh) 一种用户兴趣度分析方法、装置、电子设备及存储介质
CN110929172A (zh) 信息选择方法、装置、电子设备及可读存储介质
CN111966920B (zh) 舆情传播的稳定条件的预测方法、装置及设备
CN112052399B (zh) 一种数据处理方法、装置和计算机可读存储介质
CN112733034A (zh) 内容推荐方法、装置、设备及存储介质
CN110209704B (zh) 用户匹配方法及设备
US20160132783A1 (en) User Modelling by Domain Adaptation
CN113254788B (zh) 一种基于大数据的推荐方法、系统及可读存储介质
CN115329214A (zh) 一种用户推荐方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant