CN112200132A - 一种基于隐私保护的数据处理方法、装置及设备 - Google Patents

一种基于隐私保护的数据处理方法、装置及设备 Download PDF

Info

Publication number
CN112200132A
CN112200132A CN202011172857.3A CN202011172857A CN112200132A CN 112200132 A CN112200132 A CN 112200132A CN 202011172857 A CN202011172857 A CN 202011172857A CN 112200132 A CN112200132 A CN 112200132A
Authority
CN
China
Prior art keywords
image
desensitization
privacy
target
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011172857.3A
Other languages
English (en)
Other versions
CN112200132B (zh
Inventor
孙文宇
张昊
杨成平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202011172857.3A priority Critical patent/CN112200132B/zh
Publication of CN112200132A publication Critical patent/CN112200132A/zh
Application granted granted Critical
Publication of CN112200132B publication Critical patent/CN112200132B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本说明书实施例公开了一种基于隐私保护的数据处理方法、装置及设备,所述方法包括:获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。

Description

一种基于隐私保护的数据处理方法、装置及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种基于隐私保护的数据处理方法、装置及设备。
背景技术
随着计算机技术的不断发展,基于人脸识别技术的应用(如刷脸支付应用)逐渐普及,由于人脸图像为用户的隐私数据,所以需要对人脸图像进行脱敏处理,以实现对用户的隐私保护,而如何确定脱敏算法是否符合图像脱敏需求成为备受关注的焦点。
目前,可以通过对原始人脸图像和脱敏处理后的人脸图像的比对,确定用于对人脸图像进行脱敏处理的脱敏算法是否符合图像脱敏需求。但是,由于基于脱敏算法对原始人脸图像进行脱敏处理时,需要对原始人脸图像做基本的图像增强处理(如在原始人脸图像中加入旋转、噪声等处理),所以,通过上述方式判断脱敏算法是否符合图像脱敏需求的准确性差,且人脸图像包含的像素数量通常较多,上述方式也会使得判断效率差。因此,需要提供一种更高判断效率和更高准确性的图像脱敏需求判断方案。
发明内容
本说明书实施例的目的是提供一种基于隐私保护的数据处理方法、装置及设备,以提供一种能提高判断效率和准确性的图像脱敏需求判断方案。
为了实现上述技术方案,本说明书实施例是这样实现的:
第一方面,本说明书实施例提供的一种基于隐私保护的数据处理方法,所述方法包括:获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
第二方面,本说明书实施例提供了一种基于隐私保护的数据处理装置,所述装置包括:第一获取模块,用于获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;概率确定模块,用于基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;分数确定模块,用于基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
第三方面,本说明书实施例提供了一种基于隐私保护的数据处理设备,所述基于隐私保护的数据处理设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
第四方面,本说明书实施例提供一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一种基于隐私保护的数据处理方法实施例的流程图;
图2为本说明书又一种基于隐私保护的数据处理方法实施例的流程图;
图3为本说明书一种基于隐私保护的数据处理方法的示意图;
图4为本说明书一种基于隐私保护的数据处理装置实施例的结构示意图;
图5为本说明书一种基于隐私保护的数据处理设备的结构示意图。
具体实施方式
本说明书实施例提供一种基于隐私保护的数据处理方法、装置及设备。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
实施例一
如图1所示,本说明书实施例提供一种基于隐私保护的数据处理方法,该方法的执行主体可以为终端设备或服务器,该终端设备可以如个人计算机等设备,也可以如手机、平板电脑等移动终端设备,该服务器可以是独立的服务器,也可以是由多个服务器组成的服务器集群。该方法具体可以包括以下步骤:
在S102中,获取目标图像。
其中,目标图像可以为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,第一图像可以是任意包含用户隐私信息的图像,如第一图像可以是用户的人脸图像,目标脱敏算法可以是任意包含超参数的,能够用于将第一图像中包含的用户隐私信息或预设的敏感信息从第一图像中去除、隐藏或扰乱等脱敏处理的图像脱敏算法,假设第一图像为用户的人脸图像,则可以基于包含预设噪声的目标脱敏算法,对第一图像进行脱敏处理,以得到目标图像,得到的目标图像可以是包含噪声的图像。
在实施中,随着计算机技术的不断发展,基于人脸识别技术的应用(如刷脸支付应用)逐渐普及,由于人脸图像为用户的隐私数据,所以需要对人脸图像进行脱敏处理,以实现对用户的隐私保护,而如何确定脱敏算法是否符合图像脱敏需求成为备受关注的焦点。
目前,可以通过对原始人脸图像和脱敏处理后的人脸图像的比对,确定用于对人脸图像进行脱敏处理的脱敏算法是否符合图像脱敏需求。但是,由于基于脱敏算法对原始人脸图像进行脱敏处理时,需要对原始人脸图像做基本的图像增强处理(如在原始人脸图像中加入旋转、噪声等处理),所以,通过上述方式判断脱敏算法是否符合图像脱敏需求的准确性差,且人脸图像包含的像素数量通常较多,上述方式也会使得判断效率差。此外,还可以通过判别器判断基于脱敏算法处理后的人脸图像是否为人脸图像,但是与上述通过计算像素的欧式距离的方式相类似的,基于判别器进行判断的方式的判断准确性差,因此,需要提供一种更高判断效率和准确性的图像脱敏需求判断方案。为此,本说明书实施例提供一种技术方案,具体可以参见下述内容。
可以获取待脱敏的任意一个或多个第一图像,并基于目标脱敏算法对获取的第一图像进行脱敏处理,以得到一个或多个目标图像。
其中,可以基于包含预定第一超参数的目标脱敏算法,分别对一个或多个第一图像进行脱敏处理,以得到一个或多个目标图像。或者,还可以根据第一图像的图像类型(或根据第一图像的预设图像脱敏需求),获取对应的预设超参数范围,然后基于获取的超参数范围,逐一根据该超参数范围内包含的超参数确定的目标脱敏算法,分别对一个或多个第一图像进行脱敏处理,以得到一个或多个目标图像。例如,获取的超参数范围为0-2,则可以基于0、1、2这三个超参数,分别确定目标脱敏算法1、目标脱敏算法2以及目标脱敏算法3,然后分别基于这三个目标脱敏算法中包含的上述超参数,分别对第一图像中包含的人脸信息进行脱敏处理(如去除人脸信息、隐藏人脸信息,或扰乱人脸信息等处理),以得到对应的目标图像,这样,就无法基于目标图像获取到对应的人脸信息,实现对第一图像的脱敏处理。
上述目标图像的确定方法是一种可选地、可实现的确定方法,在实际应用场景中,还可以有多种不同的确定方法,可以根据实际应用场景的不同而有所不同,本说明书实施例对此不作具体限定。
在S104中,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率。
其中,概率隐私打分模型可以为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,例如,概率隐私打分模型可以是基于历史脱敏图像训练得到的卷积神经网络模型、深度信任网络模型、堆栈自编码网络模型等深度学习网络模型中的任意一个网络模型,本说明书实施例对概率隐私打分模型的构建方法不作具体限定,历史脱敏图像可以为基于目标脱敏算法处理后的脱敏图像,且历史脱敏图像可以和目标图像具有相同的图像属性,如历史脱敏图像可以和目标图像的图像类型相同(如都为脱敏处理后的人脸图像)、图像大小相同(如都为256*256位的图像)。
在实施中,可以基于对第一图像进行脱敏处理的目标脱敏算法,对历史图像进行脱敏处理,以得到对应的历史脱敏图像,然后在基于历史脱敏图像对预先构建的概率隐私打分模型进行训练,以得到训练后的概率隐私打分模型。例如,预先构建的概率隐私打分模型可以为卷积神经网络模型,其中,该卷积神经网络模型可以包括1个输入层、n个隐含层和一个输出层,其中,输入层可以用于输入历史脱敏图像,前n-1个隐含层可以是卷积层,用于特征提取,第n个隐含层可以是全连接层,输出层可以通过预设损失函数用于指导模型的学习,输出层可以输出历史脱敏图像每一维特征的隐私概率。可以基于历史脱敏图像对上述卷积神经网络模型进行训练,以得到训练后的概率隐私打分模型。
在得到训练后的概率隐私打分模型后,可以将目标图像输入该概率隐私打分模型,以得到该目标图像每一维特征的隐私概率。例如,假设目标图像为256*256位的脱敏处理后的用户人脸图像,则可以基于上述预先训练的概率隐私打分模型,分别得到256个隐私概率,即目标图像有256维特征。
在S106中,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
在实施中,可以将每一维特征的隐私概率的平均值,作为目标图像的隐私分数,并根据目标图像的隐私分数与预设隐私分数阈值之间的关系,确定目标脱敏算法是否符合预设图像脱敏需求。
例如,目标图像具有3个隐私概率,分别为0.5、0.4和0.3,则目标图像的隐私分数可以为(0.5+0.4+0.3)/3=0.4,假设根据第一图像的图像类型,可以确定对应的预设隐私分数阈值为0.3,则可以确定该目标脱敏算法符合预设图像脱敏需求。即可以基于该目标脱敏算法对待脱敏的其他图像进行脱敏处理,以防止个人隐私数据泄露。其中,每一维特征的隐私概率的值域可以为[0,1],隐私概率越接近1,则表明目标图像的该维特征的隐私性越好(即概率隐私打分模型不可以准确的判断输入的目标图像的该维度特征),隐私概率越接近0,则表明目标图像的该维特征的隐私性越差(即概率隐私打分模型可以准确的判断输入的目标图像的该维度特征)。
此外,上述隐私分数的确定方法以及目标脱敏算法是否符合预设图像脱敏需求的判断方法是一种可选地、可实现的方法,在实际应用场景中,还可以有多种不同的方法,可以根据实际应用场景的不同而有所不同,本说明书实施例对此不作具体限定。
本说明书实施例提供一种基于隐私保护的数据处理方法,通过获取目标图像,目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率,概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,历史脱敏图像为基于目标脱敏算法处理后的脱敏图像,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于所述目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。这样,由于目标图像的隐私分数是基于脱敏图像每一维特征的隐私概率确定的,所以,可以提高隐私分数的确定效率和准确性,即通过目标图像的隐私分数,可以准确的确定目标脱敏算法是否符合预设图像脱敏需求,即可以提高图像脱敏需求判断的效率和准确性。
实施例二
如图2所示,本说明书实施例提供一种基于隐私保护的数据处理方法,该方法的执行主体可以为终端设备或服务器,该终端设备可以如个人计算机等设备,也可以如手机、平板电脑等移动终端设备,该服务器可以是独立的服务器,也可以是由多个服务器组成的服务器集群。该方法具体可以包括以下步骤:
在S202中,获取历史图像。
其中,历史图像可以是与第一图像具有相同的图像属性,如历史图像可以和第一图像的图像类型相同(如都可以为人脸图像)、图像大小相同(都可以为256*256位的图像)。
在S204中,基于包含不同的预设超参数的目标脱敏算法,分别对历史图像进行脱敏处理,以得到多个不同的历史脱敏图像。
在实施中,可以基于图像类型和超参数范围的预设对应关系,获取与历史图像的图像类型对应的超参数范围,并基于获取超参数范围内包含的超参数,确定对应的预设超参数,然后基于包含不同的预设超参数的目标脱敏算法,分别对历史图像进行脱敏处理(如去除、隐藏或扰乱历史图像中包含的敏感信息等处理),以得到多个不同的历史脱敏图像。
在S206中,获取历史脱敏图像。
在S208中,基于历史脱敏图像,对预先构建的人脸识别模型进行训练,得到训练后的人脸识别模型。
其中,人脸识别模型可以为用于确定脱敏图像每一维特征的特征嵌入的深度学习网络模型,例如,人脸识别模型可以是预先构建的卷积神经网络模型、深度信任网络模型、堆栈自编码网络模型等深度学习网络模型中的任意一个网络模型,此外,人脸识别模型可以与概率隐私打分模型相同(如都为卷积神经网络模型),也可以与概率隐私打分模型不同,本说明书实施例对人脸识别模型和概率隐私打分模型所选用的深度学习网络模型的类型不作具体限定。
在实施中,在实际应用中,上述S206的处理方式可以多种多样,以下提供一种可选的实现方式,具体可以参见下述步骤一~步骤二处理。
步骤一,基于预先构建的人脸识别模型,获取历史脱敏图像每一维特征的特征嵌入。
其中,特征嵌入可以是将历史脱敏图像的每一维特征转换为固定大小的特征标识。
步骤二,基于历史脱敏图像每一维特征的特征嵌入和预设损失函数,对人脸识别模型进行训练。
在实施中,预设损失函数可以为softmax函数、arcface函数等。
为减少人脸识别模型和概率隐私打分模型之间的耦合性的影响,可以先对人脸识别模型进行训练,在得到训练后的人脸识别模型后,可以基于历史脱敏图像和训练后的人脸识别模型,对概率隐私打分模型进行训练。例如,预先构建的人脸识别模型可以为卷积神经网络模型,其中,该卷积神经网络模型可以包括1个输入层、n个隐含层和一个输出层,其中,输入层可以用于输入历史脱敏图像,前n-1个隐含层可以是卷积层,用于特征提取,第n个隐含层可以是全连接层,输出层可以通过预设损失函数(如softmax函数)用于指导模型的学习,输出层可以输出历史脱敏图像每一维特征的特征嵌入。在通过历史脱敏图像对上述卷积神经网络模型进行训练后,可以基于训练得到的卷积神经网络模型(即人脸识别模型),对构建的概率隐私打分模型进行训练。
另外,为提高后续隐私概率的确定效率,概率隐私打分模型的模型结构可以小于人脸识别模型的模型结构。例如,假设人脸识别模型和概率隐私打分模型都为卷积神经网络模型,则人脸识别模型可以包括1个输入层、n个隐含层和一个输出层,概率隐私打分模型可以包括1个输入层、m个隐含层和一个输出层,其中,m可以小于n。
在S210中,基于训练后的人脸识别模型和历史脱敏图像,对预先构建的概率隐私打分模型进行训练,得到预先训练的概率隐私打分模型。
在实施中,在实际应用中,上述S210的处理方式可以多种多样,以下提供一种可选的实现方式,具体可以参见下述步骤一~步骤四处理。
步骤一,基于训练后的人脸识别模型,获取历史脱敏图像每一维特征的特征嵌入。
步骤二,基于预先构建的概率隐私打分模型,获取历史脱敏图像每一维特征的隐私概率。
步骤三,基于历史脱敏图像每一维特征的特征嵌入和隐私概率,确定历史脱敏图像的特征分数。
在实施中,可以基于预设向量算法对第一向量和第二向量进行处理,并将处理后的结果确定为历史脱敏图像的特征分数,第一向量可以为由历史脱敏图像每一维特征的特征嵌入构成的向量,第二向量可以为由历史脱敏图像每一维特征的隐私概率构成的向量。
例如,第一向量可以为由历史脱敏图像每一维特征的特征嵌入构成的向量F,第二向量可以为由历史脱敏图像每一维特征的隐私概率构成的向量P,可以对向量F和向量P进行点乘处理,并将这两个向量的点乘结果,确定为历史脱敏图像的特征分数。
上述预设向量算法是一种可选地、可实现的向量算法,在实际应用场景中,还可以有多种不同的预设向量算法,可以根据实际应用场景的不同而有所不同,本说明书实施例对此不做具体限定。
步骤四,基于历史脱敏图像的特征分数和预设损失函数,对预先构建的概率隐私打分模型进行训练,得到预先训练的概率隐私打分模型。
其中,预设损失函数可以是softmax函数、arcface函数等。
在S212中,获取目标图像。
在S214中,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率。
在S216中,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
上述S212~S216的具体处理过程可以参见上述实施例一中S102~S106的相关内容,在此不再赘述。
在S216后,如图3所示,可以根据目标脱敏算法是否符合预设图像脱敏需求,继续执行S218~S220,或S222~S224,即如果目标脱敏算法不符合预设图像脱敏需求,则可以继续执行S218~S220,如果目标脱敏算法符合预设图像脱敏需求,则可以继续执行S222~S224。
在S218中,基于预设参数调整规则,对目标脱敏算法中包含的超参数进行调整。
在实施中,在目标脱敏算法不符合预设图像脱敏需求的情况下,可以根据第一图像的图像类型,获取与该图像类型对应的预设参数调整规则,并根据该预设参数调整规则,对目标脱敏算法中包含的超参数进行调整。
此外,预设参数调整规则的确定方法可以有多种,例如,可以根据在对人脸识别模型和概率隐私打分模型进行训练的过程中产生的过程数据,确定预设参数调整规则,预设参数调整规则的确定方法可以根据实际应用场景的不同而有所不同,本说明书实施例对此不做具体限定。
在S220中,基于调整后的目标脱敏算法对所述第一图像进行脱敏处理,并将处理后的第一图像确定为目标图像。
在S220后,可以继续执行S208~S216。
在S222中,基于训练后的人脸识别模型,获取目标图像每一维特征的特征嵌入。
在S224中,存储由目标图像每一维特征的特征嵌入确定的特征向量,以基于存储的特征向量进行人脸识别。
在实施中,当目标脱敏算法符合预设图像脱敏需求的情况下,可以存储由训练后的人脸识别模型确定的目标图像每一维特征的特征嵌入确定的特征向量,以在防止个人隐私数据泄露的情况下,基于特征向量为用户提供人脸识别服务。例如,可以基于预先存储的该用户的第一特征向量,与目标图像的特征向量进行比对,并根据比对结果,确定是否可以为该用户提供相关服务,或者,还可以在接收到用户的身份验证请求时,获取用户的人脸图像,并根据目标脱敏算法对该人脸图像进行脱敏处理,以得到第一脱敏图像,然后在根据人脸识别模型,获取由该第一脱敏图像每一维特征的特征嵌入确定的第二特征向量,然后将第二特征向量与目标图像的特征向量进行比对,以根据比对结果,确定身份验证结果,这样,可以防止用户的个人隐私泄露。
本说明书实施例提供一种基于隐私保护的数据处理方法,通过获取目标图像,目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率,概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,历史脱敏图像为基于目标脱敏算法处理后的脱敏图像,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于所述目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。这样,由于目标图像的隐私分数是基于脱敏图像每一维特征的隐私概率确定的,所以,可以提高隐私分数的确定效率和准确性,即通过目标图像的隐私分数,可以准确的确定目标脱敏算法是否符合预设图像脱敏需求,即可以提高图像脱敏需求判断的效率和准确性。
实施例三
本说明书实施例还提供一种基于隐私保护的数据处理装置,如图4所示。
该基于隐私保护的数据处理装置包括:第一获取模块401、概率确定模块402和分数确定模块403,其中:
第一获取模块401,用于获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
概率确定模块402,用于基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
分数确定模块403,用于基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
本说明书实施例中,所述装置,还包括:
第二获取模块,用于获取所述历史脱敏图像;
第一训练模块,用于基于所述历史脱敏图像,对预先构建的人脸识别模型进行训练,得到训练后的所述人脸识别模型,所述人脸识别模型为用于确定脱敏图像每一维特征的特征嵌入的深度学习网络模型;
第二训练模块,用于基于所述训练后的人脸识别模型和所述历史脱敏图像,对预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
本说明书实施例中,所述第二训练模块,用于:
基于所述训练后的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述预先构建的概率隐私打分模型,获取所述历史脱敏图像每一维特征的隐私概率;
基于所述历史脱敏图像每一维特征的特征嵌入和隐私概率,确定所述历史脱敏图像的特征分数;
基于所述历史脱敏图像的特征分数和预设损失函数,对所述预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
本说明书实施例中,所述第二训练模块,用于:
基于预设向量算法对第一向量和第二向量进行处理,并将处理后的结果确定为所述历史脱敏图像的特征分数,所述第一向量为由所述历史脱敏图像每一维特征的特征嵌入构成的向量,所述第二向量为由所述历史脱敏图像每一维特征的隐私概率构成的向量。
本说明书实施例中,所述第一训练模块,用于:
基于所述预先构建的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述历史脱敏图像每一维特征的特征嵌入和预设损失函数,对所述人脸识别模型进行训练。
本说明书实施例中,所述装置,还包括:
第三获取模块,用于获取历史图像;
图像处理模块,用于基于包含不同的预设超参数的所述目标脱敏算法,分别对所述历史图像进行脱敏处理,以得到多个不同的所述历史脱敏图像。
本说明书实施例中,所述装置,还包括:
参数调整模块,用于基于预设参数调整规则,对所述目标脱敏算法中包含的所述超参数进行调整;
图像确定模块,用于基于调整后的所述目标脱敏算法对所述第一图像进行脱敏处理,并将处理后的所述第一图像确定为所述目标图像。
本说明书实施例中,所述装置,还包括:
特征获取模块,用于基于所述训练后的人脸识别模型,获取所述目标图像每一维特征的特征嵌入;
特征存储模块,用于存储由所述目标图像每一维特征的特征嵌入确定的特征向量,以基于存储的所述特征向量进行人脸识别。
本说明书实施例提供一种基于隐私保护的数据处理装置,通过获取目标图像,目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率,概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,历史脱敏图像为基于目标脱敏算法处理后的脱敏图像,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于所述目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。这样,由于目标图像的隐私分数是基于脱敏图像每一维特征的隐私概率确定的,所以,可以提高隐私分数的确定效率和准确性,即通过目标图像的隐私分数,可以准确的确定目标脱敏算法是否符合预设图像脱敏需求,即可以提高图像脱敏需求判断的效率和准确性。
实施例四
基于同样的思路,本说明书实施例还提供一种基于隐私保护的数据处理设备,如图5所示。
所述基于隐私保护的数据处理设备可以为上述实施例提供的终端设备或服务器。
基于隐私保护的数据处理设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器501和存储器502,存储器502中可以存储有一个或一个以上存储应用程序或数据。其中,存储器502可以是短暂存储或持久存储。存储在存储器502的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对基于隐私保护的数据处理设备中的一系列计算机可执行指令。更进一步地,处理器501可以设置为与存储器502通信,在基于隐私保护的数据处理设备上执行存储器502中的一系列计算机可执行指令。基于隐私保护的数据处理设备还可以包括一个或一个以上电源503,一个或一个以上有线或无线网络接口504,一个或一个以上输入输出接口505,一个或一个以上键盘506。
具体在本实施例中,基于隐私保护的数据处理设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对基于隐私保护的数据处理设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
本说明书实施例提供一种基于隐私保护的数据处理设备,通过获取目标图像,目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率,概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,历史脱敏图像为基于目标脱敏算法处理后的脱敏图像,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于所述目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。这样,由于目标图像的隐私分数是基于脱敏图像每一维特征的隐私概率确定的,所以,可以提高隐私分数的确定效率和准确性,即通过目标图像的隐私分数,可以准确的确定目标脱敏算法是否符合预设图像脱敏需求,即可以提高图像脱敏需求判断的效率和准确性。
实施例五
本说明书实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述基于隐私保护的数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(RandomAccess Memory,简称RAM)、磁碟或者光盘等。
所述存储介质用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
本说明书实施例提供一种计算机可读存储介质,通过获取目标图像,目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像,基于预先训练的概率隐私打分模型,确定目标图像每一维特征的隐私概率,概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,历史脱敏图像为基于目标脱敏算法处理后的脱敏图像,基于目标图像每一维特征的隐私概率,确定目标图像的隐私分数,并基于所述目标图像的隐私分数,确定目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。这样,由于目标图像的隐私分数是基于脱敏图像每一维特征的隐私概率确定的,所以,可以提高隐私分数的确定效率和准确性,即通过目标图像的隐私分数,可以准确的确定目标脱敏算法是否符合预设图像脱敏需求,即可以提高图像脱敏需求判断的效率和准确性。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 425D、AtmelAT91SAM、Microchip PIC13F24K20以及Silicone Labs C3051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的实施例是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程基于隐私保护的数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程基于隐私保护的数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程基于隐私保护的数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程基于隐私保护的数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (15)

1.一种基于隐私保护的数据处理方法,所述方法包括:
获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
2.根据权利要求1所述的方法,在所述基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率之前,还包括:
获取所述历史脱敏图像;
基于所述历史脱敏图像,对预先构建的人脸识别模型进行训练,得到训练后的所述人脸识别模型,所述人脸识别模型为用于确定脱敏图像每一维特征的特征嵌入的深度学习网络模型;
基于所述训练后的人脸识别模型和所述历史脱敏图像,对预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
3.根据权利要求2所述的方法,所述基于所述训练后的人脸识别模型和所述历史脱敏图像,对预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型,包括:
基于所述训练后的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述预先构建的概率隐私打分模型,获取所述历史脱敏图像每一维特征的隐私概率;
基于所述历史脱敏图像每一维特征的特征嵌入和隐私概率,确定所述历史脱敏图像的特征分数;
基于所述历史脱敏图像的特征分数和预设损失函数,对所述预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
4.根据权利要求3所述的方法,所述基于所述历史脱敏图像每一维特征的特征嵌入和隐私概率,确定所述历史脱敏图像的特征分数,包括:
基于预设向量算法对第一向量和第二向量进行处理,并将处理后的结果确定为所述历史脱敏图像的特征分数,所述第一向量为由所述历史脱敏图像每一维特征的特征嵌入构成的向量,所述第二向量为由所述历史脱敏图像每一维特征的隐私概率构成的向量。
5.根据权利要求2所述的方法,所述基于所述历史脱敏图像,对预先构建的人脸识别模型进行训练,得到训练后的所述人脸识别模型,包括:
基于所述预先构建的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述历史脱敏图像每一维特征的特征嵌入和预设损失函数,对所述人脸识别模型进行训练。
6.根据权利要求2所述的方法,在所述获取所述历史脱敏图像之前,还包括:
获取历史图像;
基于包含不同的预设超参数的所述目标脱敏算法,分别对所述历史图像进行脱敏处理,以得到多个不同的所述历史脱敏图像。
7.根据权利要求6所述的方法,在所述目标脱敏算法不符合预设图像脱敏需求的情况下,所述方法还包括:
基于预设参数调整规则,对所述目标脱敏算法中包含的所述超参数进行调整;
基于调整后的所述目标脱敏算法对所述第一图像进行脱敏处理,并将处理后的所述第一图像确定为所述目标图像。
8.根据权利要求2所述的方法,在所述目标脱敏算法符合预设图像脱敏需求的情况下,所述方法还包括:
基于所述训练后的人脸识别模型,获取所述目标图像每一维特征的特征嵌入;
存储由所述目标图像每一维特征的特征嵌入确定的特征向量,以基于存储的所述特征向量进行人脸识别。
9.一种基于隐私保护的数据处理装置,所述装置包括:
第一获取模块,用于获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
概率确定模块,用于基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
分数确定模块,用于基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
10.根据权利要求9所述的装置,所述装置,还包括:
第二获取模块,用于获取所述历史脱敏图像;
第一训练模块,用于基于所述历史脱敏图像,对预先构建的人脸识别模型进行训练,得到训练后的所述人脸识别模型,所述人脸识别模型为用于确定脱敏图像每一维特征的特征嵌入的深度学习网络模型;
第二训练模块,用于基于所述训练后的人脸识别模型和所述历史脱敏图像,对预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
11.根据权利要求10所述的装置,所述第二训练模块,用于:
基于所述训练后的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述预先构建的概率隐私打分模型,获取所述历史脱敏图像每一维特征的隐私概率;
基于所述历史脱敏图像每一维特征的特征嵌入和隐私概率,确定所述历史脱敏图像的特征分数;
基于所述历史脱敏图像的特征分数和预设损失函数,对所述预先构建的所述概率隐私打分模型进行训练,得到所述预先训练的概率隐私打分模型。
12.根据权利要求11所述的装置,所述第二训练模块,用于:
基于预设向量算法对第一向量和第二向量进行处理,并将处理后的结果确定为所述历史脱敏图像的特征分数,所述第一向量为由所述历史脱敏图像每一维特征的特征嵌入构成的向量,所述第二向量为由所述历史脱敏图像每一维特征的隐私概率构成的向量。
13.根据权利要求10所述的装置,所述第一训练模块,用于:
基于所述预先构建的人脸识别模型,获取所述历史脱敏图像每一维特征的特征嵌入;
基于所述历史脱敏图像每一维特征的特征嵌入和预设损失函数,对所述人脸识别模型进行训练。
14.一种基于隐私保护的数据处理设备,所述基于隐私保护的数据处理设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
15.一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
获取目标图像,所述目标图像为基于目标脱敏算法对待脱敏的第一图像进行处理后的脱敏图像;
基于预先训练的概率隐私打分模型,确定所述目标图像每一维特征的隐私概率,所述概率隐私打分模型为基于历史脱敏图像进行训练得到的,用于确定脱敏图像每一维特征的隐私概率的深度学习网络模型,所述历史脱敏图像为基于所述目标脱敏算法处理后的脱敏图像;
基于所述目标图像每一维特征的隐私概率,确定所述目标图像的隐私分数,并基于所述目标图像的隐私分数,确定所述目标脱敏算法是否符合预设图像脱敏需求,以防止个人隐私数据泄露。
CN202011172857.3A 2020-10-28 2020-10-28 一种基于隐私保护的数据处理方法、装置及设备 Active CN112200132B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011172857.3A CN112200132B (zh) 2020-10-28 2020-10-28 一种基于隐私保护的数据处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011172857.3A CN112200132B (zh) 2020-10-28 2020-10-28 一种基于隐私保护的数据处理方法、装置及设备

Publications (2)

Publication Number Publication Date
CN112200132A true CN112200132A (zh) 2021-01-08
CN112200132B CN112200132B (zh) 2022-06-03

Family

ID=74012009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011172857.3A Active CN112200132B (zh) 2020-10-28 2020-10-28 一种基于隐私保护的数据处理方法、装置及设备

Country Status (1)

Country Link
CN (1) CN112200132B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112800468A (zh) * 2021-02-18 2021-05-14 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN112818389A (zh) * 2021-01-26 2021-05-18 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN113343295A (zh) * 2021-06-07 2021-09-03 支付宝(杭州)信息技术有限公司 基于隐私保护的图像处理方法、装置、设备和存储介质
CN114758423A (zh) * 2022-04-29 2022-07-15 支付宝(杭州)信息技术有限公司 一种生物识别方法、装置及设备
WO2023071563A1 (zh) * 2021-11-01 2023-05-04 北京地平线信息技术有限公司 脱敏方法的可靠性验证的方法、装置、介质、设备和程序

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150261787A1 (en) * 2014-03-12 2015-09-17 Google Inc. Adjustment of facial image search results
CN107563217A (zh) * 2017-08-17 2018-01-09 北京交通大学 一种保护用户隐私信息的推荐方法和装置
CN109409121A (zh) * 2018-09-07 2019-03-01 阿里巴巴集团控股有限公司 脱敏处理方法、装置和服务器
CN110135193A (zh) * 2019-05-15 2019-08-16 广东工业大学 一种数据脱敏方法、装置、设备及计算机可读存储介质
CN110955914A (zh) * 2019-12-02 2020-04-03 智器云南京信息科技有限公司 一种待脱敏数据的处理方法、系统、终端设备和存储介质
CN111177781A (zh) * 2019-12-30 2020-05-19 北京航空航天大学 一种基于异构信息网络嵌入的差分隐私推荐方法
CN111506924A (zh) * 2020-06-08 2020-08-07 Oppo广东移动通信有限公司 一种差分隐私保护方法、装置及计算机可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150261787A1 (en) * 2014-03-12 2015-09-17 Google Inc. Adjustment of facial image search results
CN107563217A (zh) * 2017-08-17 2018-01-09 北京交通大学 一种保护用户隐私信息的推荐方法和装置
CN109409121A (zh) * 2018-09-07 2019-03-01 阿里巴巴集团控股有限公司 脱敏处理方法、装置和服务器
CN110135193A (zh) * 2019-05-15 2019-08-16 广东工业大学 一种数据脱敏方法、装置、设备及计算机可读存储介质
CN110955914A (zh) * 2019-12-02 2020-04-03 智器云南京信息科技有限公司 一种待脱敏数据的处理方法、系统、终端设备和存储介质
CN111177781A (zh) * 2019-12-30 2020-05-19 北京航空航天大学 一种基于异构信息网络嵌入的差分隐私推荐方法
CN111506924A (zh) * 2020-06-08 2020-08-07 Oppo广东移动通信有限公司 一种差分隐私保护方法、装置及计算机可读存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818389A (zh) * 2021-01-26 2021-05-18 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN112818389B (zh) * 2021-01-26 2023-12-22 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN112800468A (zh) * 2021-02-18 2021-05-14 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN112800468B (zh) * 2021-02-18 2022-04-08 支付宝(杭州)信息技术有限公司 一种基于隐私保护的数据处理方法、装置及设备
CN113343295A (zh) * 2021-06-07 2021-09-03 支付宝(杭州)信息技术有限公司 基于隐私保护的图像处理方法、装置、设备和存储介质
CN113343295B (zh) * 2021-06-07 2023-01-24 支付宝(杭州)信息技术有限公司 基于隐私保护的图像处理方法、装置、设备和存储介质
WO2023071563A1 (zh) * 2021-11-01 2023-05-04 北京地平线信息技术有限公司 脱敏方法的可靠性验证的方法、装置、介质、设备和程序
CN114758423A (zh) * 2022-04-29 2022-07-15 支付宝(杭州)信息技术有限公司 一种生物识别方法、装置及设备

Also Published As

Publication number Publication date
CN112200132B (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
CN112200132B (zh) 一种基于隐私保护的数据处理方法、装置及设备
CN107957989B (zh) 基于集群的词向量处理方法、装置以及设备
CN113011483B (zh) 一种模型训练和业务处理的方法及装置
CN109214193B (zh) 数据加密、机器学习模型训练方法、装置以及电子设备
CN111930809A (zh) 数据处理方法、装置及设备
CN114429222A (zh) 一种模型的训练方法、装置及设备
CN115712866B (zh) 数据处理方法、装置及设备
CN111723550A (zh) 语句改写方法、装置、电子设备以及计算机存储介质
CN115981870A (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN116049761A (zh) 数据处理方法、装置及设备
CN117392694B (zh) 数据处理方法、装置及设备
CN113221717B (zh) 一种基于隐私保护的模型构建方法、装置及设备
CN115204395A (zh) 数据的处理方法、装置及设备
CN113992429B (zh) 一种事件的处理方法、装置及设备
CN111191090B (zh) 确定业务数据展示图类型的方法、装置、设备和存储介质
CN114638998A (zh) 模型更新方法、装置、系统及设备
CN115423485B (zh) 数据处理方法、装置及设备
CN115688130B (zh) 数据处理方法、装置及设备
CN112884478B (zh) 一种数据处理方法、装置及设备
CN114861665B (zh) 一种强化学习模型训练以及确定数据关系的方法及装置
CN112115952B (zh) 一种基于全卷积神经网络的图像分类方法、设备及介质
CN114817469B (zh) 文本增强方法、文本增强模型的训练方法及装置
CN110334681B (zh) 基于区块链的指静脉身份识别方法及系统
CN116304738A (zh) 数据处理方法、装置及设备
CN116186607A (zh) 一种模型的处理方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40044677

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant