CN116977157A - 一种图像处理方法、装置、设备、介质及程序产品 - Google Patents
一种图像处理方法、装置、设备、介质及程序产品 Download PDFInfo
- Publication number
- CN116977157A CN116977157A CN202310449360.9A CN202310449360A CN116977157A CN 116977157 A CN116977157 A CN 116977157A CN 202310449360 A CN202310449360 A CN 202310449360A CN 116977157 A CN116977157 A CN 116977157A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- original
- virtual
- editing interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 123
- 238000000034 method Methods 0.000 claims abstract description 98
- 238000000586 desensitisation Methods 0.000 claims description 230
- 238000006243 chemical reaction Methods 0.000 claims description 176
- 238000001514 detection method Methods 0.000 claims description 90
- 238000012549 training Methods 0.000 claims description 82
- 230000008569 process Effects 0.000 claims description 57
- 238000003860 storage Methods 0.000 claims description 47
- 230000000903 blocking effect Effects 0.000 claims description 41
- 238000004590 computer program Methods 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 45
- 210000000887 face Anatomy 0.000 description 39
- 230000006870 function Effects 0.000 description 38
- 238000005516 engineering process Methods 0.000 description 19
- 238000013473 artificial intelligence Methods 0.000 description 17
- 125000004122 cyclic group Chemical group 0.000 description 14
- 238000000605 extraction Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 210000000697 sensory organ Anatomy 0.000 description 12
- 238000002372 labelling Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 210000001508 eye Anatomy 0.000 description 9
- 230000001976 improved effect Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000014759 maintenance of location Effects 0.000 description 8
- 230000004438 eyesight Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 230000008093 supporting effect Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 5
- 210000001331 nose Anatomy 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000003467 cheek Anatomy 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003997 social interaction Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000006440 Open Bite Diseases 0.000 description 1
- 239000013566 allergen Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioethics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种图像处理方法、装置、设备、介质及程序产品;其中的方法包括:显示图像编辑界面,图像编辑界面中显示有原人脸;在图像编辑界面中将原人脸更新显示为虚拟人脸。采用本申请实施例能够将真实人脸脱敏为难以识别身份的虚拟人脸。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及人工智能领域,具体涉及一种图像处理方法、一种图像处理装置、一种计算机设备、一种计算机可读存储介质及一种计算机程序产品。
背景技术
人脸脱敏是用户隐私保护的重要手段;通过对人脸中敏感信息的脱敏处理,能够确保用户身份不被泄露。
目前,支持通过矩形框打码、马赛克或涂抹等方式对人脸进行脱敏处理;例如将整个人脸打上马赛克,再如采用单一颜色涂抹整个人脸或人脸中部分人脸部位。现有技术这种脱敏方式不仅会对人脸图像中除人脸中敏感信息以外的图像内容造成不必要的损坏,而且脱敏后的人脸比较粗糙,脱敏痕迹明显,降低人脸图像的美观性和趣味性。
发明内容
本申请实施例提供一种图像处理方法、装置、设备、介质及程序产品,能够将真实人脸脱敏为难以识别身份的虚拟人脸。
一方面,本申请实施例提供了一种图像处理方法,该方法包括:
显示图像编辑界面,图像编辑界面中显示有原人脸;
在图像编辑界面中将原人脸更新显示为虚拟人脸;其中,虚拟人脸保留原人脸的姿态属性,且虚拟人脸与原人脸的外观属性不同。
另一方面,本申请实施例提供了一种图像处理装置,该装置包括:
显示单元,用于显示图像编辑界面,图像编辑界面中显示有原人脸;
处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸;其中,虚拟人脸保留原人脸的姿态属性,且虚拟人脸与原人脸的外观属性不同。
在一种实现方式中,人脸的姿态属性包括:人脸朝向,以及人脸部位在人脸中的显示位置;人脸的外观属性包括以下至少一个:人脸部位的部位样式,视线,表情及穿戴。
在一种实现方式中,原人脸中不包含遮挡对象;处理单元,还用于:
当存在针对图像编辑界面中原人脸的脱敏操作时,输出脱敏操作界面;
在脱敏操作界面中显示至少一个脱敏操作选项,一个脱敏操作选项对应一种脱敏方式;
当脱敏操作界面中的目标脱敏操作选项被选中时,触发执行在图像编辑界面中将原人脸更新显示为虚拟人脸的步骤;虚拟人脸是按照目标脱敏操作选项对应的脱敏方式对原人脸进行脱敏所得到的。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为虚拟人脸脱敏方式;处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为遮挡脱敏方式;处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸;
采用遮挡对象遮挡虚拟人脸中的人脸部位;
其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,原人脸中包含遮挡对象;处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
将包含遮挡对象的原人脸更新显示为未被遮挡对象遮挡的虚拟人脸;
处理单元,还用于:
采用遮挡对象遮挡虚拟人脸中的人脸部位;其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,处理单元,还用于:
在将原人脸更新显示为虚拟人脸的过程中,显示更新进度信息;更新进度信息用于提示将原人脸更新显示为虚拟人脸的更新进度;
其中,更新进度信息的形式包括以下任一种:倒计时或者进度条。
在一种实现方式中,处理单元,还用于:
在图像编辑界面中将原人脸设置为选中状态;所述原人脸处于选中状态包括以下任一种:原人脸所在区域被选择框选中,原人脸被批注框批注显示,或者,原人脸被显示于图像编辑界面中的人脸显示区域内;
处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将处于选中状态的原人脸更新显示为虚拟人脸。
在一种实现方式中,处理单元,还用于:
响应于针对图像编辑界面中原人脸的识别操作,触发执行在图像编辑界面中将原人脸设置为选中状态的步骤;识别操作包括:针对图像编辑界面中全部原人脸的第一选择操作,以及,针对图像编辑界面中待处理的原人脸的第二选择操作;
其中,第一选择操作包括以下任一种:目标应用程序静默检测图像编辑界面中原人脸的操作,目标应用程序的应用类型包括以下任一种:游戏类型、训练数据回传类型或者车载类型;针对图像编辑界面中的人脸识别选项的触发操作;在图像编辑界面中执行的人脸识别手势操作;或者,在图像编辑界面中的语音信号输入操作。
在一种实现方式中,图像编辑界面中显示的原人脸属于目标图像,目标图像显示于图像编辑界面中;处理单元,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
调用训练好的人脸检测网络对目标图像进行人脸识别处理,得到目标图像中包含原人脸的人脸区域;并对目标图像进行区域裁剪,得到目标图像对应的人脸图像,人脸图像中包含目标图像中的原人脸;
调用训练好的第一人脸转换网络对人脸图像进行人脸转换处理,得到转换后的第一转换人脸图像,第一转换人脸图像中包含人脸部位被遮挡对象遮挡的原人脸;
调用训练好的第二人脸转换网络对第一转换人脸图像进行人脸转换处理,得到转换后的第二转换人脸图像,第二转换人脸图像中包含人脸部位未被遮挡对象遮挡的虚拟人脸;
采用第二转换人脸图像替换目标图像中的人脸区域,得到新的目标图像;新的目标图像中包含虚拟人脸。
在一种实现方式中,第一人脸转换网络用于将属于第一图像域的人脸图像转换为第二图像域;第二人脸转换网络用于将属于第二图像域的人脸图像转换为第一图像域;针对第一人脸转换网络和第二人脸转换网络的训练过程包括:
获取第一人脸转换网络对应的第一人脸判别网络,第二人脸转换网络对应的第二人脸判别网络;并基于第一人脸转换网络和第一人脸判别网络,生成从第一图像域到所述第二图像域的第一对抗生成损失信息;以及,基于第二人脸转换网络和第二人脸判别网络,生成从第二图像域到第一图像域的第二对抗生成损失信息;
根据第一人脸转换网络和第二人脸转换网络,分别计算第一图像域的第一重建损失信息和第二图像域的第二重建损失信息;
基于第一对抗生成损失信息、第二对抗生成损失信息、第一重建损失信息和第二重建损失信息构建损失函数;其中,损失函数中为第一重建损失信息和第二重建损失信息设置有权重参数;
按照训练原则调整权重参数,得到训练好的第一人脸转换网络和第二人脸转换网络;其中,训练原则包括:训练后的第二人脸转换网络所生成的虚拟人脸保留原人脸的姿态属性,且不保留原人脸的外观属性;以及,训练后的第一人脸转换网络所生成的人脸包含遮挡对象,且保留原人脸的外观属性。
另一方面,本申请实施例提供一种计算机设备,该计算机设备包括:
处理器,适于执行计算机程序;
计算机可读存储介质,计算机可读存储介质中存储有计算机程序,计算机程序被处理器执行时,实现如上述的图像处理方法。
另一方面,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,计算机程序适于由处理器加载并执行如上述的图像处理方法。
另一方面,本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述的图像处理方法。
本申请实施例中,在图像编辑界面中显示有包含敏感信息的原人脸,通过该敏感信息可以识别出原人脸所属的用户身份;在具有针对图像编辑界面中原人脸的脱敏需求时,可以在图像编辑界面中将原人脸更新显示为虚拟人脸。其中,该虚拟人脸能够保留原人脸的姿态属性,如原人脸的人脸姿态为低头姿态,那么虚拟人脸中的人脸部位应当贴合原人脸的姿态属性“低头姿态”,以减少人脸脱敏的痕迹,实现无感脱敏。并且,虚拟人脸的外观属性与原人脸的外观属性是不同的,如虚拟人脸中的一个或多个人脸部位的部位样式是与原人脸中相应人脸部位的部位样式不同的,使得虚拟人脸与原人脸从外观上是不同的,从而基于虚拟人脸难以识别出原人脸所属用户的身份,达到人脸彻底脱敏的效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请提供的一种现有人脸脱敏的示意图;
图1b是本申请一个示例性实施例提供的一种虚拟人脸的示意图;
图2a是本申请一个示例性实施例提供的一种图像处理系统的架构示意图;
图2b是本申请一个示例性实施例提供的另一种图像处理系统的架构示意图;
图2c是本申请一个示例性实施例提供的又一种图像处理系统的架构示意图;
图3是本申请一个示例性实施例提供的一种图像处理方法的流程示意图;
图4a是本申请一个示例性实施例提供的一种计算机设备获取目标图像的示意图;
图4b是本申请一个示例性实施例提供的另一种计算机设备获取目标图像的示意图;
图5a是本申请一个示例性实施例提供的一种用于介绍人脸的姿态属性的示意图;
图5b是本申请一个示例性实施例提供的一种用于介绍人脸的外观属性的示意图;
图6是本申请一个示例性实施例提供的一种将原人脸更新显示为虚拟人脸的示意图;
图7a是本申请一个示例性实施例提供的一种图像编辑界面中包含操作选择入口的示意图;
图7b是本申请一个示例性实施例提供的一种在图像编辑界面执行滑动操作的示意图;
图7c是本申请一个示例性实施例提供的一种通过振动触发显示脱敏操作界面的示意图;
图8a是本申请一个示例性实施例提供的一种将不包含遮挡对象的原人脸,转换为不包含遮挡对象的虚拟人脸的示意图;
图8b是本申请一个示例性实施例提供的另一种种将不包含遮挡对象的原人脸,转换为不包含遮挡对象的虚拟人脸的示意图;
图9是本申请一个示例性实施例提供的一种将包含遮挡对象的原人脸转换为虚拟人脸的示意图;
图10是本申请一个示例性实施例提供的一种将包含遮挡对象的原人脸转换为包含遮挡对象的虚拟人脸的示意图;
图11是本申请一个示例性实施例提供的一种更新进度信息为倒计时的示意图;
图12是本申请一个示例性实施例提供的一种更新进度信息为进度条的示意图;
图13是本申请一个示例性实施例提供的另一种图像处理方法的流程示意图;
图14是本申请一个示例性实施例提供的一种图像编辑界面中的原人脸处于选中状态的示意图;
图15是本申请一个示例性实施例提供的一种图像编辑界面中包含人脸识别选项的示意图;
图16是本申请一个示例性实施例提供的一种在图像编辑界面中执行双指捏操作来触发人脸识别的示意图;
图17a是本申请一个示例性实施例提供的一种在图像编辑界面中执行第二选择操作的示意图;
图17b是本申请一个示例性实施例提供的另一种在图像编辑界面中执行第二选择操作的示意图;
图18是本申请一个示例性实施例提供的一种将处于选中状态的原人脸更新显示为虚拟人脸的示意图;
图19是本申请一个示例性实施例提供的又一种图像处理方法的流程示意图;
图20是本申请一个示例性实施例提供的一种采用矩形框标注图像中人脸的示意图;
图21是本申请一个示例性实施例提供的一种人脸检测网络的网络结构的示意图;
图22是本申请一个示例性实施例提供的一种人脸转换数据集合的示意图;
图23是本申请一个示例性实施例提供的一种生成器网络的结构示意图;
图24是本申请一个示例性实施例提供的一种判别器网络的结构示意图;
图25是本申请一个示例性实施例提供的一种确定损失函数的流程示意图;
图26是本申请一个示例性实施例提供的一种图像处理装置的结构示意图;
图27是本申请一个示例性实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种图像处理方案,该方案具体涉及图像脱敏。所谓图像脱敏是去除图像中的敏感数据(或称为敏感信息),以实现保护个人隐私的过程;此处的敏感数据具体是指图像中能够用来识别用户身份的信息,如人脸的五官(包含多个人脸部位,人脸部位可以包括:眉毛、眼睛、鼻子、嘴巴、耳朵、脸颊和额头等)、身份信息或车牌等等;本申请实施例对敏感信息的具体类型不作限定。进一步的,本申请实施例提供的图像处理方案主要涉及的是针对人脸中敏感信息的图像脱敏,即针对人脸图像(在本申请实施例中可以称为目标图像,即包含人脸的任一图像)中的敏感信息“人脸”进行脱敏,使得脱敏后的人脸图像不能识别出原人脸所属用户的身份;在本申请实施例中将人脸图像中待脱敏的人脸称为原人脸,特在此说明。
本申请实施例提供的图像处理方案的大致原理可以包括但是不限于:在计算机设备的显示屏幕中可以显示图像编辑界面中,该图像编辑界面中包含待脱敏的原人脸;那么计算机设备可以对该原人脸进行脱敏处理,使得在图像编辑界面中将原人脸更新显示为虚拟人脸。其中,该虚拟人脸保留了原人脸的姿态属性,且虚拟人脸的外观属性与原人脸的外观属性是不同的。由此可见,一方面,对原人脸脱敏处理所得到的虚拟人脸的姿态是与原人脸的人脸姿态相同的,那么虚拟人脸中的人脸部位也贴合原人脸的人脸姿态,以减少人脸脱敏的痕迹,实现无感脱敏。另一方面,虚拟人脸中的一个或多个人脸部位的部位样式是与原人脸中相应人脸部位的部位样式不同的,使得虚拟人脸与原人脸从外观上是不同的,从而基于虚拟人脸难以识别出原人脸所属用户的身份,达到人脸彻底脱敏的效果;也就是说,本方案能够实现脱敏后的虚拟人脸看起来是很自然地,进而达到无感脱敏的效果,提升用户体验。
本申请实施例提供的图像处理方案,相比于现有主流的人脸脱敏具有明显优势;下面对本申请实施例提供的图像处理方案所涉及的人脸脱敏,和现有主流人脸脱敏进行对比说明。如图1a所示,现有技术支持采用具有透明度的矩形框(如矩形框的透明度为0%、20%等)直接对人脸图像中的人脸所在区域进行覆盖,以实现去除人脸隐私信息;可以理解的是,具有矩形框是一个形状规则的框,而人脸往往是轮廓缓和的形状,这使得矩形框会覆盖图像中部分非人脸区域,对图像造成不必要的损坏,从而降低脱敏后的人脸在下游产品中的使用效果(如在训练数据回传场景中,模型采用不包含五官或五官不清晰的人脸作为样本,进行用户识别)。并且,矩形框的透明度会导致人脸中五官不清楚,用户直观感受到脱敏后人脸是不自然的,导致图像中人脸去除痕迹明显。
然而,本申请实施例提供的图像处理方案,是通过将人脸图像中的原人脸转换为虚拟人脸,实现人脸脱敏,达到保护个人隐私的目的。将人脸图像中的原人脸更新为虚拟人脸的示意图可以参见图1b,如图1b中虚拟人脸的五官是与原人脸不同的,且虚拟人脸的五官并不属于一个真实人或虚拟动漫角色的五官,从而基于该虚拟人脸难以识别出某个对象(如真实用户或动漫角色)的身份,从而实现针对原人脸的彻底脱敏。并且,虚拟人脸中包含有清晰的五官,且虚拟人脸保留了原人脸的姿态属性,如原人脸的姿态属性是人脸向左倾斜,那么虚拟人脸的姿态属性也是向左倾斜,从而确保虚拟人脸中的五官也能够贴合姿态属性显示,进而降低了人脸脱敏的痕迹,不易察觉该虚拟人脸是脱敏后的人脸,不仅保持了图像的和谐美观,而且有利于人脸脱敏后下游应用的开发。
基于上述对图像处理方案的简单介绍,本申请实施例还需说明如下几点:
(1)图像处理方案所适用的应用场景。本申请实施例提供的图像处理方案的应用场景可以包括任何需要人脸脱敏的应用场景,包括但不限于以下至少一种:训练图像回传场景、车载场景和直播场景等。下面对图像处理方案应用于上述示例性场景的具体实施过程进行相关介绍,其中:
1)训练数据回传场景。
在实际应用中,在一些算法训练过程中需要用到人脸图像作为训练数据;例如,图像感知算法是一类可以用于目标检测的算法,如通过该图像感知算法从图像中检测出行人、车辆、车道线、交通牌、交通灯和可行驶区域等目标,这些感知算法的开发和迭代需要用到大量的图像数据。其中,用于算法训练的图像数据可以是来自于车辆,即车辆上部署有图像采集装置(如摄像头),以通过该图像采集装置采集图像,作为算法训练的图像数据。例如,通过专属用于图像采集的图像数据采集车获取图像数据;再如,考虑到市场上量产车(如广泛售卖至社会的任意车辆)数量多且分布广,对图像数据的数量和多样性都有较强保证,因此还将量产车拍到的图像回传,作为算法训练的图像数据。然而,不管是从图像数据采集车还是量产车回传的图像,均会包含人脸等敏感信息,需要先进行脱敏处理;如果采用上述提及的现有主流人脸脱敏(如打码或者不自然的换脸),会产生明显的图像修改痕迹,降低图像质量,不利于感知算法的训练;但是,使用本申请实施例提出的这种无感脱敏的图像处理方案,能够在实现脱敏的同时较大限度地避免图像被破坏,且保留脱敏后的人脸仍然包含清晰地五官,这种包含清晰五官的人脸更符合算法训练要求,从而提升算法训练的友好性。
2)车载场景。
车载场景可以包括与车辆相关的任意场景;包括但是不限于:驻车哨兵场景和远程自动泊车场景等等。其中:①车载场景为驻车哨兵场景,此情况下,车辆在驻车状态下,可以通过雷达等传感器实时感知周围情况;当检测到车辆附件存在异常情况(如有人靠近)时,车端将异常情况实时通知给车主,此时车主可以通过终端设备(如部署有与车辆中运行的图像采集应用对应的应用的智能手机等设备),通过车载摄像头远程实时查看车辆周围情况。②车载场景为远程自动泊车场景,此情况下,在车主通过终端设备对车辆进行远程泊车的过程中,需要通过车载摄像头将实时采集的车辆周围的图像传输至车主所持有的终端设备;这样车主可以通过终端设备输出的实时图像及时掌握车辆周围情况,从而确保车辆能够安全且正确的停靠至正确位置。
值得注意的是,无论是车载场景是驻车哨兵场景还是远程自动泊车场景,自动推送给车主的图像均需要进行脱敏,若图像脱敏痕迹太严重,会大大降低图像的美观性,影响车主的使用感受。这样采用本申请实施例提出的无感脱敏的图像处理方案,即将人脸图像中的原人脸替换为虚拟人脸的方式,在保留原人脸的姿态属性的同时能够通过人脸外观属性的不同,确保人脸五官脱敏,降低人脸脱敏痕迹,使得车主基本看不出图像脱敏的痕迹,增加实时视频的美观性,有利于提高产品的竞争力。还值得说明的是,为便于查看车辆附近的异常情况,本申请实施例还支持在车辆本地保存一份未脱敏图像,这样在远程确认有偷盗、砸车等异常行为,需要确认人脸时,就可以到车辆本地调看未脱敏图像,以确保车辆安全。可选的,在车辆本地保留未脱图像可以是默认的,即在应用场景中默认在车辆本地保留一份未脱敏图像。可选的,在车辆本地保留未脱敏图像还可以是由用户自主确定的。例如,在应用场景为车载场景时,支持显示人脸留存提示信息,该人脸留存提示信息用于指示是否备份未遮挡人脸部位的人脸;如果用户想要在车辆本地保存未脱敏图像,则可以针对该人脸留存信息执行确认操作,此时计算机设备响应于针对该人脸留存提示信息的确认操作,显示留存通知信息,该留存通知信息中包含原人脸的留存地址信息,以便于用户直观且及时的了解未脱敏图像的保存位置,方便用户查看图像。
3)直播场景。
本申请实施例对直播场景具体直播形式或内容不作限定;如直播场景可以包括但是不限于:游戏直播、音视频直播和商品交易直播等。其中:①直播场景为游戏直播;此情况下,在游戏直播中游戏主播可能并不想让自己真实的面貌被网友看见,那么游戏主播可以使用本方案提供的脱敏方式将自己真实的人脸替换为虚拟人脸;这样网友根据该虚拟人脸并不能识别出游戏主播真实的身份,在达到保护游戏主播的个人隐私的情况下,还能够凭借虚拟人脸保留原人脸的姿态属性的特性,降低游戏主播在主播时虚拟人脸的脱敏痕迹,提高网友观看直播的感受和体验。②直播场景为音视频直播,具体可以为唱歌直播;此情况下,如果主播只想让网友听见自己的声音,但不想让网友看到自己的面貌,那么主播可以使用本方案提供的脱敏方式将自己真实的人脸替换为虚拟人脸;这样网友根据该虚拟人脸并不能识别出主播真实的身份。③直播场景为商品交易直播,如主播在直播过程中通过试穿待出售的衣服来促进衣服的销售;此情况下,如果主播不想让网友看见自己的真实面貌,那么主播可以使用本方案提供的脱敏方式将自己真实的人脸替换为虚拟人脸;这样网友根据该虚拟人脸并不能识别出主播真实的身份,且虚拟人脸的脱敏痕迹不重,不会影响直播效果。
综上所述,本申请实施例提供的友好型(如体现在敏感信息的无感脱敏)的图像处理方案能够适用于任意需要人脸脱敏的应用场景中。此外,本申请实施例提供的图像处理方案所适用的应用场景并不仅限于上述几种应用场景;本申请实施例提供的图像处理方案可以应用于各种应用场景,包括但是不限于云技术、人工智能、智慧交通以及辅助驾驶等场景。举例来说,应用场景还可以包括人流检测场景中,如在人流密集的地方可以部署人流检测设备,并由人流检测设备将采集的环境图像传输至用户(即拥有人流检测设备的查看或管理权限的任意用户),以便于用户基于环境图像及时了解环境情况。在上述提及的人流检测(如实时检测)场景中,同样需要对传输至用户的环境图像进行人脸脱敏处理,以在一定程度上确保人脸隐私性,以及在人流检测设备本地存储一份未脱敏图像,以便于在需要排除异常情况时,能够确认人脸。还需说明的是,本申请实施例运用到具体产品或技术中时,如获取车辆采集的图像时,不可避免要获取具有车辆管理权限的车主的信息(如车主名称或编号等),那么需要获得车主的许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
(2)图像处理方案的执行主体。
本申请实施例提供的图像处理方案的执行主体为计算机设备。其中,计算机设备可以:终端设备和/或服务器;终端设备该可以包括但是不限于:智能手机(如Android手机、iOS手机等,可以简称为手机)、平板电脑(或简称为电脑)、便携式个人计算机、移动互联网设备(Mobile Internet Devices,简称MID)、智能语音交互设备、智能家电、车载设备(或称为车载终端)、头戴设备以及飞行器等可以进行触屏的智能设备。服务器可以包括但是不限于:数据处理服务器、Web服务器、应用服务器等等具有复杂计算能力的设备。服务器可以是独立的物理服务器,也可以是由多个物理服务器构成的服务器集群或者分布式系统。目标终端设备和服务器可以通过有线或无线方式进行直接或间接地通信连接,本申请实施例并不对目标终端和计算机设备之间的连接方式进行限定。
进一步的,前述描述可知,本申请实施例提供的图像处理方案可以应用于多种应用场景中,那么根据图像处理方案所应用的应用场景的不同,用于执行本申请实施例提供的图像处理方案的执行主体“计算机设备”有所不同。其中:
可选的,计算机设备可以是用户所使用的终端设备。如图2a所示,假设应用场景为车载场景,那么车辆上部署的摄像头直接将采集的图像传输至终端设备,由终端设备对图像执行人脸脱敏并显示脱敏后的图像。当然,摄像头还可以将采集的图像先发送至服务器,再由服务器转发至终端设备,以便于终端设备对图像执行人脸脱敏并显示。不管摄像头采集的图像是否经过服务器中转,针对图像的脱敏处理过程均是由终端设备来执行的。
可选的,计算机设备可以是服务器。如图2b所示,假设应用场景为训练数据回传场景,模型训练平台(或具有模型训练功能的服务器)可以自动采集用于模型训练的人脸图像,并对人脸图像进行脱敏处理,以便于基于脱敏处理后的图像进行后续的模型训练任务等。当然,模型训练平台在将人脸脱敏处理后,可以将脱敏后的图像发送至终端设备,以便于训练人员及时查看脱敏后人脸。
可选的,计算机设备可以是用户所使用的终端设备,和终端设备所对应的服务器;也就是说,图像处理方案可以由终端设备和服务器共同执行。如图2c所示,车辆上部署的摄像头将采集的图像传输至后台服务器后,可以由该后台服务器来对图像执行人脸脱敏,并将脱敏后的图像发送至终端设备进行脱敏显示。其中,终端设备和服务器可以通过有线或无线方式进行直接或间接地通信连接,本申请实施例并不对目标终端和计算机设备之间的连接方式进行限定。
需要说明的是,本申请实施例对计算机设备的具体设备类型不作限定;为便于阐述,后续实施例以计算机设备为终端设备为例进行说明。
更进一步的,本申请实施例提供的图像处理方案,具体可以是由计算机设备中部署的目标应用程序或插件所执行的。上述提及的,目标应用程序或插件中集成有本申请实施例提供的人脸脱敏功能,那么可以通过终端设备调用目标应用程序或插件,以使用人脸脱敏功能。其中,目标应用程序可是指为完成某项或多项特定工作的计算机程序;按照不同维度(如应用程序的运行方式、功能等)对应用程序进行归类,可得到同一应用程序在不同维度下的类型,其中:①按照应用程序的运行方式分类,应用程序可包括但不限于:安装在终端中的客户端、无需下载安装即可使用的小程序、通过浏览器打开的web应用程序等等。②按照应用程序的功能类型分类,应用程序可包括但不限于:IM(Instant Messaging,即时通信)应用程序、内容交互应用程序等等;其中,即时通信应用程序是指基于互联网的即时交流消息和社交交互的应用程序,即时通信应用程序可以包括但不限于:包含通信功能的社交应用程序、包含社交交互功能的地图应用程序、游戏应用程序等等。内容交互应用程序是指能够实现内容交互的应用程序,例如可以是网银、分享平台、个人空间、新闻等应用程序。本申请实施例对具有人脸脱敏功能的目标应用程序具体为上述哪种类型的应用程序不作限定。
(3)图像处理方案具体是基于模型实现的。
本申请实施例提供的图像处理方案,主要是利用人工智能(Artificial Intelligence,AI)训练得到人脸检测网络和人脸转换网络,以通过该人脸检测网络在人脸图像中进行目标检测(此处的目标是指人脸),以确定出人脸图像中人脸所在区域;进一步的,通过人脸转换网络对从人脸图像进行转换,以得到虚拟人脸,实现图像脱敏的过程;本申请在后续实施例对基于人工智能实现脱敏处理的具体实现逻辑进行介绍。
其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例主要涉及人工智能领域下的计算机视觉技术和机器学习等方向。其中:①计算机视觉技术(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟随和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术。
本申请实施例具体涉及计算机视觉技术下的视频语义理解(video semanticunderstanding,VSU);视觉语义理解又可以进一步细分为目标检测与定位(targetdetection/localization)、目标识别(target recognition)和目标跟随(targettracking)等等。更为详细地,本申请实施例提供的图像处理方案主要涉及视频语义理解下的目标检测和定位(或简称为目标检测)。其中,目标检测是一种与计算机视觉和图像处理相关的计算机技术,用于检测数字图像(或称为电子图像,可以简称为图像)和视频中特定类别的语义对象(如人,建筑物或汽车,在本申请实施例中是指人脸)的实例。
②机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。机器学习可以被看成一项任务,这个任务的目标就是让机器(广义上的计算机)通过学习来获得类似人类的智能。例如人类能从图像或视频中识别感兴趣的目标,那么计算机程序(AlphaGo或AlphaGo Zero)被设计成掌握了目标识别能力的程序。其中,多种方法可用来实现机器学习的任务,比如,神经网络、线性回归、决策树、支持向量机、贝叶斯分类器、强化学习、概率图模型、聚类等多种方法。
其中,神经网络(Neural Network)是实现机器学习任务的一种方法,在机器学习领域谈论神经网络,一般是指“神经网络学习”。它是一种由许多简单元组成的网络结构,这种网络结构类似于生物神经系统,用来模拟生物与自然环境之间的交互,并且网络结构越多,神经网络的功能往往越丰富。神经网络是一个比较大的概念,针对语音、文本、图像等不同的学习任务,衍生出了更适用于具体学习任务的神经网络模型,如递归神经网络(Recurrent Neural Network,RNN)、卷积神经网络(Convolutional Neural Network,CNN)、全连接卷积神经网络(fully convolutiona l neural network,FCNN)等等。
基于上述描述的图像处理方案,本申请实施例提出更为详细的图像处理方法,下面将结合附图对本申请实施例提出的图像处理方法进行详细介绍。请参见图3,图3示出了本申请一个示例性实施例提供的一种图像处理方法的流程示意图;该图像处理方法可以由前述提及的计算机设备执行,如计算机设备为终端设备,该方法可包括步骤S301-S302:
S301:显示图像编辑界面。
图像编辑界面是用于实现人脸脱敏的用户界面(User Interface,UI),是系统和用户之间进行交互和信息交换的媒介。由前述描述可知,本申请实施例提供的图像处理方法可以集成至插件或目标应用程序,那么该图像编辑界面可以是由插件或目标应用程序提供,并由部署插件或目标应用程序的终端设备显示的。具体实现中,在用户具有查看图像的需求时,用户可以使用终端设备打开并显示目标应用程序提供的图像编辑界面;在该图像编辑界面中可以显示待脱敏的原人脸,该原人脸具体是属于目标图像的,即原人脸可以是通过目标图像显示于图像编辑界面中的。
值得注意的是,本申请实施例对图像编辑界面中的目标图像的来源不作限定;目标图像的来源方式可以包括但是不限于:由计算机设备自动采集的;或者,计算机设备通过网络通信接收的;或者,由用户选择的。下面对上述给出的几种示例性的目标图像的获取方式进行示例性介绍,其中:
(1)目标图像是由计算机设备自动采集的。例如,在前述描述的训练数据回传场景中,计算机设备可以从网络或者其他图像库中自动获取目标图像,以便于将目标图像脱敏后的图像用作模型训练的训练数据。再如,在直播场景中,考虑到保护主播的个人隐私,可以由计算机设备(如主播所使用的终端设备)主动采集直播过程中包含主播人脸的直播画面,并将该直播画面作为待处理的目标人脸;进而将脱敏处理后的目标人脸输出到观看直播的各观众所使用的终端设备中进行显示;这样对于各观众而言,看到的直播画面是包含虚拟人脸,而非主播真实人脸的画面,达到保护主播隐私的目的。
(2)目标图像可以是由计算机设备通过网络通信接收的。例如,在前述描述的车载场景中,计算机设备可以接收车辆上部署的摄像头实时拍摄的图像,并将该实时拍摄的图像作为待脱敏的目标图像。再如,未部署人脸脱敏功能的任一设备具有人脸脱敏需求时,该任一设备还可以将待脱敏的目标图像发送至部署有人脸脱敏功能的计算机设备中;这样该计算机设备在接收到待脱敏的目标图像后,可以对该目标图像进行人脸脱敏,并将脱敏后的目标图像返回至该任一设备进行显示。
需要说明的是,计算机设备自动采集或者通过网络通信获取目标图像的场景并非仅限于上述给出的几种。下面结合附图给出计算机设备在显示屏幕中输出获取到的目标图像的界面示意图;如图4a所示,目标应用程序提供有图像预览界面,在该图像预览界面中可以包括第一展示区域401和第二展示区域402。其中,第一展示区域401可以用于展示计算机设备获取到的多个目标图像,具体可以列表形式展示多个目标图像;考虑到显示屏幕的显示面积是有限的,而目标图像的数量往往是较多的,因此本申请实施例支持用户在第一展示区域401中执行滑动操作以滑动显示被隐藏的部分目标图像;当然,除了执行滑动操作显现被隐藏目标图像外,还可以通过按压第一展示区域中的滑动轴,以滑动显示被隐藏的目标图像,本申请实施例对在第一展示区域中触发显示被隐藏目标图像的触发方式不作限定。第二展示区域402可以用于展示第一展示区域401中某个目标图像;具体地,用户具有对第一展示区域401中某个目标图像进行查看的需求时,可以在第一展示区域401中点击相应的目标图像,此时可以在第二展示区域402中显示被点击的目标图像。当然,在第二展示区域402中触发显示目标图像的方式并不仅限于上述提及的点击操作,还可以是通过外接输入设备(如鼠标)来将第一展示区域401中的目标图像显示于第二展示区域402中的;例如,鼠标控制的光标落在第一展示区域401中时,可以通过上下滚动鼠标按键,此时可以动态地将光标所在的目标图像显示于第二展示区域402中,以达到便捷查看目标图像的目的,提高目标图像查看的简洁性。
为便于用户直观感知正在浏览的图像具体是哪张图像,本申请实施例还支持在第一展示区域401中突出显示被显示于第二展示区域402中的目标图像。如图4a所示,假设默认第一展示区域401中的首张目标图像403被显示于第二展示区域402中,则该目标图像403在第二展示区域402中被突出显示。本申请实施例对目标图像的突出显示方式不作限定,包括但是不限于:灰度显示(如被选中的目标图像的背景灰度大于未被选中的目标图像的背景灰度)、浮层显示(如从视觉上被选中的目标图像好像是位于第一展示区域401之上的浮窗形式)或者放大显示(如被选中的目标图像的显示面积大于未被选中的目标图像的显示面积)。
(3)目标图像可以由用户选择的。例如,用户从计算机设备的存储空间或网络中下载的图像,或者从视频(如车载设置拍摄的视频)中截取的图像等等。以满足目标对象自定义选中人脸脱敏的图像需求,提升用户体验。一种目标应用程序支持用户从本地内存中获取待脱敏的目标图像的示例性示意图可以参见图4b;如图4b所示,在目标应用程序提供的图像编辑界面中包含图像获取入口404;当该图像获取入口404被触发时,表示用户想要从本地内存中拉取目标图像,那么可以触发显示存储界面,该存储界面中包含有计算机设备缓存的一个或多个图像;响应于针对该一个或多个图像中任一图像的选择操作,可以将被选择的图像显示于图像编辑界面中作为待脱敏的目标图像。
应当理解的是,上述只是给出几种示例性的计算机设备获取目标图像的实现过程,本申请实施例并不限定仅通过上述方式来获取目标图像。此外,上述描述的图4a和图4b只是本申请实施例给出的两种示例性的图像编辑界面的示意图。在实际应用中,图像编辑界面的样式可能随着计算机设备的类型有所变化;例如,计算机设备为个人电脑时图像编辑界面可以是如图4a(或图4b)所示的长大于宽的矩形样式,在计算机设备为智能手机时图像编辑界面又可以是长小于宽的矩形样式。当然,本申请实施例对图像编辑界面中的显示内容和内容样式也并不限定;如图像编辑界面中除了包含图4a和图4b所示的显示内容外,还可以包含分享组件(或控件、按键、按钮等)405,这样用户可以通过该分享组件将图像编辑界面中脱敏后的目标图像进行分享,不仅丰富图像编辑功能,而且在一定程度上提升用户体验。
综上所述,本申请实施例支持丰富的目标图像的获取方式,不仅支持由用户自主选择还可以是由计算机设备自动采集,丰富目标应用程序实现人脸脱敏的路径,从而丰富人脸脱敏应用场景,促进人脸脱敏的推广。
S302:在图像编辑界面中将原人脸更新显示为虚拟人脸。
在图像编辑界面中更新后的虚拟人脸能够保留原人脸的姿态属性,且虚拟人脸的外观属性与原人脸的外观属性不同。其中:①人脸的姿态属性可以包括但是不限于:人脸朝向,以及人脸部位在人脸中的显示位置。详细地,人脸的人脸朝向可以由人脸的偏转角度来表示。下面结合附图5a来对人脸的姿态属性进行简单说明,如图5a所示的第一附图,该第一附图中包含人脸501,该人脸501并未发生偏转,即该人脸501的偏转角度为0,这样可以确定该人脸501的人脸姿态(具体是人脸朝向)为正面朝向;反之,如图5a所示的第二附图,该第二附图中包含人脸502,该人脸502发生偏转,且该人脸502的偏转角度大致为向右偏转90度,则确定该人脸502的人脸姿态为向右偏转90度的姿态。可以理解的是,随着人脸的人脸朝向的变化,那么人脸中的人脸部位(如眼睛、鼻子、嘴巴和耳朵等)随着人脸朝向的不同在人脸中的显示位置有所不同;如图5a所示的第二附图中的人脸朝向为向右偏转90度,那么该人脸中的五官“两只眼睛”此时是以上下形式呈现的,而不是以正面朝向时平行形式呈现。当然,人脸中的发型或者佩戴于人脸部位的装饰品的显示位置和样式也会随着人脸朝向的变化而变化,在此不作赘述。
②人脸的外观属性可以包括以下至少一种:人脸部位的部位样式,视线,表情及穿戴等用于描述人脸外观的属性。下面结合图图5b对人脸的外观属性进行简单介绍;如图5b所示的第一附图,该第一附图中包含人脸503,该人脸503的外观属性包括:人脸503的表情为眨眼表情,人脸503中的人脸部位“右眼”为闭眼样式,人脸503的视线为平视以及人脸503的穿戴,如发型为长发等。同理,如图5b所示的第二附图,该第二附图中包含人脸504,该人脸504的外观属性包括:人脸503的表情为微笑表情,人脸503的视线为平视以及人脸503的穿戴,如发型为短发等。
在具体实现中,本申请实施例支持在图像编辑界面中将能够通过外观属性识别出用户身份的原人脸,更新显示为通过外观属性不能识别出用户身份的虚拟人脸;在本申请实施例中可以认为该虚拟人脸不对应任何用户身份,即基于该虚拟人脸的外观属性不能识别出任意用户。但是,为了确保更新后的虚拟人脸没有较重的脱敏痕迹,需要保持虚拟人脸的姿态属性与原人脸的姿态属性一致,以确保脱敏后的目标图像的自然性、美观性及和谐性。
一种在图像编辑界面中将原人脸更新显示为虚拟人脸的示意图可以参见图6;如图6所示,图像编辑界面中原人脸的姿态属性“人脸朝向”为向右下方偏转,将该原人脸更新显示为虚拟人脸后,该虚拟人脸的姿态属性“人脸朝向”与原人脸的姿态属性“人脸朝向”一致;并且为适应新的虚拟人脸的人脸朝向,虚拟人脸中的五官的显示位置也是与原人脸中相应五官的显示位置一致的。进一步的,虚拟人脸的外观属性与原人脸的外观属性是不同的,如原人脸中的嘴型和虚拟人脸中的嘴型不同,和/或原人脸中的鼻型和虚拟人脸中的鼻型不同,通过外观属性的不同使得虚拟人脸从整体上看起来和原人脸是不同的(如神情,面貌或表情等都不同)。
由此可见,一方面保持虚拟人脸的人脸姿态和原人脸的人脸姿态的一致性,降低人脸脱敏的痕迹,以便于用户不易察觉虚拟人脸是脱敏后人脸;另一方面,保证虚拟人脸的外观属性和原人脸的外观属性是不同的,以基于脱敏后的虚拟人脸的外观属性难以识别出原人脸所属用户的身份,达到彻底脱敏,保护个人隐私的目的。
进一步的,本申请实施例在将原人脸转换为虚拟人脸后,还支持为该虚拟人脸佩戴遮挡对象,通过这种由原人脸→虚拟人脸→包含遮挡对象的虚拟人脸的循环转换的方式,可以进一步提升脱敏程度,有效保护个人隐私;当然,上述循环转换的过程还可以进一步细化为:原人脸→包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸→包含遮挡对象的虚拟人脸。其中,遮挡对象是用于遮挡人脸中的一个或多个人脸部位的物品;根据待遮挡的人脸部位的不同,遮挡对象的类型有所不同;例如,遮挡对象为眼镜(如墨镜)那么该遮挡对象对应的人脸部位可以包括眼睛,或者眼睛和眉毛;再如,遮挡对象为口罩,那么该遮挡对象对应的人脸部位可以包括鼻子、嘴巴和脸颊;等等。应当理解的是,为虚拟人脸佩戴的遮挡对象的数量可以不止一个,如同时采用遮挡对象“眼镜”和“口罩”对虚拟人脸进行遮挡,以进一步的保护虚拟对象对应的原人脸的隐私。更进一步的,在目标图像中往往不止包含用户的人脸,还包含全部或部分身体部分;因此,本申请实施例还支持为人脸对应的身份部分进行脱敏,包括但不限于:为身体部分换装(如更新衣服样式,或者衣服颜色)或者调整身体部分的形态(如变瘦或变胖)等。这样在对原人脸进行脱敏的基础上,可以通过改变身体部分的着装或形态进一步实现脱敏,从而避免根据身体部分的形态或着装识别出原人脸对应的用户身份,达到彻底脱敏的效果。
为丰富用户的脱敏选择权限,提升用户体验,本申请实施例支持由用户来选择具有采用哪种方式脱敏来对原人脸进行脱敏;其中,脱敏方式可以包括上述提及的虚拟人脸脱敏方式和遮挡脱敏方式(如采用口罩脱敏)。具体实现中,当计算机设备检测到针对图像编辑界面中的原人脸的脱敏操作时,可以输出脱敏操作界面;在该脱敏操作界面中显示有至少一个脱敏操作选项,一个脱敏操作选项对应一种脱敏方式;那么用户可以按照自己的脱敏需求从脱敏操作界面中选择想要的脱敏方式对应的目标脱敏操作选项,这样当计算机设备检测到脱敏操作界面中的目标脱敏操作选项被选中时,触发执行在图像编辑界面中将原人脸更新显示为虚拟人脸的步骤;其中,虚拟人脸可以是按照目标脱敏操作选项对应的脱敏方式对原人脸进行脱敏所得到的。
其中,本申请实施例对针对原人脸的脱敏操作的具体操作过程不作限定,如脱敏操作可以包括但是不限于:①针对图像编辑界面中的操作选择入口的选择操作;如图7a所示在图像编辑界面中包含操作选择入口701,响应于针对该操作选项入口701的选择操作,表示用户想要选择脱敏方式,此时输出脱敏操作界面702。②在图像编辑界面中执行的手势操作(如双击操作、长按操作或滑动操作(如滑动轨迹为“S”形、“L”形的滑动操作)等);如图7b所示,用户在图像编辑界面中执行滑动操作,且该滑动操作的滑动轨迹为“S”形,那么表示用户想要选择脱敏方式,此时输出脱敏操作界面702。③振动操作(如用户摇晃终端设备所带来的振动)等等;如图7c所示,目标应用程序运行于智能手机703中,在用户想要选择脱敏方式时,可以手持智能手机703进行左右摇晃,此时智能手机703中部署的装置(如陀螺仪或传感器)检测到晃动或振动后,目标应用程序就可以根据该装置的检测结果触发输出操作脱敏界面;当然,在计算机设备为智能电脑这类设备时,振动操作可以包括沿着目标方向(如左右方向)快速晃动鼠标所产生的操作等,本申请实施例对此不作限定。
应当理解的是,用于触发目标应用程序输出脱敏操作界面的脱敏操作还可以包括其他操作,如语音输入操作(通过麦克风采集指示输出脱敏操作界面的语音信号)等;上述给出的几种脱敏操作的具体操作方式并不会对本申请实施例产生限定。
下面以图像编辑界面中包含的原人脸不包含遮挡对象,即该原人脸中的五官完全可见,且可供用户选择的脱敏方式包含虚拟人脸脱敏方式和遮挡脱敏方式这两种为例,给出用户自定义选择脱敏方式的具体实施过程;其中:
在一种实现方式中,脱敏方式为虚拟人脸脱敏方式;也就是说,用户在脱敏操作界面中选择的目标脱敏操作选项对应的脱敏方式为虚拟人脸脱敏方式。具体实现中,计算机设备在检测到用户选择的目标脱敏操作选项对应的操作方式为虚拟人脸脱敏方式时,计算机设备可以采用虚拟人脸脱敏方式对原人脸进行脱敏,并在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸;即通过将原人脸转换为五官可见的虚拟人脸的方式,实现对原人脸的脱敏。通过这种将原人脸转换为五官可见的虚拟人脸的方式,在一些需要用到人脸五官的场景中有利于下游应用的开发;例如,在人脸识别训练场景中如果采用包含虚拟五官的虚拟人脸作为训练数据,不仅能够到达采用虚拟人脸进行模型训练的目的,而且虚拟人脸并不会泄露用户身份,达到保护个人隐私的目的。
一种示例性的将不包含遮挡对象的原人脸,转换为不包含遮挡对象的虚拟人脸的界面示意图可以参见图8a;如图8a所示,在脱敏操作界面中包含一个或多个脱敏操作选项,具体包括虚拟人脸脱敏方式对应的脱敏操作选项1和遮挡脱敏方式对应的脱敏操作选项2;响应于针对脱敏操作选项1的选择操作,此时可以触发执行在图像编辑界面中将原人脸更新显示为虚拟人脸的步骤,其中,虚拟人脸的外观属性与原人脸的外观属性不同。
其他实现方式中,脱敏方式为遮挡脱敏方式;也就是说,用户在脱敏操作界面中选择的目标脱敏操作选项对应的脱敏方式为遮挡脱敏方式。具体实现中,计算机设备在检测到用户选择的目标脱敏操作选项对应的操作方式为遮挡脱敏方式时,计算机设备会先将原人脸转换为未被遮挡对象遮挡的虚拟人脸;然后,采用遮挡对象遮挡虚拟人脸中的人脸部位,以得到脱敏后的虚拟人脸,此时该虚拟人脸中包含遮挡对象,且被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性,即被遮挡对象遮挡后的虚拟人脸相比于原虚拟人脸而言只是多个遮挡对象;最后,计算机设备在图像编辑界面中将原人脸更新显示为,被遮挡对象遮挡后的虚拟人脸。通过上述描述的这种循环转换的人脸无感脱敏方式,可以有效确保人脸被彻底脱敏,提升个人隐私的安全性。
一种示例性的循环转换的人脸脱敏的界面示意图可以参见图8b;如图8b所示,在脱敏操作界面中包含一个或多个脱敏操作选项,具体包括虚拟人脸脱敏方式对应的脱敏操作选项1和遮挡脱敏方式对应的脱敏操作选项2;响应于针对脱敏操作选项2的选择操作,此时可以触发在图像编辑界面中将原人脸更新显示为未被遮挡对象(如口罩)遮挡的虚拟人脸,其中,虚拟人脸的外观属性与原人脸的外观属性不同。然后,在未被遮挡对象(如口罩)遮挡的虚拟人脸在图像编辑界面中显示一段时长(该时长的具体时长可以是与后台将未被遮挡对象遮挡的虚拟人脸转换为被遮挡对象遮挡的虚拟人脸的过程所耗费时间对应的)后,在图像编辑界面中的显示采用遮挡对象遮挡虚拟人脸中的人脸部位后的虚拟人脸。
基于上述对两种脱敏方式的相关介绍,还需说明的是:
①如图8b所示的,在脱敏方式为遮挡脱敏方式时,人脸脱敏循环转换的过程包括:未包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸→包含遮挡对象的虚拟人脸。在实际应用中,循环转换的中间图像“未包含遮挡对象的虚拟人脸”也可以不呈现在图像编辑界面中,而是响应于针对未包含遮挡对象的原人脸的脱敏处理,直接在图像编辑界面中输出包含遮挡对象的虚拟人脸。
②本申请实施例提供的脱敏操作界面除了以图8a(或图8b)所示的以浮窗形式显示于图像编辑界面中外;脱敏操作界面还可以单独的服务界面的形式显示于显示屏幕中,或者,脱敏操作界面以列表形式显示于图像编辑界面中;本申请实施例对图像编辑界面的具体显示方式和显示位置不作限定。此外,本申请实施例对脱敏操作界面所包含的界面元素和元素样式也不做限定,特在此说明。
上述是以待脱敏的原人脸不包含遮挡对象,即原人脸中的人脸部位未被遮挡对象遮挡为例,对人脸脱敏的界面流程进行示例性说明的。经实践发现,在一些情况下人脸即使佩戴有遮挡对象,如人脸佩戴墨镜或口罩等遮挡对象,也可能基于人脸中未被遮挡对象遮挡的人脸部位识别出用户身份;因此,为实现对包含遮挡对象的原人脸的隐私保护,本申请还支持对待脱敏且包含遮挡对象的原人脸进行脱敏处理,具体是将包含遮挡对象的原人脸转换为虚拟人脸,提升对包含遮挡对象的原人脸对应的用户身份的保护。具体实现中,图像编辑界面中显示有原人脸,且该原人脸中包含遮挡对象;那么计算机设备可以将包含遮挡对象的原人脸更新显示为未被遮挡对象遮挡的虚拟人脸;其中,该虚拟人脸保留原人脸的姿态属性,但虚拟人脸的外观属性和原人脸的外观属性不同。一种示例性地将包含遮挡对象的原人脸转换为虚拟人脸的示意图可以参见图9;如图9所示,图像编辑界面中的原人脸中包含遮挡对象,此时该遮挡对象为口罩;那么在用户具有对该包含口罩的原人脸的脱敏需求时,计算机设备可以在图像编辑界面中将该原人脸更新显示为虚拟人脸,该虚拟人脸中未包含遮挡对象“口罩”。
进一步的,在原人脸中包含遮挡对象时,有些场景中可能脱敏后的虚拟人脸保留原人脸中的遮挡对象,以便于下游业务的应用;基于此,本申请实施例在基于前述步骤将包含遮挡对象的原人脸转换为未包含遮挡对象的虚拟人脸后,还支持将未包含遮挡对象的虚拟人脸转换为包含遮挡对象的虚拟人脸,以保留原人脸中的遮挡对象。具体实现中,计算机设备在得到原人脸对应的虚拟人脸后,还支持采用遮挡对象遮挡该虚拟人脸中的人脸部位,以得到包含遮挡对象的虚拟人脸;其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性,也就是说,被遮挡对象遮挡后的虚拟人脸的人脸姿态和外观,与未被遮挡对象遮挡的虚拟人脸的人脸姿态和外观是一致的。
一种示例性的将包含遮挡对象的原人脸转换为包含遮挡对象的虚拟人脸的示意图可以参见图10;如图10所示,在图像编辑界面中显示有包含遮挡对象“口罩”的原人脸,将该原人脸脱敏后可以得到未包含遮挡对象的虚拟人脸,该虚拟人脸保留原人脸的姿态属性,且该虚拟人脸的外观属性与原人脸的外观属性不同;进一步的,可以采用遮挡对象遮挡该虚拟人脸中的人脸部位,以得到包含遮挡对象的虚拟人脸;其中,该包含遮挡对象的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。由上述描述可知,在原人脸中包含遮挡对象,且将原人脸转换为包含遮挡对象的虚拟人脸的循环转换过程可以为:包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸→包含遮挡对象的虚拟人脸。与前述描述所类似的,在实际应用中循环转换的中间图像“未包含遮挡对象的虚拟人脸”也可以不呈现在图像编辑界面中,而是响应于针对包含遮挡对象的原人脸的脱敏处理,直接在图像编辑界面中输出包含遮挡对象的虚拟人脸。
综上所述,本申请实施例支持将图像编辑界面中的原人脸脱敏为虚拟人脸,这样基于该虚拟人脸难以识别出原人脸对应的用户身份。进一步的,本申请实施例是采用循环转换的方式实现人脸脱敏,循环转换可以包括:未包含遮挡对象的原人脸→包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸;或者,未包含遮挡对象的原人脸→包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸→包含遮挡对象的虚拟人脸;或者,未包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸;或者,包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸;或者,包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸→包含遮挡对象的虚拟人脸;等等;拉大了脱敏后的虚拟人脸与原人脸之间的差异,实现人脸的彻底脱敏,从而有效确保用户身份的安全性。
此外,本申请实施例还支持在计算机设备的显示屏幕中实时显示循环转换的进度,以便于用户直观感知上述提及的循环转换的过程。具体实现中,支持在将原人脸更新显示为虚拟人脸的过程中,显示更新进度信息,该更新进度信息可以用于指示将原人脸更新显示为虚拟人脸的更新进度。其中,更新进度信息的形式可以包括以下任一种或多种:倒计时或者进度条等。一种示例性的更新进度信息为倒计时的示意图可以参见图11;如图11所示,假设人脸脱敏的循环转换的过程包括:未包含遮挡对象的原人脸→包含遮挡对象的原人脸→未包含遮挡对象的虚拟人脸,那么随着循环转换的过程更新进度信息“倒计时”也会动态更新,以提示循环转换成功的剩余时间。另一种示例性的更新进度信息为进度条的示意图可以参见图12,在此不作赘述。进一步的,本申请实施例还支持在更新进度信息的显示过程中,播放动画效果(如图12所示的处于奔跑状态的动漫人物),以丰富视觉效果,缓解用户等待循环转换的焦虑,提升用户粘性。
本申请实施例中,原人脸脱敏后的虚拟人脸可以保留原人脸的姿态属性,如原人脸的人脸姿态为低头姿态,那么虚拟人脸中的人脸部位应当贴合原人脸的姿态属性“低头姿态”,以减少人脸脱敏的痕迹,实现无感脱敏。此外,虚拟人脸的外观属性与原人脸的外观属性是不同的,如虚拟人脸中的一个或多个人脸部位的部位样式是与原人脸中相应人脸部位的部位样式不同的,使得虚拟人脸与原人脸从外观上是不同的,从而基于虚拟人脸难以识别出原人脸所属用户的身份,达到人脸彻底脱敏的效果。
图13示出了本申请一个示例性实施例提供的另一种图像处理方法的流程示意图;该图像处理方法可以由前述提及的计算机设备执行,如计算机设备为终端设备和服务器,该方法可包括步骤S1301-S1303:
S1301:显示图像编辑界面。
S1302:在图像编辑界面中将原人脸设置为选中状态。
步骤S1301-S1302中,正如前述所描述的,图像编辑界面是用于实现人脸脱敏的UI界面;在该图像编辑界面中包含待脱敏的原人脸。其中,原人脸属于目标图像,即原人脸是通过目标图像的形式呈现于图像编辑界面中的;在实际应用中,目标图像中包含的原人脸数量并不仅限于单个,如在目标图像是通过摄像头对街道采集得到的场景中,街道行人可能有多个,那么采集得到的目标图像中的原人脸往往也包含多个。在一些情况下,可能存在对目标图像中的多个原人脸同时脱敏的需求,因此本申请实施例支持针对目标图像中的原人脸进行批量脱敏。
具体实现中,计算机设备响应于针对图像编辑界面中原人脸的识别操作,可以在图像编辑界面中将原人脸设置为选中状态;然后,后续可以对处于选中状态的原人脸进行脱敏处理,具体参见下述步骤S1303。一种示例性的在图像编辑界面中的原人脸处于选中状态的示意图可以参见图14;如图14所示,假设图像编辑界面中包含多个原人脸,该多个原人脸中的一个或多个原人脸可以被设置为选中状态;其中,原人脸在图像编辑界面中处于选中状态包括以下任一种:原人脸所在区域被选择框选中,人脸被批注框批注显示,或者,原人脸被显示于图像编辑界面中的人脸显示区域内。
其中,在图像编辑界面中的识别操作可以包括:针对图像编辑界面中全部原人脸的第一选择操作;也就是说,该第一选择操作可以实现对图像编辑界面中每个原人脸的识别。第一选择操作可以包括但是不限于以下任一种:目标应用程序静默检测图像编辑界面中原人脸的操作,即目标应用程序在获取到目标图像后,可以智能地对目标图像进行识别,得到目标图像中所包含的每个原人脸;其中,根据本方案的应用场景不同,目标应用程序的应用类型也有所不同,如应用类型可包括以下任一种:游戏类型、训练数据回传类型或者车载类型等。针对图像编辑界面中的人脸识别选项(或组件、控件、按键、按钮)的触发操作;也就是说,在图像编辑界面中包含人脸识别选项,当该人脸识别选项被触发时,则计算机设备针对图像编辑界面中的目标图像进行人脸识别的操作;如图15所示,在图像编辑界面中包含人脸识别选项1501。在图像编辑界面中执行的人脸识别手势操作,如人脸识别手势操作包括针对目标图像的拖拽操作、双击操作、长按操作或双指捏操作等等;一种在图像编辑界面中执行双指捏操作来触发人脸识别的示意图可以参见图16。或者,在图像编辑界面中的语音信号输入操作;具体是计算机设备可以通过麦克风采集物理环境中的语音信号,并对语音信号进行识别,当识别到该语音信号的语义为指示对图像编辑界面中的目标图像进行人脸识别时,可以触发执行识别操作;等等。
在图像编辑界面中的识别操作还可以包括:针对图像编辑界面中待处理的原人脸的第二选择操作;也就是说,该第二选择操作只实现对目标图像中需要人脸脱敏的全部或部分原人脸进行识别。在一种实现方式中,用户可以直接在图像编辑界面中针对目标图像执行第二选择操作,以从目标图像所包含的多个原人脸中选择待脱敏的原人脸,此时计算机设备按照用户执行的第二选择操作将被选中的原人脸设置为选中状态;这种由用户选择待脱敏的原人脸的方式,满足用户自定义待脱敏原人脸的需求,提升用户体验。一种示例性的用户在图像编辑界面中执行第二选择操作的示意图可以参见图17a。其他实现方式中,用户还可以在图像编辑界面中针对处于选中状态的原人脸执行第二选择操作,此时可以将图像编辑界面中未被用户执行第二选择操作的,且处于选中状态的原人脸取消选中;换句话说,在图像编辑界面中已识别出每个原人脸,且每个原人脸均处于选中状态的情况下,本申请实施例还支持再由用户从多个处于选中状态的原人脸中进一步按需选择待脱敏的原人脸;这样,一方面有利于用户直观感知目标图像中所存在的原人脸,另一方面满足用户自定义选择待脱敏原人脸的需求。另一种示例性的用户在图像编辑界面中执行第二选择操作的示意图可以参见图17b。
应当理解的是,上述只是给出几种示例性的在图像编辑界面中将原人脸设置为选中状态的方式;在实际应用中在图像编辑界面中选择待脱敏原人脸的具体实现还可以发生变化,对此不作限定。
S1303:在图像编辑界面中将原人脸更新显示为虚拟人脸。
需要说明的是,步骤S1303所示的具体实施过程与前述图3所示实施例中步骤S202所示的具体实施过程是类似的,具体可以参见步骤S202所示的相关描述,在此不作赘述。
还需说明的是,由前述描述可知,在图像编辑界面中的原人脸包括多个的情况下,本申请实施例支持从多个原人脸中选择待脱敏的原人脸,并将待脱敏的原人脸设置为选中状态;此实现方式下,步骤S1303实质是对处于选中状态的待脱敏原人脸进行后续的人脸脱敏,在界面表现上是在图像编辑界面中处于选中状态的原人脸更新显示为虚拟人脸。如图18所示,图像编辑界面中处于选中状态的原人脸1801更新显示为虚拟人脸,而未处于选中状态的原人脸1802未被脱敏。
综上所述,本申请实施例支持对原人脸进行脱敏,使得原人脸脱敏后的虚拟人脸可以保留原人脸的姿态属性,且虚拟人脸的外观属性与原人脸的外观属性是不同的,使得虚拟人脸与原人脸从外观上是不同的,从而基于虚拟人脸难以识别出原人脸所属用户的身份,达到人脸彻底脱敏的效果。此外,还支持批量实现对多个原人脸的脱敏处理,提高脱敏处理速度,有效提升脱敏效率,有利于下游业务。
前述图3和图13所示实施例主要对图像处理方法的界面实现过程进行介绍,下面对图像处理方法的后台技术流程进行介绍。在本申请实施例中,通过利用训练好的网络实现对目标图像中原人脸的检测和转换,无需用户执行繁琐操作,降低人脸检测和转换的难度,且训练好的网络是采用大量训练数据训练得到的,从而确保人脸检测和转换的准确性。具体实现中,计算机设备在获取到待人脸脱敏的目标图像后,支持调用训练好的人脸检测网络对该目标图像进行多尺度特征提取,得到根据不同尺度(即特征图的高h和宽w)的特征图确定目标图像中所包含的原人脸所在区域,以实现从目标图像中准确地定位出原人脸所在区域;然后,采用人脸转换网络对定位的原人脸进行脱敏处理,以得到脱敏后的虚拟人脸。一种示例性的训练人脸检测网络和人脸转换网络,并利用训练好的人脸检测网络和人脸转换网络对目标图像实现人脸脱敏的流程可以参见图19。下面结合图19分别给出模型训练过程和模型应用过程,其中:
一、模型训练过程。
本申请实施例涉及的网络可以包括:人脸检测网络和人脸转换网络;其中,人脸检测网络用于从目标图像中检测到原人脸所在区域,人脸转换网络对从目标图像中检测到的原人脸进行转换,以实现对原人脸的人脸脱敏,得到脱敏后的虚拟人脸。下面分别给出针对人脸检测网络和人脸转换网络的训练过程,其中:
(1)针对人脸检测网络的训练过程可以包括但是不限于步骤s11-s14:
s11:获取人脸检测数据集合。
其中,人脸检测数据集合中包含至少一个样本图像和各样本图像对应的人脸标注信息。其中:①在应用场景为车载场景下,样本图像可以是通过车辆中部署的车载设备(如行车记录仪)采集的;当然,样本图像的来源并不仅限于车载设备,对此不作限定。②任一样本图像对应的人脸标注信息用于标注相应样本图像中的原人脸所在位置。为便于理解该人脸标注信息可以矩形框的形式表示,如图20所示,在样本图像中可以用矩形框将样本图像中包含的所有原人脸进行标注,一个矩形框用于标注一个原人脸;但在后台记录人脸标注信息时是采用数据结构形式记录的。
s12:从人脸检测数据集合中选取第i个样本图像,并利用人脸检测网络对第i个样本图像进行多尺度特征处理,得到不同尺度的特征图和各特征图对应的人脸预测信息。
基于步骤s11标注得到用于训练人脸检测网络的人脸检测数据集合后,支持基于该人脸检测数据集合对人脸检测网络进行网络训练;具体是采用人脸检测数据集合中的样本图像对人脸检测网络进行多轮迭代训练,直至得到训练好的人脸检测网络。以选取人脸检测数据集合中的第i个样本图像为例,对一轮网络训练的过程进行介绍,i为正整数;具体实现中,支持利用人脸检测网络对第i个样本图像进行多尺度特征处理,得到不同尺度的特征图和各特征图对应的人脸预测信息。其中,多尺度特征处理的具体实现过程可以包括:先对第i个样本图像进行多尺度的特征提取,得到不同尺度的特征图;然后,为了人脸检测网络更好地适应样本图像中人脸的尺度变化,支持将不同尺度的特征图进行特征融合;最后,在各个尺度上生成对应的输出特征,任一尺度上的输出特征包括该任一尺度对应的特征图和特征图对应的人脸预测信息,该特征图对应的人脸预测信息可以用于指示相应特征图中预测得到的人脸所在区域,即通过人脸检测网络来预测出样本图像中人脸所在区域,
下面结合图21所示的人脸检测网络的网络结构,对上述给出的利用人脸检测网络进行人脸检测的具体实施过程进行介绍;如图21所示,本申请实施例设计的人脸检测网络大致包括:骨干网络和多尺度特征模块。下面分别对骨干网络和多尺度特征模块的结构和功能进行介绍,其中:
1)骨干网络主要用于对输入人脸检测网络的第i个样本图像进行多尺度的特征提取,以提取到第i个样本图像的丰富图像信息,有利于对第i个样本图像所包含人脸的准确性预测。其中,骨干网络中包含一个主干stem和多个网络层B-layer。其中:①主干stem的结构仍然可以参见图21,该主干stem是由最大池化层(Maxpool),卷积层,归一化(BN)和激活函数(Relu)组成的;基于骨干网络所包含的主干stem对第i个样本图像进行多尺度的特征提取的具体实施过程可以包括:人脸检测网络获取到第i个样本图像后,首先利用主干stem所包含的最大池化层对第i个样本图像进行池化处理,并利用卷积层(如卷积核为3×3,步长stride等于2的卷积层)对池化后特征进行特征提取,然后将提取的特征进行归一化和激活处理,得到主干stem对第i个样本图像提取的特征信息。
进一步的,②骨干网络所包含的多个下采样尺度(或简称为尺度)的网络层B-layer,可以用于对主干stem提取到的特征信息继续进行不同学习尺度的特征提取,得到不同尺度的特征信息,以提取第i个样本图像的丰富信息。在本申请实施例中,骨干网络中包含的网络层B-layer分别为:B-layer1→B-layer2→B-layer3→B-layer4为例,每个网络层B-layer的下采样尺度是相连上一个网络层B-layer的下采样尺度的2倍;通过利用不同学习尺度的网络层B-layer对第i个样本图像进行特征提取,可以提取到第i个样本图像所包含的丰富的图像信息,从而提高对第i个样本图像中人脸所在区域的检测准确性。
其中,每个网络层B-layer中包含多个残差卷积模块Res Block;如图14所示,一个网络层B-layer由一个残差卷积模块Res Block和m个残差卷积模块Res Block串联,和该m个残差卷积模块Res Block并列组成,每个残差模块Re sblock用于对输入的特征信息进行卷积运算,实现对图像的多次卷积运算,以提取到第i个样本图像的丰富的特征信息(如每个像素点的灰度值);其中,m的具体取值与网络层B-layer的下采样尺度相关,具体数值不作限定。进一步的,单个残差卷积模块Resblock的结构可以参见图21;残差卷积模块Resblock可以包括多个不同或相同大小的学习特征尺度的卷积核(如图14中残差卷积模块Resblock由3×3的卷积核串联一个归一化模块,再串联一个3×3的卷积核,和1个1*1的卷积核组成),以及下采样模块组成。其中:每个卷积核用于对输入的特征信息进行相应学习特征尺度(如3*3)的特征提取。残差卷积模块Resbl ock所包含的下采样模块的具体下采样尺度,是与该残差卷积模块Resblock所属的网络B-layer的学习尺度相关的。具体地,输入至残差卷积模块Resblock的特征信息会分别经过卷积核的特征提取,和下采样模块的下采样处理,并将特征提取到的特征信息和下采样得到的特征信息进行融合,得到该残差卷积模块Re sblock提取的特征信息。
综上所述,通过上述描述的包含多个下采样尺度的骨干网络,对第i个样本图像进行多尺度的特征提取,可以提取到第i个样本图像对应的不同尺度的特征信息(或称为特征图),以获取第i个样本图像的丰富信息。
2)多尺度特征模块主要用于对骨干网络输出的多个不同尺度的特征信息进行特征融合(或称为特征增强),以在各尺度上生成对应的特征图;通过将不同尺度的特征信息进行融合,有利于人脸检测网络更好地学习和适应样本图像中人脸的尺寸变化,例如不同样本图像中用于标注人脸的矩形框的尺度可能不同,再如同一样本图像中标注不同人脸的矩形框的尺度也可能有所不同。如图21所示,多特征尺度模块中包含多个网络层F-layer,每个网络层F-layer的下采样尺度与上一阶段(即骨干网络)包含的一个网络层B-layer相同,并用于接收上一阶段所包含相同网络层B-layer输出的特征信息,以对该特征信息进行特征增强;具体的,为了人脸检测网络能够适应样本图像中人脸的尺寸变化,在本申请实施例中支持将上一阶段输出的不同尺度的特征信息进行融合后,才利用相应网络层F-layer生成对应的特征信息。
如图21所示,在本申请实施例中多尺度特征模块包含的网络层F-layer分别为:F-layer2→F-layer3→F-layer4;如图21所示,每个网络层F-layer是由多个残差卷积模块Resblock并列后,和一个转置卷积模块convTranspose串联组成的;关于残差卷积模块Resblock的相关内容可以参见前述相关描述,在此不作赘述,转置卷积模块convTranspose又称为反卷积,是一种上采用方式,同卷积的原理类似的,具有可学习的参数,可以通过网络学习来获取最优的上采样方式,以实现对特征信息的上采样处理。具体实现中,基于多尺度特征模块所包含多个网络层F-layer进行特征融合的具体实施过程可以包括:网络层F-layer4接收骨干网络中网络层B-layer4输出的特征信息,并对该特征信息进行特征增强,以生成相应尺度的特征信息,如生成的特征图的尺度为n*h/32*w/32。然后,网络层F-layer3接收骨干网络中网络层B-layer3输出的特征信息,和网络层F-layer4输出的特征信息;并且,融合两个特征信息后,基于融合后特征信息生成网络层F-layer3所指示的尺度上的特征信息,如生成的特征图的尺度为n*h/16*w/16。同理,网络层F-layer2接收骨干网络中网络层B-layer2输出的特征信息,和网络层F-layer3输出的特征信息;并且,融合两个特征信息后,基于融合后特征信息生成网络层F-layer2所指示的尺度上的特征信息,如生成的特征图的尺度为n*h/8*w/8。
其中,上述网络输出的各特征图的尺度中参数n表示特征图的通道数;特征图的每个通道对应着用于表征第i个样本图像的特定信息。特征图的通道数n可以表示为n=b*(4+1+c);其中:b为特征图上每个位置的锚框(即前述提及的矩形框)数;4代表对每个锚框的中心横坐标、中心纵坐标、长、宽的偏移回归量;1代表特征图上某个位置为人脸所在位置(或称为目标所在位置)的置信度(即可信程度,表现为概率形式);c为目标类别数,即设定的样本图像中待识别的对象类别的数量,在本申请实施例中待识别对象为人脸,因此c可以取值为1。由此可见,特征图的通道数可以表示为n=b*(5+c)。
进一步的,特征图上每个位置的锚框数b的确定方式如下:指定所有尺寸上的总锚框数量为B(如B=9);然后,以用于标注人脸的矩形框的高和宽作为特征,并利用k-means对所有矩形框聚类为B类;其中,k-means算法是基于欧式距离的聚类算法,其认为两个目标的距离越近,则相似度越大,将k-means运用于本申请实施例时,具体是以矩形框的高和宽作为特征以实现对所有矩形框的聚类,如认为高和宽相近的矩形框,其相似度较大,可以被划分至同一类。进一步的,取这B类的类心为对应锚框的高和宽,以确定B类锚框。最后,对锚框按照面积(有高和宽确定的)从小到大进行排序,并在特征图包含三种尺度的情况下,将排序序列中前三分之一的锚框使用在尺度最大的特征图上,将排序序列中位于中间三分之一的锚框使用在尺度属于中间位置的特征图上,以及,将排序序列中靠后的三分之一的锚框使用在尺度最小的特征图上。基于输出的每个特征图上的锚框从而确定特征图上每个位置的锚框数b,也得到不同尺度的特征图对应的人脸预测信息,该人脸预测信息可以上述提及的通道数确定过程中和特征图上锚框确定过程中所涉及的各参数来体现,如特征图上的锚框数、置信度和目标类别数等。
综上所述,基于上述描述的骨干网络和多尺度特征模块,可以实现对第i个样本图像的多尺度的特征提取和特征增强,以得到第i个样本图像中丰富的图像信息,从而帮助人脸检测网络更好地实现图像中的人脸检测,确保人脸检测网络的人脸检测性能。
s13:基于不同尺度的特征图,各特征图对应的人脸预测信息和第i个样本图像对应的人脸标注信息,对人脸检测网络进行训练,得到训练后的人脸检测网络。
基于上述步骤,采用人脸检测网络对第i个样本图像进行多尺度特征处理后,可以得到不同尺度的特征图和各特征图对应的人脸预测信息;然后,支持采用第i个样本图像对应的人脸标注信息,分别与每种尺度下的特征图和相应的人脸预测信息进行损失运算,得到每种尺度对应的损失信息;这样将每种尺度对应的损失信息相加,并采用相加结果对人脸检测网络进行训练。其中,用于确定任一尺度(每种尺度可以认为对应一条支路)对应的损失信息的损失函数为如下公式:
由公式(1)可知,该损失函数依次由四个子部分构成。其中,第一子部分和第二子部分为:采用人脸检测网络对第i个样本图像进行预测所得到的预测框,相对锚框中心点和宽高的偏移回归量损失。第三子部分为类别损失,即第i个样本图像中实际类别人脸,和人脸检测网络对第i个样本图像预测得到的预测类别之间的差异。第四子部分为是否存在目标的置信度损失,是在输出特征图上计算每种类别的损失之和所确定的。Sn表示输出的特征图的宽和高。bn是前面提到的特征图每个位置上的锚框数。代表询问输出特征图的(i,j)位置是否在目标(即人脸)上;如果(i,j)位置是在目标上,则取值为1,否则为0。a,β,γ表示各子部分损失的权值。
如图21所示,本申请实施例提供的示例性尺度为三种,那么人脸检测模型的总损失信息可以表示为三个尺度支路的损失信息之和;如下所示:
loss=loss1+loss2+loss3 (2)
基于该公式(2)计算得到本轮网络训练的损失信息后,支持采用该损失信息对人脸检测网络的模型参数进行优化,以得到训练后的人脸检测网络。
s14:重新从人脸检测数据集合中选取第i+1个样本图像,并采用第i+1个样本图像对训练后的人脸检测网络进行迭代训练,直至人脸检测模型趋于稳定为止。
可以理解的是,从人脸检测数据集合中选取第i个样本图像,对人脸检测网络进行网络训练,得到训练后的人脸检测网络后;还支持继续采用人脸检测数据集合中第i+1个样本图像,对训练后的人脸检测网络继续进行训练,直至人脸检测数据集合中的样本图像均被用于网络训练,或者,训练后的人脸检测网络达到较优的人脸预测性能。其中,采用第i+1个样本图像对人脸检测网络进行训练的具体实施过程,是与采用第i个样本图像对人脸检测网络进行训练的具体实施过程相同的;具体可参见前述步骤s11-s13所示的具体实施过程的相关描述,在此不作赘述。
(2)针对人脸转换网络的训练。
基于前述步骤训练好的人脸检测网络,对目标图像进行人脸检测后,可以确定目标图像中原人脸所在区域;并对原人脸所在区域进行裁剪,得到包含原人脸的人脸图像;然后,可以利用训练好的人脸转换网络对人脸图像进行人脸转换处理,实现将原人脸转换为难以识别出用户身份的虚拟人脸,从而实现人脸脱敏;最后,将脱敏后的人脸图像替换目标图像中检测到的人脸区域,以得到新的目标图像,该新的目标图像是人脸脱敏后的图像。
在本申请实施例中,人脸转换网络是使用生成对抗网络(Generative Adversarial Networks,GAN)实现的。GAN网络是人工智能(Artificial Intelligence,AI)技术中的一种深度学习模型;GAN网络可以包括至少两个网络(或称为模块):生成器网络(Generative Model)和判别器网络(Discriminative Model),并通过该至少两个模块之间的相互博弈学习产生较好的输出结果。以GAN网络的输入数据的类型为图像,GAN网络具有生成包含目标的图像的功能为例,对GAN网络所包含的生成器网络和判别器网络进行简单介绍;其中,所谓生成器网络是用于对输入的一帧或多帧包含目标的图像进行处理,以生成一帧新的包含目标的图像,该新的图像是不包含于输入的一帧或多帧图像中的;所谓判别器网络是用于对输入的一帧图像进行判断,以确定该图像中所包含的对象是否为目标。在对GAN网络进行训练的过程中,生成器网络生成的图像可以给到判别器模块来进行判断,并根据判别结果不断修正GAN网络的参数,直至训练好的GAN网络中生成器网络能够较为准确地生成新的图像,且判别器网络能够较为准确地对图像进行判别。
值得说明的是,本申请实施例中涉及的人脸转换网络即为GAN网络中的生成器网络;该生成器网络具有对应的判别器网络,用于判别生成器网络所生成的图像是否正确。进一步的,考虑到本申请实施例涉及的人脸脱敏至少包括:未包含遮挡对象的人脸→包含遮挡对象的人脸,以及,包含遮挡对象的人脸→未包含遮挡对象的人脸;因此,本申请实施例提供的人脸转换网络可以包括:第一人脸转换网络和第二人脸转换网络。其中,第一人脸转换网络用于将属于第一图像域的人脸图像转换为第二图像域;第二人脸转换网络用于将属于第二图像域的人脸图像转换为第一图像域;其中,第一图像域可以是指不包含遮挡对象的图像域,第二图像域可以是指包含遮挡对象的图像域。同理,人脸转换网络所包含的判别器网络可以包括:第一人脸转换网络对应的第一人脸判别网络,和第二人脸转换网络对应的第二人脸判别网络。为便于阐述,以遮挡对象为口罩为例,本申请实施例将不戴口罩的图像域记为A,即第一图像域,将戴口罩的图像域记为B,即第二图像域;将GA作为B域到A域的第一人脸转换网络,将GB作为A域到B域的第二人脸转换网络,DA作为在A域上判断图像真假的第一人脸判别网络,Db作为在B域上判断图像真假的第二人脸判别网络器。
其中,针对人脸转换网络的训练过程(具体是针对第一人脸转换网络和第二人脸转换网络)具体可以包括但是不限于步骤s21-s25:
s21:获取人脸转换数据集合。
其中,人脸转换数据集合中包含属于第一图像域的多个第一样本人脸图像,和属于第二图像域的多个第二样本人脸图像;第一样本人脸图像中的目标人脸部位未被遮挡,第二样本人脸图像中的目标人脸部位被遮挡。具体地,获取人脸转换数据集合的具体实施方式可以包括:将前述人脸检测数据集合中标注的人脸进行裁剪,以将裁剪得到的包含人脸的人脸图像添加至人脸图像集合中;进一步的,为丰富人脸转换数据集合,本申请实施例还支持采集更多图像(如车载图像),然后用前述训练好的人脸检测网络检测出图像中的人脸并裁剪,以及将裁剪的人脸图像一并添加至人脸图像集合中,得到新的人脸图像集合。然后,对上述操作得到的人脸图像集合进行处理,此处的处理可以包括但是不是限于:去除模糊或不完整的人脸,以及去除不是人脸的误检测结果。最后,对处理好剩下的人脸图像集合分为不戴口罩人脸的第一图像域和戴口罩人脸的第二图像域。
一种示例性的第一图像域所包含的不戴口罩的多个第一样本人脸图像,和第二图像域所包含的戴口罩的多个第二样本图像域的示意图可以参见图22;如图22所示的第一附图为不戴口罩的多个第一样本人脸图像,图22所示的第二附图为戴口罩的多个第二样本人脸图像。
s22:获取第一人脸转换网络对应的第一人脸判别网络,第二人脸转换网络对应的第二人脸判别网络;并基于第一人脸转换网络和第一人脸判别网络,生成从第一图像域到第二图像域的第一对抗生成损失信息;以及,基于第二人脸转换网络和第二人脸判别网络,生成从第二图像域到第一图像域的第二对抗生成损失信息。
具体实现中,首先,利用第一人脸转换网络,对第二样本人脸图像进行图像生成处理,得到第一参考人脸图像;并利用第二人脸转换网络,对第一样本人脸图像进行图像生成处理,得到第二参考人脸图像。其中,生成器网络(如第一人脸转换网络和第二人脸转换网络)的网络结构的示例性示意图可以参见图;如图23所示,生成器网络由编码器,残差卷积模块,上下文信息提取模块和解码器。其中,编码器起到下采样作用,可以称为下采样模块,而解码器起到上采样作用,可以称为上采样模块。为了避免细节信息,采用编码器对输入的样本人脸图像进行下采样时,特征图的高和宽都只下采样为原来的1/4;而考虑到下采样倍数较小,容易造成样本人脸图像中的上下午信息提取的不足,因此,生成器网络中间使用不同扩张率组成的扩张卷积金字塔,以增加生成器网络对样本人脸图像的感受野,从而提取到样本人脸图像更为丰富的图像信息。最后会使用较轻量的解码器将特征还原到输入的样本人脸图像的分辨率,以生成属于该生成器网络所属图像领域的新的参考图像。
基于上述对生成器网络的相关介绍可知,本申请实施例支持将RGB图像(即由红色(Red,R),绿色(Green,G)和蓝色(Blue,B)所构成的样本人脸图像,针对不同图像域生成器,该样本人脸图像不同)输入生成器网络,该生成器网络会对输入的样本人脸图像进行图像生成处理,以生成分辨率与输入分辨率相同的三通道特征图。具体地,若该生成器网络是第一人脸转换网络,那么输入该生成器网络的样本人脸图像为戴口罩的第二样本人脸图像,此时该第一人脸转换网络用于对该第二样本人脸图像进行图像生成处理,以生成该第二样本人脸图像对应的第一参考人脸图像,该第一参考人脸图像与该第二样本人脸图像之间的区别在于:第一参考人脸图像中的目标人脸部位未被遮挡。同理,若该生成器网络是第二人脸转换网络,那么输入该生成器网络的样本人脸图像为不戴口罩的第一样本人脸图像,此时该第二人脸转换网络用于对该第一样本人脸图像进行图像生成处理,以生成该第一样本人脸图像对应的第二参考人脸图像,该第二参考人脸图像与该第一样本人脸图像之间的区别在于:第二参考人脸图像中的目标人脸部位被遮挡。由此可见,不管是第一人脸转换网络,还是第二人脸转换网络都旨在将不属于本图像域的样本人脸图像,生成属于本图像域的参考人脸图像,以实现生成新的图像;这样应用于人脸脱敏领域时,可以基于戴口罩的第二人脸转换网络,将不戴口罩的目标图像生成戴口罩的目标图像,从而实现对目标图像中人脸的脱敏,起到保护人脸隐私信息的目的。
然后,利用第一人脸判别网络,对第一人脸转换网络所生成的第一参考人脸图像进行图像判别处理,以及利用第二人脸判别网络,对第二人脸转换网络所生成的第二参考人脸图像进行图像判别处理,得到人脸转换网络的对抗生成损失信息;其中,该对抗生成损失信息具体可以包括:第一图像域到第二图像域的第一对象生成损失信息,以及,从第二图像域到第一图像域的第二对象生成损失信息。其中,判别器网络(如第一人脸判别网络和第二人脸判别网络)的网络结构的示例性示意图可以参见图24;如图24所示,判别器网络由多个卷积模块串联构成,其中第一个卷积模块的卷积核可以为7×7,而后续的卷积模块的卷积核可以为3×3。具体实现中,判别器网络的输入包括:相应生成器网络输出的假图像(如第一人脸转换网络基于第二样本人脸图像所生成的第一参考人脸图像,该第一参考人脸图像不是真实存在的,因此可以称为假图像),和该判别器网络所属图像域内的真图像(如判别器网络为第一人脸判别网络,那么该真图像可以是指属于第一图像域的任一第一样本人脸图像。判别器网络对输入的假图像和真图像进行多次卷积运算,可以输出高和宽为下采样为输入图像(如真图像和假图像)的尺度的1/16的特征图,且特征图的通道数为1;从而根据该特征图判断输入判别器网络的假图像正确的可能程度(如用概率来表示)。
进一步的,基于上述给出的生成器网络和判别器网络的相关实施过程,可以确定从第一图像域(即A域)到第二图像域(即B域)第一对抗生成损失信息,表示为LGAN(GB,DB,A,B),以及从第二图像域(即B域)到第一图像域(即A域)的第二对抗生成损失信息,表示为LGAN(GA,DA,A,B)。其中,对抗生成损失信息LGAN(GB,DB,A,B)可以表示为:
同理,对抗生成损失信息LGAN(GA,DA,A,B)可以表示为:
其中,Breal表示输入第一人脸转换网络的属于第二图像域的第二样本人脸图像,Areal表示输入第二人脸转换网络的属于第一图像域的第一样本人脸图像;Breal~Pdata(Breal)表示属于第二图像域的多个第二样本人脸图像分布;Areal~Pdata(Areal)表示属于第一图像域的多个第一样本人脸图像分布。
s23:根据第一人脸转换网络和第二人脸转换网络,分别计算第一图像域的第一重建损失信息和第二图像域的第二重建损失信息。
具体地,支持利用第二人脸转换网络,对第一参考人脸图像进行图像重建处理,得到第二重建人脸图像,第二重建人脸图像中的目标人脸部位被遮挡对象遮挡;并利用第一人脸转换网络,对第二参考人脸图像进行图像重建处理,得到第一重建人脸图像,第一重建人脸图像中的目标人脸部位未被遮挡。然后,基于第一重建人脸图像和相应第一样本人脸图像之间的相似性,第二重建人脸图像和相应第二样本人脸图像之间的相似性,得到人脸转换网络的重建损失信息;重建损失信息具体可以包括:第一图像域的第一重建损失信息和第二图像域的第二重建损失信息。
其中,重建损失信息可以用L1(L1 regularization或lasso)范数计算,该L1范数实际是求最优解的过程,那么A域的第一重建损失信息可以表示为:
同理,B域的第二重建损失信息可以表示为:
s24:基于第一对抗生成损失信息、第二对抗生成损失信息、第一重建损失信息和第二重建损失信息构建损失函数;其中,损失函数中为第一重建损失信息和第二重建损失信息设置有权重参数。
其中,损失函数可以表示为:
其中,λ为权重参数。为便于理解,采用图25所示的流程图,来表示人脸转换网络的总损失信息所包含的各子损失信息的具体生成过程;图25所示流程与前述描述内容是类似的,在此不作赘述。
s25:按照训练原则调整权重参数,得到训练好的第一人脸转换网络和第二人脸转换网络;其中,训练原则包括:训练后的第二人脸转换网络所生成的虚拟人脸保留原人脸的姿态属性,且不保留原人脸的外观属性;以及,训练后的第一人脸转换网络所生成的人脸包含遮挡对象,且保留原人脸的外观属性。
具体实现中,在得到人脸转换网络的总损失信息(即损失函数)后,可以基于该总损失信息对人脸转换网络的模型参数进行优化,以得到优化后的人脸转换网络。值得注意的是,在基于损失函数对人脸转换网络的模型参数进行优化的过程中,本申请实施例支持根据极大极小零和博弈来训练第一人脸转换网络和第二人脸转换网络;具体是依据价值函数G*=argminGmaxDLoss来训练人脸转换网络的。其中,依据价值函数训练人脸转换网络的训练过程可以包括:先固定公式(7)中判别器网络的权值,然后沿着最小化总损失信息的方向更新生成器网络的权值。再固定公式(7)中生成器网络的权值,然后沿着最大化总损失信息的方向更新判别器网络的权值。最后,交替执行上述两个步骤,以实现对人脸转换网络的模型训练。
还值得注意的是,考虑到生成器网络只会生成风格一致的假图像,而本申请实施例希望脱敏后的虚拟人脸能够保留原人脸的姿态属性,例如,转换后原来是耳朵的地方还是耳朵,原来是额头的地方还是额头;并且,还希望生成的虚拟人脸与原人脸的外观属性不同,使得基于虚拟人脸并不能识别出原人脸对应的用户身份。然而,重建过度学习会使得最后转化后的虚拟人脸与原人脸比较相似,不能达到脱敏的目标。因此,本申请实施例希望重建损失主要是为了保证五官等位置大致一致,从而生成的虚拟人脸的姿态属性与原人脸比较贴合,而不希望虚拟人脸的外观属性与原人脸的外观属性相同,即虚拟人脸看起来和原人脸相似。基于此,一方面,本申请实施例通过调整权重参数λ的大小实现比较均衡的效果;也就是说,在本申请实施例只需将权重参数调整为一个合适数值,使得虚拟人脸的姿态属性与原人脸的姿态属性一致即可,并不需要调整权重参数使得重建图像(即虚拟人脸)完全或近似原人脸。另一方面,本申请实施例依赖于模型训练本身存在的训练误差所带来的人脸的一些细节不能完全复原,从而实现虚拟人脸和原人脸的外观属性产生差异。
还值得注意的是,与前述描述的人脸检测网络的训练过程类似的,在本轮对人脸转换网络训练结束后,支持重新从人脸转换数据集合中选取新的样本人脸图像,来对上一轮训练后的人脸转换网络继续进行迭代训练,直至得到性能趋于稳定的人脸转换网络。其中,采用新的样本人脸图像对上一轮训练后的人脸转换网络继续进行训练的具体实施过程,可以参见前述采用样本人脸图像对人脸转换网络进行训练的具体实施过程的相关描述,在此不作赘述。
二、模型应用过程。
基于前述描述的模型训练过程,可以得到训练好的第一人脸转换网络、第二人脸转换网络;那么在目标图像中的待脱敏的原人脸未包含遮挡对象的情况下,可以基于该第一人脸转换网络可以将未包含遮挡对象的原人脸转译为包含遮挡对象的原人脸,再基于第二人脸转换网络将包含遮挡对象的原人脸转译为未包含遮挡对象的虚拟人脸,从而实现从未包含遮挡对象的原人脸脱敏为未包含遮挡对象的虚拟人脸的脱敏过程。同理,如果目标图像中待脱敏的原人脸中包含遮挡对象,那么可以直接采用第二人脸转换网络将包含遮挡对象的原人脸转换为未包含遮挡对象的虚拟人脸即可。
下面以待脱敏的原人脸中未包含遮挡对象为例,给出调用训练好的第一人脸转换网络和第二人脸转换网络进行模型应用,以得到脱敏后的虚拟人脸的具体实现过程。具体实现中,首先,调用训练好的人脸检测网络对目标图像进行人脸识别处理,得到目标图像中包含原人脸的人脸区域;并对目标图像进行区域裁剪,得到目标图像对应的人脸图像,人脸图像中包含目标图像中的原人脸;其次,调用训练好的第一人脸转换网络对人脸图像进行人脸转换处理,得到转换后的第一转换人脸图像,第一转换人脸图像中包含人脸部位被遮挡对象遮挡的原人脸;然后,调用训练好的第二人脸转换网络对第一转换人脸图像进行人脸转换处理,得到转换后的第二转换人脸图像,第二转换人脸图像中包含人脸未被遮挡对象遮挡的虚拟人脸;最后,采用第二转换人脸图像替换目标图像中的人脸区域,得到新的目标图像;新的目标图像中包含的虚拟人脸是与原人脸不同的。
综上所述,本申请实施例通过设计多尺度特征提取,可以实现对样本图像的多尺度的特征提取和特征增强,以得到样本图像中丰富的图像信息,从而帮助人脸检测网络更好地实现图像中的人脸检测,确保人脸检测网络的人脸检测性能。并且,通过训练并调用模型的方式,可以实现批量的人脸脱敏,提高人脸脱敏速度和效率,且确保人脸脱敏的无痕和无感,有利于下游业务开发。
上述详细阐述了本申请实施例的方法,为了便于更好地实施本申请实施例的上述方法,相应地,下面提供了本申请实施例的装置。
图26示出了本申请一个示例性实施例提供的一种图像处理装置的结构示意图,该图像处理装置可以是运行于计算设备中的一个计算机程序(包括程序代码);该图像处理装置可以用于执行图3、图13及图19所示的方法实施例中的部分或全部步骤;该装置包括如下单元:
显示单元2601,用于显示图像编辑界面,图像编辑界面中显示有原人脸;
处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸;其中,虚拟人脸保留原人脸的姿态属性,且虚拟人脸与原人脸的外观属性不同。
在一种实现方式中,人脸的姿态属性包括:人脸朝向,以及人脸部位在人脸中的显示位置;人脸的外观属性包括以下至少一个:人脸部位的部位样式,视线,表情及穿戴。
在一种实现方式中,原人脸中不包含遮挡对象;处理单元2602,还用于:
当存在针对图像编辑界面中原人脸的脱敏操作时,输出脱敏操作界面;
在脱敏操作界面中显示至少一个脱敏操作选项,一个脱敏操作选项对应一种脱敏方式;
当脱敏操作界面中的目标脱敏操作选项被选中时,触发执行在图像编辑界面中将原人脸更新显示为虚拟人脸的步骤;虚拟人脸是按照目标脱敏操作选项对应的脱敏方式对原人脸进行脱敏所得到的。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为虚拟人脸脱敏方式;处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为遮挡脱敏方式;处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸;
采用遮挡对象遮挡虚拟人脸中的人脸部位;
其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,原人脸中包含遮挡对象;处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
将包含遮挡对象的原人脸更新显示为未被遮挡对象遮挡的虚拟人脸;
处理单元2602,还用于:
采用遮挡对象遮挡虚拟人脸中的人脸部位;其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,处理单元2602,还用于:
在将原人脸更新显示为虚拟人脸的过程中,显示更新进度信息;更新进度信息用于提示将原人脸更新显示为虚拟人脸的更新进度;
其中,更新进度信息的形式包括以下任一种:倒计时或者进度条。
在一种实现方式中,处理单元2602,还用于:
在图像编辑界面中将原人脸设置为选中状态;所述原人脸处于选中状态包括以下任一种:原人脸所在区域被选择框选中,原人脸被批注框批注显示,或者,原人脸被显示于图像编辑界面中的人脸显示区域内;
处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
在图像编辑界面中将处于选中状态的原人脸更新显示为虚拟人脸。
在一种实现方式中,处理单元2602,还用于:
响应于针对图像编辑界面中原人脸的识别操作,触发执行在图像编辑界面中将原人脸设置为选中状态的步骤;识别操作包括:针对图像编辑界面中全部原人脸的第一选择操作,以及,针对图像编辑界面中待处理的原人脸的第二选择操作;
其中,第一选择操作包括以下任一种:目标应用程序静默检测图像编辑界面中原人脸的操作,目标应用程序的应用类型包括以下任一种:游戏类型、训练数据回传类型或者车载类型;针对图像编辑界面中的人脸识别选项的触发操作;在图像编辑界面中执行的人脸识别手势操作;或者,在图像编辑界面中的语音信号输入操作。
在一种实现方式中,图像编辑界面中显示的原人脸属于目标图像,目标图像显示于图像编辑界面中;处理单元2602,用于在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体用于:
调用训练好的人脸检测网络对目标图像进行人脸识别处理,得到目标图像中包含原人脸的人脸区域;并对目标图像进行区域裁剪,得到目标图像对应的人脸图像,人脸图像中包含目标图像中的原人脸;
调用训练好的第一人脸转换网络对人脸图像进行人脸转换处理,得到转换后的第一转换人脸图像,第一转换人脸图像中包含人脸部位被遮挡对象遮挡的原人脸;
调用训练好的第二人脸转换网络对第一转换人脸图像进行人脸转换处理,得到转换后的第二转换人脸图像,第二转换人脸图像中包含人脸部位未被遮挡对象遮挡的虚拟人脸;
采用第二转换人脸图像替换目标图像中的人脸区域,得到新的目标图像;新的目标图像中包含虚拟人脸。
在一种实现方式中,第一人脸转换网络用于将属于第一图像域的人脸图像转换为第二图像域;第二人脸转换网络用于将属于第二图像域的人脸图像转换为第一图像域;针对第一人脸转换网络和第二人脸转换网络的训练过程包括:
获取第一人脸转换网络对应的第一人脸判别网络,第二人脸转换网络对应的第二人脸判别网络;并基于第一人脸转换网络和第一人脸判别网络,生成从第一图像域到所述第二图像域的第一对抗生成损失信息;以及,基于第二人脸转换网络和第二人脸判别网络,生成从第二图像域到第一图像域的第二对抗生成损失信息;
根据第一人脸转换网络和第二人脸转换网络,分别计算第一图像域的第一重建损失信息和第二图像域的第二重建损失信息;
基于第一对抗生成损失信息、第二对抗生成损失信息、第一重建损失信息和第二重建损失信息构建损失函数;其中,损失函数中为第一重建损失信息和第二重建损失信息设置有权重参数;
按照训练原则调整权重参数,得到训练好的第一人脸转换网络和第二人脸转换网络;其中,训练原则包括:训练后的第二人脸转换网络所生成的虚拟人脸保留原人脸的姿态属性,且不保留原人脸的外观属性;以及,训练后的第一人脸转换网络所生成的人脸包含遮挡对象,且保留原人脸的外观属性。
根据本申请的一个实施例,图26所示的图像处理装置中的各个单元可以分别或全部合并为一个或若干个另外的单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个单元来构成,这可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述单元是基于逻辑功能划分的,在实际应用中,一个单元的功能也可以由多个单元来实现,或者多个单元的功能由一个单元实现。在本申请的其它实施例中,该图像处理装置也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。根据本申请的另一个实施例,可以通过在包括中央处理单元(CPU)、存取存储介质(RAM)、只读存储介质(ROM)等处理元件和存储元件的例如计算机的通用计算设备上运行能够执行如图3、图13及图19所示的相应方法所涉及的各步骤的计算机程序(包括程序代码),来构造如图26中所示的图像处理装置,以及来实现本申请实施例的图像处理方法。计算机程序可以记载于例如计算机可读记录介质上,并通过计算机可读记录介质装载于上述计算设备中,并在其中运行。
本申请实施例中,在图像编辑界面中显示有包含敏感信息的原人脸,通过该敏感信息可以识别出原人脸所属的用户身份;在具有针对图像编辑界面中原人脸的脱敏需求时,可以在图像编辑界面中将原人脸更新显示为虚拟人脸。其中,该虚拟人脸能够保留原人脸的姿态属性,如原人脸的人脸姿态为低头姿态,那么虚拟人脸中的人脸部位应当贴合原人脸的姿态属性“低头姿态”,以减少人脸脱敏的痕迹,实现无感脱敏。并且,虚拟人脸的外观属性与原人脸的外观属性是不同的,如虚拟人脸中的一个或多个人脸部位的部位样式是与原人脸中相应人脸部位的部位样式不同的,使得虚拟人脸与原人脸从外观上是不同的,从而基于虚拟人脸难以识别出原人脸所属用户的身份,达到人脸彻底脱敏的效果。
图27示出了本申请一个示例性实施例提供的一种计算机设备的结构示意图。请参见图27,该计算机设备包括处理器2701、通信接口2702以及计算机可读存储介质2703。其中,处理器2701、通信接口2702以及计算机可读存储介质2703可通过总线或者其它方式连接。其中,通信接口2702用于接收和发送数据。计算机可读存储介质2703可以存储在计算机设备的存储器中,计算机可读存储介质2703用于存储计算机程序,计算机程序包括程序指令,处理器2701用于执行计算机可读存储介质2703存储的程序指令。处理器2701(或称CPU(Central Processing Unit,中央处理器))是计算机设备的计算核心以及控制核心,其适于实现一条或多条指令,具体适于加载并执行一条或多条指令从而实现相应方法流程或相应功能。
本申请实施例还提供了一种计算机可读存储介质(Memory),计算机可读存储介质是计算机设备中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机可读存储介质既可以包括计算机设备中的内置存储介质,当然也可以包括计算机设备所支持的扩展存储介质。计算机可读存储介质提供存储空间,该存储空间存储了计算机设备的处理系统。并且,在该存储空间中还存放了适于被处理器2701加载并执行的一条或多条的指令,这些指令可以是一个或多个的计算机程序(包括程序代码)。需要说明的是,此处的计算机可读存储介质可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器;可选的,还可以是至少一个位于远离前述处理器的计算机可读存储介质。
在一个实施例中,该计算机可读存储介质中存储有一条或多条指令;由处理器2701加载并执行计算机可读存储介质中存放的一条或多条指令,以实现上述图像处理方法实施例中的相应步骤;具体实现中,计算机可读存储介质中的一条或多条指令由处理器2701加载并执行如下步骤:
显示图像编辑界面,图像编辑界面中显示有原人脸;
在图像编辑界面中将原人脸更新显示为虚拟人脸;其中,虚拟人脸保留原人脸的姿态属性,且虚拟人脸与原人脸的外观属性不同。
在一种实现方式中,人脸的姿态属性包括:人脸朝向,以及人脸部位在人脸中的显示位置;人脸的外观属性包括以下至少一个:人脸部位的部位样式,视线,表情及穿戴。
在一种实现方式中,原人脸中不包含遮挡对象;计算机可读存储介质中的一条或多条指令由处理器2701加载并还执行如下步骤:
当存在针对图像编辑界面中原人脸的脱敏操作时,输出脱敏操作界面;
在脱敏操作界面中显示至少一个脱敏操作选项,一个脱敏操作选项对应一种脱敏方式;
当脱敏操作界面中的目标脱敏操作选项被选中时,触发执行在图像编辑界面中将原人脸更新显示为虚拟人脸的步骤;虚拟人脸是按照目标脱敏操作选项对应的脱敏方式对原人脸进行脱敏所得到的。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为虚拟人脸脱敏方式;计算机可读存储介质中的一条或多条指令由处理器2701加载并在执行在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体执行如下步骤:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸。
在一种实现方式中,目标脱敏操作选项对应的脱敏方式为遮挡脱敏方式;计算机可读存储介质中的一条或多条指令由处理器2701加载并在执行在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体执行如下步骤:
在图像编辑界面中将原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸;
采用遮挡对象遮挡虚拟人脸中的人脸部位;
其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,原人脸中包含遮挡对象;计算机可读存储介质中的一条或多条指令由处理器2701加载并在执行在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体执行如下步骤:
将包含遮挡对象的原人脸更新显示为未被遮挡对象遮挡的虚拟人脸;
计算机可读存储介质中的一条或多条指令由处理器2701加载并还执行如下步骤:
采用遮挡对象遮挡虚拟人脸中的人脸部位;其中,被遮挡对象遮挡后的虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
在一种实现方式中,计算机可读存储介质中的一条或多条指令由处理器2701加载并还执行如下步骤:
在将原人脸更新显示为虚拟人脸的过程中,显示更新进度信息;更新进度信息用于提示将原人脸更新显示为虚拟人脸的更新进度;
其中,更新进度信息的形式包括以下任一种:倒计时或者进度条。
在一种实现方式中,计算机可读存储介质中的一条或多条指令由处理器2701加载并还执行如下步骤:
在图像编辑界面中将原人脸设置为选中状态;所述原人脸处于选中状态包括以下任一种:原人脸所在区域被选择框选中,原人脸被批注框批注显示,或者,原人脸被显示于图像编辑界面中的人脸显示区域内;
计算机可读存储介质中的一条或多条指令由处理器2701加载并在执行在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体执行如下步骤:
在图像编辑界面中将处于选中状态的原人脸更新显示为虚拟人脸。
在一种实现方式中,计算机可读存储介质中的一条或多条指令由处理器2701加载并还执行如下步骤:
响应于针对图像编辑界面中原人脸的识别操作,触发执行在图像编辑界面中将原人脸设置为选中状态的步骤;识别操作包括:针对图像编辑界面中全部原人脸的第一选择操作,以及,针对图像编辑界面中待处理的原人脸的第二选择操作;
其中,第一选择操作包括以下任一种:目标应用程序静默检测图像编辑界面中原人脸的操作,目标应用程序的应用类型包括以下任一种:游戏类型、训练数据回传类型或者车载类型;针对图像编辑界面中的人脸识别选项的触发操作;在图像编辑界面中执行的人脸识别手势操作;或者,在图像编辑界面中的语音信号输入操作。
在一种实现方式中,图像编辑界面中显示的原人脸属于目标图像,目标图像显示于图像编辑界面中;计算机可读存储介质中的一条或多条指令由处理器2701加载并在执行在图像编辑界面中将原人脸更新显示为虚拟人脸时,具体执行如下步骤:
调用训练好的人脸检测网络对目标图像进行人脸识别处理,得到目标图像中包含原人脸的人脸区域;并对目标图像进行区域裁剪,得到目标图像对应的人脸图像,人脸图像中包含目标图像中的原人脸;
调用训练好的第一人脸转换网络对人脸图像进行人脸转换处理,得到转换后的第一转换人脸图像,第一转换人脸图像中包含人脸部位被遮挡对象遮挡的原人脸;
调用训练好的第二人脸转换网络对第一转换人脸图像进行人脸转换处理,得到转换后的第二转换人脸图像,第二转换人脸图像中包含人脸部位未被遮挡对象遮挡的虚拟人脸;
采用第二转换人脸图像替换目标图像中的人脸区域,得到新的目标图像;新的目标图像中包含虚拟人脸。
在一种实现方式中,第一人脸转换网络用于将属于第一图像域的人脸图像转换为第二图像域;第二人脸转换网络用于将属于第二图像域的人脸图像转换为第一图像域;针对第一人脸转换网络和第二人脸转换网络的训练过程包括:
获取第一人脸转换网络对应的第一人脸判别网络,第二人脸转换网络对应的第二人脸判别网络;并基于第一人脸转换网络和第一人脸判别网络,生成从第一图像域到所述第二图像域的第一对抗生成损失信息;以及,基于第二人脸转换网络和第二人脸判别网络,生成从第二图像域到第一图像域的第二对抗生成损失信息;
根据第一人脸转换网络和第二人脸转换网络,分别计算第一图像域的第一重建损失信息和第二图像域的第二重建损失信息;
基于第一对抗生成损失信息、第二对抗生成损失信息、第一重建损失信息和第二重建损失信息构建损失函数;其中,损失函数中为第一重建损失信息和第二重建损失信息设置有权重参数;
按照训练原则调整权重参数,得到训练好的第一人脸转换网络和第二人脸转换网络;其中,训练原则包括:训练后的第二人脸转换网络所生成的虚拟人脸保留原人脸的姿态属性,且不保留原人脸的外观属性;以及,训练后的第一人脸转换网络所生成的人脸包含遮挡对象,且保留原人脸的外观属性。
基于同一发明构思,本申请实施例中提供的计算机设备解决问题的原理与有益效果与本申请方法实施例中图像处理方法解决问题的原理和有益效果相似,可以参见方法的实施的原理和有益效果,为简洁描述,在这里不再赘述。
本申请实施例还提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述图像处理方法。
本领域普通技术对象可以意识到,结合本申请中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术对象可以对每个特定的应用,使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程设备。计算机指令可以存储在计算机可读存储介质中,或者通过计算机可读存储介质进行传输。计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如,同轴电缆、光纤、数字线(DSL))或无线(例如,红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据处理设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如,固态硬盘(Solid State Disk,SSD))等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术对象在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (15)
1.一种图像处理方法,其特征在于,包括:
显示图像编辑界面,所述图像编辑界面中显示有原人脸;
在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸;其中,所述虚拟人脸保留所述原人脸的姿态属性,且所述虚拟人脸与所述原人脸的外观属性不同。
2.如权利要求1所述的方法,其特征在于,人脸的姿态属性包括:人脸朝向,以及人脸部位在人脸中的显示位置;人脸的外观属性包括以下至少一个:人脸部位的部位样式,视线,表情及穿戴。
3.如权利要求1所述的方法,其特征在于,所述原人脸中不包含遮挡对象;所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸之前,还包括:
当存在针对所述图像编辑界面中所述原人脸的脱敏操作时,输出脱敏操作界面;
在所述脱敏操作界面中显示至少一个脱敏操作选项,一个脱敏操作选项对应一种脱敏方式;
当所述脱敏操作界面中的目标脱敏操作选项被选中时,触发执行所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸的步骤;所述虚拟人脸是按照所述目标脱敏操作选项对应的脱敏方式对原人脸进行脱敏所得到的。
4.如权利要求3所述的方法,其特征在于,所述目标脱敏操作选项对应的脱敏方式为虚拟人脸脱敏方式;所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸,包括:
在所述图像编辑界面中将所述原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸。
5.如权利要求3所述的方法,其特征在于,所述目标脱敏操作选项对应的脱敏方式为遮挡脱敏方式;所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸,包括:
在所述图像编辑界面中将所述原人脸更新显示为,未被遮挡对象遮挡的虚拟人脸;
采用遮挡对象遮挡所述虚拟人脸中的人脸部位;
其中,被所述遮挡对象遮挡后的所述虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
6.如权利要求1所述的方法,其特征在于,所述原人脸中包含遮挡对象;所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸,包括:
将包含遮挡对象的原人脸更新显示为未被遮挡对象遮挡的虚拟人脸;
所述方法还包括:
采用遮挡对象遮挡所述虚拟人脸中的人脸部位;其中,被所述遮挡对象遮挡后的所述虚拟人脸保留原虚拟人脸的姿态属性和外观属性。
7.如权利要求3或6所述的方法,其特征在于,所述方法还包括:
在将所述原人脸更新显示为所述虚拟人脸的过程中,显示更新进度信息;所述更新进度信息用于提示将所述原人脸更新显示为所述虚拟人脸的更新进度;
其中,所述更新进度信息的形式包括以下任一种:倒计时或者进度条。
8.如权利要求1所述的方法,其特征在于,所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸之前,还包括:
在所述图像编辑界面中将所述原人脸设置为选中状态;所述原人脸处于所述选中状态包括以下任一种:所述原人脸所在区域被选择框选中,所述原人脸被批注框批注显示,或者,所述原人脸被显示于所述图像编辑界面中的人脸显示区域内;
所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸,包括:
在所述图像编辑界面中将处于选中状态的所述原人脸更新显示为虚拟人脸。
9.如权利要求8所述的方法,其特征在于,所述在所述图像编辑界面中将所述原人脸设置为选中状态之前,还包括:
响应于针对所述图像编辑界面中原人脸的识别操作,触发执行所述在所述图像编辑界面中将所述原人脸设置为选中状态的步骤;所述识别操作包括:针对所述图像编辑界面中全部原人脸的第一选择操作,以及,针对所述图像编辑界面中待处理的原人脸的第二选择操作;
其中,所述第一选择操作包括以下任一种:目标应用程序静默检测所述图像编辑界面中原人脸的操作,所述目标应用程序的应用类型包括以下任一种:游戏类型、训练数据回传类型或者车载类型;针对所述图像编辑界面中的人脸识别选项的触发操作;在所述图像编辑界面中执行的人脸识别手势操作;或者,在所述图像编辑界面中的语音信号输入操作。
10.如权利要求1所述的方法,其特征在于,所述图像编辑界面中显示的所述原人脸属于目标图像,所述目标图像显示于所述图像编辑界面中;所述在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸,包括:
调用训练好的人脸检测网络对所述目标图像进行人脸识别处理,得到所述目标图像中包含原人脸的人脸区域;并对所述目标图像进行区域裁剪,得到所述目标图像对应的人脸图像,所述人脸图像中包含所述目标图像中的原人脸;
调用训练好的第一人脸转换网络对所述人脸图像进行人脸转换处理,得到转换后的第一转换人脸图像,所述第一转换人脸图像中包含人脸部位被遮挡对象遮挡的原人脸;
调用训练好的第二人脸转换网络对所述第一转换人脸图像进行人脸转换处理,得到转换后的第二转换人脸图像,所述第二转换人脸图像中包含人脸部位未被遮挡对象遮挡的虚拟人脸;
采用所述第二转换人脸图像替换所述目标图像中的人脸区域,得到新的目标图像;新的所述目标图像中包含虚拟人脸。
11.如权利要求10所述的方法,其特征在于,所述第一人脸转换网络用于将属于第一图像域的人脸图像转换为第二图像域;所述第二人脸转换网络用于将属于第二图像域的人脸图像转换为第一图像域;针对所述第一人脸转换网络和所述第二人脸转换网络的训练过程包括:
获取所述第一人脸转换网络对应的第一人脸判别网络,所述第二人脸转换网络对应的第二人脸判别网络;并基于所述第一人脸转换网络和所述第一人脸判别网络,生成从所述第一图像域到所述第二图像域的第一对抗生成损失信息;以及,基于所述第二人脸转换网络和所述第二人脸判别网络,生成从所述第二图像域到所述第一图像域的第二对抗生成损失信息;
根据所述第一人脸转换网络和所述第二人脸转换网络,分别计算所述第一图像域的第一重建损失信息和所述第二图像域的第二重建损失信息;
基于所述第一对抗生成损失信息、所述第二对抗生成损失信息、所述第一重建损失信息和所述第二重建损失信息构建损失函数;其中,所述损失函数中为所述第一重建损失信息和所述第二重建损失信息设置有权重参数;
按照训练原则调整所述权重参数,得到训练好的第一人脸转换网络和第二人脸转换网络;其中,所述训练原则包括:训练后的第二人脸转换网络所生成的虚拟人脸保留原人脸的姿态属性,且不保留原人脸的外观属性;以及,训练后的第一人脸转换网络所生成的人脸包含遮挡对象,且保留原人脸的外观属性。
12.一种图像处理装置,其特征在于,包括:
显示单元,用于显示图像编辑界面,所述图像编辑界面中显示有原人脸;
处理单元,用于在所述图像编辑界面中将所述原人脸更新显示为虚拟人脸;其中,所述虚拟人脸保留所述原人脸的姿态属性,且所述虚拟人脸与所述原人脸的外观属性不同。
13.一种计算机设备,其特征在于,包括:
处理器,适于执行计算机程序;
计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被所述处理器执行时,实现如权利要求1-11任一项所述的图像处理方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机应用程序,所述计算机应用程序被执行时,实现如权利要求1-11任一项所述的图像处理方法。
15.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,所述计算机指令被处理器执行时实现如权利要求1-11任一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310449360.9A CN116977157A (zh) | 2023-04-24 | 2023-04-24 | 一种图像处理方法、装置、设备、介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310449360.9A CN116977157A (zh) | 2023-04-24 | 2023-04-24 | 一种图像处理方法、装置、设备、介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116977157A true CN116977157A (zh) | 2023-10-31 |
Family
ID=88470165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310449360.9A Pending CN116977157A (zh) | 2023-04-24 | 2023-04-24 | 一种图像处理方法、装置、设备、介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116977157A (zh) |
-
2023
- 2023-04-24 CN CN202310449360.9A patent/CN116977157A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tolosana et al. | Deepfakes and beyond: A survey of face manipulation and fake detection | |
US11042728B2 (en) | Electronic apparatus for recognition of a user and operation method thereof | |
Betancourt et al. | The evolution of first person vision methods: A survey | |
CN109688451B (zh) | 摄像机效应的提供方法及系统 | |
CN109657533A (zh) | 行人重识别方法及相关产品 | |
US20190362171A1 (en) | Living body detection method, electronic device and computer readable medium | |
CN110569795A (zh) | 一种图像识别方法、装置以及相关设备 | |
WO2018142756A1 (ja) | 情報処理装置及び情報処理方法 | |
US11574424B2 (en) | Augmented reality map curation | |
US20230377291A1 (en) | Generating augmented reality content based on third-party content | |
Kaur et al. | Deepfakes: temporal sequential analysis to detect face-swapped video clips using convolutional long short-term memory | |
CN112733802A (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
CN113870133B (zh) | 多媒体显示及匹配方法、装置、设备及介质 | |
CN112581567A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN111491187A (zh) | 视频的推荐方法、装置、设备及存储介质 | |
CN113111782A (zh) | 基于显著对象检测的视频监控方法及装置 | |
CN111798367A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN117237547B (zh) | 图像重建方法、重建模型的处理方法和装置 | |
CN114360073A (zh) | 一种图像识别方法及相关装置 | |
CN117789306A (zh) | 图像处理方法、装置及存储介质 | |
CN117252947A (zh) | 图像处理方法、装置、计算机、存储介质及程序产品 | |
CN117351115A (zh) | 图像生成模型的训练方法、图像生成方法、装置及设备 | |
CN116977157A (zh) | 一种图像处理方法、装置、设备、介质及程序产品 | |
CN116580054A (zh) | 视频数据处理方法、装置、设备以及介质 | |
CN116977485A (zh) | 一种图像处理方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40099400 Country of ref document: HK |