CN112766105A - 一种应用于图码联采系统的图像转换方法及装置 - Google Patents
一种应用于图码联采系统的图像转换方法及装置 Download PDFInfo
- Publication number
- CN112766105A CN112766105A CN202110020925.2A CN202110020925A CN112766105A CN 112766105 A CN112766105 A CN 112766105A CN 202110020925 A CN202110020925 A CN 202110020925A CN 112766105 A CN112766105 A CN 112766105A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- current
- standard
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 45
- 238000005457 optimization Methods 0.000 claims abstract description 15
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 19
- 238000002372 labelling Methods 0.000 claims description 14
- 210000000056 organ Anatomy 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 206010014970 Ephelides Diseases 0.000 description 3
- 208000003351 Melanosis Diseases 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 208000032544 Cicatrix Diseases 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 231100000241 scar Toxicity 0.000 description 2
- 230000037387 scars Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种应用于图码联采系统的图像转换方法及装置,该方法包括:获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;从当前标准人脸图像中提取目标识别区域及目标识别区域对应的人脸特征;利用各参照图像对目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;基于人脸特征,对初始目标区域图像进行特征优化,得到标准目标区域图像。从而通过利用当前图码联采系统在不同真实环境下采集的参照图像,对标准人脸图像进行图像转换,提高生产标准目标区域图像的图像质量,从而丰富了用于图像识别对比的标准人脸图像样本,进而提高了图码联采系统对采集人脸图像的识别准确率和识别效率。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种应用于图码联采系统的图像转换方法及装置。
背景技术
现有的图码联采系统就是基于结构化与非结构化的全量信息采集、大数据交叉融合、重点人员多维信息档案及行为的系统,可以满足多警种实战需要,图码联采系统可以将手机标识码、人脸图像、车牌信息数据采集于一体,进行优势互补,横向贯通线上线下轨迹数据。图码联采系统通过将采集的人脸图像与标准身份信息图像数据库中存储的标准人脸图像进行对比,以实现人脸识别,但是由于受到采集设备采集环境、光线及遮挡等因素的影响,导致标准人脸图像与系统采集的人脸图像之间图像差异较大,影响图像识别准确性,进而影响整个图码联采系统采集人员信息的准确性。
发明内容
有鉴于此,本发明实施例提供了一种应用于图码联采系统的图像转换方法及装置以克服现有技术中通过图码联采系统所利用的标准人脸图像与采集的人脸图像之间差异较大影响图像识别准确性的问题。
根据第一方面,本发明实施例提供了一种应用于图码联采系统的图像转换方法,包括:
获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;
从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征;
利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;
基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像。
可选地,所述从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征,包括:
获取待识别位置的属性信息及所述当前标准人脸图像的属性标注信息,所述属性信息为人脸器官的类型,所述属性标注信息为不同人脸器官的位置坐标信息;
基于所述属性标注信息,从所述当前标准人脸图像中提取目标识别区域;
对所述目标识别区域进行特征提取,得到所述人脸特征。
可选地,所述基于所述人脸特征,利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的标准目标区域图像,包括:
将当前参照图像及所述目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。
可选地,所述预设生成对抗网络模型通过如下方式训练得到的:
获取历史标准人脸图像、当前图码联采系统在不同真实环境下采集的参照图像及所述历史标准人脸图像在不同真实环境中对应的真实人脸图像;
将所述前图码联采系统在不同真实环境下采集的参照图像、历史标准人脸图像输入至初始生成对抗网络模型,得到不同真实环境下的预测人脸图像;
基于不同真实环境下的真实人脸图像和预测人脸图像对所述初始生成对抗网络模型的参数进行调整,得到所述预设生成对抗网络模型。
可选地,所述基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像,包括:
从所述初始目标区域图像中提取当前人脸图像特征;
基于所述人脸特征对所述当前人脸图像特征进行更新;
利用更新后的当前人脸图像特征对所述初始目标区域图像进行更新,得到所述标准目标区域图像。
根据第二方面,本发明实施例提供了一种应用于图码联采系统的图像转换装置,包括:
获取模块,用于获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;
第一处理模块,用于从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征;
第二处理模块,用于利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;
第三处理模块,用于基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像。
可选地,所述第一处理模块具体用于获取待识别位置的属性信息及所述当前标准人脸图像的属性标注信息,所述属性信息为人脸器官的类型,所述属性标注信息为不同人脸器官的位置坐标信息;基于所述属性形象属性标注信息,从所述当前标准人脸图像中提取目标识别区域;对所述目标识别区域进行特征提取,得到所述人脸特征。
可选地,所述第二处理模块具体用于将当前参照图像及所述目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。
根据第三方面,本发明实施例提供了一种电子设备,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行第一方面及其任意一种可选实施方式中所述的方法。
根据第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行第一方面,或者其任意一种可选实施方式中所述的方法。
本发明技术方案,具有如下优点:
本发明实施例提供的应用于图码联采系统的图像转换方法及装置,包括:获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;从当前标准人脸图像中提取目标识别区域及目标识别区域对应的人脸特征;利用各参照图像对目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;基于人脸特征,对初始目标区域图像进行特征优化,得到标准目标区域图像。从而通过利用当前图码联采系统在不同真实环境下采集的参照图像,对标准人脸图像进行图像转换,以得到不同真实环境对应的初始区域图像,并通过利用标准人脸图像中的人脸特征,对初始区域图像进行特征优化,以更好保留图像身份特征,提高生产标准目标区域图像的图像质量,从而丰富了用于图像识别对比的标准人脸图像样本,进而提高了图码联采系统对采集人脸图像的识别准确率和识别效率。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的应用于图码联采系统的图像转换方法的流程图;
图2为本发明实施例的预设生成对抗网络模型的训练过程示意图;
图3为本发明实施例的应用于图码联采系统的图像转换装置的结构示意图;
图4为本发明实施例的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
现有的图码联采系统就是基于结构化与非结构化的全量信息采集、大数据交叉融合、重点人员多维信息档案及行为的系统,可以满足多警种实战需要,图码联采系统可以将手机标识码、人脸图像、车牌信息数据采集于一体,进行优势互补,横向贯通线上线下轨迹数据。图码联采系统通过将采集的人脸图像与标准身份信息图像数据库中存储的标准人脸图像进行对比,以实现人脸识别,但是由于受到采集设备采集环境、光线及遮挡等因素的影响,导致标准人脸图像与系统采集的人脸图像之间图像差异较大,影响图像识别准确性,进而影响整个图码联采系统采集人员信息的准确性。
基于上述问题,本发明实施例提供了一种应用于图码联采系统的图像转换方法,如图1所示,该应用于图码联采系统的图像转换方法包括:
步骤S101:获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像。
其中,该标准人脸图像对应有该人脸的人员信息,可用于进行人脸识别。通常该当前标准人脸图像为在统一环境标准下拍摄的图像,如:身份证、护照上带有人脸信息的照片或者在预设人员信息系统中采集的图像,如学籍管理系统中包含有人像的学籍图像等。该参照图像可以是不同人员在不同光照、天气、发型、表情等条件下获取的人脸图像。
步骤S102:从当前标准人脸图像中提取目标识别区域及目标识别区域对应的人脸特征。
其中,由于人脸图像都由眼睛、鼻子、嘴巴、眉毛、脸部分构成,并且每个人的各个部分都有自己的图像特点,为了提高图像转换效率,并且提高图像转换的精确度,将标准人脸图像按照不同的部位进行区域划分,例如在利用眼睛作为人脸图像识别的依据时,提取目标识别区域为人脸图像的眼部区域,在利用嘴巴作为人脸图像识别的依据时,提取目标识别区域为人脸图像的眼部区域等,本发明并不以此为限。
步骤S103:利用各参照图像对目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像。
具体地,通过将当前参照图像及目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。
步骤S104:基于人脸特征,对初始目标区域图像进行特征优化,得到标准目标区域图像。
通过执行上述的步骤,本发明实施例提供的应用于图码联采系统的图像转换方法,通过利用当前图码联采系统在不同真实环境下采集的参照图像,对标准人脸图像进行图像转换,以得到不同真实环境对应的初始区域图像,并通过利用标准人脸图像中的人脸特征,对初始区域图像进行特征优化,以更好保留图像身份特征,提高生产标准目标区域图像的图像质量,从而丰富了用于图像识别对比的标准人脸图像样本,进而提高了图码联采系统对采集人脸图像的识别准确率和识别效率。
具体地,在一实施例中,上述的步骤S102具体包括如下步骤:
步骤S201:获取待识别位置的属性信息及当前标准人脸图像的属性标注信息。
其中,属性信息为人脸器官的类型,属性标注信息为不同人脸器官的位置坐标信息。
步骤S202:基于属性标注信息,从当前标准人脸图像中提取目标识别区域。
其中,以上述目标识别区域为人脸图像的眼部区域为例,通过从属性标准信息中获取眼镜对应的位置坐标信息,从当前标准人脸图像中提取眼镜所在区域的图像作为目标识别区域。
步骤S203:对目标识别区域进行特征提取,得到人脸特征。
其中,对于不同目标识别区域,可以利用神经网络的方式进行特征提取,也可以通过人工方式提取人脸特征,也可以两种方式共同提取,该人脸特征为表征人员身份的特征,例如:与位于眼睛区域的雀斑、疤痕有关的图像特征,所提取的特征类型可以包括:灰度特征、纹理特征、形状特征等,本发明并不以此为限。
具体地,在一实施例中,上述的步骤S103中预设生成对抗网络模型是通过如下方式训练得到的:
获取历史标准人脸图像、当前图码联采系统在不同真实环境下采集的参照图像及历史标准人脸图像在不同真实环境中对应的真实人脸图像。
将前图码联采系统在不同真实环境下采集的参照图像、历史标准人脸图像输入至初始生成对抗网络模型,得到不同真实环境下的预测人脸图像;
基于不同真实环境下的真实人脸图像和预测人脸图像对初始生成对抗网络模型的参数进行调整,得到预设生成对抗网络模型。
具体地,在一实施例中,上述的步骤S104具体包括如下步骤:
步骤S401:从初始目标区域图像中提取当前人脸图像特征。
其中,该当前人脸图像特征的提取方式与上述步骤S203类似,在此不再进行赘述。
步骤S402:基于人脸特征对当前人脸图像特征进行更新。该人脸特征为表征人员身份的特征,例如:位于眼睛区域的雀斑、疤痕等特征。
步骤S403:利用更新后的当前人脸图像特征对初始目标区域图像进行更新,得到标准目标区域图像。通过对表征人员身份的特征对当前人脸图像特征进行特征优化,以保留图像身份特征,这不仅可以改善生成图像的质量,还可以用于对图像集进行数据扩展。
在实际应用中,由于图码联采系统所采集的图像信息多为脸部信息,通过在人脸图像都有特定的属性进行标注.对于多域间图像转换复杂的问题,通过选用的其中一个特定区域作为子图进行分析和转换,特别是具有特定意义的区域,通常是指对人员识别影响显著的区域,比如鼻子或眼睛,在图像转换过程中,可以先对区域的图像的元素和属性进行提取,提取的过程也是一个分层的过程,分层的目的也是为了获得不同属性或要素特征,生成一个目标域的特征向量,这样,可以控制目标域特征向量并得到可控制的结果,输入源域图像为x,目标域条件信息为v,生成图像为x′,则转换过程表示为:(x,v)→x′。
对于特征转换,可利用特征增强的多属性人脸图像生成模型,以源图像和参照图像作为输入,通过交换编码的属性部分,解码生成具有参照属性的图像,并通过对生成图像进行特征优化,以保留图像身份特征,这不仅可以改善生成图像的质量,还可以用于对图像集进行数据扩展,在图像转换过程中,可以采用现有的神经网络的方式进行转换,本发明实施例选择生成对抗网络模型作为转换模型,在此不再进行赘述。在一定范围内,随着网络深度的增加其提取特征能力逐渐增强,可以通过将生成对抗网络模型的网络深度由3层增加到多层,通过加大网络深度,提高生成图像质量.同时,将模型中相互对称的编码器、解码器的中间层相互连接起来,实现编码器部分得到的低维特征与解码器得到的高维特征相结合,作为下一层的输入,这样可以在人脸属性转换的同时更好地保留图像的原始特征,生成更自然逼真的图像.为提取图像的深度特征,也在生成器后添加一个深度神经网络,其主要作用是将数据从图像空间映射到深度特征空间,通过对训练样本和生成图像提取的深度特征进行优化,辅助找到优化后的对象特征,以保证生成更加真实的图像。
对于生成对抗网络模型可对高级属性如姿势、表情进行自动学习和无监督分割,且生成图像还具备随机变化(如雀斑、头发)。该架构可以对图像合成进行直观、多尺度的控制,展示了更好的插值属性,是对某些图像属性做了进一步的删减和保留,如对空间分辨率较低的进行叠加的效果,生成图像复制了原图像脸形等高级属性,但对模糊的背景以及发型及图像的所有颜色进行了删减,这一点特别重要,防止对于人脸图像的模仿,同时对发型的某型属性进行了选择性保留。当然,对于高分辨的图像可以保留更多的要素。本发明并不以此为限。
对于生成对抗网络模型简称GAN的原理,简单说明如下:
GAN中包含两个模型:生成网络(Generative)和判别网络(Discriminative),在本实施例中,生成模型是来自于预先获取的样板人脸图像信息,并以此产生的标准样板,而判别网络是一个分类器,它判断给定的图片到底是来自数据集的真实图像,还是人工创建的假图像。这基本上就是一个表现为卷积神经网络(CNN)形式的二元分类器。
判别网络(Discriminator)试图区分接收的数据属于真实数据还是由生成网络生成的数据,它需要基于实现定于的类别对其进行分类。通常来说,GAN使用在二分类问题上。判别结果为0~1之间的数字,用来表示本次输入被认为是真实数据的可能性。当判定结果为1时,则认为它来自真实数据,反之则属于生成数据。
1、生成网络将给定的样板人脸图样的向量作为参考标准图像,而对于重要的人脸特征值做为常数进行保留,例如眼睛的特征参数;
2、判别网络主要任务是判别人脸是真还是假,所以它的输入包括了假定的真实图片和模拟图片。其判定结果将作为一个输出。
3、生成网络在不断迭代中生成看起来更加真实的各类环境下人脸图像。
4、判别网络不断优化区分真假的标准,试图识别出每一张由生成网络制造不同环境下的图片。
5、在每一轮的迭代中,它们都会把自己所做的调整中的成功尝试反馈给对方。
6、最终在判别网络的帮助下,生成网络已经训练到可以让判别网络无法正确判断真品和赝品的区分时,就可以停止迭代过程了。
7、在生成网络与判别网络对抗的过种中,对于各个元素向量参数的变化进行归一化处理过种的记录,并生成均方差偏离指数,以此来判断真假的参考。
为了便于更直观的理解,如图2所示,为生成对抗网络模型的训练过程示意图,图中的粗虚线表示真实的样本的分布情况,细虚线表示判别器判别概率的分布情况,实线表示生成样本的分布。
模型的训练目标是使用生成样本分布(实线)去拟合真实的样本分布(粗虚线),来达到生成以假乱真样本的目的。可以看到在(a)状态处于最初始的状态的时候,生成器生成的分布和真实分布区别较大,并且判别器判别出样本的概率不是很稳定,因此会先训练判别器来更好地分辨样本。通过多次训练判别器来达到(b)样本状态,此时判别样本区分得非常显著和良好。然后再对生成器进行训练。训练生成器之后达到(c)样本状态,此时生成器分布相比之前,逼近了真实样本分布。经过多次反复训练迭代之后,最终希望能够达到(d)状态,生成样本分布拟合于真实样本分布,并且判别器分辨不出样本是生成的还是真实的(即判别概率大小相当均为0.5)。至此训练目的达到,模型训练结束。
通过本发明提供的方法,使得图像转换更方便、准确,同时兼具了生成指定图像的能力,可以迅速得到初步的结果,方便数据的处理及后续识别,以及快速形成结构化的数据集,有利于提高人脸识别率。
通过执行上述的步骤,本发明实施例提供的应用于图码联采系统的图像转换方法,通过利用当前图码联采系统在不同真实环境下采集的参照图像,对标准人脸图像进行图像转换,以得到不同真实环境对应的初始区域图像,并通过利用标准人脸图像中的人脸特征,对初始区域图像进行特征优化,以更好保留图像身份特征,提高生产标准目标区域图像的图像质量,从而丰富了用于图像识别对比的标准人脸图像样本,进而提高了图码联采系统对采集人脸图像的识别准确率和识别效率。
本发明实施例还提供了一种应用于图码联采系统的图像转换装置,如图3所示,该图码联采系统的图像转换装置包括:
获取模块101,用于获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像。详细内容参见上述方法实施例中步骤S101的相关描述,在此不再进行赘述。
第一处理模块102,用于从当前标准人脸图像中提取目标识别区域及目标识别区域对应的人脸特征。详细内容参见上述方法实施例中步骤S102的相关描述,在此不再进行赘述。
第二处理模块103,用于利用各参照图像对目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像。详细内容参见上述方法实施例中步骤S103的相关描述,在此不再进行赘述。
第三处理模块104,用于基于人脸特征,对初始目标区域图像进行特征优化,得到标准目标区域图像。详细内容参见上述方法实施例中步骤S104的相关描述,在此不再进行赘述。
可选地,第一处理模块102具体用于获取待识别位置的属性信息及当前标准人脸图像的属性标注信息,属性信息为人脸器官的类型,属性标注信息为不同人脸器官的位置坐标信息;基于属性形象属性标注信息,从当前标准人脸图像中提取目标识别区域;对目标识别区域进行特征提取,得到人脸特征。详细内容参见上述方法实施例中步骤S102的相关描述,在此不再进行赘述。
可选地,第二处理模块103具体用于将当前参照图像及目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。详细内容参见上述方法实施例中步骤S103的相关描述,在此不再进行赘述。
本发明实施例提供的应用于图码联采系统的图像转换装置,用于执行上述实施例提供的应用于图码联采系统的图像转换方法,其实现方式与原理相同,详细内容参见上述方法实施例的相关描述,不再赘述。
通过上述各个组成部分的协同合作,本发明实施例提供的应用于图码联采系统的图像转换装置,通过利用标准人脸图像中的人脸特征,对初始区域图像进行特征优化,以更好保留图像身份特征,提高生产标准目标区域图像的图像质量,从而丰富了用于图像识别对比的标准人脸图像样本,进而提高了图码联采系统对采集人脸图像的识别准确率和识别效率。
图4示出了本发明实施例的一种电子设备,如图4所示,该电子设备包括:处理器901和存储器902,其中,处理器901和存储器902可以通过总线或者其他方式连接,图4中以通过总线连接为例。
处理器901可以为中央处理器(Central Processing Unit,CPU)。处理器901还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器902作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如上述方法实施例中的方法所对应的程序指令/模块。处理器901通过运行存储在存储器902中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器901所创建的数据等。此外,存储器902可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器902可选包括相对于处理器901远程设置的存储器,这些远程存储器可以通过网络连接至处理器901。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个模块存储在存储器902中,当被处理器901执行时,执行上述方法实施例中的方法。
上述电子设备具体细节可以对应参阅上述方法实施例中对应的相关描述和效果进行理解,此处不再赘述。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,实现的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固态硬盘(Solid-State Drive,SSD)等;存储介质还可以包括上述种类的存储器的组合。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (10)
1.一种应用于图码联采系统的图像转换方法,其特征在于,包括:
获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;
从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征;
利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;
基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像。
2.根据权利要求1所述的方法,其特征在于,所述从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征,包括:
获取待识别位置的属性信息及所述当前标准人脸图像的属性标注信息,所述属性信息为人脸器官的类型,所述属性标注信息为不同人脸器官的位置坐标信息;
基于所述属性标注信息,从所述当前标准人脸图像中提取目标识别区域;
对所述目标识别区域进行特征提取,得到所述人脸特征。
3.根据权利要求1所述的方法,其特征在于,所述基于所述人脸特征,利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的标准目标区域图像,包括:
将当前参照图像及所述目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。
4.根据权利要求3所述的方法,其特征在于,所述预设生成对抗网络模型通过如下方式训练得到的:
获取历史标准人脸图像、当前图码联采系统在不同真实环境下采集的参照图像及所述历史标准人脸图像在不同真实环境中对应的真实人脸图像;
将所述前图码联采系统在不同真实环境下采集的参照图像、历史标准人脸图像输入至初始生成对抗网络模型,得到不同真实环境下的预测人脸图像;
基于不同真实环境下的真实人脸图像和预测人脸图像对所述初始生成对抗网络模型的参数进行调整,得到所述预设生成对抗网络模型。
5.根据权利要求1所述的方法,其特征在于,所述基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像,包括:
从所述初始目标区域图像中提取当前人脸图像特征;
基于所述人脸特征对所述当前人脸图像特征进行更新;
利用更新后的当前人脸图像特征对所述初始目标区域图像进行更新,得到所述标准目标区域图像。
6.一种应用于图码联采系统的图像转换装置,其特征在于,包括:
获取模块,用于获取当前标准人脸图像及当前图码联采系统在不同真实环境下采集的参照图像;
第一处理模块,用于从所述当前标准人脸图像中提取目标识别区域及所述目标识别区域对应的人脸特征;
第二处理模块,用于利用各所述参照图像对所述目标识别区域进行图像转换,得到与不同真实环境对应的初始目标区域图像;
第三处理模块,用于基于所述人脸特征,对所述初始目标区域图像进行特征优化,得到标准目标区域图像。
7.根据权利要求6所述的装置,其特征在于,所述第一处理模块具体用于获取待识别位置的属性信息及所述当前标准人脸图像的属性标注信息,所述属性信息为人脸器官的类型,所述属性标注信息为不同人脸器官的位置坐标信息;基于所述属性形象属性标注信息,从所述当前标准人脸图像中提取目标识别区域;对所述目标识别区域进行特征提取,得到所述人脸特征。
8.根据权利要求6所述的装置,其特征在于,所述第二处理模块具体用于将当前参照图像及所述目标识别区域输入预设生成对抗网络模型,得到当前参照图像对应的标准目标区域图像。
9.一种电子设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行如权利要求1-5任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110020925.2A CN112766105A (zh) | 2021-01-07 | 2021-01-07 | 一种应用于图码联采系统的图像转换方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110020925.2A CN112766105A (zh) | 2021-01-07 | 2021-01-07 | 一种应用于图码联采系统的图像转换方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766105A true CN112766105A (zh) | 2021-05-07 |
Family
ID=75700866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110020925.2A Pending CN112766105A (zh) | 2021-01-07 | 2021-01-07 | 一种应用于图码联采系统的图像转换方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766105A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109271911A (zh) * | 2018-08-24 | 2019-01-25 | 太平洋未来科技(深圳)有限公司 | 基于光线的三维人脸优化方法、装置及电子设备 |
CN110659582A (zh) * | 2019-08-29 | 2020-01-07 | 深圳云天励飞技术有限公司 | 图像转换模型训练方法、异质人脸识别方法、装置及设备 |
CN111028305A (zh) * | 2019-10-18 | 2020-04-17 | 平安科技(深圳)有限公司 | 表情生成方法、装置、设备及存储介质 |
CN111127308A (zh) * | 2019-12-08 | 2020-05-08 | 复旦大学 | 用于局部遮挡下单样本人脸识别的镜像特征重排修复方法 |
US20200294294A1 (en) * | 2019-03-15 | 2020-09-17 | NeoCortext Inc. | Face-swapping apparatus and method |
CN112149651A (zh) * | 2020-11-25 | 2020-12-29 | 深圳点猫科技有限公司 | 一种基于深度学习的人脸表情识别方法、装置及设备 |
WO2020258668A1 (zh) * | 2019-06-26 | 2020-12-30 | 平安科技(深圳)有限公司 | 基于对抗网络模型的人脸图像生成方法及装置、非易失性可读存储介质、计算机设备 |
-
2021
- 2021-01-07 CN CN202110020925.2A patent/CN112766105A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109271911A (zh) * | 2018-08-24 | 2019-01-25 | 太平洋未来科技(深圳)有限公司 | 基于光线的三维人脸优化方法、装置及电子设备 |
US20200294294A1 (en) * | 2019-03-15 | 2020-09-17 | NeoCortext Inc. | Face-swapping apparatus and method |
WO2020258668A1 (zh) * | 2019-06-26 | 2020-12-30 | 平安科技(深圳)有限公司 | 基于对抗网络模型的人脸图像生成方法及装置、非易失性可读存储介质、计算机设备 |
CN110659582A (zh) * | 2019-08-29 | 2020-01-07 | 深圳云天励飞技术有限公司 | 图像转换模型训练方法、异质人脸识别方法、装置及设备 |
CN111028305A (zh) * | 2019-10-18 | 2020-04-17 | 平安科技(深圳)有限公司 | 表情生成方法、装置、设备及存储介质 |
CN111127308A (zh) * | 2019-12-08 | 2020-05-08 | 复旦大学 | 用于局部遮挡下单样本人脸识别的镜像特征重排修复方法 |
CN112149651A (zh) * | 2020-11-25 | 2020-12-29 | 深圳点猫科技有限公司 | 一种基于深度学习的人脸表情识别方法、装置及设备 |
Non-Patent Citations (7)
Title |
---|
DEFA ZHU等: "UGAN: Untraceable GAN for Multi-Domain Face Translation", 《ARXIV》, 12 September 2019 (2019-09-12), pages 1 - 18 * |
HAO TANG等: "Dual Generator Generative Adversarial Networks for Multi-domain Image-to-Image Translation", 《COMPUTER VISION-ACCV 2018》, 28 May 2019 (2019-05-28), pages 3 - 21, XP047508678, DOI: 10.1007/978-3-030-20887-5_1 * |
RAN YI等: "APDrawingGAN: Generating Artistic Portrait Drawings From Face Photos With Hierarchical GANs", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 9 January 2020 (2020-01-09), pages 10735 - 10744 * |
YUNJEY CHOI等: "StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 16 December 2018 (2018-12-16), pages 8789 - 8797 * |
叶亚男等: "基于改进CycleGan模型和区域分割的表情动画合成", 《计算机科学》, no. 09, 31 December 2020 (2020-12-31), pages 148 - 155 * |
姚乃明等: "基于生成式对抗网络的鲁棒人脸表情识别", 《自动化学报》, no. 05, 18 April 2018 (2018-04-18), pages 100 - 112 * |
孔棱睿: "基于生成式对抗网络的图像风格迁移研究", 《中国优秀硕士学位论文全文数据库:信息科技辑》, no. 2020, 15 February 2020 (2020-02-15), pages 138 - 2028 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021073417A1 (zh) | 表情生成方法、装置、设备及存储介质 | |
CN109919031B (zh) | 一种基于深度神经网络的人体行为识别方法 | |
CN110111236B (zh) | 基于渐进式对抗生成网络的多目标草图生成图像的方法 | |
CN110555896B (zh) | 一种图像生成方法、装置以及存储介质 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
Sajid et al. | Data augmentation‐assisted makeup‐invariant face recognition | |
Liu et al. | A 3 GAN: an attribute-aware attentive generative adversarial network for face aging | |
CN107507620A (zh) | 一种语音播报声音设置方法、装置、移动终端及存储介质 | |
CN115565238B (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN115797606B (zh) | 基于深度学习的3d虚拟数字人交互动作生成方法及系统 | |
US11823490B2 (en) | Non-linear latent to latent model for multi-attribute face editing | |
Qi et al. | Personalized sketch-based image retrieval by convolutional neural network and deep transfer learning | |
CN111598051B (zh) | 一种脸部验证方法、装置、设备及可读存储介质 | |
CN112766366A (zh) | 对抗生成网络的训练方法及其图像处理方法、装置 | |
Fernando et al. | Detection of fake and fraudulent faces via neural memory networks | |
CN115131849A (zh) | 图像生成方法以及相关设备 | |
CN116168269A (zh) | 掌纹图像生成模型的训练方法及系统、掌纹图像生成方法及系统 | |
CN113408651B (zh) | 基于局部判别性增强的无监督三维物体分类方法 | |
CN104156708A (zh) | 一种基于动态人脸表情序列和k阶情感强度模型的特征表示方法 | |
Luo et al. | Facial metamorphosis using geometrical methods for biometric applications | |
CN113705301A (zh) | 图像处理方法及装置 | |
Liu et al. | A3GAN: An attribute-aware attentive generative adversarial network for face aging | |
Vo et al. | 3D facial expression recognition based on multi-view and prior knowledge fusion | |
CN111325173A (zh) | 毛发类型识别方法、装置、电子设备及存储介质 | |
CN112766105A (zh) | 一种应用于图码联采系统的图像转换方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |