CN111401283A - 面部识别方法及装置、电子设备及存储介质 - Google Patents
面部识别方法及装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111401283A CN111401283A CN202010209378.8A CN202010209378A CN111401283A CN 111401283 A CN111401283 A CN 111401283A CN 202010209378 A CN202010209378 A CN 202010209378A CN 111401283 A CN111401283 A CN 111401283A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- facial
- face image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000001815 facial effect Effects 0.000 claims abstract description 186
- 238000012549 training Methods 0.000 claims description 32
- 230000009467 reduction Effects 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 210000000697 sensory organ Anatomy 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000003062 neural network model Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
Abstract
本公开提供了一种面部识别方法及装置、电子设备及存储介质,涉及网络技术领域,以解决相关技术中由于获取的面部图像不完整,导致面部识别的准确率较低的问题。该方法包括:获取第一面部图像,第一面部图像为用户的部分面部图像;根据第一面部图像,生成第二面部图像,第二面部图像为用户的完整面部图像;采用第二面部图像,进行面部识别。该方法可以应用于面部识别的场景中。
Description
技术领域
本公开涉及网络技术领域,尤其涉及一种面部识别方法及装置、电子设备及存储介质。
背景技术
随着电子技术及网络技术的快速发展,电子设备的应用越来越广泛,用户对电子设备的性能要求也越来越高。
目前,面部识别技术(也可以称为人脸识别技术)在电子设备中的应用越来越多,例如采用面部识别技术解锁电子设备的屏幕,采用面部识别技术登录应用程序,以及采用面部识别技术进行支付等等。具体的,在面部识别过程中,电子设备可以先获取面部图像,然后再将其获取的面部图像与预先设置的面部图像进行比对,如果这两个图像匹配,那么面部识别成功;如果这两个图像不匹配,那么面部识别失败。
然而,在上述过程中,如果电子设备进行面部识别的场景比较特殊,例如用户的脸部倾斜、用户的脸部部分被遮挡、电子设备所处环境的光线较强或者较弱等,那么电子设备获取的面部图像可能不完整,如此使得电子设备无法通过该面部图像准确地进行面部识别,从而导致电子设备面部识别的准确率较低。
发明内容
本公开提供一种面部识别方法及装置、电子设备及存储介质,以至少解决相关技术中由于获取的面部图像不完整,导致面部识别的准确率较低的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种面部识别方法,该方法包括:获取第一面部图像,第一面部图像为用户的部分面部图像;根据第一面部图像,生成第二面部图像,第二面部图像为用户的完整面部图像;采用第二面部图像,进行面部识别。
可选的,本公开实施例中,根据第一面部图像,生成第二面部图像的步骤,包括:获取第一面部图像中的面部特征图像,得到第一面部特征图像;根据第一面部图像和第一面部特征图像,生成第二面部图像。
可选的,本公开实施例中,根据第一面部图像和第一面部特征图像,生成第二面部图像的步骤,包括:根据第一面部图像,生成面部轮廓图像;根据第一面部特征图像,生成面部五官图像;将面部轮廓图像和面部五官图像合成,得到第二面部图像。
可选的,本公开实施例中,根据第一面部图像和第一面部特征图像,生成第二面部图像的步骤,包括:将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像。
可选的,本公开实施例中,在将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像的步骤之前,面部识别方法还包括:获取M组样本面部图像,每组样本面部图像分别包括一个完整面部图像和N个部分面部图像;采用M组样本面部图像,对预设模型进行训练,得到面部还原模型,M为正整数,N为大于1的整数。
可选的,本公开实施例中,采用M组样本面部图像,对预设模型进行训练,得到面部还原模型的步骤,包括:将第i组样本面部图像中的第一个部分面部图像输入预设模型,得到第一个完整面部图像;将第i组样本面部图像中的第j个部分面部图像输入预设模型,得到第j个完整面部图像;若第一损失值与第二损失值之间的差值小于或等于预设阈值,则将第i+1组样本面部图像中的部分面部图像输入预设模型,直至当第M组样本面部图像中连续的两个部分面部图像输入预设模型得到的完整面部图像,相对于第M组样本面部图像中的完整面部图像的损失值的差值小于或等于预设阈值时,训练得到的模型为面部还原模型;其中,第一损失值为第j个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,第二损失值为第j-1个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,1≤i≤M,1<j≤N,i和j均为正整数。
根据本公开实施例的第二方面,提供一种面部识别装置,包括获取模块、生成模块和识别模块。获取模块,被配置为获取第一面部图像,第一面部图像为用户的部分面部图像;生成模块,被配置为根据获取模块获取的第一面部图像,生成第二面部图像,第二面部图像为用户的完整面部图像;识别模块,被配置为采用生成模块生成的第二面部图像,进行面部识别。
可选的,生成模块,具体被配置为执行获取第一面部图像中的面部特征图像,得到第一面部特征图像;并根据第一面部图像和第一面部特征图像,生成第二面部图像。
可选的,生成模块,具体被配置为根据第一面部图像,生成面部轮廓图像;并根据第一面部特征图像,生成面部五官图像;以及将面部轮廓图像和面部五官图像合成,得到第二面部图像。
可选的,生成模块,具体被配置为将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像。
可选的,面部识别装置还包括训练模块;获取模块,还被配置为在生成模块将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像之前,获取M组样本面部图像,每组样本面部图像分别包括一个完整面部图像和N个部分面部图像,M为正整数,N为大于1的整数;训练模块,被配置为采用获取模块获取的M组样本面部图像,对预设模型进行训练,得到面部还原模型。
可选的,训练模块,具体被配置为:将第i组样本面部图像中的第一个部分面部图像输入预设模型,得到第一个完整面部图像;将第i组样本面部图像中的第j个部分面部图像输入预设模型,得到第j个完整面部图像;若第一损失值与第二损失值之间的差值小于或等于预设阈值,则将第i+1组样本面部图像中的部分面部图像输入预设模型,直至当第M组样本面部图像中连续的两个部分面部图像输入预设模型得到的完整面部图像,相对于第M组样本面部图像中的完整面部图像的损失值的差值小于或等于预设阈值时,训练得到的模型为面部还原模型;其中,第一损失值为第j个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,第二损失值为第j-1个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,1≤i≤M,1<j≤N,i和j均为正整数。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储该处理器可执行指令的存储器;
其中,该处理器被配置为执行指令,以实现如上述第一方面或第一方面的任一种可能实现方式所述的面部识别方法。
根据本公开实施例的第四方面,提供一种存储介质,当该存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如上述第一方面或第一方面的任一种可能实现方式所述的面部识别方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,当该计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备能够执行如上述第一方面或第一方面的任一种可能实现方式所述的面部识别方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过该方案,由于面部识别装置可以根据获取的用户的部分面部图像,生成用户的完整面部图像,因此在面部识别装置进行面部识别的过程中,即使面部识别装置获取的用户的面部图像不够完整,即面部识别装置获取的面部图像是用户的部分面部图像,面部识别装置也可以根据用户的部分面部图像,生成用户的完整面部图像,然后再采用该完整面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而提高面部识别装置进行面部识别的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种面部识别方法的流程图之一。
图2是根据一示例性实施例示出的一种面部识别方法的流程图之二。
图3是根据一示例性实施例示出的一种面部识别方法的流程图之三。
图4是根据一示例性实施例示出的一种面部识别方法的流程图之四。
图5是根据一示例性实施例示出的一种面部识别方法的流程图之五。
图6是根据一示例性实施例示出的一种电子设备的框图之一。
图7是根据一示例性实施例示出的一种电子设备的框图之二。
图8是根据一示例性实施例示出的一种电子设备的结构示意图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供的面部识别方法的执行主体可以为本公开实施例提供的面部识别装置,也可以为包括该面部识别装置的电子设备,具体的可以根据实际使用需求确定,本公开实施例不作限定。
下面首先对本公开实施例中涉及的术语/名词进行解释说明。
部分面部图像:是指包括用户的部分面部特征的图像,即包括用户的部分面部特征。
完整面部图像:是指包括用户的全部面部特征的图像,即包括用户的全部面部特征。
面部特征:是指可以表示用户面部信息的部位,也可以称为五官。
可以理解,本公开实施例中提及的面部特征图像、面部五官图像、五官图像是等价的,均可以理解为包括用户面部特征的图像。
本公开实施例中,在面部识别装置进行面部识别的过程中,如果面部识别装置获取的用户的面部图像为用户的部分面部图像,那么面部识别装置可以先根据该部分面部图像生成用户的完整面部图像,然后再采用该完整面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而可以提高面部识别装置进行面部识别的准确率。
需要说明的是,本公开实施例提供的面部识别方法可以应用于以下场景中,分别为:解锁屏幕、解锁应用程序界面、登录应用程序账号,以及网络支付。
当然,实际实现时,本公开实施例提供的面部识别方法还可以应用于其它任意可能的场景中,具体可以根据实际使用需求确定,本公开实施例不作限定。
下面以面部识别装置为例,结合各个附图,对本公开实施例提供的面部识别方法进行示例性的说明。
图1是根据一示例性实施例示出的一种面部识别方法的流程图,如图1所示,面部识别方法用于面部识别装置中,该方法包括以下步骤S21-步骤S23。
在步骤S21中,面部识别装置获取第一面部图像。
其中,上述第一面部图像可以为用户的部分面部图像。
可选的,本公开实施例中,上述面部识别装置获取第一面部图像的情况可以包括以下两种情况,分别为情况一和情况二。下面分别对这两种情况进行示例性的说明。
情况一:在用户的面部被部分遮挡的情况下,面部识别装置仅能获取用户的部分面部图像。
情况二:在用户的面部未被部分遮挡的情况下,面部识别装置无需获取用户的完整面部图像,仅获取用户的部分面部图像。
本公开实施例中,上述第一面部图像可以为包括用户眼部、用户嘴部(也可以称为用户的嘴巴)、用户鼻部(也可以称为用户的鼻子)等用户面部特征的图像。具体可以根据实际使用需求确定,本公开实施例不作限定。
可选的,本公开实施例中,在上述第一面部图像为包括用户眼部的图像的情况下,上述第一面部图像可以为包括用户左眼的图像,也可以为包括用户右眼的图像,还可以为包括用户左眼和用户右眼的图像。具体可以根据实际使用需求确定,本公开实施例不作限定。
示例性的,上述第一面部图像可以为用户的侧脸图像,该侧脸图像可以包括为包括用户左眼、用户右眼、用户嘴部和用户鼻部的图像。
在步骤S22中,面部识别装置根据第一面部图像,生成第二面部图像。
其中,上述第二面部图像可以为用户的完整面部图像。
示例性的,上述第二面部图像可以为用户的正脸图像,该正脸图像可以包括用户的全部面部特征。
需要说明的是,本公开实施例中的示例均是以上述第一面部图像为用户的侧脸图像、上述第二面部图像为用户的正脸图像为例进行示例性说明的,其并不对本公开造成任何限定。实际实现时,上述第一面部图像可以为任意可能的用户的部分面部图像,上述第二面部图像可以为任意可能的用户的完整面部图像,具体可以根据实际使用需求确定,本公开实施例不作任何限定。
在步骤23中,面部识别装置采用第二面部图像,进行面部识别。
本公开实施例中,在面部识别装置进行面部识别的过程中,面部识别装置可以先获取用户的面部图像,如果面部识别装置获取的用户的面部图像为用户的部分面部图像(即上述第一面部图像),那么面部识别装置可以先根据该第一面部图像,生成用户的完整面部图像(即上述第二面部图像),然后再采用该第二面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而提高面部识别装置进行面部识别的准确率。
可选的,本公开实施例中,在面部识别装置获取到用户的面部图像之后,面部识别装置可以先确定其获取的面部图像是用户的部分面部图像,还是用户的完整面部图像。如果获取的面部图像为用户的部分面部图像,那么面部识别装置可以执行本公开实施例提供的面部识别方法的相应步骤;如果获取的面部图像为用户的完整面部图像,那么面部识别装置可以直接采用该面部图像进行面部识别。
可选的,本公开实施例中,面部识别装置可以通过检测其获取的面部图像中包括的面部特征,确定该面部图像是用户的部分面部图像,还是用户的完整面部图像。具体的,如果面部识别装置检测到其获取的面部图像仅包括用户的部分面部特征,那么可以确定其获取的面部图像为用户的部分面部图像;如果面部识别装置检测到其获取的面部图像包括用户的全部面部特征,那么可以确定其获取的面部图像为用户的完整面部图像。
当然,实际实现时,面部识别装置还可以通过其它任意可能的方式确定其获取的面部图像是用户的部分面部图像,还是用户的完整面部图像,具体可以根据实际使用需求确定,本公开实施例不作限定。
通过该方案,由于面部识别装置可以根据获取的用户的部分面部图像,生成用户的完整面部图像,因此在面部识别装置进行面部识别的过程中,即使面部识别装置获取的用户的面部图像不够完整,即面部识别装置获取的面部图像是用户的部分面部图像,面部识别装置也可以根据用户的部分面部图像,生成用户的完整面部图像,然后再采用该完整面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而提高面部识别装置进行面部识别的准确率。
可选的,本公开实施例中,在面部识别装置获取上述第一面部图像之后,面部识别装置可以先从该第一面部图像中获取用户的面部特征图像(例如本公开实施例中的第一面部特征图像),然后面部识别装置可以根据该第一面部图像和第一面部特征图像,准确地生成的第二面部图像。
示例性的,结合图1,如图2所示,上述步骤S22具体可以通过下述的步骤S22a和步骤S22b实现。
在步骤S22a中,面部识别装置获取第一面部图像中的面部特征图像,得到第一面部特征图像。
在步骤S22b中,面部识别装置根据第一面部图像和第一面部特征图像,生成第二面部图像。
本公开实施例中,面部识别装置可以先从上述第一面部图像中获取用户的各个面部特征(例如用户眼部、用户嘴部和用户鼻部)的图像,得到上述第一面部特征图像,然后面部识别装置再根据第一面部图像和第一面部特征图像,生成上述第二面部图像。
可选的,本公开实施例中,一种可能的实现方式,面部识别装置可以从上述第一面部图像中截取(或者提取、裁剪)用户的各个面部特征的图像,然后再将这些面部特征的图像拼接(或组合)为一个图像,从而可以得到上述第一面部特征图像。
示例性的,假设上述第一面部图像为用户的侧脸图像,该侧脸图像可以包括用户左眼、用户右眼、用户嘴部和用户鼻部这些面部特征,那么面部识别装置可以从该侧脸图像中截取用户左眼的图像、用户右眼的图像、用户嘴部的图像和用户鼻部的图像,并将这些面部特征的图像拼接为一个图像,从而可以得到上述第一面部特征图像。
可选的,本公开实施例中,另一种可能的实现方式,面部识别装置可以从上述第一面部图像中截取(或者提取、裁剪)用户的各个面部特征的图像,面部识别装置截取到的这些面部特征的图像可以统称为上述第一面部特征图像。
本公开实施例中,由于用户的面部特征为用户面部的关键信息,且其能够准确反映用户的面部形象,因此面部识别装置可以通过上述第一面部特征图像和第一面部图像,准确地生成与第一面部图像对应的完整面部图像,即上述第二面部图像。
可选的,本公开实施例中,在面部识别装置获取上述第一面部特征图像之后,面部识别装置可以根据上述第一面部图像生成用户的面部轮廓图像(也可以称为脸型图像),并根据第一面部特征图像生成用户的面部五官图像,然后再将该面部轮廓图像和该面部五官图像合成,从而可以准确地得到上述第二面部图像。
示例性的,结合上述图2,如图3所示,上述步骤S22b具体可以通过下述的步骤S22b1-步骤S22b3实现。
在步骤S22b1中,面部识别装置根据第一面部图像,生成面部轮廓图像。
在步骤S22b2中,面部识别装置根据第一面部特征图像,生成面部五官图像。
在步骤S22b3中,面部识别装置将面部轮廓图像和面部五官图像合成,得到第二面部图像。
本公开实施例中,面部识别装置可以根据上述第一面部图像,生成上述面部轮廓图像,并根据上述第一面部特征图像,生成上述面部五官图像,然后面部识别装置可以将面部轮廓图像和面部五官图像合并,从而得到上述第二面部图像。
可选的,本公开实施例中,面部识别装置可以从上述第一面部图像中获取用户的部分面部轮廓,然后可以根据该部分面部轮廓的参数计算出与该部分面部轮廓匹配的完整面部轮廓,从而得到上述面部轮廓图像;面部识别装置可以从上述第一面部图像获取用户各个面部特征(例如用户嘴部等),然后根据该各个面部特征的参数,分别计算出与相应面部特征匹配的完整的面部特征参数,从而得到上述面部五官图像。
当然,实际实现时,面部识别装置还可以通过其它方式生成上述面部轮廓图像和面部五官图像,具体可以根据实际使用需求确定,本公开实施例不作限定。
本公开实施例中,上述面部轮廓图像可以为用户的正面面部轮廓图像,也可以称为用户的正脸轮廓图像。相应的,上述面部五官图像可以为用户的正面面部五官图像。
本公开实施例中,由于用户的完整面部图像(即上述第二面部图像)可以包括用户的面部轮廓图像和面部五官图像这两部分,因此在面部识别装置生成面部轮廓图像和面部五官图像之后,面部识别装置可以通过合成该面部轮廓图像和面部五官图像,准确地得到用户的完整面部图像,即上述第二面部图像。
可选的,本公开实施例中,面部识别装置中可以包括一个用于生成上述第二面部图像的模型(例如本公开实施例中的面部还原模型),在面部识别装置获取到上述第一面部特征图像之后,面部识别装置可以通过该第一面部特征图像和该面部还原模型,生成上述第二面部图像。
示例性的,结合上述图2,如图4所示,上述步骤S22b具体可以通过下述的步骤S22b4实现。
在步骤S22b4中,面部识别装置将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像。
本公开实施例中,面部识别装置可以将上述第一面部图像和上述第一面部特征图像输入上述面部还原模型,然后面部还原模型可以对该第一面部图像和第一面部特征图像进行处理,从而生成上述第二面部图像。
可选的,本公开实施例中,上述面部还原模型可以为一个神经网络模型,该神经网络模型可以包括一个生成网络。如此,在第一面部图像和第一面部特征图像输入面部还原模型之后,即输入神经网络模型之后,该神经网络模型中的该生成网络可以根据该第一面部图像和第一面部特征图像,生成上述第二面部图像。
可选的,本公开实施例中,上述面部还原模型可以包括两个通道,分别为第一通道和第二通道。其中,第一通道可以用于处理上述第一面部图像,第二通道可以用于处理上述第一面部特征图像。
示例性的,假设上述第一面部图像为用户的侧脸图像,上述第一面部特征图像为用户左眼的图像、用户右眼的图像、用户鼻部的图像和用户嘴部的图像拼接后的图像,那么面部识别装置可以将用户的侧脸图像输入第一通道(也可以理解为将用户的侧脸图像作为第一通道的输入参数)进行处理,将用户左眼的图像、用户右眼的图像、用户鼻部的图像和用户嘴部的图像拼接后的图像输入第二通道(也可以理解为将用户左眼的图像、用户右眼的图像、用户鼻部的图像和用户嘴部的图像拼接后的图像作为第二通道的输入参数)进行处理。
可选的,本公开实施例中,在面部识别装置将上述第一面部图像输入上述第一通道进行处理,并将上述第一面部特征图像输入上述第二通道进行处理之后,面部还原模型可以通过上述第一通道生成上述面部轮廓图像,并通过第二通道生成上述面部五官图像,然后面部还原模型可以将面部轮廓图像和面部五官图像合成,从而得到上述第二面部图像。
本公开实施例中,由于上述第一面部图像和第一面部特征图像可以准确反映用户的面部信息,且面部还原模型是对大量的样本面部图像训练得到的,因此在将第一面部图像和第一面部特征图像输入上述面部还原模型之后,面部还原模型可以根据该第一面部图像和第一面部特征图像,准确地还原出与第一面部图像对应的用户的完整面部图像,即上述第二面部图像。
可选的,本公开实施例中,在面部识别装置将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像的步骤之前,面部识别装置可以先对大量的样本面部图像训练,得到上述面部还原模型,然后可以根据该面部还原模型,生成上述第二面部图像。具体的,面部识别装置可以先获取至少一组样本面部图像,然后采用该至少一组样本面部图像对一个预设模型(即预设神经网络模型)进行训练,从而可以得到上述面部还原模型。
示例性的,结合图4,如图5所示,上述的步骤S22b4之前,本公开实施例提供的面部方法还包括下述的步骤S24和步骤S25。
在步骤S24中,面部识别装置获取M组样本面部图像。
其中,上述M组样本图像中的每组样本面部图像可以分别包括一个完整面部图像和N个部分面部图像,M为正整数,N为大于1的整数。
可以理解,对于上述每组样本面部图像,上述一个完整面部图像和N个部分面部图像均为同一个用户的面部图像。
本公开实施例中,对于上述每组样本面部图像,上述N个部分面部图像中的每个部分面部图像分别可以为同一个用户的不同角度的面部图像。其中,每个部分面部图像均可以包括用户眼部的图像、用户鼻部的图像和用户嘴部的图像。
可选的,本公开实施例中,在面部识别装置获取上述M组样本图像之后,面部识别装置可以分别标记每组样本面部图像中的每个部分面部图像的五官图像(例如左眼图像、右眼图像、鼻部图像和嘴部图像)对应于该组样本面部图像中的完整面部图像的五官图像。
本公开实施例中,对于每组样本面部图像,面部识别装置可以采用相同的编号或者符号,标记部分面部图像和完整面部图像中相同面部特征的五官图像。示例性的,面部识别装置可以采用同一个编号,标记部分面部和完整面部图像中的用户的嘴部图像,然后再采用另一个编号,标记部分面部和完整面部图像中的用户的眼部图像。
当然,实际实现时,面部识别装置还可以采用其它任意可能的方式标记每组样本面部图像中的每个部分面部图像的五官图像对应于该组样本面部图像中的完整面部图像的五官图像,具体可以根据实际使用需求确定,本公开实施例不作限定。
在步骤S25中,面部识别装置采用M组样本面部图像,对预设模型进行训练,得到面部还原模型。
本公开实施例中,面部识别装置可以获取上述M组样本面部图像,然后采用该M组样本面部图像,对上述预设模型进行训练,从而得到上述面部还原模型。
可以理解,在对预设模型进行训练时,一组样本面部图像可以为一个整体。
可选的,本公开实施例中,上述预设模型可以为预设神经网络模型,该预设神经网络模型可以为基于生成对抗网络(generative adversarial network,GAN)、也可以称为GAN网络的神经网络模型。具体的,GAN网络可以包括一个生成网络和一个判别网络。
其中,上述生成网络可以用于在训练预设模型的过程中,根据部分面部图像生成完整面部图像,判别网络用于判别预设模型生成的完整面部图像相对于用户原本的完整面部图像的损失值。
当然,实际实现时,上述预设模型还可以为其它任意可能的结构,具体可以根据实际使用需求确定,本公开实施例不作限定。
可选的,本公开实施例中,上述步骤S25具体可以通过下述的步骤S25a-步骤S25c实现,或者具体可以通过下述的步骤S25a、步骤S25b和步骤S25d实现。
在步骤S25a中,面部识别装置将第i组样本面部图像中的第一个部分面部图像输入预设模型,得到第一个完整面部图像。
在步骤S25b中,面部识别装置将第i组样本面部图像中的第j个部分面部图像输入预设模型,得到第j个完整面部图像。
其中,1≤i≤M,1<j≤N,i和j均为整数。
本公开实施例中,在预设模型得到上述第j个完整面部图像和第j-1个完整面部图像之后,预设模型中的判别网络可以进行判别,以确定当前训练得到的模型是否为满足还原条件的面部还原模型,即当前训练得到的模型是否可以准确地将部分面部图像还原为完整面部图像。具体的,可以通过判别第j个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值(以下可以称为第一损失值)与第j-1个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值(以下可以称为第二损失值)的差值,与预设阈值的大小关系,确定当前训练得到的模型是否为满足还原条件的面部还原模型。例如,该差值小于或等于预设阈值,那么可以确定当前训练得到的模型符合还原条件,可以继续训练下一组样本面部图像,即面部识别装置可以执行下述的步骤S25c。该差值大于预设阈值,那么可以确定当前训练得到的模型不符合还原条件,可以调整预设模型的参数,然后重新进行训练,即面部识别装置可以执行下述的步骤S25d。
在步骤S25c中,若第一损失值与第二损失值之间的差值小于或等于预设阈值,则面部识别装置继续将第i+1组样本面部图像中的部分面部图像输入预设模型,直至当第M组样本面部图像中连续的两个部分面部图像输入预设模型得到的完整面部图像,相对于第M组样本面部图像中的完整面部图像的损失值的差值小于或等于预设阈值时,训练得到的模型为面部还原模型。
其中,上述第一损失值可以为第j个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,上述第二损失值可以为第j-1个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值。
在步骤S25d中,若第一损失值与第二损失值之间的差值大于预设阈值,则面部识别装置调整预设模型的参数,并重新将M组样本面部图像依次输入调整后的预设模型。
本公开实施例中,在训练面部还原模型的过程中,面部识别装置可以将第一组样本面部图像中的第一个部分面部图像输入预设模型,得到第一个完整面部图像,并将第一组的第二个部分面部图像输入预设模型,得到第二个完整面部图像,然后可以比较该第一个完整面部图像相对于第一组样本面部图像中的完整面部图像的损失值,与该第二个完整面部图像相对于第一组样本面部图像中的完整面部图像的损失值的差值。如果该差值小于或等于预设阈值,那么可以确定当前训练得到的模型符合条件,然后可以输入第二组样本面部图像中的部分面部图像,继续进行预设模型训练,以此类推,直至每组样本面部图像中均存在连续的两个部分面部图像输入训练得到的模型中得到的完整面部图像,相对于该组样本面部图像中的完整面部图像的损失值的差值均小于或等于预设阈值,即训练得到的模型的参数与每组样本面部图像均匹配,此时训练得到的模型即可认为是满足还原条件的模型,即此时训练得到的模型即为上述面部还原模型。如果该差值大于预设阈值,那么可以再向预设模型输入第一组样本面部图像中的第三个部分面部图像,得到第三个完整面部图像,并比较第三个完整面部图像相对于第一组样本面部图像中的完整面部图像的损失值的差值,与第二个完整面部图像相对于第一组样本面部图像中的完整面部图像的损失值的差值。如果该差值仍然大于或等于预设阈值,那么继续输入第一组样本面部图像中的第四个部分面部图像,直至第一组样本面部图像中存在连续的两个部分面部图像输入训练得到的模型中得到的完整面部图像,相对于第一组样本面部图像中的完整面部图像的损失值的差值均小于或等于预设阈值。如果将第一组样本面部图像中的所有部分面部图像输入后,未出现连续的两个部分面部图像输入训练得到的模型中得到的完整面部图像,相对于第一组样本面部图像中的完整面部图像的损失值的差值均小于或等于预设阈值,那么可以调整预设模型的参数,并重新进行训练。
本公开实施例中,上述将部分面部图像输入预设模型得到完整面部图像的方式可以与上述实施例中根据第一面部图像,得到第二面部图像的方式相同,具体可以参见上述实施例中的详细描述,为避免重复,此处不再赘述。
本公开实施例中,由于多组样本面部图像可以扩大样本库,因此在训练预设模型的过程中,采用多组样本面部图像训练得到的面部还原模型,可以提高面部还原模型的适应性,如此无论何种部分面部图像输入面部还原模型,均可以准确地将与该部分面部图像对应的完整面部图像还原出来,从而可以提高面部还原模型的准确率和成功率。
可选的,本公开实施例中,上述第一损失值和第二损失值可以通过损失函数得到。其中,损失函数可以为判断当前训练得到的模型是否为满足还原条件的模型的必要条件。
需要说明的是,本公开实施例中提及的损失值对应的损失可以包括两方面,一方面为对生成的完整面部图像中的面部轮廓、左眼、右眼、嘴巴、鼻子等各个部位的真实性判别损失,另一方面为对生成的完整面部图像中的面部轮廓、左眼、右眼、嘴巴、鼻子等各个部位与样本面部图像中的完整面部图像的平滑(smooth)L1损失。
本公开实施例中,通过Smooth L1损失,可以更加准确地将部分面部图像中的面部特征转换为同一个用户的完整面部图像中的面部特征,从而可以使得训练得到的面部还原模型更加准确,进而可以进一步提高面部识别装置的人脸识别能力。
本公开实施例中,上述重新将M组样本面部图像依次输入调整后的预设模型可以包括两种可能的实现方式,分别为第一种实现方式和第二种实现方式。下面分别对这两种可能的实现方式进行示例性的说明。
第一种实现方式:面部识别装置从上述M组样本面部图像中的第一组样本面部图像中的第一个部分面部图像开始,依次向调整后的预设模型中输入部分面部图像。
第二种实现方式:面部识别装置可以从上述第i组样本面部图像中的第一个部分面部图像开始,依次向调整后的预设模型中输入部分面部图像。
本公开实施例中,由于本公开实施例中的预设神经网络模型(即预设模型)可以包括生成网络和判别网络,所以可以准确地将部分面部图像转换为完整面部图像,并且可以判断该完整面部图像是否满足还原条件,因此采用该神经网络模型训练的得到的面部还原模型可以准确地生成完整面部图像,从而可以提高面部识别装置的面部识别的准确率。
图6是根据一示例性实施例示出的一种面部识别装置的框图。参照图6,该面部识别装置30包括获取模块31,生成模块32和识别模块33。获取模块31,被配置为获取第一面部图像,第一面部图像为用户的部分面部图像;生成模块32,被配置为根据获取模块31获取的第一面部图像,生成第二面部图像,第二面部图像为用户的完整面部图像;识别模块33,被配置为采用生成模块32生成的第二面部图像,进行面部识别。
可选的,生成模块32,具体被配置为获取第一面部图像中的面部特征图像,得到第一面部特征图像;并根据第一面部图像和第一面部特征图像,生成第二面部图像。
可选的,生成模块32,具体被配置为根据第一面部图像,生成面部轮廓图像;并根据第一面部特征图像,生成面部五官图像;以及将面部轮廓图像和面部五官图像合成,得到第二面部图像。
可选的,生成模块32,具体被配置为将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像。
可选的,结合上述图6,如图7所示,本公开实施例提供的面部识别装置30还包括训练模块34。获取模块31,还被配置为在生成模块32将第一面部图像和第一面部特征图像输入面部还原模型,生成第二面部图像之前,获取M组样本面部图像,每组样本面部图像分别包括一个完整面部图像和N个部分面部图像,M为正整数,N为大于1的整数;训练模块34,被配置为采用获取模块31获取的M组样本面部图像,对预设模型进行训练,得到面部还原模型。
可选的,训练模块34,具体被配置为:将第i组样本面部图像中的第一个部分面部图像输入预设模型,得到第一个完整面部图像;并将第i组样本面部图像中的第j个部分面部图像输入预设模型,得到第j个完整面部图像;若第一损失值与第二损失值之间的差值小于或等于预设阈值,则将第i+1组样本面部图像中的部分面部图像输入预设模型,直至当第M组样本面部图像中连续的两个部分面部图像输入预设模型得到的完整面部图像,相对于第M组样本面部图像中的完整面部图像的损失值的差值小于或等于预设阈值值,训练得到的模型为面部还原模型;其中,第一损失值为第j个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,第二损失值为第j-1个完整面部图像相对于第i组样本面部图像中的完整面部图像的损失值,1≤i≤M,1<j≤N。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
通过该方案,由于面部识别装置可以根据获取的用户的部分面部图像,生成用户的完整面部图像,因此在面部识别装置进行面部识别的过程中,即使面部识别装置获取的用户的面部图像不够完整,即面部识别装置获取的面部图像是用户的部分面部图像,面部识别装置也可以根据用户的部分面部图像,生成用户的完整面部图像,然后再采用该完整面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而提高面部识别装置进行面部识别的准确率。
本公开实施例还提供一种电子设备,该电子设备可以包括上述各个实施例中的面部识别装置。对于面部识别装置的描述具体可以参见上述各个实施例中的相关描述,此处不再赘述。
本公开实施例中的电子设备可以是任何一种可与用户通过键盘、触摸板、触摸屏、遥控器、语音交互或手写设备等一种或多种方式进行人机交互的电子产品,例如手机、平板电脑、掌上电脑、个人计算机(Personal Computer,PC)、可穿戴设备、智能电视等。
本领域技术人员应能理解上述电子设备仅为举例,其他现有的或今后可能出现的电子设备如可适用于本公开,也应包含在本公开保护范围以内,并在此以引用方式包含于此。
图8是根据一示例性实施例示出的一种电子设备的结构示意图。电子设备100包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备以及计步器等。如图8所示,电子设备100包括但不限于:处理器101、存储器102、显示器103、输入单元104、输出单元105、网络单元106、接口单元107、射频单元108、电源109以及传感器110等。
需要说明的是,本领域技术人员可以理解,图8中示出的电子设备100的结构并不构成对电子设备100的限定,电子设备100可以包括比图8所示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本公开实施例中,处理器101,被配置为执行以下步骤:获取第一面部图像,第一面部图像为用户的部分面部图像;并根据第一面部图像,生成第二面部图像,第二面部图像为用户的完整面部图像;以及采用第二面部图像,进行面部识别。
可以理解,本公开实施例中,上述面部识别装置的结构示意图(例如上述图6)中的获取模块31、生成模块32和识别模块33均可以通过上述处理器101实现,上述面部识别装置的结构示意图(例如上述图7)中的训练模块34可以通过上述处理器101实现。
通过该方案,由于面部识别装置可以根据获取的用户的部分面部图像,生成用户的完整面部图像,因此在面部识别装置进行面部识别的过程中,即使面部识别装置获取的用户的面部图像不够完整,即面部识别装置获取的面部图像是用户的部分面部图像,面部识别装置也可以根据用户的部分面部图像,生成用户的完整面部图像,然后再采用该完整面部图像进行面部识别。如此可以使得面部识别装置能够更加准确地进行面部识别,从而提高面部识别装置进行面部识别的准确率。
需要说明的是,上述电子设备100能够实现上述方法实施例中电子设备实现的各个过程,且能达到相同的技术效果,为避免重复,详细描述这里不再赘述。
处理器101是电子设备100的控制中心,利用各种接口和线路连接整个电子设备100的各个部分,通过运行或执行存储在存储器102内的软件程序和/或模块,以及调用存储在存储器102内的数据,执行电子设备100的各种功能和处理数据,从而对电子设备100进行整体监控。处理器101可包括一个或多个处理单元;可选的,处理器101可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器101中。
存储器102可用于存储软件程序以及各种数据。存储器102可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器102可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
显示器103用于显示由用户输入的信息或提供给用户的信息。显示器103可包括显示面板,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(OrganicLight-Emitting Diode,OLED)等形式来配置显示面板。
输入单元104可以用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)和麦克风,图形处理器对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示器103上。经图形处理器处理后的图像帧可以存储在存储器102(或其它存储介质)中或者经由射频单元108或网络单元106进行发送。麦克风可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元108发送到移动通信基站的格式输出。
输入单元104可以为用户输入单元,可用于接收输入的数字或字符信息,以及产生与电子设备100的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元包括触控面板以及其他输入设备。触控面板,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作)。触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器101,接收处理器101发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板。除了触控面板,用户输入单元还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板可覆盖在显示面板上,当触控面板检测到在其上或附近的触摸操作后,传送给处理器101以确定触摸事件的类型,随后处理器101根据触摸事件的类型在显示面板上提供相应的视觉输出。触控面板与显示面板可以作为两个独立的部件来实现电子设备100的输入和输出功能,也可以将触控面板与显示面板集成而实现电子设备100的输入和输出功能,具体此处不做限定。
输出单元105可以为音频输出单元,可以将射频单元108或网络单元106接收的或者在存储器102中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元还可以提供与电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元包括扬声器、蜂鸣器以及受话器等。
电子设备100通过网络单元106为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
接口单元107为外部装置与电子设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元107可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备100内的一个或多个元件或者可以用于在电子设备100和外部装置之间传输数据。
射频单元108可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器101处理;另外,将上行的数据发送给基站。通常,射频单元108包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元108还可以通过无线通信系统与网络和其他设备通信。
电源109(比如电池)可以用于为各个部件供电,可选的,电源109可以通过电源管理系统与处理器101逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
传感器110可以包括光传感器、运动传感器以及其他传感器中的至少一个。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在电子设备100移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器110还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
另外,电子设备100包括一些未示出的功能模块(例如摄像头),在此不再赘述。
另外,上述实施例提供的电子设备在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将电子设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在示例性实施例中,本公开实施例还提供了一种包括指令的存储介质,例如包括指令的存储器102,上述指令可由电子设备100的处理器101执行以完成上述方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,该非临时性计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,本公开实施例还提供了一种包括一条或多条指令的计算机程序产品,该一条或多条指令可以由电子设备100的处理器101执行以完成上述方法。
需要说明的是,上述存储介质中的指令或计算机程序产品中的一条或多条指令被处理器101执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种面部识别方法,其特征在于,所述方法包括:
获取第一面部图像,所述第一面部图像为用户的部分面部图像;
根据所述第一面部图像,生成第二面部图像,所述第二面部图像为用户的完整面部图像;
采用所述第二面部图像,进行面部识别。
2.根据权利要求1所述的面部识别方法,其特征在于,所述根据所述第一面部图像,生成第二面部图像的步骤,包括:
获取所述第一面部图像中的面部特征图像,得到第一面部特征图像;
根据所述第一面部图像和所述第一面部特征图像,生成所述第二面部图像。
3.根据权利要求2所述的面部识别方法,其特征在于,所述根据所述第一面部图像和所述第一面部特征图像,生成所述第二面部图像的步骤,包括:
根据所述第一面部图像,生成面部轮廓图像;
根据所述第一面部特征图像,生成面部五官图像;
将所述面部轮廓图像和所述面部五官图像合成,得到所述第二面部图像。
4.根据权利要求2所述的面部识别方法,其特征在于,所述根据所述第一面部图像和所述第一面部特征图像,生成所述第二面部图像的步骤,包括:
将所述第一面部图像和所述第一面部特征图像输入面部还原模型,生成所述第二面部图像。
5.根据权利要求4所述的面部识别方法,其特征在于,所述将所述第一面部图像和所述第一面部特征图像输入面部还原模型,生成所述第二面部图像的步骤之前,所述方法还包括:
获取M组样本面部图像,每组样本面部图像分别包括一个完整面部图像和N个部分面部图像,M为正整数,N为大于1的整数;
采用所述M组样本面部图像,对预设模型进行训练,得到所述面部还原模型。
6.根据权利要求5所述的面部识别方法,其特征在于,所述采用所述M组样本面部图像,对预设模型进行训练,得到所述面部还原模型的步骤,包括:
将第i组样本面部图像中的第一个部分面部图像输入所述预设模型,得到第一个完整面部图像;
将所述第i组样本面部图像中的第j个部分面部图像输入所述预设模型,得到第j个完整面部图像,1≤i≤M,1<j≤N,i和j均为整数;
若第一损失值与第二损失值之间的差值小于或等于预设阈值,则将第i+1组样本面部图像中的部分面部图像输入所述预设模型,直至当第M组样本面部图像中连续的两个部分面部图像输入所述预设模型得到的完整面部图像,相对于所述第M组样本面部图像中的完整面部图像的损失值的差值小于或等于所述预设阈值时,训练得到的模型为所述面部还原模型;
其中,所述第一损失值为所述第j个完整面部图像相对于所述第i组样本面部图像中的完整面部图像的损失值,所述第二损失值为第j-1个完整面部图像相对于所述第i组样本面部图像中的完整面部图像的损失值。
7.一种面部识别装置,其特征在于,包括获取模块、生成模块和识别模块;
所述获取模块,被配置为获取第一面部图像,所述第一面部图像为用户的部分面部图像;
所述生成模块,被配置为根据所述获取模块获取的所述第一面部图像,生成第二面部图像,所述第二面部图像为用户的完整面部图像;
识别模块,被配置为采用所述生成模块生成的所述第二面部图像,进行面部识别。
8.据权利要求7所述的面部识别装置,其特征在于,所述生成模块,具体被配置为获取所述第一面部图像中的面部特征图像,得到第一面部特征图像;并根据所述第一面部图像和所述第一面部特征图像,生成所述第二面部图像。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的面部识别方法。
10.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备执行如权利要求1至6中任一项所述的面部识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010209378.8A CN111401283A (zh) | 2020-03-23 | 2020-03-23 | 面部识别方法及装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010209378.8A CN111401283A (zh) | 2020-03-23 | 2020-03-23 | 面部识别方法及装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111401283A true CN111401283A (zh) | 2020-07-10 |
Family
ID=71432813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010209378.8A Pending CN111401283A (zh) | 2020-03-23 | 2020-03-23 | 面部识别方法及装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401283A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163456A (zh) * | 2020-08-28 | 2021-01-01 | 北京中科虹霸科技有限公司 | 身份识别模型训练方法、测试方法、识别方法及装置 |
CN113850210A (zh) * | 2021-09-29 | 2021-12-28 | 支付宝(杭州)信息技术有限公司 | 一种人脸图像处理方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280413A (zh) * | 2018-01-17 | 2018-07-13 | 百度在线网络技术(北京)有限公司 | 人脸识别方法和装置 |
CN109635745A (zh) * | 2018-12-13 | 2019-04-16 | 广东工业大学 | 一种基于生成对抗网络模型生成多角度人脸图像的方法 |
CN110751009A (zh) * | 2018-12-20 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 人脸识别方法、目标识别方法、装置和电子设备 |
CN110796593A (zh) * | 2019-10-15 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置、介质及电子设备 |
-
2020
- 2020-03-23 CN CN202010209378.8A patent/CN111401283A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280413A (zh) * | 2018-01-17 | 2018-07-13 | 百度在线网络技术(北京)有限公司 | 人脸识别方法和装置 |
CN109635745A (zh) * | 2018-12-13 | 2019-04-16 | 广东工业大学 | 一种基于生成对抗网络模型生成多角度人脸图像的方法 |
CN110751009A (zh) * | 2018-12-20 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 人脸识别方法、目标识别方法、装置和电子设备 |
CN110796593A (zh) * | 2019-10-15 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置、介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
RUI HUANG等: "Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163456A (zh) * | 2020-08-28 | 2021-01-01 | 北京中科虹霸科技有限公司 | 身份识别模型训练方法、测试方法、识别方法及装置 |
CN112163456B (zh) * | 2020-08-28 | 2024-04-09 | 北京中科虹霸科技有限公司 | 身份识别模型训练方法、测试方法、识别方法及装置 |
CN113850210A (zh) * | 2021-09-29 | 2021-12-28 | 支付宝(杭州)信息技术有限公司 | 一种人脸图像处理方法、装置及电子设备 |
CN113850210B (zh) * | 2021-09-29 | 2024-05-17 | 支付宝(杭州)信息技术有限公司 | 一种人脸图像处理方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110740259B (zh) | 视频处理方法及电子设备 | |
CN109005336B (zh) | 一种图像拍摄方法及终端设备 | |
CN111027490B (zh) | 人脸属性识别方法及装置、存储介质 | |
CN110602389B (zh) | 一种显示方法及电子设备 | |
CN109241832B (zh) | 一种人脸活体检测的方法及终端设备 | |
WO2021190387A1 (zh) | 检测结果输出的方法、电子设备及介质 | |
CN109544445B (zh) | 一种图像处理方法、装置及移动终端 | |
CN109544172B (zh) | 一种显示方法及终端设备 | |
CN109448069B (zh) | 一种模板生成方法及移动终端 | |
CN108881721B (zh) | 一种显示方法及终端 | |
CN111370025A (zh) | 音频识别方法、装置及计算机存储介质 | |
CN110908517B (zh) | 图像编辑方法、装置、电子设备及介质 | |
CN111401283A (zh) | 面部识别方法及装置、电子设备及存储介质 | |
CN107895108B (zh) | 一种操作管理方法和移动终端 | |
CN109819331B (zh) | 一种视频通话方法、装置、移动终端 | |
CN111416955B (zh) | 一种视频通话方法及电子设备 | |
CN111679737B (zh) | 手部分割方法和电子设备 | |
CN111444491B (zh) | 一种信息处理方法和电子设备 | |
CN111601035B (zh) | 一种图像处理方法及电子设备 | |
CN109257543B (zh) | 拍摄模式控制方法及移动终端 | |
CN111145083B (zh) | 一种图像处理方法、电子设备及计算机可读存储介质 | |
CN110852217B (zh) | 人脸识别的方法及电子设备 | |
CN109379531B (zh) | 一种拍摄方法及移动终端 | |
CN110933308A (zh) | 拍摄方法、电子设备和存储介质 | |
CN113643392B (zh) | 面部生成模型训练方法、面部图像生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200710 |