CN110349152A - 人脸图像质量检测方法及装置 - Google Patents
人脸图像质量检测方法及装置 Download PDFInfo
- Publication number
- CN110349152A CN110349152A CN201910643193.5A CN201910643193A CN110349152A CN 110349152 A CN110349152 A CN 110349152A CN 201910643193 A CN201910643193 A CN 201910643193A CN 110349152 A CN110349152 A CN 110349152A
- Authority
- CN
- China
- Prior art keywords
- facial image
- human face
- visibility
- image
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种人脸图像质量检测方法及装置,涉及图像处理技术领域。该方法包括:获得人脸图像的关键点检测结果;基于所述关键点检测结果获得所述人脸图像的可见性检测结果;基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。通过融合人脸图像的关键点和可见性特征对人脸图像的质量进行评估,提高了人脸图像质量评估的准确性。
Description
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种人脸图像质量检测方法及装置。
背景技术
从图像和视频中用计算机算法对人脸进行自动化分析拥有非常广泛的应用场景。这个过程中涉及对人脸图像的质量进行量化评估,从而进行可控制的筛选,是人脸分析过程必备的步骤之一。所谓的人脸质量涉及图像成像质量,光照条件,各类模糊,姿态角度,外物遮挡,图像部分丢失等因素。没有这个步骤,后续的下游任务例如人脸识别,重建面临的难题大大的增加,尤其在生产环境当中,对实际场景的人脸图像质量控制是必然的需求。
但是现有的人脸图像的质量检测方法主要是通过传统视觉算法或者深度学习网络,基于关键点的清晰度、对比度、明亮度等参数将人脸图像转化成一定的特征表示,之后用机器学习模型转化为一个分数值,或者进行分类,缺乏一个良好的可以量化的定义,或者过于笼统,或者过于琐碎,数据标注会存在非常大的噪音,导致现有技术对人脸图像的质量检测结果不准确。
发明内容
有鉴于此,本申请实施例的目的在于提供一种人脸图像质量检测方法及装置,以改善现有技术中对人脸图像的质量检测结果不准确的问题。
本申请实施例提供了一种人脸图像质量检测方法,所述方法包括:获得人脸图像的关键点检测结果;基于所述关键点检测结果获得所述人脸图像的可见性检测结果;基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
在上述实现过程中,人脸质量估计的问题被融合到人脸关键点检测任务当中,因此有了全新的人脸质量指标的定义和一个整体统一的人脸质量评估标准,基于关键点检测结果的量化指标,每一个都和人脸质量这个概念有个正相关性,这种相关性既符合人的直觉,所以有很好的可解释性,又符合下游任务的需求,能够提高人脸图像的质量检测准确性,同时将传统的下游关键点检测结果引入到人脸图像质量检测中降低了任务处理的计算时间和计算资源开销。
可选地,所述关键点检测结果包括人脸姿态、人脸尺度和重投影误差中的至少一种,所述获得人脸图像的关键点检测结果,包括:采用深度学习算法确定所述人脸图像中的关键点位置;获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数;基于所述几何关系参数确定所述人脸图像的人脸姿态、人脸尺度和重投影误差中的至少一种。
在上述实现过程中,将人脸姿态、人脸尺度和重投影误差中的至少一种作为关键点检测结果中的参数,能够提高人脸图像质量检测结果的全面性,使人脸图像质量检测结果能够更加准确的体现人脸图像的可用性。
可选地,所述获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数,包括:基于三维人脸重建和透视相机模型获得所述人脸图像的三维人脸模型,所述三维人脸模型的齐次坐标为M;基于姿态估计算法计算所述齐次坐标M与所述关键点位置的几何关系参数{R,t},其中,R为旋转矩阵,t为平移向量,
可选地,基于所述几何关系参数确定所述人脸图像的人脸姿态,包括:将所述旋转矩阵R转换为欧拉角,将所述欧拉角作为所述人脸图像的人脸姿态;基于所述几何关系参数确定所述人脸图像的人脸尺度,包括:基于所述透视相机模型的内部参数、所述旋转矩阵R和所述平移向量t,采用弱透视近似公式计算所述人脸图像的人脸尺度;所述弱透视近似公式包括:其中,f′为所述人脸尺度,fx、fy为所述内部参数中的焦距,X、Y、Z为所述三维人脸模型的三维坐标值;基于所述几何关系参数确定所述人脸图像的重投影误差,包括:基于所述几何关系参数,采用重投影公式对所述三维人脸模型进行重投影得到所述关键点位置的齐次坐标m;所述重投影公式包括:m=A[R|t]M;其中,A为所述内部参数,cx、cy表示相机光轴的偏移量;基于所述关键点位置p和所述齐次坐标m,采用重投影误差公式计算所述人脸图像的重投影误差e;所述重投影误差公式包括:e=||p-m||2。
在上述实现过程中,通过重投影步骤的中间参数或结果进行人脸姿态、人脸尺度和/或重投影误差的计算,直接采用重投影步骤获得的数据进行后续多个参数的运算,提高了计算效率。
可选地,所述基于所述关键点检测结果获得所述人脸图像的可见性检测结果,包括:基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像;将所述多角度人脸图像输入可见性估计神经网络,以获得所述可见性估计神经网络输出的关键点可见性热度图;基于所述关键点可见性热度图获得所述人脸图像的关键点遮挡信息。
在上述实现过程中,通过可见性估计神经网络获得关键点遮挡信息,将其作为可见性检测结果的一部分进行人脸图像质量估计,提高了质量检测的准确性。
可选地,所述基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像,包括:基于所述人脸图像对应的三维人脸模型获得未标注的多角度人脸图像;基于所述关键点位置,对所述未标注的多角度人脸图像进行多角度关键点可见性标注,获得标注后的多角度人脸图像。
在上述实现过程中,基于多角度人脸图像对关键进行多角度下的可见性标注,提高了可见性检测的精确度。
可选地,所述对所述未标注的多角度人脸图像进行多角度关键点可见性标注,包括:识别所述未标注的多角度人脸图像中的关键点位置的自遮挡和/或外物遮挡的情况,基于所述自遮挡和/或外物遮挡的情况进行多角度关键点可见性标注。
在上述实现过程中,同时考虑到关键点位置的自遮挡和外物遮挡的情况,提高了人脸图像质量的检测准确度。
本申请实施例还提供了一种人脸图像质量检测装置,所述装置包括:关键点检测模块,用于获得人脸图像的关键点检测结果;可见性检测模块,用于基于所述关键点检测结果获得所述人脸图像的可见性检测结果;质量分析模块,用于基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
在上述实现过程中,人脸质量估计的问题被融合到人脸关键点检测任务当中,因此有了全新的人脸质量指标的定义和一个整体统一的人脸质量评估标准,基于关键点检测结果的量化指标,每一个都和人脸质量这个概念有个正相关性,这种相关性既符合人的直觉,所以有很好的可解释性,又符合下游任务的需求,能够提高人脸图像的质量检测准确性,同时将传统的下游关键点检测结果引入到人脸图像质量检测中降低了任务处理的计算时间和计算资源开销。
可选地,所述关键点检测模块包括:关键点位置确定单元,用于采用深度学习算法确定所述人脸图像中的关键点位置;几何关系参数确定单元,用于获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数;关键点检测计算单元,用于基于所述几何关系参数确定所述人脸图像的人脸姿态、人脸尺度和重投影误差中的至少一种。
在上述实现过程中,将人脸姿态、人脸尺度和重投影误差中的至少一种作为关键点检测结果中的参数,能够提高人脸图像质量检测结果的全面性,使人脸图像质量检测结果能够更加准确的体现人脸图像的可用性。
可选地,所述几何关系参数确定单元,具体用于:基于三维人脸重建和透视相机模型获得所述人脸图像的三维人脸模型,所述三维人脸模型的齐次坐标为M;基于姿态估计算法计算所述齐次坐标M与所述关键点位置的几何关系参数{R,t},其中,R为旋转矩阵,t为平移向量,
可选的,所述关键点检测计算单元具体用于:将所述旋转矩阵R转换为欧拉角,将所述欧拉角作为所述人脸图像的人脸姿态;基于所述透视相机模型的内部参数、所述旋转矩阵R和所述平移向量t,采用弱透视近似公式计算所述人脸图像的人脸尺度;所述弱透视近似公式包括: 其中,f′为所述人脸尺度,fx、fy为所述内部参数中的焦距,X、Y、Z为所述三维人脸模型的三维坐标值;基于所述几何关系参数,采用重投影公式对所述三维人脸模型进行重投影得到所述关键点位置的齐次坐标m;所述重投影公式包括:m=A[R|t]M;其中,A为所述内部参数,cx、cy表示相机光轴的偏移量;基于所述关键点位置和所述齐次坐标m,采用重投影误差公式计算所述人脸图像的重投影误差e;所述重投影误差公式包括:e=||p-m||2。
在上述实现过程中,通过重投影步骤的中间参数或结果进行人脸姿态、人脸尺度和/或重投影误差的计算,提高了计算效率。
可选地,所述可见性检测模块包括:多角度人脸图像获取单元,用于基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像;热度图获取单元,用于将所述多角度人脸图像输入可见性估计神经网络,以获得所述可见性估计神经网络输出的关键点可见性热度图;遮挡信息获取单元,用于基于所述关键点可见性热度图获得所述人脸图像的关键点遮挡信息。
在上述实现过程中,通过可见性估计神经网络获得关键点遮挡信息,将其作为可见性检测结果的一部分进行人脸图像质量估计,提高了质量检测的准确性。
可选地,所述多角度人脸图像获取单元具体用于:基于所述人脸图像对应的三维人脸模型获得未标注的多角度人脸图像;基于所述关键点位置,对所述未标注的多角度人脸图像进行多角度关键点可见性标注,获得标注后的多角度人脸图像。
在上述实现过程中,基于多角度人脸图像对关键进行多角度下的可见性标注,提高了可见性检测的精确度。
可选地,所述多角度人脸图像获取单元还用于:识别所述未标注的多角度人脸图像中的关键点位置的自遮挡和/或外物遮挡的情况,基于所述自遮挡和/或外物遮挡的情况进行多角度关键点可见性标注。
在上述实现过程中,同时考虑到关键点位置的自遮挡和外物遮挡的情况,提高了人脸图像质量的检测准确度。
本申请实施例还提供了一种电子设备,所述电子设备包括存储器和处理器,所述存储器中存储有程序指令,所述处理器读取并运行所述程序指令时,执行上述任一项所述方法中的步骤。
本申请实施例还提供了一种可读取存储介质,所述可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行上述任一项所述方法中的步骤。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种人脸图像质量检测方法的流程示意图;
图2为本申请实施例提供的一种关键点检测结果的相关参数的获取步骤的流程示意图;
图3为本申请实施例提供的一种可见性检测结果的确定步骤的流程示意图;
图4为本申请实施例提供的一种人脸图像质量检测装置的模块图。
图标:20-人脸图像质量检测装置;21-关键点检测模块;22-可见性检测模块;23-质量分析模块。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行描述。
经本申请人研究发现,当前的人脸质量过滤系统并不存在通行技术手段,仍然承袭传统的思维,对于质量的定义是一个综合性,全局性的分数,往往分数越高代码人脸质量越好,或者是特定的几个人为指定的质量类别,例如良好的正脸图,欠曝或者过曝图,模糊图,遮挡图之类。并且往往是作为单独的一个模块进行设计实现。思路方法上主要是通过传统视觉算法或者深度学习网络将人脸图像转化成一定的特征表示,之后用机器学习模型转化为一个分数值,或者进行分类。这类传统方案存在两方面的问题,第一是通过传统视觉算法或者深度学习网络,基于关键点的清晰度、对比度、明亮度等参数将人脸图像转化成一定的特征表示,之后用机器学习模型转化为一个分数值,或者进行分类,缺乏一个良好的可以量化的定义,或者过于笼统,或者过于琐碎,数据标注会存在非常大的噪音,导致现有技术对人脸图像的质量检测结果不准确,第二是没有能够很好的注意到上下游任务本身能够对人脸质量进行一定的分析,人脸质量分析的上游是人脸检测,检测分数和人脸质量有一定的相关性,下游往往是与人脸质量分析相关度更高的关键点检测,传统人脸质量分析并未利用关键点检测资源,因此会引入额外的处理时间和计算开销。
为了解决上述问题,本申请实施例提供了一种人脸图像质量检测方法。请参考图1,图1为本申请实施例提供的一种人脸图像质量检测方法的流程示意图,该人脸图像质量检测方法的具体步骤可以如下:
步骤S12:获得人脸图像的关键点检测结果。
本步骤中的人脸图像可以是从实际的场景图片或监控图像中获取的,可选地,该场景图片或监控图像可以是直接采集的图片,也可以是从视频中截取的某帧图片。该人脸图像的获取方式可以是通过人脸检测算法确定图像中的人脸位置,然后基于该人脸位置裁剪出人脸图像。可选地,上述人脸检测算法可以是局部特征分析方法(Local FaceAnalysis)、特征脸方法(Eigenface或Principal Component Analysis)、神经网络方法等。
关键点指人脸上具有比较明显的特征的位置,比如嘴角,鼻尖,眼角之类,关键点检测从人脸图像自动计算出这些点在图像中的位置,进而可以应用到人脸识别、人脸动画、人脸追踪等后续的任务当中。上述关键点检测的方法可以采用基于模型的ASM(ActiveShape Model,主动形状模型)和AAM(Active Appearnce Model,主动外观模型)、基于级联形状回归CPR(Cascaded pose regression,级联姿势回归)以及基于深度学习的方法。
步骤S14:基于所述关键点检测结果获得所述人脸图像的可见性检测结果。
除了关键点位置的本身属性,关键点在对人脸图像中是否被遮挡、所处角度是否能被完整显示等可见性情况也关系着人脸图像的质量。因此,本实施例在关键点位置进行确定后,还对关键点位置进行可见性检测,基于关键点的可见性情况评估人脸图像的质量。
步骤S16:基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
本实施例获得的可见性检测结果和关键点检测结果中包含多个指标,本步骤针对各个指标设定适合人脸图像的具体匹配需求的阈值,将获得的指标数值与对应阈值进行对比,通过综合了上述指标及其阈值对比结果的过滤逻辑来判定人脸图像是否合格。
在上述实施例中,人脸质量估计的问题被融合到人脸关键点检测任务当中,因此有了全新的人脸质量指标的定义和一个整体统一的人脸质量评估标准,基于关键点检测结果的量化指标,由于关键点检测结果与人脸质量关联性较强,每一个都和人脸质量这个概念有个正相关性,这种相关性既符合人的直觉,所以有很好的可解释性,又符合下游任务的需求,能够提高人脸图像的质量检测准确性。同时将传统的下游关键点检测结果引入到人脸图像质量检测中,基于传统方式中后续将会进行的关键点检测进行人脸图像质量检测,降低了任务处理的计算时间和计算资源开销。
针对步骤S12,考虑到人脸图像的质量与人脸的角度、图像误差等相关度较高,上述关键点检测结果可以根据关键点几何分析后获得的人脸姿态、人脸尺度和重投影误差等参数获得。请参考图2,图2为本申请实施例提供的一种关键点检测结果的相关参数的获取步骤的流程示意图。该关键点检测结果的相关参数的获取步骤具体可以如下:
步骤S122:采用深度学习算法确定所述人脸图像中的关键点位置。
本实施例可以是采用包含位置解码器的位置估计神经网络对人脸图像的关键点位置进行确定。当前能用于各种实际场景并且鲁棒性很强的人脸关键点算法主要基于深度卷积神经网络,主干的网络设计称为沙漏网络结构(Hourglass Networks),通过回归各个关键点的热度图并堆叠多个Hourglass实现关键点位置的检测。这种算法分为模型训练阶段、模型使用阶段。在训练阶段,神经网络模型根据人脸图像和标注的关键点信息进行有监督的训练,训练完成后,使用阶段只需要将人脸图像输入训练完成后的神经网络,神经网络就会输出关键点位置的估计。本实施例采用的位置估计神经网络的主干的网络设计可以是对Hourglass改造获得,可选地,其改造可以是直接对Hourglass的输出进行改造,也可以是对Hourglass进行功能性解码器的添加等。
步骤S124:获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数。
可选地,步骤S124具体可以包括:基于三维人脸重建和透视相机模型获得所述人脸图像的三维人脸模型,所述三维人脸模型的齐次坐标为M;基于姿态估计算法计算所述齐次坐标M与所述关键点位置的几何关系参数{R,t},其中,R为旋转矩阵,t为平移向量,
其中,三维人脸重建就是从一张或多张照片中重建出人脸的3D的模型,2D的人脸图片可以看做是3D人脸在2D平面上的一个投影。本实施例可以基于三维形变模型(3DMorphable Model)或其他方法完成三维人脸重建。
同时三维和二维的转换过程,是一个把三维物体信息转换为二维图像信息的过程,这个过程存在着信息丢失且是不可逆的。在三维信息转换到二维信息的过程中,最常用的是使用透视投影。透视投影对三维信息存在一定的丢失,如长度,和角度;但也会有一些信息保留,如三维物体中的直线,透视投影到二维图像之后,其仍然是直线。透视投影的核心即是透视矩阵(旋转矩阵和平移向量的结合),透视矩阵示出了三维模型和平面图像的转换关系,因此本实施例将该透视矩阵作为几何参数,以在后续处理中获得人脸姿态、人脸尺度和重投影误差等数据。
步骤S126:基于所述几何关系参数确定所述人脸图像的人脸姿态、人脸尺度和重投影误差中的至少一种。
本步骤将人脸姿态、人脸尺度和重投影误差中的至少一种作为关键点检测结果中的参数,能够提高人脸图像质量检测结果的全面性,使人脸图像质量检测结果能够更加准确的体现人脸图像的可用性。
对于人脸姿态,其确定步骤可以如下:将所述旋转矩阵R转换为欧拉角,将所述欧拉角作为所述人脸图像的人脸姿态。
其中,欧拉角是用来确定定点转动刚体位置的3个一组独立角参量,由章动角θ、旋进角(即进动角)ψ和自转角j组成。在x、y、z三个轴的欧拉角分别为θx、θy、θz,三个轴的正弦值、余弦值分别为sx、cx、sy、cy、sz、cz时,本实施例通过欧拉角转换公式
解方程可得
θx=atan2(r32,r33)
求的是y/x的反正切,其返回值为
θz=atan2(r21,r11)
[-pi,+pi]之间的一个数。
对于人脸尺度,其确定步骤可以如下:基于所述透视相机模型的内部参数、所述旋转矩阵R和所述平移向量t,采用弱透视近似公式计算所述人脸图像的人脸尺度。
上述弱透视近似公式包括:其中,f′为所述人脸尺度,fx、fy为所述内部参数中的焦距,X、Y、Z为所述三维人脸模型的三维坐标值。
对于重投影误差,其具体确定步骤可以如下:基于所述几何关系参数,采用重投影公式对所述三维人脸模型进行重投影得到所述关键点位置的齐次坐标m;基于所述关键点位置p和所述齐次坐标m,采用重投影误差公式计算所述人脸图像的重投影误差e。
上述重投影公式包括:m=A[R|t]M,其中,A为所述内部参数,cx、cy表示相机光轴的偏移量。
进一步地,对于m=A[R|t]M,其重投影的展开细节为:
其中,s为距离-深度,为像素坐标。
上述重投影误差公式包括:e=||p-m||2。
在上述实施例中,通过重投影步骤的中间参数或结果进行人脸姿态、人脸尺度和/或重投影误差的计算,提高了计算效率。
针对步骤S14,本实施例可以采用深度学习方式进行可见性检测。请参考图3,图3为本申请实施例提供的一种可见性检测结果的确定步骤的流程示意图,该可见性检测结果的确定步骤具体可以如下:
步骤S142:基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像。
可选地,本实施例中多角度人脸图像的具体获取步骤可以是:基于所述人脸图像对应的三维人脸模型获得未标注的多角度人脸图像;基于所述关键点位置,对所述未标注的多角度人脸图像进行多角度关键点可见性标注,获得标注后的多角度人脸图像。
其中,三维人脸重建就是从一张或多张照片中重建出人脸的三维模型,平面的人脸图像可以看作是三维人脸在2D平面上的一个投影。M=(S,T)表示一个三维人脸,其中S∈{(xi,yi,zi)|i=1,2,...,m}代表人脸的三维坐标形状,M∈{ti|i=1,2,...,m}代表纹理信息,m代表三维人脸点云上所有点的个数,I代表M的二维投影,I(u,v)代表像素(u,v)处的纹理值,三维人脸重建就是从二维人脸图像I中计算出M的估计完成三维人脸重建后可以对获得的三维人脸模型进行多个角度的图像截取,从而获得不同角度的多角度人脸图像。
应当理解的是,人脸关键点检测对作为参考的人脸关键点数据集的依赖性极强,在人脸关键点数据集的数据量和差异性足够大时,人脸关键点检测的结果更加可靠,其准确度更高,因此将一个角度的单张人脸图像转换为不同角度的多张多角度人脸图像,可以提高人脸关键点数据集的数据量和差异性,本实施例步骤S12也可以基于多角度人脸图像进行人脸关键点检测,以提高人脸关键点检测的可靠性和准确度。
可选地,在执行下一步骤前,上述“对所述未标注的多角度人脸图像进行多角度关键点可见性标注”的步骤具体可以包括:识别所述未标注的多角度人脸图像中的关键点位置的自遮挡和/或外物遮挡的情况,基于所述自遮挡和/或外物遮挡的情况进行多角度关键点可见性标注。
为了更加准确地实现关键点位置的自遮挡情况的检测,本实施例中的自遮挡情况的标注可以基于三维人脸的几何算法计算得到,考虑到鲁棒性和实用性,该计算方法综合考虑了法向量测试和正脸水平位移测试。其中,法向量测试即计算关键点区域的法向量和人脸图像朝向面的法向量的夹角大小,在该夹角大小大于预设阈值时则判断该关键点存在自遮挡情况。正脸水平位移测试即将人脸图像中的正脸投影在平面上,计算关键点区域的投影与正脸投影可见区域的距离,在该距离处于预设阈值范围外时则判断该关键点存在自遮挡情况。
可选地,本实施例中的自遮挡情况检测还可以基于常见的投影测试方法进行,可以采用重投影过程中获得的数据进行。
外物遮挡情况是指关键点位置被人脸以外的物体遮挡,比如手、头发、他人的身体部分、手机等等。本实施例可以先对人脸图像进行人脸分割,人脸分割即在一张图片中将人脸图像从图片背景中识别并分离出来。在获得人脸分割结果后确定人脸缺失部分,则该缺失部分即为外物遮挡部分,并对其进行相应的外物遮挡标注。
步骤S144:将所述多角度人脸图像输入可见性估计神经网络,以获得所述可见性估计神经网络输出的关键点可见性热度图。
应当理解的是,本实施例中位置估计神经网络和可见性估计神经网络可以是同时包含位置解码器和可见性解码器的位置及可见性估计神经网络。该位置及可见性估计神经网络可以直接在输出每个关键点位置热度图的同时回归一个关键点可见性热度图,此方案只需要改动Hourglass的输出端即可;还可以在Hourglass增加一个可见性解码器,改为两个并行的解码器,通过位置解码器回归位置热度图、通过可见性解码器回归可见性解码器;还可以将分别包括可见性解码器和位置解码器的两个Hourglass进行串联,两个Hourglass的编码器均接收多角度人脸图像,可见性解码器对应的第一个Hourglass回归可见性热度图,位置解码器对应的第二个Hourglass接收多角度人脸图像和关键点可见性热度图并回归位置热度图。
步骤S146:基于所述关键点可见性热度图获得所述人脸图像的关键点遮挡信息。
关键点可见性热度图直接对应人脸图像,标识出关键点位置的关键点遮挡信息。可选地,该关键点遮挡信息可以直接作为可见性检测结果,进一步地,本实施例还可以基于关键点遮挡信息计算全局可见性和局部可见性,综合全局可见性和局部可见性作为可见性检测结果。
上述全局可见性可以是所有关键点位置的可见性均值,局部可见性可以是各个区域关键点位置取均值得到,例如,鼻子区域的局部可见性可以是鼻子区域的关键点位置的可见性均值。
针对步骤S16,“基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果”,可见性检测结果和关键点检测结果中包含有多个影响质量分析结果的质量参数,在进行质量分析结果的获取时按照各个质量参数对应的预设质量参数阈值对质量参数进行判定,若一个或多个质量参数超过其预设质量参数阈值,则认定该人脸图像质量无法满足后续人脸识别等步骤的质量要求。
以人脸姿态举例说明,其预设质量参数阈值为欧拉角中表示人脸绕y轴旋转角度的yaw角小于等于45度,则在人脸图像的人脸姿态中的yaw角大于45度时确定该人脸图像在后续人脸识别过程中会因为物理角度较大影响整体识别效果,则判定该人脸图像的质量不合格。
为了更好地实现本实施例提供的人脸图像质量检测方法,本申请实施例还提供了一种人脸图像质量检测装置20。请参考图4,图4为本申请实施例提供的一种人脸图像质量检测装置的模块图。
人脸图像质量检测装置20包括关键点检测模块21、可见性检测模块22和质量分析模块23。
关键点检测模块21,用于获得人脸图像的关键点检测结果。
可见性检测模块22,用于基于所述关键点检测结果获得所述人脸图像的可见性检测结果。
质量分析模块23,用于基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
关键点检测模块21包括关键点位置确定单元、几何关系参数确定单元和关键点检测计算单元。
关键点位置确定单元,用于采用深度学习算法确定所述人脸图像中的关键点位置。
几何关系参数确定单元,用于获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数。
关键点检测计算单元,用于基于所述几何关系参数确定所述人脸图像的人脸姿态、人脸尺度和重投影误差中的至少一种。
可选地,几何关系参数确定单元还用于:基于三维人脸重建和透视相机模型获得所述人脸图像的三维人脸模型,所述三维人脸模型的齐次坐标为M;基于姿态估计算法计算所述齐次坐标M与所述关键点位置的几何关系参数{R,t},其中,R为旋转矩阵,t为平移向量,
可选的,关键点检测计算单元还用于:将所述旋转矩阵R转换为欧拉角,将所述欧拉角作为所述人脸图像的人脸姿态;基于所述透视相机模型的内部参数、所述旋转矩阵R和所述平移向量t,采用弱透视近似公式计算所述人脸图像的人脸尺度;所述弱透视近似公式包括: 其中,f′为所述人脸尺度,fx、fy为所述内部参数中的焦距,X、Y、Z为所述三维人脸模型的三维坐标值;基于所述几何关系参数,采用重投影公式对所述三维人脸模型进行重投影得到所述关键点位置的齐次坐标m;所述重投影公式包括:m=A[R|t]M;其中,A为所述内部参数,cx、cy表示相机光轴的偏移量;基于所述关键点位置和所述齐次坐标m,采用重投影误差公式计算所述人脸图像的重投影误差e;所述重投影误差公式包括:e=||p-m||2。
可见性检测模块22包括多角度人脸图像获取单元、热度图获取单元和遮挡信息获取单元。
多角度人脸图像获取单元,用于基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像。
热度图获取单元,用于将所述多角度人脸图像输入可见性估计神经网络,以获得所述可见性估计神经网络输出的关键点可见性热度图。
遮挡信息获取单元,用于基于所述关键点可见性热度图获得所述人脸图像的关键点遮挡信息。
其中,多角度人脸图像获取单元还用于:基于所述人脸图像对应的三维人脸模型获得未标注的多角度人脸图像;基于所述关键点位置,对所述未标注的多角度人脸图像进行多角度关键点可见性标注,获得标注后的多角度人脸图像。
可选地,多角度人脸图像获取单元还用于:识别所述未标注的多角度人脸图像中的关键点位置的自遮挡和/或外物遮挡的情况,基于所述自遮挡和/或外物遮挡的情况进行多角度关键点可见性标注。
为了更好地配合本实施例中的人脸图像质量检测方法,本实施例还提供了一种电子设备,该电子设备包括存储器和处理器,所述存储器中存储有程序指令,所述处理器读取并运行所述程序指令时,执行人脸图像质量检测方法中任一项所述方法中的步骤。
应当理解是,该电子设备可以是个人电脑(personal computer,PC)、平板电脑、智能手机、个人数字助理(personal digital assistant,PDA)等具有逻辑计算功能的电子设备。
综上所述,本申请实施例提供了一种人脸图像质量检测方法及装置,该方法包括:获得人脸图像的关键点检测结果;基于所述关键点检测结果获得所述人脸图像的可见性检测结果;基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
在上述实现过程中,人脸质量估计的问题被融合到人脸关键点检测任务当中,因此有了全新的人脸质量指标的定义和一个整体统一的人脸质量评估标准,基于关键点检测结果的量化指标,每一个都和人脸质量这个概念有个正相关性,这种相关性既符合人的直觉,所以有很好的可解释性,又符合下游任务的需求,能够提高人脸图像的质量检测准确性,同时将传统的下游关键点检测结果引入到人脸图像质量检测中降低了任务处理的计算时间和计算资源开销。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的框图显示了根据本申请的多个实施例的设备的可能实现的体系架构、功能和操作。在这点上,框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图中的每个方框、以及框图的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。因此本实施例还提供了一种可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行区块数据存储方法中任一项所述方法中的步骤。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RanDOm Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种人脸图像质量检测方法,其特征在于,所述方法包括:
获得人脸图像的关键点检测结果;
基于所述关键点检测结果获得所述人脸图像的可见性检测结果;
基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
2.根据权利要求1所述的人脸图像质量检测方法,其特征在于,所述关键点检测结果包括人脸姿态、人脸尺度和重投影误差中的至少一种,所述获得人脸图像的关键点检测结果,包括:
采用深度学习算法确定所述人脸图像中的关键点位置;
获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数;
基于所述几何关系参数确定所述人脸图像的人脸姿态、人脸尺度和重投影误差中的至少一种。
3.根据权利要求2所述的人脸图像质量检测方法,其特征在于,所述获得所述关键点位置和所述人脸图像对应的三维人脸模型之间的几何关系参数,包括:
基于三维人脸重建和透视相机模型获得所述人脸图像的三维人脸模型,所述三维人脸模型的齐次坐标为M;
基于姿态估计算法计算所述齐次坐标M与所述关键点位置的几何关系参数{R,t},其中,R为旋转矩阵,t为平移向量,
4.根据权利要求3所述的人脸图像质量检测方法,其特征在于,基于所述几何关系参数确定所述人脸图像的人脸姿态,包括:
将所述旋转矩阵R转换为欧拉角,将所述欧拉角作为所述人脸图像的人脸姿态;
基于所述几何关系参数确定所述人脸图像的人脸尺度,包括:
基于所述透视相机模型的内部参数、所述旋转矩阵R和所述平移向量t,采用弱透视近似公式计算所述人脸图像的人脸尺度;
所述弱透视近似公式包括:
其中,f′为所述人脸尺度,fx、fy为所述内部参数中的焦距,X、Y、Z为所述三维人脸模型的三维坐标值;
基于所述几何关系参数确定所述人脸图像的重投影误差,包括:
基于所述几何关系参数,采用重投影公式对所述三维人脸模型进行重投影得到所述关键点位置的齐次坐标m;
所述重投影公式包括:m=A[R|t]M;
其中,A为所述内部参数,cx、cy表示相机光轴的偏移量;
基于所述关键点位置p和所述齐次坐标m,采用重投影误差公式计算所述人脸图像的重投影误差e;
所述重投影误差公式包括:e=||p-m||2。
5.根据权利要求1所述的人脸图像质量检测方法,其特征在于,所述基于所述关键点检测结果获得所述人脸图像的可见性检测结果,包括:
基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像;
将所述多角度人脸图像输入可见性估计神经网络,以获得所述可见性估计神经网络输出的关键点可见性热度图;
基于所述关键点可见性热度图获得所述人脸图像的关键点遮挡信息。
6.根据权利要求5所述的人脸图像质量检测方法,其特征在于,所述基于所述关键点检测结果中的关键点位置和所述人脸图像对应的三维人脸模型获得多角度人脸图像,包括:
基于所述人脸图像对应的三维人脸模型获得未标注的多角度人脸图像;
基于所述关键点位置,对所述未标注的多角度人脸图像进行多角度关键点可见性标注,获得标注后的多角度人脸图像。
7.根据权利要求6所述的人脸图像质量检测方法,其特征在于,所述对所述未标注的多角度人脸图像进行多角度关键点可见性标注,包括:
识别所述未标注的多角度人脸图像中的关键点位置的自遮挡和/或外物遮挡的情况,基于所述自遮挡和/或外物遮挡的情况进行多角度关键点可见性标注。
8.一种人脸图像质量检测装置,其特征在于,所述装置包括:
关键点检测模块,用于获得人脸图像的关键点检测结果;
可见性检测模块,用于基于所述关键点检测结果获得所述人脸图像的可见性检测结果;
质量分析模块,用于基于所述可见性检测结果和所述关键点检测结果获得所述人脸图像的质量分析结果。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器中存储有程序指令,所述处理器读取并运行所述程序指令时,执行权利要求1-7任一项所述方法中的步骤。
10.一种可读取存储介质,其特征在于,所述可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行权利要求1-7任一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910643193.5A CN110349152A (zh) | 2019-07-16 | 2019-07-16 | 人脸图像质量检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910643193.5A CN110349152A (zh) | 2019-07-16 | 2019-07-16 | 人脸图像质量检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110349152A true CN110349152A (zh) | 2019-10-18 |
Family
ID=68175749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910643193.5A Pending CN110349152A (zh) | 2019-07-16 | 2019-07-16 | 人脸图像质量检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110349152A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243093A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 三维人脸网格的生成方法、装置、设备及存储介质 |
CN111311712A (zh) * | 2020-02-24 | 2020-06-19 | 北京百度网讯科技有限公司 | 视频帧处理方法和装置 |
CN112287868A (zh) * | 2020-11-10 | 2021-01-29 | 上海依图网络科技有限公司 | 一种人体动作识别方法及装置 |
CN112308914A (zh) * | 2020-03-06 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于处理信息的方法、装置、设备和介质 |
CN112419305A (zh) * | 2020-12-09 | 2021-02-26 | 深圳云天励飞技术股份有限公司 | 人脸光照质量检测方法、装置、电子设备及存储介质 |
CN112580434A (zh) * | 2020-11-25 | 2021-03-30 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的人脸误检优化方法、系统及人脸检测设备 |
CN112749609A (zh) * | 2020-07-23 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 人体图像分割方法、装置、计算机设备及存储介质 |
CN112990032A (zh) * | 2021-03-23 | 2021-06-18 | 中国人民解放军海军航空大学航空作战勤务学院 | 人脸图像处理方法及装置 |
CN113792661A (zh) * | 2021-09-15 | 2021-12-14 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN115294320A (zh) * | 2022-10-08 | 2022-11-04 | 平安银行股份有限公司 | 图像旋转角度的确定方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447462A (zh) * | 2015-11-20 | 2016-03-30 | 小米科技有限责任公司 | 人脸姿态估计方法及装置 |
CN106503671A (zh) * | 2016-11-03 | 2017-03-15 | 厦门中控生物识别信息技术有限公司 | 确定人脸姿态的方法和装置 |
CN106803067A (zh) * | 2016-12-28 | 2017-06-06 | 浙江大华技术股份有限公司 | 一种人脸图像质量评估方法及装置 |
CN106989669A (zh) * | 2017-02-16 | 2017-07-28 | 上海大学 | 基于虚拟立体靶标的大视场高精度视觉系统标定方法 |
CN107590807A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN109063695A (zh) * | 2018-09-18 | 2018-12-21 | 图普科技(广州)有限公司 | 一种人脸关键点检测方法、装置及其计算机存储介质 |
CN109657612A (zh) * | 2018-12-19 | 2019-04-19 | 苏州纳智天地智能科技有限公司 | 一种基于人脸图像特征的质量排序系统及其使用方法 |
-
2019
- 2019-07-16 CN CN201910643193.5A patent/CN110349152A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447462A (zh) * | 2015-11-20 | 2016-03-30 | 小米科技有限责任公司 | 人脸姿态估计方法及装置 |
CN106503671A (zh) * | 2016-11-03 | 2017-03-15 | 厦门中控生物识别信息技术有限公司 | 确定人脸姿态的方法和装置 |
CN106803067A (zh) * | 2016-12-28 | 2017-06-06 | 浙江大华技术股份有限公司 | 一种人脸图像质量评估方法及装置 |
CN106989669A (zh) * | 2017-02-16 | 2017-07-28 | 上海大学 | 基于虚拟立体靶标的大视场高精度视觉系统标定方法 |
CN107590807A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN109063695A (zh) * | 2018-09-18 | 2018-12-21 | 图普科技(广州)有限公司 | 一种人脸关键点检测方法、装置及其计算机存储介质 |
CN109657612A (zh) * | 2018-12-19 | 2019-04-19 | 苏州纳智天地智能科技有限公司 | 一种基于人脸图像特征的质量排序系统及其使用方法 |
Non-Patent Citations (3)
Title |
---|
于学峰 等: "帧间信息导向的头部姿态估计优化方法", 《传感器与微系统》 * |
武君 等: "EPNP和POSIT算法在头部姿态估计上的实验比较与分析", 《北方工业大学学报》 * |
钟小华 等: "基于局部二值特征的人脸姿态估计系统的研究与实现", 《网络安全技术与应用》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243093A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 三维人脸网格的生成方法、装置、设备及存储介质 |
CN111311712A (zh) * | 2020-02-24 | 2020-06-19 | 北京百度网讯科技有限公司 | 视频帧处理方法和装置 |
CN112308914A (zh) * | 2020-03-06 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于处理信息的方法、装置、设备和介质 |
CN112749609B (zh) * | 2020-07-23 | 2024-03-19 | 腾讯科技(深圳)有限公司 | 人体图像分割方法、装置、计算机设备及存储介质 |
CN112749609A (zh) * | 2020-07-23 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 人体图像分割方法、装置、计算机设备及存储介质 |
CN112287868B (zh) * | 2020-11-10 | 2021-07-13 | 上海依图网络科技有限公司 | 一种人体动作识别方法及装置 |
CN112287868A (zh) * | 2020-11-10 | 2021-01-29 | 上海依图网络科技有限公司 | 一种人体动作识别方法及装置 |
CN112580434B (zh) * | 2020-11-25 | 2024-03-15 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的人脸误检优化方法、系统及人脸检测设备 |
CN112580434A (zh) * | 2020-11-25 | 2021-03-30 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的人脸误检优化方法、系统及人脸检测设备 |
CN112419305A (zh) * | 2020-12-09 | 2021-02-26 | 深圳云天励飞技术股份有限公司 | 人脸光照质量检测方法、装置、电子设备及存储介质 |
CN112419305B (zh) * | 2020-12-09 | 2024-06-11 | 深圳云天励飞技术股份有限公司 | 人脸光照质量检测方法、装置、电子设备及存储介质 |
CN112990032A (zh) * | 2021-03-23 | 2021-06-18 | 中国人民解放军海军航空大学航空作战勤务学院 | 人脸图像处理方法及装置 |
CN112990032B (zh) * | 2021-03-23 | 2022-08-16 | 中国人民解放军海军航空大学航空作战勤务学院 | 人脸图像处理方法及装置 |
CN113792661A (zh) * | 2021-09-15 | 2021-12-14 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN113792661B (zh) * | 2021-09-15 | 2024-06-11 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN115294320A (zh) * | 2022-10-08 | 2022-11-04 | 平安银行股份有限公司 | 图像旋转角度的确定方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349152A (zh) | 人脸图像质量检测方法及装置 | |
Ploumpis et al. | Combining 3d morphable models: A large scale face-and-head model | |
Zhou et al. | Monocap: Monocular human motion capture using a cnn coupled with a geometric prior | |
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
Tompson et al. | Real-time continuous pose recovery of human hands using convolutional networks | |
Polonsky et al. | What’s in an image? Towards the computation of the “best” view of an object | |
Padeleris et al. | Head pose estimation on depth data based on particle swarm optimization | |
Ruan et al. | Sadrnet: Self-aligned dual face regression networks for robust 3d dense face alignment and reconstruction | |
CN106796449A (zh) | 视线追踪方法及装置 | |
US10121273B2 (en) | Real-time reconstruction of the human body and automated avatar synthesis | |
Yu et al. | HeadFusion: 360${^\circ} $ Head Pose Tracking Combining 3D Morphable Model and 3D Reconstruction | |
US20190087001A1 (en) | Pose-invariant eye-gaze tracking using a single commodity camera | |
Lee et al. | A SfM-based 3D face reconstruction method robust to self-occlusion by using a shape conversion matrix | |
CN111209811A (zh) | 一种实时检测眼球注意力位置的方法及系统 | |
Kwolek | Model based facial pose tracking using a particle filter | |
Ao et al. | A repeatable and robust local reference frame for 3D surface matching | |
Mei et al. | Research on moving target detection and tracking technology in sports video based on sift algorithm | |
Jiang et al. | Reconstructing recognizable 3d face shapes based on 3d morphable models | |
Cohen et al. | 3D body reconstruction for immersive interaction | |
Lin et al. | Ego2HandsPose: A Dataset for Egocentric Two-hand 3D Global Pose Estimation | |
Canelhas | Truncated signed distance fields applied to robotics | |
Song et al. | ConcatNet: A deep architecture of concatenation-assisted network for dense facial landmark alignment | |
CN112990047A (zh) | 一种结合面部角度信息的多姿态人脸验证方法 | |
Yoshimoto et al. | Cubistic representation for real-time 3D shape and pose estimation of unknown rigid object | |
Dong et al. | A low-cost photorealistic CG dataset rendering pipeline for facial landmark localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |