CN112085701B - 一种人脸模糊度检测方法、装置、终端设备及存储介质 - Google Patents
一种人脸模糊度检测方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN112085701B CN112085701B CN202010776747.1A CN202010776747A CN112085701B CN 112085701 B CN112085701 B CN 112085701B CN 202010776747 A CN202010776747 A CN 202010776747A CN 112085701 B CN112085701 B CN 112085701B
- Authority
- CN
- China
- Prior art keywords
- face
- face image
- ambiguity
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 166
- 238000003062 neural network model Methods 0.000 claims abstract description 89
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 46
- 238000004590 computer program Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请适用于机器视觉技术领域,提供了一种人脸模糊度检测方法、装置、终端设备及存储介质,其中,方法包括:对目标图像进行人脸检测;当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。本申请实施例可先根据第一神经网络模型对人脸图像进行初步检测,在初步检测结果满足深度检测条件时,再根据第二神经网络进行深度检测,获得对人脸的模糊度的深度检测结果,可提高人脸模糊度判断的准确性。
Description
技术领域
本申请属于机器视觉技术领域,尤其涉及一种人脸模糊度检测方法、装置、终端设备及存储介质。
背景技术
在人脸识别实际应用过程中,大多是对摄像头拍摄的图像进行人脸识别,由于摄像头获取到的图像,因为环境等问题(如过度曝光、欠曝光、失焦以及运动模糊等问题)会获取到比较模糊的图片,如对模糊的图片进行人脸识别会使得识别效果非常差。因此需要先对图像进行模糊判断。
然而,目前对图像进行模糊判断的算法,如基于图像梯度的模糊检测算法,主要用它们的梯度值表征图像的清晰程度。但一旦有噪声干扰(如外界的环境光或其它噪声干扰),图像梯度信息就会被破坏,造成干扰,使得模糊判断的准确性低。
发明内容
本申请实施例提供了一种人脸模糊度检测方法、装置、终端设备及存储介质,旨在解决现有人脸模糊度判断的准确性低的问题。
第一方面,本申请实施例提供了一种人脸模糊度检测方法,包括:
对目标图像进行人脸检测;
当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;
当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。
第二方面,本申请实施例一种人脸模糊度检测装置,包括:
检测模块,用于对目标图像进行人脸检测;
第一获得模块,用于当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;
第二获得模块,用于当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述人脸模糊度检测方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现上述人脸模糊度检测方法的步骤。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述现上述人脸模糊度检测方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例对目标图像进行人脸检测;当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。本申请实施例可先根据第一神经网络模型对人脸图像进行初步检测,在初步检测结果满足深度检测条件时,再根据第二神经网络进行深度检测,获得对人脸的模糊度的深度检测结果,可提高人脸模糊度判断的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的人脸模糊度检测方法的流程示意图;
图2是本申请一实施例提供的步骤S102的一个具体流程示意图;
图3是本申请一实施例提供的步骤S103的一个具体流程示意图;
图4是本申请一实施例提供的对预先构建的第二神经网络模型进行训练,过程的流程示意图;
图5是本申请另一实施例提供的人脸模糊度检测方法的流程示意图;
图6是本申请又一实施例提供的人脸模糊度检测装置的结构示意图;
图7是本申请又一实施例提供的人脸模糊度检测装置中第一获得模块的结构示意图;
图8是本申请又一实施例提供的人脸模糊度检测装置中第二获得模块的结构示意图;
图9是本申请再一实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的人脸模糊度检测方法,可以应用于机器人、手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
为了说明本申请所述的技术方案,下面通过以下实施例来进行说明。
实施例一
请参阅图1,本申请实施例提供的一种人脸模糊度检测方法,包括:
步骤S101,对目标图像进行人脸检测;
具体的,所述目标图像可以是通过图像检测设备获取得到,如所述图像检测设备是摄像头。可通过摄像头拍摄视频,从拍摄的到的视频流中获取目标图像。或者接收外部设备发送的视频或图像中获取需要进行人脸模糊度检测的目标图像。对目标图像通过人脸检测算法进行人脸检测,人脸检测的目的是为了确定目标图像中人脸的位置和数量等信息。
步骤S102,当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;
具体的,在检测到目标图像中存在人脸图像时,根据人脸图像位置提取出人脸图像,并将人脸图像输入至第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果并输出。所述第一神经网络模型是用于对人脸模糊度进行初步检测的神经网络,所述模糊度可用于表示人脸图像中的人脸的清晰度。
具体的,在将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测之前,对预先构建的第一神经网络模型进行训练,得到预训练的第一神经网络模型,所述预训练的第一神经网络模型的输出结果为人脸图像的人脸模糊度分类结果。第一神经网络模型可采用轻量级的网络来进行网络设计,如根据mobilenetv2、mobilenetv3_small、smallmobilenetv2,shufflenetv2或mobileface等轻量级神经网络构建的神经网络模型,轻量级神经网络模型在机器人端的部署变得更为适用。
在一个具体的实施例中,可采用轻量级的网络来进行网络设计,如基于分类效果较好的mobilenetv2构建神经网络模型。基于mobilenetv2的模型的网络结构如表1所示:
表1
Input | Operator | t | c | n | s |
64,64,3 | conv3*3 | - | 64 | 1 | 1 |
64,64,64 | Depthwise conv3*3 | - | 64 | 1 | 1 |
64,64,64 | bottleneck | 2 | 64 | 5 | 2 |
31,31,64 | bottleneck | 4 | 128 | 1 | 2 |
15,15,128 | bottleneck | 2 | 128 | 6 | 1 |
15,15,128 | bottleneck | 4 | 128 | 1 | 2 |
7,7,128 | bottleneck | 2 | 128 | 2 | 1 |
7,7,128 | conv1*1 | - | 512 | 1 | 1 |
7,7,512 | Linear GDconv7*7 | - | 512 | 1 | 1 |
1,1,512 | Linear conv1*1 | - | X | 1 | 1 |
其中,t代表bottleneck里面的转置放大因子,c代表卷积核通道数,n代表Operator重复的次数,s代表stride(即步长)。如对于表1中的第二行可理解为对输入图像尺寸为64×64×3(其中3表示图像有三个通道)经过3×3卷积核(即conv3*3)的卷积层,因为该层有64个卷积核通道数,每个卷积核通道数都会生成一个64×64×1的图像,最终该层输出的图像数据是64×64×64(即表中第3行的输入),即拥有64个通道数,以此类推,将表中第n行的输入进行对应行的操作后得到的输出作为第n+1行的输入,具体每行的输入得到的输出的算法推导过程可参考mobilenetv2的网络模型结构的推导过程,对此不做赘述。
在一个实施例中,所述将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果,包括步骤S1021至步骤S1024:
步骤S1021,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得人脸模糊度分类结果;其中,所述人脸模糊度分类结果包括用于指示所述人脸图像的模糊度且按照模糊度由大到小的顺序排列的一级模糊度、二级模糊度和三级模糊度;
在具体应用中,此处的第一神经网络模型为一个已经训练完成的一个分类模型,用于将输入的人脸图像按照模糊度进行分类,获得初步检测结果为对模糊度进行分类的结果。
在一个具体应用场景中,可预先将第一神经网络模型的分类任务分成三类进行训练,如按照模糊度由大到小的顺序排列的一级模糊度、二级模糊度和三级模糊度。一级模糊度用于指示模糊的人脸图像,二级模糊度用于指示比较清晰的人脸图像,三级模糊度用于指示清晰的人脸图像,分成3分类,比直接分类模糊和清晰两类的准确的提升更为明显。
步骤S1022,当所述人脸模糊度分类结果为一级模糊度时,判定所述人脸图像为模糊人脸图像;
在具体应用中,在第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得初步检测结果为一级模糊度时,判定输入第一神经网络模型的人脸图像为模糊人脸图像。
步骤S1023,当所述人脸模糊度分类结果为二级模糊度时,判定所述初步检测结果满足深度检测条件;
在具体应用中,在第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得初步检测结果为二级模糊度时,可认为输入第一神经网络的人脸图像是较为清晰的人脸图像,对较为清晰的人脸图像需进行进一步判定,因此将人脸模糊度分类结果为二级模糊度时,根据初步检测结果,判定人脸图像满足深度检测条件。
步骤S1024,当所述人脸模糊度分类结果为三级模糊度时,判定所述人脸图像为清晰人脸图像。
在具体应用中,在第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得初步检测结果为三级模糊度时,判定所述人脸图像为清晰人脸图像。
步骤S103,当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。
具体的,根据初步检测结果,判定人脸图像满足深度检测条件时,将满足深度检测条件的人脸图像输入至第二神经网络模型对人脸图像中的人脸的模糊度进行深度检测,获得深度检测结果并输出。
在一个实施例中,步骤S103具体包括步骤S1031至步骤S1033:
步骤S1031,当所述初步检测结果满足深度检测条件时,将所述人脸图像输入至第二神经网络模型中对所述人脸图像中人脸的模糊度进行评分,获得人脸模糊度评分值;
在一个实施例中,此处的第二神经网络模型为一个已训练完成的神经网络模型用于对输入的人脸图像中人脸的模糊度进行评分,获得人脸模糊度评分值。
步骤S1032,当人脸模糊度评分值低于预设阈值时,判定所述人脸图像为模糊人脸图像;
在具体应有中,在第二神经网络模型对人脸图像中的人脸的模糊度进行人脸模糊度评分值后,将人脸模糊度评分值小于预设阈值,判定人脸图像为模糊人脸图像。
步骤S1033,当人脸模糊度评分值大于或等于预设阈值时,判定所述人脸图像为清晰人脸图像。
在具体应用中,在第二神经网络模型对人脸图像中的人脸的模糊度进行人脸模糊度评分值后,将人脸模糊度评分值大于或等于预设阈值时,判定人脸图像为清晰图像
在一个实施例中,在对目标图像进行人脸检测之前,包括:对预先构建的第二神经网络模型进行训练;其中,所述第二神经网络模型的输出结果为人脸图像的人脸模糊度评分值。
在一个具体的实施例中,在对目标图像进行人脸检测之前,对预先构建的第二神经网络进行训练。具体的,第二神经网络模型可采用轻量级的网络来进行网络设计,如根据mobilenetv2、mobilenetv3_small、smallmobilenetv2,shufflenetv2或mobileface等轻量级神经网络构建的神经网络模型。
在一个实施例中,所述对预先构建的第二神经网络模型进行训练,包括:
步骤S201,获取训练人脸图像集;
具体的,预先准备好大量的人脸图像,并对每个人脸图像人脸模糊度评分值进行标记。对已进行标记后的人脸图像集作为训练人脸图像集对第二神经网络模型进行训练。
步骤S202,根据所述训练人脸图像集对预先构建的第二神经网络模型进行训练,得到所述训练人脸图像集中的每个人脸图像属于预设N类模糊等级中的每类的模糊等级的概率;其中,N≥2;
具体的,将训练人脸图像集输入至第二神经网络模型进行训练,得到所述训练人脸图像集中的每个人脸图像的模糊度属于预设N类模糊等级中的每类的模糊等级的概率;其中,N≥2。
步骤S203,根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值;
在一个具体应用场景中,可通过深度期望DEX的思想得到每个所述人脸模糊度评分值,如结合分类和回归的思想去训练第二神经网络模型,先进行分类训练,如第二神经网络模型中的分类网络将分类,输出是三分类(一级模糊度、二级模糊度和三级模糊度),假设赋予预设分值y={0,60,100},即一级模糊度预设分值为0分,二级模糊度预设分值60分,三级模糊度预设分值为100分。第二神经网络中的分类网络层可得到的分为这三类的概率o={o1,o2,o3},可根据分类结果的概率去计算输入人脸图像最终的量化得分。
在一个实施例中,所述根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值的计算公式1为:
其中,所述E﹙O﹚表示所述人脸模糊度评分值,所述yi表示通过所述第二神经网络模型训练得到的所述人脸图像属于第i类预设模糊等级的概率,所述Oi表示所述第i类预设模糊等级的分值。在输出是三分类时N的取值为3。
在具体应用中,假设对人脸图像分了3类,如将3类别的预设模糊等级的分值y,三个模糊度等级(一级模糊度、二级模糊度和三级模糊度)的预设分值y={0,60,100}。第二神经网络中的分类网络得到这3类的结果为o={o1,o2,o3},o1,o2,03分别表示属于3个类别中对应类别的概率,再将各个模糊度等级y再乘以对应类别的概率(即公式1),最终得到人脸模糊度评分值。
在一个具体应用场景中,输入第二神经网络中的人脸图像的模糊度为三级模糊度(可理解为清晰人脸图像),输出的人脸模糊度评分值会在100的附近分布。输入第二神经网络中的人脸图像的模糊度为一级模糊度(模糊人脸图像),输出的人脸模糊度评分值会在0的附近分布。输入第二神经网络中的人脸图像的模糊度为二级模糊度(比较清晰人脸图像),输出的人脸模糊度评分值会在60的附近分布,如果它的模糊程度是较为清晰偏向模糊的,人脸模糊度评分值会<60,如果它的模糊程度是较为清晰偏向清晰的,人脸模糊度评分值会>60分。因此以60分作为模糊度的阈值分界线是非常助力人脸识别的,因此可将上述预设阈值设置为60分。
步骤S204,当预设损失函数收敛时,对所述第二神经网络模型训练完成;其中,所述预设损失函数用于指示计算得到所述人脸模糊度评分值与对应人脸图像预先标记的人脸模糊度评分值之间的差值。
在具体应用中,所述预设损失函数用于指示计算得到的每个所述人脸图像的三个姿态角度的角度值与标记的三个姿态角度的角度值之间的差值,预设的损失函数可以是交叉熵损失函数或者均方误差损失函数等类型的损失函数。
当所述神经网络模型的预设损失函数未收敛时,继续执行根据训练人脸图像集,对神经网络模型进行训练的步骤,直至预设损失函数收敛为止。如在一个具体应用场景中,可以是当预设损失函数的输出值大于预设误差值时,继续执行根据标记后的所述人脸图像数据集,对神经网络模型进行训练的步骤,直至预设损失函数输出值小于或等于预设阈值为止。
请参阅图5,在一个实施例中,上述步骤S102包括步骤S301至步骤S303,
步骤S301,当所述目标图像包含人脸图像时,对所述人脸图像进行关键点检测;
具体的,对人脸图像进行关键点检测中关键点可以是眼睛、鼻子、嘴巴等关键位置中若干个特征点。如特征点可以是左内眼角、右内眼角、鼻尖、左嘴角和右嘴角等具体位置提取的特征点位置。在检测到关键点之后并确定对应关键点在人脸中的坐标位置。
步骤S302,根据所述关键点的坐标位置与预设标准人脸图像的关键点的坐标位置,将所述人脸图像进行校正,获得校正后的人脸图像;
具体的,预设标准人脸图像的关键点的坐标位置范围是预先已知的,当检测到的人脸图像中关键点的位置不在预设标准人脸关键点位置的范围内时,需要先对人脸图像进行校正。具体通过相似变换(SimilarTransform)对人脸特征点坐标进行关键点对齐,以实现对人脸图像的矫正。
步骤S303,将所述校正后的人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果。
具体的,若人脸图像进行关键点对齐后后,则将对齐后的人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果。
当所述初步检测结果满足深度检测条件时,将所述对齐后的人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。
本申请实施例可先根据第一神经网络模型对人脸图像进行初步检测,在初步检测结果满足深度检测条件时,再根据第二神经网络进行深度检测,获得对人脸的模糊度的深度检测结果,可提高人脸模糊度判断的准确性。
对应于上文实施例所述的人脸模糊度检测方法,图6示出了本申请实施例提供的人脸模糊度检测装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。参照图6,人脸模糊度检测装置600包括:
检测模块601,用于对目标图像进行人脸检测;
第一获得模块602,用于当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果;
第二获得模块603,用于当所述初步检测结果满足深度检测条件时,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果。
如图7所示,在一个实施例中,第一获得模块602包括:
第一获得单元6021,用于将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得人脸模糊度分类结果;其中,所述人脸模糊度分类结果包括用于指示所述人脸图像的模糊度且按照模糊度由大到小的顺序排列的一级模糊度、二级模糊度和三级模糊度;
第一判定单元6022,用于当所述人脸模糊度分类结果为一级模糊度时,判定所述人脸图像为模糊人脸图像;
第二判定单元6023,用于当所述人脸模糊度分类结果为二级模糊度时,判定所述初步检测结果满足深度检测条件;
第三判定单元6024,用于当所述人脸模糊度分类结果为三级模糊度时,判定所述人脸图像为清晰人脸图像。
如图8所示,在一个实施例中,第二获得模块603包括:
第二获得单元6031,用于当所述初步检测结果满足深度检测条件时,将所述人脸图像输入至第二神经网络模型中对所述人脸图像中人脸的模糊度进行评分,获得人脸模糊度评分值;
第四判定单元6032,用于当人脸模糊度评分值低于预设阈值时,判定所述人脸图像为模糊人脸图像;
第五判定单元6033,用于当人脸模糊度评分值大于或等于预设阈值时,判定所述人脸图像为清晰人脸图像。
在一个实施例中,第一获得模块602包括:
检测单元,用于当所述目标图像包含人脸图像时,对所述人脸图像进行关键点检测;
校正单元,用于根据所述关键点的坐标位置与预设标准人脸图像的关键点的坐标位置,将所述人脸图像进行校正,获得校正后的人脸图像;
第三获得单元,用于将所述校正后的人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果。
在一个实施例中,所述人脸模糊度检测装置600还包括:
训练单元,用于对预先构建的第二神经网络模型进行训练;其中,所述第二神经网络模型的输出结果为人脸图像的人脸模糊度评分值。
在一个实施例中,所述训练单元具体用于:获取训练人脸图像集;
根据所述训练人脸图像集对预先构建的第二神经网络模型进行训练,得到所述训练人脸图像集中的每个人脸图像属于预设N类模糊等级中的每类的模糊等级的概率;其中,N≥2;
根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值;
当预设损失函数收敛时,对所述第二神经网络模型训练完成;其中,所述预设损失函数用于指示计算得到所述人脸模糊度评分值与对应人脸图像预先标记的人脸模糊度评分值之间的差值。
在一个实施例中,所述根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值的计算公式为:
其中,所述E﹙O﹚表示所述人脸模糊度评分值,所述yi表示通过所述第二神经网络模型训练得到的所述人脸图像属于第i类预设模糊等级的概率,所述Oi表示所述第i类预设模糊等级的分值。
本申请实施例可先根据第一神经网络模型对人脸图像进行初步检测,在初步检测结果满足深度检测条件时,再根据第二神经网络进行深度检测,获得对人脸的模糊度的深度检测结果,可提高人脸模糊度判断的准确性。
如图9所示,本发明的一个实施例还提供一种终端设备900包括:处理器901,存储器902以及存储在所述存储器902中并可在所述处理器901上运行的计算机程序903,例如人脸模糊度检测程序。所述处理器901执行所述计算机程序903时实现上述各个人脸模糊度检测方法实施例中的步骤。所述处理器901执行所述计算机程序903时实现上述各装置实施例中各模块的功能,例如图6所示模块601至603的功能。
示例性的,所述计算机程序903可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器902中,并由所述处理器901执行,以完成本发明。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序903在所述终端设备900中的执行过程。例如,所述计算机程序903可以被分割成检测模块,第一获得模块和第二获得模块,各模块具体功能在上述实施例中已有描述,此处不再赘述。
所述终端设备900可以是机器人,移动终端设备桌上型计算机、笔记本及掌上电脑等计算设备。所述终端设备可包括,但不仅限于,处理器901,存储器902。本领域技术人员可以理解,图9仅仅是终端设备900的示例,并不构成对终端设备900的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器901可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器902可以是所述终端设备900的内部存储单元,例如终端设备900的硬盘或内存。所述存储器902也可以是所述终端设备900的外部存储设备,例如所述终端设备900上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器902还可以既包括所述终端设备900的内部存储单元也包括外部存储设备。所述存储器902用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器902还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (7)
1.一种人脸模糊度检测方法,其特征在于,包括:
对预先构建的第二神经网络模型进行训练;其中,所述第二神经网络模型的输出结果为人脸图像的人脸模糊度评分值;
所述对预先构建的第二神经网络模型进行训练,包括:
获取训练人脸图像集;
根据所述训练人脸图像集对预先构建的第二神经网络模型进行训练,得到所述训练人脸图像集中的每个人脸图像属于预设N类模糊等级中的每类的模糊等级的概率;其中,N≥2;
根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值;
当预设损失函数收敛时,对所述第二神经网络模型训练完成;其中,所述预设损失函数用于指示计算得到所述人脸模糊度评分值与对应人脸图像预先标记的人脸模糊度评分值之间的差值;
所述根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值的计算公式为:
;
其中,所述E﹙O﹚表示所述人脸模糊度评分值,所述yi表示通过所述第二神经网络模型训练得到的所述人脸图像属于第i类预设模糊等级的概率,所述Oi表示所述第i类预设模糊等级的分值;
对目标图像进行人脸检测;
当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果,所述初步检查结果包括判定所述人脸图像为模糊人脸图像、较为清晰人脸图像或清晰人脸图像;
当所述初步检测结果认为输入第一神经网络的人脸图像是较为清晰的人脸图像,则满足深度检测条件,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果,所述深度检测结果包括判定所述人脸图像为清晰人脸图像或模糊人脸图像。
2.根据权利要求1所述的人脸模糊度检测方法,其特征在于,所述将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果,包括:
将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行分类,获得人脸模糊度分类结果;其中,所述人脸模糊度分类结果包括用于指示所述人脸图像的模糊度且按照模糊度由大到小的顺序排列的一级模糊度、二级模糊度和三级模糊度;
当所述人脸模糊度分类结果为一级模糊度时,判定所述人脸图像为模糊人脸图像;
当所述人脸模糊度分类结果为二级模糊度时,判定所述初步检测结果满足深度检测条件;
当所述人脸模糊度分类结果为三级模糊度时,判定所述人脸图像为清晰人脸图像。
3.根据权利要求2所述的人脸模糊度检测方法,其特征在于,所述将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果,包括:
当所述初步检测结果满足深度检测条件时,将所述人脸图像输入至第二神经网络模型中对所述人脸图像中人脸的模糊度进行评分,获得人脸模糊度评分值;
当人脸模糊度评分值低于预设阈值时,判定所述人脸图像为模糊人脸图像;
当人脸模糊度评分值大于或等于预设阈值时,判定所述人脸图像为清晰人脸图像。
4.根据权利要求1所述的人脸模糊度检测方法,其特征在于,所述当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果,包括:
当所述目标图像包含人脸图像时,对所述人脸图像进行关键点检测;
根据所述关键点的坐标位置与预设标准人脸图像的关键点的坐标位置,将所述人脸图像进行校正,获得校正后的人脸图像;
将所述校正后的人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果。
5.一种人脸模糊度检测装置,其特征在于,包括:
训练单元,用于对预先构建的第二神经网络模型进行训练;其中,所述第二神经网络模型的输出结果为人脸图像的人脸模糊度评分值;
所述对预先构建的第二神经网络模型进行训练,包括:
获取训练人脸图像集;
根据所述训练人脸图像集对预先构建的第二神经网络模型进行训练,得到所述训练人脸图像集中的每个人脸图像属于预设N类模糊等级中的每类的模糊等级的概率;其中,N≥2;
根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值;
当预设损失函数收敛时,对所述第二神经网络模型训练完成;其中,所述预设损失函数用于指示计算得到所述人脸模糊度评分值与对应人脸图像预先标记的人脸模糊度评分值之间的差值;
所述根据每个所述人脸图像属于预设N类模糊等级中的每类的模糊等级的概率,计算得到每个所述人脸模糊度评分值的计算公式为:
;
其中,所述E﹙O﹚表示所述人脸模糊度评分值,所述yi表示通过所述第二神经网络模型训练得到的所述人脸图像属于第i类预设模糊等级的概率,所述Oi表示所述第i类预设模糊等级的分值;
检测模块,用于对目标图像进行人脸检测;
第一获得模块,用于当所述目标图像包含人脸图像时,将所述人脸图像输入第一神经网络模型中对所述人脸图像中人脸的模糊度进行初步检测,获得初步检测结果,所述初步检查结果包括判定所述人脸图像为模糊人脸图像、较为清晰人脸图像或清晰人脸图像;
第二获得模块,用于当所述初步检测结果认为输入第一神经网络的人脸图像是较为清晰的人脸图像,则满足深度检测条件,将所述人脸图像输入第二神经网络模型中对所述人脸图像中人脸的模糊度进行深度检测,获得深度检测结果,所述深度检测结果包括判定所述人脸图像为清晰人脸图像或模糊人脸图像。
6.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010776747.1A CN112085701B (zh) | 2020-08-05 | 2020-08-05 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
US17/393,408 US11875599B2 (en) | 2020-08-05 | 2021-08-04 | Method and device for detecting blurriness of human face in image and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010776747.1A CN112085701B (zh) | 2020-08-05 | 2020-08-05 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112085701A CN112085701A (zh) | 2020-12-15 |
CN112085701B true CN112085701B (zh) | 2024-06-11 |
Family
ID=73736155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010776747.1A Active CN112085701B (zh) | 2020-08-05 | 2020-08-05 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11875599B2 (zh) |
CN (1) | CN112085701B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086709B (zh) * | 2018-07-27 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 特征提取模型训练方法、装置及存储介质 |
CN112581357A (zh) * | 2020-12-16 | 2021-03-30 | 珠海格力电器股份有限公司 | 人脸数据的处理方法、装置、电子设备和存储介质 |
CN112633218B (zh) * | 2020-12-30 | 2023-10-13 | 深圳市优必选科技股份有限公司 | 人脸检测方法、装置、终端设备及计算机可读存储介质 |
CN112883918B (zh) * | 2021-03-22 | 2024-03-19 | 深圳市百富智能新技术有限公司 | 人脸检测方法、装置、终端设备及计算机可读存储介质 |
CN113111730B (zh) * | 2021-03-23 | 2024-02-02 | 北京海鑫智圣技术有限公司 | 快速高精度的图像模糊检测方法及装置 |
CN113256586A (zh) * | 2021-05-28 | 2021-08-13 | 深圳数联天下智能科技有限公司 | 人脸图像的模糊判断方法、装置、设备和介质 |
CN113627314B (zh) * | 2021-08-05 | 2024-08-13 | Oppo广东移动通信有限公司 | 人脸图像模糊检测方法、装置、存储介质与电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867128A (zh) * | 2015-04-10 | 2015-08-26 | 浙江宇视科技有限公司 | 图像模糊检测方法和装置 |
CN109190475A (zh) * | 2018-08-01 | 2019-01-11 | 中国计量大学 | 一种人脸识别网络与行人再识别网络协同训练方法 |
CN110059642A (zh) * | 2019-04-23 | 2019-07-26 | 北京海益同展信息科技有限公司 | 人脸图像筛选方法与装置 |
CN110163114A (zh) * | 2019-04-25 | 2019-08-23 | 厦门瑞为信息技术有限公司 | 一种人脸角度及人脸模糊度分析方法、系统和计算机设备 |
CN110909693A (zh) * | 2019-11-27 | 2020-03-24 | 深圳市华付信息技术有限公司 | 3d人脸活体检测方法、装置、计算机设备及存储介质 |
CN111368758A (zh) * | 2020-03-09 | 2020-07-03 | 苏宁云计算有限公司 | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 |
CN111368602A (zh) * | 2018-12-26 | 2020-07-03 | 北京眼神智能科技有限公司 | 人脸图像模糊程度评价方法、装置、可读存储介质及设备 |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9210327B2 (en) * | 2013-12-02 | 2015-12-08 | Yahoo! Inc. | Blur aware photo feedback |
EP3158498A4 (en) * | 2014-11-15 | 2017-08-16 | Beijing Kuangshi Technology Co. Ltd. | Face detection using machine learning |
US9754237B2 (en) * | 2015-12-18 | 2017-09-05 | Ricoh Co., Ltd. | Index image quality metric |
US10002415B2 (en) * | 2016-04-12 | 2018-06-19 | Adobe Systems Incorporated | Utilizing deep learning for rating aesthetics of digital images |
EP3336774B1 (en) * | 2016-12-13 | 2020-11-25 | Axis AB | Method, computer program product and device for training a neural network |
CN108229326A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸防伪检测方法和系统、电子设备、程序和介质 |
US10902244B2 (en) * | 2017-03-27 | 2021-01-26 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
CN107358157B (zh) * | 2017-06-07 | 2020-10-02 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
KR102299847B1 (ko) * | 2017-06-26 | 2021-09-08 | 삼성전자주식회사 | 얼굴 인증 방법 및 장치 |
WO2019000462A1 (zh) * | 2017-06-30 | 2019-01-03 | 广东欧珀移动通信有限公司 | 人脸图像处理方法、装置、存储介质及电子设备 |
CN109359499A (zh) * | 2017-07-26 | 2019-02-19 | 虹软科技股份有限公司 | 一种用于脸部分类的方法和装置 |
CN107679546A (zh) * | 2017-08-17 | 2018-02-09 | 平安科技(深圳)有限公司 | 人脸图像数据采集方法、装置、终端设备及存储介质 |
US10025950B1 (en) * | 2017-09-17 | 2018-07-17 | Everalbum, Inc | Systems and methods for image recognition |
WO2019056000A1 (en) * | 2017-09-18 | 2019-03-21 | Board Of Trustees Of Michigan State University | GENERATIVE ANTAGONIST NETWORK WITH DISSOCATED REPRESENTATION LEARNING FOR INDEPENDENT POSTURE FACIAL RECOGNITION |
CN107644209A (zh) * | 2017-09-21 | 2018-01-30 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
CN107679490B (zh) * | 2017-09-29 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
US10891723B1 (en) * | 2017-09-29 | 2021-01-12 | Snap Inc. | Realistic neural network based image style transfer |
CN107818313B (zh) * | 2017-11-20 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置和存储介质 |
JP6885474B2 (ja) * | 2017-12-20 | 2021-06-16 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
CN107909065B (zh) * | 2017-12-29 | 2020-06-16 | 百度在线网络技术(北京)有限公司 | 用于检测人脸遮挡的方法及装置 |
CN110009556A (zh) * | 2018-01-05 | 2019-07-12 | 广东欧珀移动通信有限公司 | 图像背景虚化方法、装置、存储介质及电子设备 |
CN108446617B (zh) * | 2018-03-09 | 2022-04-22 | 华南理工大学 | 抗侧脸干扰的人脸快速检测方法 |
TWI667621B (zh) * | 2018-04-09 | 2019-08-01 | 和碩聯合科技股份有限公司 | 人臉辨識方法 |
US11036970B2 (en) * | 2018-04-25 | 2021-06-15 | Shutterfly, Llc | Hybrid deep learning method for gender classification |
WO2020027233A1 (ja) * | 2018-07-31 | 2020-02-06 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及び車両制御システム |
KR102192899B1 (ko) * | 2018-08-16 | 2020-12-18 | 주식회사 날비컴퍼니 | 이미지에 보케 효과를 적용하는 방법 및 기록매체 |
GB201814121D0 (en) * | 2018-08-30 | 2018-10-17 | Liopa Ltd | Liopa |
RU2697646C1 (ru) * | 2018-10-26 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Способ биометрической аутентификации пользователя и вычислительное устройство, реализующее упомянутый способ |
US10666858B2 (en) * | 2018-10-30 | 2020-05-26 | Sony Corporation | Deep-learning-based system to assist camera autofocus |
US10896493B2 (en) * | 2018-11-13 | 2021-01-19 | Adobe Inc. | Intelligent identification of replacement regions for mixing and replacing of persons in group portraits |
CN110020581B (zh) * | 2018-12-03 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 一种基于多帧脸部图像的比对方法、装置和电子设备 |
US11657525B2 (en) * | 2018-12-04 | 2023-05-23 | Yoti Holding Limited | Extracting information from images |
GB2579583B (en) * | 2018-12-04 | 2021-01-06 | Yoti Holding Ltd | Anti-spoofing |
CN109753927A (zh) * | 2019-01-02 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 一种人脸检测方法和装置 |
CN109948494B (zh) * | 2019-03-11 | 2020-12-29 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110070107B (zh) * | 2019-03-26 | 2020-12-25 | 华为技术有限公司 | 物体识别方法及装置 |
JP2020188310A (ja) * | 2019-05-10 | 2020-11-19 | ソニーセミコンダクタソリューションズ株式会社 | 画像認識装置および画像認識方法 |
US11048917B2 (en) * | 2019-07-31 | 2021-06-29 | Baidu Usa Llc | Method, electronic device, and computer readable medium for image identification |
CN110443655A (zh) * | 2019-08-14 | 2019-11-12 | 北京市商汤科技开发有限公司 | 信息处理方法、装置及设备 |
US12056590B2 (en) * | 2019-08-14 | 2024-08-06 | Capital One Services, Llc | Systems and methods for diagnosing computer vision model performance issues |
WO2021033183A1 (en) * | 2019-08-19 | 2021-02-25 | De-Identification Ltd. | System and method for anonymization of a face in an image |
CA3152060A1 (en) * | 2019-08-23 | 2021-03-04 | Berbix Inc. | Identity authentication and processing |
US11238580B2 (en) * | 2019-08-29 | 2022-02-01 | Varian Medical Systems International Ag | Systems and methods for image cropping and anatomical structure segmentation in medical imaging |
WO2021045599A1 (ko) * | 2019-09-06 | 2021-03-11 | 주식회사 날비컴퍼니 | 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체 |
CN110765923B (zh) * | 2019-10-18 | 2024-05-24 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN112800805A (zh) * | 2019-10-28 | 2021-05-14 | 上海哔哩哔哩科技有限公司 | 视频剪辑方法、系统、计算机设备及计算机存储介质 |
US20210158554A1 (en) * | 2019-11-27 | 2021-05-27 | Social Nation, Inc. | Artificial intelligence for generating depth map |
WO2021118270A1 (en) * | 2019-12-11 | 2021-06-17 | Samsung Electronics Co., Ltd. | Method and electronic device for deblurring blurred image |
WO2021145920A1 (en) * | 2020-01-17 | 2021-07-22 | Harman International Industries, Incorporated | Multi-task face detector and landmark detector |
US11574392B2 (en) * | 2020-02-27 | 2023-02-07 | Adobe Inc. | Automatically merging people and objects from multiple digital images to generate a composite digital image |
US11763551B2 (en) * | 2020-03-03 | 2023-09-19 | Assa Abloy Ab | Systems and methods for fine tuning image classification neural networks |
CN111439267B (zh) * | 2020-03-30 | 2021-12-07 | 上海商汤临港智能科技有限公司 | 一种舱内环境的调整方法及装置 |
CN111439170B (zh) * | 2020-03-30 | 2021-09-17 | 上海商汤临港智能科技有限公司 | 儿童状态检测方法及装置、电子设备、存储介质 |
US20210352206A1 (en) * | 2020-05-08 | 2021-11-11 | Creedon Technologies Hk Limited | Digital media frame and method for configuring a field of view of a digital media frame |
CN111626218B (zh) * | 2020-05-28 | 2023-12-26 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像生成方法、装置、设备及存储介质 |
CN111652121B (zh) * | 2020-06-01 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
US11106919B1 (en) * | 2020-06-02 | 2021-08-31 | ULTINOUS Zrt. | Processing of video streams |
CN111754396B (zh) * | 2020-07-27 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 脸部图像处理方法、装置、计算机设备和存储介质 |
KR20220014715A (ko) * | 2020-07-29 | 2022-02-07 | 삼성전자주식회사 | 비디오 품질 평가 방법 및 장치 |
CN111738230B (zh) * | 2020-08-05 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种人脸识别方法、人脸识别装置及电子设备 |
-
2020
- 2020-08-05 CN CN202010776747.1A patent/CN112085701B/zh active Active
-
2021
- 2021-08-04 US US17/393,408 patent/US11875599B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867128A (zh) * | 2015-04-10 | 2015-08-26 | 浙江宇视科技有限公司 | 图像模糊检测方法和装置 |
CN109190475A (zh) * | 2018-08-01 | 2019-01-11 | 中国计量大学 | 一种人脸识别网络与行人再识别网络协同训练方法 |
CN111368602A (zh) * | 2018-12-26 | 2020-07-03 | 北京眼神智能科技有限公司 | 人脸图像模糊程度评价方法、装置、可读存储介质及设备 |
CN110059642A (zh) * | 2019-04-23 | 2019-07-26 | 北京海益同展信息科技有限公司 | 人脸图像筛选方法与装置 |
CN110163114A (zh) * | 2019-04-25 | 2019-08-23 | 厦门瑞为信息技术有限公司 | 一种人脸角度及人脸模糊度分析方法、系统和计算机设备 |
CN110909693A (zh) * | 2019-11-27 | 2020-03-24 | 深圳市华付信息技术有限公司 | 3d人脸活体检测方法、装置、计算机设备及存储介质 |
CN111368758A (zh) * | 2020-03-09 | 2020-07-03 | 苏宁云计算有限公司 | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20220044004A1 (en) | 2022-02-10 |
CN112085701A (zh) | 2020-12-15 |
US11875599B2 (en) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112085701B (zh) | 一种人脸模糊度检测方法、装置、终端设备及存储介质 | |
CN109815788B (zh) | 一种图片聚类方法、装置、存储介质及终端设备 | |
CN110378235B (zh) | 一种模糊人脸图像识别方法、装置及终端设备 | |
CN109829448B (zh) | 人脸识别方法、装置及存储介质 | |
CN112084856A (zh) | 一种人脸姿态检测方法、装置、终端设备及存储介质 | |
WO2018166114A1 (zh) | 图片识别的方法、系统、电子装置及介质 | |
CN111860398B (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN110909663B (zh) | 一种人体关键点识别方法、装置及电子设备 | |
CN111695462B (zh) | 一种人脸识别方法、装置、存储介质和服务器 | |
CN111242291A (zh) | 神经网络后门攻击的检测方法、装置和电子设备 | |
CN112348778B (zh) | 一种物体识别方法、装置、终端设备及存储介质 | |
CN110852311A (zh) | 一种三维人手关键点定位方法及装置 | |
CN110765976B (zh) | 人脸特征点的生成方法、数据网络的训练方法及相关装置 | |
CN111027412B (zh) | 一种人体关键点识别方法、装置及电子设备 | |
CN112069887A (zh) | 一种人脸识别方法、装置、终端设备及存储介质 | |
CN112633420A (zh) | 图像相似度确定及模型训练方法、装置、设备和介质 | |
CN110909665A (zh) | 一种多任务的图像处理方法、装置、电子设备及存储介质 | |
KR20110080246A (ko) | 분산과 사전확률을 고려한 데이터 분류 장치 및 방법 | |
CN112560856A (zh) | 车牌检测识别方法、装置、设备及存储介质 | |
CN116309643A (zh) | 人脸遮挡分确定方法、电子设备及介质 | |
CN113762027B (zh) | 一种异常行为的识别方法、装置、设备及存储介质 | |
CN112508062B (zh) | 一种开集数据的分类方法、装置、设备及存储介质 | |
CN111242322B (zh) | 后门样本的检测方法、装置和电子设备 | |
CN113721240A (zh) | 一种目标关联方法、装置、电子设备及存储介质 | |
CN109933969B (zh) | 验证码识别方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |