CN107644209A - 人脸检测方法和装置 - Google Patents

人脸检测方法和装置 Download PDF

Info

Publication number
CN107644209A
CN107644209A CN201710858134.0A CN201710858134A CN107644209A CN 107644209 A CN107644209 A CN 107644209A CN 201710858134 A CN201710858134 A CN 201710858134A CN 107644209 A CN107644209 A CN 107644209A
Authority
CN
China
Prior art keywords
face
semantic feature
face characteristic
image
characteristic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710858134.0A
Other languages
English (en)
Inventor
杜康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710858134.0A priority Critical patent/CN107644209A/zh
Publication of CN107644209A publication Critical patent/CN107644209A/zh
Priority to US16/052,421 priority patent/US10936919B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了人脸检测方法和装置。该方法的一具体实施方式包括:获取待检测图像;将该待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,该第一卷积神经网络用于提取人脸特征;将该待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,该第二卷积神经网络用于提取图像的语义特征;对该人脸特征信息和该语义特征信息进行解析,生成人脸检测结果。该实施方式提高了模糊图像的检测结果的准确性。

Description

人脸检测方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及人脸检测方法和装置。
背景技术
随着互联网技术的发展,人脸检测技术应用到了越来越多的领域。例如,可以通过人脸检测来进行身份验证等。现有的人脸检测方法通常是直接对所拍摄的图像进行人脸区域的检测。然而,人在运动状态下(例如跑动状态、跳跃状态下)被拍摄的图像通常较模糊,无法呈现清晰的人脸轮廓和五官,因而现有的方式存在着在模糊图像的检测结果的准确性较低的问题。
发明内容
本申请实施例的目的在于提出一种改进的人脸检测方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种人脸检测方法,该方法包括:获取待检测图像;将待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,第一卷积神经网络用于提取人脸特征;将待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,第二卷积神经网络用于提取图像的语义特征;对人脸特征信息和语义特征信息进行解析,生成人脸检测结果。
在一些实施例中,人脸特征信息包括第一人脸特征图和多个第二人脸特征图,其中,第一人脸特征图中的每一个点用于表征待检测图像中与该点相对应的区域存在人脸的置信度,各个第二人脸特征图中的每一个点用于表征待检测图像中与该点相对应的区域的位置信息,第一人脸特征图和各个第二人脸特征图分别以矩阵进行表示。
在一些实施例中,语义特征信息包括待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,语义特征信息以矩阵进行表示。
在一些实施例中,对人脸特征信息和语义特征信息进行解析,生成人脸检测结果,包括:将人脸特征信息和语义特征信息进行结合,生成结合特征信息;将结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。
在一些实施例中,将人脸特征信息和语义特征信息进行结合,生成结合特征信息,包括:按照以下任一方式将人脸特征信息和语义特征信息进行结合,生成结合特征信息:将人脸特征信息和语义特征信息按对应元素相乘,将人脸特征信息和语义特征信息按对应元素取最大,将人脸特征信息和语义特征信息按对应元素进行阈值截断。
在一些实施例中,该方法还包括训练第三卷积神经网络的步骤,包括:提取预设的训练样本,其中,训练样本包括多个图像的人脸特征信息和语义特征信息;将多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息;利用机器学习方法,将多个图像中的各个图像的结合特征信息作为输入,将人脸检测结果作为输出,训练得到第三卷积神经网络。
第二方面,本申请实施例提供了一种人脸检测装置,该装置包括:获取单元,配置用于获取待检测图像;第一输入单元,配置用于将待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,第一卷积神经网络用于提取人脸特征;第二输入单元,配置用于将待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,第二卷积神经网络用于提取图像的语义特征;生成单元,配置用于对人脸特征信息和语义特征信息进行解析,生成人脸检测结果。
在一些实施例中,人脸特征信息包括第一人脸特征图和多个第二人脸特征图,其中,第一人脸特征图中的每一个点用于表征待检测图像中与该点相对应的区域存在人脸的置信度,各个第二人脸特征图中的每一个点用于表征待检测图像中与该点相对应的区域的位置信息,第一人脸特征图和各个第二人脸特征图分别以矩阵进行表示。
在一些实施例中,语义特征信息包括待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,语义特征信息以矩阵进行表示。
在一些实施例中,生成单元包括:结合模块,配置用于将人脸特征信息和语义特征信息进行结合,生成结合特征信息;输入模块,配置用于将结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。
在一些实施例中,结合模块进一步配置用于:按照以下任一方式将人脸特征信息和语义特征信息进行结合,生成结合特征信息:将人脸特征信息和语义特征信息按对应元素相乘,将人脸特征信息和语义特征信息按对应元素取最大,将人脸特征信息和语义特征信息按对应元素进行阈值截断。
在一些实施例中,装置还包括:提取单元,配置用于提取预设的训练样本,其中,训练样本包括多个图像的人脸特征信息和语义特征信息;结合单元,配置用于将多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息;训练单元,配置用于利用机器学习方法,将多个图像中的各个图像的结合特征信息作为输入,将人脸检测结果作为输出,训练得到第三卷积神经网络。
第三方面,本申请实施例提供了一种服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如人脸检测方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如人脸检测方法中任一实施例的方法。
本申请实施例提供的人脸检测方法和装置,通过将所获取的待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,之后将人脸特征信息输入至预先训练的第二卷积神经网络,得到语义特征信息,最后对人脸特征信息和语义特征信息进行解析,生成人脸检测结果,从而利用人脸特征信息和语义特征信息相结合的方式进行人脸检测,可以对无法呈现清晰的人脸轮廓和五官使模糊图像中的人脸进行检测,提高了模糊图像的检测结果的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的人脸检测方法的一个实施例的流程图;
图3是根据本申请的人脸检测方法的一个应用场景的示意图;
图4是根据本申请的人脸检测方法的又一个实施例的流程图;
图5是根据本申请的人脸检测装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的人脸检测方法或人脸检测装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如摄影摄像类应用、图像处理类应用、搜索类应用等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的图像进行处理的图像处理服务器。图像处理服务器可以对接收到的待检测图像等进行分析等处理,并将处理结果(例如人脸检测结果)反馈给终端设备。
需要说明的是,本申请实施例所提供的人脸检测方法一般由服务器105执行,相应地,人脸检测装置一般设置于服务器105中。
需要指出的是,服务器105的本地也可以直接存储待检测图像,服务器105可以直接提取本地的待检测图像进行检测,此时,示例性系统架构100可以不存在终端设备101、102、103和网络104。
但需要指出的是,终端设备101、102、103中也可以安装有图像处理类应用,终端设备101、102、103也可以基于图像处理类应用对待检测图像进行人脸检测,此时,人脸检测装置也可以由终端设备101、102、103执行,相应地,人脸检测装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100可以不存在服务器105和网络104。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的人脸检测方法的一个实施例的流程200。所述的人脸检测方法,包括以下步骤:
步骤201,获取待检测图像。
在本实施例中,人脸检测方法运行于其上的电子设备(例如图1所示的服务器105)可以获取待检测图像。其中,上述待检测图像可以是各种图像,例如,人在运动状态下(例如跑动状态下、跳跃状态下)被拍摄到的模糊图像,或者在静止状态下被拍摄到的清晰图像等。此处,上述待检测图像可以是与上述电子设备通信连接的客户端(例如图1所示的终端设备101、102、103)通过有线连接方式或无线连接方式上传至上述电子设备中的,也可以是上述电子设备本地所存储的。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,将待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息。
在本实施例中,上述电子设备可以将上述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,上述第一卷积神经网络可以用于提取人脸特征。上述第一卷积神经网络可以包括至少一个卷积层和至少一个池化层,其中,卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行降采样(downsample)。实践中,卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现,因而,可以利用卷积神经网络进行图像特征信息的提取。此处,上述人脸特征信息可以是用于对图像中的人脸特征进行表征的信息,其中,人脸特征可以是与人脸相关的各种基本要素(例如是人脸的概率、人脸的位置等)。实践中,上述第一卷积神经网络可以是全卷积网络(Fully ConvolutionalNetworks,FCN)。
需要说明的是,上述第一卷积神经网络可以是利用机器学习方法和训练样本对现有的深度卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的图像和每一个图像的标注,该标注可以包括用于指示是否是人脸区域的标注和用于指示人脸区域的位置的标注(例如坐标值等)。
在本实施例的一些可选的实现方式中,上述人脸特征信息可以包括第一人脸特征图和多个第二人脸特征图(例如4个第二人脸特征图或4个以上第二人脸特征图),其中,上述第一人脸特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域存在人脸的置信度(可以用于表征该区域存在人脸的可能性或概率),各个第二人脸特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域的位置信息。需要说明的是,上述第一人脸特征图、各个第二人脸特征图可以以矩阵的形式进行表示,上述第一人脸特征图、各个第二人脸特征图中的每一个点可以是矩阵中一个数值。实践中,由于上述第一卷积神经网络中包含用于执行降采样操作的池化层,因而,人脸特征图中的每一个点与上述待检测图像的一个区域相对应。作为示例,上述多个第二人脸特征图可以为4个第二人脸特征图,上述4个第二人脸特征图中的点可以分别用于表征上述待检测图像中相对应的区域的左上角顶点的横坐标、上述左上角顶点的纵坐标、右下角顶点的横坐标、上述右下角顶点的纵坐标。
在本实施例的一些可选的实现方式中,上述人脸特征信息可以包括第一人脸整体特征图、多个第二人脸整体特征图(例如4个第二人脸特征图或4个以上第二人脸特征图)、至少一个人脸局部特征图和与上述至少一个第一人脸局部特征图中的每一个第一人脸局部特征图相对应的多个第二人脸局部特征图(例如4个第二人脸局部特征图或4个以上第二人脸局部特征图)。其中,上述第一人脸整体特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域存在人脸整体的置信度(可以用于表征该区域存在人脸的可能性或概率);各个第二人脸整体特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域的位置信息;各个第一人脸局部特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域存在人脸局部的置信度;各个第二人脸局部特征图中的每一个点用于表征上述待检测图像中与该点相对应的区域的位置信息。需要说明的是,第一人脸整体特征图、第二人脸整体特征图、第一人脸局部特征图、第二人脸局部特征图可以是以矩阵的形式进行表达,第一人脸整体特征图、第二人脸整体特征图、第一人脸局部特征图、第二人脸局部特征图中的每一个点可以是矩阵中一个数值。实践中,由于上述第一卷积神经网络中包含用于执行降采样操作的池化层,因而,第一人脸整体特征图、第二人脸整体特征图、第一人脸局部特征图、第二人脸局部特征图中的每一个点与上述待检测图像的一个区域相对应。实践中,人脸局部可以是人脸中的一个或多个部分,例如可以是耳朵、眼睛、鼻子、嘴、下巴、眉毛、额头等等。
步骤203,将待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息。
在本实施例中,上述电子设备可以将上述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,上述第二卷积神经网络可以用于提取图像的语义特征。在将上述待检测图像输入至预先训练的第二卷积神经网络后,上述第二卷积神经网络可以先后进行降采样(例如降采样至原尺度的1/16)和上采样(upsample)(例如从原尺度的1/16升采样至原尺度)过程。上述第二卷积神经网络可以包括至少一个卷积层、至少一个池化层、至少一个反池化层和至少一个反卷积层,其中,卷积层可以用于提取语义特征,池化层可以用于对输入的语义特征进行降采样,得到较为稀疏的分类结果,反池化层可以用于对输入的内容进行上采样,反卷积层用于对输入的信息进行反卷积操作,将卷积层的卷积核的转置作为反卷积层的卷积核对所输入的内容进行处理。反池化层和反卷积层对信息进行处理后,可以得到较为稠密的分类结果。上述第二卷积神经网络的最后一个反卷积层可以输出上述待检测图像的语义特征信息。需要指出的是,上述语义特征信息可以用于表示上述待检测图像中的每一个点(即像素)所属的类型(例如背景、人脸、躯干等)。此处,上述待检测图像的每一个点的语义特征信息可以用一个向量进行表示。
需要说明的是,上述第二卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的模糊图像样本和模糊图像样本中每一个点的标注,其中,每一点的标注可以是一个向量,用于表征该点所涉及的类型。
需要说明的是,上述电子设备可以同时执行上述步骤202和上述步骤203的步骤。
步骤204,对人脸特征信息和语义特征信息进行解析,生成人脸检测结果。
在本实施例中,上述电子设备可以利用各种方式对上述人脸特征信息和上述语义特征信息进行解析,生成人脸检测结果。作为示例,上述电子设备中可以预先存储有大量的人脸特征信息、语义特征信息和人脸检测结果的对应关系表,该对应关系表可以是技术人员通过大量的统计而预先制定的。上述电子设备可以直接从上述对应关系表中直接查找同时与步骤202所得到的人脸特征信息和步骤203所得到的语义特征信息相匹配的人脸检测结果。上述人脸检测结果可以指示上述待检测图像中的人脸区域的位置(例如可以以人脸区域左上角坐标、人脸区域右下角坐标等进行表示)。
继续参见图3,图3是根据本实施例的人脸检测方法的应用场景的一个示意图。在图3的应用场景中,客户端首先上传了待检测图像301至图像处理服务器;之后,图像处理服务器将待检测图像301输入至预先训练的第一卷积神经网络,得到人脸特征信息,同时,将待检测图像301输入至预先训练的第二卷积神经网络,得到语义特征信息;最后,图像处理服务器对人脸特征信息和语义特征信息进行解析,生成人脸检测结果,并以框图显示待检测图像301中的人脸区域(如标号302所示)。
本申请的上述实施例提供的方法,通过将所获取的待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,之后将人脸特征信息输入至预先训练的第二卷积神经网络,得到语义特征信息,最后对人脸特征信息和语义特征信息进行解析,生成人脸检测结果,从而利用人脸特征信息和语义特征信息相结合的方式进行人脸检测,可以对无法呈现清晰的人脸轮廓和五官使模糊图像中的人脸进行检测,提高了模糊图像的检测结果的准确性。
进一步参考图4,其示出了人脸检测方法的又一个实施例的流程400。该人脸检测方法的流程400,包括以下步骤:
步骤401,获取待检测图像。
在本实施例中,人脸检测方法运行于其上的电子设备(例如图1所示的服务器105)可以获取待检测图像。其中,上述待检测图像可以是各种图像,例如,人在运动状态下(例如跑动状态下、跳跃状态下)被拍摄到的模糊图像,或者在静止状态下被拍摄到的清晰图像等。此处,上述待检测图像可以是与上述电子设备通信连接的客户端(例如图1所示的终端设备101、102、103)通过有线连接方式或无线连接方式上传至上述电子设备中的,也可以是上述电子设备本地所存储的。
步骤402,将待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息。
在本实施例中,上述电子设备可以将上述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,上述第一卷积神经网络可以用于提取人脸特征。上述第一卷积神经网络可以包括至少一个卷积层和至少一个池化层,其中,卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行降采样。上述人脸特征信息可以包括第一人脸特征图和多个第二人脸特征图(例如4个第二人脸特征图或4个以上第二人脸特征图),其中,上述第一人脸特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域存在人脸的置信度(可以用于表征该区域存在人脸的可能性或概率),各个第二人脸特征图中的每一个点可以用于表征上述待检测图像中与该点相对应的区域的位置信息。需要说明的是,上述第一人脸特征图、各个第二人脸特征图可以以矩阵的形式进行表示,上述第一人脸特征图、各个第二人脸特征图中的每一个点可以是矩阵中一个数值。实践中,由于上述第一卷积神经网络中包含用于执行降采样操作的池化层,因而,人脸特征图中的每一个点与上述待检测图像的一个区域相对应。作为示例,上述多个第二人脸特征图可以为4个第二人脸特征图,上述4个第二人脸特征图中的点可以分别用于表征上述待检测图像中相对应的区域的左上角顶点的横坐标、左上角顶点的纵坐标、右下角顶点的横坐标、右下角顶点的纵坐标。
步骤403,将待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息。
在本实施例中,上述电子设备可以将上述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,上述第二卷积神经网络可以用于提取图像的语义特征。在将上述待检测图像输入至预先训练的第二卷积神经网络后,上述第二卷积神经网络可以先后进行降采样和上采样过程。上述第二卷积神经网络可以包括至少一个卷积层、至少一个池化层、至少一个反池化层和至少一个反卷积层。需要指出的是,上述语义特征信息可以用于表示上述待检测图像中的每一个点所属的类型。此处,上述待检测图像的每一个点的语义特征信息可以用一个向量进行表示。
在本实施例中,所得到的语义特征信息可以包括上述待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,上述多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,上述待检测图像的语义特征信息可以以矩阵进行表示,对于上述待检测图像的每一个点,可以用一个N维向量表示该点的语义信息,其中,N为不小于1的整数。上述N维向量的N个值可以分别代表N种语义信息,例如,N维向量的第一个值可以标识该点属于背景类的概率,N维向量的第二个值可以表示该点属于头发类的概率,N维向量的第二个值可以表示该点属于眼睛类的概率等。在此不再赘述。
步骤404,将人脸特征信息和语义特征信息进行结合,生成结合特征信息。
在本实施例中,上述电子设备可以将上述人脸特征信息和上述语义特征信息进行结合,生成结合特征信息。需要说明的是,在将上述人脸特征信息和上述语义特征信息进行结合之前,上述电子设备可以预先将上述语义特征信息进行缩放,使上述语义特征信息的尺度与上述人脸特征信息相同。上述电子设备可以利用各种特征结合方式对上述人脸特征信息和上述语义特征信息进行结合。作为示例,可以直接将上述人脸特征信息和上述语义特征信息拼接得到新的矩阵,作为结合特征等信息。
在本实施例的一些可选的实现方式中,上述电子设备可以将上述人脸特征信息和上述语义特征信息按对应元素相乘,生成结合特征信息。作为示例,以矩阵A表示上述人脸特征信息,以矩阵B表示上述语义特征信息,以矩阵C表示上述结合特征信息,矩阵A、矩阵B、矩阵C均为n×m的矩阵(其中n、m均为正整数),则可以用以下方式获得向量C:
C[i,j]=A[i,j]×B[i,j]
其中,i为不大于n的正整数,j为不大于m的正整数,[i,j]用以表示矩阵中的元素的位置。
在本实施例的一些可选的实现方式中,上述电子设备可以将上述人脸特征信息和上述语义特征信息按对应元素取最大,生成结合特征信息。
在本实施例的一些可选的实现方式中,上述电子设备可以将上述人脸特征信息和上述语义特征信息按对应元素进行阈值截断,生成结合特征信息。作为示例,以矩阵A表示上述人脸特征信息,以矩阵B表示上述语义特征信息,以矩阵C表示上述结合特征信息,矩阵A、矩阵B、矩阵C均为n×m的矩阵(其中n、m均为正整数)。若B[i,j]的值大于预设阈值(例如0.5或0.8等),则矩阵C[i,j]的值与矩阵A[i,j]相同;若B[i,j]的值不大于上述预设阈值,则矩阵C[i,j]的值取0。其中,i为不大于n的正整数,j为不大于m的正整数,[i,j]用以表示矩阵中的元素的位置。
步骤405,将上述结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果。
在本实施例中,上述电子设备可以将上述结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,上述第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。作为示例,所述结合特征信息可以是技术人员基于大量数据而预先制定的、用于表征结合特征信息与人脸检测结果的对应关系表。
在本实施例的一些可选的实现方案是中,上述第三卷积神经网络可以是利用以下步骤训练得到的:首先,可以提取预设的训练样本,其中,上述训练样本包括多个图像的人脸特征信息和语义特征信息;之后,可以将上述多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息;最后,可以利用机器学习方法,将上述多个图像中的各个图像的结合特征信息作为输入,将上述人脸检测结果作为输出,训练得到第三卷积神经网络。需要说明的是,上述第三卷积神经网络可以是使用现有的深度卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到。
从图4中可以看出,与图2对应的实施例相比,本实施例中的人脸检测方法的流程400突出了对上述人脸特征信息和上述语义特征信息进行解析的步骤。由此,本实施例描述的方案可以利用预先训练的第三卷积神经网络对人脸特征信息和语义特征信息相结合相结合后的结合特征信息进行解析,对模糊图像进行识别,进一步提高了模糊图像的检测结果的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种人脸检测装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所述的人脸检测装置500包括:获取单元501,配置用于获取待检测图像;第一输入单元502,配置用于将上述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,上述第一卷积神经网络用于提取人脸特征;第二输入单元503,配置用于将上述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,上述第二卷积神经网络用于提取图像的语义特征;生成单元504,配置用于对上述人脸特征信息和上述语义特征信息进行解析,生成人脸检测结果。
在本实施例中,上述获取单元501可以获取待检测图像。其中,上述待检测图像可以是各种图像,例如,人在运动状态下(例如跑动状态下、跳跃状态下)被拍摄到的模糊图像,或者在静止状态下被拍摄到的清晰图像等。
在本实施例中,上述第一输入单元502可以将上述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,上述第一卷积神经网络可以用于提取人脸特征。实践中,上述第一卷积神经网络可以是全卷积网络(Fully Convolutional Networks,FCN)。
在本实施例中,上述第二输入单元503可以将上述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,上述第二卷积神经网络可以用于提取图像的语义特征。在将上述待检测图像输入至预先训练的第二卷积神经网络后,上述第二卷积神经网络可以先后进行降采样和上采样过程。需要指出的是,上述语义特征信息可以用于表示上述待检测图像中的每一个点(即像素)所属的类型(例如背景、人脸、躯干等)。此处,上述待检测图像的每一个点的语义特征信息可以用一个向量进行表示。
在本实施例中,上述生成单元504可以利用各种方式对上述人脸特征信息和上述语义特征信息进行解析,生成人脸检测结果。
在本实施例的一些可选的实现方式中,上述人脸特征信息可以包括第一人脸特征图和多个第二人脸特征图,其中,上述第一人脸特征图中的每一个点用于表征上述待检测图像中与该点相对应的区域存在人脸的置信度,各个第二人脸特征图中的每一个点用于表征上述待检测图像中与该点相对应的区域的位置信息,上述第一人脸特征图和各个第二人脸特征图分别以矩阵进行表示。
在本实施例的一些可选的实现方式中,上述语义特征信息可以包括上述待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,上述多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,上述语义特征信息以矩阵进行表示。
在本实施例的一些可选的实现方式中,上述生成单元504可以包括结合模块和输入模块(图中未示出)。其中,上述结合模块可以配置用于将上述人脸特征信息和上述语义特征信息进行结合,生成结合特征信息。上述输入模块可以配置用于将上述结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,上述第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。
在本实施例的一些可选的实现方式中,上述结合模块可以进一步配置用于按照以下任一方式将上述人脸特征信息和上述语义特征信息进行结合,生成结合特征信息:将上述人脸特征信息和上述语义特征信息按对应元素相乘,将上述人脸特征信息和上述语义特征信息按对应元素取最大,将上述人脸特征信息和上述语义特征信息按对应元素进行阈值截断。
在本实施例的一些可选的实现方式中,上述人脸检测装置500还可以包括提取单元、结合单元和训练单元(图中未示出)。其中,上述提取单元可以配置用于提取预设的训练样本,其中,上述训练样本包括多个图像的人脸特征信息和语义特征信息。上述结合单元可以配置用于将上述多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息。上述训练单元可以配置用于利用机器学习方法,将上述多个图像中的各个图像的结合特征信息作为输入,将上述人脸检测结果作为输出,训练得到第三卷积神经网络。
本申请的上述实施例提供的装置,通过第一输入单元502将获取单元501所获取的待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,之后第二输入单元503将人脸特征信息输入至预先训练的第二卷积神经网络,得到语义特征信息,最后生成单元504对人脸特征信息和语义特征信息进行解析,生成人脸检测结果,从而利用人脸特征信息和语义特征信息相结合的方式进行人脸检测,可以对无法呈现清晰的人脸轮廓和五官使模糊图像中的人脸进行检测,提高了模糊图像的检测结果的准确性。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一输入单元、第二输入单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待检测图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取待检测图像;将该待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,该第一卷积神经网络用于提取人脸特征;将该待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,该第二卷积神经网络用于提取图像的语义特征;对该人脸特征信息和该语义特征信息进行解析,生成人脸检测结果。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (14)

1.一种人脸检测方法,其特征在于,所述方法包括:
获取待检测图像;
将所述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,所述第一卷积神经网络用于提取人脸特征;
将所述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,所述第二卷积神经网络用于提取图像的语义特征;
对所述人脸特征信息和所述语义特征信息进行解析,生成人脸检测结果。
2.根据权利要求1所述的人脸检测方法,其特征在于,所述人脸特征信息包括第一人脸特征图和多个第二人脸特征图,其中,所述第一人脸特征图中的每一个点用于表征所述待检测图像中与该点相对应的区域存在人脸的置信度,各个第二人脸特征图中的每一个点用于表征所述待检测图像中与该点相对应的区域的位置信息,所述第一人脸特征图和各个第二人脸特征图分别以矩阵进行表示。
3.根据权利要求1所述的人脸检测方法,其特征在于,所述语义特征信息包括所述待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,所述多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,所述语义特征信息以矩阵进行表示。
4.根据权利要求1-3之一所述的人脸检测方法,其特征在于,所述对所述人脸特征信息和所述语义特征信息进行解析,生成人脸检测结果,包括:
将所述人脸特征信息和所述语义特征信息进行结合,生成结合特征信息;
将所述结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,所述第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。
5.根据权利要求4所述的人脸检测方法,其特征在于,所述将所述人脸特征信息和所述语义特征信息进行结合,生成结合特征信息,包括:
按照以下任一方式将所述人脸特征信息和所述语义特征信息进行结合,生成结合特征信息:将所述人脸特征信息和所述语义特征信息按对应元素相乘,将所述人脸特征信息和所述语义特征信息按对应元素取最大,将所述人脸特征信息和所述语义特征信息按对应元素进行阈值截断。
6.根据权利要求4所述的人脸检测方法,其特征在于,所述方法还包括训练第三卷积神经网络的步骤,包括:
提取预设的训练样本,其中,所述训练样本包括多个图像的人脸特征信息和语义特征信息;
将所述多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息;
利用机器学习方法,将所述多个图像中的各个图像的结合特征信息作为输入,将所述人脸检测结果作为输出,训练得到第三卷积神经网络。
7.一种人脸检测装置,其特征在于,所述装置包括:
获取单元,配置用于获取待检测图像;
第一输入单元,配置用于将所述待检测图像输入至预先训练的第一卷积神经网络,得到人脸特征信息,其中,所述第一卷积神经网络用于提取人脸特征;
第二输入单元,配置用于将所述待检测图像输入至预先训练的第二卷积神经网络,得到语义特征信息,其中,所述第二卷积神经网络用于提取图像的语义特征;
生成单元,配置用于对所述人脸特征信息和所述语义特征信息进行解析,生成人脸检测结果。
8.根据权利要求7所述的人脸检测装置,其特征在于,所述人脸特征信息包括第一人脸特征图和多个第二人脸特征图,其中,所述第一人脸特征图中的每一个点用于表征所述待检测图像中与该点相对应的区域存在人脸的置信度,各个第二人脸特征图中的每一个点用于表征所述待检测图像中与该点相对应的区域的位置信息,所述第一人脸特征图和各个第二人脸特征图分别以矩阵进行表示。
9.根据权利要求7所述的人脸检测装置,其特征在于,所述语义特征信息包括所述待检测图像中的每一个点属于多个预设类别中的各个预设类别的概率,其中,所述多个预设类别包括背景类和以下至少一项:头发类、眼睛类、鼻子类、嘴类、肤色类,所述语义特征信息以矩阵进行表示。
10.根据权利要求7-9之一所述的人脸检测装置,其特征在于,所述生成单元包括:
结合模块,配置用于将所述人脸特征信息和所述语义特征信息进行结合,生成结合特征信息;
输入模块,配置用于将所述结合特征信息输入至预先训练的第三卷积神经网络,得到人脸检测结果,其中,所述第三卷积神经网络用于表征人脸特征信息、语义特征信息与人脸检测结果的对应关系。
11.根据权利要求10所述的人脸检测装置,其特征在于,所述结合模块进一步配置用于:
按照以下任一方式将所述人脸特征信息和所述语义特征信息进行结合,生成结合特征信息:将所述人脸特征信息和所述语义特征信息按对应元素相乘,将所述人脸特征信息和所述语义特征信息按对应元素取最大,将所述人脸特征信息和所述语义特征信息按对应元素进行阈值截断。
12.根据权利要求10所述的人脸检测装置,其特征在于,所述装置还包括:
提取单元,配置用于提取预设的训练样本,其中,所述训练样本包括多个图像的人脸特征信息和语义特征信息;
结合单元,配置用于将所述多个图像中的每一个图像的人脸特征信息和语义特征信息进行结合,得到该图像的结合特征信息;
训练单元,配置用于利用机器学习方法,将所述多个图像中的各个图像的结合特征信息作为输入,将所述人脸检测结果作为输出,训练得到第三卷积神经网络。
13.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN201710858134.0A 2017-09-21 2017-09-21 人脸检测方法和装置 Pending CN107644209A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710858134.0A CN107644209A (zh) 2017-09-21 2017-09-21 人脸检测方法和装置
US16/052,421 US10936919B2 (en) 2017-09-21 2018-08-01 Method and apparatus for detecting human face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710858134.0A CN107644209A (zh) 2017-09-21 2017-09-21 人脸检测方法和装置

Publications (1)

Publication Number Publication Date
CN107644209A true CN107644209A (zh) 2018-01-30

Family

ID=61122587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710858134.0A Pending CN107644209A (zh) 2017-09-21 2017-09-21 人脸检测方法和装置

Country Status (2)

Country Link
US (1) US10936919B2 (zh)
CN (1) CN107644209A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460364A (zh) * 2018-03-27 2018-08-28 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108470179A (zh) * 2018-03-29 2018-08-31 百度在线网络技术(北京)有限公司 用于检测对象的方法和装置
CN109543655A (zh) * 2018-12-14 2019-03-29 深圳壹账通智能科技有限公司 疲劳驾驶检测方法、装置、计算机设备和存储介质
CN110163057A (zh) * 2018-10-29 2019-08-23 腾讯科技(深圳)有限公司 目标检测方法、装置、设备和计算机可读介质
CN110174924A (zh) * 2018-09-30 2019-08-27 广东小天才科技有限公司 一种基于可穿戴设备的交友方法及可穿戴设备
CN110516603A (zh) * 2019-08-28 2019-11-29 北京百度网讯科技有限公司 信息处理方法和装置
CN110956190A (zh) * 2018-09-27 2020-04-03 深圳云天励飞技术有限公司 图像识别方法及装置、计算机装置和计算机可读存储介质
CN111079707A (zh) * 2019-12-31 2020-04-28 深圳云天励飞技术有限公司 人脸检测方法及相关装置
CN111127398A (zh) * 2019-11-25 2020-05-08 深圳前海微众银行股份有限公司 证件照片复制的检测方法、装置、终端设备及存储介质
CN112613416A (zh) * 2020-12-26 2021-04-06 中国农业银行股份有限公司 一种人脸表情识别方法和相关装置
CN113516592A (zh) * 2020-04-10 2021-10-19 阿里巴巴集团控股有限公司 图像处理方法、模型训练方法、装置及设备

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860837B2 (en) * 2015-07-20 2020-12-08 University Of Maryland, College Park Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10706267B2 (en) * 2018-01-12 2020-07-07 Qualcomm Incorporated Compact models for object recognition
CN109344752B (zh) * 2018-09-20 2019-12-10 北京字节跳动网络技术有限公司 用于处理嘴部图像的方法和装置
CN109977850B (zh) * 2019-03-23 2023-01-06 西安电子科技大学 基于人脸识别的课堂姓名提示方法
CN111753822B (zh) * 2019-03-29 2024-05-24 北京市商汤科技开发有限公司 文本识别方法及装置、电子设备和存储介质
CN110309706B (zh) * 2019-05-06 2023-05-12 深圳华付技术股份有限公司 人脸关键点检测方法、装置、计算机设备及存储介质
CN111914861A (zh) * 2019-05-08 2020-11-10 北京字节跳动网络技术有限公司 目标检测方法和装置
CN110378381B (zh) * 2019-06-17 2024-01-19 华为技术有限公司 物体检测方法、装置和计算机存储介质
CN110427802B (zh) * 2019-06-18 2024-06-18 平安科技(深圳)有限公司 Au检测方法、装置、电子设备及存储介质
CN112149470B (zh) * 2019-06-28 2023-09-05 杭州海康威视数字技术股份有限公司 一种行人重识别方法和装置
CN110349108B (zh) * 2019-07-10 2022-07-26 北京字节跳动网络技术有限公司 处理图像的方法、装置、电子设备、及存储介质
CN110991310B (zh) * 2019-11-27 2023-08-22 北京金山云网络技术有限公司 人像检测方法、装置、电子设备及计算机可读介质
CN111079643B (zh) * 2019-12-13 2023-04-07 三一重工股份有限公司 基于神经网络的人脸检测方法、装置和电子设备
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11645505B2 (en) * 2020-01-17 2023-05-09 Servicenow Canada Inc. Method and system for generating a vector representation of an image
CN111246203A (zh) * 2020-01-21 2020-06-05 上海悦易网络信息技术有限公司 相机模糊检测方法及装置
CN111274987B (zh) * 2020-02-10 2023-10-20 广东九联科技股份有限公司 人脸表情识别方法及人脸表情识别装置
CN111325190B (zh) * 2020-04-01 2023-06-30 京东方科技集团股份有限公司 一种表情识别方法、装置、计算机设备及可读存储介质
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN117092713A (zh) * 2020-05-28 2023-11-21 同方威视技术股份有限公司 建立车辆模板库的方法和系统
CN111797754A (zh) * 2020-06-30 2020-10-20 上海掌门科技有限公司 图像检测的方法、装置、电子设备及介质
CN112085701B (zh) * 2020-08-05 2024-06-11 深圳市优必选科技股份有限公司 一种人脸模糊度检测方法、装置、终端设备及存储介质
CN111783749A (zh) * 2020-08-12 2020-10-16 成都佳华物链云科技有限公司 一种人脸检测方法、装置、电子设备及存储介质
CN112069993B (zh) * 2020-09-04 2024-02-13 西安西图之光智能科技有限公司 基于五官掩膜约束的密集人脸检测方法及系统和存储介质
CN112287765B (zh) * 2020-09-30 2024-06-04 新大陆数字技术股份有限公司 人脸活体检测方法、装置、设备及可读存储介质
CN112989091A (zh) * 2021-05-11 2021-06-18 南京甄视智能科技有限公司 人脸搜索方法、装置及边缘设备
CN114648802B (zh) * 2022-05-19 2022-08-23 深圳市海清视讯科技有限公司 用户面部表情识别方法、装置和设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160148080A1 (en) * 2014-11-24 2016-05-26 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
CN105631403A (zh) * 2015-12-17 2016-06-01 小米科技有限责任公司 人脸识别方法及装置
CN106203333A (zh) * 2016-07-08 2016-12-07 乐视控股(北京)有限公司 人脸识别方法及系统
CN106295496A (zh) * 2015-06-24 2017-01-04 三星电子株式会社 脸部识别方法和设备
CN106650575A (zh) * 2016-09-19 2017-05-10 北京小米移动软件有限公司 人脸检测方法及装置
CN106778867A (zh) * 2016-12-15 2017-05-31 北京旷视科技有限公司 目标检测方法和装置、神经网络训练方法和装置
CN107145833A (zh) * 2017-04-11 2017-09-08 腾讯科技(上海)有限公司 人脸区域的确定方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
US10169671B2 (en) * 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160148080A1 (en) * 2014-11-24 2016-05-26 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
CN105631398A (zh) * 2014-11-24 2016-06-01 三星电子株式会社 识别对象的方法和设备以及训练识别器的方法和设备
CN106295496A (zh) * 2015-06-24 2017-01-04 三星电子株式会社 脸部识别方法和设备
CN105631403A (zh) * 2015-12-17 2016-06-01 小米科技有限责任公司 人脸识别方法及装置
CN106203333A (zh) * 2016-07-08 2016-12-07 乐视控股(北京)有限公司 人脸识别方法及系统
CN106650575A (zh) * 2016-09-19 2017-05-10 北京小米移动软件有限公司 人脸检测方法及装置
CN106778867A (zh) * 2016-12-15 2017-05-31 北京旷视科技有限公司 目标检测方法和装置、神经网络训练方法和装置
CN107145833A (zh) * 2017-04-11 2017-09-08 腾讯科技(上海)有限公司 人脸区域的确定方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GABRIEL L. OLIVEIRA等: "Deep Learning for Human Part Discovery in Images", 《2016 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460364A (zh) * 2018-03-27 2018-08-28 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108470179A (zh) * 2018-03-29 2018-08-31 百度在线网络技术(北京)有限公司 用于检测对象的方法和装置
CN108470179B (zh) * 2018-03-29 2022-04-15 百度在线网络技术(北京)有限公司 用于检测对象的方法和装置
CN110956190A (zh) * 2018-09-27 2020-04-03 深圳云天励飞技术有限公司 图像识别方法及装置、计算机装置和计算机可读存储介质
CN110174924B (zh) * 2018-09-30 2021-03-30 广东小天才科技有限公司 一种基于可穿戴设备的交友方法及可穿戴设备
CN110174924A (zh) * 2018-09-30 2019-08-27 广东小天才科技有限公司 一种基于可穿戴设备的交友方法及可穿戴设备
CN110163057A (zh) * 2018-10-29 2019-08-23 腾讯科技(深圳)有限公司 目标检测方法、装置、设备和计算机可读介质
CN110163057B (zh) * 2018-10-29 2023-06-09 腾讯科技(深圳)有限公司 目标检测方法、装置、设备和计算机可读介质
CN109543655A (zh) * 2018-12-14 2019-03-29 深圳壹账通智能科技有限公司 疲劳驾驶检测方法、装置、计算机设备和存储介质
CN110516603B (zh) * 2019-08-28 2022-03-18 北京百度网讯科技有限公司 信息处理方法和装置
CN110516603A (zh) * 2019-08-28 2019-11-29 北京百度网讯科技有限公司 信息处理方法和装置
CN111127398A (zh) * 2019-11-25 2020-05-08 深圳前海微众银行股份有限公司 证件照片复制的检测方法、装置、终端设备及存储介质
CN111127398B (zh) * 2019-11-25 2023-09-26 深圳前海微众银行股份有限公司 证件照片复制的检测方法、装置、终端设备及存储介质
CN111079707A (zh) * 2019-12-31 2020-04-28 深圳云天励飞技术有限公司 人脸检测方法及相关装置
CN113516592A (zh) * 2020-04-10 2021-10-19 阿里巴巴集团控股有限公司 图像处理方法、模型训练方法、装置及设备
CN112613416A (zh) * 2020-12-26 2021-04-06 中国农业银行股份有限公司 一种人脸表情识别方法和相关装置

Also Published As

Publication number Publication date
US20190087686A1 (en) 2019-03-21
US10936919B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
CN107644209A (zh) 人脸检测方法和装置
CN108154196B (zh) 用于输出图像的方法和装置
CN108038469B (zh) 用于检测人体的方法和装置
CN107622240A (zh) 人脸检测方法和装置
US20230081645A1 (en) Detecting forged facial images using frequency domain information and local correlation
CN108229575A (zh) 用于检测目标的方法和装置
CN107609536A (zh) 信息生成方法和装置
CN107590482A (zh) 信息生成方法和装置
CN109002842A (zh) 图像识别方法和装置
CN107679490A (zh) 用于检测图像质量的方法和装置
CN109508681A (zh) 生成人体关键点检测模型的方法和装置
CN109214343A (zh) 用于生成人脸关键点检测模型的方法和装置
CN108898186A (zh) 用于提取图像的方法和装置
CN108509915A (zh) 人脸识别模型的生成方法和装置
CN108038880A (zh) 用于处理图像的方法和装置
CN107911753A (zh) 用于在视频中添加数字水印的方法和装置
CN108229485A (zh) 用于测试用户界面的方法和装置
CN107590807A (zh) 用于检测图像质量的方法和装置
CN108830235A (zh) 用于生成信息的方法和装置
CN108197618A (zh) 用于生成人脸检测模型的方法和装置
CN108509892A (zh) 用于生成近红外图像的方法和装置
CN107644208A (zh) 人脸检测方法和装置
CN111275784A (zh) 生成图像的方法和装置
CN107958247A (zh) 用于人脸图像识别的方法和装置
CN108133197A (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination