CN111241961B - 人脸检测方法、装置及电子设备 - Google Patents
人脸检测方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111241961B CN111241961B CN202010009228.2A CN202010009228A CN111241961B CN 111241961 B CN111241961 B CN 111241961B CN 202010009228 A CN202010009228 A CN 202010009228A CN 111241961 B CN111241961 B CN 111241961B
- Authority
- CN
- China
- Prior art keywords
- face
- key point
- image
- point information
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 24
- 230000007246 mechanism Effects 0.000 claims description 21
- 238000007477 logistic regression Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种人脸检测方法、装置及电子设备,其中,该方法包括:将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;将图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;将图像特征与各个人脸关键点信息输入第三网络模块进行位置编码,以确定出各个人脸关键点信息对应的人脸部位,以得到检测人脸图。
Description
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种人脸检测方法、装置及电子设备。
背景技术
人脸关键点检测是指给定人脸图像,定位出人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴巴、脸部轮廓等。人脸关键点检测技术可以有很多上层应用,包括向人脸图像嘴巴上贴胡子,检测眨眼睛,检测张嘴等。但是,目前的人脸的关键点检测对检测的照片要求较高,由于一般照片可能清晰度达不到要求,而导致关键点检测可能受到噪声的干扰。
发明内容
有鉴于此,本申请实施例的目的在于提供一种人脸检测方法、装置及电子设备。能够达到提高人脸检测的准确性的效果。
第一方面,实施例提供一种人脸检测方法,包括:
将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;
将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;
将所述图像特征与所述各个人脸关键点信息输入第三网络模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位,以得到检测人脸图。
在可选的实施方式中,所述第三网络模块包括:注意力机制模块;所述将所述图像特征与所述各个人脸关键点信息输入第三网络模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位的步骤,包括:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
本申请实施例提供的人脸检测方法,通过注意力机制模块能专注于其输入的图像特征中的需要关注特征,从而选择特定的输入,从而有效地确定出其中的人脸关键点。
在可选的实施方式中,所述将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位的步骤,包括:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块中,采用独热编码进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
本申请实施例提供的人脸检测方法,采用独热编码的方式对图像中的各个关键点进行位置编码,从而确定出检测出的各个人脸关键点对应的人脸部位,从而实现关键点的确定。
在可选的实施方式中,所述第二网络模块包括:全连接层和逻辑回归函数;所述将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息的步骤,包括:
将所述图像特征输入所述全连接层和所述逻辑回归函数中进行识别,以得到各个人脸关键点信息。
本申请实施例提供的人脸检测方法,通过全连接层和逻辑回归函数可以相对准确地确定出输入的图像特征对应的各个人脸关键点信息。
在可选的实施方式中,所述第一网络模块包括:卷积神经网络模块;所述将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征的步骤,包括:
将待检测人脸图像输入卷积神经网络模块进行特征提取,以得到图像特征。
在可选的实施方式中,所述方法还包括:
将获取的原始人脸图像的尺寸调整至设定尺寸,以得到所述设定尺寸的所述待检测人脸图像。
本申请实施例提供的人脸检测方法,通过将原始人脸图像的尺寸进行调整,从而可以使调整后的待检测人脸图像更符合第一网络模块特征提取的需求,从而可以使特征提取的信息更加准确。
在可选的实施方式中,所述方法还包括:
将所述检测人脸图进行尺寸调整,以得到目标人脸图像,所述目标人脸图像的尺寸与所述原始人脸图像的尺寸差在设定范围内。
本申请实施例提供的人脸检测方法,通过将确定后的检测人脸图进行恢复操作,从而可以使人脸关键点的检测不影响图像本身的尺寸,更适应在不同场景的人脸关键点检测需求。
第二方面,实施例提供一种人脸检测装置,包括:
提取模块,用于将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;
识别模块,用于将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;
确定模块,用于将所述图像特征与所述人脸关键点信息输入第三网络模块进行位置编码,以确定出所述人脸关键点信息对应的人脸部位,以得到检测人脸图。
第三方面,实施例提供一种电子设备,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述机器可读指令被所述处理器执行时执行如前述实施方式任一所述的方法的步骤。
第四方面,实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如前述实施方式任一所述的方法的步骤。
本申请实施例提供的人脸检测方法、装置、电子设备及计算机可读存储介质,采用先通过网络模块进行关键点的识别,再基于识别到的关键点进行定位,以确定出识别到的关键点对应的人脸部位,从而弱化照片的需求,而细化对人脸关键点的识别,在降低照片需求的同时还能够提高人脸关键点的检测的准确性。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的方框示意图。
图2为本申请实施例提供的人脸检测方法的流程图。
图3为本申请实施例提供的另一人脸检测方法的流程图。
图4为本申请实施例提供的人脸检测装置的功能模块示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
人脸关键点检测算法可以基于形状模型匹配的关键点检测算法。该算法的主要流程为:首先将采集的人脸图像进行整合,通过对所有标签过的人脸关键点图像的关键点进行训练,得到人脸的形状模型和人脸的纹理模型,然后将两个模型进行合并,形成一人脸关键点检测的模型。对于一张新的图像,采用该模型在图像中寻找最匹配的目标,并将该目标的关键点作为关键点信息。
上述的方法能够满足部分人脸关键点检测的需求,不过对于一些视频监控场景中,由于监控摄像头的清晰度不够高或者人脸距离摄像头比较远等原因,导致采集到的图像不清晰。对于不清晰的图像的检测,可能会导致关键点容易受到噪声的干扰,检测不够准确。
人脸关键点检测算法还可以基于多任务级联的卷积神经网络的关键点检测算法,该方法可同时处理人脸检测和关键点定位问题。多任务级联的卷积神经网络包含三个神经网络,P-Net,R-Net,O-Net,每个多任务卷积神经网络均有三个学习任务,分别是人脸分类、边框回归和关键点定位。第一个阶段,通过浅层的CNN(Convolutional Neural Networks,中文称:卷积神经网络)快速生成候选窗口;第二阶段,通过一个更复杂的CNN否决大量非人脸窗口而精化人脸窗口;第三阶段,使用更复杂的CNN进一步精化结果并输出五个人脸特征点。而且网络能够输出五个人脸关键点位置坐标。
该方法通过多个任务串行操作,能够得到比较精准的人脸关键点位置。但是由于多个网络之间是串行操作,后面一个网络结构的输入为前一个网络的输出,因此,该方法的时间效率比较低,很难对于算法进行工程上的优化。
基于上述研究,本申请实施例提供了一种人脸检测方法、人脸检测装置、电子设备及计算机可读存储介质,能够在兼顾人脸关键点算法的时间效率和准确率等要求。下面通过多个实施例详细描述本申请实施例提供的人脸检测方法、人脸检测装置、电子设备及计算机可读存储介质。
实施例一
为便于对本实施例进行理解,首先对执行本申请实施例所公开的人脸检测方法的电子设备进行详细介绍。
如图1所示,是电子设备的方框示意图。电子设备100可以包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对电子设备100的结构造成限定。例如,电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
上述的存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115及显示单元116各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。上述的处理器113用于执行存储器中存储的可执行模块。
其中,存储器111可以是,但不限于,随机存取存储器(Random Access Memory,简称RAM),只读存储器(Read Only Memory,简称ROM),可编程只读存储器(ProgrammableRead-Only Memory,简称PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,简称EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,简称EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本申请实施例任一实施例揭示的过程定义的电子设备100所执行的方法可以应用于处理器113中,或者由处理器113实现。
上述的处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(digital signalprocessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述的外设接口114将各种输入/输出装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
上述的输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
上述的显示单元116在电子设备100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
本实施例中的电子设备100可以用于执行本申请实施例提供的各个方法中的各个步骤。下面通过几个实施例详细描述人脸检测方法的实现过程。
实施例二
请参阅图2,是本申请实施例提供的人脸检测方法的流程图。下面将对图2所示的具体流程进行详细阐述。
步骤202,将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征。
本实施例中,上述的图像特征用于表征待检测人脸图像的各个要素信息,该要素信息可以包括颜色、线条、纹理等信息。
可选地,上述的第一网络模块可以是卷积神经网络(Convolutional NeuralNetworks,CNN)模块。该卷积神经网络模块用于提取待检测人脸图像的图像特征。在此基础上,步骤202则可以被实施为:将待检测人脸图像输入卷积神经网络模块进行特征提取,以得到图像特征。
上述的卷积神经网络模块为使用第一人脸图像集对初始卷积神经网络进行训练而得到的。示例性地,初始卷积神经网络可以是DenseBox、VGGNet、ResNet、SegNet等。
示例性地,上述的卷积神经网络模块可以包括至少一个卷积层和至少一个池化层。其中,至少一个卷积层可以用于提取待检测人脸图像的图像特征,至少一个池化层可以用于对输入的信息进行降采样(downsample)。此外,上述卷积神经网络模块还可以使用各种非线性激活函数对信息进行非线性计算。例如,非线性激活函数可以是ReLU(RectifiedLinear Units,修正线性单元)函数、Sigmoid函数等。
示例性地,步骤202得到的图像特征可以是指定维度的向量。
可选地,如图3所示,在步骤202之前方法还可以包括:步骤201,将获取的原始人脸图像的尺寸调整至设定尺寸,以得到所述设定尺寸的所述待检测人脸图像。
可选地,设定尺寸可以是用户按照使用场景、所使用的卷积神经网络等因素设定的尺寸。
步骤204,将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息。
本实施例中,上述的第二网络模块可以包括全连接层和逻辑回归函数。在此基础上,步骤204可以被实施为:将所述图像特征输入所述全连接层(fully connected layers,FC)和所述逻辑回归函数中进行识别,以得到各个人脸关键点信息。
示例性地,第二网络模块的全连接层可以起到将学到的“分布式特征表示”映射到样本标记空间的作用。第二网络模块的逻辑回归函数则可以将样本标记空间中的像素点数据进行计算,得到一个指定范围内的数值。根据该数值可以确定出像素点对应是普通像素点或人脸关键点。
可选地,第二网络模块的逻辑回归函数可以是sigmoid函数。
Sigmoid函数计算方法如下:
其中,x表示待识别的像素点对应的向量,S(x)表示x对应的Sigmoid函数计算值。
示例性地,根据Sigmoid函数计算值可确定出各个像素点是否为人脸关键点。
本实施例中,上述的第二网络模块中可以是通过第二人脸图像集对初始的全连接层和逻辑回归函数进行训练而得到的网络模型。
示例性地,第二人脸图像集中的各个图像可以带有人脸关键点的标记。则对第二网络模块的训练可以为有监督的训练。
步骤206,将所述图像特征与所述各个人脸关键点信息输入第三网络模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位,以得到检测人脸图。
在一可选的实施方式中,第三网络模块包括注意力机制模块。
本实施例中,上述的第三网络模块中可以是通过第三人脸图像集对初始的注意力机制进行训练而得到的网络模型。
示例性地,第三人脸图像集中的各个图像可以携带有人脸部位、以及人脸部位的顺序的标记。则对第三网络模块的训练方式为有监督的训练。
可选地,步骤206可以包括:将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
在一可选地实施方式中,步骤206可以被实施为:将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块中,采用独热编码(one-hot)进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
示例性地,上述的图像特征为表征人脸的向量。人脸关键点信息为用于表示人脸关键点的位置的坐标。
示例性地,独热编码为使用N位状态寄存器来对N个状态进行编码,每个状态都有独立的寄存器位。
本实施例中,独热编码的N个状态可以分别包括人脸中的各个部位。例如,嘴巴、鼻子、口、眼睛、眉毛等。N位状态寄存器分别用来存储人脸各个部位对应的信息。
通过注意力机制的学习可以使第三网络模块关注到人脸图像中的各个人脸部位的相对位置关系,通过独热编码可以实现对人脸部分一对一的编码,从而确定出各个关键点对应的人脸部位。
通过上述的各个步骤,不仅可以得到人脸的关键点的位置,还能够实现即使待检测图像不是正向的人脸图像也能够确定出各个人脸关键点对应的人脸部位。为了使识别出的图像能够更适应场景的需求,还可以就识别后的图像进行还原。因此,在步骤206之后,人脸检测方法还可以包括:步骤207,将所述检测人脸图进行尺寸调整,以得到目标人脸图像。
目标人脸图像的尺寸与所述原始人脸图像的尺寸差在设定范围内。在一个实例中,目标人脸图像可以与原始人脸图像的尺寸相同。
上述目标人脸图像中可以包含用于标记图像中的人脸关键点标识。
可选地,本实施例中的上述各个步骤可以通过电子设备的GPU(GraphicsProcessing Unit,中文称:图形处理器)处理。
本申请实施例提供的人脸检测方法,先通过分类的方式对人脸关键点进行定位,再结合attention机制对人脸关键点进行顺序调整,以区分每个关键点表示的人脸部位,从而可以能够很更准确地定位每个人脸关键点的位置。进一步地,本实施例中的方法能够通过GPU(Graphics Processing Unit,中文称:图形处理器)运算等对算法进行加速,使得算法能够达到实时的效果。本实施例可以达到兼顾人脸关键点算法的时间效率和准确率等要求,并能够通过工程上的优化,采用GPU加速等方式达到移动平台上的实时效率。
实施例三
基于同一申请构思,本申请实施例中还提供了与人脸检测方法对应的人脸检测装置,由于本申请实施例中的装置解决问题的原理与前述的人脸检测方法实施例相似,因此本实施例中的装置的实施可以参见上述方法的实施例中的描述,重复之处不再赘述。
请参阅图4,是本申请实施例提供的人脸检测装置的功能模块示意图。本实施例中的人脸检测装置中的各个模块用于执行上述方法实施例中的各个步骤。人脸检测装置包括:提取模块301、识别模块302及确定模块303;其中,
提取模块301,用于将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;
识别模块302,用于将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;
确定模块303,用于将所述图像特征与所述人脸关键点信息输入第三网络模块进行位置编码,以确定出所述人脸关键点信息对应的人脸部位,以得到检测人脸图。
在一种可选的实施方式中,所述第三网络模块包括:注意力机制模块;确定模块303,用于:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
在一种可选的实施方式中,确定模块303,用于:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块中,采用独热编码进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
在一种可选的实施方式中,识别模块302,用于:
将所述图像特征输入所述全连接层和所述逻辑回归函数中进行识别,以得到各个人脸关键点信息。
在一种可选的实施方式中,所述第一网络模块包括:卷积神经网络模块;提取模块301,用于:
将待检测人脸图像输入卷积神经网络模块进行特征提取,以得到图像特征。
在一种可选的实施方式中,本实施例中的人脸检测装置还可以包括:
第一调整模块304,用于将获取的原始人脸图像的尺寸调整至设定尺寸,以得到所述设定尺寸的所述待检测人脸图像。
在一种可选的实施方式中,本实施例中的人脸检测装置还可以包括:
第二调整模块305,用于将所述检测人脸图进行尺寸调整,以得到目标人脸图像,所述目标人脸图像的尺寸与所述原始人脸图像的尺寸差在设定范围内。
此外,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的人脸检测方法的步骤。
本申请实施例所提供的人脸检测方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的人脸检测方法的步骤,具体可参见上述方法实施例,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种人脸检测方法,其特征在于,包括:
将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;
将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;
将所述图像特征与所述各个人脸关键点信息输入第三网络模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位,以得到检测人脸图;
所述第三网络模块包括:注意力机制模块;所述将所述图像特征与所述各个人脸关键点信息输入第三网络模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位的步骤,包括:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位;
所述将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位的步骤,包括:
将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块中,采用独热编码进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
2.根据权利要求1所述的方法,其特征在于,所述第二网络模块包括:全连接层和逻辑回归函数;所述将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息的步骤,包括:
将所述图像特征输入所述全连接层和所述逻辑回归函数中进行识别,以得到各个人脸关键点信息。
3.根据权利要求1所述的方法,其特征在于,所述第一网络模块包括:卷积神经网络模块;所述将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征的步骤,包括:
将待检测人脸图像输入卷积神经网络模块进行特征提取,以得到图像特征。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述方法还包括:
将获取的原始人脸图像的尺寸调整至设定尺寸,以得到所述设定尺寸的所述待检测人脸图像。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
将所述检测人脸图进行尺寸调整,以得到目标人脸图像,所述目标人脸图像的尺寸与所述原始人脸图像的尺寸差在设定范围内。
6.一种人脸检测装置,其特征在于,包括:
提取模块,用于将待检测人脸图像输入第一网络模块进行特征提取,以得到图像特征;
识别模块,用于将所述图像特征输入第二网络模块进行关键点识别,以得到各个人脸关键点信息;
确定模块,用于将所述图像特征与所述人脸关键点信息输入第三网络模块进行位置编码,以确定出所述人脸关键点信息对应的人脸部位,以得到检测人脸图;所述第三网络模块包括:注意力机制模块;
所述确定模块,还用于将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位;
所述确定模块,具体用于:将所述图像特征与所述各个人脸关键点信息输入所述注意力机制模块中,采用独热编码进行位置编码,以确定出所述各个人脸关键点信息对应的人脸部位。
7.一种电子设备,其特征在于,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述机器可读指令被所述处理器执行时执行如权利要求1至5任一所述的方法的步骤。
8.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至5任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010009228.2A CN111241961B (zh) | 2020-01-03 | 2020-01-03 | 人脸检测方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010009228.2A CN111241961B (zh) | 2020-01-03 | 2020-01-03 | 人脸检测方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111241961A CN111241961A (zh) | 2020-06-05 |
CN111241961B true CN111241961B (zh) | 2023-12-08 |
Family
ID=70864800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010009228.2A Active CN111241961B (zh) | 2020-01-03 | 2020-01-03 | 人脸检测方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111241961B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783632B (zh) * | 2020-06-29 | 2022-06-10 | 北京字节跳动网络技术有限公司 | 针对视频流的人脸检测方法、装置、电子设备及存储介质 |
CN111862031B (zh) * | 2020-07-15 | 2024-09-03 | 七腾机器人有限公司 | 一种人脸合成图检测方法、装置、电子设备及存储介质 |
CN112966626A (zh) * | 2021-03-16 | 2021-06-15 | 三星(中国)半导体有限公司 | 人脸识别方法和装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105844252A (zh) * | 2016-04-01 | 2016-08-10 | 南昌大学 | 一种面部关键部位的疲劳检测方法 |
CN106203376A (zh) * | 2016-07-19 | 2016-12-07 | 北京旷视科技有限公司 | 人脸关键点定位方法及装置 |
WO2017049677A1 (zh) * | 2015-09-22 | 2017-03-30 | 成都通甲优博科技有限责任公司 | 一种面部关键点的标注方法 |
CN106845377A (zh) * | 2017-01-10 | 2017-06-13 | 北京小米移动软件有限公司 | 人脸关键点定位方法及装置 |
CN107220612A (zh) * | 2017-05-19 | 2017-09-29 | 天津工业大学 | 以关键点局部邻域的高频分析为核心的模糊人脸判别方法 |
CN107590482A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 信息生成方法和装置 |
CN108764048A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院自动化研究所 | 人脸关键点检测方法及装置 |
CN108985257A (zh) * | 2018-08-03 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109711258A (zh) * | 2018-11-27 | 2019-05-03 | 哈尔滨工业大学(深圳) | 基于卷积网络的轻量级人脸关键点检测方法、系统及存储介质 |
WO2019090769A1 (zh) * | 2017-11-13 | 2019-05-16 | 深圳和而泰智能控制股份有限公司 | 一种人脸脸型识别方法、装置和智能终端 |
WO2019179441A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的焦点跟随方法、装置、智能设备及存储介质 |
-
2020
- 2020-01-03 CN CN202010009228.2A patent/CN111241961B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017049677A1 (zh) * | 2015-09-22 | 2017-03-30 | 成都通甲优博科技有限责任公司 | 一种面部关键点的标注方法 |
CN105844252A (zh) * | 2016-04-01 | 2016-08-10 | 南昌大学 | 一种面部关键部位的疲劳检测方法 |
CN106203376A (zh) * | 2016-07-19 | 2016-12-07 | 北京旷视科技有限公司 | 人脸关键点定位方法及装置 |
CN106845377A (zh) * | 2017-01-10 | 2017-06-13 | 北京小米移动软件有限公司 | 人脸关键点定位方法及装置 |
CN107220612A (zh) * | 2017-05-19 | 2017-09-29 | 天津工业大学 | 以关键点局部邻域的高频分析为核心的模糊人脸判别方法 |
CN107590482A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 信息生成方法和装置 |
WO2019090769A1 (zh) * | 2017-11-13 | 2019-05-16 | 深圳和而泰智能控制股份有限公司 | 一种人脸脸型识别方法、装置和智能终端 |
WO2019179441A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的焦点跟随方法、装置、智能设备及存储介质 |
CN108764048A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院自动化研究所 | 人脸关键点检测方法及装置 |
CN108985257A (zh) * | 2018-08-03 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109711258A (zh) * | 2018-11-27 | 2019-05-03 | 哈尔滨工业大学(深圳) | 基于卷积网络的轻量级人脸关键点检测方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111241961A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN109657533B (zh) | 行人重识别方法及相关产品 | |
US11093789B2 (en) | Method and apparatus for object re-identification | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
EP3686772A1 (en) | On-device classification of fingertip motion patterns into gestures in real-time | |
CN111241961B (zh) | 人脸检测方法、装置及电子设备 | |
EP3937076A1 (en) | Activity detection device, activity detection system, and activity detection method | |
CN113255557B (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN111563541B (zh) | 图像检测模型的训练方法和装置 | |
Yang et al. | Binary descriptor based nonparametric background modeling for foreground extraction by using detection theory | |
Lejbølle et al. | Person re-identification using spatial and layer-wise attention | |
Abed et al. | KeyFrame extraction based on face quality measurement and convolutional neural network for efficient face recognition in videos | |
Wasi et al. | Arbex: Attentive feature extraction with reliability balancing for robust facial expression learning | |
Zerrouki et al. | Deep Learning for Hand Gesture Recognition in Virtual Museum Using Wearable Vision Sensors | |
CN110503090A (zh) | 基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器 | |
CN112528903B (zh) | 人脸图像获取方法、装置、电子设备及介质 | |
Uke et al. | Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video | |
CN118119971A (zh) | 使用神经网络确定人的身高的电子设备和方法 | |
Perochon et al. | Unsupervised Action Segmentation of Untrimmed Egocentric Videos | |
Challa et al. | Facial Landmarks Detection System with OpenCV Mediapipe and Python using Optical Flow (Active) Approach | |
CN113792569A (zh) | 对象识别方法、装置、电子设备及可读介质 | |
Jmaa et al. | A new approach for digit recognition based on hand gesture analysis | |
Luo et al. | A benchmark for analyzing chart images | |
John et al. | Intelligent hybrid hand gesture recognition system using deep recurrent neural network with chaos game optimisation | |
US20230148017A1 (en) | Compositional reasoning of gorup activity in videos with keypoint-only modality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201221 Address after: A108, 1 / F, curling hall, winter training center, 68 Shijingshan Road, Shijingshan District, Beijing 100041 Applicant after: Beijing second hand Artificial Intelligence Technology Co.,Ltd. Address before: Room 9014, 9 / F, building 3, yard 30, Shixing street, Shijingshan District, Beijing Applicant before: ADMASTER TECHNOLOGY (BEIJING) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |