CN104636749A - 目标对象检测方法及装置 - Google Patents

目标对象检测方法及装置 Download PDF

Info

Publication number
CN104636749A
CN104636749A CN201310567133.2A CN201310567133A CN104636749A CN 104636749 A CN104636749 A CN 104636749A CN 201310567133 A CN201310567133 A CN 201310567133A CN 104636749 A CN104636749 A CN 104636749A
Authority
CN
China
Prior art keywords
root
detection window
image
wave filter
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310567133.2A
Other languages
English (en)
Inventor
粟栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201310567133.2A priority Critical patent/CN104636749A/zh
Publication of CN104636749A publication Critical patent/CN104636749A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标对象检测方法及装置,包括:对待检测图像进行逐步缩放处理得到图像金字塔;根据目标对象对应的根滤波器确定每个图像的根HOG特征,根据各设定部件对应的部件滤波器确定每个图像的部件HOG特征;针对每个图像分别执行:在该图像上滑动根滤波器对应的根检测窗口直至遍历该图像;根检测窗口每滑动一个位置,都确定根滤波器对应的根响应值以及各部件滤波器分别对应的最大部件响应值;根据根响应值和各部件滤波器分别对应的最大部件响应值,确定根检测窗口的目标对象匹配度;若目标对象匹配度不小于预设匹配度阈值,则确认根检测窗口内包含目标对象。本发明技术方案能够解决现有技术难以保证目标对象的检测精度的问题。

Description

目标对象检测方法及装置
技术领域
本发明涉及图像处理技术领域,尤其涉及一种目标对象检测方法及装置。
背景技术
人脸检测是指从数字图像中找到人脸的位置和大小,人脸检测技术已经在人脸识别、智能监控、安全访问控制等领域得到了广泛的应用。目前常用的人脸检测方法主要包括基于模板匹配的方法、基于色彩信息的方法、基于特征的识别方法、分类统计方法,下面分别进行介绍。
(1)基于模板匹配的方法
首先设计参考模板库,通过测试样本与参考模板之间的匹配程度来确认测试样本是否为人脸。
(2)基于色彩信息的方法
首先对肤色进行识别,并通过形状(如人脸轮廓)进行分析,来进一步判定是否为人脸。
(3)基于特征的识别方法
该方法包括两种方式,一是首先提取人脸器官图像特征,然后根据人脸中各器官的几何关系来确认人脸的存在;二是先在一个比较大的范围内寻找人脸候选区,然后确定其中是否包含人脸。
(4)分类统计方法
利用一定的算法(如Adaboost算法),从已给的正例和反例的集合中归纳出接受所有正例并同时排斥所有反例的分类算法,也就是说,将人脸检测视为从模式样本中区分非人脸样本和人脸样本的模式识别问题,通过对人脸样本集和非人脸样本集进行学习以得到分类算法。
现有的上述人脸检测方法存在下述缺陷:
(1)基于模板匹配的方法中,需要设计参考模板,对人脸的多姿态变化(如旋转、抬头等)很难设计有效的参考模板,使得人脸检测的精度较低。
(2)基于色彩信息的方法能较有效的对人脸进行轮廓识别,但是在一些较为复杂的场景(如有外物遮挡人脸、人脸细节不全等)中,使用该方法无法准确识别出人脸,使得人脸检测的精度较低。
(3)基于特征的识别方法和分类统计方法是目前较为先进的人脸检测方法,该类方法在理想条件下可以取得较好的检测效果,但是在出现下述复杂场景时,会大大降低人脸检测的精度:
外物的遮挡:例如头发或墨镜等其它装饰品的遮挡等;
人脸局部细节的多变:例如人眼的睁开闭合、嘴巴的张开闭合等;
成像角度不同造成的多姿态:例如旋转、低头、抬头等。
由上可见,现有的人脸检测方法均难以保证人脸检测的精度,对于其他目标对象的检测也存在相同的问题。
发明内容
本发明实施例提供一种目标对象检测方法及装置,用以解决现有技术中难以保证目标对象的检测精度的问题。
本发明实施例技术方案如下:
本发明实施例提供一种目标对象检测方法,包括:
按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔;
根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根梯度方向直方图HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征;
针对图像金字塔中的每个图像,分别执行下述操作:
在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像;
根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值,以及根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值;
根据确定出的根响应值和各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度;
若确定出的目标对象匹配度不小于预设匹配度阈值,则确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
由上述技术方案可知,本发明实施例提出的目标对象检测方法中,预先在目标对象中选择若干个设定部件,然后训练目标对象对应的根滤波器以及各设定部件分别对应的部件滤波器,后续可以根据根滤波器和部件滤波器确定根检测窗口的目标对象匹配度,然后将目标对象匹配度与预设匹配度阈值进行比较,从而判断根检测窗口内是否包含目标对象。因此无需设计参考模板,即使在较复杂的场景(例如目标对象上的某些部件被遮挡、目标对象细节不全、局部细节多变等场景)下,依然能够准确地检测出目标对象,提高了目标对象的检测精度,当上述目标对象检测方法应用在人脸检测领域中时,效果尤其明显,该方法对人脸姿态、光照的变化、成像角度的不同、人脸细节的变化具有较高适应性,对部分遮挡也有很强的适应能力,是一种能够适用于多种复杂场景的人脸检测方法。
优选的,根据根HOG特征,确定根滤波器对应的根响应值,具体包括:
确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值;
将确定出的点积响应值,确认为根滤波器对应的根响应值。
通过本实施例的方案,将根滤波器与根HOG特征之间的点积响应值作为根滤波器对应的根响应值,能够简化目标对象检测流程,提高目标对象检测效率。
优选的,通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
其中,R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;
(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;
F0为根滤波器;
φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
优选的,根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值,具体包括:
在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口;
部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值;
针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
通过本实施例的方案,根据部件滤波器与部件HOG特征之间的点积响应值,确定部件滤波器对应的最大部件响应值,能够简化目标对象检测流程,提高目标对象检测效率。
优选的,通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
其中,Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;
(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;
Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;
di为第i个设定部件的锚位置相对于标准位置的变形损失因子;
(dxi,dyi)为第i个设定部件相对于锚点的偏移量;
φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
优选的,通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;
G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值;
Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值;
n为部件滤波器的数量;
b为预设的常量。
优选的,所述目标对象为人脸,目标对象中各设定部件分别为左眼、右眼、嘴巴、下巴右侧、额头右侧。
通过本实施例的方案,将上述目标对象检测方法应用在人脸检测领域中时,效果尤其明显,通过选择左眼、右眼、嘴巴、下巴右侧、额头右侧等表征人脸的部件,能够准确地检测出人脸,提高了人脸的检测精度,该方法对人脸姿态、光照的变化、成像角度的不同、人脸细节的变化具有较高适应性,对部分遮挡也有很强的适应能力,是一种能够适用于多种复杂场景的人脸检测方法。
本发明实施例还提供一种目标对象检测装置,包括:
缩放处理单元,用于按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔;
特征确定单元,用于根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根梯度方向直方图HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征;
窗口滑动单元,用于针对图像金字塔中的每个图像,分别在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像;
根响应值确定单元,用于根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值;
部件响应值确定单元,用于根检测窗口每滑动一个位置,都根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值;
匹配度确定单元,用于根据根响应值确定单元确定出的根响应值和部件响应值确定单元确定出的各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度;
目标对象检测单元,用于在匹配度确定单元确定出的目标对象匹配度不小于预设匹配度阈值时,确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
由上述技术方案可知,本发明实施例提出的目标对象检测装置中,预先在目标对象中选择若干个设定部件,然后训练目标对象对应的根滤波器以及各设定部件分别对应的部件滤波器,后续可以根据根滤波器和部件滤波器确定根检测窗口的目标对象匹配度,然后将目标对象匹配度与预设匹配度阈值进行比较,从而判断根检测窗口内是否包含目标对象。因此无需设计参考模板,即使在较复杂的场景(例如目标对象上的某些部件被遮挡、目标对象细节不全、局部细节多变等场景)下,依然能够准确地检测出目标对象,提高了目标对象的检测精度,当上述目标对象检测装置应用在人脸检测领域中时,效果尤其明显,该装置对人脸姿态、光照的变化、成像角度的不同、人脸细节的变化具有较高适应性,对部分遮挡也有很强的适应能力,是一种能够适用于多种复杂场景的人脸检测装置。
优选的,所述根响应值确定单元,具体用于确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值,将确定出的点积响应值,确认为根滤波器对应的根响应值。
通过本实施例的方案,将根滤波器与根HOG特征之间的点积响应值作为根滤波器对应的根响应值,能够简化目标对象检测流程,提高目标对象检测效率。
优选的,所述根响应值确定单元通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
其中,R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;
(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;
F0为根滤波器;
φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
优选的,所述部件响应值确定单元具体包括:
窗口滑动子单元,用于在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口;
部件响应值确定子单元,用于部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值;
最大部件响应值确定子单元,用于针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
通过本实施例的方案,根据部件滤波器与部件HOG特征之间的点积响应值,确定部件滤波器对应的最大部件响应值,能够简化目标对象检测流程,提高目标对象检测效率。
优选的,所述部件响应值确定单元通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
其中,Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;
(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;
Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;
di为第i个设定部件的锚位置相对于标准位置的变形损失因子;
(dxi,dyi)为第i个设定部件相对于锚点的偏移量;
φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
优选的,所述匹配度确定单元通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;
G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值;
Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值;
n为部件滤波器的数量;
b为预设的常量。
优选的,所述目标对象为人脸,目标对象中各设定部件分别为左眼、右眼、嘴巴、下巴右侧、额头右侧。
通过本实施例的方案,将上述目标对象检测装置应用在人脸检测领域中时,效果尤其明显,通过选择左眼、右眼、嘴巴、下巴右侧、额头右侧等表征人脸的部件,能够准确地检测出人脸,提高了人脸的检测精度,该装置对人脸姿态、光照的变化、成像角度的不同、人脸细节的变化具有较高适应性,对部分遮挡也有很强的适应能力,是一种能够适用于多种复杂场景的人脸检测装置。
附图说明
图1A为本发明实施例一中,离线训练得到的根滤波器的示意图;
图1B为本发明实施例一中,离线训练得到的各部件滤波器的示意图;
图1C为本发明实施例一中,各设定部件相对于根位置的空间模型的示意图;
图2为本发明实施例二中,目标对象检测装置方法流程示意图;
图3为本发明实施例二中,确定图像的HOG特征的流程示意图;
图4为本发明实施例二中,根HOG特征以及部件HOG特征示意图;
图5为本发明实施例二中,确定根检测窗口位于当前位置时的目标对象匹配度的原理示意图;
图6为本发明实施例三中,目标对象检测装置结构示意图。
具体实施方式
下面结合各个附图对本发明实施例技术方案的主要实现原理、具体实施方式及其对应能够达到的有益效果进行详细地阐述。
本发明实施例提出,预先进行离线训练,得到目标对象的根滤波器、目标对象上各设定部件分别对应的部件滤波器、各设定部件相对于根位置的空间模型,后续可以根据训练得到的根滤波器、部件滤波器以及空间模型,对图像进行目标对象的在线检测。下面分别对离线训练过程和在线检测过程进行介绍。
实施例一
首先介绍离线训练过程。
预先在目标对象上选择若干个能够表征目标对象的部件,选择出的部件可以称为设定部件,以目标对象为人脸为例,选择出的设定部件可以为左眼、右眼、嘴巴、下巴右侧、额头右侧。选取这五个设定部件的理由如下:
1)眼睛、嘴巴是人脸中特征性较强的部件,能够有效地减少误判;
2)双眼在包含人脸的图像中出现的概率较高,作为判定图像中是否含有人脸的依据较为可靠;
3)下巴右侧、额头右侧的组合能较好地标定人脸区域,且通过同侧选取能较好地解决图像中仅存在部分人脸的情况;
4)额头、下巴部分与头发/背景等具备比较明显的边缘特征,容易提取梯度方向直方图(Histograms of Oriented Gradients,HOG)特征。
在进行离线训练时,首先人工对训练样本中的各图像进行标注,标注出目标对象在图像中的位置以及每一个设定部件在图像中的位置。其中,若目标对象为人脸,则在离线训练时,可以对训练样本中包含人脸的图像进行左右对称翻转,这样就可以实现左侧脸和右侧脸的匹配。
本发明实施例一提出可以采用HOG特征描述方法来训练滤波器,其中,滤波器指一个指定大小区域内的HOG特征的集合,例如,将图像划分为互不重叠的各单元(Cell),Cell是计算HOG特征的最小单位,Cell一般为矩形,例如为8×8个像素的正方形,滤波器的尺寸以Cell的个数为单位,若滤波器的尺寸为w×h,则表示滤波器的宽为w个Cell,高为h个Cell,该滤波器即为大小为w×h个cell的区域内的HOG特征的集合,其中HOG特征的维数为w×h×9。
(1)训练根滤波器
由Latent SVM向量机自动提取训练样本中各图像的Hog特征,进而训练得到表示目标对象的整体形状的根滤波器。
(2)训练部件滤波器
部件滤波器的训练方法与根滤波器的训练方法类似,可以在训练得到的根滤波器中训练各部件滤波器。部件滤波器表示目标对象中的设定部件,各部件滤波器的尺寸相同,其中,部件滤波器的尺寸与根滤波器的尺寸成一定的比例,例如,部件滤波器的宽为根滤波器的宽的1/2,部件滤波器的高为根滤波器的高的1/2。
(3)训练各设定部件相对于根位置的空间模型
空间模型的训练需要在根滤波器以及部件滤波器均训练完毕后进行,空间模型表示各设定部件在目标对象上的约束关系。
本发明实施例一提出,含有n个设定部件的目标对象可以用(F0,P1,...,Pn,b)表示,F0表示根滤波器,Pi表示第i个设定部件的空间模型,b为预设的常量。每个部件的空间模型可以用(Fi,vi,di)表示,其中,Fi表示第i(1≤i≤n)个设定部件对应的部件滤波器(以下简称第i个部件滤波器),vi为第i个设定部件相对于根位置的锚位置,di为第i个设定部件的锚位置相对于标准位置的变形损失因子,di为一个可自定义的4维矢量。
以目标对象为人脸为例,图1A为离线训练得到的根滤波器的示意图,图1B为离线训练得到的各部件滤波器的示意图,图1C为各设定部件相对于根位置的空间模型的示意图。
由于后续进行在线检测时需要将目标对象匹配度与匹配度阈值进行比较,因此本发明实施例一提出,在离线训练出根滤波器、部件滤波器以及各设定部件相对于根位置的空间模型之后,可以进一步设置匹配度阈值。下面介绍设定匹配度阈值的过程。
首先计算每个滤波器的得分,具体的:设H表示目标对象所在图像对应的图像金字塔,p=(x,y,l)表示图像金字塔的第l层图像中坐标为(x,y)的位置。φ(H,p,w,h)表示左上角的坐标为p、且大小为w×h个Cell的子窗口内的HOG特征,在窗口尺寸确定的情况下,也可以将φ(H,p,w,h)表示为φ(H,p)。滤波器F的得分由F和φ(H,p)的点积得到,即滤波器F的得分为:
R=F·φ(H,p)
其中,R的取值在0~1之间。
每个目标对象在图像中的位置用z=(p0,...pi...,pn)表示,其中,0≤i≤n,n为目标对象上设定部件的数量,pi=(xi,yi,l),p0表示图像金字塔的第l层图像中根滤波器的位置,i≥1时,pi表示图像金字塔的第l层图像中第i个设定部件对应的部件滤波器的位置。
每个目标对象的匹配度得分由各滤波器的得分之和减去各部件滤波器的变形损失,再加上预设的常量得到,即:
score ( z ) = score ( p 0 , . . . p i . . . , p n ) = Σ i = 0 n F i · φ ( H , p i ) - Σ i = 1 n d i · φ d ( dx i , dy i ) + b
其中,(dxi,dyi)为第i个设定部件相对于锚点的偏移量,(dxi,dyi)=(xi,yi)-(2(x0,y0)+vi);φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征,φd(dxi,dyi)=(dxi,dyi,dxi 2,dyi 2)。
计算得到每个目标对象的匹配度得分后,可以根据各目标对象的匹配度得分计算匹配度阈值,例如,将各目标对象的匹配度得分的平均值设置为匹配度阈值。
实施例二
下面介绍在线检测过程。
如图2所示,为本发明实施例二提出的目标对象检测方法流程图,其具体处理流程如下:
步骤21,按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔。
若预先设置的缩放比例为step,待检测图像的尺寸为psize,则按照缩放比比例step缩放一次后的图像的尺寸为psize×step,缩放两次后的图像的尺寸为psize×(step)2,依次类推,直至达到预设的缩放次数。其中,缩放次数可以用λ表示,表征了图像金字塔中包含的图像的个数,即图像金字塔的层数。
得到的图像金字塔是一种多分辨率的图像结构,图像金字塔中每层图像的尺寸不同,分辨率不同。
步骤22,根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征。
得到图像金字塔后,需要计算图像金字塔中每个图像的根HOG特征和部件HOG特征,其中,根HOG特征是根据目标对象对应的根滤波器的尺寸确定出的,部件HOG特征是根据目标对象中各设定部件分别对应的部件滤波器的尺寸确定出的,各部件滤波器的尺寸相等。
如图3所示,为本发明实施例二提出的确定图像的HOG特征的流程图,具体流程如下:
步骤31,首先将图像划分为互不重叠的各Cell,每个Cell的大小可以为8×8个像素;
步骤32,计算图像中所有像素点的梯度,再将其转换为(幅度,方向)的形式;
步骤33,将最终的梯度方向均匀分为9个箱,使得每个梯度方向属于且仅属于其中一个箱,对每个Cell内的梯度直方图进行权重投影处理,因此每个Cell将得到9维的梯度直方图;
步骤34,对每个Cell进行归一化处理;
光照的局部变化和前景背景强烈对比,造成梯度幅值在一个很大的范围内变化,因此需要进行局部归一化处理,为此引入Block的概念,Block是以Cell为空间单位的矩形区域,对于一个给定的Cell,能且只能找到4个包含它的Block,对Cell进行归一化处理时,对该Cell的梯度直方图分别除以包含该Cell的四个Block总能量,进行四次归一化处理。
步骤35,统计图像内的HOG特征。
根据目标对象对应的根滤波器的尺寸确定根HOG特征时,Block的大小与根滤波器的大小一致,若根滤波器的尺寸为8×8个Cell,则Block的大小也为8×8个Cell;根据目标对象中各设定部件分别对应的部件滤波器的尺寸确定部件HOG特征时,Block的大小与部件滤波器的大小一致,若部件滤波器的尺寸为4×4个Cell,则Block的大小也为4×4个Cell。
如图4所示,图像金字塔包含6层图像,第一行为根据根滤波器的尺寸计算得到的各图像的根HOG特征示意图,第二行为根据部件滤波器的尺寸计算得到的各图像的部件HOG特征示意图,图4中的每一列示意图分别对应图像金字塔中的一个图像。
在检测待检测图像中是否包含目标对象时,需要针对图像金字塔中的每个图像分别进行检测,其中,可以按照分辨率由大到小的顺序或由小到大的顺序,对图像金字塔中的各个图像依次进行检测。
针对图像金字塔中的每个图像,分别执行下述步骤23~步骤25。
步骤23,在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像。
在图像金字塔的某一层图像上进行目标对象的检测时,需要利用根检测窗口在该图像上进行滑动,直至遍历该图像,根检测窗口的尺寸和根滤波器的尺寸相同。
根检测窗口可以从图像的左上角开始滑动,每次滑动一列像素或一行像素。
步骤24,根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值,以及根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值。
本发明实施例二提出,在确定根滤波器对应的根响应值时,可以先确定根滤波器与图像中根检测窗口内的根HOG特征之间的点积响应值,然后将确定出的点积响应值,确认为根滤波器对应的根响应值。
其中,可以但不限于通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;F0表示根滤波器;(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
本发明实施例二提出,在确定各部件滤波器分别对应的最大部件响应值时,可以首先在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口,部件检测窗口的尺寸和部件滤波器的尺寸相同,部件检测窗口可以从根检测窗口的左上角开始滑动,每次滑动一列像素或一行像素。
部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值,针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
其中,可以但不限于通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;di为第i个设定部件的锚位置相对于标准位置的变形损失因子;(dxi,dyi)为第i个设定部件相对于锚点的偏移量;φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
步骤25,针对图像金字塔中的每个图像,分别根据确定出的根响应值和各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度。
本发明实施例二提出,可以通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值,G0,l=R0,l(x0,y0);Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值,Di,l=Di,l(x,y);n为设定部件的数量,即部件滤波器的数量;b为预设的常量。
由上可知,在确定根检测窗口位于当前位置时的目标对象匹配度时,其原理如图5所示,首先确定根检测窗口内的HOG特征与根滤波器之间的点积响应值,得到根滤波器对应的根响应值,然后确定部件检测窗口内的HOG特征与每个部件滤波器之间的点积响应值,得到每个部件滤波器分别对应的最大点积响应值,针对每个部件滤波器,分别用最大点积响应值减去设定部件的变形损失,即可得到该部件滤波器对应的最大部件响应值,最后将根滤波器对应的根响应值与各部件滤波器分别对应的最大部件响应值相加,得到根检测窗口位于当前位置时的目标对象匹配度。
步骤26,针对图像金字塔中的每个图像,分别在确定出的目标对象匹配度不小于预设匹配度阈值时,确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
本发明实施例二提出的目标对象检测方法可以应用在人脸检测领域,该方法对人脸姿态、光照的变化、成像角度的不同、人脸细节的变化具有较高适应性,对部分遮挡也有很强的适应能力,是一种能够适用于多种复杂场景的人脸检测方法。通过测试可知,相对于现有的人脸检测方法,本发明实施例二提出的人脸检测方法能够将人脸检测的准确率提升20%以上。
实施例三
与本发明实施例二提出的目标对象检测方法对应,本发明实施例三还提供一种目标对象检测装置,其结构如图6所示,包括:
缩放处理单元61,用于按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔;
特征确定单元62,用于根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征;
窗口滑动单元63,用于针对图像金字塔中的每个图像,分别在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像;
根响应值确定单元64,用于根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值;
部件响应值确定单元65,用于根检测窗口每滑动一个位置,都根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值;
匹配度确定单元66,用于根据根响应值确定单元64确定出的根响应值和部件响应值确定单元65确定出的各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度;
目标对象检测单元67,用于在匹配度确定单元66确定出的目标对象匹配度不小于预设匹配度阈值时,确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
优选的,所述根响应值确定单元64,具体用于确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值,将确定出的点积响应值,确认为根滤波器对应的根响应值。
优选的,所述根响应值确定单元64通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
其中,R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;
(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;
F0为根滤波器;
φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
优选的,所述部件响应值确定单元65具体包括:
窗口滑动子单元,用于在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口;
部件响应值确定子单元,用于部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值;
最大部件响应值确定子单元,用于针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
优选的,所述部件响应值确定单元65通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
其中,Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;
(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;
Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;
di为第i个设定部件的锚位置相对于标准位置的变形损失因子;
(dxi,dyi)为第i个设定部件相对于锚点的偏移量;
φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
优选的,所述匹配度确定单元66通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;
G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值;
Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值;
n为部件滤波器的数量;
b为预设的常量。
优选的,所述目标对象为人脸,目标对象中各设定部件分别为左眼、右眼、嘴巴、下巴右侧、额头右侧。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (14)

1.一种目标对象检测方法,其特征在于,包括:
按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔;
根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根梯度方向直方图HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征;
针对图像金字塔中的每个图像,分别执行下述操作:
在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像;
根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值,以及根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值;
根据确定出的根响应值和各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度;
若确定出的目标对象匹配度不小于预设匹配度阈值,则确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
2.如权利要求1所述的方法,其特征在于,根据根HOG特征,确定根滤波器对应的根响应值,具体包括:
确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值;
将确定出的点积响应值,确认为根滤波器对应的根响应值。
3.如权利要求2所述的方法,其特征在于,通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
其中,R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;
(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;
F0为根滤波器;
φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
4.如权利要求1所述的方法,其特征在于,根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值,具体包括:
在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口;
部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值;
针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
5.如权利要求4所述的方法,其特征在于,通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
其中,Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;
(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;
Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;
di为第i个设定部件的锚位置相对于标准位置的变形损失因子;
(dxi,dyi)为第i个设定部件相对于锚点的偏移量;
φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
6.如权利要求1所述的方法,其特征在于,通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;
G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值;
Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值;
n为部件滤波器的数量;
b为预设的常量。
7.如权利要求1~6中任一权利要求所述的方法,其特征在于,所述目标对象为人脸,目标对象中各设定部件分别为左眼、右眼、嘴巴、下巴右侧、额头右侧。
8.一种目标对象检测装置,其特征在于,包括:
缩放处理单元,用于按照预设的缩放比例,对待检测图像进行逐步缩放处理,得到对应的图像金字塔;
特征确定单元,用于根据目标对象对应的根滤波器,确定图像金字塔中的每个图像的根梯度方向直方图HOG特征,以及根据目标对象中各设定部件分别对应的部件滤波器,确定图像金字塔中的每个图像的部件HOG特征;
窗口滑动单元,用于针对图像金字塔中的每个图像,分别在该图像上滑动根滤波器对应的根检测窗口,直至遍历该图像;
根响应值确定单元,用于根检测窗口每滑动一个位置,都根据根HOG特征,确定根滤波器对应的根响应值;
部件响应值确定单元,用于根检测窗口每滑动一个位置,都根据部件HOG特征,确定各部件滤波器分别对应的最大部件响应值;
匹配度确定单元,用于根据根响应值确定单元确定出的根响应值和部件响应值确定单元确定出的各部件滤波器分别对应的最大部件响应值,确定根检测窗口位于当前位置时的目标对象匹配度;
目标对象检测单元,用于在匹配度确定单元确定出的目标对象匹配度不小于预设匹配度阈值时,确认根检测窗口位于当前位置时,该根检测窗口内包含目标对象。
9.如权利要求8所述的装置,其特征在于,所述根响应值确定单元,具体用于确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值,将确定出的点积响应值,确认为根滤波器对应的根响应值。
10.如权利要求9所述的装置,其特征在于,所述根响应值确定单元通过下述方式确定根滤波器与该图像中根检测窗口内的根HOG特征之间的点积响应值:
R0,l(x0,y0)=F0·φ0(H,(x0,y0,l))
其中,R0,l(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器与根检测窗口内的根HOG特征之间的点积响应值;
(x0,y0)为根检测窗口在图像金字塔的第l层的图像上滑动时,根检测窗口左上角在该图像中的坐标;
F0为根滤波器;
φ0(H,(x0,y0,l))为图像金字塔的第l层的图像上,根检测窗口内的根HOG特征。
11.如权利要求8所述的装置,其特征在于,所述部件响应值确定单元具体包括:
窗口滑动子单元,用于在根检测窗口上滑动部件滤波器对应的部件检测窗口,直至遍历该根检测窗口;
部件响应值确定子单元,用于部件检测窗口每滑动一个位置,都确定每个部件滤波器与该部件检测窗口内的部件HOG特征之间的点积响应值;
最大部件响应值确定子单元,用于针对每个部件滤波器,分别根据对应的最大点积响应值,确定对应的最大部件响应值。
12.如权利要求11所述的装置,其特征在于,所述部件响应值确定单元通过下述方式确定部件滤波器对应的的最大部件响应值:
D i , l ( x 0 , y 0 ) = max dx i , dy i ( R i , l ( x 0 + dx i , y 0 + dy i ) - d i · φ d ( dx i , dy i )
其中,Di,l(x,y)为第i个部件滤波器在图像金字塔的第l层图像上的最大部件响应值;
(x0,y0)为图像金字塔的第l层的图像中根检测窗口左上角在该图像中的坐标;
Ri,l(x0+dxi,y0+dyi)为部件检测窗口在根检测窗口上滑动时,第i个部件滤波器与部件检测窗口内的部件HOG特征之间的点积响应值;
di为第i个设定部件的锚位置相对于标准位置的变形损失因子;
(dxi,dyi)为第i个设定部件相对于锚点的偏移量;
φd(dxi,dyi)为偏移量(dxi,dyi)的变形特征。
13.如权利要求8所述的装置,其特征在于,所述匹配度确定单元通过下述方式确定根检测窗口位于当前位置时的目标对象匹配度:
score ( x 0 , y 0 , l ) = G 0 , l + Σ i = 1 n D i , l + b
其中,score(x0,y0,l)为根检测窗口在图像金字塔的第l层的图像上滑动,且根检测窗口左上角在该图像中的坐标为(x0,y0)时,根检测窗口位于当前位置时的目标对象匹配度;
G0,l为根检测窗口在图像金字塔的第l层的图像上滑动时,根滤波器对应的根响应值;
Di,l为根检测窗口在图像金字塔的第l层的图像上滑动时,第i个部件滤波器对应的最大部件响应值;
n为部件滤波器的数量;
b为预设的常量。
14.如权利要求8~13中任一权利要求所述的装置,其特征在于,所述目标对象为人脸,目标对象中各设定部件分别为左眼、右眼、嘴巴、下巴右侧、额头右侧。
CN201310567133.2A 2013-11-14 2013-11-14 目标对象检测方法及装置 Pending CN104636749A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310567133.2A CN104636749A (zh) 2013-11-14 2013-11-14 目标对象检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310567133.2A CN104636749A (zh) 2013-11-14 2013-11-14 目标对象检测方法及装置

Publications (1)

Publication Number Publication Date
CN104636749A true CN104636749A (zh) 2015-05-20

Family

ID=53215477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310567133.2A Pending CN104636749A (zh) 2013-11-14 2013-11-14 目标对象检测方法及装置

Country Status (1)

Country Link
CN (1) CN104636749A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184278A (zh) * 2015-09-30 2015-12-23 深圳市商汤科技有限公司 一种人脸检测方法和装置
CN106846419A (zh) * 2015-12-03 2017-06-13 阿里巴巴集团控股有限公司 一种图像中人像轮廓的确定方法和装置
CN107368832A (zh) * 2017-07-26 2017-11-21 中国华戎科技集团有限公司 基于图像的目标检测及分类方法
CN108121931A (zh) * 2017-12-18 2018-06-05 广州市动景计算机科技有限公司 二维码数据处理方法、装置及移动终端
CN108154130A (zh) * 2017-12-29 2018-06-12 深圳市神州云海智能科技有限公司 一种目标图像的检测方法、装置及存储介质、机器人
CN108615028A (zh) * 2018-05-14 2018-10-02 北京主线科技有限公司 港口重型车辆的细粒度检测识别方法
CN108664916A (zh) * 2018-05-08 2018-10-16 深圳市唯特视科技有限公司 一种基于锚点设计的小面孔检测方法
CN108960211A (zh) * 2018-08-10 2018-12-07 罗普特(厦门)科技集团有限公司 一种多目标人体姿态检测方法以及系统
CN109446901A (zh) * 2018-09-21 2019-03-08 北京晶品特装科技有限责任公司 一种可嵌入式移植的实时人形目标自动识别算法
CN109961079A (zh) * 2017-12-25 2019-07-02 北京君正集成电路股份有限公司 图像检测方法及装置
CN111291598A (zh) * 2018-12-07 2020-06-16 长沙智能驾驶研究院有限公司 多目标跟踪方法、装置、移动终端及计算机存储介质
CN113313143A (zh) * 2021-04-29 2021-08-27 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113785327A (zh) * 2021-06-18 2021-12-10 商汤国际私人有限公司 图像处理方法、装置、边缘计算设备和计算机存储介质
CN114462440A (zh) * 2022-02-14 2022-05-10 浙江华睿科技股份有限公司 对象位置的确定方法及装置
WO2022096954A1 (en) * 2021-06-18 2022-05-12 Sensetime International Pte. Ltd. Image processing method and device, edge computing device, and computer storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101350063A (zh) * 2008-09-03 2009-01-21 北京中星微电子有限公司 人脸特征点定位方法及装置
CN102855501A (zh) * 2012-07-26 2013-01-02 北京锐安科技有限公司 一种多方向物体图像识别方法
CN103049733A (zh) * 2011-10-11 2013-04-17 株式会社理光 人脸检测方法和人脸检测设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101350063A (zh) * 2008-09-03 2009-01-21 北京中星微电子有限公司 人脸特征点定位方法及装置
CN103049733A (zh) * 2011-10-11 2013-04-17 株式会社理光 人脸检测方法和人脸检测设备
CN102855501A (zh) * 2012-07-26 2013-01-02 北京锐安科技有限公司 一种多方向物体图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PEDRO F. FELZENSZWALB 等: ""Object Detection with Discriminatively Trained Part Based Models"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184278A (zh) * 2015-09-30 2015-12-23 深圳市商汤科技有限公司 一种人脸检测方法和装置
CN106846419A (zh) * 2015-12-03 2017-06-13 阿里巴巴集团控股有限公司 一种图像中人像轮廓的确定方法和装置
CN107368832A (zh) * 2017-07-26 2017-11-21 中国华戎科技集团有限公司 基于图像的目标检测及分类方法
CN108121931A (zh) * 2017-12-18 2018-06-05 广州市动景计算机科技有限公司 二维码数据处理方法、装置及移动终端
CN108121931B (zh) * 2017-12-18 2021-06-25 阿里巴巴(中国)有限公司 二维码数据处理方法、装置及移动终端
CN109961079A (zh) * 2017-12-25 2019-07-02 北京君正集成电路股份有限公司 图像检测方法及装置
CN109961079B (zh) * 2017-12-25 2021-06-04 北京君正集成电路股份有限公司 图像检测方法及装置
CN108154130A (zh) * 2017-12-29 2018-06-12 深圳市神州云海智能科技有限公司 一种目标图像的检测方法、装置及存储介质、机器人
CN108154130B (zh) * 2017-12-29 2022-04-15 深圳市神州云海智能科技有限公司 一种目标图像的检测方法、装置及存储介质、机器人
CN108664916A (zh) * 2018-05-08 2018-10-16 深圳市唯特视科技有限公司 一种基于锚点设计的小面孔检测方法
CN108615028A (zh) * 2018-05-14 2018-10-02 北京主线科技有限公司 港口重型车辆的细粒度检测识别方法
CN108960211A (zh) * 2018-08-10 2018-12-07 罗普特(厦门)科技集团有限公司 一种多目标人体姿态检测方法以及系统
CN109446901A (zh) * 2018-09-21 2019-03-08 北京晶品特装科技有限责任公司 一种可嵌入式移植的实时人形目标自动识别算法
CN111291598A (zh) * 2018-12-07 2020-06-16 长沙智能驾驶研究院有限公司 多目标跟踪方法、装置、移动终端及计算机存储介质
CN113313143A (zh) * 2021-04-29 2021-08-27 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113313143B (zh) * 2021-04-29 2022-08-09 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113785327A (zh) * 2021-06-18 2021-12-10 商汤国际私人有限公司 图像处理方法、装置、边缘计算设备和计算机存储介质
WO2022096954A1 (en) * 2021-06-18 2022-05-12 Sensetime International Pte. Ltd. Image processing method and device, edge computing device, and computer storage medium
CN114462440A (zh) * 2022-02-14 2022-05-10 浙江华睿科技股份有限公司 对象位置的确定方法及装置

Similar Documents

Publication Publication Date Title
CN104636749A (zh) 目标对象检测方法及装置
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN104517104B (zh) 一种基于监控场景下的人脸识别方法及系统
CN105160317B (zh) 一种基于区域分块行人性别识别方法
CN102799901B (zh) 一种多角度人脸检测方法
US7953253B2 (en) Face detection on mobile devices
CN106960202A (zh) 一种基于可见光与红外图像融合的笑脸识别方法
CN107103317A (zh) 基于图像融合和盲反卷积的模糊车牌图像识别算法
CN109902590A (zh) 深度多视图特征距离学习的行人重识别方法
CN102270308B (zh) 一种基于五官相关aam模型的面部特征定位方法
CN103413119A (zh) 基于人脸稀疏描述子的单样本人脸识别方法
CN102332086A (zh) 一种基于双阈值局部二进制模式的人脸识别方法
Zang et al. Traffic sign detection based on cascaded convolutional neural networks
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN113158850B (zh) 基于深度学习的船舶驾驶员疲劳检测方法和系统
CN106503748A (zh) 一种基于s‑sift特征和svm训练器的车型识别算法
CN107123130A (zh) 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN108009574A (zh) 一种轨道扣件检测方法
Taur et al. Segmentation of psoriasis vulgaris images using multiresolution-based orthogonal subspace techniques
CN107784263A (zh) 基于改进加速鲁棒特征的平面旋转人脸检测的方法
KR20130059212A (ko) 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법
CN104376312B (zh) 基于词袋压缩感知特征提取的人脸识别方法
Escalera et al. Fast greyscale road sign model matching and recognition
CN106548195A (zh) 一种基于改进型hog‑ulbp特征算子的目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150520

RJ01 Rejection of invention patent application after publication