CN108460319B - 异常人脸检测方法及装置 - Google Patents
异常人脸检测方法及装置 Download PDFInfo
- Publication number
- CN108460319B CN108460319B CN201710097644.0A CN201710097644A CN108460319B CN 108460319 B CN108460319 B CN 108460319B CN 201710097644 A CN201710097644 A CN 201710097644A CN 108460319 B CN108460319 B CN 108460319B
- Authority
- CN
- China
- Prior art keywords
- area
- region
- sub
- determining
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种异常人脸检测方法及装置,所述方法包括:根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;根据所述待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定所述待检区域中是否为人脸;当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。应用该方法,可以提高异常人脸检测的准确率,同时,提高异常人脸检测的效率,以尽可能地满足用户的实时性要求。
Description
技术领域
本申请涉及视频监控技术领域,尤其涉及一种异常人脸检测方法及装置。
背景技术
视频监控系统作为一种可视化监控手段,在公共安全领域得到了广泛的应用。在视频监控系统中,可以通过计算机的检测和识别,在监控区域发现异常人脸,例如戴墨镜、戴口罩等人脸,从而实现尽早地发现不法人员,以有效地避免违法事件、危害公共安全等事件的发生。
在现有的方案一中,首先基于Hough算法对在视频图像上提取到的运动目标进行人头定位,之后通过肤色模型对人脸进行初次判定,得出可能的戴口罩人脸和戴墨镜人脸,之后基于Tamura纹理特征对可能的戴口罩人脸进行二次判断,以确定是否为戴口罩的异常人脸;基于Hu氏特征对可能的戴墨镜人脸进行二次判断,以确定是否为戴墨镜人脸。在现有的方案二中,基于与或图级数的多通道人脸检测方法检测异常人脸,该方法中,定义了三个通道,α通道,直接进行人脸检测,β通道,通过检测人脸局部特征得到人脸区域,γ通道,通过检测头肩区域得到人脸区域,之后,使用贪心的方式整合该三个通道所得出的检测结果,得到最终的人脸检测结果。
然而,在上述方案一中,由于Hough变换算法的计算量随着参数空间的增大呈指数增长,从而通过Hough变换算法难以实时地在监控到的视频图像上定位出人头,同时对于被遮挡住的人脸,基于Hough变换算法也无法定位出人头;由于肤色模型中采用固定的肤色区间,从而通过肤色模型对人脸进行初次判定,很容易产生误判或漏判;由于初次判定之后再进行二次判定,从而增加了性能开销,对于实时性要求高的场景适用性并不佳。在上述方案二中,由于整个与或图技术的流程类似于串行过程,从而造成性能浪费,并且人脸检测的实时性不佳。
发明内容
有鉴于此,本申请提供一种异常人脸检测方法及装置,以提高异常人脸检测的准确率,同时,提高异常人脸检测的效率,以尽可能地满足用户的实时性要求。
具体地,本申请是通过如下技术方案实现的:
根据本申请实施例的第一方面,提供一种异常人脸检测方法,所述方法包括:
根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;
根据所述待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定所述待检区域中是否为人脸;
当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;
当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。
可选的,当所述待检区域的宽小于高时,所述根据所述待检区域确定肤色占比以及占比阈值包括:
确定所述第一子区域中肤色区域的肤色占比,以及确定所述第一子区域对应的占比阈值。
可选的,当所述待检区域的宽大于高时,所述根据所述待检区域确定肤色占比以及占比阈值包括:
基于所述待检区域进行扩展,得到人脸区域;
确定所述第二子区域中肤色区域的肤色占比,以及确定所述第二子区域对应的占比阈值。
可选的,所述确定所述第一子区域对应的占比阈值包括:
对所述第一子区域进行二值化处理,得到第一二值化图像;
确定所述第一二值化图像的第一水平投影曲线;
在所述第一水平投影曲线上,确定最高的两个波峰各自对应的横轴位置y1和y2;
根据第一公式计算得出所述第一子区域对应的占比阈值;
可选的,所述确定所述第二子区域对应的占比阈值包括:
对所述第二子区域进行二值化处理,得到第二二值化图像;
确定所述第二二值化图像的第二水平投影曲线;
在所述第二水平投影曲线上,确定最高的波峰对应的横轴位置y0;
根据第二公式计算得出所述第二子区域对应的占比阈值;
根据本申请实施例的第二方面,提供一种异常人脸检测装置,所述装置包括:
第一确定模块,用于根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;
人脸确定模块,用于根据所述待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定所述待检区域中是否为人脸;
第二确定模块,用于当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;
异常人脸确定模块,用于当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。
可选的,当所述待检区域的宽小于高时,所述第二确定模块包括:
第一确定子模块,用于确定所述第一子区域中肤色区域的肤色占比,以及确定所述第一子区域对应的占比阈值。
可选的,当所述待检区域的宽大于高时,所述第二确定模块包括:
扩展子模块,用于基于所述待检区域进行扩展,得到人脸区域;
第二确定子模块,用于确定所述第二子区域中肤色区域的肤色占比,以及确定所述第二子区域对应的占比阈值。
可选的,所述第一确定子模块包括:
第一二值化子模块,用于对所述第一子区域进行二值化处理,得到第一二值化图像;
第一投影子模块,用于确定所述第一二值化图像的第一水平投影曲线;
第一波峰确定子模块,用于在所述第一水平投影曲线上,确定最高的两个波峰各自对应的横轴位置y1和y2;
第一计算子模块,用于根据第一公式计算得出所述第一子区域对应的占比阈值;
可选的,所述第二确定子模块包括:
第二二值化子模块,用于对所述第二子区域进行二值化处理,得到第二二值化图像;
第二投影子模块,用于确定所述第二二值化图像的第二水平投影曲线;
第二波峰确定子模块,用于在所述第二水平投影曲线上,确定最高的波峰对应的横轴位置y0;
第二计算子模块,用于根据第二公式计算得出所述第二子区域对应的占比阈值;
由上述实施例可见,通过待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定待检区域中是否为人脸,可以实现对获取到的每个待检区域进行人脸判定,避免漏检;当确定待检区域中为人脸时,根据该待检区域确定占比阈值,相较于固定的占比阈值,可以有效地避免异常人脸的误判,提高异常人脸检测的准确率;同时,由于通过两个分类器,以及类似并行的方式进行异常人脸的检测,从而可以提供异常人脸检测的效率,尽可能地满足用户的实时性要求。
附图说明
图1为本申请实施例实现异常人脸检测方法的一个应用场景示意图;
图2A为本申请异常人脸检测方法的一个实施例流程图;
图2B为所确定的待检区域的示例图之一;
图2C为所确定的待检区域的示例图之二;
图2D为所确定的待检区域的示例图之三;
图2E为第一水平投影曲线的一种示例;
图2F为人脸区域的一种示例;
图2G为第二水平投影曲线的一种示例;
图3为本申请异常人脸检测装置所在网络设备的一种硬件结构图;
图4为本申请异常人脸检测装置的一个实施例框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
请参见图1,为本申请实施例实现异常人脸检测方法的一个应用场景示意图,图1中包括摄像机11、摄像机12、服务器13,其中,摄像机11和摄像机12可以布设于同一场地中,例如,同一银行服务大厅中;或者摄像机11和摄像机12可以布设于不同场地中,例如,分别布设于位于不同地点的两个自助取款服务厅内,需要说明的是,不论摄像机11和摄像机12是否布设于同一场地中,摄像机11和摄像机12均可以将拍摄到的视频图像通过网络连接发送至服务器13,服务器13可以应用本申请提供的异常人脸检测方法,对视频图像中的人脸进行识别,确定异常人脸,例如戴口罩人脸、戴墨镜人脸等。当服务器13检测到异常人脸时,可以发出警报,以提醒用户被监控场地中可能存在不法人员。
需要说明的是,上述图1中仅以两台摄像机为例,在实际应用中,可以存在多台摄像机,本申请对此并不作限制。
此外,还需要说明的是,在实际应用中,也可以由摄像机执行本申请提供的异常人脸检测方法,对所采集到的视频图像进行分析,识别其中的异常人脸,本申请对此并不作限制。
请参见图2A,为本申请异常人脸检测方法的一个实施例流程图,该方法可以应用于网络设备,例如图1中所示例的摄像机11(或摄像机12)上,或者服务器13上,该方法可以包括以下步骤:
步骤S201:根据拍摄到的视频图像确定待检区域,该待检区域为矩形。
在本申请中,可以采用三帧差法在视频图像中确定前景区域,之后通过肤色模型,在该前景区域上确定待检区域。
例如,以摄像机11执行该方法为例,摄像机11可以首先获取连续三帧视频图像,之后,分别计算得出相邻两帧视频图像的差值,得到两幅差值图像,之后,对该两幅差值图像进行二值化处理,得到两幅二值化图像,再将该两幅二值化图像进行相与操作,得到该三帧视频图像对应的中间帧的二值化图像,之后,在该中间帧的二值化图像上,通过形态学处理,确定前景区域。
后续,通过肤色模型,在该前景区域上确定待检区域,该待检区域为矩形,例如,如图2B所示,为所确定的待检区域的示例图之一,图2C为所确定的待检区域的示例图之二,图2D为所确定的待检区域的示例图之三,具体是如何通过肤色模型,在前景区域上确定待检区域的,可以参见现有技术中的相关描述,在此不再详述。
步骤S202:根据该待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定该待检区域中是否为人脸。
由图2B至图2D所示例的待检区域可知,当人脸的口鼻区域被遮挡时,通过步骤S201所确定的待检区域的宽大于高,而在当人脸上无任何遮挡物,以及当人脸的眉眼区域被遮挡时,通过步骤S201所确定的待检区域的宽小于高,那么,在本申请中,可以根据待检区域的宽和高之间的比较关系,将待检区域分为两类,即宽大于高的待检区域和宽小于高的待检区域。
在本申请中,若待检区域的宽小于高,例如图2B和图2C所示例的待检区域,则可以选择已训练的第一分类器确定该待检区域中是否为人脸;若待检区域的宽大于高,例如图2D所示例的待检区域,则可以选择已训练的第二分类器确定该待检区域中是否为人脸。
需要说明的是,在训练第一分类器的过程中,可以采用正常人脸作为正样本,例如,采用现有的人脸库CAS_PEAL_R1中的人脸图片作为正样本,采用现有的MIT非人脸库中的图片作为负样本,由于正常人脸的宽小于高,从而,若待检区域的宽小于高时,则可以将该待检区域输入到已训练的第一分类器,由该第一分区器识别该待检区域中是否为人脸;在训练第二分类器的过程中,可以采用人脸的眉眼区域作为正样本,例如,对现有的人脸库CAS_PEAL_R1中的人脸图片进行眼部标定,批量得到人脸的眉眼区域,采用现有的MIT非人脸库中的图片作为负样本,由于眉眼区域的宽大于高,从而,若待检区域的宽大于高时,则可以将该待检区域输入到已训练的第二分类器,由该第二分类器识别该待检区域中是否为人脸。具体训练第一分类器和第二分类器进的过程可以参见现有技术中的描述,本申请对此不再详述。
步骤S203:当确定待检区域中为人脸时,根据该待检区域确定肤色占比以及占比阈值。
在一实施例中,当确定待检区域中为人脸,并且该待检区域的宽小于高时,例如图2B和图2C中所示例的人脸区域,此时可以认为该待检区域中的人脸为正常人脸,即人脸无任何遮挡,或者该待检区域中的人脸为戴墨镜人脸,即人脸的眉眼区域被遮挡。由此可见,可以通过确定人脸的眉眼区域是否被遮挡,以确定该人脸是否为异常人脸。
通常情况下,人脸的眉眼区域位于待检区域的上半部分中,并且,若待检区域中的人脸为戴墨镜人脸,如图2C所示,墨镜的上边界和下边界近似一条直线,并且墨镜的下边界与待检区域的上边界之间的距离至少为H1为待检区域的高度。那么,在本申请中,可以在待检区域上获取第一子区域,该第一子区域的上边界与待检区域的上边界重合,且该第一子区域的高度为α,该α的取值范围为例如,如图2C中所示例的第一子区域。
需要说明的是,通过如此设置α的取值范围,可以使得当待检区域中的人脸为戴墨镜人脸时,墨镜的下边界位于该第一子区域内。
后续,可以通过肤色模型,确定该第一子区域中肤色区域的肤色占比,以及,确定该第一子区域对应的占比阈值。具体是如何通过肤色模型确定第一子区域中肤色区域的肤色占比的,可以参见现有技术中的相关描述,在此不再详述;具体是如何确定第一子区域对应的占比阈值的,过程如下:
对图2C中所示例的第一子区域进行二值化处理,为了描述方便,将此时得到的二值化图像称为第一二值化图像;之后,确定该第一二值化图像的水平投影曲线,为了描述方便,将此时的水平投影曲线称为第一水平投影曲线,例如,如图2E所示,为第一水平投影曲线的一种示例。
由于第一子区域中存在墨镜的上边界和下边界,墨镜的上边界和下边界均近似一条直线,那么,在图2E中,可以出现两个较高的波峰,此时,确定该两个最高的波峰各自所对应的横轴位置,分别记为y1和y2。
在本申请中,可以通过如下第一公式计算得出第一子区域对应的占比阈值:
在上述第一公式中,|y2-y1|可以表示出墨镜的高度,那么α-|y2-y1|即可以表示出在第一子区域中,未被墨镜遮挡区域的高度,通过第一公式所计算得出的占比阈值即可以表示第一子区域中未被遮挡区域占第一子区域的比值。
在一实施例中,当确定待检区域中为人脸,并且该待检区域的宽大于高时,例如图2D中所示例的人脸区域,此时可以认为该人脸的口鼻区域被遮挡,即可以认为待检区域中的人脸为戴口罩人脸,或者该人脸的口鼻区域被其它建筑物遮挡,由此可见,可以通过确定该人脸是否为戴口罩的人脸,以确定该人脸是否为异常人脸。
在本申请中,假设第二分类器是通过待检区域的20*8的子区域进行人脸判定,那么当判定该待检区域中为人脸时,第二分类器输出的为待检区域的20*8的子区域,并且该子区域中包括了人脸的眉眼区域,例如,如图2D中所示例的20*8的子区域。
之后,可以对该20*8的子区域向下进行扩展,例如扩展20/8,此时,为了描述方便,将扩展得到的区域称为人脸区域,例如,如图2F为人脸区域的一种示例。需要说明的是,上述所描述的对子窗口进行扩展,使得人脸区域的宽和高相同仅仅作为一种优选的实现方式,在实际应用中,扩展得到的人脸区域的宽还可以小于高,使得扩展得到的人脸区域中包括被遮挡住的口鼻区域即可,本申请对此并不作限制。
通常情况下,人脸的口鼻区域位于人脸区域的下半部分中,若为戴口罩人脸,如图2D所示,口罩的上边界近似一条直线,并且位于人脸区域的上半部分中,基于此,可以在人脸区域上获取第二子区域,该第二子区域的下边界与人脸区域的下边界重合,且该第二子区域的高度为β,该β的取值范围为 H2为所述人脸区域的高度,例如,如图2F中所示例的第二子区域。
需要说明的是,通过如此设置β的取值范围,可以使得当人脸区域中为戴口罩人脸时,口罩的上边界位于该第二子区域内。
后续,可以通过肤色模型,确定该第二子区域中肤色区域的肤色占比,以及,确定该第二子区域对应的占比阈值。具体是如何通过肤色模型确定第二子区域中肤色区域的肤色占比的,可以参见现有技术中的相关描述,在此不再详述;具体是如何确定第二子区域对应的占比阈值的,过程如下:
对图2F中所示例的第二子区域进行二值化处理,为了描述方便,将此时得到的二值化图像称为第二二值化图像,之后,确定该二二值化图像的水平投影曲线,为了描述方便,将此时的水平投影曲线称为第二水平投影曲线,例如,如图2G所示,为第二水平投影曲线的一种示例。
由于第二子区域中存在口罩的上边界,该上边界近似一条直线,那么,在该图2G中,可以出现一个较高的波峰,此时,确定最高的波峰所对应的横轴位置,记为y0。
在本申请中,可以通过如下第二公式计算得出第二子区域对应的占比阈值:
通过上述第二公式所计算得出的占比阈值可以表示出在第二子区域中,未被遮挡区域占第二子区域的比值。
步骤S204:当肤色占比不大于占比阈值时,确定该人脸为异常人脸。
在一实施例中,当确定待检区域中为人脸,并且该待检区域的宽大于高时,在上述步骤S203中所确定的第一子区域中肤色区域的肤色占比不大于第一子区域对应的占比阈值时,即可以认为在第一子区域中,未被遮挡区域所占的比值小于第一子区域对应的占比阈值,从而,可以认为待检区域中的人脸为戴墨镜人脸,即该人脸为异常人脸。
在一实施例中,当确定待检区域中为人脸,并且该待检区域的宽小于高时,在上述步骤S203中所确定的第二子区域中肤色区域的肤色占比不大于第二子区域对应的占比阈值时,即可以认为在第二子区域中,未被遮挡区域所占的比值小于第二子区域对应的占比阈值,从而可以认为待检区域中的人脸为戴口罩人脸,即该人脸为异常人脸。
此外,在本申请中,当待检区域的宽小于高时,除了按照上述所描述的过程可以确定该待检区域中的人脸是否为戴口罩人脸以外,还可以进一步确定该待检区域中的人脸是否为既戴口罩,又戴墨镜人脸。
具体的,可以在确定待检区域中的人脸为戴口罩人脸的基础上,参考上述所描述的基于第一子区域确定待检区域中的人脸是否为戴墨镜人脸的过程,进一步确认待检区域中的人脸是否为戴墨镜人脸,具体过程在此不再详述。
由上述实施例可见,通过待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定待检区域中是否为人脸,可以实现对获取到的每个待检区域进行人脸判定,避免对宽大于高的待检区域漏检;当确定待检区域中为人脸时,根据该待检区域确定占比阈值,相较于固定的占比阈值,可以有效地避免异常人脸的误判,提高异常人脸检测的准确率;同时,由于通过两个分类器,以及类似并行的方式进行异常人脸的检测,从而可以提供异常人脸检测的效率,尽可能地满足用户的实时性要求。
与前述异常人脸检测方法的实施例相对应,本申请还提供了异常人脸检测装置的实施例。
本申请异常人脸检测装置的实施例可以应用在网络设备,例如摄像机、服务器上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在网络设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图3所示,为本申请异常人脸检测装置所在网络设备的一种硬件结构图,除了图3所示的处理器31、内存32、网络接口33、以及非易失性存储器34之外,实施例中装置所在的网络设备通常根据该网络设备的实际功能,还可以包括其他硬件,对此不再赘述。
请参考图4,为本申请异常人脸检测装置的一个实施例框图,该装置可以包括:第一确定模块41、人脸确定模块42、第二确定模块43、异常人脸确定模块44。
其中,该第一确定模块41,可以用于根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;
该人脸确定模块42,可以用于根据所述待检区域的宽和高之间的比较关系,选择对应的已训练的分类器确定所述待检区域中是否为人脸;
该第二确定模块43,可以用于当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;
该异常人脸确定模块44,可以用于当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。
在一实施例中,当所述待检区域的宽小于高时,该第二确定模块43可以包括(图4中并未示出):
第一获取子模块,可以用于获取第一子区域,所述第一子区域位于所述待检区域中,且所述第一子区域的上边界与所述待检区域的上边界重合,所述第一子区域的高度为α,所述α的取值范围为所述H1为所述待检区域的高度;
第一确定子模块,可以用于确定所述第一子区域中肤色区域的肤色占比,以及确定所述第一子区域对应的占比阈值。
在一实施例中,当所述待检区域的宽大于高时,该第二确定模块43可以包括(图4中并未示出):
扩展子模块,可以用于基于所述待检区域进行扩展,得到人脸区域;
第二获取子模块,可以用于获取第二子区域,所述第二子区域位于所述人脸区域中,且所述第二子区域的下边界与所述人脸区域的下边界重合,所述第二子区域的高度为β,所述β的取值范围为所述H2为所述人脸区域的高度;
第二确定子模块,可以用于确定所述第二子区域中肤色区域的肤色占比,以及确定所述第二子区域对应的占比阈值。
在一实施例中,第一确定子模块可以包括(图4中并未示出):
第一二值化子模块,可以用于对所述第一子区域进行二值化处理,得到第一二值化图像;
第一投影子模块,可以用于确定所述第一二值化图像的第一水平投影曲线;
第一波峰确定子模块,可以用于在所述第一水平投影曲线上,确定最高的两个波峰各自对应的横轴位置y1和y2;
第一计算子模块,可以用于根据第一公式计算得出所述第一子区域对应的占比阈值;
在一实施例中,所述第二确定子模块可以包括(图4中并未示出):
第二二值化子模块,可以用于对所述第二子区域进行二值化处理,得到第二二值化图像;
第二投影子模块,可以用于确定所述第二二值化图像的第二水平投影曲线;
第二波峰确定子模块,可以用于在所述第二水平投影曲线上,确定最高的波峰对应的横轴位置y0;
第二计算子模块,可以用于根据第二公式计算得出所述第二子区域对应的占比阈值;
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (10)
1.一种异常人脸检测方法,其特征在于,所述方法包括:
根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;
根据所述待检区域的宽和高之间的比较关系,选择与所述比较关系对应的已训练的分类器确定所述待检区域中是否为人脸;
当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;
当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。
6.一种异常人脸检测装置,其特征在于,所述装置包括:
第一确定模块,用于根据拍摄到的视频图像确定待检区域,所述待检区域为矩形;
人脸确定模块,用于根据所述待检区域的宽和高之间的比较关系,选择与所述比较关系对应的已训练的分类器确定所述待检区域中是否为人脸;
第二确定模块,用于当确定所述待检区域中为人脸时,根据所述待检区域确定肤色占比以及占比阈值;
异常人脸确定模块,用于当所述肤色占比不大于所述占比阈值时,确定所述人脸为异常人脸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710097644.0A CN108460319B (zh) | 2017-02-22 | 2017-02-22 | 异常人脸检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710097644.0A CN108460319B (zh) | 2017-02-22 | 2017-02-22 | 异常人脸检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108460319A CN108460319A (zh) | 2018-08-28 |
CN108460319B true CN108460319B (zh) | 2021-04-20 |
Family
ID=63220128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710097644.0A Active CN108460319B (zh) | 2017-02-22 | 2017-02-22 | 异常人脸检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108460319B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784898B (zh) * | 2018-12-20 | 2021-09-14 | 深圳云天励飞技术有限公司 | 乘车支付方法及相关装置 |
CN109657652A (zh) * | 2019-01-16 | 2019-04-19 | 平安科技(深圳)有限公司 | 一种人脸识别方法和装置 |
CN109902593A (zh) * | 2019-01-30 | 2019-06-18 | 济南大学 | 一种基于Kinect的手势遮挡检测方法及系统 |
CN110517246B (zh) * | 2019-08-23 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359372B (zh) * | 2008-09-26 | 2011-05-11 | 腾讯科技(深圳)有限公司 | 分类器的训练方法及装置、识别敏感图片的方法及装置 |
KR20120045667A (ko) * | 2010-10-29 | 2012-05-09 | 삼성전자주식회사 | 움직임 인식을 이용한 사용자 인터페이스 장치 및 방법 |
CN102542246A (zh) * | 2011-03-29 | 2012-07-04 | 广州市浩云安防科技股份有限公司 | Atm机异常人脸检测方法 |
CN102867172B (zh) * | 2012-08-27 | 2016-12-21 | Tcl集团股份有限公司 | 一种人眼定位方法、系统及电子设备 |
CN103996203A (zh) * | 2014-06-13 | 2014-08-20 | 北京锐安科技有限公司 | 一种检测图像面部遮挡的方法和装置 |
CN105160297B (zh) * | 2015-07-27 | 2018-09-14 | 华南理工大学 | 基于肤色特征的蒙面人事件自动检测方法 |
-
2017
- 2017-02-22 CN CN201710097644.0A patent/CN108460319B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108460319A (zh) | 2018-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
CN105354563B (zh) | 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法 | |
Subburaman et al. | Counting people in the crowd using a generic head detector | |
KR101215948B1 (ko) | 신체정보 및 얼굴인식에 기반한 감시 시스템의 영상정보 마스킹 방법 | |
KR101180887B1 (ko) | 이상행위 검출장치 및 방법 | |
CN108460319B (zh) | 异常人脸检测方法及装置 | |
WO2018006834A1 (en) | Systems, processes and devices for occlusion detection for video-based object tracking | |
JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
CN109002786B (zh) | 人脸检测方法、设备及计算机可读存储介质 | |
EP2662827B1 (en) | Video analysis | |
WO2019114145A1 (zh) | 监控视频中人数检测方法及装置 | |
JP2019071050A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016163328A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2014006586A (ja) | 情報処理装置及びその制御方法、コンピュータプログラム | |
CN111372043A (zh) | 异常检测方法以及相关设备、装置 | |
CN112232186A (zh) | 防疫监测方法与系统 | |
JP2018097611A (ja) | 画像処理装置およびその制御方法 | |
JP2007312271A (ja) | 監視システム | |
US20200074612A1 (en) | Image analysis apparatus, image analysis method, and recording medium | |
CN117372943A (zh) | 使用视频分析来标识和跟踪遗弃的对象 | |
CN114764895A (zh) | 异常行为检测装置和方法 | |
KR100920937B1 (ko) | 감시 시스템에서의 움직임 검출 및 영상 저장 장치 및 방법 | |
JP2019029747A (ja) | 画像監視システム | |
KR101926510B1 (ko) | 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템 | |
US20190279477A1 (en) | Monitoring system and information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |