CN115147868A - 客流相机的人体检测方法、客流相机、装置及存储介质 - Google Patents
客流相机的人体检测方法、客流相机、装置及存储介质 Download PDFInfo
- Publication number
- CN115147868A CN115147868A CN202210748003.8A CN202210748003A CN115147868A CN 115147868 A CN115147868 A CN 115147868A CN 202210748003 A CN202210748003 A CN 202210748003A CN 115147868 A CN115147868 A CN 115147868A
- Authority
- CN
- China
- Prior art keywords
- human body
- target
- detection result
- body detection
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 258
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 39
- 210000000746 body region Anatomy 0.000 claims description 38
- 230000003068 static effect Effects 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 17
- 238000010586 diagram Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000037237 body shape Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011897 real-time detection Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910052731 fluorine Inorganic materials 0.000 description 1
- 125000001153 fluoro group Chemical group F* 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 241000238565 lobster Species 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种客流相机的人体检测方法、客流相机、装置及存储介质,用于提升针对深度图像的人体检测效果。本申请方法包括:对输入的深度图像进行预处理,得到待检测图像;通过背景建模确定所述待检测图像中的画面运动区域;对所述画面运动区域进行聚类处理以确定人体区域集合,并根据所述人体区域集合计算第一人体检测结果;对所述第一人体检测结果中的个体目标进行区分,以修正所述第一人体检测结果;对修正后的所述第一人体检测结果进行重定向处理,得到目标人体检测结果。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种客流相机的人体检测方法、客流相机、装置及存储介质。
背景技术
在消费电子、安防、交通等领域场景下,常常需要进行客流统计来更好的判断人群的动向。对于客流统计而言,人体检测是客流统计的必要且至关重要的环节,其检测准确率将直接影响到最终的统计精度。
现有技术中,基于RGB图像的人体检测技术已较为成熟,业内通常采用基于HOG+SVM的检测方案或基于深度学习的检测方案来通过RGB图像进行客流统计。现有技术中还存在一类使用基于TOF、结构光的深度相机获取深度图像,再利用深度图像进行人体检测以及客流统计的方法,但这类基于深度图像进行人体检测的方法仅仅是从基于RGB图像的人体检测方法直接迁移得到,由于深度图像与RGB图像采集原理不同,成像存在较大的差异,导致实际检测效果不佳,难以通过深度图像得到理想的人体检测结果。
发明内容
本申请提供了一种客流相机的人体检测方法、客流相机、装置及存储介质,用于提升针对深度图像的人体检测效果。
本申请第一方面提供了一种客流相机的人体检测方法,包括:
对输入的深度图像进行预处理,得到待检测图像;
通过背景建模确定所述待检测图像中的画面运动区域;
对所述画面运动区域进行聚类处理以确定人体区域集合,并根据所述人体区域集合计算第一人体检测结果;
对所述第一人体检测结果中的个体目标进行区分,以修正所述第一人体检测结果;
对修正后的所述第一人体检测结果进行重定向处理,得到目标人体检测结果。
可选的,所述根据所述人体区域集合计算第一人体检测结果包括:
确定所述人体区域集合的包围盒;
通过预设约束对所述包围盒进行筛选,并将筛选出的所述包围盒确定为第一人体检测结果。
可选的,所述预设约束包括:人体区域面积约束、人体身高约束、包围盒尺寸比约束和/或边界限位约束。
可选的,所述人体区域面积约束包括:单人区域最小面积约束及多人粘连区域最大面积约束,或撕裂区域最小面积约束及多人粘连区域最大面积约束。
可选的,所述对所述第一人体检测结果中的个体目标进行区分,以修正所述第一人体检测结果包括:
对所述第一人体检测结果进行粘连拆分和/或撕裂合并以修正所述第一人体检测结果,所述粘连拆分为将所述第一人体检测结果中发生粘连的目标进行拆分的处理,所述撕裂合并为将所述第一人体检测结果中发生撕裂的目标进行合并的处理。
可选的,所述对所述第一人体检测结果进行粘连拆分和/或撕裂合并以修正所述第一人体检测结果包括:
若所述第一人体检测结果中存在动态粘连目标,则对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理,并重新计算所述第一人体检测结果;
若所述第一人体检测结果中存在静态粘连目标,则对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理,并重新计算所述第一人体检测结果;
若所述第一人体检测结果中存在撕裂目标,则对所述第一人体检测结果中的撕裂目标执行撕裂合并处理,并重新计算所述第一人体检测结果。
可选的,在对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理之前,所述方法还包括:
将当前帧的第一人体检测结果与上一帧的第一人体检测结果进行数据关联,判断数据关联结果中是否存在一对多的情况;
若是,则确定所述第一人体检测结果中存在动态粘连目标。
可选的,所述对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理包括:
根据所述数据关联结果计算所述动态粘连目标与对应的关联目标之间的基础区域与待定区域,所述基础区域为所述动态粘连目标与所述对应的关联目标之间的重叠区域,所述待定区域为所述动态粘连目标中除去所述基础区域的剩余区域;
确定所述待定区域中像素的归属,直至所述待定区域消失。
可选的,在对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理之前,所述方法还包括:
判断当前帧的第一人体检测结果中目标的包围盒尺寸比是否大于预设阈值;
若所述目标的包围盒尺寸比大于预设阈值,则进一步判断所述目标的上部区域是否符合预设头肩特征;
若所述目标的上部区域符合预设头肩特征,则将所述目标确定为静态粘连目标。
可选的,所述对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理包括:
计算所述静态粘连目标中上部区域的积分投影,并根据所述积分投影确定目标拆分位置;
以所述目标拆分位置上的竖直线作为分割线对所述静态粘连目标进行拆分。
可选的,在所述对所述第一人体检测结果中的撕裂目标执行撕裂合并处理之前,所述方法还包括:
对所述第一人体检测结果中任一两个目标,判断所述两个目标在竖直方向上是否满足邻近条件;
若满足所述邻近条件,则进一步根据深度值判断所述两个目标中在上的目标是否比在下的目标距离摄像头更近;
若所述两个目标中在上的目标比在下的目标距离摄像头更近,则确定所述第一人体检测结果中存在撕裂目标,并将所述两个目标进行关联。
可选的,所述对所述第一人体检测结果中的撕裂目标执行撕裂合并处理包括:
对所述第一人体检测结果中互相关联的两个目标进行合并。
可选的,所述对所述画面运动区域进行聚类处理以确定人体区域集合包括:
通过图像掩膜将所述画面运动区域以内的像素标记为有效像素,并将所述画面运动区域以外的像素标记为无效像素;
根据所述图像掩膜和所述待检测图像对所述有效像素进行聚类处理得到人体区域集合。
可选的,所述聚类处理中采用深度优先搜索或广度优先搜索。
可选的,所述根据所述人体区域集合计算第一人体检测结果之后,所述方法还包括:
确定人头顶点集合,并根据所述人头顶点集合生成人头检测框;
在所述对修正后的所述第一人体检测结果进行重定向处理,得到目标人体检测结果之后,所述方法还包括:
以所述人头检测框输出所述目标人体检测结果。
可选的,所述对输入的深度图像进行预处理,得到待检测图像包括:
对所述深度图像进行下采样和/或格式转换,并按照预设深度范围进行深度选通,得到待检测图像。
可选的,所述深度图像基于深度摄像头获取,所述深度摄像头水平布置或倾斜向下布置于预设高度上。
本申请第二方面提供了一种客流相机,包括:处理器和深度摄像头,所述处理器在运行过程中执行如第一方面以及第一方面中任一项可选的客流相机的人体检测方法。
本申请第三方面提供了一种客流相机的人体检测装置,所述装置包括:
处理器、存储器、输入输出单元以及总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述存储器保存有程序,所述处理器调用所述程序以执行第一方面以及第一方面中任一项可选的客流相机的人体检测方法。
本申请第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行第一方面以及第一方面中任一项可选的客流相机的人体检测方法。
从以上技术方案可以看出,本申请具有以下优点:
本申请提供的客流相机的人体检测方法检测可靠,结合修正机制对检测结果中的个体目标进行区分,以应对深度图像中人体形状缺失和目标粘连、撕裂等各种复杂场景,大大提升了针对深度图像的人体检测效果,从而保证客流统计的精度。并且本申请提供的客流相机的人体检测方法运算速度快,对算力要求低,在中低端嵌入式平台CPU上运行也可达到实时检测,便于部署且适用性广,具有大规模推广应用的前景。
附图说明
为了更清楚地说明本申请中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的客流相机的人体检测方法一个实施例流程示意图;
图2-a为本申请提供的客流相机的人体检测方法中粘连拆分效果示意图;
图2-b为本申请提供的客流相机的人体检测方法中撕裂合并效果示意图;
图3为本申请提供的客流相机的人体检测方法另一个实施例流程示意图;
图4为本申请提供的客流相机的人体检测方法中应用端显示效果改善示意图;
图5-a为本申请提供的客流相机的人体检测方法中动态粘连拆分的流程示意图;
图5-b、图5-c和图5-d为动态粘连拆分的效果示意图;
图6-a为本申请提供的客流相机的人体检测方法中静态粘连拆分的流程示意图;
图6-b和图6-c为静态粘连拆分的效果示意图;
图7为本申请提供的客流相机的人体检测方法中撕裂合并的流程示意图;
图8为本申请提供的客流相机的人体检测装置一个实施例结构示意图。
具体实施方式
本申请提供了客流相机的人体检测方法、客流相机、装置及存储介质,用于提升针对深度图像的人体检测效果。
需要说明的是,本申请提供的客流相机的人体检测方法,可以应用于客流相机、深度相机以及其它终端,还可以应用于服务器上,其它终端可以是智能手机或电脑、平板电脑、智能电视、智能手表、便携计算机终端也可以是台式计算机等具备运算以及数据分析能力的智能终端。为方便阐述,本申请中以终端为执行主体进行举例说明。
请参阅图1,图1为本申请提供的客流相机的人体检测方法的一个实施例,该方法包括:
101、对输入的深度图像进行预处理,得到待检测图像;
本实施例提供的人体检测方法主要应用于客流相机中,基于深度图像实现人体检测和后续的客流统计。深度图像相较于RGB图像而言,深度图像效果不易受光照变化影响,在暗光甚至夜间都能正常采集图像;并且深度图像不具有颜色、纹理等信息,不会记录人的外貌信息,消除人们对隐私的担忧;深度图像包含距离信息,便于基于距离判断的功能应用。因此,越来越多的客流相机选用这类深度相机。
但是实际应用中,客流相机需要保证覆盖到较大的检测范围,因此往往会搭载大视场角的深度镜头,大视场角虽然视野更广,但在人体靠近画面边缘时产生的畸变和倾斜也会更严重;另一方面,深度图像中人体部位,比如人头、身体边缘、腿部及其他低反位置容易出现空洞或缺失,严重的情况下头部或腿部形状完全缺失。也就是说,深度图像中的人体不仅非理想形状,而且往往不具备稳健的特征,这使得常规的针对单帧图像的机器学习或深度学习的方案难以得到理想的检测结果。本实施例则提供了一种客流相机的人体检测方法,能够提升针对深度图像的人体检测效果。
在本实施例中,终端首先对输入的深度图像进行预处理,该预处理包括但不限于对深度图像进行下采样和格式转换,以便能够减少计算量,提高检测速度。
需要说明的是,本实施例中深度图像的视频流可以是历史视频流或者实时获得的视频流,其可以为存储在数据库中,历史时间内通过拍摄获得的,也可以是通过客流相机实时拍摄的,具体此处不做限定。进一步的,本实施例提供的人体检测方法尤其适用于针对深度摄像头(客流相机)布置在一定高度的水平拍摄场景或有一定向下倾角的倾斜拍摄场景,即在上述两种拍摄场景中检测效果最佳。
102、通过背景建模确定待检测图像中的画面运动区域;
终端通过背景建模确定待检测图像中的画面运动区域。背景建模对于相机固定且画面背景变化缓慢的场景,可直接用于运动目标检测或作为前处理环节减少搜索范围进而减少计算量。背景建模的主要优势在于计算量相对较小、速度快。并且在客流统计场景下所获取的深度图像中,人体形状往往是不完整且不固定的,比如人体头部或腿部缺失,大视场角的摄像头获取靠近画面边缘人体的图像会畸变、倾斜严重,常规视角的摄像头基于单帧的检测手段则无法实现有效的人体检测。在本实施例中,通过背景建模来确定待检测图像中画面运动区域,能够充分考虑多帧信息,将运动目标(行人)与画面背景区分开来,降低背景对检测结果的干扰。
在一些具体的实施例中,背景建模可采用码本算法CodeBook或LOBSTER算法实现。
103、对画面运动区域进行聚类处理以确定人体区域集合,并根据人体区域集合计算第一人体检测结果;
终端对步骤102中得到的画面运动区域进行聚类,具体是对画面运动区域中的有效像素进行聚类,得到簇的集合,即本申请中的人体区域集合。具体的,聚类处理是指对于任意已在簇中的一个像素A,遍历其邻域像素,对任一有效的邻域像素Ni,若Ni与A的像素值之差的绝对值小于预设的簇内相似度阈值S,则将Ni加入到A所在的簇中,否则新建一个簇并将Ni加入其中并继续聚类。
上述得到的人体区域集合通常已包含主要的人体区域,但并不能直接将各个簇直接当作人体区域。这是由于:
1)所得簇可能包括噪声区域、运动物体和误检的背景等非人体区域;
2)当人体相互接触或遮挡时,所得的簇区域粘连在一起,而非一个个独立的人体区域,即本申请中所指的“粘连”;
3)一些场景中,比如深度图中人体区域不连通或人体部分区域深度值变化较大不连续时,属于同一人体目标的簇可能不止一个,即本申请中所指的“撕裂”。
为了解决上述问题,在得到人体区域集合后,还需进一步根据人体区域集合计算对应的第一人体检测结果,即终端遍历簇集合,求得所有簇的包围盒,将其作为该簇的检测框,得到第一人体检测结果。
具体的,终端遍历簇的所有像素,求得簇中像素x、y坐标最小值、最大值:xmin、ymin、xmax、ymax,即可确定相应的包围盒矩形,该矩形即为目标检测框。
需要说明的是,该第一人体检测结果至少包括人体区域集合和人体包围盒集合。
104、对第一人体检测结果中的个体目标进行区分,以修正第一人体检测结果;
为了进一步解决步骤103中提到的问题,终端在初步计算得到第一人体检测结果后,还需要对该第一人体检测结果进行修正,修正的目的是对第一人体检测结果中的个体目标进行区分。第一人体检测结果中可能会出现多个个体目标相粘连或单个个体目标撕裂的现象,其中粘连是指由于两个及两个以上的个体目标由于距离较近,所得的簇区域粘连在一起,导致计算得到的人体检测结果中两个及两个以上个体目标被视为一个目标的情况,撕裂则是指由于特征的缺失,比如深度图像中人体区域不连通,或人体部分区域深度值变化较大不连续(还包括行人抬手、戴帽子、撑伞等),导致前述步骤中得到的属于同一人体目标的簇可能不止一个,即一个个体目标被视为两个目标的情况。这些误检对于客流相机而言,最终都会影响客流统计精度。
在本实施例中,终端将对第一人体检测结果中的个体目标进行区分,以修正该第一人体检测结果,提升检测准确率,从而保证客流统计的精度。
需要说明的是,对第一人体检测结果进行区分修正后得到的结果是目标簇(人体区域集合),因此终端还需要重新执行步骤103中根据人体区域集合计算第一人体检测结果的步骤,以得到修正后的第一人体检测结果。
以粘连拆分为例,请参阅图2-a,图2-a中的左下图为根据人体区域集合计算得到的第一人体检测结果,由于个体目标发生粘连,三个个体目标被检测为了一个目标,这将直接导致客流计数的不准确。图2-a中的右下图为经过个体目标区分的修正后的第一人体检测结果,发生粘连的个体目标被拆分为三个目标,对应真实的行人数量,从而能够实现准确的客流计数。
以撕裂合并为例,请参阅图2-b,图2-b中的左图为根据人体区域集合计算得到的第一人体检测结果,其中个体目标发生了撕裂,同一个个体目标被检测为了上下两个目标,这也将导致客流计数的不准确。图2-b中的右图为经过了个体目标区分的修正后的第一人体检测结果,发生撕裂的个体目标被合并为一个目标,对应真实的行人数量,从而能够实现准确的客流计数。
105、对修正后的第一人体检测结果进行重定向处理,得到目标人体检测结果。
若步骤101的预处理有对深度图像进行下采样,则步骤104中得到的第一人体检测结果对应的检测框是基于下采样后的图像分辨率,所以需要将其重定向转回基于原始深度图像分辨率,再将重定向后的检测框集合作为最终人体检测结果输出,即目标人体检测结果。具体的,终端记步骤101中下采样的比例为A,然后将第一人体检测结果中将所有检测框位置、尺寸按照比例1/A进行缩放,并将重定向后的检测框作为目标人体检测结果进行输出。
本实施例提供的客流相机的人体检测方法检测可靠,结合修正机制对检测结果中的个体目标进行区分,以应对深度图像中人体形状缺失和目标粘连、撕裂等各种复杂场景,大大提升了针对深度图像的人体检测效果,从而保证客流统计的精度。并且本申请提供的客流相机的人体检测方法运算速度快,对算力要求低,在中低端嵌入式平台CPU上运行也可达到实时检测,便于部署且适用性广,具有大规模推广应用的前景。
本申请中的修正处理主要分为对个体目标的粘连拆分处理和撕裂合并处理,下面将对本申请提供的粘连拆分机制以及撕裂合并机制进行详细描述,请参阅图3,图3为本申请提供的客流相机的人体检测方法另一个实施例,该人体检测方法包括:
301、对输入的深度图像进行预处理,得到待检测图像;
终端对输入的深度图像进行预处理,该预处理具体包括下采样和/或格式转换,还包括对处理后的图像进行阈值选通,然后得到待检测图像。
具体的,下采样和/或格式转换包括:若深度图像分辨率较大,则对原始深度图像进行下采样(即缩小);若深度图像位深度大于8bit,则将其转换为8bit图像,以便减少计算量,提高检测速度。下采样和格式转换顺序可以互换,优选的,终端先对原始深度图像进行下采样,再将下采样的深度图像转换为8bit图像。
进一步的,终端还需要对经过上述处理后的深度图像进行深度选通,即预先设定好深度范围[Imin,Imax],将不符合该深度范围的像素值置为0。需要说明的是,Imin、Imax可根据应用需求和实际场景而作具体设定。通过深度选通可以初步筛选出一些暗部(近距离)噪声和亮部(远距离)噪声,有利于改善检测效果。
302、通过背景建模确定待检测图像中的画面运动区域;
本实施例中,步骤302与前述实施例步骤102类似,此处不再赘述。
303、通过图像掩膜将画面运动区域以内的像素标记为有效像素,并将画面运动区域以外的像素标记为无效像素;
终端在得到画面运动区域后,则通过制作一个和待检测图像同等分辨率的图像掩膜用以标记像素是否有效。具体地,将步骤302中所得画面运动区域对应像素标记为有效,其余区域像素标记为无效。
进一步,终端还可以将图像掩膜的上、下、左、右边界像素都标记为无效,以便在后续执行聚类时避免对每个像素进行边界校验,提高效率。
304、根据图像掩膜和待检测图像对有效像素进行聚类处理得到人体区域集合;
终端根据图像掩膜和待检测图像,对步骤303中所有标记有效的像素进行聚类得到簇的集合,即本申请中的人体区域集合。具体的,聚类处理是指对于任意已在簇中的一个像素A,遍历其邻域像素,对任一有效的邻域像素Ni,若Ni与A的像素值之差的绝对值小于预设的簇内相似度阈值S,则将Ni加入到A所在的簇中,否则新建一个簇并将Ni加入其中并继续聚类。
进一步,由于聚类会涉及到图像的搜索,在一些具体的实施例中,可以采用深度优先搜索(Depth-First-Search,DFS),也可以采用广度优先搜索(Breadth-First-Search,BFS)。优选采用广度优先搜索,避免递归且内存消耗小,以便提升计算速度。
305、确定人体区域集合的包围盒;
终端遍历步骤304中得到的人体区域集合,即簇集合,对每个簇求其AABB包围盒,以之作为该簇的检测框。求AABB包围盒的过程为:遍历簇的所有像素,求得簇中像素x、y坐标最小值、最大值:xmin、ymin、xmax、ymax,即可确定相应的包围盒矩形,该矩形即为目标检测框。
在一些具体的实施例中,终端还可以进一步的在求簇中像素x、y坐标最小值、最大值过程中,同时求得各簇最高点(其高度为ymax)对应的像素位置,进而得到各簇顶点坐标集合。从而能够以该最高点作为顶点,后续可以其为头顶基准生成小的人头框以替代人体包围盒,这样在多人且粘连的场景中,能够避免输出密集且重叠的检测框,从而改善应用端上的显示效果。
请参阅图4,图4中的上图为改善前的显示,图4中的下图为使用人头框替代人体包围盒进行改善后的显示效果,大大提升了用户体验。
306、通过预设约束对包围盒进行筛选,并将筛选出的包围盒确定为第一人体检测结果;
终端在计算得到人体区域集合的包围盒后,则通过预设约束对得到的包围盒进行筛选。
具体的,该预设约束包括但不限于:人体区域面积约束、包围盒尺寸比约束、边界限位约束以及身高约束,下面将分别进行说明。
1)人体区域面积约束;
具体为,设定目标面积阈值范围[Amin,Amax],丢弃面积不在该设定范围内的目标。目标面积即簇中像素个数。进一步的,Amin取值应考虑单人区域面积最小极限,而Amax取值应考虑粘连场景多人区域面积最大极限,这是考虑到多人粘连的情形,首先将该区域保留下来,留待后续粘连拆分环节予以修正。可选的,Amin取值也可比单人区域面积最小极限更小,其意图是考虑到单个人体区域撕裂的情形,首先保留这些结果,留待后续撕裂合并环节予以修正。
2)包围盒尺寸比约束;
需要说明的是,该包围盒尺寸比约束可具体为包围盒宽高比约束或包围盒高宽比约束或其它包围盒尺寸比约束,具体此处不做限定。此处以包围盒宽高比约束为例:
具体为,设定目标检测框宽高比范围[Rmin,Rmax],丢弃检测框宽高比不在该设定范围内的目标。宽高比即包围盒的高度与宽度的比值。进一步,Rmin取值应考虑单人包围盒宽高比最小极限,而Rmax取值应考虑粘连场景多人包围盒宽高比最大极限,与前述[Amin,Amax]同理。
3)边界限位约束;
具体为,根据应用需求和实际场景特性,设置上下左右边界线,丢弃中心点超出边界线的目标。具体的,该中心点为包围盒中心点或人体区域形心,优选该中心点为人体区域形心。其目的在于当人体处于图像边界形状缺失较多时,直接忽略不计。
4)身高约束;
具体为设定高度阈值HT,丢弃高度低于高度阈值的目标。其目的在于筛除一些被误检的低矮物体,比如因挪动而被背景建模模块当作运动区域的椅子。具体高度判别方案有两种,优选采用方案二:
方案一,通过相机内外参和目标的像素坐标,估算深度图像中的目标的实际身高,再将该估计值与高度阈值进行比较;
方案二,采用高度标定的方式,对高度阈值HT所在的高度平面进行深度图采集得到基准深度图,或者,记录相机高度Hc,将相机布置在Hc-HT的高度,然后采集地面深度图作为基准深度图,实际使用过程中通过将目标深度与基准深度图进行比较以确定目标与基准深度图的高度高低关系,从而判别目标是否低于HT。
需要说明的是,在上述筛选过程中,簇和包围盒总是对应的,当某个簇被筛选掉时,相应的包围盒也要被同步删除,反之亦然。
并且在实际应用中,步骤306将可能被执行多次,其中身高约束不必每次都执行,对于总的检测过程中执行一次即可。具体为:后续步骤307至309在执行相应拆分或合并处理之后,均需要重新求所有簇的包围盒并通过人体面积约束、包围盒宽高比和边界限位约束对结果进行筛选,而通过身高约束筛选检测结果则作为一个单独的步骤放在上述步骤之后且仅执行一遍。
下述步骤307至步骤308即为本申请中执行粘连拆分的具体过程,其中本申请将目标发生粘连的类型分为两种,并分别给出相应的拆分处理方案:其一是目标由分开到粘连,对应本申请中的动态粘连,具体可参阅步骤307;其二是目标一开始就粘连,对应本申请中的静态粘连,具体可参阅步骤308。
307、若第一人体检测结果中存在动态粘连目标,则对第一人体检测结果中的动态粘连目标执行第一粘连拆分处理,并重新计算第一人体检测结果;
步骤307为动态粘连的拆分过程,其整体流程为判断是否存在动态粘连,若存在则进行第一粘连拆分处理并重新计算第一人体检测结果。
请参阅图5-a,针对动态粘连进行判断及粘连拆分的整体步骤包括:
3071、将当前帧的第一人体检测结果与上一帧的第一人体检测结果进行数据关联,判断数据关联结果中是否存在一对多的情况;
终端将当前帧的检测结果(包括包围盒和簇)与上一帧的检测结果进行数据关联,类似多目标跟踪(Multiple Target Tracking)领域的数据关联,若当前场景未发生目标粘连,则相应的数据关联结果应当均为“一对一”的关系;而当目标开始粘连时,数据关联结果中会出现“一对多”的情况。
具体的,该数据关联过程中采用IoM(Intersection over Minimum)匹配替代常规的IoU(Intersection over Union)匹配。对于目标A、B,其IoM计算公式为:
其中,Intersection(A,B)表示目标A、B的重叠面积,SA、SB分别表示目标A、B的面积。具体的,若以目标包围盒进行数据关联,则重叠面积和目标面积均根据目标包围盒来计算;若以目标簇进行数据关联,则相应的重叠面积和目标面积均根据目标簇来计算。
进一步的,在一些具体的实施例中,上述验证过程可具体设置为两步验证,能够进一步提高动态粘连的判定效率:
一、首先将当前帧检出的目标包围盒与上一帧目标包围盒进行数据关联,若存在“一对多”的情况,则进行下一步追加验证,否则,可直接判定不存在无动态粘连;
二、对第一步验证中数据关联结果中为“一对多”的目标,再使用目标簇替代目标包围盒进行二次关联或确认,若依然存在“一对多”的情形,才判别为存在动态粘连,否则,判定为不存在动态粘连。
3072、若是,则确定第一人体检测结果中存在动态粘连目标;
通过确认数据关联结果中是否存在“一对多”的情况,即可判定是否发生目标由分开到粘连的情形,即判定第一人体检测结果中是否存在动态粘连目标。若判断为是,则确定第一人体检测结果中存在动态粘连目标,同时将数据关联结果输出至粘连拆分环节。若判断为否,则确定第一人体检测结果中不存在动态粘连目标,无需进行动态粘连的拆分。
具体的,请参阅图5-b,图5-b中DA prev、DB prev分别表示上一帧的关联目标A、B,DAB curr表示当前帧检出的动态粘连目标,DAB curr与DA prev、DB prev这2个目标同时关联,属于“一对多”的情形,终端则需要执行后续步骤3073及3074将DAB curr拆分成两个目标。
3073、根据数据关联结果计算动态粘连目标与对应的关联目标之间的基础区域与待定区域,基础区域为动态粘连目标与对应的关联目标之间的重叠区域,待定区域为动态粘连目标中除去基础区域的剩余区域;
基于上述动态粘连判断过程得到的数据关联结果,对“一对多”的关联项逐个拆分,对于每个“一对多”的关联项,终端首先计算动态粘连目标与对应的关联目标之间的重叠区域,即本申请中的基础区域,各基础区域自动归属于对应的关联目标。此外,终端还需要计算待拆分区域中除去基础区域之外的剩余区域,即本申请中的待定区域。
具体的,请参阅图5-c,图5-c中DAB curr与关联目标DA prev的重叠区域即为基础区域A,DAB curr与关联目标DB prev的重叠区域即为基础区域B,基础区域A、B则为DAB curr的初步拆分结果,DAB curr中除去区域A、B的区域则为待定区域。
3074、确定待定区域中像素的归属,直至待定区域消失。
终端对该待定区域进行收缩,直至无待定区域。收缩的过程即为确定待定区域元素/像素归属于哪个目标的过程。在一些具体的实施例中,可以以待定区域边界为限,对基础区域进行区域生长,每次迭代的新增区域即归属为相应的基础区域,直至无待定区域。
具体的,请参阅图5-d,图5-d中DA curr及DB curr即为动态粘连拆分出的两个目标。
需要说明的是,对于拆分后的目标簇,终端还需要重新根据目标簇计算包围盒,并通过预设约束进一步筛选。
308、若第一人体检测结果中存在静态粘连目标,则对第一人体检测结果中的静态粘连目标执行第二粘连拆分处理,并重新计算第一人体检测结果;
上述步骤307中提到的粘连拆分机制可以很好地处理动态粘连的问题,但对于静态粘连,即目标一开始就粘连的情形却不适用。为此,本实施例中还提出了针对静态粘连的的粘连拆分机制,该机制主要从单帧的人体特征出发,来判断和处理相应的粘连。步骤308为静态粘连的拆分过程,其整体流程为判断是否存在静态粘连,若存在则进行第二粘连拆分处理并重新计算第一人体检测结果。
请参阅图6-a,针对静态粘连进行判断及粘连拆分的整体步骤包括:
3081、判断当前帧的第一人体检测结果中目标的包围盒尺寸比是否大于预设阈值;
3082、若目标的包围盒尺寸比大于预设阈值,则进一步判断目标的上部区域是否符合预设头肩特征;
3083、若目标的上部区域符合预设头肩特征,则将目标确定为静态粘连目标;
终端首先判断目标包围盒尺寸比大于预设阈值R。其中,该尺寸比具体可以为宽高比或高宽比以及其它尺寸比。若包围盒尺寸比为包围盒宽高比,R的取值通常大于常规单人宽高比。进一步的,终端还需要判断该目标的上部区域是否符合预设头肩特征。当上述两个条件均满足时,终端才确定第一人体检测结果中存在静态粘连,并将对应的目标确定为静态粘连目标。
具体的,请参阅图6-b,终端在确定目标的包围盒尺寸比大于预设阈值后,取该目标上部区域作为ROI区域,即待分析区域,对于该ROI区域计算积分投影,并且求积分投影曲线的波峰、波谷。对于任一波谷Pi trough,若其左右各有一个波峰Pi-1 peak、Pi+1 peak,,且该波谷Pi trough到两个波峰Pi-1 peak、Pi+1 peak的水平、竖直间距均符合预设范围,则认为其符合预设头肩特征。简而言之,就是基于积分投影来判断该ROI区域是否存在符合“头-肩-头”的规律。
具体的,波谷Pi trough到两个波峰Pi-1 peak、Pi+1 peak的水平、竖直间距预设范围为:
其中,Tx、Ty分别为预设的水平、竖直方向间距阈值。
进一步的,为了更好地得到波峰、波谷,可以对积分投影曲线进行平滑,比如采用中值滤波+均值滤波,或者采用卡尔曼滤波,具体此处不做限定。
3084、计算静态粘连目标中上部区域的积分投影,并根据积分投影确定目标拆分位置;
3085、以目标拆分位置上的竖直线作为分割线对静态粘连目标进行拆分。
对于步骤3083中计算得到的积分投影,即ROI区域的积分投影,终端将其波谷Pi trough所在位置,也就是人体“肩部”所在位置作为目标拆分位置,并以该目标拆分位置上的竖直线作为分割线对目标进行拆分,实现静态粘连目标的拆分。
请参阅图6-c,图6-c左图为静态粘连目标以及对应的分割线,图6-c右图为静态粘连的拆分结果。
进一步,将静态粘连目标一分为二,可以是通过目标拆分位置的竖直线简单地一分两半,也可以在其基础上结合目标特征(比如边缘)以曲线进行分割,具体不做限定。使用竖直线简单进行拆分虽然拆分的形状相对粗糙,但拆分效率高,而且对于客流统计的应用场景而言,主要关注于能准确区分人数,而人体区域形状无需特别精确。
需要说明的是,对于拆分后的目标簇,终端还需要重新根据目标簇计算包围盒,并通过预设约束进一步筛选。
需要说明的是,在实际应用中,优先进行步骤307的动态粘连拆分,再进行步骤308的静态粘连拆分,能够最大效率实现所有粘连目标的拆分。
309、若第一人体检测结果中存在撕裂目标,则对第一人体检测结果中的撕裂目标执行撕裂合并处理,并重新计算第一人体检测结果;
步骤309为撕裂目标的合并过程,其整体流程为判断是否存在撕裂目标,若存在则进行撕裂合并处理并重新计算第一人体检测结果。
请参阅图7,针对撕裂目标进行判断及撕裂合并的整体步骤包括:
3091、对第一人体检测结果中任意两个目标,判断两个目标在竖直方向上是否满足邻近条件;
终端对当前帧的第一人体检测结果中任意两个目标,判断两个目标在竖直方向位置是否邻近,具体的,终端对于目标A(x1,y1,w1,h1)、B(x2,y2,w2,h2),计算其重叠区域左右上下极限:
left=max(x1,x2)
right=min(x1+w1,x2+w2)
top=max(y1,y2)
bottom=min(y1+h1,y2+h2);
若left<right则继续计算和判断水平重叠比例和竖直邻近比例:
ratio1=(right-left)/min(w1,w2)
ratio2=(bottom-top)/min(h1,h2);
若ratio1>Tr1且ratio2>Tr2,则判定两个目标满足邻近条件。其中Tr1、Tr2分别为预设的水平重叠比例阈值和竖直邻近比例阈值。需要说明的是,目标检测领域一般将目标框表示为(x,y,w,h)或者(x1,y1,x2,y2)的形式。本申请中采用(x,y,w,h):x、y分别表示左上角顶点坐标,w、h表示目标框(矩形框)的宽、高。
3092、若满足邻近条件,则进一步根据深度值判断两个目标中在上的目标是否比在下的目标距离摄像头更近;
若两个目标满足上述邻近条件,则进一步判断目标的上下位置关系,然后根据深度值判断处于上方的目标是否比处于下方的目标距离摄像头更近。
3093、若两个目标中在上的目标比在下的目标距离摄像头更近,则确定第一人体检测结果中存在撕裂目标,并将两个目标进行关联;
若步骤3091及步骤3092的条件均满足,则确定该两个目标属于撕裂目标,并将其关联。
这是由于对两个竖直方向位置邻近的目标而言,若二者在深度值上符合“上近下远”的特征,则通常为同一个人体目标,属于竖直方向撕裂的情形。主要是因为,客流相机人体检测场景中,人体大多为站姿,从头顶到脚底距相机的距离总体符合递增规律,即“上近下远”,而且在抬手、戴帽、撑伞等场景,这种规律也基本成立。作为竖直方向撕裂的反例,比如两人前后站位,虽然满足竖直方向位置邻近的条件,但由于前后站位,后面的人体比前面的人体距离相机更远,故不满足“上近下远”的条件,故可以被排除。
3094、对第一人体检测结果中互相关联的两个目标进行合并。
待终端对第一检测结果中所有目标进行撕裂判断后,终端对互相关联的两个目标簇进行合并。
需要说明的是,对于撕裂合并后的目标簇,终端还需要重新根据目标簇计算包围盒,并通过预设约束进一步筛选。
310、对修正后的第一人体检测结果进行重定向处理,得到目标人体检测结果。
本实施例中,步骤310与前述实施例步骤105类似,此处不再赘述。
在本实施例中,结合目标粘连场景的一些规律,将目标粘连分为两个类型并分别给出拆分处理方案,其中对于动态粘连是基于多帧图像(至少前后帧图像)考虑的,静态粘连则是基于单帧图像考虑的,由此覆盖了绝大多数的粘连情况,并给出相应的拆分机制,从而解决了实际应用场景中目标发生粘连的问题。
在本实施例中,详细阐述了粘连拆分机制以及撕裂合并机制,使最终得到的检测结果可靠,能够应对深度图像中人体形状缺失和目标粘连、撕裂等各种复杂场景,进而保证客流计数的准确度。
并且,本申请提供的客流相机的人体检测方法对硬件算力要求低,无需NPU、GPU等硬件模块,可直接在中低端CPU端运行,且运算速度快,在中低端嵌入式平台CPU上运行也可达到实时检测,便于部署,成本低,具有大规模推广应用前景。
本申请还提供了一种客流相机,该客流统计相机包括处理器和深度摄像头,该处理器在运行过程中执行如上任一客流相机的人体检测方法。
本申请还提供了一种客流相机的人体检测装置,请参阅图8,图8为本申请提供的客流相机的人体检测装置一个实施例,该装置包括:
处理器801、存储器802、输入输出单元803、总线804;
处理器801与存储器802、输入输出单元803以及总线804相连;
存储器802保存有程序,处理器801调用程序以执行如上任一客流相机的人体检测方法。
本申请还涉及一种计算机可读存储介质,计算机可读存储介质上保存有程序,当程序在计算机上运行时,使得计算机执行如上任一客流相机的人体检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-only memory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (20)
1.一种客流相机的人体检测方法,其特征在于,所述人体检测方法包括:
对输入的深度图像进行预处理,得到待检测图像;
通过背景建模确定所述待检测图像中的画面运动区域;
对所述画面运动区域进行聚类处理以确定人体区域集合,并根据所述人体区域集合计算第一人体检测结果;
对所述第一人体检测结果中的个体目标进行区分,以修正所述第一人体检测结果;
对修正后的所述第一人体检测结果进行重定向处理,得到目标人体检测结果。
2.根据权利要求1所述的人体检测方法,其特征在于,所述根据所述人体区域集合计算第一人体检测结果包括:
确定所述人体区域集合的包围盒;
通过预设约束对所述包围盒进行筛选,并将筛选出的所述包围盒确定为第一人体检测结果。
3.根据权利要求2所述的人体检测方法,其特征在于,所述预设约束包括:人体区域面积约束、人体身高约束、包围盒尺寸比约束和/或边界限位约束。
4.根据权利要求3所述的人体检测方法,其特征在于,所述人体区域面积约束包括:单人区域最小面积约束及多人粘连区域最大面积约束,或撕裂区域最小面积约束及多人粘连区域最大面积约束。
5.根据权利要求1所述的人体检测方法,其特征在于,所述对所述第一人体检测结果中的个体目标进行区分,以修正所述第一人体检测结果包括:
对所述第一人体检测结果进行粘连拆分和/或撕裂合并以修正所述第一人体检测结果,所述粘连拆分为将所述第一人体检测结果中发生粘连的目标进行拆分的处理,所述撕裂合并为将所述第一人体检测结果中发生撕裂的目标进行合并的处理。
6.根据权利要求5所述的人体检测方法,其特征在于,所述对所述第一人体检测结果进行粘连拆分和/或撕裂合并以修正所述第一人体检测结果包括:
若所述第一人体检测结果中存在动态粘连目标,则对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理,并重新计算所述第一人体检测结果;
若所述第一人体检测结果中存在静态粘连目标,则对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理,并重新计算所述第一人体检测结果;
若所述第一人体检测结果中存在撕裂目标,则对所述第一人体检测结果中的撕裂目标执行撕裂合并处理,并重新计算所述第一人体检测结果。
7.根据权利要求6所述的人体检测方法,其特征在于,在对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理之前,所述方法还包括:
将当前帧的第一人体检测结果与上一帧的第一人体检测结果进行数据关联,判断数据关联结果中是否存在一对多的情况;
若是,则确定所述第一人体检测结果中存在动态粘连目标。
8.根据权利要求7所述的人体检测方法,其特征在于,所述对所述第一人体检测结果中的动态粘连目标执行第一粘连拆分处理包括:
根据所述数据关联结果计算所述动态粘连目标与对应的关联目标之间的基础区域与待定区域,所述基础区域为所述动态粘连目标与所述对应的关联目标之间的重叠区域,所述待定区域为所述动态粘连目标中除去所述基础区域的剩余区域;
确定所述待定区域中像素的归属,直至所述待定区域消失。
9.根据权利要求6所述的人体检测方法,其特征在于,在对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理之前,所述方法还包括:
判断当前帧的第一人体检测结果中目标的包围盒尺寸比是否大于预设阈值;
若所述目标的包围盒尺寸比大于预设阈值,则进一步判断所述目标的上部区域是否符合预设头肩特征;
若所述目标的上部区域符合预设头肩特征,则将所述目标确定为静态粘连目标。
10.根据权利要求9所述的人体检测方法,其特征在于,所述对所述第一人体检测结果中的静态粘连目标执行第二粘连拆分处理包括:
计算所述静态粘连目标中上部区域的积分投影,并根据所述积分投影确定目标拆分位置;
以所述目标拆分位置上的竖直线作为分割线对所述静态粘连目标进行拆分。
11.根据权利要求6所述的人体检测方法,其特征在于,在所述对所述第一人体检测结果中的撕裂目标执行撕裂合并处理之前,所述方法还包括:
对所述第一人体检测结果中任一两个目标,判断所述两个目标在竖直方向上是否满足邻近条件;
若满足所述邻近条件,则进一步根据深度值判断所述两个目标中在上的目标是否比在下的目标距离摄像头更近;
若所述两个目标中在上的目标比在下的目标距离摄像头更近,则确定所述第一人体检测结果中存在撕裂目标,并将所述两个目标进行关联。
12.根据权利要求11所述的人体检测方法,其特征在于,所述对所述第一人体检测结果中的撕裂目标执行撕裂合并处理包括:
对所述第一人体检测结果中互相关联的两个目标进行合并。
13.根据权利要求1所述的人体检测方法,其特征在于,所述对所述画面运动区域进行聚类处理以确定人体区域集合包括:
通过图像掩膜将所述画面运动区域以内的像素标记为有效像素,并将所述画面运动区域以外的像素标记为无效像素;
根据所述图像掩膜和所述待检测图像对所述有效像素进行聚类处理得到人体区域集合。
14.根据权利要求1所述的人体检测方法,其特征在于,所述聚类处理中采用深度优先搜索或广度优先搜索。
15.根据权利要求1所述的人体检测方法,其特征在于,所述根据所述人体区域集合计算第一人体检测结果之后,所述方法还包括:
确定人头顶点集合,并根据所述人头顶点集合生成人头检测框;
在所述对修正后的所述第一人体检测结果进行重定向处理,得到目标人体检测结果之后,所述方法还包括:
以所述人头检测框输出所述目标人体检测结果。
16.根据权利要求1至15中任一项所述的人体检测方法,其特征在于,所述对输入的深度图像进行预处理,得到待检测图像包括:
对所述深度图像进行下采样和/或格式转换,并按照预设深度范围进行深度选通,得到待检测图像。
17.根据权利要求1至15中任一项所述的人体检测方法,其特征在于,所述深度图像基于深度摄像头获取,所述深度摄像头水平布置或倾斜向下布置于预设高度上。
18.一种客流统计相机,其特征在于,所述客流统计相机包括处理器和深度摄像头,所述处理器在运行过程中执行如权利要求1至17中任一项的客流相机的人体检测方法。
19.一种客流相机的人体检测装置,其特征在于,所述人体检测装置包括:
处理器、存储器、输入输出单元以及总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述存储器保存有程序,所述处理器调用所述程序以执行如权利要求1至17中任一项所述的人体检测方法。
20.一种计算机可读存储介质,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行如权利要求1至17中任一项所述的人体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210748003.8A CN115147868B (zh) | 2022-06-29 | 2022-06-29 | 客流相机的人体检测方法、客流相机、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210748003.8A CN115147868B (zh) | 2022-06-29 | 2022-06-29 | 客流相机的人体检测方法、客流相机、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115147868A true CN115147868A (zh) | 2022-10-04 |
CN115147868B CN115147868B (zh) | 2023-11-28 |
Family
ID=83410142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210748003.8A Active CN115147868B (zh) | 2022-06-29 | 2022-06-29 | 客流相机的人体检测方法、客流相机、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147868B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117423067A (zh) * | 2023-12-18 | 2024-01-19 | 成都华芯智云科技有限公司 | 一种基于tof技术的客流统计终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268851A (zh) * | 2014-09-05 | 2015-01-07 | 浙江捷尚视觉科技股份有限公司 | 一种基于深度信息的atm自助营业厅行为分析方法 |
CN110717400A (zh) * | 2019-09-12 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种客流统计方法、装置及系统 |
US20200226769A1 (en) * | 2019-01-11 | 2020-07-16 | Tata Consultancy Services Limited | Dynamic multi-camera tracking of moving objects in motion streams |
-
2022
- 2022-06-29 CN CN202210748003.8A patent/CN115147868B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268851A (zh) * | 2014-09-05 | 2015-01-07 | 浙江捷尚视觉科技股份有限公司 | 一种基于深度信息的atm自助营业厅行为分析方法 |
US20200226769A1 (en) * | 2019-01-11 | 2020-07-16 | Tata Consultancy Services Limited | Dynamic multi-camera tracking of moving objects in motion streams |
CN110717400A (zh) * | 2019-09-12 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种客流统计方法、装置及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117423067A (zh) * | 2023-12-18 | 2024-01-19 | 成都华芯智云科技有限公司 | 一种基于tof技术的客流统计终端 |
Also Published As
Publication number | Publication date |
---|---|
CN115147868B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | Human detection using depth information by kinect | |
CN109934848B (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
US9305206B2 (en) | Method for enhancing depth maps | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN108537782B (zh) | 一种基于轮廓提取的建筑物图像匹配与融合的方法 | |
CN104881642A (zh) | 一种内容推送方法、装置及设备 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
Lee et al. | An intelligent depth-based obstacle detection system for visually-impaired aid applications | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
Xu et al. | Integrated approach of skin-color detection and depth information for hand and face localization | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 | |
CN109753945A (zh) | 目标主体识别方法、装置、存储介质和电子设备 | |
CN109948461A (zh) | 一种基于质心定位和距离变换的手语图像分割方法 | |
CN115147868B (zh) | 客流相机的人体检测方法、客流相机、装置及存储介质 | |
CN115273138B (zh) | 一种人体检测系统以及客流相机 | |
JPH10255057A (ja) | 移動物体抽出装置 | |
CN114612933A (zh) | 单目社交距离检测追踪方法 | |
CN114821676B (zh) | 客流人体检测方法、装置、存储介质及客流统计相机 | |
CN111368883B (zh) | 基于单目摄像头的避障方法、计算装置及存储装置 | |
CN113361360B (zh) | 基于深度学习的多人跟踪方法及系统 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
CN114821677B (zh) | 一种人体检测方法、装置、存储介质及客流统计相机 | |
CN107273804A (zh) | 基于支持向量机和深度特征的行人识别方法 | |
Bertozzi et al. | Multi stereo-based pedestrian detection by daylight and far-infrared cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |