CN109033972A - 一种目标检测方法、装置、设备及存储介质 - Google Patents
一种目标检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109033972A CN109033972A CN201810675764.9A CN201810675764A CN109033972A CN 109033972 A CN109033972 A CN 109033972A CN 201810675764 A CN201810675764 A CN 201810675764A CN 109033972 A CN109033972 A CN 109033972A
- Authority
- CN
- China
- Prior art keywords
- target
- target candidate
- determining
- height
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 93
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012706 support-vector machine Methods 0.000 claims abstract description 32
- 238000009499 grossing Methods 0.000 claims description 8
- 239000000203 mixture Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 42
- 238000001914 filtration Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种目标检测方法、装置、设备及存储介质。其中,该方法包括:对原始深度图像中的前景物体进行切片检测,依据各切片检测结果得到目标候选区;提取各目标候选区的3D高度特征,并基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。本发明实施例提供的技术方案,提高了识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
Description
技术领域
本发明实施例涉及图像技术领域,尤其涉及一种目标检测方法、装置、设备及存储介质。
背景技术
随着人工智能技术的迅速发展,行人检测在飞机、高铁、地铁等城市公共交通系统的人流密度监控分析与智能安防领域正发挥越来越大的作用。
目前,已有方案是基于普通RGB相机拍摄图像,使用滑动窗口遍历图像提取HOG(Histogram of Oriented Gradient,方向梯度直方图)特征通过SVM (Support VectorMachine,支持向量机)分类,但这种方法计算量极大,且RGB 相机对环境光照、颜色、纹理等信息较为敏感,此外还面临人员遮挡、图像畸变的影响,在实际的人员检测中无法表现出良好的性能。而基于TOF深度图像能够避免光照的干扰,可以更加准确高效地实现目标分割,获取ROI(Region Of Interest,感兴趣区域)。但是目前的方法生成ROI候选区域数量过多,对计算量和识别结果都带来一定负担,导致误识别率较高。
发明内容
本发明实施例提供了一种目标检测方法、装置、设备及存储介质,能够提高目标识别的准确性。
第一方面,本发明实施例提供了一种目标识别方法,该方法包括:
对原始深度图像中的前景物体进行切片检测,依据各切片检测结果得到至少一个目标候选区;
提取各目标候选区的3D高度特征,并基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
第二方面,本发明实施例还提供了一种目标识别装置,该装置包括:
候选区确定模块,用于对原始深度图像中的前景物体进行切片检测,依据各切片检测结果得到至少一个目标候选区;
特征提取模块,用于提取各目标候选区的3D高度特征;
目标确定模块,用于基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
第三方面,本发明实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现第一方面中任意所述的目标检测方法。
第四方面,本发明实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任意所述的目标检测方法。
本发明实施例提供的技术方案,通过对深度图像中的前景物体进行切片检测,能够准确高效地实现目标分割,得到与目标数量相当的目标候选区;通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终可确定深度图像中包含的目标及目标的个数。提高了识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
附图说明
图1是本发明实施例一中提供的一种目标检测方法的流程图;
图2A是本发明实施例二中提供的一种目标检测方法的流程图;
图2B是本发明实施例二中提供的一种确定目标候选区具体过程示意图;
图3是本发明实施例三中提供的一种目标检测方法的流程图;
图4A是本发明实施例四中提供的一种目标检测方法的流程图;
图4B是本发明实施例四中提供的一种提取3D高度特征的示意图;
图5是本发明实施例五中提供的一种目标检测方法的流程图;
图6是本发明实施例六中提供的一种目标检测方法的流程图;
图7是本发明实施例七中提供的一种目标检测装置的结构框图;
图8是本发明实施例八中提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明实施例作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明实施例,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明实施例相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种目标检测方法的流程图,本实施例适用于如何提高目标识别的准确性,尤其适用于人流密度较大的飞机、高铁及地铁等城市公共交通、商场大厦等情景下,对行人的检测。该方法可以由本发明实施例提供的目标检测装置来执行,该装置可采用软件和/或硬件的方式实现。参见图1,该方法具体包括:
S110,对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区。
其中,深度图像指将从图像采集器到场景中各点的距离/深度作为像素值的图像,它直接反映了景物可见表面的几何形状;可采用TOF或结构光等深度相机获取。可选的,本实施例采用TOF深度相机采集深度图像。对应的,原始深度图像即为未处理的由深度相机采集的原始图像。
前景物体是指相邻两帧图像中发生变化的部分,对应的未发生变化的部分即为背景。目标候选区是指从深度图像中选择的包含目标的图像区域,可选的,目标候选区的数量与目标个数相等,一个目标对应一个目标候选区。
具体的,可以采用前景和背景分割方法实时提取原始深度图像中的前景物体,对前景物体基于深度值切片如等距切片,并对每片采用预设识别方法检测目标即可得到包含目标的至少一个目标候选区。其中,预设识别方法预先设置的,与所要检测的目标的特点相符合的检测方式。如,对于行人切片后头部特征的检测可以采用圆拟合、最小二乘法、高斯拟合或blob等进行检测。
由于外界环境因素及深度相机本身等的干扰,导致原始深度图像中存在噪声,因此为了改善原始深度图像的质量需对原始深度图像进行预处理。示例性的,对原始深度图像中的前景物体进行切片检测之前,还可以包括:获取原始深度图像;识别原始深度图像中包含的无效像素点;对无效像素点进行无效像素值填补,并对填补后的深度图像进行平滑处理。
其中,无效像素点可以是由于过度曝光和黑色物体吸光导致的;也可以是由于所采集的深度图像噪点过大所导致的等。对无效像素点的填补可以根据实际深度图像的特点选用满足条件的滤波器进行,如极大值滤波器或极小值滤波器等。可选的,本实施例采用极大值滤波器对无效像素值进行填补。对填补后的深度图像的平滑处理,可以选用中值滤波、高斯滤波、形态学滤波等进行处理,而中值滤波是一种有效而快速的非线性平滑技术,在对原始图像进行平滑时能够不损坏原始图像的边缘信息,因此,本实施例优选采用中值滤波处理以达到过滤噪点的目的。
具体的操作过程可以是:将深度相机安装于人流量较大的场景下如商场的进出口或公交车的上下门,以俯视的形式实时采集原始深度图像。目标检测装置从深度相机中实时获取原始深度图像,并识别原始深度图像中包含的无效像素点,统一将其像素值置0;采用3*3的浮动窗口对无效像素点周边8邻域进行极大值滤波填补无效像素值;通过中值滤波对填补后的深度图像进行平滑处理。采用前景和背景分割方法提取预处理后的原始深度图像中包含的行人,并依据深度值等距切片得到各行人的头部特征;对各头部特征采用圆拟合、最小二乘法、高斯拟合或blob等检测得到与行人头部特征个数相等的目标候选区。
S120,提取各目标候选区的3D高度特征,并基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
其中,3D高度特征用于表征目标高度的特征,若目标为行人,则3D高度特征用于表征行人的身高,可以包括:头顶、肩膀及边缘等高度。基于人区别于其他物体的3D高度特征,本实施例中通过设计支持向量机分类器进行识别分类,能够准确实现是否是行人的判断。
进一步地,为了更加精准的识别出目标,示例性的,基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标还可以包括:提取各目标候选区的HOG特征;基于3D高度特征和HOG特征,通过支持向量机分类器确定各目标候选区对应的目标。
其中,HOG特征是一种图像局部区域描述符,通过计算图像局部区域的梯度方向直方图来描述目标的平面形状,如人体特征。
提取目标候选区的HOG特征的方式可以是:将深度图像分割为若干个像素的单元,把梯度方向平均划分为多个区间,在每个单元里面对所有像素的梯度方向在各个方向区间进行直方图统计,得到一个多维的特征向量,每相邻的单元构成一个区间,把一个区间内的特征向量联起来得到多维的特征向量,用区间对该深度图像进行扫描,扫描步长为一个单元。最后将所有块的特征串联起来,就得到了目标候选区的HOG特征。可选的,HOG特征为36维的向量。
具体的,通过将目标候选区的3D高度特征及HOG特征输入至预先设计的支持向量机分类器中,能够准确识别出目标及深度图像中包含的目标的个数。
本发明实施例提供的技术方案,通过对深度图像中的前景物体进行切片检测,能够准确高效地实现目标分割,得到与目标数量相当的目标候选区;通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终确定深度图像中包含的目标及目标的个数。提高了目标识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
实施例二
图2A为本发明实施例二提供的一种目标检测方法的流程图,图2B是本发明实施例二中提供的一种确定目标候选区具体过程示意图。本实施例在上述实施例的基础上,进一步对依据各切片检测结果得到目标候选区进行详细的说明。参见图2A,该方法具体包括:
S210,获取原始深度图像,并识别原始深度图像中包含的无效像素点。
S220,对无效像素点进行无效像素值填补,并对填补后的深度图像进行平滑处理。
S230,依据相机的高度及预处理后原始深度图像的像素值,得到目标高度对应的像素值。
其中,相机的高度即为相机垂直于地面的高度值;目标高度对应的像素值即为与目标实际高度成正比的像素值,可通过相机的实际高度与预处理后的原始深度图像的像素值做差得到。如目标是行人,目标高度对应的像素值即为行人身高的实际像素值,与行人身高成正比。示例性的,若未对原始深度图像进行预处理,则可直接用相机的高度减去原始深度图像的像素值得到目标高度对应的像素值。
需要说明的是,本实施例中通过将预处理后的原始深度图像的像素值转换为目标高度对应的实际像素值,能够简化运算量,便于后续目标候选区的确定及目标特征的提取等。
参见图2B,对于给定原始深度图像(a),对原始深度图像(a)中的无效像素点进行填充得到图(b);采用中值滤波和高度转换得到噪声明显降低的图 (c)。
S240,采用高斯混合背景模型提取预处理后的原始深度图像的前景物体。
其中,高斯混合背景模型是一个将事物分解为若干基于高斯概率密度函数形成的模型,适合于在相机固定的情况下,通过对背景建模,从图像序列中分离出背景和前景。因此,可采用高斯混合背景模型从预处理后的原始深度图像中提取前景物体;若所采集的原始深度图像中噪声干扰可忽略,也可以直接从原始深度图像中提取前景物体。
由于背景噪声及相机本身等的影响,使得高斯混合背景模型可能只提取了前景物体的轮廓,因此需对前景物体进行补充。而形态学滤波是一种有效而快速的非线性滤波技术,能够在不破坏原图像有用细节的前提下使图像更清晰,因此,本实施例优选采用形态学滤波处理方法即对采用高斯混合背景模型提取的前景物体进行膨胀腐蚀操操作。
S250,依据目标高度对应的像素值对前景物体进行切片,并对各切片结果进行检测,依据各切片检测结果得到至少一个目标候选区。
示例性的,可根据所要检测的目标的特点选择合适的检测方式对切片进行检测。若目标为行人,由于人头部近似于圆,因此可采用圆拟合、最小二乘法、高斯拟合或blob等进行检测,而blob检测能够精准的将图像中具有相似颜色、纹理等特征组成一块连通区域,进行连通区域检测。因此,本实施例优选采用 blob对各切片进行检测。
具体的,参见图2B,图(d)是通过高斯混合背景模型得到的前景物体,依据目标高度对应的像素值对图(d)进行切片及blob检测得到图(e),其中图 (e)中的方框表示相关的感兴趣区域,一个方框代表一个感兴趣区域,若一个前景物体上只有一个感兴趣区域,则将该感兴趣区域作为一个目标候选区;若一个前景物体上至少有两个感兴趣区域,则采用聚类的方式生成最终的感兴趣区域作为目标候选区,也就是说将多个感兴趣区域聚类确定为一个感兴趣区域作为目标候选区。本实施例,在精准高效地实现目标分割的同时,使确定的目标候选区尽可能的少。
S260,提取各目标候选区的3D高度特征,并基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
本发明实施例提供的技术方案,通过对深度图像进行前景提取,并对前景物体根据目标高度对应的像素值等距切片,对每片进行blob检测,可以更加准确高效地实现目标分割,得到尽可能少的目标候选区;并通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终可确定深度图像中包含的目标及目标的个数。提高了目标识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
实施例三
图3为本发明实施例三提供的一种目标检测方法的流程图,本实施例在上述实施例的基础上,进一步对依据各切片检测结果得到目标候选区进行详细的说明。参见图3,该方法具体包括:
S310,对原始深度图像中的前景物体进行切片检测。
S320,依据各切片检测结果,得到至少一个感兴趣区域。
其中,感兴趣区域是指从被处理的深度图像中框选出的需要处理的封闭区域。参见图2B中的图(e),若目标为行人,通过高斯混合背景模型和形态学处理提取前景物体,并对前景物体根据目标高度对应的像素值等距切片,对每片进行blob检测,得到4个感兴趣区域。
S330,若感兴趣区域的面积及偏心率满足预设条件,则将感兴趣区域作为一个目标候选区。
其中,预设条件是指预先设置的物理条件,可根据实际需要检测的目标特点进行修正,包括面积和偏心率等。感兴趣区域的面积是指感兴趣区所包含的像素点的个数。感兴趣区域的偏心率与感兴趣区域的面积成正相关,可选的,其中,area为blob检测得到的感兴趣区域的面积,perimeter为 blob检测得到的感兴趣区域的周长。面积和偏心率的预设条件分别为Smin≤area≤Smax和其中,Smin和Smax的值为一个封闭区域所包含的像素点个数,若目标为行人,本实施例中Smin为1000,Smax为8000,emin为0.3。
对于blob检测后得到的每个感兴趣区域都通过面积及偏心率等物理条件限制,来确定目标候选区。具体的,通过计算感兴趣区域的面积及偏心率,并分别与预设条件中包含的面积和偏心率进行比对,若两者均在面积和偏心率的预设条件的范围内,则将该感兴趣区域作为一个目标候选区;若面积和偏心率中存在至少一个不满足预设条件,则将对应的感兴趣区域删除。能够得到尽可能少的目标候选区,减少了后续目标识别的复杂度,提高了目标识别的准确率。
可选的,由于深度图像中可能会存在至少两个感兴趣区域重叠的现象,例如,参见图2B,图(e)中存在两个感兴趣区域重叠,但是如果这两个感兴趣区域的面积和偏心率均满足预设条件,直接将这两个感兴趣区域作为2个目标候选区,会对后续计算量和识别结果都带来一定负担,导致误识别率较高。
因此,为了更进一步地提高目标识别的准确率,示例性的,将感兴趣区域作为一个目标候选区还可以包括:若至少两个感兴趣区域存在重叠,且重叠分数大于预设阈值,则将至少两个感兴趣区域确定为一个目标候选区。
其中,重叠分数用于表征存在重叠的感兴趣区域之间的重叠程度,可以通过将重叠部分的面积与存在重叠的感兴趣区域面积之和做除得到。示例性的,若两个感兴趣区域存在重叠,对应的重叠分数可以通过如下公式计算得到:其中,为重叠面积,和分别为存在重叠的两个感兴趣区域的面积。预设阈值是预先设置的数值,可根据实际情况进行修正,可选的,预设阈值为50%。
具体的,若检测到两个或多个感兴趣区域存在重叠,计算存在重叠的感兴趣区域的重叠分数,并与预设阈值进行比较,若该重叠分数大于预设阈值,则采用聚类的方式进行合并,生成一个感兴趣区域作为目标候选区。若该重叠阈值小于或等于预设阈值,则可重新进行检测或直接将存在重叠的感兴趣区域各自缩小面积成为一个独立的感兴趣区域作为目标候选区。
若目标为行人,采用本实施例的技术方案,可避免将一个行人的头部特征分割为多个目标区域,提高了行人识别的准确性。
S340,提取各目标候选区的3D高度特征,并基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
本发明实施例提供的技术方案,通过对每个感兴趣区域通过面积及偏心率等物理条件限制,来确定目标候选区,能够得到尽可能少的目标候选区;并通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终可确定深度图像中包含的目标及目标的个数。提高了目标识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
实施例四
图4A为本发明实施例四提供的一种目标检测方法的流程图;图4B为本发明实施例四提供的一种提取目标候选区3D高度特征的具体过程示意图。本实施例在上述实施例的基础上,进一步对提取各目标候选区的3D高度特征进行详细的说明。参见图4A,该方法具体包括:
S410,对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区。
S420,以各目标候选区的中心为圆心,设置同心圆。
其中,目标候选区的中心为blob检测拟合得到的感兴趣区域的中心,同心圆的个数可根据目标区域的面积及半径确认,至少为两个。
S430,以预设大小的图像块遍历同心圆,确定各图像块的深度平均值。
其中,图像块的大小可根据所设计的同心圆的半径和面积来确定;深度平均值即为像素平均值,可以通过将图像块中包含的各像素点的像素值之和与像素点的个数做除得到。
具体的操作过程可以是,参见图4B,以目标候选区的中心为圆心,设计3 个同心圆,同时以6*6大小的图像块遍历分割整个同心圆,即可得到36个6*6* 大小的图像块。具体的,从里到外三个圆分别有8个6*6的图像块、12个6*6 的图像块及16个6*6的图像块。此外,在遍历分割整个同心圆的同时,可以得到每个图像块对应的深度平均值。
S440,依据各图像块的深度平均值及同心圆中心图像块的深度平均值,确定各目标候选区的3D高度特征。
具体的,将得到每个图像块对应的深度平均值与同心圆中心6*6图像块的深度平均值做差,以此得到36维的向量来表征目标候选区的3D高度特征。
S450,基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
进一步地,为了更加精准的识别出目标,示例性的,基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标还可以包括:提取各目标候选区的HOG特征;基于3D高度特征和HOG特征,通过支持向量机分类器确定各目标候选区对应的目标。
具体的,若目标是行人,从各目标候选区提取的HOG特征是36维人体特征,因此,将36维人体特征和36维的3D高度特征输入至预先设计的支持向量机分类器中,即可准确的识别出行人及图像中包含的行人的个数。
本发明实施例提供的技术方案,通过设计同心圆,并以预设大小的图像块遍历该同心圆即可准确得到的各目标候选区的3D高度特征,依据各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终确定深度图像中包含的目标及目标的个数。提高了目标识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
实施例五
图5为本发明实施例五提供的一种目标检测方法的流程图,本实施例在上述实施例的基础上,进一步的优化。参见图5,该方法具体包括:
S510,对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区。
S520,提取各目标候选区的3D高度特征,并基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
S530,确定各目标的运动轨迹。
其中,目标运动轨迹是通过统计每帧深度图像中目标的位置坐标绘制得到的。
示例性的,确定各目标的运动轨迹可以包括:确定各目标的当前位置坐标与已有运动轨迹的末尾坐标的欧式距离;若欧式距离小于预设距离阈值,则将目标的当前位置坐标与欧式距离最小的已有运动轨迹合并,作为该目标的运动轨迹;若欧式距离大于预设距离阈值,则为目标建立新一条运动轨迹。
其中,目标的当前位置坐标即为目标候选区中同心圆的圆心坐标;欧氏距离是一种有效的计算两个未知样本集的相似度的方法。预设距离阈值是预先设置的,可根据实际情况进行修正。可选的,预设阈值越小,精度越高。
具体的,当检测到深度图像中包含的目标后,分别计算各目标的当前位置坐标与已有运动轨迹的末尾坐标的欧式距离,若存在目标的当前位置坐标与已有的多个运动轨迹的末尾坐标的欧式距离均小于预设距离阈值,则将其中欧式距离最小的已有运动轨迹确定为该目标的运动轨迹,并将该目标的当前位置坐标绘制在已有运动轨迹的后面。
示例性的,若存在多个目标的当前位置坐标与已有的一个运动轨迹的末尾坐标的欧式距离相等,且小于预设距离阈值,则可通过统计连续多帧图像中各目标的位置坐标与该轨迹的末尾坐标的欧式距离的平均值来确定该运动轨迹对应的目标。
为了实现对目标的准确跟踪,若检测到目标的当前位置坐标与已有运动轨迹的末尾坐标的欧式距离大于预设阈值,可连续检测多帧图像如3帧图像中目标的位置坐标与已有运动轨迹的末尾坐标的欧式距离,若均大于预设距离阈值,则将为该目标制作一条新的运动轨迹。
S540,若连续预设数值帧图像未检测到目标,则确定目标对应的运动轨迹结束。
其中,预设数值帧为预设的连续帧图像的个数,如连续5帧图像。具体的,当连续5帧图像都没有在目标的运动轨迹中检测到对应的目标时,则认为该目标的运动轨迹结束。
S550,依据运动轨迹的起始位置坐标与终止位置坐标,确定各目标的运动方向及各方向对应的目标的数量。
例如,深度相机安装于人流量较大的场景下如商场的进出口或公交车的上下门,将各个目标的运动轨迹的起始位置坐标与终止位置坐标做差,若差值大于0,则行人的运动方向是进;若差值小于0,则行人的运动方向是出。通过统计各条运动轨迹的起始位置坐标与终止位置坐标的差值可分别得到进出方向对应的目标的数量。
本发明实施例提供的技术方案,在准确识别出目标的情况下,通过目标的运动轨迹可判断出目标的运动方向及各方向对应的目标的数量,从而实现了目标跟踪与数量统计。
实施例六
图6为本发明实施例六提供的一种目标检测方法的流程图,本实施例是在上述实施例的基础上,提供的一种优选示例。参见图6,该方法具体包括:
S601,获取原始深度图像,并识别原始深度图像中包含的无效像素点。
S602,对无效像素点进行无效像素值填补,并对填补后的深度图像进行平滑处理。
S603,依据相机的高度及预处理后的原始深度图像的像素值,得到目标高度对应的像素值。
S604,采用高斯混合背景模型提取预处理后的原始深度图像的前景物体。
S605,依据目标高度对应的像素值对前景物体进行切片,并对各切片结果进行检测,依据各切片检测结果,得到至少一个感兴趣区域。
S606,若感兴趣区域的面积及偏心率满足预设条件,则将感兴趣区域作为一个目标候选区。
S607,以各目标候选区的中心为圆心,设置同心圆。
S608,以预设大小的图像块遍历同心圆,确定各图像块的深度平均值。
S609,依据各图像块的深度平均值及同心圆中心图像块的深度平均值,确定各目标候选区的3D高度特征。
S610,基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
本发明实施例提供的技术方案,通过对深度图像中的前景物体进行切片检测,能够准确高效地实现目标分割,得到与目标数量相当的目标候选区;通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终确定深度图像中包含的目标及目标的个数,提高了目标识别准确率;同时,在准确识别出目标的情况下,通过目标的运动轨迹可判断出目标的运动方向及各方向对应的目标的数量,从而实现了目标跟踪与数量统计。实现了实时高准确度、高鲁棒性的目标检测与目标数量统计功能。
实施例七
图7为本发明实施例七提供的一种目标检测装置的结构框图,该装置可执行本发明任意实施例所提供的目标检测方法,具备执行方法相应的功能模块和有益效果。如图7所示,该装置可以包括:
候选区确定模块710,用于对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区;
特征提取模块720,用于提取各目标候选区的3D高度特征;
目标确定模块730,用于基于3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
本发明实施例提供的技术方案,通过对深度图像中的前景物体进行切片检测,能够准确高效地实现目标分割,得到与目标数量相当的目标候选区;通过提取各目标候选中的3D高度特征,基于支持向量机分类器可准确的实现分类,最终可确定深度图像中包含的目标及目标的个数。提高了识别准确率,减少了计算量;同时,提高了算法鲁棒性,实现了实时高准确度、高鲁棒性的目标检测。
示例性的,上述装置还可以包括:
图像获取模块,用于获取原始深度图像;
像素点识别模块,用于识别原始深度图像中包含的无效像素点;
处理模块,用于对无效像素点进行无效像素值填补,并对填补后的深度图像进行平滑处理。
示例性的,候选区确定模块710具体用于:
依据相机的高度及原始深度图像的像素值,得到目标高度对应的像素值;采用高斯混合背景模型提取原始深度图像的前景物体;依据目标高度对应的像素值对前景物体进行切片,并对各切片结果进行检测,依据各切片检测结果得到至少一个目标候选区。
示例性的,候选区确定模块710具体包括:
感兴趣区域确定单元,用于依据各切片检测结果,得到至少一个感兴趣区域;
候选区确定单元,用于若感兴趣区域的面积及偏心率满足预设条件,则将感兴趣区域作为一个目标候选区。
示例性的,候选区确定单元具体用于:若至少两个感兴趣区域存在重叠,且重叠分数大于预设阈值,则将至少两个感兴趣区域确定为一个目标候选区。
示例性的,特征提取模块720具体用于:
以各目标候选区的中心为圆心,设置同心圆;以预设大小的图像块遍历同心圆,确定各图像块的深度平均值;依据各图像块的深度平均值及同心圆中心图像块的深度平均值,确定各目标候选区的3D高度特征。
示例性的,目标确定模块730具体用于:
提取各目标候选区的HOG特征;基于3D高度特征和HOG特征,通过支持向量机分类器确定各目标候选区对应的目标。
可选的,上述装置还可以包括:
轨迹确定模块,用于确定各目标的运动轨迹;
方向数量确定模块,用于依据运动轨迹的起始位置坐标与终止位置坐标,确定各目标的运动方向及各方向对应的目标的数量。
可选的,轨迹确定模块具体用于:
确定各目标的当前位置坐标与已有运动轨迹的末尾坐标的欧式距离;若欧式距离小于预设距离阈值,则将目标的当前位置坐标与欧式距离最小的已有运动轨迹合并,作为该目标的运动轨迹;若欧式距离大于预设距离阈值,则为目标建立新一条运动轨迹。
示例性的,上述装置还可以包括:
轨迹结束确定模块,用于若连续预设数值帧图像未检测到目标,则确定目标对应的运动轨迹结束。
实施例八
图8为本发明实施例八提供的一种设备的结构示意图,图8示出了适于用来实现本发明实施例实施方式的示例性设备的框图。图8显示的设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,设备12以通用计算设备的形式表现。设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构 (ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘 (例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM, DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明实施例各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明实施例所描述的实施例中的功能和/或方法。
设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器 24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和 /或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与设备12的其它模块通信。应当明白,尽管图中未示出,可以结合设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的目标检测方法。
实施例九
本发明实施例九还提供一种计算机可读存储介质,其上存储有计算机程序 (或称为计算机可执行指令),该程序被处理器执行时可实现上述任意实施例所述的目标检测方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如 Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网 (WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明实施例进行了较为详细的说明,但是本发明实施例不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (13)
1.一种目标检测方法,其特征在于,包括:
对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区;
提取各目标候选区的3D高度特征,并基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
2.根据权利要求1所述的方法,其特征在于,对原始深度图像中的前景物体进行切片检测之前,还包括:
获取原始深度图像;
识别所述原始深度图像中包含的无效像素点;
对所述无效像素点进行无效像素值填补,并对填补后的深度图像进行平滑处理。
3.根据权利要求1所述的方法,其特征在于,对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区,包括:
依据相机的高度及原始深度图像的像素值,得到目标高度对应的像素值;
采用高斯混合背景模型提取原始深度图像的前景物体;
依据所述目标高度对应的像素值对所述前景物体进行切片,并对各切片结果进行检测,依据各切片检测结果得到至少一个目标候选区。
4.根据权利要求1所述的方法,其特征在于,依据各切片检测结果得到至少一个目标候选区,包括:
依据各切片检测结果,得到至少一个感兴趣区域;
若感兴趣区域的面积及偏心率满足预设条件,则将所述感兴趣区域作为一个目标候选区。
5.根据权利要求4所述的方法,其特征在于,将所述感兴趣区域作为一个目标候选区,包括:
若至少两个感兴趣区域存在重叠,且重叠分数大于预设阈值,则将所述至少两个感兴趣区域确定为一个目标候选区。
6.根据权利要求1所述的方法,其特征在于,提取各目标候选区的3D高度特征,包括:
以各目标候选区的中心为圆心,设置同心圆;
以预设大小的图像块遍历所述同心圆,确定各图像块的深度平均值;
依据各图像块的深度平均值及所述同心圆中心图像块的深度平均值,确定各目标候选区的3D高度特征。
7.根据权利要求1项所述的方法,其特征在于,基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标,包括:
提取各目标候选区的HOG特征;
基于所述3D高度特征和所述HOG特征,通过支持向量机分类器确定各目标候选区对应的目标。
8.根据权利要求1所述的方法,其特征在于,基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标之后,还包括:
确定各目标的运动轨迹;
依据所述运动轨迹的起始位置坐标与终止位置坐标,确定各目标的运动方向及各方向对应的目标的数量。
9.根据权利要求8所述的方法,其特征在于,确定各目标的运动轨迹,包括:
确定各目标的当前位置坐标与已有运动轨迹的末尾坐标的欧式距离;
若所述欧式距离小于预设距离阈值,则将所述目标的当前位置坐标与所述欧式距离最小的已有运动轨迹合并,作为该目标的运动轨迹;
若所述欧式距离大于预设距离阈值,则为目标建立新一条运动轨迹。
10.根据权利要求8所述的方法,其特征在于,确定各目标的运动轨迹之后,还包括:
若连续预设数值帧图像未检测到目标,则确定所述目标对应的运动轨迹结束。
11.一种目标检测装置,其特征在于,包括:
候选区确定模块,用于对原始深度图像中的前景物体进行切片检测,并依据各切片检测结果得到至少一个目标候选区;
特征提取模块,用于提取各目标候选区的3D高度特征;
目标确定模块,用于基于所述3D高度特征通过支持向量机分类器,确定各目标候选区对应的目标。
12.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一项所述的目标检测方法。
13.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一项所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675764.9A CN109033972A (zh) | 2018-06-27 | 2018-06-27 | 一种目标检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675764.9A CN109033972A (zh) | 2018-06-27 | 2018-06-27 | 一种目标检测方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109033972A true CN109033972A (zh) | 2018-12-18 |
Family
ID=64610987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810675764.9A Pending CN109033972A (zh) | 2018-06-27 | 2018-06-27 | 一种目标检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109033972A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961021A (zh) * | 2019-03-05 | 2019-07-02 | 北京超维度计算科技有限公司 | 一种深度图像中人脸检测方法 |
CN110188690A (zh) * | 2019-05-30 | 2019-08-30 | 青岛伴星智能科技有限公司 | 一种基于无人机的智能视觉分析系统、智能视觉分析系统及方法 |
CN110781853A (zh) * | 2019-11-01 | 2020-02-11 | 浙江大华技术股份有限公司 | 人群异常检测方法以及相关装置 |
CN111047624A (zh) * | 2019-12-27 | 2020-04-21 | 成都英飞睿技术有限公司 | 图像弱小目标检测方法、装置、设备及存储介质 |
CN111798698A (zh) * | 2020-06-24 | 2020-10-20 | 中国第一汽车股份有限公司 | 一种前方目标车辆的确定方法、装置及车辆 |
CN111870953A (zh) * | 2020-07-24 | 2020-11-03 | 上海米哈游天命科技有限公司 | 一种高度图生成方法、装置、设备及存储介质 |
CN112016568A (zh) * | 2019-05-31 | 2020-12-01 | 北京初速度科技有限公司 | 一种目标对象的图像特征点的跟踪方法及装置 |
CN112418025A (zh) * | 2020-11-10 | 2021-02-26 | 广州富港万嘉智能科技有限公司 | 基于深度学习的体重检测方法及装置 |
CN112464747A (zh) * | 2020-11-10 | 2021-03-09 | 广州富港万嘉智能科技有限公司 | 基于图像采集设备的身高检测方法及装置 |
CN113538478A (zh) * | 2020-04-15 | 2021-10-22 | 深圳市光鉴科技有限公司 | 基于图像的箱体边界提取方法、系统、设备及存储介质 |
CN113763402A (zh) * | 2020-06-04 | 2021-12-07 | Oppo(重庆)智能科技有限公司 | 一种检测方法、检测装置、电子设备和存储介质 |
US20220207754A1 (en) * | 2020-12-25 | 2022-06-30 | Boyan Technologies (Shenzhen) Co.,Ltd | Target tracking method, device, medium and apparatus |
CN115131743A (zh) * | 2022-05-26 | 2022-09-30 | 重庆中科云从科技有限公司 | 航道监测方法、系统及计算机存储介质 |
CN115345919A (zh) * | 2022-08-25 | 2022-11-15 | 北京精英路通科技有限公司 | 一种深度确定方法、装置、电子设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120269384A1 (en) * | 2011-04-19 | 2012-10-25 | Jones Michael J | Object Detection in Depth Images |
CN103839040A (zh) * | 2012-11-27 | 2014-06-04 | 株式会社理光 | 基于深度图像的手势识别方法和装置 |
CN103903246A (zh) * | 2012-12-26 | 2014-07-02 | 株式会社理光 | 物体检测方法和装置 |
CN103971135A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于头肩深度信息特征的人体目标检测方法 |
CN104715238A (zh) * | 2015-03-11 | 2015-06-17 | 南京邮电大学 | 一种基于多特征融合的行人检测方法 |
CN104851089A (zh) * | 2015-04-28 | 2015-08-19 | 中国人民解放军国防科学技术大学 | 一种基于三维光场的静态场景前景分割方法和装置 |
US20160110610A1 (en) * | 2014-10-15 | 2016-04-21 | Sony Computer Entertainment Inc. | Image processor, image processing method, and computer program |
-
2018
- 2018-06-27 CN CN201810675764.9A patent/CN109033972A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120269384A1 (en) * | 2011-04-19 | 2012-10-25 | Jones Michael J | Object Detection in Depth Images |
CN103839040A (zh) * | 2012-11-27 | 2014-06-04 | 株式会社理光 | 基于深度图像的手势识别方法和装置 |
CN103903246A (zh) * | 2012-12-26 | 2014-07-02 | 株式会社理光 | 物体检测方法和装置 |
CN103971135A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于头肩深度信息特征的人体目标检测方法 |
US20160110610A1 (en) * | 2014-10-15 | 2016-04-21 | Sony Computer Entertainment Inc. | Image processor, image processing method, and computer program |
CN104715238A (zh) * | 2015-03-11 | 2015-06-17 | 南京邮电大学 | 一种基于多特征融合的行人检测方法 |
CN104851089A (zh) * | 2015-04-28 | 2015-08-19 | 中国人民解放军国防科学技术大学 | 一种基于三维光场的静态场景前景分割方法和装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961021A (zh) * | 2019-03-05 | 2019-07-02 | 北京超维度计算科技有限公司 | 一种深度图像中人脸检测方法 |
CN109961021B (zh) * | 2019-03-05 | 2020-11-10 | 北京超维度计算科技有限公司 | 一种深度图像中人脸检测方法 |
CN110188690A (zh) * | 2019-05-30 | 2019-08-30 | 青岛伴星智能科技有限公司 | 一种基于无人机的智能视觉分析系统、智能视觉分析系统及方法 |
CN112016568A (zh) * | 2019-05-31 | 2020-12-01 | 北京初速度科技有限公司 | 一种目标对象的图像特征点的跟踪方法及装置 |
CN112016568B (zh) * | 2019-05-31 | 2024-07-05 | 北京初速度科技有限公司 | 一种目标对象的图像特征点的跟踪方法及装置 |
CN110781853A (zh) * | 2019-11-01 | 2020-02-11 | 浙江大华技术股份有限公司 | 人群异常检测方法以及相关装置 |
CN111047624A (zh) * | 2019-12-27 | 2020-04-21 | 成都英飞睿技术有限公司 | 图像弱小目标检测方法、装置、设备及存储介质 |
CN113538478B (zh) * | 2020-04-15 | 2024-06-04 | 深圳市光鉴科技有限公司 | 基于图像的箱体边界提取方法、系统、设备及存储介质 |
CN113538478A (zh) * | 2020-04-15 | 2021-10-22 | 深圳市光鉴科技有限公司 | 基于图像的箱体边界提取方法、系统、设备及存储介质 |
CN113763402A (zh) * | 2020-06-04 | 2021-12-07 | Oppo(重庆)智能科技有限公司 | 一种检测方法、检测装置、电子设备和存储介质 |
CN111798698B (zh) * | 2020-06-24 | 2022-04-08 | 中国第一汽车股份有限公司 | 一种前方目标车辆的确定方法、装置及车辆 |
CN111798698A (zh) * | 2020-06-24 | 2020-10-20 | 中国第一汽车股份有限公司 | 一种前方目标车辆的确定方法、装置及车辆 |
CN111870953A (zh) * | 2020-07-24 | 2020-11-03 | 上海米哈游天命科技有限公司 | 一种高度图生成方法、装置、设备及存储介质 |
CN112464747A (zh) * | 2020-11-10 | 2021-03-09 | 广州富港万嘉智能科技有限公司 | 基于图像采集设备的身高检测方法及装置 |
CN112418025A (zh) * | 2020-11-10 | 2021-02-26 | 广州富港万嘉智能科技有限公司 | 基于深度学习的体重检测方法及装置 |
US20220207754A1 (en) * | 2020-12-25 | 2022-06-30 | Boyan Technologies (Shenzhen) Co.,Ltd | Target tracking method, device, medium and apparatus |
US11734840B2 (en) * | 2020-12-25 | 2023-08-22 | Boyan Technologies (Shenzhen) Co., Ltd | Target tracking method, device, medium and apparatus |
CN115131743A (zh) * | 2022-05-26 | 2022-09-30 | 重庆中科云从科技有限公司 | 航道监测方法、系统及计算机存储介质 |
CN115131743B (zh) * | 2022-05-26 | 2024-10-15 | 重庆中科云从科技有限公司 | 航道监测方法、装置及计算机存储介质 |
CN115345919A (zh) * | 2022-08-25 | 2022-11-15 | 北京精英路通科技有限公司 | 一种深度确定方法、装置、电子设备以及存储介质 |
CN115345919B (zh) * | 2022-08-25 | 2024-04-12 | 北京精英路通科技有限公司 | 一种深度确定方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109033972A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
Börcs et al. | Instant object detection in lidar point clouds | |
US9846946B2 (en) | Objection recognition in a 3D scene | |
Ashraf et al. | Dogfight: Detecting drones from drones videos | |
Chen et al. | Vehicle detection in high-resolution aerial images via sparse representation and superpixels | |
Wang et al. | Saliency-aware geodesic video object segmentation | |
US8744168B2 (en) | Target analysis apparatus, method and computer-readable medium | |
WO2017190656A1 (zh) | 行人再识别方法和装置 | |
Peng et al. | Drone-based vacant parking space detection | |
CN105678347A (zh) | 行人检测方法及装置 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
US11398098B2 (en) | Real time traffic sign recognition | |
KR20110020718A (ko) | 타겟 분석 장치 및 방법 | |
JP2012038318A (ja) | ターゲット検出方法及び装置 | |
Wang et al. | An overview of 3d object detection | |
Rabiu | Vehicle detection and classification for cluttered urban intersection | |
CN111814773A (zh) | 一种划线车位识别方法及系统 | |
Panda et al. | An end to end encoder-decoder network with multi-scale feature pulling for detecting local changes from video scene | |
Shih et al. | Automated counting and tracking of vehicles | |
Hasan et al. | Comparative analysis of vehicle detection in urban traffic environment using Haar cascaded classifiers and blob statistics | |
CN111027482A (zh) | 基于运动向量分段分析的行为分析方法及装置 | |
Sri Jamiya et al. | A survey on vehicle detection and tracking algorithms in real time video surveillance | |
Wu et al. | Vehicle detection in high-resolution images using superpixel segmentation and CNN iteration strategy | |
CN113449629B (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 | |
CN112926676B (zh) | 一种虚假目标识别方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181218 |