CN105760846A - 基于深度数据的目标检测与定位方法及系统 - Google Patents

基于深度数据的目标检测与定位方法及系统 Download PDF

Info

Publication number
CN105760846A
CN105760846A CN201610115301.8A CN201610115301A CN105760846A CN 105760846 A CN105760846 A CN 105760846A CN 201610115301 A CN201610115301 A CN 201610115301A CN 105760846 A CN105760846 A CN 105760846A
Authority
CN
China
Prior art keywords
target
depth
detection
prospect
visual angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610115301.8A
Other languages
English (en)
Other versions
CN105760846B (zh
Inventor
杨恒
张政
李锦丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Jingkang Weishi Intelligent Technology Co.,Ltd.
Original Assignee
Beijing Innovisgroup Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Innovisgroup Technology Co Ltd filed Critical Beijing Innovisgroup Technology Co Ltd
Priority to CN201610115301.8A priority Critical patent/CN105760846B/zh
Publication of CN105760846A publication Critical patent/CN105760846A/zh
Application granted granted Critical
Publication of CN105760846B publication Critical patent/CN105760846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Abstract

本发明提出了一种基于深度数据的目标检测与定位方法及系统,包括:利用深度数据传感器采集的深度数据来获取深度图,构建深度图的背景模型,获取深度图视角下的目标前景区域,对目标前景区域进行初步分割;利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对俯视视角下的目标前景区域进行再次分割;提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位;对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。本发明能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位。

Description

基于深度数据的目标检测与定位方法及系统
技术领域
本发明涉及视频监控技术领域,特别涉及一种基于深度数据的目标检测与定位方法及系统。
背景技术
随着社会的不断进步和经济建设的迅速发展,视频监控也就越来越多的应用于各个行业和方面。智能视频分析监控系统能够自动识别不同的物体,发现监控画面中的异常情况,并能够以最快和最佳的方式发出警报和提供有用信息,从而能够更加有效的协助安全人员处理危机。
目标的检测是视频分析技术的一个基础功能,对实现后续目标跟踪、目标识别及行为分析等应用有重要意义,尤其是在实时目标事件监控领域,其重要性更是不言而喻。
基于传统视频图像的目标检测方法有很多,如使用背景建模、运动差分和特征加分类器等,但受二维图像特性限制,其检测效果受光照变化、目标遮挡等影响严重。
近年来随着深度传感器技术的进步,由于其使用主动光及能够获取三维深度信息等,使其在处理光照变化、阴影和遮挡方面优势明显,因此将深度摄像机采集的深度数据用于目标检测受到了越来越多的关注,出现了如使用高点区域联通、人头检测器等基于深度图的目标检方法,但也存在计算量大或受视角影响的问题。
发明专利CN103686074A公开了一种视频监控中移动目标的定位方法,可以,通过对视频图像数据进行分析处理,提取出其中的运动目标,并对其位置进行实时计算,获取其在真实场景中的实时坐标位置,实现定位目的。但是,该技术方案仍受二维图像特性限制,检测效果受光照变化和目标遮挡的影响,检测结果的精度有限。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于深度数据的目标检测与定位方法及系统,能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位。
为了实现上述目的,本发明一方面的实施例提供一种基于深度数据的目标检测与定位方法,包括如下步骤:
步骤S1,利用深度数据传感器采集的深度数据来获取深度图,构建所述深度图的背景模型,获取所述深度图视角下的目标前景区域,对所述目标前景区域进行初步分割;
步骤S2,利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对所述俯视视角下的目标前景区域进行再次分割;
步骤S3,在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位;
步骤S4,对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
进一步,在所述步骤S1中,所述构建深度图的背景模型,包括如下步骤:
对所述深度图进行预处理以滤除噪点干扰;
在所述预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
进一步,所述步骤S1还包括如下步骤:根据所述深度图的数据特征,提取所述深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到所述目标前景区域。
进一步,在所述步骤S2中,对所述俯视视角下的目标前景进行再次分割后,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
进一步,在所述步骤S4中,所述对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,包括如下步骤:
对所述检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
根据本发明实施例的基于深度数据的目标检测与定位方法,通过采集目标区域的深度图像数据,对深度图像数据进行分析获取目标前景区域,并对目标前景区域进行检测定位,对检测定位结果进行三维坐标位置的关联跟踪,再映射到原始深度图坐标下,得到最终目标检测结果。本发明能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位,检测定位精度高。此外,本发明通过投影矩阵进行旋转平移变换,将检测出来的前景区域映射到俯视视角下,在俯视视角下待处理的数据量大大减小,提高了分析处理速度,同时由于将深度特征的提取统一在俯视视角下,也因此实现了目标检测模型的视角不变性。
本发明另一方面提出一种基于深度数据的目标检测与定位系统,包括:目标前景初次分割模块,用于利用深度数据传感器采集的深度数据来获取深度图,构建所述深度图的背景模型,获取所述深度图视角下的目标前景区域,对所述目标前景区域进行初步分割;目标前景再次分割模块,所述目标前景再次分割模块与所述目标前景初次分割模块相连,用于利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对所述俯视视角下的目标前景区域进行再次分割;前景粘连检测定位模块,所述前景粘连检测定位模块与所述目标前景再次分割模块相连,用于在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位;关联跟踪模块,所述关联跟踪模块与所述前景粘连检测定位模块相连,用于对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
进一步,所述目标前景初次分割模块构建深度图的背景模型,包括:对所述深度图进行预处理以滤除噪点干扰;在所述预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
进一步,所述目标前景初次分割模块还用于根据所述深度图的数据特征,提取所述深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到所述目标前景区域。
进一步,所述目标前景再次分割模块对所述俯视视角下的目标前景进行再次分割后,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
进一步,所述关联跟踪模块用于对所述检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
根据本发明实施例的基于深度数据的目标检测与定位系统,通过采集目标区域的深度图像数据,对深度图像数据进行分析获取目标前景区域,并对目标前景区域进行检测定位,对检测定位结果进行三维坐标位置的关联跟踪,再映射到原始深度图坐标下,得到最终目标检测结果。本发明能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位,检测定位精度高。此外,本发明通过投影矩阵进行旋转平移变换,将检测出来的前景区域映射到俯视视角下,在俯视视角下待处理的数据量大大减小,提高了分析处理速度,同时由于将深度特征的提取统一在俯视视角下,也因此实现了目标检测模型的视角不变性。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于深度数据的目标检测与定位方法的流程图;
图2为根据本发明实施例的深度数据采集的示意图;
图3为根据本发明实施例的深度视角下的深度图;
图4为根据本发明实施例的深度视角下的目标前景初次分割示意图;
图5为根据本发明实施例的俯视视角图;
图6为根据本发明实施例的俯视视角下的目标前景再次分割示意图;
图7为根据本发明实施例的检测定位结果示意图;
图8为根据本发明实施例的定位结果示意图;
图9为根据本发明实施例的基于深度数据的目标检测与定位系统的结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
如图1所示,本发明实施例的基于深度数据的目标检测与定位方法,包括如下步骤:
步骤S1,利用深度数据传感器采集的深度数据来获取深度图,构建深度图的背景模型,获取深度图视角下的目标前景区域,对目标前景区域进行初步分割。其中,深度深度数据传感器可以为双目摄像头、kinect传感器或TOF传感器等深度传感器。
在本步骤中,利用深度数据传感器采集的深度数据来获取深度图,构建深度图的背景模型,包括如下步骤:
首先,对深度图进行预处理以滤除噪点干扰。图3示出了深度视角下的深度图。
然后,在预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
进一步,根据深度图的数据特征,提取深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到目标前景区域。
通过构建深度图的背景模型,并进行初始前景检测,获取深度图视角下的目标前景区域,对目标前景区域进行连通区域分析(Two-Pass法或Seed-Filling方法),获得深度图视角下的前景初步检测分割结果。在本发明的一个实施例中,采用Two-Pass法或Seed-Filling方法对目标前景区域进行连通区域分析。
具体地,深度数据图与灰度图类似,因此本步骤可以将二维图上的前景检测方法应用于深度数据图,以实现目标前景的初步检测。在本发明的一个实施例中,采用以下方法实现目标前景的初步检测:帧间差分、GMM、codebook等。图4为根据本发明实施例的深度视角下的目标前景初次分割示意图。
步骤S2,利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对俯视视角下的目标前景区域进行再次分割,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
利用深度数据的三维特性,对深度数据信息做投影变换,将前景变换到俯视视角下,基于俯视信息实现对深度前景的再次分割。
具体地,通过投影矩阵进行旋转平移变换,将步骤S1中检测出来的前景区域映射到俯视视角下,得到前景区域俯视图。图5为根据本发明实施例的俯视视角图。然后,利用深度距离信息,将前景进行再次分割,并分别得到俯视前景像素累积图和俯视前景深度最小数值图。图6为根据本发明实施例的俯视视角下的目标前景再次分割示意图。
需要说明的是,俯视前景像素累积图是指同一俯仰图像素位置对应的前景像素个数;俯视前景深度最小数值图是指同一俯视像素位置对应的前景最小Z轴坐标值。
步骤S3,在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位。
由于深度数据存在噪声干扰以及场景目标距离过近等会导致不同目标的前景区域出现粘连,因此本发明进一步利用检测器的方法对粘连目标进行定位区分,即利用步骤S2中的前景累积图和前景最小深度数值图构建训练样本库,对训练样本进行多特征提取(如SLTP、HOG特征等),并将这些特征通过级联的方式进行融合,然后针对这些特征使用机器学习方法(如Adaboost、支持向量机SVM等)训练得到目标模型,最后将该模型用于检测器从而实现粘连目标的验证定位。图7为根据本发明实施例的检测定位结果示意图。如图7所示,图中最亮区域即为检测器响应值最大的点。
由于俯视视角下待处理的数据量大大减小,提高了分析处理速度,也因此实现了目标模型的视角不变性。
步骤S4,对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
具体地,对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,包括如下步骤:
对检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,即计算前后帧之间所有分割目标的三维位置距离,得到目标间的距离相似度关联矩阵,然后使用KM算法获得最小权匹配,从而实现对目标的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,通过逆向的透视投影变换,将其对应到传感器视角下的深度图或彩色图像中,即将稳定的目标对应到深度传感器视角图中,得到最终目标检测结果,如图8所示。
根据本发明实施例的基于深度数据的目标检测与定位方法,通过采集目标区域的深度图像数据,对深度图像数据进行分析获取目标前景区域,并对目标前景区域进行检测定位,对检测定位结果进行三维坐标位置的关联跟踪,再映射到原始深度图坐标下,得到最终目标检测结果。本发明能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位,检测定位精度高。此外,本发明通过投影矩阵进行旋转平移变换,将检测出来的前景区域映射到俯视视角下,在俯视视角下待处理的数据量大大减小,提高了分析处理速度,同时由于将深度特征的提取统一在俯视视角下,也因此实现了目标检测模型的视角不变性。
如图9所示,本发明实施例的基于深度数据的目标检测与定位系统,包括:目标前景初次分割模块1、目标前景再次分割模块2、前景粘连检测定位模块3和关联跟踪模块4。
具体地,目标前景初次分割模块1用于利用深度数据传感器采集的深度数据来获取深度图,构建深度图的背景模型,获取深度图视角下的目标前景区域,对该目标前景区域进行初步分割。
在本发明的一个实施例中,目标前景初次分割模块1构建深度图的背景模型,包括:对深度图进行预处理以滤除噪点干扰;在预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
目标前景初次分割模块1还用于根据深度图的数据特征,提取深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到目标前景区域。在本发明的一个实施例中,采用Two-Pass法或Seed-Filling方法对目标前景区域进行连通区域分析。
目标前景初次分割模块1通过构建深度图的背景模型,并进行初始前景检测,获取深度图视角下的目标前景区域,对目标前景区域进行初步分割,获得深度图视角下的前景初步检测分割结果。
具体地,深度数据图与灰度图类似,因此本步骤可以将二维图上的前景检测方法应用于深度数据图,以实现目标前景的初步检测。在本发明的一个实施例中,采用以下方法实现目标前景的初步检测:帧间差分、GMM、codebook等。
目标前景再次分割模块2与目标前景初次分割模块1相连,用于利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对俯视视角下的目标前景区域进行再次分割。
在本发明的一个实施例中,目标前景再次分割模块2对俯视视角下的目标前景进行再次分割后,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
目标前景再次分割模块2利用深度数据的三维特性,对深度数据信息做投影变换,将前景变换到俯视视角下,基于俯视信息实现对深度前景的再次分割。
具体地,通过投影矩阵进行旋转平移变换,将目标前景初次分割模块1检测出来的前景区域映射到俯视视角下,得到前景区域俯视图。然后,利用深度距离信息,将前景进行再次分割,并分别得到俯视前景像素累积图和俯视前景深度最小数值图。
需要说明的是,俯视前景像素累积图是指同一俯仰图像素位置对应的前景像素个数;俯视前景深度最小数值图是指同一俯视像素位置对应的前景最小Z轴坐标值。
前景粘连检测定位模块3与目标前景再次分割模块2相连,用于在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位。
由于深度数据存在噪声干扰以及场景目标距离过近等会导致不同目标的前景区域出现粘连,因此前景粘连检测定位模块3可以利用目标前景再次分割模块2得到的前景累积图和前景最小深度数值图并融合其他深度特征(如SLTP、HDD等特征),并将这些特征通过级联的方式进行融合,然后针对这些特征使用机器学习方法(如Adaboost、支持向量机SVM等)训练得到目标模型,最后将该模型用于检测器从而实现粘连目标的验证定位。。由于俯视视角下待处理的数据量大大减小,提高了分析处理速度,也因此实现了目标模型的视角不变性。
关联跟踪模块4与前景粘连检测定位模块3相连,用于对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
具体地,关联跟踪模块4对检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,对检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,即计算前后帧之间所有分割目标的三维位置距离,得到目标间的距离相似度关联矩阵,然后使用KM算法获得最小权匹配,从而实现对目标的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,通过逆向的透视投影变换,将其对应到传感器视角下的深度图或彩色图像中,即将稳定的目标对应到深度传感器视角图中,得到最终目标检测结果.
根据本发明实施例的基于深度数据的目标检测与定位系统,通过采集目标区域的深度图像数据,对深度图像数据进行分析获取目标前景区域,并对目标前景区域进行检测定位,对检测定位结果进行三维坐标位置的关联跟踪,再映射到原始深度图坐标下,得到最终目标检测结果。本发明能够在严重遮挡、光照变化情况下快速鲁棒的完成对目标的准确检测定位,检测定位精度高。此外,本发明通过投影矩阵进行旋转平移变换,将检测出来的前景区域映射到俯视视角下,在俯视视角下待处理的数据量大大减小,提高了分析处理速度,同时由于将深度特征的提取统一在俯视视角下,也因此实现了目标检测模型的视角不变性。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求极其等同限定。

Claims (10)

1.一种基于深度数据的目标检测与定位方法,其特征在于,包括如下步骤:
步骤S1,利用深度数据传感器采集的深度数据来获取深度图,构建所述深度图的背景模型,获取所述深度图视角下的目标前景区域,对所述目标前景区域进行初步分割;
步骤S2,利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对所述俯视视角下的目标前景区域进行再次分割;
步骤S3,在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位;
步骤S4,对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
2.如权利要求1所述的基于深度数据的目标检测与定位方法,其特征在于,在所述步骤S1中,所述构建深度图的背景模型,包括如下步骤:
对所述深度图进行预处理以滤除噪点干扰;
在所述预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
3.如权利要求1或2所述的基于深度数据的目标检测与定位方法,其特征在于,所述步骤S1还包括如下步骤:根据所述深度图的数据特征,提取所述深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到所述目标前景区域。
4.如权利要求1所述的基于深度数据的目标检测与定位方法,其特征在于,在所述步骤S2中,对所述俯视视角下的目标前景进行再次分割后,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
5.如权利要求1所述的基于深度数据的目标检测与定位方法,其特征在于,在所述步骤S4中,所述对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,包括如下步骤:
对所述检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
6.一种基于深度数据的目标检测与定位系统,其特征在于,包括:
目标前景初次分割模块,用于利用深度数据传感器采集的深度数据来获取深度图,构建所述深度图的背景模型,获取所述深度图视角下的目标前景区域,对所述目标前景区域进行初步分割;
目标前景再次分割模块,所述目标前景再次分割模块与所述目标前景初次分割模块相连,用于利用投影矩阵,将经过初次分割的目标前景区域映射到俯视视角下,依据目标在水平空间上的位置差异对所述俯视视角下的目标前景区域进行再次分割;
前景粘连检测定位模块,所述前景粘连检测定位模块与所述目标前景再次分割模块相连,用于在俯视图上,提取前景区域的深度特征并训练得到目标检测模型,利用该目标检测模型对粘连目标进行检测定位;
关联跟踪模块,所述关联跟踪模块与所述前景粘连检测定位模块相连,用于对俯视图上的检测定位结果进行三维坐标位置的关联跟踪,再将检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
7.如权利要求6所述的基于深度数据的目标检测与定位系统,其特征在于,所述目标前景初次分割模块构建深度图的背景模型,包括:对所述深度图进行预处理以滤除噪点干扰;在所述预处理后的深度图中,采集最远深度数据,并以选择性背景更新策略构建所述背景模型。
8.如权利要求6或7所述的基于深度数据的目标检测与定位系统,其特征在于,所述目标前景初次分割模块还用于根据所述深度图的数据特征,提取所述深度图的数据值小于背景数据的像素坐标,对该像素坐标进行连通域分析以得到所述目标前景区域。
9.如权利要求6所述的基于深度数据的目标检测与定位系统,其特征在于,所述目标前景再次分割模块对所述俯视视角下的目标前景进行再次分割后,分别得到俯视视角下的目标前景像素累积图和俯视视角下的目标前景深度最小数值图。
10.如权利要求6所述的基于深度数据的目标检测与定位系统,其特征在于,所述关联跟踪模块用于对所述检测定位结果中前后帧间的检测目标进行三维坐标位置的关联跟踪,将满足预设跟踪时长的检测定位结果映射到原始深度图坐标下,得到最终目标检测结果。
CN201610115301.8A 2016-03-01 2016-03-01 基于深度数据的目标检测与定位方法及系统 Active CN105760846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610115301.8A CN105760846B (zh) 2016-03-01 2016-03-01 基于深度数据的目标检测与定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610115301.8A CN105760846B (zh) 2016-03-01 2016-03-01 基于深度数据的目标检测与定位方法及系统

Publications (2)

Publication Number Publication Date
CN105760846A true CN105760846A (zh) 2016-07-13
CN105760846B CN105760846B (zh) 2019-02-15

Family

ID=56332193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610115301.8A Active CN105760846B (zh) 2016-03-01 2016-03-01 基于深度数据的目标检测与定位方法及系统

Country Status (1)

Country Link
CN (1) CN105760846B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN107452006A (zh) * 2017-08-11 2017-12-08 哈尔滨工业大学 基于编码镜头的芯片元件定位方法
CN108241837A (zh) * 2016-12-23 2018-07-03 亿阳信通股份有限公司 一种遗留物检测方法和装置
CN108685158A (zh) * 2018-05-28 2018-10-23 杭州安脉盛智能技术有限公司 基于自动光学检测技术的切丝机智能维护方法和系统
CN109416728A (zh) * 2016-09-30 2019-03-01 富士通株式会社 目标检测方法、装置以及计算机系统
CN109461175A (zh) * 2018-10-11 2019-03-12 依睿迪亚(南京)智能科技有限公司 一种基于多个摄像机镜头预估沿平面行进路径和距离的方法
CN109600598A (zh) * 2017-10-02 2019-04-09 纬创资通股份有限公司 影像处理方法、影像处理装置及电脑可读取记录媒体
CN110325879A (zh) * 2017-02-24 2019-10-11 亚德诺半导体无限责任公司 用于压缩三维深度感测的系统和方法
WO2020037553A1 (zh) * 2018-08-22 2020-02-27 深圳市大疆创新科技有限公司 图像处理方法及装置、移动设备
CN110853127A (zh) * 2018-08-20 2020-02-28 浙江宇视科技有限公司 图像处理方法、装置及设备
CN111429487A (zh) * 2020-03-18 2020-07-17 北京华捷艾米科技有限公司 一种深度图像的黏连前景分割方法及装置
CN113781389A (zh) * 2021-07-27 2021-12-10 武汉市异方体科技有限公司 一种基于深度图的多视角货物掩膜方法
WO2022111682A1 (zh) * 2020-11-30 2022-06-02 深圳市普渡科技有限公司 移动行人检测方法、电子设备及机器人

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855459A (zh) * 2011-06-30 2013-01-02 株式会社理光 用于特定前景物体的检测验证的方法和系统
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN103729620A (zh) * 2013-12-12 2014-04-16 北京大学 一种基于多视角贝叶斯网络的多视角行人检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855459A (zh) * 2011-06-30 2013-01-02 株式会社理光 用于特定前景物体的检测验证的方法和系统
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN103729620A (zh) * 2013-12-12 2014-04-16 北京大学 一种基于多视角贝叶斯网络的多视角行人检测方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228560B (zh) * 2016-07-28 2019-05-14 长安大学 一种复杂场景下的人数统计方法
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN109416728A (zh) * 2016-09-30 2019-03-01 富士通株式会社 目标检测方法、装置以及计算机系统
CN108241837B (zh) * 2016-12-23 2022-02-01 亿阳信通股份有限公司 一种遗留物检测方法和装置
CN108241837A (zh) * 2016-12-23 2018-07-03 亿阳信通股份有限公司 一种遗留物检测方法和装置
CN110325879A (zh) * 2017-02-24 2019-10-11 亚德诺半导体无限责任公司 用于压缩三维深度感测的系统和方法
CN110325879B (zh) * 2017-02-24 2024-01-02 亚德诺半导体国际无限责任公司 用于压缩三维深度感测的系统和方法
CN107452006A (zh) * 2017-08-11 2017-12-08 哈尔滨工业大学 基于编码镜头的芯片元件定位方法
CN109600598A (zh) * 2017-10-02 2019-04-09 纬创资通股份有限公司 影像处理方法、影像处理装置及电脑可读取记录媒体
CN108685158B (zh) * 2018-05-28 2021-11-09 杭州安脉盛智能技术有限公司 基于自动光学检测技术的切丝机智能维护方法和系统
CN108685158A (zh) * 2018-05-28 2018-10-23 杭州安脉盛智能技术有限公司 基于自动光学检测技术的切丝机智能维护方法和系统
CN110853127A (zh) * 2018-08-20 2020-02-28 浙江宇视科技有限公司 图像处理方法、装置及设备
WO2020037553A1 (zh) * 2018-08-22 2020-02-27 深圳市大疆创新科技有限公司 图像处理方法及装置、移动设备
CN110892449A (zh) * 2018-08-22 2020-03-17 深圳市大疆创新科技有限公司 图像处理方法及装置、移动设备
CN109461175A (zh) * 2018-10-11 2019-03-12 依睿迪亚(南京)智能科技有限公司 一种基于多个摄像机镜头预估沿平面行进路径和距离的方法
CN111429487A (zh) * 2020-03-18 2020-07-17 北京华捷艾米科技有限公司 一种深度图像的黏连前景分割方法及装置
CN111429487B (zh) * 2020-03-18 2023-10-24 北京华捷艾米科技有限公司 一种深度图像的黏连前景分割方法及装置
WO2022111682A1 (zh) * 2020-11-30 2022-06-02 深圳市普渡科技有限公司 移动行人检测方法、电子设备及机器人
CN113781389A (zh) * 2021-07-27 2021-12-10 武汉市异方体科技有限公司 一种基于深度图的多视角货物掩膜方法

Also Published As

Publication number Publication date
CN105760846B (zh) 2019-02-15

Similar Documents

Publication Publication Date Title
CN105760846A (zh) 基于深度数据的目标检测与定位方法及系统
US10970859B2 (en) Monitoring method and device for mobile target, monitoring system and mobile robot
CN109003303B (zh) 基于语音和空间物体识别及定位的设备控制方法及装置
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
Haritaoglu et al. w 4 s: a real-time system for detecting and tracking people in 2 1/2 d
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
CN109034018A (zh) 一种基于双目视觉的低空小型无人机障碍物感知方法
US20060285724A1 (en) Salient motion detection system, method and program product therefor
CN113156421A (zh) 基于毫米波雷达和摄像头信息融合的障碍物检测方法
Rout A survey on object detection and tracking algorithms
CN104378582A (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN101344965A (zh) 基于双目摄像的跟踪系统
CN102222346A (zh) 一种车辆检测和跟踪方法
CN104063885A (zh) 一种改进的运动目标检测与跟踪方法
CN103105924B (zh) 人机交互方法和装置
CN104331901A (zh) 一种基于tld的多视角目标跟踪装置及方法
CN115388902B (zh) 室内定位方法和系统、ar室内定位导航方法和系统
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN112507845B (zh) 基于CenterNet与深度关联矩阵的行人多目标跟踪方法
CN106504274A (zh) 一种基于红外摄像头下的视觉跟踪方法及系统
CN111062971A (zh) 一种基于深度学习多模态的跨摄像头泥头车追踪方法
Liang et al. Methods of moving target detection and behavior recognition in intelligent vision monitoring.
CN113256731A (zh) 基于单目视觉的目标检测方法及装置
Herghelegiu et al. Robust ground plane detection and tracking in stereo sequences using camera orientation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210429

Address after: 050000 room 607, 99 Industrial Street, circular chemical industry park, Shijiazhuang City, Hebei Province

Patentee after: Hebei Jingkang Weishi Intelligent Technology Co.,Ltd.

Address before: 100082, room 600, room 6, block 28, Xinjie street, Xicheng District, Beijing,

Patentee before: INNOVISGROUP Co.,Ltd.