CN104715471A - 目标定位跟踪方法及其装置 - Google Patents

目标定位跟踪方法及其装置 Download PDF

Info

Publication number
CN104715471A
CN104715471A CN201410005688.2A CN201410005688A CN104715471A CN 104715471 A CN104715471 A CN 104715471A CN 201410005688 A CN201410005688 A CN 201410005688A CN 104715471 A CN104715471 A CN 104715471A
Authority
CN
China
Prior art keywords
data
target
data point
depth
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410005688.2A
Other languages
English (en)
Other versions
CN104715471B (zh
Inventor
申琳
张文聪
浦世亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201410005688.2A priority Critical patent/CN104715471B/zh
Publication of CN104715471A publication Critical patent/CN104715471A/zh
Application granted granted Critical
Publication of CN104715471B publication Critical patent/CN104715471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及视频监控领域,公开了一种目标定位跟踪方法及其装置。该跟踪方法包括以下步骤:采集并转化深度数据为深度图像数据,其中,深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离;提取深度图像数据的前景数据;计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像;根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点;将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。本发明可以避免在三维空间中分割目标时一个目标被分割成多个目标的情况,极大的节省运算量,实现对目标的精确定位和跟踪。

Description

目标定位跟踪方法及其装置
技术领域
本发明涉及智能监控领域,特别涉及目标定位跟踪技术。
背景技术
对复杂场景中人体目标进行定位跟踪是当前计算机视觉领域的研究热点,其在智能监控领域也有较大的应用空间。针对人体目标进行定位跟踪目前研究最多的方法有基于背景建模的方法、基于人体部分或整体区域进行大量样本机器学习的方法等,由于上述方法都是通过单摄像头拍摄场景图像并进行分析处理,受场景的光线变化、人体目标的复杂性及阴影等因素的影响较大,使得人体目标定位跟踪的精度大大降低。而通过深度采集设备获取场景的深度图像,将深度图像用于分析人体目标的定位跟踪可以有效解决上述单目情况遇到的问题。目前利用深度图像对目标进行定位跟踪的技术主要是采用将目标的前景数据投影到三维空间,再在三维空间对目标进行分割的计算,这种方法容易造成将一个目标误分为多个目标的情况,精确度低而且计算量大。其中,深度采集设备是可以获取场景目标深度距离信息,并将其转化为深度图像的设备,如深度传感器或基于双目立体视觉技术的双目相机等;分割是指将特定空间中的目标点分割合并为不同的类别,完成目标的分类。
发明内容
本发明的目的在于提供一种目标定位跟踪方法及其装置,可以避免在三维空间中分割目标时一个目标被分割成多个目标的情况,极大的节省运算量,实现对目标的精确定位和跟踪。
为解决上述技术问题,本发明的实施方式公开了一种目标定位跟踪方法,包括以下步骤:
采集并转化深度数据为深度图像数据,其中,深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离;
提取深度图像数据的前景数据;
计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像;
根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点;
将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
本发明的实施方式还公开了一种目标定位跟踪装置,包括以下单元:
采集转化单元,用于采集并转化深度数据为深度图像数据,其中,深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离;
前景提取单元,用于提取深度图像数据的前景数据;
坐标计算单元,用于计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像;
数据点合并单元,用于根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点;
目标跟踪单元,用于将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
本发明实施方式与现有技术相比,主要区别及其效果在于:
本发明通过将前景数据在深度数据采集设备中的三维坐标投影到实际的二维地平面,并根据数据点的分布密度和坐标对目标进行分割,可以避免在三维空间中分割目标时一个目标被分割成多个目标的情况,极大的节省运算量,实现对目标的精确定位和跟踪。
进一步地,设置数据点的灰度值大于背景灰度值,可以在后续分割目标时清晰的确定数据点的位置和分布密度。
进一步地,采用单高斯模型进行背景建模所得的数据精度就可以满足实际的需求,且计算速度块,对计算机的运算能力要求低。
附图说明
图1是本发明第一实施方式中一种目标定位跟踪方法的流程示意图;
图2是本发明第二实施方式中一种目标定位跟踪方法的流程示意图;
图3是本发明第二实施方式中深度图像数据投影的示例图;
图4是本发明第二实施方式中进行目标定位跟踪的效果示例图;
图5是本发明第三实施方式中一种目标定位跟踪装置的结构示意图;
图6是本发明第四实施方式中一种目标定位跟踪装置的结构示意图。
具体实施方式
在以下的叙述中,为了使读者更好地理解本申请而提出了许多技术细节。但是,本领域的普通技术人员可以理解,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请各权利要求所要求保护的技术方案。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步地详细描述。
本发明第一实施方式涉及一种目标定位跟踪方法。图1是该目标定位跟踪方法的流程示意图。
具体地说,如图1所示,该目标定位跟踪方法包括以下步骤:
在步骤101中,采集并转化深度数据为深度图像数据,其中,深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离。
此后进入步骤102,提取深度图像数据的前景数据。
本步骤还包括以下子步骤:
通过单高斯模型对深度图像数据进行背景建模。
采用单高斯模型进行背景建模所得的数据精度就可以满足实际的需求,且计算速度块,对计算机的运算能力要求低。
此外,可以理解,在本发明的其他实施方式中,也可以使用其他的模型对深度图像数据进行背景建模,如混合高斯模型。
此后进入步骤103,计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像。
本步骤包括以下子步骤:
设置二维地面图像的长宽比与深度数据采集场景的长宽比相同;
设置二维地面图像中数据点的灰度值大于二维地面图像背景的灰度值。
其中,设置数据点的灰度值大于背景灰度值,可以在后续分割目标时清晰的确定数据点的位置和分布密度。
此后进入步骤104,根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点。
在本发明的一个优选例中,仅根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点。在本发明的另一个例子中,可以根据二维地面图像中数据点的位置坐标和分布密度,以及其它的辅助信息,合并属于同一目标的数据点。
在本步骤中,对同一目标的数据点的合并是基于DBSCAN密度算法完成的。在本实施方式中,基于密度算法合并目标数据点可以是将特定半径内中心密度较高的数据点合并为代表一个目标的数据点。
此外,可以理解,在本发明的其他实施方式中,也可以采用OPTICS算法、DENCLUE算法等。
此后进入步骤105,将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
可以理解,在本发明中,单个数据点指图像的单个像素,深度数据的采集设备可以是深度传感器或者双目相机或者其他可以采集深度数据的设备。
本发明通过将前景数据在深度数据采集设备中的三维坐标投影到实际的二维地平面,并根据数据点的分布密度和坐标对目标进行分割,可以避免在三维空间中分割目标时一个目标被分割成多个目标的情况,同时极大的节省运算量,实现对目标的精确定位和跟踪。
本发明的各方法实施方式均可以以软件、硬件、固件等方式实现。不管本发明是以软件、硬件、还是固件方式实现,指令代码都可以存储在任何类型的计算机可访问的存储器中(例如永久的或者可修改的,易失性的或者非易失性的,固态的或者非固态的,固定的或者可更换的介质等等)。同样,存储器可以例如是可编程阵列逻辑(Programmable Array Logic,简称“PAL”)、随机存取存储器(Random Access Memory,简称“RAM”)、可编程只读存储器(Programmable Read Only Memory,简称“PROM”)、只读存储器(Read-Only Memory,简称“ROM”)、电可擦除可编程只读存储器(Electrically Erasable Programmable ROM,简称“EEPROM”)、磁盘、光盘、数字通用光盘(Digital Versatile Disc,简称“DVD”)等等。
本发明第二实施方式涉及一种目标定位跟踪方法。图2是该目标定位跟踪方法的流程图。
本实施方式通过深度采集设备获取深度图像数据,深度采集设备可以是深度传感器或双目相机;对提取到的深度图像数据进行深度背景建模,完成前景数据提取;根据相机安装和地平面的位置关系,将前景数据投影到具有实际尺寸的二维地平面上;将投影到二维地平面上的数据点分割,从而分离不同的人体目标;最后获取人体目标的分割中心将其做为该人体目标的定位位置,并将前后帧目标进行关联,实现目标的定位跟踪。
具体地,如图2所示,本实施方式所采取的技术方案有如下步骤:
1)采集深度数据
主要通过深度数据采集设备完成对场景的深度数据的采集,并将采集到的深度数据转化为深度图像数据,该图像中的灰度值大小代表数据点距离采集设备的远近。深度采集设备可以是深度传感器(TOF(Time of Fly,一种根据光飞行时间计算目标深度的一种设备)、kinect(一种体感外设,其采用类结构光的技术完成深度数据的采集)技术等)或基于双目立体视觉技术的双目相机,但不限于这两种设备。
2)前景数据提取
利用处理速度较快的单高斯模型对采集到的深度图像数据进行背景建模,完成深度图像数据的前景数据提取,在提取深度图像数据的前景数据时只提取大于深度背景值的前景数据,因为如果存在前景数据,其前景深度值一定大于背景深度值,这样可以去除部分小于背景值的误匹配点。
3)前景数据地面投影
计算前景数据的三维坐标,并将其投影到实际二维地平面,将目标所在的场景按合适的比例大小显示在二维地面图像的平面上,如将8m*6m的场景显示在分辨率640*480的图像中,单个像素代表0.0125m2的面积。数据点在图像平面上的灰度值可以任意设定,但最好和背景灰度值有较大区分,假如背景灰度值为0,那么投影到二维地面图像平面上数据点的灰度值可以设置为255,以便后续目标分割处理。
投影示例图如图3所述:经过步骤3的过滤处理后,单个人体目标投影后其数据点呈现为较为集中的团状分布,分布区域约在0.5m*0.5m的范围内,具体因个体差异会存在一定偏差。图3中的深度采集设备以双目相机为例,区域P1和P2分别表示目标1和2在地面上的深度投影。
4)地平面目标分割
分割的目的是将属于同一目标的数据点合并成一类,将不同的目标分离。由于地面投影后的数据点呈团状分布,但其并非为类圆型或类椭圆型等较规则的分布,根据其分布图中单个目标中心密度较高的原则,使用基于密度的算法,可以将特定半径内(一般为0.25m)中心密度较高的数据点的点集合并为一个目标。当目标分布较为集中时,可以根据合并前分散的数据点的分布面积的大小判定具体为几个目标。常用的基于密度的算法有DBSCAN算法、OPTICS算法、以及DENCLUE算法等。本方法无需借助数据点的高度信息,只利用数据点的位置信息即可完成目标的准确分割合并。分割处理后可以较直观地看出目标在地平面上的实际分布情况。
5)目标定位跟踪
同一目标的数据点合并后的中心表示该目标的定位坐标位置,即完成人体目标的定位;通过前后帧目标关联及跟踪预测模型,如卡尔曼滤波模型,最终完成人体目标的跟踪。
图4是利用本实施方式进行目标定位跟踪的效果示例图。
本实例对一个4m*5m的房间中的人员进行定位跟踪,图4a为实际拍摄图像,图4b为对整个测试房间进行建模后的虚拟三维场景图像,三维场景中的人体模型代表实际场景中的人员目标,通过利用本方法实时对人员进行定位跟踪分析,得到各人体目标在房间中的定位位置,然后将人体模型实时显示在三维场景对应的位置中,以完成对目标的准确定位跟踪。为了便于观察,图4b中的场景相对于图4a中的模拟场景发生了转动,但不影响实际的定位跟踪结果。从图4可以看出,虽然只用了二维投影的处理方式,运算量比三维要小很多,但在复杂的场景中已完全可以准确地对所有的人体进行定位。
在实施方式中,将前景数据在采集设备中的三维坐标投影到二维地平面上,并按实际比例显示在二维地面图像中,数据点的灰度值可以任意设定,只要保证其灰度值和背景灰度有较大区分即可,由于投影后的各个目标呈一定大小的团状分布,可以根据数据点的位置及密度信息完成分割,合并同一目标且分离不同的目标。该方法实现了在二维空间的分割,不同于三维空间中目标的分割,在三维空间中数据点分布在不同的高度空间,受提取数据点的密集度及高度分布的影响,在实际情况中很容易存在一个人体目标由于数据点分布不均匀被分成多个目标的情况,而将三维点投影到二维地平面上,所有的数据点均投在0.5m*0.5m左右的区域内,利用投影后数据点的位置及密度信息即可准确完成目标的分割,为人体目标的精确定位跟踪提供基础。
本发明可用于公共或特定场所人员的定位及跟踪应用,如值岗离岗检测、尾随检测、以及特定区域的人数统计等。
本发明第三实施方式涉及一种目标定位跟踪装置。图5是该目标定位跟踪装置的结构示意图。
具体地说,如图5所示,该目标定位跟踪装置包括以下单元:
采集转化单元,用于采集并转化深度数据为深度图像数据,其中,深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离。且该单元包括深度数据采集设备,在实际应用中,该采集设备为深度传感器或者双目相机,也可以是能够采集深度数据的其他设备。
前景提取单元,用于提取深度图像数据的前景数据。
坐标计算单元,用于计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像。
数据点合并单元,用于根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点。其中,该数据点合并单元基于DBSCAN密度算法完成对同一目标数据点的合并。
目标跟踪单元,用于将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
在本实施方式中,坐标计算单元包括以下子单元:
参数设置子单元,用于设置二维地面图像的长宽比和深度数据采集场景的长宽比相同,并设置二维地面图像中数据点的灰度值大于二维地面图像背景的灰度值。
此外,在本实施方式中,前景提取单元还包括以下子单元:
背景建模子单元,用于通过单高斯模型对深度图像数据进行背景建模。
第一实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明第四实施方式涉及一种目标定位跟踪装置。图6是该目标定位跟踪装置的结构示意图。
具体地说,如图6所示,该目标定位跟踪装置包括以下单元:
深度数据采集单元,用于采集场景的深度数据。
深度前景提取单元,用于提取深度图像数据的前景数据,过滤运动目标以外的背景。
前景地面投影单元,用于将前景数据投影到二维地平面上,并按照一定的实际比例显示在二维地面图像上。
地平面目标分割单元,用于完成二维地面图像中同一目标数据点的合并及不同目标的分离。
目标定位跟踪单元,用于记录目标的定位位置,并关联前后帧目标,实现目标的定位跟踪。
需要说明的是,本发明各设备实施方式中提到的各单元都是逻辑单元,在物理上,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现,这些逻辑单元本身的物理实现方式并不是最重要的,这些逻辑单元所实现的功能的组合才是解决本发明所提出的技术问题的关键。此外,为了突出本发明的创新部分,本发明上述各设备实施方式并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,这并不表明上述设备实施方式并不存在其它的单元。
需要说明的是,在本专利的权利要求和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
虽然通过参照本发明的某些优选实施方式,已经对本发明进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (10)

1.一种目标定位跟踪方法,其特征在于,包括以下步骤:
采集并转化深度数据为深度图像数据,其中,所述深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离;
提取所述深度图像数据的前景数据;
计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像;
根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点;
将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
2.根据权利要求1所述的目标定位跟踪方法,其特征在于,所述计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像的步骤还包括以下子步骤:
设置所述二维地面图像的长宽比与深度数据采集场景的长宽比相同;
设置所述二维地面图像中数据点的灰度值大于二维地面图像背景的灰度值。
3.根据权利要求1所述的目标定位跟踪方法,其特征在于,在所述根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点的步骤中,对同一目标的数据点的合并是基于DBSCAN密度算法完成的。
4.根据权利要求1所述的目标定位跟踪方法,其特征在于,所述提取所述深度图像数据的前景数据的步骤包括以下子步骤:
通过单高斯模型对所述深度图像数据进行背景建模。
5.根据权利要求1至4中任一项所述的目标定位跟踪方法,其特征在于,所述深度数据的采集设备是深度传感器或者双目相机。
6.一种目标定位跟踪装置,其特征在于,包括以下单元:
采集转化单元,用于采集并转化深度数据为深度图像数据,其中,所述深度图像数据中灰度值的大小表示该深度图像中的数据点与采集设备之间的距离;
前景提取单元,用于提取所述深度图像数据的前景数据;
坐标计算单元,用于计算前景数据在采集设备中的三维坐标,并将该三维坐标投影到现实的二维地平面形成二维地面图像;
数据点合并单元,用于根据二维地面图像中数据点的位置坐标和分布密度合并属于同一目标的数据点;
目标跟踪单元,用于将合并的数据点的分布中心作为与该合并的数据点所对应目标的定位位置,根据该定位位置对该目标进行跟踪。
7.根据权利要求6所述的目标定位跟踪装置,其特征在于,所述坐标计算单元包括以下子单元:
参数设置子单元,用于设置所述二维地面图像的长宽比和深度数据采集场景的长宽比相同,并设置所述二维地面图像中数据点的灰度值大于二维地面图像背景的灰度值。
8.根据权利要求6所述的目标定位跟踪装置,其特征在于,所述数据点合并单元基于DBSCAN密度算法完成对同一目标数据点的合并。
9.根据权利要求6所述的目标定位跟踪装置,其特征在于,所述前景提取单元还包括以下子单元:
背景建模子单元,用于通过单高斯模型对所述深度图像数据进行背景建模。
10.根据权利要求6至9中任一项所述的目标定位跟踪装置,其特征在于,所述采集转化单元包括深度数据采集设备,该设备为深度传感器或者双目相机。
CN201410005688.2A 2014-01-03 2014-01-03 目标定位跟踪方法及其装置 Active CN104715471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410005688.2A CN104715471B (zh) 2014-01-03 2014-01-03 目标定位跟踪方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410005688.2A CN104715471B (zh) 2014-01-03 2014-01-03 目标定位跟踪方法及其装置

Publications (2)

Publication Number Publication Date
CN104715471A true CN104715471A (zh) 2015-06-17
CN104715471B CN104715471B (zh) 2018-01-02

Family

ID=53414766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410005688.2A Active CN104715471B (zh) 2014-01-03 2014-01-03 目标定位跟踪方法及其装置

Country Status (1)

Country Link
CN (1) CN104715471B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574545A (zh) * 2015-12-17 2016-05-11 福州华鹰重工机械有限公司 环境图像多视角语义切割方法及装置
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105975923A (zh) * 2016-05-03 2016-09-28 湖南拓视觉信息技术有限公司 用于跟踪人体对象的方法和系统
CN106022266A (zh) * 2016-05-20 2016-10-12 北京格灵深瞳信息技术有限公司 一种目标跟踪方法及装置
CN106295557A (zh) * 2016-08-05 2017-01-04 浙江大华技术股份有限公司 一种人群密度估计的方法及装置
CN107167784A (zh) * 2017-07-05 2017-09-15 电子科技大学 一种基于多通道比相定位的多人体目标定位跟踪方法
CN107610142A (zh) * 2017-04-17 2018-01-19 中华电信股份有限公司 依据影像进行人流计数的系统及方法
CN108022205A (zh) * 2016-11-04 2018-05-11 杭州海康威视数字技术股份有限公司 目标跟踪方法、装置及录播系统
CN108069307A (zh) * 2016-11-14 2018-05-25 杭州海康威视数字技术股份有限公司 一种对电梯中的人数进行统计的方法及装置
CN108151750A (zh) * 2017-12-13 2018-06-12 西华大学 定位方法及装置
CN108596980A (zh) * 2018-03-29 2018-09-28 中国人民解放军63920部队 圆形目标视觉定位精度评估方法、装置、存储介质和处理设备
CN108876821A (zh) * 2018-07-05 2018-11-23 北京云视万维科技有限公司 跨镜头多目标跟踪方法及系统
CN110291771A (zh) * 2018-07-23 2019-09-27 深圳市大疆创新科技有限公司 一种目标对象的深度信息获取方法及可移动平台
CN110832348A (zh) * 2016-12-30 2020-02-21 迪普迈普有限公司 用于自主车辆的高清晰度地图的点云数据丰富
CN111079859A (zh) * 2019-12-31 2020-04-28 哈尔滨工程大学 一种无源多站多目标测向交叉定位与虚假点去除方法
CN111082309A (zh) * 2019-12-30 2020-04-28 浙江矽感锐芯科技有限公司 一种to封装中对封帽同轴度的控制方法
CN111223139A (zh) * 2018-11-26 2020-06-02 深圳市优必选科技有限公司 目标定位方法及终端设备
CN111726572A (zh) * 2020-01-14 2020-09-29 灞卞嘲 基于指令信号触发的关联人员锁定平台及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222265A (zh) * 2010-04-13 2011-10-19 上海申腾三盛信息技术工程有限公司 基于双目视觉和侧安装摄像机的客流计数方法
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN102890791A (zh) * 2012-08-31 2013-01-23 浙江捷尚视觉科技有限公司 基于深度信息聚类的复杂场景人数统计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222265A (zh) * 2010-04-13 2011-10-19 上海申腾三盛信息技术工程有限公司 基于双目视觉和侧安装摄像机的客流计数方法
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN102890791A (zh) * 2012-08-31 2013-01-23 浙江捷尚视觉科技有限公司 基于深度信息聚类的复杂场景人数统计方法

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574545B (zh) * 2015-12-17 2018-01-02 福州华鹰重工机械有限公司 街道环境图像多视角语义切割方法及装置
CN105574545A (zh) * 2015-12-17 2016-05-11 福州华鹰重工机械有限公司 环境图像多视角语义切割方法及装置
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105957106B (zh) * 2016-04-26 2019-02-22 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105975923A (zh) * 2016-05-03 2016-09-28 湖南拓视觉信息技术有限公司 用于跟踪人体对象的方法和系统
CN105975923B (zh) * 2016-05-03 2020-02-21 湖南拓视觉信息技术有限公司 用于跟踪人体对象的方法和系统
CN106022266A (zh) * 2016-05-20 2016-10-12 北京格灵深瞳信息技术有限公司 一种目标跟踪方法及装置
CN106295557A (zh) * 2016-08-05 2017-01-04 浙江大华技术股份有限公司 一种人群密度估计的方法及装置
CN106295557B (zh) * 2016-08-05 2019-09-17 浙江大华技术股份有限公司 一种人群密度估计的方法及装置
CN108022205A (zh) * 2016-11-04 2018-05-11 杭州海康威视数字技术股份有限公司 目标跟踪方法、装置及录播系统
CN108069307A (zh) * 2016-11-14 2018-05-25 杭州海康威视数字技术股份有限公司 一种对电梯中的人数进行统计的方法及装置
CN110832348A (zh) * 2016-12-30 2020-02-21 迪普迈普有限公司 用于自主车辆的高清晰度地图的点云数据丰富
CN110832348B (zh) * 2016-12-30 2023-08-15 辉达公司 用于自主车辆的高清晰度地图的点云数据丰富
TWI618002B (zh) * 2017-04-17 2018-03-11 Chunghwa Telecom Co Ltd System and method for counting human flow according to images
CN107610142B (zh) * 2017-04-17 2020-09-25 中华电信股份有限公司 依据影像进行人流计数的系统及方法
CN107610142A (zh) * 2017-04-17 2018-01-19 中华电信股份有限公司 依据影像进行人流计数的系统及方法
CN107167784A (zh) * 2017-07-05 2017-09-15 电子科技大学 一种基于多通道比相定位的多人体目标定位跟踪方法
CN108151750A (zh) * 2017-12-13 2018-06-12 西华大学 定位方法及装置
CN108151750B (zh) * 2017-12-13 2020-04-14 西华大学 定位方法及装置
CN108596980A (zh) * 2018-03-29 2018-09-28 中国人民解放军63920部队 圆形目标视觉定位精度评估方法、装置、存储介质和处理设备
CN108596980B (zh) * 2018-03-29 2021-12-07 中国人民解放军63920部队 圆形目标视觉定位精度评估方法、装置、存储介质和处理设备
CN108876821B (zh) * 2018-07-05 2019-06-07 北京云视万维科技有限公司 跨镜头多目标跟踪方法及系统
CN108876821A (zh) * 2018-07-05 2018-11-23 北京云视万维科技有限公司 跨镜头多目标跟踪方法及系统
CN110291771A (zh) * 2018-07-23 2019-09-27 深圳市大疆创新科技有限公司 一种目标对象的深度信息获取方法及可移动平台
CN110291771B (zh) * 2018-07-23 2021-11-16 深圳市大疆创新科技有限公司 一种目标对象的深度信息获取方法及可移动平台
CN111223139A (zh) * 2018-11-26 2020-06-02 深圳市优必选科技有限公司 目标定位方法及终端设备
CN111223139B (zh) * 2018-11-26 2024-02-13 深圳市优必选科技有限公司 目标定位方法及终端设备
CN111082309A (zh) * 2019-12-30 2020-04-28 浙江矽感锐芯科技有限公司 一种to封装中对封帽同轴度的控制方法
CN111079859B (zh) * 2019-12-31 2020-12-04 哈尔滨工程大学 一种无源多站多目标测向交叉定位与虚假点去除方法
CN111079859A (zh) * 2019-12-31 2020-04-28 哈尔滨工程大学 一种无源多站多目标测向交叉定位与虚假点去除方法
CN111726572B (zh) * 2020-01-14 2021-11-16 刘恩伯 基于指令信号触发的关联人员锁定平台及方法
CN111726572A (zh) * 2020-01-14 2020-09-29 灞卞嘲 基于指令信号触发的关联人员锁定平台及方法

Also Published As

Publication number Publication date
CN104715471B (zh) 2018-01-02

Similar Documents

Publication Publication Date Title
CN104715471B (zh) 目标定位跟踪方法及其装置
Wu et al. Rapid localization and extraction of street light poles in mobile LiDAR point clouds: A supervoxel-based approach
US11288820B2 (en) System and method for transforming video data into directional object count
CN105678288A (zh) 目标跟踪方法和装置
CN102243765A (zh) 基于多相机的多目标定位跟踪方法及系统
Yang et al. A new hybrid synthetic aperture imaging model for tracking and seeing people through occlusion
CN103985257A (zh) 一种智能交通视频分析方法
Diaz-Ruiz et al. Ithaca365: Dataset and driving perception under repeated and challenging weather conditions
CN109002800A (zh) 基于多传感器融合的三维目标实时识别机构及识别方法
Bak et al. Dynamic objects detection through visual odometry and stereo-vision: a study of inaccuracy and improvement sources
Akbar et al. A novel benchmark RGBD dataset for dormant apple trees and its application to automatic pruning
CN105975923A (zh) 用于跟踪人体对象的方法和系统
Liu et al. Deep-learning and depth-map based approach for detection and 3-D localization of small traffic signs
Kluckner et al. Image-based building classification and 3d modeling with super-pixels
Bulatov et al. Automatic tree-crown detection in challenging scenarios
Cavagna et al. Sparta tracking across occlusions via partitioning of 3d clouds of points
CN104123569B (zh) 一种基于有监督学习的视频人数信息统计方法
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
Yan et al. Automatic extraction of moving objects from image and LIDAR sequences
Börcs et al. Dynamic 3D environment perception and reconstruction using a mobile rotating multi-beam Lidar scanner
Yang et al. Method for building recognition from FLIR images
Delgado et al. Virtual validation of a multi-object tracker with intercamera tracking for automotive fisheye based surround view systems
Cao et al. A target tracking system based on multi-camera information fusion
Zhao et al. Lidar-camera based 3D obstacle detection for UGVs
Wang et al. Improving 3D Zebrafish Tracking with Multi-View Data Fusion and Global Association

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant