CN106558069A - 一种基于视频监控下的目标跟踪方法及系统 - Google Patents
一种基于视频监控下的目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN106558069A CN106558069A CN201610887088.2A CN201610887088A CN106558069A CN 106558069 A CN106558069 A CN 106558069A CN 201610887088 A CN201610887088 A CN 201610887088A CN 106558069 A CN106558069 A CN 106558069A
- Authority
- CN
- China
- Prior art keywords
- moving target
- tracking
- target object
- vision
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于视频监控下的目标跟踪方法及系统,其方法包括:采用颜色直方图、纹理特征建立高斯混合背景模型;采用基于区域的方法检测运动目标;获取所述运动目标所在区域的图像信息;根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;基于单目视觉跟踪算法对运动目标进行定位;在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;将视觉跟踪下的运动目标实时传输至云端服务器。通过本发明实施例基于检测的运动目标完成运动目标对象的识别过程,再实现对运动目标定位和视觉跟踪,保证了对视觉跟踪的有效性和精准性。
Description
技术领域
本发明涉及信息技术领域,具体涉及一种基于视频监控下的目标跟踪方法及系统。
背景技术
目标跟踪是计算机视觉研究领域中重要的基础问题之一,在监控、运动估计、人机交互等方面具有非常广泛的应用。近年来出现的许多跟踪算法在一定的场景下能够较好的跟踪目标物体,如粒子滤波、Boosting算法、L1跟踪算法等。但是,由于视频是一个复杂场景下的时序图像序列,复杂场景包括了光照变化、遮挡、动作变形、背景杂乱、目标尺度变化等,因此,构建一个自适应的目标表达模型以便得到鲁棒的跟踪算法,是目前跟踪领域的研究热点,也是难点问题。而现有的视频监控环节中无法很好的跟踪运动目标,达到精准的背景相分离的过程。
发明内容
本发明提供了一种基于视频监控下的目标跟踪方法及系统,该方法可以有效的检测运动目标及背景图像,从而实现对目标定位,实现视觉跟踪效果。
本发明提供了一种基于视频监控下的目标跟踪方法,包括如下步骤:
采用颜色直方图、纹理特征建立高斯混合背景模型;
采用基于区域的方法检测运动目标;
获取所述运动目标所在区域的图像信息;
根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
基于单目视觉跟踪算法对运动目标进行定位;
在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
将视觉跟踪下的运动目标实时传输至云端服务器。
所述采用基于区域的方法检测运动目标包括:
获取视频的静止背景;
获取视频的动态图像帧;
基于视频的背景减除法分离出当前运动目标。
所述基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪包括:
采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
所述采用基于区域的方法检测运动目标还包括:
判断是否存在动态图像帧,若判断存在动态图像帧,则获取视频的动态图像帧。
所述基于单目视觉跟踪算法对运动目标进行定位包括:
对运动目标采用领域线性搜索跟踪;
判断目标是否超出搜索跟踪范围,如果超出搜索跟踪范围,根据范围则给予卡尔曼滤波方法进行预测跟踪;
存储运动目标定位结果。
相应的,本发明还提供了一种基于视频监控下的目标跟踪系统,包括:
背景模型模块,用于采用颜色直方图、纹理特征建立高斯混合背景模型;
检测模块,用于采用基于区域的方法检测运动目标;
获取模块,用于获取所述运动目标所在区域的图像信息;
识别模块,用于根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
定位模块,用于基于单目视觉跟踪算法对运动目标进行定位;
视觉跟踪模块,用于在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
传输模块,用于将视觉跟踪下的运动目标实时传输至云端服务器。
所述检测模块包括:
背景检测单元,用于获取视频的静止背景;
动态检测单元,用于获取视频的动态图像帧;
分离单元,用于基于视频的背景减除法分离出当前运动目标。
所述视觉跟踪模块还用于采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
所述检测模块还包括:
判断单元,用于判断是否存在动态图像帧。
所述定位模块包括:
线性搜索单元,用于对运动目标采用领域线性搜索跟踪;
搜索判断单元,用于判断目标是否超出搜索跟踪范围;
预测跟踪单元,用于在超出搜索跟踪范围时,根据范围则给予卡尔曼滤波方法进行预测跟踪;
存储单元,用于存储运动目标定位结果。
在本发明中,采用颜色直方图、纹理特征等建立高斯混合背景模型,利用基于区域的方法来检测运动目标,较好的实现了运动目标检测过程。利用基于检测的运动目标识别过程,实现对运动目标定位和视觉跟踪,保证了对视觉跟踪的有效性和精准性,并实现了对云端服务功能,满足各种实时在线查看或者传播性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于视频监控下的目标跟踪方法流程图;
图2是本发明实施例中的基于视频监控下的目标跟踪系统结构示意图;
图3是本发明实施例中的检测模块结构示意图;
图4是本发明实施例中的定位模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
相应的,图1示出了本发明实施例中的基于视频监控下的目标跟踪方法流程图,具体包括如下步骤:
S101、采用颜色直方图、纹理特征建立高斯混合背景模型;
颜色直方图是在许多图像检索系统中被广泛采用的颜色特征。它所描述的是不同色彩在整幅图像中所占的比例,而并不关心每种色彩所处的空间位置,即无法描述图像中的对象或物体。颜色直方图特别适于描述那些难以进行自动分割的图像。
混合高斯模型使用K(基本为3到5个)个高斯模型来表征图像中各个像素点的特征,在新一帧图像获得后更新混合高斯模型,用当前图像中的每个像素点与混合高斯模型匹配,如果成功则判定该点为背景点,否则为前景点。通观整个高斯模型,他主要是由方差和均值两个参数决定,对均值和方差的学习,采取不同的学习机制,将直接影响到模型的稳定性、精确性和收敛性。
S102、采用基于区域的方法检测运动目标;
具体实施过程中,其采用获取视频的静止背景;获取视频的动态图像帧;基于视频的背景减除法分离出当前运动目标。
具体实施过程中,还需要进一步判断是否存在动态图像帧,若判断存在动态图像帧,则获取视频的动态图像帧。
S103、获取所述运动目标所在区域的图像信息;
S104、根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
S105、基于单目视觉跟踪算法对运动目标进行定位;
具体实施过程中,对运动目标采用领域线性搜索跟踪;判断目标是否超出搜索跟踪范围,如果超出搜索跟踪范围,根据范围则给予卡尔曼滤波方法进行预测跟踪;存储运动目标定位结果。
由于要对运动目标进行精确的跟踪,可以对视频采集设备上的内参数进行标定测量,因此单目跟踪定位系统主要包括摄像机标定、运动目标检测、运动目标跟踪、运动目标定位4个部分。
具体实施过程中,在跟踪前选定第一帧图像中的运动目标,由于相邻两帧图像的目标运动不会太快,下一帧图像中运动目标的位置根据上一帧图像中运动目标的位置向T×d(半径)的区域搜索来确定,其可以把后一帧的目标捕获住。但由于在某些情况下2帧图像之间运动目标位置变化极大,这样由于邻域线性搜索半径不能设置太大,这种情况下就容易出现目标丢失,导致后面的跟踪失败,针对这种情况,采用卡尔曼滤波器进行弥补。如果出现目标搜索不到的情况,就调用卡尔曼滤波器通过运动目标在上一帧图像中的位置来预测目标在当前帧的位置,以实现连续跟踪,这样既减少了传统跟踪算法的迭代次数,提高了跟踪的速度,又实现了连续跟踪的准确性。
S106、在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
具体实施过程中,采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
S107、将视觉跟踪下的运动目标实时传输至云端服务器。
由此可见,采用颜色直方图、纹理特征等建立高斯混合背景模型,利用基于区域的方法来检测运动目标,较好的实现了运动目标检测过程。以及基于检测的运动目标完成运动目标对象的识别过程,再实现对运动目标定位和视觉跟踪,保证了对视觉跟踪的有效性和精准性,并实现了对云端服务功能,满足各种实时在线查看或者传播性。
相应的,图2示出了本发明实施例中的基于视频监控下的目标跟踪系统结构示意图,包括:
背景模型模块,用于采用颜色直方图、纹理特征建立高斯混合背景模型;
检测模块,用于采用基于区域的方法检测运动目标;
获取模块,用于获取所述运动目标所在区域的图像信息;
识别模块,用于根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
定位模块,用于基于单目视觉跟踪算法对运动目标进行定位;
视觉跟踪模块,用于在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
传输模块,用于将视觉跟踪下的运动目标实时传输至云端服务器。
具体的,图3示出了本发明实施例中的检测模块结构示意图,该检测模块包括:
背景检测单元,用于获取视频的静止背景;
动态检测单元,用于获取视频的动态图像帧;
分离单元,用于基于视频的背景减除法分离出当前运动目标。
所述视觉跟踪模块还用于采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
具体实施过程中,该检测模块还包括:
判断单元,用于判断是否存在动态图像帧。
具体实施过程中,图4示出了本发明实施例中的定位模块结构示意图,该定位模块包括:
线性搜索单元,用于对运动目标采用领域线性搜索跟踪;
搜索判断单元,用于判断目标是否超出搜索跟踪范围;
预测跟踪单元,用于在超出搜索跟踪范围时,根据范围则给予卡尔曼滤波方法进行预测跟踪;
存储单元,用于存储运动目标定位结果。
综上,采用颜色直方图、纹理特征等建立高斯混合背景模型,利用基于区域的方法来检测运动目标,较好的实现了运动目标检测过程。利用基于检测的运动目标识别过程,实现对运动目标定位和视觉跟踪,保证了对视觉跟踪的有效性和精准性,并实现了对云端服务功能,满足各种实时在线查看或者传播性。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上对本发明实施例所提供的基于视频监控下的目标跟踪方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于视频监控下的目标跟踪方法,其特征在于,包括如下步骤:
采用颜色直方图、纹理特征建立高斯混合背景模型;
采用基于区域的方法检测运动目标;
获取所述运动目标所在区域的图像信息;
根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
基于单目视觉跟踪算法对运动目标进行定位;
在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
将视觉跟踪下的运动目标实时传输至云端服务器。
2.如权利要求1所述的视频监控下的目标跟踪方法,其特征在于,所述采用基于区域的方法检测运动目标包括:
获取视频的静止背景;
获取视频的动态图像帧;
基于视频的背景减除法分离出当前运动目标。
3.如权利要求2所述的视频监控下的目标跟踪方法,其特征在于,所述基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪包括:
采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
4.如权利要求3所述的视频监控下的目标跟踪方法,其特征在于,所述采用基于区域的方法检测运动目标还包括:
判断是否存在动态图像帧,若判断存在动态图像帧,则获取视频的动态图像帧。
5.如权利要求1至4任一项所述的基于视频监控下的目标跟踪方法,其特征在于,所述基于单目视觉跟踪算法对运动目标进行定位包括:
对运动目标采用领域线性搜索跟踪;
判断目标是否超出搜索跟踪范围,如果超出搜索跟踪范围,根据范围则给予卡尔曼滤波方法进行预测跟踪;
存储运动目标定位结果。
6.一种基于视频监控下的目标跟踪系统,其特征在于,包括:
背景模型模块,用于采用颜色直方图、纹理特征建立高斯混合背景模型;
检测模块,用于采用基于区域的方法检测运动目标;
获取模块,用于获取所述运动目标所在区域的图像信息;
识别模块,用于根据所述图像信息获取目标对象信息,并根据所述运动目标对象信息确定所述运动目标对象;
定位模块,用于基于单目视觉跟踪算法对运动目标进行定位;
视觉跟踪模块,用于在完成运动目标对象的定位之后,基于粒子滤波的视觉跟踪方法对运动目标对象进行视觉跟踪;
传输模块,用于将视觉跟踪下的运动目标实时传输至云端服务器。
7.如权利要求6所述的基于视频监控下的目标跟踪系统,其特征在于,所述检测模块包括:
背景检测单元,用于获取视频的静止背景;
动态检测单元,用于获取视频的动态图像帧;
分离单元,用于基于视频的背景减除法分离出当前运动目标。
8.如权利要求7所述的基于视频监控下的目标跟踪系统,其特征在于,所述视觉跟踪模块还用于采用卡尔曼滤波方法分析运动目标对象的运动轨迹,预测下一时刻运动目标对象出现的位置坐标;计算下一时刻运动目标对象出现的位置坐标相对于当前帧图像中心的偏移量,根据变换后的坐标偏移量转动摄像头以跟踪运动目标对象。
9.如权利要求8所述的基于视频监控下的目标跟踪系统,其特征在于,所述检测模块还包括:
判断单元,用于判断是否存在动态图像帧。
10.如权利要求6至9任一项所述的基于视频监控下的目标跟踪系统,其特征在于,所述定位模块包括:
线性搜索单元,用于对运动目标采用领域线性搜索跟踪;
搜索判断单元,用于判断目标是否超出搜索跟踪范围;
预测跟踪单元,用于在超出搜索跟踪范围时,根据范围则给予卡尔曼滤波方法进行预测跟踪;
存储单元,用于存储运动目标定位结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610887088.2A CN106558069A (zh) | 2016-10-10 | 2016-10-10 | 一种基于视频监控下的目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610887088.2A CN106558069A (zh) | 2016-10-10 | 2016-10-10 | 一种基于视频监控下的目标跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106558069A true CN106558069A (zh) | 2017-04-05 |
Family
ID=58418303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610887088.2A Pending CN106558069A (zh) | 2016-10-10 | 2016-10-10 | 一种基于视频监控下的目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106558069A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107328406A (zh) * | 2017-06-28 | 2017-11-07 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN108711164A (zh) * | 2018-06-08 | 2018-10-26 | 广州大学 | 一种基于LBP和Color特征的运动检测方法 |
CN110570461A (zh) * | 2019-09-10 | 2019-12-13 | 中国计量大学 | 一种社区照明网与云平台社区人口信息库结合实现自动寻人追踪的方法 |
CN110992393A (zh) * | 2019-11-24 | 2020-04-10 | 杭州鼎热科技有限公司 | 一种基于视觉的目标运动跟踪方法 |
CN112509037A (zh) * | 2020-12-02 | 2021-03-16 | 成都时代星光科技有限公司 | 一种无人机飞行着陆视觉处理系统及方法 |
CN114937060A (zh) * | 2022-04-26 | 2022-08-23 | 南京北斗创新应用科技研究院有限公司 | 一种地图语义引导的单目行人室内定位预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101355692A (zh) * | 2008-07-30 | 2009-01-28 | 浙江大学 | 一种实时跟踪运动目标区域的智能监控装置 |
CN102637298A (zh) * | 2011-12-31 | 2012-08-15 | 辽宁师范大学 | 基于高斯混合模型与支持向量机的彩色图像分割方法 |
CN103268480A (zh) * | 2013-05-30 | 2013-08-28 | 重庆大学 | 一种视觉跟踪系统及方法 |
CN105551063A (zh) * | 2016-01-29 | 2016-05-04 | 中国农业大学 | 一种用于跟踪视频中运动目标的方法以及装置 |
-
2016
- 2016-10-10 CN CN201610887088.2A patent/CN106558069A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101355692A (zh) * | 2008-07-30 | 2009-01-28 | 浙江大学 | 一种实时跟踪运动目标区域的智能监控装置 |
CN102637298A (zh) * | 2011-12-31 | 2012-08-15 | 辽宁师范大学 | 基于高斯混合模型与支持向量机的彩色图像分割方法 |
CN103268480A (zh) * | 2013-05-30 | 2013-08-28 | 重庆大学 | 一种视觉跟踪系统及方法 |
CN105551063A (zh) * | 2016-01-29 | 2016-05-04 | 中国农业大学 | 一种用于跟踪视频中运动目标的方法以及装置 |
Non-Patent Citations (3)
Title |
---|
孙彪: ""基于单目视觉的运动目标跟踪定位"", 《四川兵工学报》 * |
张晓伟: ""视频中运动目标的检测与跟踪算法研究及应用"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
赵小川: "《MATLAB图像处理 程序实现与模块化仿真》", 31 January 2014, 北京航空航天大学出版社 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107328406A (zh) * | 2017-06-28 | 2017-11-07 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN107328406B (zh) * | 2017-06-28 | 2020-10-16 | 中国矿业大学(北京) | 一种基于多源传感器的矿井移动目标定位方法与系统 |
CN108711164A (zh) * | 2018-06-08 | 2018-10-26 | 广州大学 | 一种基于LBP和Color特征的运动检测方法 |
CN108711164B (zh) * | 2018-06-08 | 2020-07-31 | 广州大学 | 一种基于LBP和Color特征的运动检测方法 |
CN110570461A (zh) * | 2019-09-10 | 2019-12-13 | 中国计量大学 | 一种社区照明网与云平台社区人口信息库结合实现自动寻人追踪的方法 |
CN110992393A (zh) * | 2019-11-24 | 2020-04-10 | 杭州鼎热科技有限公司 | 一种基于视觉的目标运动跟踪方法 |
CN112509037A (zh) * | 2020-12-02 | 2021-03-16 | 成都时代星光科技有限公司 | 一种无人机飞行着陆视觉处理系统及方法 |
CN114937060A (zh) * | 2022-04-26 | 2022-08-23 | 南京北斗创新应用科技研究院有限公司 | 一种地图语义引导的单目行人室内定位预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462200B (zh) | 一种跨视频行人定位追踪方法、系统及设备 | |
Gurghian et al. | Deeplanes: End-to-end lane position estimation using deep neural networksa | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN106558069A (zh) | 一种基于视频监控下的目标跟踪方法及系统 | |
Ni et al. | Visual tracking using neuromorphic asynchronous event-based cameras | |
Held et al. | Precision tracking with sparse 3d and dense color 2d data | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN106504274A (zh) | 一种基于红外摄像头下的视觉跟踪方法及系统 | |
CN103646257B (zh) | 一种基于视频监控图像的行人检测和计数方法 | |
CN101344965A (zh) | 基于双目摄像的跟踪系统 | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
CN105760846A (zh) | 基于深度数据的目标检测与定位方法及系统 | |
CN106447698B (zh) | 一种基于距离传感器的多行人跟踪方法和系统 | |
Yang et al. | Robust RGB-D SLAM in dynamic environment using faster R-CNN | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
Micheloni et al. | Real-time image processing for active monitoring of wide areas | |
Yang et al. | Enhanced visual SLAM for construction robots by efficient integration of dynamic object segmentation and scene semantics | |
Fehr et al. | Reshaping our model of the world over time | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN116129320A (zh) | 基于视频sar的目标检测方法、系统及设备 | |
CN116343078A (zh) | 基于视频sar的目标跟踪方法、系统及设备 | |
CN114137512B (zh) | 一种毫米波雷达与深度学习视觉融合的前方多车辆跟踪方法 | |
Cheng et al. | An end-to-end framework of road user detection, tracking, and prediction from monocular images | |
Li et al. | Semantic Visual SLAM Algorithm Based on Improved DeepLabV3+ Model and LK Optical Flow | |
Zhang et al. | Multiple Dynamic Object Tracking for Visual SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170405 |
|
RJ01 | Rejection of invention patent application after publication |