CN104794737A - 一种深度信息辅助粒子滤波跟踪方法 - Google Patents
一种深度信息辅助粒子滤波跟踪方法 Download PDFInfo
- Publication number
- CN104794737A CN104794737A CN201510169237.7A CN201510169237A CN104794737A CN 104794737 A CN104794737 A CN 104794737A CN 201510169237 A CN201510169237 A CN 201510169237A CN 104794737 A CN104794737 A CN 104794737A
- Authority
- CN
- China
- Prior art keywords
- depth
- particle
- tracking
- region
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种深度信息辅助粒子滤波跟踪方法,通过带深度传感器的摄像头如Kinect摄像头对图像进行采集,获取RGB以及深度数据。跟踪时,首先在第一帧选取一个跟踪目标,获得跟踪区域窗口大小,依据选取目标RGB信息,中心点深度值以及整个区域深度数据对跟踪目标进行特征建模,并按上述方法继续下一帧图像的建模。根据粒子在不同位置的不同深度值,以及第一帧的深度值,即可算出每一个粒子所描述区域的窗口大小,从而得到区域特征。按与第一帧同样方式进行建模,并与第一帧特征进行比较,最终得到最佳粒子区域。从而实现结合深度信息的粒子滤波跟踪。本发明根据采集到的RGB-D信息,即颜色及深度信息,提升目标跟踪下的准确性和鲁棒性。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,尤其涉及一种深度辅助粒子滤波跟踪方法。
背景技术
计算机视觉是近年来快速发展的领域之一。他的研究目的是使计算机可以代替人类的感官,对所处环境进行感知并作出相应的判断处理。随着科学技术的发展,计算机视觉领域的应用越来越广泛,无论是在军工或是民用方面。现在为了构建安全社会,监控摄像头越来越多的被安装到了大街小巷。这些监控系统依靠摄像头,可以对感兴趣的目标进行跟踪,但是怎样进行更好更精确的跟踪,是研究者们非常感兴趣的研究点。目标追踪的基本思想是在序列图像中,根据视频序列,目标在时间和空间上的相关性,从而确定目标在每一帧的位置和姿态。目标跟踪是一项所学科融合的复杂课题。他无论在军工还是民用方面都有很广的应用前景。目标跟踪研究的应用范围很广。除了上面提到的还可以用在视频压缩,裸眼3D技术中,为了给其他处理让出足够的时间,目标跟踪对时间性的要求也越来越高。但是由于许多客观因素的影响,依然没有一种可以应用于各种场景,并且实时性以及鲁棒性都很卓越的非常成熟的跟踪方法被提出。研究的难点在于:1.三维世界的信息被投影到了二维的相机上,造成了信息的丢失;2.计算机处理速度影响实时性;3,光照的不均衡以及物体的遮挡等。
在目标跟踪中,一个目标被很好的跟踪的定义为,在每一帧图像中目标的位置和形状都能被准确快速的推定。所以在目标追踪中,确定目标的位置信息和形态信息尤为关键。目标跟踪的方法,大致可以分为三种:一.使用卡尔曼(kalman Filter)滤波器或者粒子滤波器(particleFilter)的基于滤波理论的目标跟踪方法即粒子滤波跟踪算法,该算法将目标跟踪问题转化为概率密度函数的最优估计问题来跟踪目标,该算法具体包括初始化粒子、移动粒子、直方图计算、相似性计算、重采样等几个步骤,其中移动粒子的步骤可以使用粒子的一阶运动方程xt=Axt-1+Bwt-1或者二阶xt=Axt-2+Bxt-1+Cwt-1来进行粒子的移动,它表示粒子的这一时刻的位置与上一时刻或者上上时刻的位置再加上一个扰动系数w有关,然而这一类跟踪方法计算量大耗时多,实时性有待提升;二.采用概率密度之间的相似性函数度量目标和候选目标中间的相似性通过梯度下降算法推导出Mean-shift向量从而对目标进行跟踪的基于Mean-shift的目标跟踪方法,这类跟踪方法计算量相对减小,但是无法解决目标的遮挡问题;三.将目标的跟踪问题转化为泛函优化问题,通过偏微分方程的求解得到泛函的极值,从而对目标进行跟踪的基于偏微分方程的目标跟踪方法,这类方法的计算量也比较大。
GPU全称Graphics Processing Unit,即计算图形处理器。他的引入使得传统的CPU的计算受到了挑战,GPU在浮点数据上的处理能力以及并行操作性是惊人的。所以目前怎样在GPU上编写高效的并行程序也是一个研究热点。
发明内容
本发明的目的在于克服传统粒子滤波算法中从三维到二维图像平面投影所造成的信息损失,提供了一种3D的目标跟踪方法,使得跟踪的鲁棒性得到了很大的提升。
本发明具体采用如下技术方案:
一种深度信息辅助粒子滤波跟踪方法,其流程如图1所示,主要包括以下步骤:
步骤1:使用带有深度传感器的摄像头为前端,获取目标区域第一帧的RGB-D图像数据;所述深度传感器能够探测并记录目标距该深度传感器的直线距离,所述RBG-D图像数据包括图像的RGB数据及图像中每一像素点对应目标所在空间位置距深度传感器的距离信息D;
步骤2:在第一帧图像中手动选择跟踪目标,并根据目标的RGB-D特征进行建模;手动选择跟踪目标所在区域并定义为跟踪窗口H1,所述跟踪窗口的中心像素点深度为D1,所述深度即为像素点对应目标所在空间位置距离所述深度传感器的直线距离;设置深度方向阈值Dth=[0.7D1,1.3D1],根据阈值Dth定义窗口区域内第i个像素点的深度方向权重ωz,i:
其中,Di是跟踪窗口区域内第i个像素点的深度值;对跟踪窗口内的区域做深度信息加权每个像素点的颜色信息Ii乘以该像素点的深度方向权重ωz,i即得该像素点的深度信息加权值跟踪窗口区域的深度信息加权颜色矩阵为记Histobased为跟踪窗口区域深度信息加权矩阵φ的统计直方图,即Histobased为跟踪窗口区域的RGB-D特征模型;
步骤3:通过所述前端获取第二帧的RGB-D图像数据;
步骤4:采用粒子滤波跟踪算法,初始化N个粒子进行移动采样,粒子的新位置定义为,(xj,yj),j=1,…,N;
步骤5:基于所述目标区域H1的形状及其中心点的深度D1,利用相似三角形原理,把每个粒子以自身坐标为中心扩展成一个粒子区域,每个粒子区域的形状与所述目标区域H1的形状一致,每个粒子区域的边长与所述目标区域H1的对应边长的比值等于所述粒子区域的中心粒子的深度与所述目标区域H1的中心点深度D1的比值;
步骤6:按照步骤2所述方法计算所述N个粒子区域的RGB-D特征并建模,得到每个粒子区域的RGB-D特征模型Histocandidate,j,j=1,…,N,;计算每个粒子区域的RGB-D特征模型与所述的第一帧图像中跟踪窗口区域的RGB-D特征模型Histobased的相似度;
步骤7:从所述N个相似度中选出相似度最大值所对应的粒子区域,并将该区域对应的粒子位置按照粒子滤波算法进行粒子重采样,得跟踪目标在第二帧图像中的具体区域;
步骤8:若所述前端获得了第三帧及后续图像,则对每一帧图像依次按步骤3至步骤7所述方法进行操作,得跟踪目标在每一帧图像中的具体位置;若无则后续图像则退出执行,完成目标跟踪。
本发明的有益效果是:
本方法实现了3D方向上的目标跟踪,使得跟踪效果更好,鲁棒性更强,并且在一个实时的系统上得以实现,更好更快的获得运动目标的各种物理参数,从而为实现对目标的运动行为的掌握与理解,留下更多的时间。
附图说明
图1本发明提出基于深度信息的深度辅助粒子滤波方法基本流程;
图2本发明实施例提供的跟踪方法与传统的粒子滤波算法进行目标跟踪后的效果图;
图3本发明实施例提供的跟踪方法与传统的粒子滤波算法进行目标跟踪后的精度曲线对比图;
图4本实施例提供的跟踪方法与传统的粒子滤波算法的耗时对比图;
图5本实施例中深度图与颜色示意图;
图6本实施例中N个粒子的采样图。
具体实施方式
下面结合附图和实施例对本发明做进一步描述。
实施例
本实施例提供一种深度信息辅助粒子滤波跟踪方法,其流程如图1所示,该方法包含以下步骤:
步骤1:使用带深度传感器的摄像头前端,例如Kinect摄像头;Kinect是一种体感游戏摄像头,可以传输丰富的视频数据,其基座和感应器之间有一个电动的马达,通过程序能够调整俯仰角度,在上面的感应器中有一个红外线发射器,一个彩色摄像头,一个红外接收器;其中彩色摄像头,用来收集RGB数据,而红外线发射器和红外线接收器构成的3D结构光深度感应器用来获取深度数据;总的来说Kinect摄像头可以获得三种图像信息:1.RGB图像颜色数据;2.图像深度信息数据;3.图像骨骼信息;
在本实施例中,运用RGB图像颜色信息和图像深度信息数据构成的3D信息进行辅助跟踪,将获得的颜色以及深度数据传输到PC端进行进一步处理;
步骤2:在第一帧图像中手动选择跟踪目标所在区域并定义为跟踪窗口H1,本实施例中跟踪目标为矩形目标,故跟踪窗口H1为矩形窗口;所述跟踪窗口的中心像素点深度为D1,所述深度即为像素点对应目标所在空间位置距离所述深度传感器的直线距离;设置深度方向阈值Dth=[0.7D1,1.3D1],根据阈值Dth定义窗口区域内第i个像素点的深度方向权重ωz,i:
其中,Di是跟踪窗口区域内第i个像素点的深度值,可从深度传感器传出数据中得到;如图5所示,其下图浅色区域是深度权值等于1的部分,深色区域为深度权值等于0的部分,这样就实现了跟踪目标与背景的分开;对跟踪窗口内的区域做深度信息加权:每个像素点的颜色信息乘以该像素点的深度方向权重即得该像素点的深度信息加权值;跟踪窗口区域经加权后得深度信息加权颜色矩阵:
其中,M×L为跟踪窗口图像大小,其单位为像素个数,Ix,y为跟踪窗口内坐标为(x,y)的像素的颜色信息;记Histobased为跟踪窗口区域深度信息加权矩阵ΩM×L的统计直方图,即Histobased为跟踪窗口区域的RGB-D特征模型;
步骤3:使用摄像头加深度传感器为前端获取接下来一帧的RGB-D数据,并传输到PC端;
步骤4:根据粒子滤波跟踪原理,初始化N个粒子进行移动采样,第i个粒子的新位置定义为(xj,yj),j=1,…,N,粒子扩展出的窗口区域如图6所示;
步骤5:从前端传出的数据中根据第i个粒子新位置(xj,yj)得到所在位置的深度信息Di,通过相似三角形原理,计算每一个粒子对应的的粒子区域大小Hj;
步骤6:按照步骤2所述方法计算所述N个粒子区域的RGB-D特征并建模,得到每个粒子区域的RGB-D特征模型Histocandidate,j,j=1,…,N,;计算每个粒子区域的RGB-D模型特征与所述的第一帧图像中跟踪窗口区域的RGB-D特征模型Histobased的相似度;
步骤7:从所述N个相似度中选出相似度最大值所对应的那个粒子区域,并将该区域对应的粒子位置按照粒子滤波算法进行粒子重采样,得跟踪目标在第二帧图像中的具体区域;
步骤8:若所述前端获得了第三帧即后续图像,则对每一帧图像依次按步骤3至步骤7所述方法进行操作,得跟踪目标在每一帧图像中的具体位置;若无则后续图像则退出执行,完成目标跟踪。
本发明实施例提供的跟踪方法与传统的粒子滤波算法进行目标跟踪后的效果对比如图2所示;本发明实施例提供的跟踪方法与传统的粒子滤波算法进行目标跟踪后的精度曲线对比如图3所示;本实施例提供的跟踪方法与传统的粒子滤波算法的耗时对比如图4所示;由图2、3、4可知,相比于传统的粒子滤波跟踪算法,本发明提供的深度信息辅助粒子滤波跟踪方法在跟踪效果、时间成本及跟踪精度上均有较大优势。
Claims (3)
1.一种深度信息辅助粒子滤波跟踪方法,主要包括以下步骤:
步骤1:使用带有深度传感器的摄像头为前端,获取目标区域第一帧的RGB-D图像数据;所述深度传感器能够探测并记录目标距该深度传感器的直线距离,所述RBG-D图像数据包括图像的RGB数据及图像中每一像素点对应目标所在空间位置距深度传感器的距离信息D;
步骤2:在第一帧图像中手动选择跟踪目标,并根据目标的RGB-D特征进行建模;手动选择跟踪目标所在区域并定义为跟踪窗口H1,所述跟踪窗口的中心像素点深度为D1,所述深度即为像素点对应目标所在空间位置距离所述深度传感器的直线距离;设置深度方向阈值Dth,根据阈值Dth定义窗口区域内第i个像素点的深度方向权重ωz,i:
其中,Di是跟踪窗口区域内第i个像素点的深度值;对跟踪窗口内的区域做深度信息加权每个像素点的颜色信息Ii乘以该像素点的深度方向权重ωz,i即得该像素点的深度信息加权值跟踪窗口区域的深度信息加权颜色矩阵为记Histobased为跟踪窗口区域深度信息加权矩阵φ的统计直方图,即Histobased为跟踪窗口区域的RGB-D特征模型;
步骤3:通过所述前端获取第二帧的RGB-D图像数据;
步骤4:采用粒子滤波跟踪算法,初始化N个粒子并进行移动采样;
步骤5:把每个粒子以自身坐标为中心扩展成一个粒子区域;
步骤6:按照步骤2所述方法计算所述N个粒子区域的RGB-D特征并建模,得到每个粒子区域的RGB-D特征模型Histocandidate,j,j=1,…,N,;计算每个粒子区域的RGB-D特征模型与所述的第一帧图像中跟踪窗口区域的RGB-D特征模型Histobased的相似度;
步骤7:从所述N个相似度中选出相似度最大值所对应的粒子区域,并将该区域对应的粒子位置按照粒子滤波算法进行粒子重采样,得跟踪目标在第二帧图像中的具体区域;
步骤8:若所述前端获得了第三帧及后续图像,则对每一帧图像依次按步骤3至步骤7所述方法进行操作,得跟踪目标在每一帧图像中的具体位置;若无则后续图像则退出执行,完成目标跟踪。
2.根据权利要求1所述的深度信息辅助粒子滤波跟踪方法,其特征在于,所述设置深度方向阈值Dth=[0.7D1,1.3D1]。
3.根据权利要求1所述的深度信息辅助粒子滤波跟踪方法,其特征在于,具体采用以下方法实现步骤5所述的粒子区域的扩展:
基于所述目标区域H1的形状及其中心点的深度D1,利用相似三角形原理,把每个粒子以自身坐标为中心扩展成一个粒子区域,即每个粒子区域的形状与所述目标区域H1的形状一致,且每个粒子区域的边长与所述目标区域H1的对应边长的比值等于所述粒子区域的中心粒子的深度与所述目标区域H1的中心点深度D1的比值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510169237.7A CN104794737B (zh) | 2015-04-10 | 2015-04-10 | 一种深度信息辅助粒子滤波跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510169237.7A CN104794737B (zh) | 2015-04-10 | 2015-04-10 | 一种深度信息辅助粒子滤波跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104794737A true CN104794737A (zh) | 2015-07-22 |
CN104794737B CN104794737B (zh) | 2017-12-15 |
Family
ID=53559516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510169237.7A Expired - Fee Related CN104794737B (zh) | 2015-04-10 | 2015-04-10 | 一种深度信息辅助粒子滤波跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104794737B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261039A (zh) * | 2015-10-14 | 2016-01-20 | 山东大学 | 一种基于深度图像的自适应调整目标跟踪算法 |
CN106127804A (zh) * | 2016-06-17 | 2016-11-16 | 淮阴工学院 | 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法 |
CN106412381A (zh) * | 2016-09-28 | 2017-02-15 | 湖南优象科技有限公司 | 一种快速高效的视频稳定方法 |
CN108062773A (zh) * | 2016-11-07 | 2018-05-22 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN109949397A (zh) * | 2019-03-29 | 2019-06-28 | 哈尔滨理工大学 | 一种结合激光点和均值漂移的深度图重建方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
CN110291771A (zh) * | 2018-07-23 | 2019-09-27 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN110660082A (zh) * | 2019-09-25 | 2020-01-07 | 西南交通大学 | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 |
CN111833308A (zh) * | 2020-06-17 | 2020-10-27 | 南京航空航天大学 | 一种基于Kinect的呼吸运动监测方法及监测系统 |
CN111832549A (zh) * | 2020-06-29 | 2020-10-27 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN113112519A (zh) * | 2021-04-23 | 2021-07-13 | 电子科技大学 | 基于感兴趣目标分布的关键帧筛选方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008140101A (ja) * | 2006-12-01 | 2008-06-19 | Advanced Telecommunication Research Institute International | 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置 |
CN102521612A (zh) * | 2011-12-16 | 2012-06-27 | 东华大学 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
CN103093476A (zh) * | 2013-02-01 | 2013-05-08 | 中国科学院自动化研究所 | 一种基于gpu加速连续粒子群优化的三维物体跟踪方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
-
2015
- 2015-04-10 CN CN201510169237.7A patent/CN104794737B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008140101A (ja) * | 2006-12-01 | 2008-06-19 | Advanced Telecommunication Research Institute International | 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置 |
CN102521612A (zh) * | 2011-12-16 | 2012-06-27 | 东华大学 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
CN103489199A (zh) * | 2012-06-13 | 2014-01-01 | 通号通信信息集团有限公司 | 视频图像目标跟踪处理方法和系统 |
CN103093476A (zh) * | 2013-02-01 | 2013-05-08 | 中国科学院自动化研究所 | 一种基于gpu加速连续粒子群优化的三维物体跟踪方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261039B (zh) * | 2015-10-14 | 2016-08-17 | 山东大学 | 一种基于深度图像的自适应调整目标跟踪算法 |
CN105261039A (zh) * | 2015-10-14 | 2016-01-20 | 山东大学 | 一种基于深度图像的自适应调整目标跟踪算法 |
CN106127804B (zh) * | 2016-06-17 | 2018-08-28 | 淮阴工学院 | 基于稀疏深度去噪自编码器的rgb-d数据跨模式特征学习的目标跟踪方法 |
CN106127804A (zh) * | 2016-06-17 | 2016-11-16 | 淮阴工学院 | 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法 |
CN106412381B (zh) * | 2016-09-28 | 2019-03-08 | 湖南优象科技有限公司 | 一种快速高效的视频稳定方法 |
CN106412381A (zh) * | 2016-09-28 | 2017-02-15 | 湖南优象科技有限公司 | 一种快速高效的视频稳定方法 |
CN108062773A (zh) * | 2016-11-07 | 2018-05-22 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN108062773B (zh) * | 2016-11-07 | 2021-05-28 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN110291771A (zh) * | 2018-07-23 | 2019-09-27 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
WO2020019111A1 (zh) * | 2018-07-23 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN110291771B (zh) * | 2018-07-23 | 2021-11-16 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN109949397A (zh) * | 2019-03-29 | 2019-06-28 | 哈尔滨理工大学 | 一种结合激光点和均值漂移的深度图重建方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
CN110660082A (zh) * | 2019-09-25 | 2020-01-07 | 西南交通大学 | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 |
CN110660082B (zh) * | 2019-09-25 | 2022-03-08 | 西南交通大学 | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 |
CN111833308A (zh) * | 2020-06-17 | 2020-10-27 | 南京航空航天大学 | 一种基于Kinect的呼吸运动监测方法及监测系统 |
CN111833308B (zh) * | 2020-06-17 | 2024-03-15 | 南京航空航天大学 | 一种基于Kinect的呼吸运动监测方法及监测系统 |
CN111832549A (zh) * | 2020-06-29 | 2020-10-27 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN111832549B (zh) * | 2020-06-29 | 2024-04-23 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN113112519A (zh) * | 2021-04-23 | 2021-07-13 | 电子科技大学 | 基于感兴趣目标分布的关键帧筛选方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104794737B (zh) | 2017-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN109949375B (zh) | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN102902355B (zh) | 移动设备的空间交互方法 | |
CN103530881B (zh) | 适用于移动终端的户外增强现实无标志点跟踪注册方法 | |
CN105243664B (zh) | 一种基于视觉的轮式移动机器人快速目标跟踪方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN107481315A (zh) | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN108171715B (zh) | 一种图像分割方法及装置 | |
CN105225230A (zh) | 一种识别前景目标对象的方法及装置 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN105760831A (zh) | 一种基于低空航拍红外视频的行人跟踪方法 | |
CN102156995A (zh) | 一种运动相机下的视频运动前景分割方法 | |
CN111476089B (zh) | 一种图像中多模态信息融合的行人检测方法、系统及终端 | |
Qian et al. | Robust visual-lidar simultaneous localization and mapping system for UAV | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN109359549A (zh) | 一种基于混合高斯和hog_lbp的行人检测方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN106295657A (zh) | 一种视频数据结构化过程中提取人体高度特征的方法 | |
CN104063871A (zh) | 可穿戴设备的图像序列场景分割方法 | |
CN107609571A (zh) | 一种基于lark特征的自适应目标跟踪方法 | |
CN103366158A (zh) | 基于三维结构和色彩模型的单目视觉路面检测方法 | |
Jia et al. | Depth measurement based on a convolutional neural network and structured light | |
CN102510437B (zh) | 基于rgb分量分布的视频图像背景检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171215 Termination date: 20200410 |