CN103150737A - 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法 - Google Patents

一种适用于空间绳系机器人的实时空间目标特征点跟踪方法 Download PDF

Info

Publication number
CN103150737A
CN103150737A CN2013100181873A CN201310018187A CN103150737A CN 103150737 A CN103150737 A CN 103150737A CN 2013100181873 A CN2013100181873 A CN 2013100181873A CN 201310018187 A CN201310018187 A CN 201310018187A CN 103150737 A CN103150737 A CN 103150737A
Authority
CN
China
Prior art keywords
point
target
frame
tracking
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013100181873A
Other languages
English (en)
Inventor
黄攀峰
蔡佳
孟中杰
刘正雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN2013100181873A priority Critical patent/CN103150737A/zh
Publication of CN103150737A publication Critical patent/CN103150737A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明涉及一种适用于空间绳系机器人的实时空间目标特征点跟踪方法,主要由特征点提取算法、特征点匹配算法、消除离散点、精确定位和自适应策略五部分组成。本发明采用改进后的SURF算法提取的特征点更具鲁棒性、稳定性,使得特征点匹配精度高,目标定位精确度高;适用于多尺度图像序列中位置、姿态发生快速变化且结构简单目标的稳定跟踪;对多种挑战性情境具有鲁棒性,跟踪过程中具备短时抗遮挡能力;可实现对多个多类目标的实时检测、跟踪。本发明能适用于多尺度图像序列中位置、姿态发生快速变化、结构简单的空间目标实时鲁棒跟踪方法。

Description

一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
技术领域
本发明属于模式识别领域,涉及图像处理和计算机视觉等技术,涉及一种适用于空间绳系机器人的实时空间目标特征点跟踪方法。
背景技术
由于视觉传感器具有低成本、被动探测、鲁棒性强等特点,其在运动目标的跟踪方面受到愈来愈多的重视,例如空间绳系机器人利用双目视觉跟踪空间目标,导弹等飞行器利用视觉传感器跟踪空中目标等。
但在视频序列中对空间目标的跟踪是十分复杂的任务,存在着很多挑战,如序列中包含目标旋转、尺度变化、运动模糊以及存在其他相关物体等情况。而且空间目标通常还具有如下特征:结构、纹理特征简单,灰度特征单一,尺度变化较大,快速多自由度运动。
这些已成为计算机视觉研究中的热点问题,而其中的关键是特征点的提取与跟踪技术。常用的跟踪方法大致有相关法和光流法,目前相关跟踪应用较多。它根据实时图像与参考图像之间的相关度函数来计算目标的位置变化,将两幅图像能达到最佳匹配的位置即相关函数的峰值作为跟踪点。该算法对图像质量要求不高,可在低信噪比条件下稳定工作,能适应较复杂的场景结构。针对其运算量大的不足,出现了许多改进算法,如基于塔型结构的匹配跟踪、多子模板匹配、Kalman滤波器跟踪等。
而光流跟踪法是运用目标的运动信息,避免了灰度变化对目标跟踪的影响,因而具有较好的抗噪能力。光流分析可以分为连续光流法和特征光流法。全局光流的计算方法有Horn-Schunck算法、Nagel算法等,得到全局光流场后通过比较运动目标与背景之间的运动差异对运动目标进行光流分割,从而达到跟踪的目的。特征光流法是通过特征匹配求得特征点处的光流,估计运动目标的位移并进行跟踪。
在摄像机平台不固定的情况或所跟踪目标位姿、大小经常变化的情境下,对指定的目标上提取的特征点进行跟踪基于相邻帧连续信息的特征光流法更加快速有效。待跟踪的特征点可以是由人工标定的,或是算法自动识别、提取视频中感兴趣的运动物体区域后在其表面提取的。
KLT跟踪算法最初由Lucas-Kanade提出,随后Tomasi-Kanade进行了改进,近年来得到了广泛应用。Ajmal S.Mian利用改进的KLT算法对空中运动的飞机进行跟踪;Ben Benfold和Ian Reid结合KLT算法实现了监控视频中对多个运动目标的实时跟踪;国内龚建、刘富强等利用KLT算法计算相邻帧之间匹配点的运动矢量,实现运动车辆检测;刘玉、王敬东等人提出了一种改进的SIFT与KLT相结合的特征点跟踪算法,具有更高的鲁棒性和定位精度。
针对空间目标的跟踪问题,上述KLT算法具有特征点检测精度不高,目标快速运动时匹配精度差导致的跟踪不准确问题以及刘玉、王敬东方法中SIFT算法的检测时间长,缺少特征点自适应更新策略。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种适用于空间绳系机器人的实时空间目标特征点跟踪方法,是提供一种能适用于多尺度图像序列中位置、姿态发生快速变化、结构简单的空间目标实时鲁棒跟踪方法。
技术方案
一种适用于空间绳系机器人的实时空间目标特征点跟踪方法,其特征在于步骤如下:
步骤1:对视频第一帧图像I1中待跟踪目标T用矩形区域标记,四个顶点分别表示为(xul,yul),(xur,yur),(xdl,ydl),(xdr,ydr);应用SURF算法对矩形内待跟踪目标进行特征点提取,提取出的特征点簇表示为I1,I2,,In,,其坐标位置分别表示为(x1,y1),(x2,y2),…,(xn,yn),随后进行离散点消除;
所述离散点消除方法:对于I1,I2,,In中的每n-1个点计算其中的每个点到其几何中心(xa,ya)距离的平均值da;求取剩余一点(xr,yr)到(xa,ya)的距离dr;并进行如下判断,如果dl>R*da,则令(xr,yr)=(xa,ya),否则不做处理;R为距离判定阈值;
步骤2:求取离散点消除后I1,I2,,In各点中x坐标最大和最小的两个xmax,xmin,然后求得各点中y坐标最大和最小的两个ymax,ymin;以(xmax,ymax),(xmax,ymin),(xmin,ymax)和(xmin,ymin)四点作为初始迭代轮廓点代入Greedy Snake算法,从而得到提取出的目标轮廓点簇C1,C2,,Cn;然后按照步骤1中的离散点消除方法对C1,C2,,Cn进行离散点消除,随后求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形R作为目标的精确模型;
步骤3:对进行过离散点消除后的C1,C2,,Cn,各点采用金字塔KLT特征点跟踪算法在后续帧中进行跟踪,获取新的特征点C1n,C2n,,Cnn;然后按照步骤1中的离散点消除方法对C1,C2,,Cn进行离散点消除,随后求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形Rn作为目标的下一个精确模型;跟踪过程中记录当前帧数Fnum,每一帧都计算出Rn的面积Ra,中心点坐标(xc,yc)距离图像左上角(0,0)的欧氏距离dc
步骤4:对于采用金字塔KLT特征点跟踪算法的后续帧中进行自适应策略判断,如果不符合更新要求,则转入步骤1,如果更新生效则自动确定新的目标大致区域,转入步骤1;
所述自适应策略判断步骤如下:
步骤(1):根据帧数计数器,判断当前帧帧数是否为10的倍数,若是则主动更新策略生效转至步骤(5)执行,若不满足则转至步骤(2);
步骤(2):计算每帧中跟踪目标在图像中的轮廓区域面积,若相邻帧之间由特征点簇计算出的目标区域面积变化达到15%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤(3);
步骤(3):计算每帧中由特征点簇计算出的目标质心坐标与图像左上角(0,0)坐标之间的欧式距离,若相邻帧之间该距离变化达到10%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤(4);
步骤(4):计算每帧中目标上特征点数目,若相邻帧之间该数目变化达到30%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤3;
步骤(5):以上一帧中精确定位后的目标轮廓为基准,求其上、下、左、右四点形成的矩形,并延该矩形每边中点向左右延伸直至各边长为原边长的1.5倍;获得面积为原矩形面积2.25倍后的新矩形区域,转至步骤1。
所述R=2。
有益效果
本发明提出的一种适用于空间绳系机器人的实时空间目标特征点跟踪方法,主要由特征点提取算法、特征点匹配算法、消除离散点、精确定位和自适应策略五部分组成。与现有技术相比,本发明具有如下有益效果:
1、采用改进后的SURF算法提取的特征点更具鲁棒性、稳定性,使得特征点匹配精度高,目标定位精确度高;
2、适用于多尺度图像序列中位置、姿态发生快速变化且结构简单目标的稳定跟踪;
3、对多种挑战性情境具有鲁棒性,跟踪过程中具备短时抗遮挡能力;
4、可实现对多个多类目标的实时检测、跟踪。
本发明的方法易于实现和应用,主要可以应用于以下几个方面:
1、商业方面可用于视频监控、人体跟踪,图像匹配拼接等;
2、军事上可用于运动目标的自动瞄准,导弹寻的制导时的目标识别等;
3、航空航天中可用于目标跟踪锁定,非合作目标的相对导航,机器人视觉伺服控制等。
附图说明
图1为本发明的算法总流程框图;
图2为本发明多帧跟踪单目标结果示意图:7幅图分别为第8、18、28、38、48、58和68帧;
图3为本发明跟踪目标短时抗遮挡结果示意图;7幅图分别为第490、493、496、499、502、505和508帧;
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明实施例由特征点提取算法、特征点匹配算法、消除离散点、精确定位和自适应策略五部分组成,总流程框图如图1所示。
本发明的方法需要的硬件配置为一般家用电脑配置即可,在此配置水平的硬件上,采用C++语言编程实现本方法。下面对本发明的方法涉及的关键步骤进行逐一详细描述,本发明的方法中的基本步骤相同,具体形式如下所述:
第一步:
视频第一帧图像I1中待跟踪目标T用矩形区域标记,四个顶点分别表示为(xul,yul),(xur,yur),(xdl,ydl),(xdr,ydr)。应用SURF算法对矩形内待跟踪目标进行特征点提取,提取出的特征点簇表示为I1,I2,,In,,其坐标位置分别表示为(x1,y1),(x2,y2),…,(xn,yn),随后进行离散点消除,具体算啊如下:对于I1,I2,,In中的每n-1个点计算其中的每个点到其几何中心(xa,ya)距离的平均值da;求取剩余一点(xr,yr)到(xa,ya)的距离dr;并进行如下判断,如果dr>R*da(R为距离判定阈值,取R2),则令(xr,yr)=(xa,ya),否则不做处理。
其中如何对利用SURF算法提取特征点,为本领域公知技术,可参考文献1“BayH,Tuytelaars T,and Gool L V. SURF:Speeded Up Robust Features.The9th EuropeanConference on Computer Vision,Austria,May2006.”和文献2“王永明,王贵锦著。图像局部不变性特征与描述。北京:国防工业出版社,2010。”135-142页,此处不再赘述。
第二步:
求取离散点消除后I1,I2,,In中首先求得各点中x坐标最大和最小的两个xmax,xmin,然后求得各点中y坐标最大和最小的两个ymax,ymin。定义如下四点(xmax,ymax),(xmax,ymin),(xmin,ymax),(xmin,ymin)。以此四点作为初始迭代轮廓点代入Greedy Snake算法,从而得到提取出的目标轮廓点簇C1,C2,,Cn。然后按照第一步的方法对C1,C2,…,Cn进行离散点消除。随后同样地求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形R作为目标的精确模型。
其中如何对利用Greedy Snake算法提取目标轮廓点簇,为本领域公知技术,可参考文献3“Williams,D J.,Shah,M.(1992).“A fast algorithm for active contours andcurvature estimation.”Computer Vision,Graphics and Image Processing,January1992,55(1):14-26.”,此处不再赘述。
第三步:
对进行过离散点消除后的C1,C2,,Cn,各点采用金字塔KLT特征点跟踪算法在后续帧中进行跟踪,获取新的特征点C1n,C2n,,Cnn。然后同样地按照第一步的方法对C1,C2,,Cn进行离散点消除。随后同样地求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形Rn作为目标的精确模型。跟踪过程中记录当前帧数Fnum,每一帧都计算出Rn的面积Ra,中心点坐标(xc,yc)距离图像左上角(0,0)的欧氏距离dc
其中如何对利用金字塔KLT算法进行特征点跟踪,为本领域公知技术,可参考文献4“Tomasi,C.,Kanade,T.(1991).“Detection and tracking of pointfeatures.”Carnegie Mellon University Technical Report CMU-CS-91-132,April1991.”和文献5“Gary Bradski,Adrian Kaebler著,于仕琪,刘瑞祯译。学习OpenCV中文版。北京:清华大学出版社,2009:362-363。”,此处不再赘述。
第四步:
在采用金字塔KLT特征点跟踪算法的后续帧中进行自适应策略判断,如果不符合更新要求,则转入第三步,如果更新生效则自动确定新的目标大致区域,转入第一步。
其中所述的自适应策略方法具体步骤如下:
步骤1:根据帧数计数器,判断当前帧帧数是否为10的倍数,若是则主动更新策略生效转至步骤5执行,若不满足则转至步骤2;
步骤2:计算每帧中跟踪目标在图像中的轮廓区域面积。若相邻帧之间由特征点簇计算出的目标区域面积变化达到15%,则被动更新策略生效转至步骤5执行,若不满足则转至步骤3;
步骤3:计算每帧中由特征点簇计算出的目标质心坐标与图像左上角(0,0)坐标之间的欧式距离,若相邻帧之间该距离变化达到10%,则被动更新策略生效转至步骤5执行,若不满足则转至步骤4;
步骤4:计算每帧中目标上特征点数目,若相邻帧之间该数目变化达到30%,则被动更新策略生效转至步骤5执行,若不满足则转至第三步;
步骤5:以上一帧中精确定位后的目标轮廓为基准,求其上、下、左、右四点形成的矩形,并延该矩形每边中点向左右延伸直至各边长为原边长的1.5倍。获得面积为原矩形面积2.25倍后的新矩形区域,转至第一步。
利用飞行视频数据库进行大量的仿真实验结果表明:该算法适用于多尺度图像序列中位置、姿态发生快速变化且结构简单飞行器的稳定跟踪。图2示意了算法用于连续多帧跟踪时的目标定位结果。图3示意了连续多帧跟踪过程中跟踪目标受到云层短时干扰时的目标定位结果。

Claims (2)

1.一种适用于空间绳系机器人的实时空间目标特征点跟踪方法,其特征在于步骤如下:
步骤1:对视频第一帧图像I1中待跟踪目标T用矩形区域标记,四个顶点分别表示为(xul,yul),(xur,yur),(xdl,ydl),(xdr,ydr);应用SURF算法对矩形内待跟踪目标进行特征点提取,提取出的特征点簇表示为I1,I2,,In,,其坐标位置分别表示为(x1,y1),(x2,y2),…,(xn,yn),随后进行离散点消除;
所述离散点消除方法:对于I1,I2,,In中的每n-1个点计算其中的每个点到其几何中心(xa,ya)距离的平均值da;求取剩余一点(xr,yr)到(xa,ya)的距离dr;并进行如下判断,如果dl>R*da,则令(xr,yr)=(xa,ya),否则不做处理;R为距离判定阈值;
步骤2:求取离散点消除后I1,I2,,In各点中x坐标最大和最小的两个xmax,xmin,然后求得各点中y坐标最大和最小的两个ymax,ymin;以(xmax,ymax),(xmax,ymin),(xmin,ymax)和(xmin,ymin)四点作为初始迭代轮廓点代入Greedy Snake算法,从而得到提取出的目标轮廓点簇C1,C2,,Cn;然后按照步骤1中的离散点消除方法对C1,C2,,Cn进行离散点消除,随后求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形R作为目标的精确模型;
步骤3:对进行过离散点消除后的C1,C2,,Cn,各点采用金字塔KLT特征点跟踪算法在后续帧中进行跟踪,获取新的特征点C1n,C2n,,Cnn;然后按照步骤1中的离散点消除方法对C1,C2,,Cn进行离散点消除,随后求取x,y坐标分别为最大、最小时的四个顶点,其形成的矩形Rn作为目标的下一个精确模型;跟踪过程中记录当前帧数Fnum,每一帧都计算出Rn的面积Ra,中心点坐标(xc,yc)距离图像左上角(0,0)的欧氏距离dc
步骤4:对于采用金字塔KLT特征点跟踪算法的后续帧中进行自适应策略判断,如果不符合更新要求,则转入步骤1,如果更新生效则自动确定新的目标大致区域,转入步骤1;
所述自适应策略判断步骤如下:
步骤(1):根据帧数计数器,判断当前帧帧数是否为10的倍数,若是则主动更新策略生效转至步骤(5)执行,若不满足则转至步骤(2);
步骤(2):计算每帧中跟踪目标在图像中的轮廓区域面积,若相邻帧之间由特征点簇计算出的目标区域面积变化达到15%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤(3);
步骤(3):计算每帧中由特征点簇计算出的目标质心坐标与图像左上角(0,0)坐标之间的欧式距离,若相邻帧之间该距离变化达到10%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤(4);
步骤(4):计算每帧中目标上特征点数目,若相邻帧之间该数目变化达到30%,则被动更新策略生效转至步骤(5)执行,若不满足则转至步骤3;
步骤(5):以上一帧中精确定位后的目标轮廓为基准,求其上、下、左、右四点形成的矩形,并延该矩形每边中点向左右延伸直至各边长为原边长的1.5倍;获得面积为原矩形面积2.25倍后的新矩形区域,转至步骤1。
2.根据权利要求1所述适用于空间绳系机器人的实时空间目标特征点跟踪方法,其特征在于:所述R=2。
CN2013100181873A 2013-01-18 2013-01-18 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法 Pending CN103150737A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013100181873A CN103150737A (zh) 2013-01-18 2013-01-18 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013100181873A CN103150737A (zh) 2013-01-18 2013-01-18 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法

Publications (1)

Publication Number Publication Date
CN103150737A true CN103150737A (zh) 2013-06-12

Family

ID=48548790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013100181873A Pending CN103150737A (zh) 2013-01-18 2013-01-18 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法

Country Status (1)

Country Link
CN (1) CN103150737A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955225A (zh) * 2014-04-28 2014-07-30 西北工业大学 一种适合空间绳系机器人逼近目标过程中的燃料最优位姿协调方法
CN104049637A (zh) * 2014-04-14 2014-09-17 西北工业大学 一种空间绳系机器人三轴主动姿态控制方法
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN106863297A (zh) * 2017-01-05 2017-06-20 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN107480710A (zh) * 2017-08-01 2017-12-15 歌尔股份有限公司 特征点匹配结果处理方法和装置
CN107967699A (zh) * 2016-10-19 2018-04-27 财团法人资讯工业策进会 视觉定位装置及方法
CN108303874A (zh) * 2017-12-28 2018-07-20 北京航空航天大学 一种针对绳系空间拖船系统摆振的小推力切换控制方法
CN108917772A (zh) * 2018-04-04 2018-11-30 北京空间飞行器总体设计部 基于序列图像的非合作目标相对导航运动估计方法
CN112507859A (zh) * 2020-12-05 2021-03-16 西北工业大学 一种用于移动机器人的视觉跟踪方法
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339664A (zh) * 2008-08-27 2009-01-07 北京中星微电子有限公司 一种目标跟踪方法及系统
JP2010039788A (ja) * 2008-08-05 2010-02-18 Toshiba Corp 画像処理装置及びその方法並びに画像処理プログラム
JP2012215549A (ja) * 2011-04-01 2012-11-08 Mitsubishi Electric Corp 追尾装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039788A (ja) * 2008-08-05 2010-02-18 Toshiba Corp 画像処理装置及びその方法並びに画像処理プログラム
CN101339664A (zh) * 2008-08-27 2009-01-07 北京中星微电子有限公司 一种目标跟踪方法及系统
JP2012215549A (ja) * 2011-04-01 2012-11-08 Mitsubishi Electric Corp 追尾装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔡佳 等: "基于改进SURF和P-KLT算法的特征点实时跟踪方法研究", 《航空学报》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104049637A (zh) * 2014-04-14 2014-09-17 西北工业大学 一种空间绳系机器人三轴主动姿态控制方法
CN104049637B (zh) * 2014-04-14 2016-08-24 西北工业大学 一种空间绳系机器人三轴主动姿态控制方法
CN103955225B (zh) * 2014-04-28 2017-02-15 西北工业大学 一种适合空间绳系机器人逼近目标过程中的燃料最优位姿协调方法
CN103955225A (zh) * 2014-04-28 2014-07-30 西北工业大学 一种适合空间绳系机器人逼近目标过程中的燃料最优位姿协调方法
CN105021184B (zh) * 2015-07-08 2017-10-24 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN107967699A (zh) * 2016-10-19 2018-04-27 财团法人资讯工业策进会 视觉定位装置及方法
CN106863297A (zh) * 2017-01-05 2017-06-20 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN106863297B (zh) * 2017-01-05 2019-02-26 西北工业大学 一种空间绳系机器人视觉精确逼近方法
CN107480710A (zh) * 2017-08-01 2017-12-15 歌尔股份有限公司 特征点匹配结果处理方法和装置
CN107480710B (zh) * 2017-08-01 2020-05-22 歌尔股份有限公司 特征点匹配结果处理方法和装置
CN108303874A (zh) * 2017-12-28 2018-07-20 北京航空航天大学 一种针对绳系空间拖船系统摆振的小推力切换控制方法
CN108917772A (zh) * 2018-04-04 2018-11-30 北京空间飞行器总体设计部 基于序列图像的非合作目标相对导航运动估计方法
CN112507859A (zh) * 2020-12-05 2021-03-16 西北工业大学 一种用于移动机器人的视觉跟踪方法
CN112507859B (zh) * 2020-12-05 2024-01-12 西北工业大学 一种用于移动机器人的视觉跟踪方法
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法
CN114358166B (zh) * 2021-12-29 2023-11-07 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法

Similar Documents

Publication Publication Date Title
CN103150737A (zh) 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
US11392146B2 (en) Method for detecting target object, detection apparatus and robot
CN107423729B (zh) 一种面向复杂视觉场景下的远距离类脑三维步态识别系统及实现方法
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN101609504B (zh) 一种红外图像海面目标检测识别定位方法
CN104899600A (zh) 一种基于深度图的手部特征点检测方法
CN103149939A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN102867311A (zh) 目标跟踪方法和目标跟踪设备
CN107798691B (zh) 一种基于视觉的无人机自主着陆地标实时检测跟踪方法
CN102722697A (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN111596767B (zh) 一种基于虚拟现实的姿态捕获方法和装置
CN105787962B (zh) 一种基于uuv水下回收的单目视觉跟踪方法
CN105913459B (zh) 基于高分辨率连拍图像的运动目标检测方法
CN109146920A (zh) 一种可嵌入式实现的目标跟踪方法
Wang et al. Hand posture recognition from disparity cost map
Patel et al. A comparative study of object tracking techniques
CN112907633B (zh) 动态特征点识别方法及其应用
Chao-jian et al. Image target identification of UAV based on SIFT
CN108694725A (zh) 一种基于视觉显著性的机器人动态跟踪方法及系统
Jatoth et al. Performance comparison of Kalman filter and mean shift algorithm for object tracking
Yang et al. Method for building recognition from FLIR images
Alamsyah et al. Particle filter for 3D fingertips tracking from color and depth images with occlusion handling
Chakravorty et al. Automatic image registration in infrared-visible videos using polygon vertices
CN109827578B (zh) 基于轮廓相似性的卫星相对姿态估计方法
Xin et al. Vehicle ego-localization based on the fusion of optical flow and feature points matching

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130612