CN106023247A - 一种基于时空跟踪的光条中心提取跟踪方法 - Google Patents

一种基于时空跟踪的光条中心提取跟踪方法 Download PDF

Info

Publication number
CN106023247A
CN106023247A CN201610294947.7A CN201610294947A CN106023247A CN 106023247 A CN106023247 A CN 106023247A CN 201610294947 A CN201610294947 A CN 201610294947A CN 106023247 A CN106023247 A CN 106023247A
Authority
CN
China
Prior art keywords
tracks
space
peeled
time
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610294947.7A
Other languages
English (en)
Other versions
CN106023247B (zh
Inventor
肖轶
郝静
陈平
周开俊
张瑞华
邢硕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Vocational College
Original Assignee
Nantong Vocational College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong Vocational College filed Critical Nantong Vocational College
Priority to CN201610294947.7A priority Critical patent/CN106023247B/zh
Publication of CN106023247A publication Critical patent/CN106023247A/zh
Application granted granted Critical
Publication of CN106023247B publication Critical patent/CN106023247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明涉及一种基于时空跟踪的光条中心提取跟踪方法,包括以下步骤:利用时间序列模型预测下一时刻光条中心坐标;以预测的光条中心作为起点,光条中心的切向由Hessian矩阵的特征向量决定,利用Hessian矩阵获取该点的单位切向量,沿着光条切线方向作为谷脊区域延伸方向,用以实现光条在空间上的谷脊跟踪。本发明能够提高提取速度和提取精度。

Description

一种基于时空跟踪的光条中心提取跟踪方法
技术领域
本发明涉及光条中心提取跟踪技术领域,特别是涉及一种基于时空跟踪的光条中心提取跟踪方法。
背景技术
特征提取跟踪的研究可追溯至20世纪70年代末,其在机器视觉和模式识别领域发挥着至关重要的作用,其提取结果直接影响着后续的检测和识别效果。线结构光系统标定和三维测量过程中特征提取跟踪的身影更是无处不在,线结构光三维测量的本质在于提取旋转台编码角点确定转角,以及提取结构光光条中心定位光心,进而重建所采集图像序列中回转类零件的三维轮廓点云。如何快速准确地提取跟踪特征势必决定测量系统的性能,故而提取跟踪由角点光心构成的点线特征是实现线结构光三维测量的关键所在。
光条特征作为线状特征中较为特殊的一种,其表现为具有一定宽度且强度呈现变化,其提取过程在线结构光系统标定和测量中具有重要意义。激光光条具有能量高、相干性好、抗干扰能力强等优点,使其较为适合在复杂工业环境下实现零件三维测量。光条中心快速准确提取是实现线结构光三维测量的关键任务,其既是激光面标定的前提,又是被测物体重建的基础,因而光条中心提取效果直接影响着整个测量系统的性能。
常用的光条中心提取算法包括灰度重心法、方向模板法、曲线拟合法和Hessian矩阵法,其中各光条中心提取算法性能如表1所示,灰度重心法和方向模板法算法简单易行且快速有效,但提取的光条中心精度不高,难于适用高精度测量场合;曲线拟合法具有亚像素级精度,但算法较复杂且耗时,难于满足实时性测量的需要;Hessian矩阵法算法复杂度较高,但具有亚像素级精度,且能够判别结构光方向,综合鲁棒性能最好。
表1 各光条中心提取算法性能比较
发明内容
本发明所要解决的技术问题是提供一种基于时空跟踪的光条中心提取跟踪方法,能够提高提取速度和提取精度。
本发明解决其技术问题所采用的技术方案是:提供一种基于时空跟踪的光条中心提取跟踪方法,包括以下步骤:
(1)利用时间序列模型预测下一时刻光条中心坐标;
(2)以预测的光条中心作为起点,光条中心的切向由Hessian矩阵的特征向量决定,利用Hessian矩阵获取该点的单位切向量,沿着光条切线方向作为谷脊区域延伸方向,用以实现光条在空间上的谷脊跟踪。
所述步骤(1)中将二维图像平面降至一维。
所述步骤(1)中时间序列模型采用线性/非线性时间序列模型。
所述步骤(1)中时间序列模型预测的误差引入AIC信息准则。
所述步骤(2)具体包括以下步骤:
(21)利用预测的光条中心作为谷脊跟踪的起始点,则谷脊跟踪方向为两个光条切线方向,该两个方向被分别处理用以跟踪光条,即可确定下一个谷脊跟踪位置;
(22)依赖Steger算法提取下一个谷脊跟踪位置的亚像素坐标,并根据前后两个跟踪点的位置关系,更新下一个谷脊跟踪方向;
(23)依据谷脊跟踪的新位置和新方向,重复上述步骤继续进行光条空间跟踪直至提取所有光条中心。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明利用灰度重心法和Hessian矩阵法提取像素级和亚像素级光条中心,依赖时间连续性结合时间序列预测下一时刻光心坐标,依据空间连续性利用谷脊跟踪确定下一位置光心坐标,从而实现了快速准确地提取跟踪线结构光光条中心坐标。
附图说明
图1是光条谷脊跟踪示意图;
图2是亚像素级光条时间预测图;
图3是GNAR时间序列预测模型图;
图4是亚像素级光条空间跟踪图;
图5是谷脊空间跟踪模型图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于时空跟踪的光条中心提取跟踪方法,包括以下步骤:利用时间序列模型预测下一时刻光条中心坐标;以预测的光条中心作为起点,光条中心的切向由Hessian矩阵的特征向量决定,利用Hessian矩阵获取该点的单位切向量,沿着光条切线方向作为谷脊区域延伸方向,用以实现光条在空间上的谷脊跟踪。具体如下:
(1)光条时间预测:
图像序列前后帧图像存在时间上的关联性,因而利用时间序列模型预测下一时刻光条中心坐标,同时为进一步提高提取光条的快速性,考虑将二维图像平面降至一维,假设光条中心坐标为(u,v),则所跟踪的光条中心v值保持不变,而仅对其u值进行预测。
时间序列模型具有多种形式,对线性平稳系统,多采用自回归滑动平均(ARMA)模型。对非线性、非平稳系统,可采用多项式逼近ARMA模型,其中线性/非线性时间序列(GNAR)模型表示为,
u t = a t + Σ i 1 = 1 m 1 α i 1 u t - i 1 + Σ i 1 = 1 m 2 Σ i 2 = 1 m 2 α i 1 , i 2 u t - i 1 u t - i 2 + ... + Σ i n = 1 m n ... Σ i n = 1 m n α i 1 , ... , i n Π τ = 1 n u t - i τ = a t + Σ j = 1 n Σ i 1 = 1 m j ... Σ i j = 1 m j α i 1 , ... , i j Π τ = 1 j u t - i τ - - - ( 1 )
其中,n为多项式展开的阶次,mj为各子项的记忆步长,at为多项式的常数项,为模型参数。当n=1时,上式即为线性模型。
其中,模型定阶可采用修正的Akaike最小信息准则(AIC),即
min A I C ( m ) = l o g ( σ ^ M 2 + σ ^ n 2 ) + 2 N m - - - ( 2 )
其中,m为各子项记忆步长之和,为建模残差方差,为预测误差方差,N为序列长度,将预测误差引入AIC信息准则,其目的在于防止模型过拟合。
(2)光条空间跟踪
谷脊区域表现为连续的局部极值点的集合,以时间预测的光条中心作为起点,光条中心的切向由Hessian矩阵的特征向量决定,利用Hessian矩阵获取该点的单位切向量t,其中,t=[tu tv]T,||t||=1,tu和tv表示单位切向量在水平和竖直方向上的分量,沿着光条切线方向t作为谷脊区域延伸方向,用以实现光条在空间上的谷脊跟踪。具体为:
如图1所示,利用时间预测获取谷脊跟踪的起始点qi,则谷脊跟踪方向为ti和-ti,该两个方向应当被分别处理用以跟踪光条,即可确定下一个谷脊跟踪位置pi+1
pi+1=qi+ti (3)
依赖Steger算法即可提取点pi+1的亚像素坐标qi+1,并根据前后两个跟踪点的位置关系,更新下一个谷脊跟踪方向ti+1
ti+1=sign(ei·ti)ei (4)
其中,ei表示跟踪点qi处Hessian矩阵切向量t与其前的跟踪点qi-1的几何方向的加权和,且||ei||=1,如下所示,
ei=αt+(1-α)(qi-qi-1) (5)
其中,α为权重,且α∈[0,1],鉴于光条方向由Hessian矩阵切向量和跟踪点几何方向共同决定,该处取权重α=0.7,sign()表示狄利克雷函数。此时依据谷脊跟踪的新位置qi+1和新方向ti+1,结合式(3)继续进行光条空间跟踪直至提取所有光条中心。
在使用本发明的方法进行光条时间预测实验时,依赖Steger算法提取亚像素光条中心坐标,所提取坐标对应的法线方向如图2所示,为便于观察在局部放大图中每隔5个坐标作一条法线,其中纵向线条为由光条中心坐标相连构成的中心线,由此可见,本发明提取光条中心坐标速度较快,约为平均38ms/帧,提取光条中心坐标精度较高,且无冗余坐标点。
依据时间预测的光条中心坐标,结合实际提取的光条中心坐标,光条中心坐标预测平均误差定义为光条中心坐标的实际提取值与时间预测值间差值的平均值,即光条中心预测平均误差为,
m ‾ t = 1 k Σ i = 1 k | u i - u ^ i | - - - ( 6 )
其中,k为图像序列帧数,ui为第i帧光条中心实际提取值,为第i帧光条中心时间预测值。
针对图像序列中光条纵坐标v取值为240的前600帧图像,依据GNAR(3;5,5,1)模型对光条横坐标u值进行预测,其实际提取值与时间预测值分别如图3中的“*”点和“o”点所示,由图可知GNAR模型能够较为准确地预测光条下一时刻的u坐标,光条中心坐标预测的最大误差为1.181pixel,平均误差为0.173pixel。
在使用本发明的方法进行光条空间跟踪实验中,利用时间预测值提取其邻域的亚像素级光条中心坐标,并以此作为光条空间跟踪的起始点逐一进行跟踪,根据光条谷脊区域的空间连续性顺序提取光条中心坐标,如图4所示,局部放大图中左侧纵向线条为由光条中心坐标相连构成的中心线,局部放大图中右侧的纵向线条为光条跟踪坐标相连构成的中心线,为便于观察而将其水平平移25个像素绘制。
依据空间跟踪的光条中心坐标,结合实际提取的光条中心坐标,光条中心坐标跟踪平均误差定义为光条中心坐标的实际提取值与空间跟踪值间差值的平均值,即光条中心坐标跟踪平均误差为,
m ‾ s = 1 k Σ i = 1 k | q i - p ~ i | - - - ( 7 )
其中,k为光条空间跟踪次数,qi为第i个光条中心实际提取值,为第i个光条中心空间跟踪值。
针对图像序列中第250帧图像,依据切向跟踪方向对光条坐标进行跟踪,其实际提取值与空间跟踪值间差值如图5中的“o”点所示,其中在光条弯曲区域的光条中心跟踪误差变化较大,由图可见光条跟踪能够较为准确地跟踪下一位置的光条中心,光条中心跟踪误差被限制于1.8pixel以内,平均误差为0.365pixel。

Claims (5)

1.一种基于时空跟踪的光条中心提取跟踪方法,其特征在于,包括以下步骤:
(1)利用时间序列模型预测下一时刻光条中心坐标;
(2)以预测的光条中心作为起点,光条中心的切向由Hessian矩阵的特征向量决定,利用Hessian矩阵获取该点的单位切向量,沿着光条切线方向作为谷脊区域延伸方向,用以实现光条在空间上的谷脊跟踪。
2.根据权利要求1所述的基于时空跟踪的光条中心提取跟踪方法,其特征在于,所述步骤(1)中将二维图像平面降至一维。
3.根据权利要求1所述的基于时空跟踪的光条中心提取跟踪方法,其特征在于,所述步骤(1)中时间序列模型采用线性/非线性时间序列模型。
4.根据权利要求1所述的基于时空跟踪的光条中心提取跟踪方法,其特征在于,所述步骤(1)中时间序列模型预测的误差引入AIC信息准则。
5.根据权利要求1所述的基于时空跟踪的光条中心提取跟踪方法,其特征在于,所述步骤(2)具体包括以下步骤:
(21)利用预测的光条中心作为谷脊跟踪的起始点,则谷脊跟踪方向为两个光条切线方向,该两个方向被分别处理用以跟踪光条,即可确定下一个谷脊跟踪位置;
(22)依赖Steger算法提取下一个谷脊跟踪位置的亚像素坐标,并根据前后两个跟踪点的位置关系,更新下一个谷脊跟踪方向;
(23)依据谷脊跟踪的新位置和新方向,重复上述步骤继续进行光条空间跟踪直至提取所有光条中心。
CN201610294947.7A 2016-05-05 2016-05-05 一种基于时空跟踪的光条中心提取跟踪方法 Active CN106023247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610294947.7A CN106023247B (zh) 2016-05-05 2016-05-05 一种基于时空跟踪的光条中心提取跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610294947.7A CN106023247B (zh) 2016-05-05 2016-05-05 一种基于时空跟踪的光条中心提取跟踪方法

Publications (2)

Publication Number Publication Date
CN106023247A true CN106023247A (zh) 2016-10-12
CN106023247B CN106023247B (zh) 2019-06-14

Family

ID=57081903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610294947.7A Active CN106023247B (zh) 2016-05-05 2016-05-05 一种基于时空跟踪的光条中心提取跟踪方法

Country Status (1)

Country Link
CN (1) CN106023247B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866924A (zh) * 2019-09-24 2020-03-06 重庆邮电大学 一种线结构光中心线提取方法及存储介质
CN113269207A (zh) * 2021-05-28 2021-08-17 天津理工大学 一种用于网格结构光视觉测量中的图像特征点提取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060082787A1 (en) * 2001-06-27 2006-04-20 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
WO2006109308A1 (en) * 2005-04-12 2006-10-19 Sharon Ehrlich Real-time imaging method and system using structured light
CN103940369A (zh) * 2014-04-09 2014-07-23 大连理工大学 多激光协同扫描形貌快速视觉测量方法
CN104002021A (zh) * 2014-06-06 2014-08-27 哈尔滨工业大学 用于多层多道焊道自动识别与跟踪的装置
CN105066909A (zh) * 2015-09-01 2015-11-18 华中科技大学 一种手持式多激光条纹快速三维测量方法
CN105300316A (zh) * 2015-09-22 2016-02-03 大连理工大学 基于灰度重心法的光条中心快速提取方法
CN105300296A (zh) * 2014-07-15 2016-02-03 中国科学院沈阳自动化研究所 一种激光拼焊曲面拼缝测量方法及其实现装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060082787A1 (en) * 2001-06-27 2006-04-20 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
WO2006109308A1 (en) * 2005-04-12 2006-10-19 Sharon Ehrlich Real-time imaging method and system using structured light
CN103940369A (zh) * 2014-04-09 2014-07-23 大连理工大学 多激光协同扫描形貌快速视觉测量方法
CN104002021A (zh) * 2014-06-06 2014-08-27 哈尔滨工业大学 用于多层多道焊道自动识别与跟踪的装置
CN105300296A (zh) * 2014-07-15 2016-02-03 中国科学院沈阳自动化研究所 一种激光拼焊曲面拼缝测量方法及其实现装置
CN105066909A (zh) * 2015-09-01 2015-11-18 华中科技大学 一种手持式多激光条纹快速三维测量方法
CN105300316A (zh) * 2015-09-22 2016-02-03 大连理工大学 基于灰度重心法的光条中心快速提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙晓明: "基于结构光的公路路面裂缝检测关键技术研究", 《中国博士学位全文数据库 工程科技辑Ⅱ》 *
简文彬 等: "门限自回归模型预测软土地基沉降", 《水利与建筑工程学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866924A (zh) * 2019-09-24 2020-03-06 重庆邮电大学 一种线结构光中心线提取方法及存储介质
CN110866924B (zh) * 2019-09-24 2023-04-07 重庆邮电大学 一种线结构光中心线提取方法及存储介质
CN113269207A (zh) * 2021-05-28 2021-08-17 天津理工大学 一种用于网格结构光视觉测量中的图像特征点提取方法

Also Published As

Publication number Publication date
CN106023247B (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
Wang et al. Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching
US11763485B1 (en) Deep learning based robot target recognition and motion detection method, storage medium and apparatus
CN101216941B (zh) 剧烈光照变化下基于角点匹配与光流法的运动估计方法
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
CN105335986B (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN101477690B (zh) 一种视频帧序列中物体轮廓跟踪的方法和装置
CN110223324A (zh) 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法
CN105741316A (zh) 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN105654492A (zh) 基于消费级摄像头的鲁棒实时三维重建方法
CN103854283A (zh) 一种基于在线学习的移动增强现实跟踪注册方法
CN101383899A (zh) 一种空基平台悬停视频稳像方法
CN104867135A (zh) 一种基于指导图像引导的高精度立体匹配方法
US11367195B2 (en) Image segmentation method, image segmentation apparatus, image segmentation device
KR20130084849A (ko) 카메라 추적을 위한 방법 및 장치
CN104751493A (zh) 基于梯度纹理特征的稀疏跟踪方法
CN104091350A (zh) 一种利用运动模糊信息的物体跟踪方法
Zou et al. Low-resolution face tracker robust to illumination variations
CN103473790A (zh) 基于增量Bi-2DPCA学习和稀疏表示的在线目标跟踪方法
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
CN106023247A (zh) 一种基于时空跟踪的光条中心提取跟踪方法
CN111582310B (zh) 隐含结构光的解码方法及装置
CN102663369A (zh) 基于surf高效匹配核的人体运动跟踪方法
CN113947636B (zh) 一种基于深度学习的激光slam定位系统及方法
CN110827324B (zh) 一种视频目标跟踪方法
EP4350627A1 (en) Geometry and texture based online matching optimization method and three-dimensional scanning system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant