CN104144282B - 一种适用于空间机器人视觉系统的快速数字稳像方法 - Google Patents

一种适用于空间机器人视觉系统的快速数字稳像方法 Download PDF

Info

Publication number
CN104144282B
CN104144282B CN201410341402.8A CN201410341402A CN104144282B CN 104144282 B CN104144282 B CN 104144282B CN 201410341402 A CN201410341402 A CN 201410341402A CN 104144282 B CN104144282 B CN 104144282B
Authority
CN
China
Prior art keywords
mtd
mrow
msub
mtr
mover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410341402.8A
Other languages
English (en)
Other versions
CN104144282A (zh
Inventor
黄攀峰
蔡佳
张彬
王东科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410341402.8A priority Critical patent/CN104144282B/zh
Publication of CN104144282A publication Critical patent/CN104144282A/zh
Application granted granted Critical
Publication of CN104144282B publication Critical patent/CN104144282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种适用于空间机器人视觉系统的快速数字稳像方法,涉及一种快速数字稳像技术,由图像预处理、局部运动估计、全局运动估计、运动滤波和运动补偿等五部分组成。本发明在对图像预处理的基础上采用ORB特征点提取算法能够快速精确的对前后帧图像进行特征点提取和匹配,具有时间和精度上的优势。得到匹配点对后利用豪斯赫尔德变换法和广义矩阵法能够精确求解出全局运动矢量,为后续的运动滤波和补偿奠定基础。然后采用阻尼系数法能够保留随机抖动运动分量,消除正常扫描分量。最后利用帧间全局运动矢量的线性组合对单帧图像的各个像素点进行位置调整得到稳定的视频图像序列。时间复杂度较低,预测和补偿精度较高。

Description

一种适用于空间机器人视觉系统的快速数字稳像方法
技术领域
本发明属于图像处理与计算机视觉领域,具体涉及一种适用于空间机器人视觉系统的快速数字稳像方法。
背景技术
数字稳像是对随机运动的摄像机系统所获取的非平稳视频图像序列进行修正的技术。其目的是消除因载体多余运动造成的图像序列中同一物体在不同帧图像坐标上的位移量,进而消除因视觉残留造成观察到的图像序列模糊和抖动。相对于机械稳像和光学稳像,数字稳像具有精度高、易操作、灵活性强、硬件少、体积小等特点。在国外已被广泛应用于摄影、航空侦察、武器系统的观瞄监视、视频压缩和全景图像拼接等各种任务中。
空间绳系机器人是一种新型的智能运动平台,其上搭载着用于用于视觉测量的摄像机系统。在空间绳系机器人逼近非合作目标的自主飞行过程中伴随着因控制不平滑导致的不规则运动,使得其上装配的摄像机系统获取到的图像序列因抖动而模糊,为后续的目标检测、识别、测量带来干扰。因此需要对获取的图像序列首先进行数字稳像。
数字稳像系统主要由运动估计和运动补偿两个模块组成。运动估计是估计出视频图像序列的帧间偏移量,为运动补偿提供可靠参数。运动补偿是根据估计所得偏移量确定图像的抖动量,并根据抖动量的大小和方向将图像上的像素作等量的反方向移动,进行图像的行、列重组,实现图像序列稳定。目前图像序列帧间运动估计算法主要有:灰度投影法、块匹配法、光流场法、特征匹配法等。其中灰度投影法具有计算量小、精度高的特点,但对旋转、缩放、和较大的平移运动等稳像效果不佳;块匹配法精度很高,但受搜索策略和匹配准则影响,稳像效果参差不齐;光流场法存在孔径问题和遮挡问题,其光流约束方程并非严格成立,计算量大且存在较大误差;相位法计算量大,难以保证实时性;特征匹配法能够快速有效地稳定以任意形式抖动的图像序列,是未来数字稳像发展的主要方向。但是,它存在两个问题:一是如何稳定、准确、快速地提取图像特征;二是如何快速、准确地进行图像特征的匹配。
公开日为2010年4月7日、公开号为CN101692692A的专利文献中公开了如下这种技术方案,一种电子稳像技术,可对待处理视频文件的每个单帧图像均主要进行如下处理:对当前帧图像的帧间运动矢量进行平滑处理,得到当前帧图像的平滑运动矢量,进一步得到当前帧图像的抖动运动矢量;将从预设的起始帧图像到每个单帧图像的前一帧图像所累加得到的抖动运动矢量变量之和,作为每个单帧图像的抖动运动矢量,以对每个单帧图像进行运动补偿,最终获得处理后的稳定的视频文件,等等。该方案的不足之处在于处理过程繁琐,计算量大,可处理的抖动范围小,而且对图像进行转换过程中影响了图像质量。
发明内容
本发明的目的在于弥补现有数字稳像技术在计算速度、稳像精度、适用范围和鲁棒性上的不足,提供一种能够实时对复杂抖动图像序列进行稳像的适用于空间机器人视觉系统的快速数字稳像方法,该方法能够极大地抑制图像噪声对特征点提取的干扰,比较精确地计算出全局运动矢量并进行补偿,时间复杂度和空间复杂度较优。
为实现上述目的,本发明所采用的技术方案包括以下步骤:
1)图像采集:
利用单目相机采集连续两帧图像It-1(x,y)和It(x,y);
2)图像预处理:
对采集到的图像It-1(x,y)和It(x,y)分别进行中值滤波、维纳滤波和灰度化处理,得到图像对It-1(x’,y’)和It(x’,y’),其中It-1(x’,y’)定义为参考帧,It(x’,y’)定义为当前帧;
3)局部运动估计:
对It-1(x’,y’)和It(x’,y’)利用ORB算法进行特征提取,在对步骤2)得到的两幅图像进行检测,并使用rBRIEF得到二进制位串的关键点描述符,在关键点匹配的过程中距离的描述使用Hamming距离,在匹配点搜索的过程中,使用KD树数据结构,最后采用阈值法剔除错误的匹配点对;
4)全局运动估计:
根据步骤3)得到的匹配点对,采用最小二乘法,利用豪斯赫尔德变换法和广义矩阵法求解出所有运动参数;
5)运动滤波:
采用阻尼系数法,设置有衰减因子的一阶线性自回归函数对步骤4)得到的运动参数进行平滑处理,保留随机抖动运动分量,消除正常扫描分量;
6)运动补偿:
根据步骤5)得到的随机抖动运动矢量进行判断,如果当前帧图像的抖动运动矢量超过设定的阈值,则重置当前帧为起始帧;
否则,以每个单帧图像的抖动运动矢量对每个单帧图像进行运动补偿,即利用帧间全局运动矢量的线性组合对单帧图像的各个像素点进行位置调整,并写入视频文件,得到稳定的视频图像序列。
所述的步骤3)中,局部运动估计的具体方法如下:
3-1)进行Oriented FAST特征点检测,生成Rotated BRIEF特征描述子,分别得到It-1(x’,y’)和It(x’,y’)上的特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron};
3-2)特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron}匹配的过程中使用Hamming距离作为距离的描述;在匹配点搜索的过程中使用KD树数据结构,得到粗匹配后的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc};
3-3)对粗匹配后得到的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}进行错误匹配点的剔除方法如下:分别计算各匹配点之间的Euclidean距离dlr1,dlr2,…,dlrc,计算得到其中的最小距离dmin
对特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}中每个特征点对进行如下判断,如果dlri<2×dmin,该特征点对视为正确匹配,则保留该特征点对Plmi和Prmi;如果dlri≥2×dmin,该特征点对视为错误匹配,则剔除该特征点对Plmi和Prmi;经过该步骤后得到正确匹配的N对特征点集{Plfm1,Plfm2,…,PlfmN}和{Prfm1,Prfm2,…,PrfmN};
定义参考帧中{Plfm1,Plfm2,…,PlfmN}各点的坐标形式为(xi,yi),当前帧中{Prfm1,Prfm2,…,PrfmN}各点的坐标形式为
所述的步骤4)中,利用豪斯赫尔德变换法和广义矩阵法求解出所有运动参数的具体方法如下:
采用相似变换模型描述图像帧间的平移和绕光轴的旋转运动,其定义式如下所示
其中,s为帧间变焦系数,θ为帧间旋转角度,[Δx,Δy]为水平和垂直偏移量;
(a)确定变焦系数s
由公式(2)计算获取参考帧和当前帧中特征点集合的质心(Xt-1,Yt-1)和(Xt,Yt):
由公式(3)计算参考帧相对于当前帧的变焦系数:
(b)确定旋转和平移参数
当摄像系统帧率大于15fps时,相邻两帧图像相对旋转运动小于5°,在这种运动情况下,cosθ≈1,sinθ≈θ,从而将公式(1)改写为:
将进行距离不变性验证后的N匹配的特征点(xi,yi),代入方程(4)得如下方程组:
定义:
则可将公式(5)转换为如下形式:
B=AX (6)
采用最小二乘法,利用豪斯赫尔德变换法和广义矩阵法求解出公式(6)的解,就是参考帧与当前帧之间的帧间全局运动矢量GMV=[θ,Δx,Δy]。
所述的步骤5)中,一阶线性自回归函数为:
SMV(i)=αSMV(i-1)+βGMV(i) (7)
其中SMV(i)为当前帧的抖动运动矢量,SMV(i-1)为参考帧的抖动运动矢量,GMV(i)为参考帧与当前帧之间的全局运动矢量,i为帧数;α是介于0与1之间的阻尼系数,β是介于0与1之间的衰减因子,至此得到抖动运动矢量。
与现有技术相比,本发明具有如下有益效果:
本发明在对图像预处理的基础上采用ORB特征点提取算法能够快速精确的对前后帧图像进行特征点提取和匹配,具有时间和精度上的优势。得到匹配点对后利用豪斯赫尔德变换法和广义矩阵法能够精确求解出全局运动矢量,为后续的运动滤波和补偿奠定基础。然后采用阻尼系数法能够保留随机抖动运动分量,消除正常扫描分量。最后利用帧间全局运动矢量的线性组合对单帧图像的各个像素点进行位置调整得到稳定的视频图像序列。时间复杂度较低,预测和补偿精度较高。
附图说明
图1为本发明的算法总流程框图;
图2为本发明算法实施实例效果示意图;其中,(a)表示参考帧,(b)表示当前帧,(c)表示稳定帧,(d)表示当前帧与参考帧的差值,(e)表示当前帧与稳定帧的差值;
图3为本发明稳像前后视频序列帧间保真度比较图。
具体实施方式
以下结合附图对本发明进行详细的描述。应当指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
如图1所示,本发明实施例提供的一种适用于空间运动平台的快速数字稳像技术包括:
(1)图像采集:
利用单目相机采集连续两帧图像It-1(x,y)和It(x,y)。
(2)图像预处理:
对采集到的图像It-1(x,y)和It(x,y)分别进行中值滤波、维纳滤波和灰度化处理,得到图像对It-1(x’,y’)和It(x’,y’),其中It-1(x’,y’)定义为参考帧,It(x’,y’)定义为当前帧。
(3)局部运动估计:
对It-1(x’,y’)和It(x’,y’)利用ORB算法进行特征提取,简要做法如下:进行Oriented FAST特征点检测;生成Rotated BRIEF特征描述子。
其中关于上述步骤如何具体操作,为本领域公知技术,可参考文献1“EthanRublee,Vincent Rabaud,Kurt Konolige and Gary Bradski.ORB:an efficientalternative to SIFT or SURF[C].IEEE International Conference,Barcelona,2011:2564-2571.”,此处不再赘述。
经过这一步骤可以分别得到It-1(x’,y’)和It(x’,y’)上的特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron}。
特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron}匹配的过程中使用Hamming距离作为距离的描述。在匹配点搜索的过程中使用KD树数据结构,由此可以得到粗匹配后的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}。
对粗匹配后得到的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}进行错误匹配点的剔除方法如下:分别计算各匹配点之间的Euclidean距离dlr1,dlr2,…,dlrc。计算得到其中的最小距离dmin
对特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}中每个特征点对进行如下判断,如果dlri<2×dmin,该特征点对视为正确匹配,则保留该特征点对Plmi和Prmi;如果dlri≥2×dmin,该特征点对视为错误匹配,则剔除该特征点对Plmi和Prmi。经过该步骤后得到正确匹配的N对特征点集{Plfm1,Plfm2,…,PlfmN}和{Prfm1,Prfm2,…,PrfmN}。
定义参考帧中{Plfm1,Plfm2,…,PlfmN}各点的坐标形式为(xi,yi),当前帧中{Prfm1,Prfm2,…,PrfmN}各点的坐标形式为
(4)全局运动估计:根据(3)得到的匹配点对,采用最小二乘法的思想,利用豪斯赫尔德变换法和广义矩阵法等可求解出所有运动参数。
采用相似变换模型描述图像帧间的平移和绕光轴的旋转运动,其定义式如下所示
其中,s为帧间变焦系数,θ为帧间旋转角度,[Δx,Δy]为水平和垂直偏移量。
(a)确定变焦系数s
由公式(2)计算获取参考帧和当前帧中特征点集合的质心(Xt-1,Yt-1)和(Xt,Yt):
由公式(3)计算参考帧相对于当前帧的变焦系数:
(b)确定旋转和平移参数
当摄像系统帧率大于15fps时,相邻两帧图像相对旋转运动一般小于5°。在这种较小运动情况下,cosθ≈1,sinθ≈θ,从而(1)式可以改写为:
将进行距离不变性验证后的N匹配的特征点(xi,yi),代入方程(4)得如下方程组:
定义:
则可将方程组(5)转换为如下形式:
B=AX (6)
采用最小二乘法的思想,利用豪斯赫尔德变换法和广义矩阵法等可求解出超定方程组(6)的解,就是参考帧与当前帧之间的帧间全局运动矢量GMV=[θ,Δx,Δy]。
其中关于上述步骤如何具体操作,为本领域公知技术,可参考文献2“仲训昱,朱齐丹,张智.数字稳像中的快速和鲁棒运动估计研究[J].电子学报,2010,38(1):251-256”,此处不再赘述。
(5)运动滤波:
一阶线性自回归函数为:
SMV(i)=αSMV(i-1)+βGMV(i) (7)
其中SMV(i)为当前帧的抖动运动矢量,SMV(i-1)为参考帧的抖动运动矢量,GMV(i)为参考帧与当前帧之间的全局运动矢量,i为帧数。
α是介于0与1之间的阻尼系数。
β是介于0与1之间的衰减因子。
至此可得到抖动运动矢量。
(6)运动补偿:
根据(5)得到的随机抖动运动矢量进行判断,如果当前帧图像的抖动运动矢量超过设定的阈值,则重置当前帧为起始帧。
否则,以每个单帧图像的抖动运动矢量对每个单帧图像进行运动补偿,即利用帧间全局运动矢量的线性组合对单帧图像的各个像素点进行位置调整,并写入视频文件,得到稳定的视频图像序列。
算法具体实施实例效果示意图如图2所示。图3为稳像前后视频序列帧间保真度比较图,定量对稳像前后图像序列质量进行了对照评估。图3中下方的折线表示稳像前视频序列中各帧PSNR值。上方的折线表示稳像后视频序列中各帧PSNR值。可以定量的看出稳像后各帧PSNR值均比稳像前有所提高。而且稳像前图像的平均PSNR值为32.6151,而稳定后序列30~69帧图像的平均PSNR值提升至41.3532。
本发明的方法易于实现和应用,主要可以应用于以下几个方面:
1、空间运动平台如空间绳系机器人等;
2、武器系统的观瞄监视;
3、手持或车载摄影设备的自动稳像;
4、视频压缩和全景图像拼接。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (2)

1.一种适用于空间机器人视觉系统的快速数字稳像方法,其特征在于,包括以下步骤:
1)图像采集:
利用单目相机采集连续两帧图像It-1(x,y)和It(x,y);
2)图像预处理:
对采集到的图像It-1(x,y)和It(x,y)分别进行中值滤波、维纳滤波和灰度化处理,得到图像对It-1(x’,y’)和It(x’,y’),其中It-1(x’,y’)定义为参考帧,It(x’,y’)定义为当前帧;
3)局部运动估计:
对It-1(x’,y’)和It(x’,y’)利用ORB算法进行特征提取,在对步骤2)得到的两幅图像进行检测,并使用rBRIEF得到二进制位串的关键点描述符,在关键点匹配的过程中距离的描述使用Hamming距离,在匹配点搜索的过程中,使用KD树数据结构,最后采用阈值法剔除错误的匹配点对;
局部运动估计的具体方法如下:
3-1)进行Oriented FAST特征点检测,生成Rotated BRIEF特征描述子,分别得到It-1(x’,y’)和It(x’,y’)上的特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron};
3-2)特征点集{Plo1,Plo2,…,Plom}和{Pro1,Pro2,…,Pron}匹配的过程中使用Hamming距离作为距离的描述;在匹配点搜索的过程中使用KD树数据结构,得到粗匹配后的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc};
3-3)对粗匹配后得到的特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}进行错误匹配点的剔除方法如下:分别计算各匹配点之间的Euclidean距离dlr1,dlr2,…,dlrc,计算得到其中的最小距离dmin
对特征点集{Plm1,Plm2,…,Plmc}和{Prm1,Prm2,…,Prmc}中每个特征点对进行如下判断,如果dlri<2×dmin,该特征点对视为正确匹配,则保留该特征点对Plmi和Prmi;如果dlri≥2×dmin,该特征点对视为错误匹配,则剔除该特征点对Plmi和Prmi;经过该步骤后得到正确匹配的N对特征点集{Plfm1,Plfm2,…,PlfmN}和{Prfm1,Prfm2,…,PrfmN};
定义参考帧中{Plfm1,Plfm2,…,PlfmN}各点的坐标形式为(xi,yi),当前帧中{Prfm1,Prfm2,…,PrfmN}各点的坐标形式为
4)全局运动估计:
根据步骤3)得到的匹配点对,采用最小二乘法,利用豪斯赫尔德变换法和广义矩阵法求解出所有运动参数;
利用豪斯赫尔德变换法和广义矩阵法求解出所有运动参数的具体方法如下:
采用相似变换模型描述图像帧间的平移和绕光轴的旋转运动,其定义式如下所示
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mover> <mi>x</mi> <mo>^</mo> </mover> </mtd> </mtr> <mtr> <mtd> <mover> <mi>y</mi> <mo>^</mo> </mover> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mi>s</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mi>&amp;theta;</mi> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> </mtd> <mtd> <mrow> <mi>cos</mi> <mi>&amp;theta;</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>y</mi> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>y</mi> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,s为帧间变焦系数,θ为帧间旋转角度,[Δx,Δy]为水平和垂直偏移量;
(a)确定帧间变焦系数s
由公式(2)计算获取参考帧和当前帧中特征点集合的质心(Xt-1,Yt-1)和(Xt,Yt):
<mrow> <msub> <mi>X</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>Y</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>X</mi> <mi>t</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>Y</mi> <mi>t</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow> 1
由公式(3)计算参考帧相对于当前帧的帧间变焦系数s:
<mrow> <mi>s</mi> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>X</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>Y</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>&amp;times;</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>X</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>Y</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>X</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>Y</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
(b)确定旋转和平移参数
当摄像系统帧率大于15fps时,相邻两帧图像相对旋转运动小于5°,在这种运动情况下,cosθ≈1,sinθ≈θ,从而将公式(1)改写为:
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mover> <mi>x</mi> <mo>^</mo> </mover> </mtd> </mtr> <mtr> <mtd> <mover> <mi>y</mi> <mo>^</mo> </mover> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mi>s</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mo>-</mo> <mi>&amp;theta;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>&amp;theta;</mi> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>y</mi> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>&amp;Delta;</mi> <mi>y</mi> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
将进行距离不变性验证后的N匹配的特征点(xi,yi),代入方程(4)得如下方程组:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mn>...1</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mn>...2</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mn>...3</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mn>...4</mn> </mtd> </mtr> <mtr> <mtd> <mn>...</mn> </mtd> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mrow> <mn>...2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>N</mi> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mrow> <mn>...2</mn> <mi>N</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
定义:
<mrow> <mi>X</mi> <mo>=</mo> <mfenced open = "|" close = "|"> <mtable> <mtr> <mtd> <mi>&amp;theta;</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mi>B</mi> <mo>=</mo> <mfenced open = "|" close = "|"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>...</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>N</mi> </msub> <mo>-</mo> <mi>s</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mi>A</mi> <mo>=</mo> <mfenced open = "|" close = "|"> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>2</mn> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>...</mn> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>s</mi> <mi>&amp;theta;</mi> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>N</mi> </msub> <mo>+</mo> <mi>&amp;Delta;</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
则可将公式(5)转换为如下形式:
B=AX (6)
采用最小二乘法,利用豪斯赫尔德变换法和广义矩阵法求解出公式(6)的解,就是参考帧与当前帧之间的帧间全局运动矢量GMV=[θ,Δx,Δy];
5)运动滤波:
采用阻尼系数法,设置有衰减因子的一阶线性自回归函数对步骤4)得到的运动参数进行平滑处理,保留随机抖动运动矢量,消除正常扫描矢量;
6)运动补偿:
根据步骤5)得到的随机抖动运动矢量进行判断,如果当前帧图像的抖动运动矢量超过设定的阈值,则重置当前帧为起始帧;
否则,以每个单帧图像的抖动运动矢量对每个单帧图像进行运动补偿,即利用帧间全局运动矢量的线性组合对单帧图像的各个像素点进行位置调整,并写入视频文件,得到稳定的视频图像序列。
2.根据权利要求1所述的适用于空间机器人视觉系统的快速数字稳像方法,其特征在于:所述的步骤5)中,一阶线性自回归函数为:
SMV(i)=αSMV(i-1)+βGMV(i) (7)
其中SMV(i)为当前帧的抖动运动矢量,SMV(i-1)为参考帧的抖动运动矢量,GMV(i)为参考帧与当前帧之间的全局运动矢量,i为帧数;α是介于0与1之间的阻尼系数,β是介于0与1之间的衰减因子,至此得到抖动运动矢量。
CN201410341402.8A 2014-07-17 2014-07-17 一种适用于空间机器人视觉系统的快速数字稳像方法 Active CN104144282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410341402.8A CN104144282B (zh) 2014-07-17 2014-07-17 一种适用于空间机器人视觉系统的快速数字稳像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410341402.8A CN104144282B (zh) 2014-07-17 2014-07-17 一种适用于空间机器人视觉系统的快速数字稳像方法

Publications (2)

Publication Number Publication Date
CN104144282A CN104144282A (zh) 2014-11-12
CN104144282B true CN104144282B (zh) 2017-11-28

Family

ID=51853345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410341402.8A Active CN104144282B (zh) 2014-07-17 2014-07-17 一种适用于空间机器人视觉系统的快速数字稳像方法

Country Status (1)

Country Link
CN (1) CN104144282B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104506775A (zh) * 2014-12-31 2015-04-08 深圳先进技术研究院 基于立体视觉匹配的图像采集抖动消除方法及装置
CN105872348A (zh) * 2015-01-20 2016-08-17 北京理工大学 一种基于fpga的稳像处理模块
CN105872346A (zh) * 2015-01-20 2016-08-17 北京理工大学 一种基于fpga的电子稳像系统
CN105872345A (zh) * 2015-01-20 2016-08-17 北京理工大学 基于特征匹配的全帧电子稳像方法
CN105957019A (zh) * 2015-02-11 2016-09-21 贵州景浩科技有限公司 一种用于电子瞄准器的图像处理方法
CN105446351B (zh) * 2015-11-16 2018-03-16 杭州码全信息科技有限公司 一种能够锁定目标区域瞭望基于自主导航的无人飞艇系统
CN105611116B (zh) * 2015-12-23 2018-10-19 苏州科达科技股份有限公司 一种全局运动矢量估计方法及监控视频稳像方法及装置
CN106412381B (zh) * 2016-09-28 2019-03-08 湖南优象科技有限公司 一种快速高效的视频稳定方法
CN107071279A (zh) * 2017-04-01 2017-08-18 深圳市圆周率软件科技有限责任公司 一种全景图像画面稳定的方法及系统
CN107343145A (zh) * 2017-07-12 2017-11-10 中国科学院上海技术物理研究所 一种基于鲁棒性特征点的视频相机电子稳像方法
CN107360377B (zh) * 2017-09-04 2020-09-25 云南电网有限责任公司电力科学研究院 一种车载视频稳像方法
CN107968916A (zh) * 2017-12-04 2018-04-27 国网山东省电力公司电力科学研究院 一种适用于非固定场景的快速视频稳像方法
CN108040225B (zh) * 2017-12-11 2020-02-07 上海瀚正信息科技股份有限公司 一种智能监控机器人
CN109919971B (zh) * 2017-12-13 2021-07-20 北京金山云网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN109657685A (zh) * 2018-12-17 2019-04-19 哈尔滨工业大学 一种基于灰度像素的图像表示方法及系统
CN114143459A (zh) * 2021-11-26 2022-03-04 中国电子科技集团公司第五十四研究所 一种适用于大变焦摄像头的视频消抖方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692692A (zh) * 2009-11-02 2010-04-07 彭健 电子稳像方法及系统
CN102547066A (zh) * 2011-12-12 2012-07-04 苏州科雷芯电子科技有限公司 一种基于景像配准技术的视频稳像方法
EP2521093A1 (en) * 2009-12-28 2012-11-07 Panasonic Corporation Moving object detection device and moving object detection method
CN103516960A (zh) * 2013-10-16 2014-01-15 哈尔滨工程大学 一种基于船舶运动姿态预报的船载视频稳像方法
CN103533255A (zh) * 2013-10-28 2014-01-22 东南大学 基于运动位移曲线精简的视频场景自动分割方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692692A (zh) * 2009-11-02 2010-04-07 彭健 电子稳像方法及系统
EP2521093A1 (en) * 2009-12-28 2012-11-07 Panasonic Corporation Moving object detection device and moving object detection method
CN102547066A (zh) * 2011-12-12 2012-07-04 苏州科雷芯电子科技有限公司 一种基于景像配准技术的视频稳像方法
CN103516960A (zh) * 2013-10-16 2014-01-15 哈尔滨工程大学 一种基于船舶运动姿态预报的船载视频稳像方法
CN103533255A (zh) * 2013-10-28 2014-01-22 东南大学 基于运动位移曲线精简的视频场景自动分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ORB: an efficient alternative to SIFT or SURF;E Rublee等;《International Conference on Computer Vision》;20111231;第1-6页 *
数字稳像中的快速和鲁棒运动估计研究;仲训昱等;《电 子 学 报》;20100131;第38卷(第1期);第251-255页,图1,3 *

Also Published As

Publication number Publication date
CN104144282A (zh) 2014-11-12

Similar Documents

Publication Publication Date Title
CN104144282B (zh) 一种适用于空间机器人视觉系统的快速数字稳像方法
CN101616310B (zh) 可变视角及分辨率的双目视觉系统目标图像稳定化方法
CN106534616B (zh) 一种基于特征匹配与运动补偿的视频稳像方法及系统
CN109102522B (zh) 一种目标跟踪方法及装置
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
CN108171787A (zh) 一种基于orb特征检测的三维重建方法
CN110517324B (zh) 基于变分贝叶斯自适应算法的双目vio实现方法
CN105611116B (zh) 一种全局运动矢量估计方法及监控视频稳像方法及装置
CN103841297B (zh) 一种适用于合成运动摄像载体的电子稳像方法
CN107833249A (zh) 一种基于视觉引导的舰载机着陆过程姿态预估方法
CN103079037B (zh) 基于远近景切换的自适应电子稳像方法
CN108073857A (zh) 动态视觉传感器dvs事件处理的方法及装置
CN109376641B (zh) 一种基于无人机航拍视频的运动车辆检测方法
US9292934B2 (en) Image processing device
CN102456225A (zh) 一种视频监控系统及其运动目标检测与跟踪方法
CN102722697A (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN105872345A (zh) 基于特征匹配的全帧电子稳像方法
CN103440662A (zh) Kinect深度图像获取方法与装置
US20220222849A1 (en) Pose Tracking Method, Pose Tracking Device and Electronic Device
CN109584299B (zh) 一种定位方法、定位装置、终端及存储介质
CN107360377B (zh) 一种车载视频稳像方法
CN103841298A (zh) 一种基于颜色恒量和几何不变特征的视频稳像方法
CN104376575A (zh) 一种基于多摄像头监控的行人计数方法和装置
CN111798373A (zh) 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法
WO2010151215A1 (en) Real time video stabilization

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant