CN101316368B - 基于全局特征点迭代的全景稳像方法 - Google Patents

基于全局特征点迭代的全景稳像方法 Download PDF

Info

Publication number
CN101316368B
CN101316368B CN 200810150384 CN200810150384A CN101316368B CN 101316368 B CN101316368 B CN 101316368B CN 200810150384 CN200810150384 CN 200810150384 CN 200810150384 A CN200810150384 A CN 200810150384A CN 101316368 B CN101316368 B CN 101316368B
Authority
CN
China
Prior art keywords
characteristic point
image
motion
global
affine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 200810150384
Other languages
English (en)
Other versions
CN101316368A (zh
Inventor
郭宝龙
朱娟娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 200810150384 priority Critical patent/CN101316368B/zh
Publication of CN101316368A publication Critical patent/CN101316368A/zh
Application granted granted Critical
Publication of CN101316368B publication Critical patent/CN101316368B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于全局特征点迭代的全景稳像方法。它包括基于特征点迭代的图像运动参数估计和基于滤波的图像运动补偿两部分。该全局运动参数的估计是将图像中最稳定的Harris特征点与特征窗相结合,通过距离一致性验证和特征点迭代更新,逐渐删除局部特征点,使全局特征点集合快速收敛,以准确求取全局运动参数。该运动图像的补偿是对全局运动参数进行滤波提取抖动参数,并对实际抖动参数进行补偿而保留摄像系统的正常扫描运动,同时在补偿时结合图像融合实现全景图像的输出。该方法能有效地处理摄像系统平移,旋转,变焦等抖动以及更为复杂的场景局部运动情况,可用于消除运动载体对视频序列的影响,输出稳定视频,改善视频监控或跟踪的观测效果。

Description

基于全局特征点迭代的全景稳像方法
技术领域
本发明属于图像处理技术领域,涉及图像的稳定处理,具体的说是一种视频序列电子稳像方法,可用于消除运动载体对视频序列的影响,有效稳定输出视频,改善视频监控或者跟踪系统的观测效果。
背景技术
随着电视摄像系统在各领域中的广泛应用,对图像信息的确定性要求也在不断提高,其中最基本也是最重要的一点,就是要求视频图像画面质量高,有一定的清晰度和稳定性。而电视摄像系统的工作效果往往会受到载体不同时刻的姿态变化或者振动的影响,从而反映到监视器上,使得获得的图像信息不稳定,甚至模糊。由于这种不稳定的图像对于观察者会产生疲劳感,因而导致误判和漏判;对于目标自动识别系统,会导致漏警和虚警。所以,在运动的载体中,摄像系统的稳像是一个十分重要的问题,特别是在长焦距,高分辨率的监视跟踪系统中尤为突出。
国内稳像技术的研究起步较晚,最初多是利用陀螺传感器和伺服系统构成陀螺稳定平台实现机械式稳像。自上世纪90年代开始提出电子稳像方法,但传统的方法主要集中在快速估计视频帧间的平移或者旋转运动上,其前提是对运动产生的起因作理想的假设,且对运动的补偿方法也未作深入研究。而在实际应用中,帧间运动的产生有多种起因,比如摄像系统的随机抖动、有意跟踪扫描、拍摄场景中前景目标的运动、背景中小物体的移动等,正是这些多起因的相互影响,对于运动的估计以及后续处理,提出了较高的要求。
目前,电子稳像方法中常用的运动参数估计方法主要分为以下几类:
(1)基于像素灰度信息法。该方法利用空间像素点的灰度值之间的关系,如像素相关法、像素递归法和光流场法等。这类方法的特点是算法思路简单,但是计算较为复杂不利于实时系统,且稳像精度易受噪声影响,其精度不高。
(2)基于图像块信息匹配法。该方法以参考帧中图像块为基准,在当前帧中寻找相似度最高的图像块,其位置之差就是运动偏移量。其缺点是只能求取平移运动,而实际应用中,图像之间同时存在旋转运动和比例缩放,而且研究表明,人眼对于旋转运动十分敏感,故不能忽略旋转运动。
(3)基于图像特征信息法。该方法选取图像中的有明显特征的特征量作为运动估计的基本单元,进行特征跟踪。这类方法能较好地接近人的视觉特性,通常提取的图像特征是边缘、直线以及点特征,其中边缘和直线特征提取步骤复杂,不利于实时处理。因此,本发明是基于图像的特征点信息,其技术关键是点特征提取的全局性和定位的精确性。
电子稳像方法中另一关键技术就是图像运动补偿方法,即利用已知全局运动参数对当前图像直接进行补偿作为输出图像,输出图像的边界信息会有丢失。图像运动补偿的难点在于:需要补偿的仅为摄像机的随机抖动,而应保留正常的扫描运动,从而达到既能有效减轻摄像机的抖动,同时又能实时跟踪真实场景。因此,在运动补偿时,应对全局运动矢量中的平稳运动量和不稳定运动量进行区分,即对运动矢量信号进行滤波处理,从而提取出抖动分量进行补偿。已有的滤波方法存在不同的缺陷,例如:均值滤波法,容易出现过稳或者欠稳现象;曲线拟和法又会导致较大延迟,不能实时应用;惯性滤波法需要事先对运动类型进行准确设置。因此,需要寻找适合稳像系统的达到实时稳定运动矢量序列的自适应滤波方法。
上述已有运动估计方法和图像补偿方法的不足,造成对图像运动参数的估计精度不高,不能实时处理摄像机的复杂随机抖动和复杂运动场景,无法跟随扫描运动,且边界信息的丢失现象会降低输出视频的质量。
发明内容
本发明的目的在于避免上述已有技术的不足,提出一种基于全局特征点迭代的全景稳像方法,一是解决对复杂环境的全局运动参数的快速精确估计,二是解决对全局运动参数进行实时自适应滤波提取抖动参数,并实现图像的全景补偿,以消除或者减轻视频序列的不稳定现象,改善视频监控或者跟踪系统的观测效果。
本发明的目的是这样实现的:
本发明主要包括基于特征点迭代的图像运动参数估计和基于滤波的图像运动补偿两部分。其中,全局运动参数的估计是充分利用特征跟踪的思想,将图像中最稳定的Harris特征点与特征窗相结合,通过距离一致性验证和特征点迭代更新,逐渐删除局部特征点,使得全局特征点集合快速收敛,以准确求取全局运动参数。运动图像的补偿是利用信号处理的方法滤波提取抖动参数,仅对实际抖动参数进行补偿而保留摄像系统的正常扫描运动,同时在补偿时结合图像融合实现全景图像的输出。具体方案如下:
一.基于特征点迭代的图像全局运动参数估计方法,包括如下步骤:
(1)将参考帧图像fk分成互不重叠的区域,在各区域内利用Harris算子选取特征点(xi,yi);
(2)以每一个特征点为中心取尺寸为M×N的特征窗,在当前帧fk+1的一定搜索范围内,利用最小绝对误差和准则SAD对特征窗进行匹配,并以匹配窗对应的中心点作为匹配特征点
Figure G200810150384XD00031
建立初始全局特征点对集合;
(3)对初始全局特征点对集合,通过距离准则进行一致性验证,取出c对候选全局特征点对集合;
(4)将候选点对集合代入仿射运动模型,利用特征点对迭代更新,得到最终的K对全局特征点对集合,并获得全局运动6参数矩阵Maffine
M affine = m 0 m 3 m 1 m 4 m 2 m 5 .
二.基于滤波的图像运动补偿方法,包括如下步骤:
1)利用全局运动6参数仿射矩阵Maffine,计算图像的旋转角度θ′,水平偏移dx′和垂直偏移dy′,
θ ′ = arctan ( - m 1 m 0 ) , dx′=m2,dy′=m5
2)对旋转角度θ′,水平偏移dx′和垂直偏移dy′,采用kalman滤波器进行平滑处理,得到θ″、dx″和dy″;
3)集合最终的K对特征点,计算图像的比例因子s,
s = Σ i = 1 K ( x i - x ) 2 + ( y i - y ) 2 × ( x ^ i - x ^ ) 2 + ( y ^ i - y ^ ) 2 Σ i = 1 K ( x i - x ) 2 + ( y i - y ) 2
其中,(xi,yi)和
Figure G200810150384XD00035
分别表示参考帧和当前帧中对应特征点,(x,y)和
Figure G200810150384XD00036
分别表示参考帧和当前帧中特征点集合的质心;
4)以滤波前后各运动分量之差θ=θ′-θ″,dx=dx′-dx″,dy=dy′-dy″作为抖动参数,计算待补偿矩阵Maffine的6个参数,即
m0=s×cosθ,m1=s×(-sinθ),m2=dx
                                     ;
m3=s×sinθ,m4=s×cosθ,m5=dy
5)以参考帧作为初始全景图,利用待补偿矩阵Maffine的6参数对当前帧像素点进行仿射变换,并利用图像融和策略确定每个点的灰度值,得到图像的补偿结果。
上述图像运动参数估计方法,其中(3)中所述的通过距离准则进行一致性验证,按如下步骤进行:
(3a)计算所有特征点对之间的距离,
( x i - x ^ i ) 2 + ( y i - y ^ i ) 2
式中,(xi,yi)和
Figure G200810150384XD00042
分别表示参考帧和当前帧中对应特征点和匹配特征点;
(3b)将这些距离分成l类,逐个比较和统计每一距离类中特征点的个数ct,t=1,2,…,l;
(3c)判断每类距离的数目,如果满足:c=max{ct|t=1,…,l},则该距离所对应的特征匹配具有良好的距离一致性,作为候选全局特征点对。
上述图像运动参数估计方法,其中(4)所述的利用特征点对迭代更新,求取全局运动6参数矩阵,具体步骤如下:
(4a)将c对候选全局特征点的坐标差 Δ x i = x i - x ^ i , Δ y i = y i - y ^ i 作为初始数据集合S;
(4b)将S中对应的候选全局特征点代入仿射运动模型,建立仿射方程:B=AMaffine
式中 B = x ^ 1 y ^ 1 x ^ 2 y ^ 2 . . . x ^ c y ^ c , A = x 1 y 1 1 x 2 y 2 1 . . . x c y c 1 , M affine = m 0 m 3 m 1 m 4 m 2 m 5 ;
(4c)利用最小二乘算法计算仿射参数矩阵Maffine=(ATA)-1AB;
(4d)利用所求的参数矩阵Maffine,计算参考帧中各特征点映射后的坐标(xi,yi),并计算其与当前帧中检测特征点的坐标差(Δxi,Δyi),
Δxi=xi-xi,Δyi=yi-yi
(4e)计算初始数据集合S中(Δxi,Δyi)与(Δxi,Δyi)的位置误差E,
E = ( Δ x i - Δ x ‾ i ) 2 + ( Δ y i - Δ y ‾ i ) 2 ;
(4f)将集合S中误差大于设定阈值的对应特征点对删除,更新集合S并转至步骤(4b),若误差均小于设定阈值,则停止迭代,已求的参数矩阵即为最终的全局运动参数,且被保留的特征点对为最终的全局特征点对集合。
本发明具有如下效果:
(1)由于采用特征点迭代更新,提高了图像全局运动参数的计算精度。
本发明采用的特征点提取原则是,利用Harris算子在图像各分区内取响应最大点,以使特征点均匀分布在图像内,并不会集中于前景目标;本发明通过距离一致性验证和位置误差的迭代判断,逐渐剔除局部运动特征点,使得全局特征点集合得到收敛,不仅有效地处理摄像系统平移,旋转,变焦等抖动以及更为复杂的场景局部运动情况,且提高全局运动估计的精度。
(2)由于采用滤波性能良好的Kalman滤波器,一方面较好地平滑运动矢量以降低视频抖动,另一方面有效跟随摄像系统的有意扫描运动。
相对于传统的采用固定窗长的均值滤波器,它可以有效避免过稳或者欠稳现象的发生,能够自适应地根据实际运动参数曲线,调整平滑程度,同时又可有效保留摄像系统的扫描运动,保证输出视频的真实性。
(3)由于结合图像融合技术,使得输出全景补偿图像,提高视频序列的完整性。
图像补偿往往会出现边界丢失现象,即常见的黑色边框,给视觉效果带来不良影响,且不能反映真实场景,本发明利用已知待补偿矩阵,对当前图像和参考图像进行融和处理,切出同尺寸的图像作为最终补偿结果,可以有效去除黑色边框,达到边界信息的重建。
附图说明
图1是本发明的整体流程示意图;
图2是本发明的特征点对迭代更新求全局运动参数的流程图;
图3是本发明特征点提取、特征窗建立以及特征点匹配结果示意图;
图4是本发明特征点对迭代结果图;
图5是本发明对原始水平偏移和垂直偏移进行滤波的结果图;
图6是本发明利用图像融合进行全景补偿的结果图;
图7是本发明对视频序列进行稳定前后的PSNR对比结果图。
具体实施方式
以下参照附图对本发明作进一步详细的描述。
参照图1,本发明的图像运动参数估计的步骤如下:
步骤1,对原始参考图像提取特征点。
将原始图像I(x,y),分成4×4共16个互不重叠的区域,在每个区域内利用Harris角点检测方法提取特征点,其过程是:
(1a)利用下式计算梯度图像:
X = I ⊗ ( - 1,0,1 ) = ∂ I / ∂ X Y = I ⊗ ( - 1,0,1 ) T = ∂ I / ∂ Y
其中
Figure G200810150384XD00052
表示卷积,X表示水平方向的梯度图像,Y表示垂直方向的梯度图像;
(1b)构造自相关矩阵R:
R = X 2 ⊗ w XY ⊗ w XY ⊗ w Y 2 ⊗ w
其中,w=exp(-(X2+Y2)/2σ2)为高斯平滑窗函数;
(1c)计算Harris特征点响应值:
RH=det(R)-k·trace(R)
其中 det ( R ) = λ 1 × λ 2 trace ( R ) = λ 1 + λ 2 , λ1,λ2为自相关矩阵R的两个特征值。
(1d)提取特征点:
在每个区域内取RH最大的点,作为特征点,如图3(a)所示的特征点。
步骤2,在参考帧中建立特征窗。
以参考帧中的每一特征点为中心,构造M×N大小的图像块作为特征窗。由于摄像机的旋转运动,特征窗相应也会旋转,如果特征窗过大则会导致像素点的错位;特征窗过小,则包含的信息量又过少,因而就要确定合适尺寸的特征窗。下面给出了特征窗尺寸和旋转角度之间的关系式,从而推导出合适的特征窗尺寸。
设以图像中心为坐标原点,旋转前两点坐标分别为(x1,y1)和(x2,y2),旋转后对应两点坐标分别为(x′1,y′1)和(x′2,y′2),则图像旋转之前,两点之间的水平和垂直距离分别为:
Δx=x2-x1
Δy=y2-y1
假设图像旋转α度,由旋转方程可知,图像旋转之后两点水平和垂直距离为:
Δx′=Δxcosα+Δysinα
Δy′=-Δxsinα+Δycosα
若要保证特征窗旋转后没有发生错位,只要保证旋转后两点水平间距和垂直间距的变化都小于1,即Δx′-Δx|<1和|Δy′-Δy|<1。
假设特征窗的边长分别为M和N,即Δx=M,Δy=N
|Δx-Δx′|=|Δysinα+(cosα-1)Δx|=|sinα-1+cosα|M<1
|Δy-Δy′|=|-Δxsinα+(cosα-1)Δy|=|sinα+1-cosα|N<1
由此,可以计算,在保证特征窗旋转后没有发生错位时,旋转角度与特征窗大小的关系如表1所示:在旋转角度小于5度时,特征窗尺寸小于11,可以保证特征窗不发生错位。本发明选用9×9的特征窗,如图3(a)在参考帧fk中以特征点为中心建立特征窗。
表1旋转角度与模板尺寸关系表
Figure G200810150384XD00071
步骤3,在当前帧中匹配特征窗。
(3a)如图3(b)在当前帧fk+1中取出对应的搜索窗,尺寸为(M+2p)×(N+2p),其中p表示水平和垂直方向最大偏移量;
(3b)利用全搜索策略和最小误差和SAD准则,找到特征窗在搜索窗内对应的匹配块,该块中心点即为对应的匹配特征点,其中SAD准则的计算公式如下:
SAD ( i , j ) = Σ m = 1 M Σ n = 1 N | f k ( m , n ) - f k + 1 ( m + i , n + j ) |
式中,i,j=-p,…,p。
步骤4,特征点对距离验证。
(4a)计算所有特征点对之间的距离,
( x i - x ^ i ) 2 + ( y i - y ^ i ) 2
式中,(xi,yi)和
Figure G200810150384XD00074
分别表示参考帧和当前帧中对应特征点;
(4b)将这些距离分成l类,逐个比较和统计每一距离类中特征点的个数ci(i=1,2,…,l);
(4c)判断每类距离的数目,如果满足:c=max{ci|i=1,…,l},则该距离所对应的特征匹配具有良好的距离一致性,作为候选全局特征点对。
步骤5:特征点对迭代更新,求全局运动参数。
参照图2,特征点对迭代更新求全局运动参数的具体步骤为:
(5a)将c对特征点的坐标差 Δ x i = x i - x ^ i , Δ y i = y i - y ^ i 作为初始数据集合S;
(5b)将S中对应的特征点代入仿射运动模型,建立仿射方程:B=AMaffine
式中 B = x ^ 1 y ^ 1 x ^ 2 y ^ 2 . . . x ^ c y ^ c , A = x 1 y 1 1 x 2 y 2 1 . . . x c y c 1 , M affine = m 0 m 3 m 1 m 4 m 2 m 5 ;
(5c)利用最小二乘算法计算仿射参数矩阵Maffine=(ATA)-1AB;
(5d)利用所求的参数矩阵Maffine,计算参考帧中各特征点映射后的坐标(xi,yi),并计算其与当前帧中检测特征点的坐标差(Δxi,Δyi),
Δxi=xi-xi,Δyi=yi-yi
(5e)计算初始数据集合S中(Δxi,Δyi)与(Δxi,Δyi)的位置误差E,
E = ( Δ x i - Δ x ‾ i ) 2 + ( Δ y i - Δ y ‾ i ) 2 ;
(5f)将集合S中误差大于设定阈值的对应特征点对删除,更新集合S并转至步骤(2),若误差均小于设定阈值,则停止迭代,输出已求的仿射参数矩阵,作为最终的全局运动参数,且被保留的特征点对为最终的K对全局特征点对集合。
如图4(a)所示,标注了通过特征点迭代删除的2个局部特征点:位于场景左边的移动车身。图4(b)为初始数据集合S中各特征点对坐标差的结果图,其中这两点出现明显不一致现象,其位置误差大于设定阈值,应该予以删除。
参照图1,本发明的图像运动补偿的步骤如下:
步骤A,对已估计的全局运动参数进行存储。
步骤B,计算图像的运动分量。
利用已求的全局运动6参数仿射矩阵 M affine = m 0 m 3 m 1 m 4 m 2 m 5 , 计算相邻帧间图像的旋转角度θ′,水平偏移dx′和垂直偏移dy′,
θ ′ = arctan ( - m 1 m 0 ) , dx′=m2,dy′=m5
步骤C,对运动分量进行滤波。
将各帧间运动分量排成一个序列,作为原始运动分量序列,采用kalman滤波器进行平滑处理,得到θ″、dx″和dy″。其中,kalman滤波器中的状态矢量定义为S(k)=[θ′(k),d′x(k),d′vx(k),d′y(k),d′vy(k)],分别表示旋转角度,水平和垂直偏移以及它们的速度;观测矢量定义为Z(k)=[θ″(k),dx″(k),dy″(k)];则完整的状态方程和观测方程为:
S ( k + 1 ) = 1 0 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 1 S ( k ) + N ( 0 , σ θ ) 0 N ( 0 , σ x ) 0 N ( 0 , σ y ) ,
Z ( k + 1 ) = Z ( k ) + N ( 0 , σ θ ) N ( 0 , σ x ) N ( 0 , σ y ) ,
式中,N(0,σθ),N(0,σx)和N(0,σy)分别表示旋转角度,水平偏移和垂直偏移的随机噪声。
本发明以对水平偏移dx′和垂直偏移dy′进行滤波处理为例,给出了其滤波后的dx″和dy″的效果对比图,如图5所示。由于摄像机存在连续的水平方向镜头右移的扫描运动,因此可以观察到水平方向曲线呈稳定上升趋势;而垂直方向存在低幅抖动,滤波后相对平滑稳定。
步骤D,计算图像的比例因子。
集合最终的K对特征点,计算图像的比例因子s:
s = Σ i = 1 K ( x i - x ) 2 + ( y i - y ) 2 × ( x ^ i - x ^ ) 2 + ( y ^ i - y ^ ) 2 Σ i = 1 K ( x i - x ) 2 + ( y i - y ) 2 ,
x = 1 K Σ i = 1 K x i y = 1 K Σ i = 1 K y i , x ^ = 1 K Σ i = 1 K x ^ i y ^ = 1 K Σ i = 1 K y ^ i ,
其中,(xi,yi)和
Figure G200810150384XD00097
分别表示参考帧和当前帧中保留的特征点对,(x,y)和
Figure G200810150384XD00098
分别表示参考帧和当前帧中特征点集合的质心。
步骤E,计算待补偿矩阵。
以滤波前后各运动分量之差θ=θ′-θ″,dx=dx′-dx″,dy=dy′-dy″作为抖动参数,结合已计算的图像比例因子s,计算待补偿矩阵Maffine的6个参数,即
m0=s×cosθ,m1=s×(-sinθ),m2=dx
                                     ,
m3=s×sinθ,m4=s×cosθ,m5=dy
M ‾ affine = m ‾ 0 m ‾ 3 m ‾ 1 m ‾ 4 m ‾ 2 m ‾ 5 .
步骤F,图像全景补偿。
以参考帧fk作为初始全景图,利用待补偿矩阵Maffine的6参数对当前帧fk+1像素点进行仿射变换,并利用图像融和策略确定每个像素点(p,q)的灰度值,得到补偿图像f。融合后的图像像素f(p,q)为:
f ( p , q ) = f k ( p , q ) ( p , q ) ∈ f k d 1 f k ( p , q ) + d 2 f k + 1 ( p , q ) ( p , q ) ∈ ( f k ∩ f k + 1 ) f k + 1 ( p , q ) ( p , q ) ∈ f k + 1
式中d1,d2表示权重值,代表该点相对位置与重叠区域宽度的比例,即该点与边界点位置之差/重叠区域宽度,且d1+d2=1,0<d1,d2<1。在重叠区域中,d1由1渐变至0,d2由0渐变至1,由此实现了在重叠区域中由fk慢慢平滑过渡到fk+1,使得融和的图像效果更加自然,不会影响整个视频的观察效果。
图6给出了本发明对图像进行运动补偿的结果图,其中6(a)为参考帧,6(b)为当前帧,6(c)为当前帧直接补偿的结果,在图6(c)边界处出现了明显的信息丢失现象,图6(d)是利用图像融和进行全景补偿的结果。从图6(d)可以看出,全景补偿提高了图像质量,从而保证对整个场景全貌的观察效果及输出视频序列的完整流畅。
本发明对视频序列进行稳定的效果可以通过实验进一步说明:
本实验利用PC机在VC++编程下实现了320×240图像序列25帧/秒的实时处理,图7给出了稳定前后的帧间PSNR比较结果,其中曲线original表示原始序列的PSNR,曲线stabilized表示稳定序列的PSNR。PSNR值的计算公式如下:
PSNR ( f k , f k + 1 ) = 10 lg 255 2 MSE ( f k , f k + 1 )
其中, MSE = 1 240 × 320 Σ m = 1 240 Σ n = 1 320 ( f k ( m , n ) - f k + 1 ( m , n ) ) 2 .
PSNR直观反映两幅图像的相似程度,如果PSNR值越高,则说明两幅图像越相似,即帧间稳定性也高。由图7可以看出,稳定后的PSNR值比稳定前有明显的提高,证明本发明对抖动视频序列具有良好的稳定效果,同时也证明本发明的全局运动参数估计具有较高的精度。

Claims (1)

1.一种基于特征点迭代的图像运动参数估计方法,包括如下步骤:
(1)将参考帧图像fk分成互不重叠的区域,在各区域内利用Harris算子选取特征点(xi,yi);
(2)以每一个特征点为中心取尺寸为M×N的特征窗,在当前帧fk+1的一定搜索范围内,利用最小绝对误差和准则SAD对特征窗进行匹配,并以匹配窗对应的中心点作为匹配特征点建立初始全局特征点对集合;
(3)对初始全局特征点对集合,并按如下步骤对该集合的一致性验证,取出c对候选全局特征点对集合:
(3a)计算所有特征点对之间的距离,
( x i - x ^ i ) 2 + ( y i - y ^ i ) 2
式中,(xi,yi)和
Figure F200810150384XC00013
分别表示参考帧和当前帧中对应的特征点和匹配特征点;
(3b)将这些距离分成l类,逐个比较和统计每一距离类中特征点的个数ct,t=1,2,…,l;
(3c)判断每类距离的数目,如果满足:c=max{ct|t=1,…,l},则该距离所对应的特征匹配具有良好的距离一致性,作为候选全局特征点对;
(4)将候选点对集合代入仿射运动模型,利用如下步骤对特征点迭代更新,得到最终的K对全局特征点对集合,并获得全局运动6参数矩阵Maffine
(4a)将c对候选全局特征点的坐标差
Figure F200810150384XC00014
作为初始数据集合S;
(4b)将S中对应的候选全局特征点代入仿射运动模型,建立仿射方程:B=AMaffine
式中 B = x ^ 1 y ^ 1 x ^ 2 y ^ 2 . . . x ^ c y ^ c , A = x 1 y 1 1 x 2 y 2 1 . . . x cc y c 1 , M affine = m 0 m 3 m 1 m 4 m 2 m 5 ;
(4c)利用最小二乘算法计算仿射参数矩阵Maffine=(ATA)-1AB;
(4d)利用所求的参数矩阵Maffine,计算参考帧中各特征点映射后的坐标(xi,yi),并计算其与当前帧中检测特征点的坐标差(Δxi,Δyi),
Δxi=xi-xi,Δyi=yi-yi
(4e)计算初始数据集合S中(Δxi,Δyi)与(Δxi,Δyi)的位置误差E,
E = ( Δx i - Δ x ‾ i ) 2 + ( Δ y i - Δ y ‾ i ) 2 ;
(4f)将集合S中误差大于设定阈值的对应特征点对删除,更新集合S并转至步骤(4b),若误差均小于设定阈值,则停止迭代,已求的参数矩阵即为最终的全局运动参数,且被保留的特征点对为最终的全局特征点对集合。
CN 200810150384 2008-07-18 2008-07-18 基于全局特征点迭代的全景稳像方法 Expired - Fee Related CN101316368B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810150384 CN101316368B (zh) 2008-07-18 2008-07-18 基于全局特征点迭代的全景稳像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810150384 CN101316368B (zh) 2008-07-18 2008-07-18 基于全局特征点迭代的全景稳像方法

Publications (2)

Publication Number Publication Date
CN101316368A CN101316368A (zh) 2008-12-03
CN101316368B true CN101316368B (zh) 2010-04-07

Family

ID=40107182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810150384 Expired - Fee Related CN101316368B (zh) 2008-07-18 2008-07-18 基于全局特征点迭代的全景稳像方法

Country Status (1)

Country Link
CN (1) CN101316368B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102457672A (zh) * 2010-10-27 2012-05-16 鸿富锦精密工业(深圳)有限公司 影像稳定系统及方法
CN102025919B (zh) * 2010-11-17 2012-12-19 无锡中星微电子有限公司 图像闪烁检测方法和装置以及应用此装置的摄像头
CN102427505B (zh) * 2011-09-29 2013-11-13 深圳万兴信息科技股份有限公司 一种基于Harris Corner的视频稳像方法及系统
CN102499634B (zh) * 2011-10-26 2014-01-08 中国科学院光电技术研究所 一种带稳像功能的活体人眼视网膜动态成像装置及方法
CN102665033B (zh) * 2012-05-07 2013-05-22 长沙景嘉微电子股份有限公司 基于分层块匹配的实时数字视频稳像方法
CN102857739B (zh) * 2012-08-20 2015-09-09 上海光亮光电科技有限公司 分布式全景监控系统及其方法
CN103426182B (zh) * 2013-07-09 2016-01-06 西安电子科技大学 基于视觉注意机制的电子稳像方法
CN104349039B (zh) * 2013-07-31 2017-10-24 展讯通信(上海)有限公司 视频防抖方法和装置
CN104580830B (zh) * 2015-01-09 2017-12-19 安徽清新互联信息科技有限公司 一种面向视频监控的准静态图像抗抖动方法
CN105208247A (zh) * 2015-09-02 2015-12-30 长春理工大学 一种基于四元数的全景稳像方法
CN107925722B (zh) * 2015-11-16 2020-05-12 谷歌有限责任公司 用于补偿相机运动的方法和设备
CN105872370B (zh) * 2016-03-31 2019-01-15 深圳力维智联技术有限公司 视频去抖动方法和装置
CN106027852B (zh) * 2016-06-24 2019-03-19 西北工业大学 一种用于微纳卫星的视频稳像方法
CN106251317B (zh) * 2016-09-13 2018-12-18 野拾(北京)电子商务有限公司 空间摄影防抖处理方法及装置
CN106550174B (zh) * 2016-10-28 2019-04-09 大连理工大学 一种基于单应性矩阵的实时视频稳像方法
CN107958462A (zh) * 2017-11-20 2018-04-24 江西服装学院 一种视频抖动判定方法及装置
CN107968916A (zh) * 2017-12-04 2018-04-27 国网山东省电力公司电力科学研究院 一种适用于非固定场景的快速视频稳像方法
CN108174087B (zh) * 2017-12-26 2019-07-02 北京理工大学 一种灰度投影稳像中参考帧更新方法及系统
CN108446657B (zh) 2018-03-28 2022-02-25 京东方科技集团股份有限公司 手势抖动识别方法及装置、手势识别方法
CN110401796B (zh) * 2019-07-05 2020-09-29 浙江大华技术股份有限公司 一种图像采集装置的抖动补偿方法和装置
CN110677578A (zh) * 2019-08-14 2020-01-10 北京理工大学 基于仿生眼平台的混合稳像方法和装置
CN113132560B (zh) * 2019-12-31 2023-03-28 武汉Tcl集团工业研究院有限公司 一种视频处理方法及计算机设备、计算机可读存储介质
CN111461995B (zh) * 2020-03-31 2024-01-26 武汉卓目科技有限公司 基于近似稠密光流法和基准帧更新的视频消旋方法及装置
CN112085794B (zh) * 2020-09-11 2022-05-17 中德(珠海)人工智能研究院有限公司 空间定位方法及应用该空间定位方法的三维重建方法
CN116740374A (zh) * 2022-10-31 2023-09-12 荣耀终端有限公司 重复纹理识别方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101009021A (zh) * 2007-01-25 2007-08-01 复旦大学 基于特征匹配与跟踪的视频稳定方法
CN101202911A (zh) * 2006-11-09 2008-06-18 英特尔公司 基于鲁棒主运动估计的数字视频稳定

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101202911A (zh) * 2006-11-09 2008-06-18 英特尔公司 基于鲁棒主运动估计的数字视频稳定
CN101009021A (zh) * 2007-01-25 2007-08-01 复旦大学 基于特征匹配与跟踪的视频稳定方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Zhu Juanjuan and Guo Baolong.Electronic image stabilization system based onglobalfeaturetracking.Journal of Systems Engineering and Electromics19 2.2008,19(2),摘要,2 全局运动估计,第229-231页. *
朱娟娟等.一种鲁棒的电子稳像系统.西安电子科技大学学报(自然科学版)34 3.2007,34(3),摘要,1 基于特征点跟踪的全局运动估计,第419-421页. *
朱娟娟等.一种鲁棒的电子稳像系统.西安电子科技大学学报(自然科学版)34 3.2007,34(3),摘要,1基于特征点跟踪的全局运动估计,第419-421页. *
王东峰.基于广义特征点匹配的全自动图像配准.电子与信息学报27 7.2005,27(7),4 广义特征点的匹配,第1015-1016页. *

Also Published As

Publication number Publication date
CN101316368A (zh) 2008-12-03

Similar Documents

Publication Publication Date Title
CN101316368B (zh) 基于全局特征点迭代的全景稳像方法
CN111133747B (zh) 一种视频稳定的方法及装置
CN110796010B (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
Gallego et al. Accurate angular velocity estimation with an event camera
CN109190581B (zh) 图像序列目标检测识别方法
CN105245841B (zh) 一种基于cuda的全景视频监控系统
US8368766B2 (en) Video stabilizing method and system using dual-camera system
CN104144282B (zh) 一种适用于空间机器人视觉系统的快速数字稳像方法
JP5179398B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
US8331652B2 (en) Simultaneous localization and map building method and medium for moving robot
US8755573B2 (en) Time-of-flight sensor-assisted iris capture system and method
KR100985805B1 (ko) 적응적인 칼만필터를 이용한 영상 안정화 장치 및 방법
US20030090593A1 (en) Video stabilizer
JP5107409B2 (ja) 動き領域の非線形スムージングを用いた動き検出方法およびフィルタリング方法
CN110536057A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP5885384B2 (ja) 画像処理装置
Wang et al. Video stabilization: A comprehensive survey
DE102004026782A1 (de) Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
US10764500B2 (en) Image blur correction device and control method
CN116347056A (zh) 图像对焦方法、装置、计算机设备和存储介质
Ryu et al. Video stabilization for robot eye using IMU-aided feature tracker
Nieuwenhuizen et al. Dynamic turbulence mitigation with large moving objects
CN114998429A (zh) 机器人定位系统、方法、设备和介质
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP7007649B2 (ja) オプティカルフロー推定装置、オプティカルフロー推定方法、オプティカルフロー推定システム、及びオプティカルフロー推定プログラム、並びにヨーレート推定装置、ヨーレート推定方法、ヨーレート推定システム、及びヨーレート推定プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100407

Termination date: 20140718

EXPY Termination of patent right or utility model