CN103745449B - 一种搜跟系统中航拍视频的快速自动拼接技术 - Google Patents
一种搜跟系统中航拍视频的快速自动拼接技术 Download PDFInfo
- Publication number
- CN103745449B CN103745449B CN201310721570.5A CN201310721570A CN103745449B CN 103745449 B CN103745449 B CN 103745449B CN 201310721570 A CN201310721570 A CN 201310721570A CN 103745449 B CN103745449 B CN 103745449B
- Authority
- CN
- China
- Prior art keywords
- image
- rsqb
- lsqb
- formula
- prime
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明提出一种搜跟系统中航拍视频的快速自动拼接技术。首先将航拍视频序列中连续两帧彩色图像转化成灰度图像;利用图像三值化方法对灰度图像进行三值化处理、利用边缘检测sobel算子提取边缘特征信息图像、使用Harris算法提取特征点;利用光流金字塔算法完成特征点匹配;结合DLT算法和RANSAC算法计算彩色图像的最优单应性矩阵;利用修正几何转换矩阵对彩色图像进行图像修正后完成图像全景的拼接;在图像全景拼接过程中动态调整图像三值化的上下限阈值以及sobel算子的边缘检测的阈值。本发明提高了图像拼接的准确度和稳健性。
Description
技术领域
本发明属于图像自动拼接技术领域,具体涉及一种搜跟系统中航拍视频的快速自动拼接技术。
背景技术
图像拼接中最关键的步骤是图像特征点的寻找及匹配。杨涛等人(基于场景复杂度与不变特征的航拍视频实时配准算法.电子学报,2010.5,5期38卷)提出了利用Harris角点和SIFT描述子相结合的方式进行图像匹配,保证了算法具有良好的旋转、尺度、亮度不变性和配准精度使算法。但由于前期特征点提取的数量较多,导致后期计算量过大,无法真正意义上实现图像拼接的实时性。针对这个问题,需要从简化特征点的提取与匹配运算量入手优化算法。
很多人提出了多种图像自动拼接技术的实现方法,主要有基于特征点的方法、基于光流的方法,基于图像融合的方法等等。这些方法主要是利用图像的几何变换矩阵完成对图像的修正。这种方法对于帧数较少的图像序列来说,拼接效果很好,但随着视频序列帧数的增加,图像拼接的几何变换矩阵就会因为前期不断地叠加而产生误差的累积与放大;同时,由于飞机的抖动和场景变换明显,也会导致图像拼接的准确率降低,同时还会导致图像拼接过程的中断
发明内容
本发明公开了一种搜跟系统中航拍视频的快速自动拼接技术,提高了图像拼接的准确度和稳健性。
为了解决上述技术问题,本发明提出一种搜跟系统中航拍视频的快速自动拼接技术,包括以下步骤:
步骤一:将航拍视频序列中连续两帧彩色图像I和J转化成灰度图像Ig和Jg,并记录帧序号Z和Z+1;
步骤二:利用图像三值化方法对灰度图像Ig进行三值化处理获得三值化图像,利用边缘检测sobel算子提取三值化图像的边缘特征信息获得边缘特征信息图像If,使用Harris算法提取边缘特征信息图像If的特征点,在提取三值化图像边缘特征信息的过程中,设定sobel算子的边缘检测阈值为S1和S2,S1代表水平方向的边缘计算参数阈值,S2代表垂直方向的边缘计算参数阈值;
步骤三:利用光流金字塔(KLT)算法计算光流,完成灰度图像Ig和Jg的特征点匹配;
步骤四:结合DLT算法和RANSAC算法计算得出彩色图像I和J的最优单应性矩阵HI,J和图像拼接的修正矩阵H′z,并求解出图像拼接的修正几何转换矩阵P;
步骤五:利用修正几何转换矩阵P对彩色图像J进行图像修正得到图像J′,设置一个长宽为彩色图像J长宽两倍的黑色背景,将修正后的图像J′的像素信息J′(x′,y′)贴至黑色背景中,完成图像全景的拼接;
步骤六:将当前帧图像的单应性矩阵HI,J与已保存的前帧图像的单应性矩阵HI-1,I比较,将准确匹配的特征点对数目N与特征点对数目阈值Nf进行比较,根据比较结果动态调整图像三值化的上下限阈值T1和T2以及sobel算子的边缘检测的阈值S1和S2。
本发明与现有技术相比,其显著优点在于,采用图像三值化、边缘提取和Harris角点检测三者结合的方法来降低特征点的数量,并筛选出图像中最为稳定的、特征最为突出的特征点;采用了RANSAC算法与DLT算法结合的方法,求解出带有修正矩阵的图像几何转换矩阵矩阵,提高图像拼接的准确度;阈值动态调整有效解决了因图像场景变换明显或飞机抖动等原因造成的程序中断问题。
附图说明
图1是本发明简要流程图。
图2是本发明详细流程图。
图3(a)是仅利用Harris算法提取特征点效果图;图3(b)是本发明步骤二中经过图像三值化和sobel算子边缘检测后,再利用Harris算法提取特征点的效果图。
图4(a)和图4(b)分别为本发明实施例自动拼接70帧和150帧的总场景图。
具体实施方式
如图1和图2所示,本发明一种搜跟系统中航拍视频的快速自动拼接技术,包括以下步骤:
步骤一:将航拍视频序列中连续两帧彩色图像I和J转化成灰度图像Ig和Jg,并记录帧序号Z和Z+1。
图像灰度化可以将R,G,B任何一个分量作为图像的灰度值,也可以用R,G,B三者的平均值作为灰度值,也可以利用亮度公式将R,G,B分量转换成灰度值。本发明采用亮度公式的方法,将彩色图像I和J转换成只包含亮度信息的灰度图像Ig和Jg,亮度公式为公式(1):
Y=0.3R+0.59G+0.11B(1)
步骤二:利用图像三值化方法对灰度图像Ig进行三值化处理获得三值化图像,利用边缘检测sobel算子提取三值化图像的边缘特征信息获得边缘特征信息图像If,使用Harris算法提取边缘特征信息图像If的特征点,在提取三值化图像边缘特征信息的过程中,设定sobel算子的边缘检测阈值为S1和S2,S1代表水平方向的边缘计算参数阈值,S2代表垂直方向的边缘计算参数阈值;
所述获得三值化图像的计算方法如公式(2)所示,
式(2)中,p[x,y]是灰度图像Ig中坐标为(x,y)处的像素值,T1和T2为图像三值化的上下限阈值,T1和T2的具体取值根据航拍视频的场景进行设置,例如公路、河流和岩石等的灰度图像素值一般大于0.6,树木、植被等的灰度图像素值一般小于0.4;
所述使用Harris算子提取边缘特征图像If的特征点的计算过程如下:
1.1计算像素点p[x,y]的相关矩阵M,计算方法如公式(3)所示,
式(3)中,w(x,y)是窗口大小为w*w的高斯权重函数,Ix代表行方向的导数,Iy代表列方向的导数;
1.2计算像素点p[x,y]的特征点响应R(x,y),计算方法如公式(4)所示,
R(x,y)=detM-k′*(traceM)2(4)
式(4)中,detM代表相关矩阵M行列式的值,traceM代表相关矩阵M的迹,k′为常数,一般为0.04-0.06;
1.3根据公式(5)判断像素点p[x,y]是否为特征点,如果像素点p[x,y]的特征点响应R(x,y)满足公式(5),则像素点p[x,y]为特征点,将像素点p[x,y]放入特征点集合D中,
[R(x,y)≥R(x′,y′)]I[R(x,y)≥0.01Rmax](5)
式(5)中,R(x′,y′)代表窗口w*w中除像素点p[x,y]之外的其它像素点的特征点响应,Rmax为边缘特征信息图像If中的最大特征点响应;
为了实现算法的实时性,需要降低程序的运算量,最根本的方法是在保证特征点质量的基础上降低特征点的数目,根据航拍视频背景范围大、空旷、颜色单一,并以高山、河流和公路、树木和房屋等轮廓性较强的事物居多的特点。本发明采取的图像三值化、图像边缘提取和Harris角点提取三者结合的方式可以去除图像冗余信息,在突出图像特征的基础上进行特征点的有效选取,有利于降低特征点数量,从而降低后续计算量。
步骤三:利用光流金字塔(KLT)算法计算光流,完成灰度图像Ig和Jg的特征点匹配,计算过程如下:
3.1利用下采样公式分别对灰度图Ig和Jg进行下采样,获得灰度图Ig和Jg的图像金字塔,计算方法如公式(6)所示,
式(6)中,Ig L(x,y)表示灰度图Ig中第L层图像中像素坐标为(x,y)的像素值,设原灰度图Ig和Jg为图像金字塔的第一层图像,根据下采样公式可以得到图像金字塔的第二层图像和;同理,对第二层图像和进行下采样,得到图像金字塔的第三层图像和;一般情况下,图像金字塔的层数取3到5比较合适。
3.2计算图像中的特征点p[x,y]相对于图像的光流量,计算方法如公式(7):
式(7)中,Ix表示w*w窗口内每个像素点的行方向的导数,Iy表示w*w的窗口内每个像素点的列方向的导数,It表示图像与的时间导数,dn=[un,vn]表示图像中特征点p[x,y]相对于图像的光流量,其中un为图像金字塔第n层的行方向的光流量,vn为图像金字塔第n层的列方向的光流量;
光流计算一般从顶层开始,如果图像金字塔的层数为3,这里便从第三层开始;
3.3将光流量dn作为初始光流量传递至光流金字塔的第n-1层,即在图像中的像素点q[x,y]上叠加光流量dn,使每一个像素点的坐标变q[x+2*un,y+2*vn],然后在图像和叠加了光流量dn的图像之间,重复步骤3.2计算出图像金字塔第n-1层的光流量dn-1=[un-1,vn-1];
3.4重复步骤3.2和3.3,直至计算获得图像金字塔第一层的光流量d1=[u1,v1],即为灰度图像Ig和Jg的总光流量;
3.5根据第一层光流量d1=[u1,v1]和灰度图像Ig的特征点p[x,y]坐标,根据公式(8)计算获得灰度图像Jg中的匹配特征点的坐标(x′,y′),若求得的x′和y′超出了图像的像素范围,即特征点跟踪匹配失败,则将匹配特征点q[x′,y′]舍掉,并将对应的特征点p[x,y]从特征点集合D中剔除出去;若求得的x′和y′在图像像素范围内,则将匹配特征点q[x′,y′]存入特征点集D′中,
x′=x-u1y′=y-v1(8)
步骤四:结合DLT算法和RANSAC算法计算得出彩色图像I和J的最优单应性矩阵HI,J和图像拼接的修正矩阵H′z,并求解出图像拼接的修正几何转换矩阵P,
所述最优单应性矩阵HI,J的计算过程如下:
4.1利用公式(9)判断每一对特征点对是否为准确匹配的特征点对,将误差较大的特征点对剔除,将准确匹配的特征点对存入特征点对集合S中,并统计出准确匹配的特征点对数N;
Dpq≥|p[xi,yi]-q[x′i,y′i]|(9)
式(9)中,Dpq为特征点对的平均距离,计算方式如公式(10)所示,
4.2利用DLT算法计算获得图像I和图像J的初始单应性矩阵H′I,J,具体实现方法如下所述:
在特征点对集合S中任意提取四对特征点对p[xi,yi]、q[x′i,y′i],i=1,2,3,4,构造DLT计算矩阵A,如公式(11)所示,
对矩阵A进行奇异值分解,得到复杂形式的单应性矩阵H(I,J)″,将H(I,J)″进行简化获得简化后的初始单应性矩阵H(I,J)′,奇异值分解计算过方式如公式(12)所示,
[U,S,V]=SVD(A),H(I,J)″=V(:,end)(12)
简化后的初始单应性矩阵H′I,J为公式(13):
其中h33=1(13)
4.3利用RANSAC算法优化初始单应性矩阵H(I,J)′,求得最优单应性矩阵HI,J,具体实现方法如下所述:
将图像I的特征点集合D中的特征点p[x,y]带入公式(14)中,求得中间量q′[x′i,y′i]:
q′[x′i,y′i]=(H(I,J)′)-1*p[xi,yi](14)
若求得的中间量q′[x′i,y′i]满足公式(15),则将该特征点对保留在集S中;否则,将该特征点对放入余集C中,最终计算出保留在集S中的匹配点对的数量Num。
|q[X′i,y′i]-q′[X′i,y′i]≤0.1(15)
若Num≥M,则结束RANSAC算法,并将当前初始单应性矩阵H(I,J)′作为最优单应性矩阵HI,J,其中M为特征点对集S的样本个数阈值;
若Num<M,则进一步判断RANSAC算法的循环次数是否在预先设定的阈值NRAN内,若RANSAC算法的循环次数在阈值NRAN内,则重复步骤4.2求得新的初始单应性矩H(I,J)′;若RANSAC算法的循环次数超出阈值NRAN,则结束RANSAC算法,并将当前初始单应性矩阵H(I,J)′作为最优单应性矩阵HI,J,并保存HI,J。
所述图像拼接的修正矩阵H′Z采取隔帧计算的方法,即对当前帧序号进行如式(16)的判断,若图像帧序号不满足公式(16),则直接返回步骤一进行下帧图像的图像拼接操作;若图像帧序号满公式(16),则进行图像拼接修正矩阵H′Z的计算,其中Z代表当前帧图像的帧序号:
Z=k*n+1,(k=1,2,3K,n=1,2,3K)(16)
式(16)中,n是自然数,k代表隔帧的数目,具体设置需要考虑航拍视频序列的图像重叠情况,若图像间图像重叠区域较大,k的值可以适当取大一些,若图像间图像重叠区域相对较小,k的值可以适当取小一些,一般为3到7比较合适;图像拼接修正矩阵H′Z的计算过程为:取出预先存储的第Z-k帧彩色图像Jsave和当前帧彩色图像J,重复最优单应性矩阵的计算过程计算获得最优单应性矩阵HZ-k,Z,将最优单应性矩阵HZ-k,Z记为修正矩阵H′Z,计算结束后保存当前帧彩色图像J,将其作为下次修正矩阵计算的Jsave。
所述图像拼接的修正几何转换矩阵P的计算方法如公式(17)所示,
P=H1,2*H2,3*LH′k+1*LHJ-1,J*HI,J*H′Z(17)
步骤五、根据公式(18)利用修正几何转换矩阵P对彩色图像J进行图像修正得到图像J′,设置一个长宽为彩色图像J长宽两倍的黑色背景,将修正后的图像J′的像素信息J′(x′,y′)贴至黑色背景中,完成图像全景的拼接,
式(18)中,(x,y)为原彩色图像J的像素坐标,(x′,y′)为转换后图像J′的像素坐标。
步骤六:按照公式(19)或公式(20),将当前帧图像的单应性矩阵HI,J与已保存的前帧图像的单应性矩阵HI-1,I,比较,将准确匹配的特征点对数目N与特征点对数目阈值Nf进行比较,
若公式(19)和公式(20)有任意一个公式成立的,则将图像三值化的上下限阈值T1和T2调整为T1-0.1和T2+0.1,将sobel算子的边缘检测的阈值S1和S2调整为S1-0.1和S2-0.1,用于下帧图像的处理,
若公式(19)和公式(20)都不成立的,则保持图像三值化的上下限阈值T1和T2以及sobel算子的边缘检测的阈值S1和S2不变,
|nij-n′ij|≥1.0,i=1,2,3,j=1,2,3(19)
N≤Nf(20)
式(19)中,nij为矩阵HI,J中第i行第j列的参数,n′ij为矩阵HI-1,I中第i行第j列的参数;式(20)中Nf为准确匹配的特征点对数目阈值。
实施例
本实施例利用basler相机采集的24位真彩色图像,图像大小为640*480。为了使获取的真彩色图像序列相互之间有足够的重叠信息,采集帧频设置为10帧/s。
本实施例的视频序列背景多为植被和公路且轮廓行非常强,根据视频特点,设置图像三值化的阈值为[0.40.65],sobel算子的边缘检测的阈值为[0.20.3],在此基础上进行Harris角点检测。为了在保证算法准确率的前提下降低算法的计算量,Harris角点检测的窗口选取为5*5,,图像金字塔的层数选取为3,KLT光流计算的窗口大小设置为7*7,图像拼接的修正矩阵隔帧数目为k=4。
图3(b)是使用本发明步骤二利用图像三值化方法、边缘检测算子和Harris算法三者结合的方法获得的特征点。图3(a)为不进行图像三值化和边缘检测而直接进行Harris角点检测的结果。将图3(b)与图3(a)相比较可以明显的看出,图3(b)中特征点数量明显下降,且大部分集中在背景边缘部分,因此特征点提取的稳定性和效率均得到了提高。
图4(a)和图4(b)是使用本发明方法获得的最终效果图,图4(a)是连续处理70帧图象所得的效果图,图4(b)是连续处理150帧图象所得的效果图。从图4(a)和图4(b)图中可以看出场景旋转明显,在图像三值化和边缘检测阈值的自动控制下,图像很好地完成了自动拼接,有效地避免了飞机气流和场景噪声的影响。同时,根据对本发明方法算法量的统计,本发明方法的实时性可以支持15帧以上的相机实时拍摄帧频,很好地实现了航拍视频的图像快速自动拼接。
Claims (7)
1.一种搜跟系统中航拍视频的快速自动拼接方法,其特征在于,包括以下步骤:
步骤一:将航拍视频序列中连续两帧彩色图像I和J转化成灰度图像Ig和Jg,并记录帧序号Z和Z+1;
步骤二:利用图像三值化方法对灰度图像Ig进行三值化处理获得三值化图像,利用边缘检测sobel算子提取三值化图像的边缘特征信息获得边缘特征信息图像If,使用Harris算法提取边缘特征信息图像If的特征点,在提取三值化图像边缘特征信息的过程中,设定sobel算子的边缘检测阈值为S1和S2,S1代表水平方向的边缘计算参数阈值,S2代表垂直方向的边缘计算参数阈值;
所述获得三值化图像的计算方法如公式(1)所示,
式(1)中,p[x,y]是灰度图像Ig中坐标为(x,y)处的像素值,T1和T2为图像三值化的上下限阈值;
步骤三:利用光流金字塔(KLT)算法计算光流,完成灰度图像Ig和Jg的特征点匹配;
步骤四:结合DLT算法和RANSAC算法计算得出彩色图像I和J的最优单应性矩阵HI,J和图像拼接的修正矩阵H'Z,并求解出图像拼接的修正几何转换矩阵P;
步骤五:利用修正几何转换矩阵P对彩色图像J进行图像修正得到图像J',设置一个长宽为彩色图像J长宽两倍的黑色背景,将修正后的图像J'的像素信息J'(x',y')贴至黑色背景中,完成图像全景的拼接;
步骤六:将当前帧图像的单应性矩阵HI,J与已保存的前帧图像的单应性矩阵HI-1,I比较,将准确匹配的特征点对数目N与特征点对数目阈值Nf进行比较,根据比较结果动态调整图像三值化的上下限阈值T1和T2以及sobel算子的边缘检测的阈值S1和S2。
2.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,所述步骤一中,采用亮度公式将彩色图像I和J转换成只包含亮度信息的灰度图像Ig和Jg。
3.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,步骤二中,所述使用Harris算子提取边缘特征图像If的特征点的计算过程如下:
3.1计算像素点p[x,y]的相关矩阵M,计算方法如公式(2)所示,
式(2)中,w(x,y)是窗口大小为w*w的高斯权重函数,Ix代表行方向的导数,Iy代表列方向的导数;
3.2计算像素点p[x,y]的特征点响应R(x,y),计算方法如公式(3)所示,
R(x,y)=detM-k′*(traceM)2 (3)
式(3)中,detM代表相关矩阵M行列式的值,traceM代表相关矩阵M的迹,k′为常数;
3.3根据公式(4)判断像素点p[x,y]是否为特征点,如果像素点p[x,y]的特征点响应R(x,y)满足公式(4),则像素点p[x,y]为特征点,将像素点p[x,y]放入特征点集合D中,
[R(x,y)≥R(x',y')]∩[R(x,y)≥0.01Rmax] (4)
式(4)中,R(x',y')代表窗口w*w中除像素点p[x,y]之外的其它像素点的特征点响应,Rmax为边缘特征信息图像If中的最大特征点响应。
4.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,所述步骤三的计算过程如下:
4.1利用下采样公式分别对灰度图Ig和Jg进行下采样,获得灰度图Ig和Jg的图像金字塔,计算方法如公式(5)所示,
式(5)中,Ig L(x,y)表示灰度图Ig中第L层图像中像素坐标为(x,y)的像素值,设原灰度图Ig和Jg为图像金字塔的第一层图像,根据下采样公式可以得到图像金字塔的第二层图像和同理,对第二层图像和进行下采样,得到图像金字塔的第三层图像和
4.2计算图像中的特征点p[x,y]相对于图像的光流量,计算方法如公式(6):
式(6)中,Ix表示w*w窗口内每个像素点的行方向的导数,Iy表示w*w的窗口内每个像素点的列方向的导数,It表示图像与的时间导数,dn=[un,vn]表示图像中特征点p[x,y]相对于图像的光流量,其中un为图像金字塔第n层的行方向的光流量,vn为图像金字塔第n层的列方向的光流量;
4.3将光流量dn作为初始光流量传递至光流金字塔的第n-1层,即在图像中的像素点q[x,y]上叠加光流量dn,使每一个像素点的坐标变q[x+2*un,y+2*vn],然后在图像和叠加了光流量dn的图像之间,重复步骤3.2计算出图像金字塔第n-1层的光流量dn-1=[un-1,vn-1];
4.4重复步骤3.2和3.3,直至计算获得图像金字塔第一层的光流量d1=[u1,v1],即为灰度图像Ig和Jg的总光流量;
4.5根据第一层光流量d1=[u1,v1]和灰度图像Ig的特征点p[x,y]坐标,根据公式(7)计算获得灰度图像Jg中的匹配特征点的坐标(x',y'),若求得的x'和y'超出了图像的像素范围,即特征点跟踪匹配失败,则将匹配特征点q[x',y']舍掉,并将对应的特征点p[x,y]从特征点集合D中剔除出去;若求得的x'和y'在图像像素范围内,则将匹配特征点q[x',y']存入特征点集D'中,
x'=x-u1 y'=y-v1 (7)。
5.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,步骤四中,
所述最优单应性矩阵HI,J的计算过程如下:
5.1利用公式(8)判断每一对特征点对是否为准确匹配的特征点对,将误差较大的特征点对剔除,将准确匹配的特征点对存入特征点对集合S中,并统计出准确匹配的特征点对数N;
Dpq≥|p[xi,yi]-q[x'i,y'i]| (8)
式(8)中,Dpq为特征点对的平均距离,计算方式如公式(9)所示,
5.2利用DLT算法计算获得图像I和图像J的初始单应性矩阵H'I,J,具体实现方法如下所述:
在特征点对集合S中任意提取四对特征点对p[xi,yi]、q[x'i,y'i],i=1,2,3,4,构造DLT计算矩阵A,如公式(10)所示,
对矩阵A进行奇异值分解,得到复杂形式的单应性矩阵H(I,J)”,将H(I,J)”进行简化获得简化后的初始单应性矩阵H(I,J)',奇异值分解计算过方式如公式(11)所示,
[U,S,V]=SVD(A),H(I,J)”=V(:,end) (11)
简化后的初始单应性矩阵H'I,J为公式(12):
5.3利用RANSAC算法优化初始单应性矩阵H(I,J)',求得最优单应性矩阵HI,J,具体实现方法如下所述:
将图像I的特征点集合D中的特征点p[x,y]带入公式(13)中,求得中间量q'[x'i,y'i]:
q'[x'i,y'i]=(H(I,J)')-1*p[xi,yi] (13)
若求得的中间量q'[x'i,y'i]满足公式(14),则将该特征点对保留在集S中;否则,将该特征点对放入余集C中,最终计算出保留在集S中的匹配点对的数量Num;
|q[x'i,y'i]-q'[x'i,y'i]|≤0.1 (14)
若Num≥M,则结束RANSAC算法,并将当前初始单应性矩阵H(I,J)'作为最优单应性矩阵HI,J,其中M为特征点对集S的样本个数阈值;
若Num<M,则进一步判断RANSAC算法的循环次数是否在预先设定的阈值NRAN内,若RANSAC算法的循环次数在阈值NRAN内,则重复步骤5.2求得新的初始单应性矩H(I,J)';若RANSAC算法的循环次数超出阈值NRAN,则结束RANSAC算法,并将当前初始单应性矩阵H(I,J)'作为最优单应性矩阵HI,J,并保存HI,J;
所述修正矩阵H'Z的求取过程如下:
图像拼接的修正矩阵采取隔帧计算的方法,即对当前帧序号进行如式(15)的判断,若图像帧序号不满足公式(15),则直接返回步骤一进行下帧图像的图像拼接操作;若图像帧序号满公式(15),则进行图像拼接修正矩阵H'Z的计算,其中Z代表当前帧图像的帧序号:
Z=k*n+1,(k=1,2,3...,n=1,2,3...) (15)
式(15)中,n是自然数,k代表隔帧的数目;
图像拼接修正矩阵H'Z的计算过程为:取出预先存储的第Z-k帧彩色图像Jsave和当前帧彩色图像J,重复最优单应性矩阵的计算过程计算获得最优单应性矩阵HZ-k,Z,将最优单应性矩阵HZ-k,Z记为修正矩阵H'Z,计算结束后保存当前帧彩色图像J,将其作为下次修正矩阵计算的Jsave;
所述图像拼接的修正几何转换矩阵P的计算方法如公式(16)所示,
P=H1,2*H2,3*…H'k+1*…HJ-1,J*HI,J*H'Z (16)。
6.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,步骤五中,利用修正几何转换矩阵P对彩色图像J进行图像修正获得图像J'的计算方式如公式(17)所示,
式(17)中,(x,y)为原彩色图像J的像素坐标,(x',y')为转换后图像J'的像素坐标。
7.如权利要求1所述的搜跟系统中航拍视频的快速自动拼接方法,其特征在于,步骤六的具体计算过程为:按照公式(18)或公式(19),将当前帧图像的单应性矩阵HI,J与已保存的前帧图像的单应性矩阵HI-1,I,比较,将准确匹配的特征点对数目N与特征点对数目阈值Nf进行比较,
若公式(18)和公式(19)有任意一个公式成立的,则将图像三值化的上下限阈值T1和T2调整为T1-0.1和T2+0.1,将sobel算子的边缘检测的阈值S1和S2调整为S1-0.1和S2-0.1,用于下帧图像的处理,
若公式(18)和公式(19)都不成立的,则保持图像三值化的上下限阈值T1和T2以及sobel算子的边缘检测的阈值S1和S2不变,
|nij-n'ij|≥1.0,i=1,2,3,j=1,2,3 (18)
N≤Nf (19)
式(18)中,nij为矩阵HI,J中第i行第j列的参数,n'ij为矩阵HI-1,I中第i行第j列的参数;式(19)中Nf为准确匹配的特征点对数目阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310721570.5A CN103745449B (zh) | 2013-12-24 | 2013-12-24 | 一种搜跟系统中航拍视频的快速自动拼接技术 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310721570.5A CN103745449B (zh) | 2013-12-24 | 2013-12-24 | 一种搜跟系统中航拍视频的快速自动拼接技术 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103745449A CN103745449A (zh) | 2014-04-23 |
CN103745449B true CN103745449B (zh) | 2017-01-18 |
Family
ID=50502464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310721570.5A Expired - Fee Related CN103745449B (zh) | 2013-12-24 | 2013-12-24 | 一种搜跟系统中航拍视频的快速自动拼接技术 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103745449B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105303518A (zh) * | 2014-06-12 | 2016-02-03 | 南京理工大学 | 一种基于区域特征的视频帧间拼接方法 |
CN104574278B (zh) * | 2015-02-03 | 2016-03-23 | 中国人民解放军国防科学技术大学 | 基于局部反馈机制与稀疏全局调整的航拍图像拼接方法 |
CN104580933A (zh) * | 2015-02-09 | 2015-04-29 | 上海安威士科技股份有限公司 | 基于特征点的多尺度实时监控视频拼接装置及拼接方法 |
CN105205494B (zh) * | 2015-08-31 | 2018-12-11 | 小米科技有限责任公司 | 相似图片识别方法及装置 |
CN105511488B (zh) * | 2015-12-03 | 2018-05-04 | 北京奇虎科技有限公司 | 一种基于无人飞行器的续拍方法和无人飞行器 |
CN105869120B (zh) * | 2016-06-16 | 2018-10-26 | 哈尔滨工程大学 | 一种图像拼接的实时性优化方法 |
CN106157246B (zh) * | 2016-06-28 | 2019-04-23 | 杭州电子科技大学 | 一种全自动的快速柱面全景图像拼接方法 |
CN107967691B (zh) * | 2016-10-20 | 2021-11-23 | 株式会社理光 | 一种视觉里程计算方法和装置 |
CN106780365B (zh) * | 2016-11-25 | 2020-03-17 | 阿依瓦(北京)技术有限公司 | 一种基于异构计算的图像去抖动系统 |
CN106780370B (zh) * | 2016-11-25 | 2019-12-20 | 阿依瓦(北京)技术有限公司 | 一种图像去抖动设备及其方法 |
CN107451952B (zh) * | 2017-08-04 | 2020-11-03 | 追光人动画设计(北京)有限公司 | 一种全景视频的拼接融合方法、设备以及系统 |
CN107945196B (zh) * | 2017-12-15 | 2021-07-06 | 大连理工大学 | 一种用于航拍校正图像拼接的图像边沿检测方法 |
CN108520496B (zh) * | 2018-04-12 | 2020-07-10 | 电子科技大学 | 一种基于光流法的海空背景监控视频图像拼接方法 |
CN108833785B (zh) * | 2018-07-03 | 2020-07-03 | 清华-伯克利深圳学院筹备办公室 | 多视角图像的融合方法、装置、计算机设备和存储介质 |
CN109035281A (zh) * | 2018-07-12 | 2018-12-18 | 南京工程学院 | 一种基于直方图分布的图像三值化方法 |
CN109146833A (zh) * | 2018-08-02 | 2019-01-04 | 广州市鑫广飞信息科技有限公司 | 一种视频图像的拼接方法、装置、终端设备及存储介质 |
CN109146832B (zh) * | 2018-08-02 | 2022-05-27 | 广州市鑫广飞信息科技有限公司 | 一种视频图像的拼接方法、装置、终端设备及存储介质 |
CN109886878B (zh) * | 2019-03-20 | 2020-11-03 | 中南大学 | 一种基于由粗到精配准的红外图像拼接方法 |
CN110648368B (zh) * | 2019-08-30 | 2022-05-17 | 广东奥普特科技股份有限公司 | 一种基于边缘特征的标定板角点判别方法 |
CN111899179A (zh) * | 2019-12-04 | 2020-11-06 | 华南农业大学 | 基于Harris-SURF的无人机影像拼接方法及装置 |
CN111429354B (zh) * | 2020-03-27 | 2022-01-21 | 贝壳找房(北京)科技有限公司 | 图像拼接及全景图拼接方法和装置、存储介质、电子设备 |
CN113744307B (zh) * | 2021-08-06 | 2024-08-23 | 上海有个机器人有限公司 | 一种基于阈值动态调整的图像特征点跟踪方法和系统 |
CN116027181B (zh) * | 2023-03-30 | 2023-07-18 | 浙江瑞测科技有限公司 | 一种并行图像处理装置及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1569170A1 (en) * | 2002-12-05 | 2005-08-31 | Seiko Epson Corporation | Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program |
EP1752891A2 (en) * | 1999-11-29 | 2007-02-14 | Sony Corporation | Method and apparatus for establishing and browsing a hierarchical video camera motion transition graph. |
CN101984463A (zh) * | 2010-11-02 | 2011-03-09 | 中兴通讯股份有限公司 | 全景图合成方法及装置 |
CN102750537A (zh) * | 2012-05-08 | 2012-10-24 | 中国矿业大学 | 一种高精度图像自动配准方法 |
CN102927448A (zh) * | 2012-09-25 | 2013-02-13 | 北京声迅电子股份有限公司 | 管道无损检测方法 |
-
2013
- 2013-12-24 CN CN201310721570.5A patent/CN103745449B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1752891A2 (en) * | 1999-11-29 | 2007-02-14 | Sony Corporation | Method and apparatus for establishing and browsing a hierarchical video camera motion transition graph. |
EP1569170A1 (en) * | 2002-12-05 | 2005-08-31 | Seiko Epson Corporation | Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program |
CN101984463A (zh) * | 2010-11-02 | 2011-03-09 | 中兴通讯股份有限公司 | 全景图合成方法及装置 |
CN102750537A (zh) * | 2012-05-08 | 2012-10-24 | 中国矿业大学 | 一种高精度图像自动配准方法 |
CN102927448A (zh) * | 2012-09-25 | 2013-02-13 | 北京声迅电子股份有限公司 | 管道无损检测方法 |
Non-Patent Citations (1)
Title |
---|
"实时无缝全景图像拼接技术研究与实现";刘超;《中国优秀硕士论文全文数据库 信息科技辑》;20120115(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN103745449A (zh) | 2014-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103745449B (zh) | 一种搜跟系统中航拍视频的快速自动拼接技术 | |
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
WO2021088300A1 (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
WO2021208275A1 (zh) | 一种交通视频背景建模方法及系统 | |
CN107507172A (zh) | 融合红外可见光的特高压线路绝缘子串深度学习识别方法 | |
CN102592288B (zh) | 一种光照环境变化情况下的行人目标匹配跟踪方法 | |
CN108537782B (zh) | 一种基于轮廓提取的建筑物图像匹配与融合的方法 | |
CN111310718A (zh) | 一种遮挡人脸图像高准确率检测对比方法 | |
CN106056053A (zh) | 基于骨骼特征点提取的人体姿势识别方法 | |
CN104620283B (zh) | 图像处理设备、图像处理方法 | |
CN109359577B (zh) | 一种基于机器学习的复杂背景下人数检测系统 | |
CN110781962B (zh) | 基于轻量级卷积神经网络的目标检测方法 | |
CN111439259A (zh) | 基于端到端卷积神经网络的农业园场景车道偏移预警控制方法及系统 | |
CN103440662A (zh) | Kinect深度图像获取方法与装置 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN116681636B (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN109711256B (zh) | 一种低空复杂背景无人机目标检测方法 | |
CN109117753A (zh) | 部位识别方法、装置、终端及存储介质 | |
CN107219850A (zh) | 一种基于机器视觉的机器人自动寻路系统 | |
Liu et al. | Extended faster R-CNN for long distance human detection: Finding pedestrians in UAV images | |
CN107705254A (zh) | 一种基于街景图的城市环境评估方法 | |
CN107230219A (zh) | 一种单目机器人上的目标人发现与跟随方法 | |
CN107092878A (zh) | 一种基于混合分类器的可自主学习多目标检测方法 | |
CN114581307A (zh) | 用于目标追踪识别的多图像拼接方法、系统、设备及介质 | |
CN102779412B (zh) | 集成式一体化视频交通信息检测器及检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170118 Termination date: 20191224 |