CN107154017A - 一种基于sift特征点匹配的图像拼接方法 - Google Patents
一种基于sift特征点匹配的图像拼接方法 Download PDFInfo
- Publication number
- CN107154017A CN107154017A CN201610120460.7A CN201610120460A CN107154017A CN 107154017 A CN107154017 A CN 107154017A CN 201610120460 A CN201610120460 A CN 201610120460A CN 107154017 A CN107154017 A CN 107154017A
- Authority
- CN
- China
- Prior art keywords
- image
- point
- matching
- images
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种基于SIFT特征点匹配的图像拼接方法,通过采用双向2DPCA方法对特征描述符进行降维,提高了匹配的效率和精度;借助匹配特征点对之间的几何一致性来对特征点进行粗提纯,提高随机采样一致性方法的运行效率;采用Contourlet变换进行图像融合,消除了融合图像的色差,达到了两幅图像高质量的拼接效果。本发明的一种基于SIFT特征点匹配的图像拼接方法解决了现有图像拼接方法匹配精度不高、效率低、融合图像不清晰的问题。
Description
技术领域
本发明涉及一种图像拼接方法,尤其涉及一种基于SIFT特征点匹配的图像拼接方法,属于图像处理技术领域。
背景技术
图像拼接就是将多幅具有一定重叠部分的图像进行融合,合成一张宽视野、没有明显拼接缝隙的高分辨率图像。目前图像拼接技术逐渐成为研究的热点,它广泛应用于计算机图像处理、海底勘探、医学图像、虚拟现实、遥感影像处理等领域。
图像拼接的方法基本可以分为以下两种:基于灰度信息的方法和基于特征的方法。基于灰度信息的方法是通过使用待拼接图像的像素值来计算两幅图像的相似程度,从而确定拼接的重叠区域,实现图像的拼接,这种方法计算量大,并且鲁棒性较差。
发明内容
本发明所要解决的问题在于针对目前图像拼接技术效率低、融合图像不清晰的问题提出了一种基于SIFT特征点匹配的图像拼接方法,本发明是一种高精度、高效率且拼接效果良好的无缝拼接方法。
本发明具体采用以下技术方案:
一种基于SIFT特征点匹配的图像拼接方法,首先提取两幅待拼接图像的SIFT特征点,并生成每一个特征点的特征描述符,针对生成的描述符对两幅图像进行匹配,根据匹配提纯后的特征点对确定融合区域,对两幅待拼接的图像进行图像融合。
传统的SIFT方法采用的是128维的特征描述符,在图像配准阶段需要耗费大量的时间。为了降低特征点的匹配时间,本文采用双向2DPCA方法对128维的特征描述符进行了改进,提高方法的鲁棒性和计算效率,具体改进方法如下:
2DPCA-SIFT提取特征点周围41×41的邻域,计算邻域内每个像素点水平方向和垂直方向的梯度。每一个像素点水平方向和垂直方向的梯度交替排列。这样就将特征描述符转化为一个39×78维的矩阵。假设提取出有M个特征点,则:
(1)将提取出的39×78维的M个特征点X1,X2,…,XM训练得到它们的均值矩阵:
(2)计算协方差矩阵G1:
(3)计算协方差矩阵G2:
(4)获得矩阵G1的特征值λ1,λ2,…,λn和对应的特征向量v1,v2,…vn。选取前n1大的
特征值所对应的特征向量构成投影矩阵W1。
(5)获得矩阵G2的特征值λ1,λ2,…,λn和对应的特征向量v1,v2,…vn。选取前n2大的特征值所对应的特征向量构成投影矩阵W2。
(6)将Xi先在水平方向进行投影,然后在垂直方向进行第二次投影,最终得到特征矩阵Y=W2XiW1(i=1,2,…,M)
采用欧式距离进行匹配往往会有很多的误匹配点,通常采用随机采样一致性方法来剔除误匹配点。本文针对随机采样一致性方法内点概率小,导致方法计算效率低的问题,提出了一种约束条件的方法来对匹配点对进行筛选,提高了方法的运算效率。对匹配特征点进行粗提纯,本文采用采用匹配特征点对之间的几何一致性来对特征点进行粗提纯。具体方法如下:
(1)假设图像A和B表示待匹配的图像,特征点集分别取图像A和图像B粗匹配点的集合a=(a1,a2,…,an)和b=(b1,b2,…,bn)。并设粗匹配点集的尺度比值集合和角度差值集合为M、N则:
(2)并规定mσ为计算出的图像尺度缩放的比例,nθ为计算出的图像旋转的角度。
(3)从i=1开始,依次求出和的值,如果这两个值均少于阈值T,保留此匹配点。否则,剔除此点。
经过配准之后,就可以通过这些匹配点来确定两幅图像的重叠部分。本发明通过计算单应性矩阵来确定两幅图像的重叠区域。单应性矩阵是一个三阶矩阵,它有8个未知的参数,它可以反映两幅图像的变换关系。假设匹配特征点有N个,确定两幅图像重叠区域的流程是:
(1)从N个匹配点中随机选取4对(8个)匹配点。假设(x,y)是第一幅图像匹配点的坐标,(x',y')是第二幅图像匹配点的坐标,利用这4组匹配点,我们可以求出单应性矩阵中m0-m7的值。
(2)求出单应性矩阵后,我们可以用单应性矩阵求出匹配图像1在图像2对应的匹配特征点。假设此时在图像2中求出的匹配点坐标为(x”,y”),然后我们计算真实的匹配特征点(x',y')和(x”,y”)的欧式距离。
(3)设定一个阈值,如果在第二步中计算出来的欧式距离少于设定的阈值,我们定义这样的点为一个内点。否则定义这样的点为一个外点,记录内点的总数。
(4)利用单应性矩阵,我们可以计算出第二幅图像的匹配点在第一幅图像中对应的位置。我们可以计算出第二幅图像的4个顶点相应的位置。
两幅图像的重叠区域通常会有颜色的差异,为了使两幅图像能够无缝拼接,通常采用的方法是重叠区域线性过渡融合法。但是,这种方法会使拼接之后的图像变得模糊。本发明针对现有方法融合区域有缝隙,融合区域不清晰的问题,在融合阶段采用Contourlet变换来对重叠区域采用不同的融合策略来消除了融合重叠区域中的模糊现象,增强图像融合的效果。
假设需要运用Contourlet变换的重叠区域是AB。图像a是重叠区域在图像A中的部分,图像b是重叠区域在图像B中的部分。对图像a和b分别进行Contourlet变换分解,可以求得各自的Contourlet变换系数Ya和Yb。定义融合系数为Yf。
对于低频信息,使用平均值融合法:
而对于高频信息,如果DFB分解参数lj≠0,则让Yf(i)=max{|Ya(i)|,|Yb(i)|}。
如果DFB分解参数lj=0,应该考虑这一层采用小波变换。然后利用小波变换技术对系数进行处理。小波变换的低频信息:高频信息:Yf(i)=max{|Ya(i)|,|Yb(i)|}
计算出融合系数之后,进行Contourlet逆变换求出融合图像。
本发明针对现有图像拼接方法计算复杂,匹配精度不高、效率低、融合图像不清晰的问题,提出一种基于SIFT特征点匹配的图像拼接方法,通过采用双向2DPCA方法对特征描述符进行降维,提高了匹配的效率和精度;借助匹配特征点对之间的几何一致性来对特征点进行粗提纯,提高随机采样一致性方法的运行效率;采用Contourlet变换进行图像融合,消除了融合图像的色差,达到了两幅图像高质量的拼接效果。
附图说明
图1是本发明的图像拼接方法流程图;
图2是极值点检测示意图;
图3是确定两幅图像重叠区域示意图。
具体实施方式
本发明的思路是针对现有的SIFT图像拼接方法计算复杂,匹配正确率低,融合效果不理想的问题,提出一种基于SIFT特征点匹配的图像拼接方法,通过采用双向2DPCA方法对特征描述符进行降维,提高了匹配的效率和精度;借助匹配特征点对之间的几何一致性来对特征点进行粗提纯,提高随机采样一致性方法的运行效率;采用Contourlet变换进行图像融合,消除了融合图像的色差,达到了两幅图像高质量的拼接效果。
本发明的图像拼接方法,其流程图如图1所示:具体按照以下步骤:
步骤1、建立尺度空间
二维高斯函数的定义为:σ为高斯正太分布的方差值,也称为尺度因子。图像的尺度空间可以表示为一个函数L(x,y,σ),它是由原图像I(x,y)与一个可变尺度的二维高斯核G(x,y,σ)卷积运算获得: 表示x和y两个方向上进行卷积操作,(x,y)表示图像像素的位置。σ尺度因子的大小决定图像平滑的程度,σ的值越大,就说明图像边缘越清晰,而细节越模糊,平滑程度就越大。相反,如果σ的值越小,就说明图像的细节信息保留的越好,平滑程度也越小。对图像做不同尺度的高斯模糊,并对高斯模糊后的图像做降采样处理。为了能够更好地检测到相对稳定的极值点,需要构建高斯差分金字塔。DOG是高斯金字塔中上下相邻两层图像的差值相邻尺度空间的差值DOG用D(x,y,σ)表示:
步骤2、检测极值点
得到图像中的高斯差分金字塔之后,就可以计算尺度空间中的极值点了。如图2所示,我们需要将尺度空间中每一个像素点与它同尺度的3×3邻域内的8个相邻点进行比较,同时,还要和相邻尺度中对应的18个像素点进行比较,即总共与26个点进行比较。如果该点的灰度值是26点中的最大或最小值,那么该点就被定义为候选极值点。
步骤3、精确定位特征点
对于检测到的候选极值点,通常还需要进一步进行筛选,因为大部分的极值点还存在噪声和边缘响应。首先利用尺度空间函数D(x,y,σ)的Taylor二次展开式对曲线拟合,然后采用极值点尺度位置的2×2Hessian矩阵计算其主曲率。2×2Hessian矩阵如下式所示:
记Tr(H)=Dxx+Dyy,Det(H)=DxxDyy-(Dxy)2
如果满足其中r=10,则将该点保存下来,如果不满足条件,则去除改点。这样不稳定的边缘响应点也被剔除。经过一系列的计算,对比度较低的极值点以及不稳定的边缘点都被剔除,被保留下来的点就是所需要的图像特征点。
步骤4、确定主方向
为了使最终生成的描述子在图像旋转的情况下依然保持很好的不变性,利用统计直方图信息的方式来为每一个特征点指定主方向。点(x,y)处的梯度幅值以及方向角度可以利用下面公式来计算:
其中,m(x,y)表示梯度幅值,θ(x,y)表示梯度方向角度。
将梯度直方图从0°~360°的方向范围划分成36个柱,其中每一柱为,规定将梯度直方图中的峰值确定为特征点的主方向。为了增强方法的鲁棒性,SIFT方法还给每一个特征点定义了辅方向,即如果在直方图中有一个或多个大于主方向峰值80%能量的方向,就把这些方向定义为此特征点的辅助方向。因此,一个特征点可以有两个以上的方向。
步骤5、生成SIFT特征描述符
传统的SIFT方法特征点采用的是128维的特征描述符,在图像配准阶段需要耗费的时间。为了降低特征点的匹配时间,本文采用双向2DPCA方法对128维的特征描述符进行了改进,提高方法的鲁棒性和计算效率,具体改进方法如下:
2DPCA-SIFT提取特征点周围41×41的邻域,计算邻域内每个像素点水平方向和垂直方向的梯度。每一个像素点水平方向和垂直方向的梯度交替排列。这样就将特征描述符转化为一个39×78维的矩阵。假设提取出有M个特征点,则:
(1)将提取出的39×78维的M个特征点X1,X2,…,XM训练得到它们的均值矩阵:
(2)计算协方差矩阵G1:
(3)计算协方差矩阵G2:
(4)获得矩阵G1的特征值λ1,λ2,…,λn和对应的特征向量v1,v2,…vn。选取前n1大的特征值所对应的特征向量构成投影矩阵W1。
(5)获得矩阵G2的特征值λ1,λ2,…,λn和对应的特征向量v1,v2,…vn。选取前n2大的特征值所对应的特征向量构成投影矩阵W2。
(6)将Xi先在水平方向进行投影,然后在垂直方向进行第二次投影,最终得到特征矩阵Y=W2XiW1(i=1,2,…,M)为了进行特征匹配,本文将最终得到的特征矩阵Y转化成了向量的形式。
经过双向2DPCA变换后,每一个特征点都有一个n2×n1维的特征描述子。本文选取n1=8,n2=4,最后组成32维的特征向量。
步骤6、特征点匹配
特征向量的匹配一般采用欧式距离对32维的特征描述子进行相似性度量。从待匹配图像中选择一个特征点,从原始图像中找出与该点最近距离的特征点和次近距离的特征点,从而得到最近邻与次近邻的比值,若比值小于规定的阈值,则认为最近距离的点为匹配点。采用欧式距离进行匹配往往会有很多的误匹配点,通常采用随机抽样一致性方法来剔除误匹配点。本文针对随机抽样一致性方法内点概率小,导致方法计算效率低的问题,提出了一种约束条件的方法来对匹配点对进行筛选,提高了方法的运算效率。
(1)假设图像A和B表示待匹配的图像,特征点集分别取图像A和图像B粗匹配点的集合a=(a1,a2,...,an)和b=(b1,b2,…,bn)。并设粗匹配点集的尺度比值集合和角度差值集合为M、N则:
(2)并规定mσ为计算出的图像尺度缩放的比例,nθ为计算出的图像旋转的角度。
(3)从i=1开始,依次求出和的值,如果这两个值均少于阈值T,保留此匹配点。否则,剔除此点。
步骤7、确定融合区域
经过配准之后,我们可以通过这些匹配点来确定两幅图像的重叠部分。
本文通过计算单应性矩阵来确定两幅图像的重叠区域。单应性矩阵是一个三阶矩阵,它有8个未知的参数,它可以反映两幅图像的变换关系。假设匹配特征点有N个,确定两幅图像重叠区域的流程是:
(1)从N个匹配点中随机选取4对(8个)匹配点。假设(x,y)是第一幅图像匹配点的坐标,(x',y')是第二幅图像匹配点的坐标,
利用这4组匹配点,我们可以求出单应性矩阵中m0-m7的值。
(2)求出单应性矩阵后,我们可以用单应性矩阵求出匹配图像1在图像2对应的匹配特征点。假设此时在图像2中求出的匹配点坐标为(x”,y”),然后我们计算真实的匹配特征点(x',y')和(x”,y”)的欧式距离。
(3)设定一个阈值,如果在第二步中计算出来的欧式距离少于设定的阈值,我们定义这样的点为一个内点。否则定义这样的点为一个外点,记录内点的总数。
(4)重复步骤1和步骤3,找到内点最多的单应性矩阵。规定这个单应性矩阵为最后的单应性矩阵。
(5)利用单应性矩阵,我们可以计算出第二幅图像的匹配点在第一幅图像中对应的位置。我们可以计算出第二幅图像的4个顶点相应的位置。如图3所示,然后我们就可以用它们的坐标来确定两幅图像的重叠区域。
步骤8、图像融合
两幅图像的重叠区域通常会有颜色的差异,为了使两幅图像能够无缝拼接,通常采用的方法是重叠区域线性过渡融合法。但是,这种方法会使拼接之后的图像变得模糊。本发明针对现有方法融合区域有缝隙,融合区域不清晰的问题,在融合阶段采用Contourlet变换来对重叠区域采用不同的融合策略来消除了融合重叠区域中的模糊现象,增强图像融合的效果。
假设需要运用Contourlet变换的重叠区域是AB。图像a是重叠区域在图像A中的部分,图像b是重叠区域在图像B中的部分。对图像a和b分别进行Contourlet变换分解,可以求得各自的Contourlet变换系数Ya和Yb。定义融合系数为Yf。
对于低频信息,使用平均值融合法:
而对于高频信息,如果DFB分解参数lj≠0,则让Yf(i)=max{|Ya(i)|,|Yb(i)|}。
如果DFB分解参数lj=0,应该考虑这一层采用小波变换。然后利用小波变换技术对系数进行处理。小波变换的低频信息:高频信息:Yf(i)=max{|Ya(i)|,|Yb(i)|}
计算出融合系数之后,进行Contourlet逆变换求出融合图像。
Claims (7)
1.一种基于SIFT特征点匹配的图像拼接方法,其特征在于,首先提取两幅待拼接图像的SIFT特征点,并生成每一个特征点的特征描述符,针对生成的描述符对两幅图像进行匹配,根据匹配提纯后的特征点对确定融合区域,对两幅待拼接的图像进行图像融合。
2.如权利要求1所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,所述生成特征描述符,具体采用双向2DPCA方法:提取特征点周围41×41的邻域,计算邻域内每个像素点水平方向和垂直方向的梯度,将特征描述符转化为一个39×78维的矩阵X;计算前n1大的特征值所对应的投影矩阵W1和前n2大的特征值所对应的投影矩阵W2,最终得到特征矩阵Y=W2XW1。
3.如权利要求2所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,所述n1、n2的值分别为8、4。
4.如权利要求1所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,还包括以下步骤:对特征点进行提纯,采用匹配特征点对之间的几何一致性来对特征点进行粗提纯,具体方法如下:
(1)图像A和B表示待匹配的图像,特征点集分别取图像A和图像B粗匹配点的集合a=(a1,a2,…,an)和b=(b1,b2,…,bn),计算粗匹配点集的尺度比值集合Mσ,角度差值集合Nθ;
(2)获得图像尺度缩放的比例mσ,图像旋转的角度nθ;
(3)依次求出|Mσ-mσ|和|Nθ-nθ|的值,如果这两个值少于阈值T,保留此匹配点,否则,剔除此点。
5.如权利要求4所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,阈值T的取值是0.02。
6.如权利要求1所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,还包括以下步骤:通过计算单应性矩阵来确定两幅图像的重叠区域,具体方法如下:
(1)从N个匹配点中随机选取4对匹配点。假设(x,y)是第一幅图像匹配点的坐标,(x',y')是第二幅图像匹配点的坐标,利用这4组匹配点,我们可以求出单应性矩阵中m0-m7的值;
(2)求出单应性矩阵后,我们可以用单应性矩阵求出匹配图像1在图像2对应的匹配特征点。假设此时在图像2中求出的匹配点坐标为(x”,y”),然后我们计算真实的匹配特征点(x',y')和(x”,y”)的欧式距离;
(3)设定一个阈值,如果在第二步中计算出来的欧式距离少于设定的阈值,我们定义这样的点为一个内点。否则定义这样的点为一个外点,记录内点的总数;
(4)重复步骤(1)和步骤(3),找到内点最多的单应性矩阵。规定这个单应性矩阵为最后的单应性矩阵;
(5)利用单应性矩阵,可以计算出第二幅图像的匹配点在第一幅图像中对应的位置。根据单应性矩阵可以计算出第二幅图像的4个顶点相应的位置,然后就可以用它们的坐标来确定两幅图像的重叠区域。
7.如权利要求1所述一种基于SIFT特征点匹配的图像拼接方法,其特征在于,对两幅待拼接的图像进行图像融合采用的是Contourlet变换方法,具体步骤如下:
图像a是重叠区域在图像A中的部分,图像b是重叠区域在图像B中的部分,对图像a和b分别进行Contourlet变换分解,可以求得各自的Contourlet变换系数Ya和Yb。定义融合系数为Yf;
对于低频信息,使用平均值融合法:
而对于高频信息,如果DFB分解参数lj≠0,则让Yf(i)=max{|Ya(i)|,|Yb(i)|};
如果DFB分解参数lj=0,应该考虑这一层采用小波变换。然后利用小波变换技术对系数进行处理。小波变换的低频信息:高频信息:Yf(i)=max{|Ya(i)|,|Yb(i)|}
计算出融合系数之后,进行Contourlet逆变换求出融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610120460.7A CN107154017A (zh) | 2016-03-03 | 2016-03-03 | 一种基于sift特征点匹配的图像拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610120460.7A CN107154017A (zh) | 2016-03-03 | 2016-03-03 | 一种基于sift特征点匹配的图像拼接方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107154017A true CN107154017A (zh) | 2017-09-12 |
Family
ID=59792223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610120460.7A Pending CN107154017A (zh) | 2016-03-03 | 2016-03-03 | 一种基于sift特征点匹配的图像拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107154017A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107918927A (zh) * | 2017-11-30 | 2018-04-17 | 武汉理工大学 | 一种匹配策略融合及低误差的快速图像拼接方法 |
CN108648149A (zh) * | 2018-05-10 | 2018-10-12 | 上海扩博智能技术有限公司 | 基于增强现实的图像拼接方法、系统、设备及存储介质 |
CN108986025A (zh) * | 2018-06-08 | 2018-12-11 | 西北工业大学 | 基于不完备姿轨信息的高精度异时图像拼接及校正方法 |
CN109949218A (zh) * | 2017-12-21 | 2019-06-28 | 富士通株式会社 | 图像处理装置和方法 |
CN110111287A (zh) * | 2019-04-04 | 2019-08-09 | 上海工程技术大学 | 一种织物多角度图像融合系统及其方法 |
CN111160098A (zh) * | 2019-11-21 | 2020-05-15 | 长春理工大学 | 一种基于sift特征的表情变化人脸识别方法 |
CN114266703A (zh) * | 2022-03-03 | 2022-04-01 | 凯新创达(深圳)科技发展有限公司 | 一种图像拼接方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100150472A1 (en) * | 2008-12-15 | 2010-06-17 | National Tsing Hua University (Taiwan) | Method for composing confocal microscopy image with higher resolution |
CN103020941A (zh) * | 2012-12-28 | 2013-04-03 | 昆山市工业技术研究院有限责任公司 | 基于全景拼接的旋转摄像头背景建立法及运动物体检测法 |
CN104574421A (zh) * | 2015-01-29 | 2015-04-29 | 北方工业大学 | 一种大幅面小重合区域高精度多光谱图像配准方法及装置 |
-
2016
- 2016-03-03 CN CN201610120460.7A patent/CN107154017A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100150472A1 (en) * | 2008-12-15 | 2010-06-17 | National Tsing Hua University (Taiwan) | Method for composing confocal microscopy image with higher resolution |
CN103020941A (zh) * | 2012-12-28 | 2013-04-03 | 昆山市工业技术研究院有限责任公司 | 基于全景拼接的旋转摄像头背景建立法及运动物体检测法 |
CN104574421A (zh) * | 2015-01-29 | 2015-04-29 | 北方工业大学 | 一种大幅面小重合区域高精度多光谱图像配准方法及装置 |
Non-Patent Citations (5)
Title |
---|
武倩: ""基于 2DPCA-SIFT 的特征提取及在图像检索中的应用"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
纪华: ""仿射不变特征提取及其在景象匹配中的应用"", 《中国博士学位论文全文数据库 信息科技辑》 * |
董晓庆等: ""一种基于双向2DPCA及遗传算法的人脸识别方法"", 《华中师范大学学报(自然科学版)》 * |
闫敬文等著: ""基于Contourlet变换的图像融合"", 《超小波分析及应用》 * |
阮鹏: ""多图像拼接算法研究"", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107918927A (zh) * | 2017-11-30 | 2018-04-17 | 武汉理工大学 | 一种匹配策略融合及低误差的快速图像拼接方法 |
CN107918927B (zh) * | 2017-11-30 | 2021-06-04 | 武汉理工大学 | 一种匹配策略融合及低误差的快速图像拼接方法 |
CN109949218A (zh) * | 2017-12-21 | 2019-06-28 | 富士通株式会社 | 图像处理装置和方法 |
CN109949218B (zh) * | 2017-12-21 | 2023-04-18 | 富士通株式会社 | 图像处理装置和方法 |
CN108648149A (zh) * | 2018-05-10 | 2018-10-12 | 上海扩博智能技术有限公司 | 基于增强现实的图像拼接方法、系统、设备及存储介质 |
CN108648149B (zh) * | 2018-05-10 | 2022-05-31 | 上海扩博智能技术有限公司 | 基于增强现实的图像拼接方法、系统、设备及存储介质 |
CN108986025A (zh) * | 2018-06-08 | 2018-12-11 | 西北工业大学 | 基于不完备姿轨信息的高精度异时图像拼接及校正方法 |
CN110111287A (zh) * | 2019-04-04 | 2019-08-09 | 上海工程技术大学 | 一种织物多角度图像融合系统及其方法 |
CN111160098A (zh) * | 2019-11-21 | 2020-05-15 | 长春理工大学 | 一种基于sift特征的表情变化人脸识别方法 |
CN114266703A (zh) * | 2022-03-03 | 2022-04-01 | 凯新创达(深圳)科技发展有限公司 | 一种图像拼接方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Revisiting single image depth estimation: Toward higher resolution maps with accurate object boundaries | |
CN107918927B (zh) | 一种匹配策略融合及低误差的快速图像拼接方法 | |
CN107154017A (zh) | 一种基于sift特征点匹配的图像拼接方法 | |
CN104599258B (zh) | 一种基于各向异性特征描述符的图像拼接方法 | |
CN103310453B (zh) | 一种基于子图像角点特征的快速图像配准方法 | |
CN104008538B (zh) | 基于单张图像超分辨率方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN108305277B (zh) | 一种基于直线段的异源图像匹配方法 | |
CN106991695A (zh) | 一种图像配准方法及装置 | |
CN112396643A (zh) | 一种尺度不变特征与几何特征融合的多模态高分影像配准方法 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN104123554B (zh) | 基于mmtd的sift图像特征提取方法 | |
CN111445389A (zh) | 一种高分辨率图像的宽视角快速拼接方法 | |
CN107945221A (zh) | 一种基于rgb‑d图像的三维场景特征表达与高精度匹配方法 | |
CN110490913A (zh) | 基于角点与单线段编组的特征描述算子进行影像匹配方法 | |
Chen et al. | Image stitching algorithm research based on OpenCV | |
CN109345570B (zh) | 一种基于几何形状的多通道三维彩色点云配准方法 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN117576461A (zh) | 一种用于变电站场景的语义理解方法、介质及系统 | |
CN111047513B (zh) | 一种用于柱面全景拼接的鲁棒性图像对齐方法及装置 | |
Schulz et al. | Object-class segmentation using deep convolutional neural networks | |
CN107609562A (zh) | 一种基于sift算法的尺度空间特征检测方法 | |
CN112418250A (zh) | 一种复杂3d点云的优化匹配方法 | |
CN116664892A (zh) | 基于交叉注意与可形变卷积的多时相遥感图像配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170912 |