CN101394573B - 一种基于特征匹配的全景图生成方法及系统 - Google Patents

一种基于特征匹配的全景图生成方法及系统 Download PDF

Info

Publication number
CN101394573B
CN101394573B CN2008102254312A CN200810225431A CN101394573B CN 101394573 B CN101394573 B CN 101394573B CN 2008102254312 A CN2008102254312 A CN 2008102254312A CN 200810225431 A CN200810225431 A CN 200810225431A CN 101394573 B CN101394573 B CN 101394573B
Authority
CN
China
Prior art keywords
image
characteristic point
coordinate
characteristic
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008102254312A
Other languages
English (en)
Other versions
CN101394573A (zh
Inventor
戴琼海
徐枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GUANGDONG SHENGYANG INFORMATION TECHNOLOGY INDUSTRY Co Ltd
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN2008102254312A priority Critical patent/CN101394573B/zh
Publication of CN101394573A publication Critical patent/CN101394573A/zh
Application granted granted Critical
Publication of CN101394573B publication Critical patent/CN101394573B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Abstract

本发明提供了一种基于特征匹配的全景图生成方法及系统,该方法包括:提取相邻图像A和图像B的特征点,建立所述特征点的向量参数,并确定所述特征点的坐标;以所述图像A的特征点作为样本,对所述图像B的特征点进行分类,在所述图像B的每种分类中,选取与所述图像A中的样本最匹配的特征点;利用所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式,并依据所述关系式将图像A变换到图像B的坐标系下;将所述图像A和图像B拼接为图像A’。本发明使用最近邻法训练分类器对特征点进行匹配,并通过总体最小二乘法得到准确度高的变换关系式,从而实现了快速准确的生成全景图。

Description

一种基于特征匹配的全景图生成方法及系统
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于特征匹配的全景图生成方法及系统。
背景技术
视角范围是摄像设备的一个重要参数,用于度量摄像设备所能采集的场景范围。一般摄像设备的视角范围非常有限,水平方向大约50度,垂直方向大约35度;人眼的视角范围相对比较广阔,水平方向大约200度,垂直方向大约135度;然而整个三维场景中的视角范围,在水平方向是360度,垂直方向是180度。显然,无论是通过摄像设备还是使用肉眼,都无法同时获得整个三维场景的信息,针对该问题,产生了全景图生成技术。
全景图(Panoramic image)技术是:首先利用摄像设备在不同角度或位置对场景进行拍摄,获得反映整个三维场景信息的多张图像,然后将这些图像根据一定的原则拼接成一张大图,在这张大图上表现整个场景的全部信息,从而实现了将整个场景信息集中到一张图上表示。
目前全景图技术主要通过以下两种方法实现:
一种方法是柱面全景图生成技术。该方法将摄像机固定在空间一点,360度旋转摄像机,对场景进行拍摄,得到描述不同角度场景的图像,利用几何变换,将这些图像投影到同一个柱面上;柱面的某些区域可能会同时有相邻两张图像的投影,利用这些重叠区域可以得到相邻两张图像的匹配关系,通过匹配实现柱面上的图像拼接;最后将柱面图反变换回普通视图平面,就得到全景图。该方法一般需要已知摄像机的内参数和每张图像拍摄时的外参数才可以进行柱面投影,因此该方法的实现对摄像机和拍摄的要求都很严格,实现起来比较困难和复杂。
而另一种基于特征匹配的全景图生成方法,对摄像机和拍摄没有过多的要求,也无需对摄像机进行任何校准,直接使用拍摄的图像就可以生成全景图。该方法使用摄像机对整个场景顺次拍摄的一系列图像,保证相邻两张图像有足够的描述相同场景的区域;然后对相邻两张图像进行局部特征点提取,并应用遍历搜索的方法对该特征点之间进行特征匹配,通过匹配将两张图像拼接起来;顺次的将所有图像拼接起来,就生成了全景图。然而,在基于特征匹配的全景图生成方法中,应用遍历搜索的方法对特征点进行特征匹配时,计算量很大,且容易遗漏一些匹配特征点,由此影响了生成全景图的效率和精确度。
由此可知,目前迫切需要本领域技术人员解决的一个技术问题就是:如何能够快速准确的生成全景图。
发明内容
本发明所要解决的技术问题是提供一种基于特征匹配的全景图生成方法及系统,能够快速准确的生成全景图。
为了解决上述问题,本发明公开了一种基于特征匹配的全景图生成方法,该方法包括:
步骤一,提取相邻的图像A和图像B的特征点;建立所述特征点的向量参数;并确定所述特征点的坐标;
步骤二,以所述图像A的特征点作为样本,对所述图像B的特征点进行分类,在所述图像B的每种分类中,选取与所述图像A中的样本最匹配的特征点;具体的,所述步骤二包括:以所述图像A的特征点作为训练样本,赋予所述每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器;用所述训练后的分类器对作为测试样本的所述图像B的特征点进行分类;在每种类别内,选择与所述训练样本距离最近的所述测试样本作为候选特征点;在所述每种类别内,依据预置规则,筛选所述候选特征点;所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值,并且类别内其他所述测试样本和所述训练样本之间的距离大于第二预设阈值时,选取所述候选特征点为所述训练样本的匹配特征点;
步骤三,利用所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
步骤四,将所述图像A和图像B拼接为图像A’。
进一步,所述全景图生成方法还包括:重复所述相邻图像A和图像B拼接为图像A’的操作,将多张图像拼接成一张全景图。
优选的,使用SIFT特征提取算法,提取所述图像的特征点。
具体的,所述计算图像A变换到图像B的坐标系下的关系式的过程为:建立图像坐标变换模型,即建立所述图像A的特征点坐标与所述图像B中与该特征点匹配的特征点坐标之间的对应方程式;根据多对所述匹配的特征点,使用总体最小二乘法,求解所述对应方程式,得到所述关系式。
具体的,所述步骤四包括:在所述图像B的坐标系下,将所述图像A和图像B重合的部分,进行加权平均得到该部分的像素值;对所述图像A和图像B不重合的部分,使用各图像的像素值。
优选的,所述全景图生成方法还包括:当所述图像A’与下一相邻的图像拼接时,把所述图像B的特征点进行坐标平移,得到所述图像A’的特征点。
优选的,所述每相邻的两张图像中,都有百分之二十的区域描述相同的空间场景。
为了解决上述问题,本发明还公开了一种基于特征匹配的全景图生成系统,该系统可以包括:
特征点提取模块,用于提取相邻的图像A和图像B的特征点,以及建立所述特征点的向量参数和确定所述特征点的坐标;
匹配关系模块,用于以所述图像A的特征点作为样本,对所述图像B的特征点进行分类,在所述图像B的每种分类中,选取与所述图像A中的样本最匹配的特征点;具体的,所述匹配关系模块包括:训练分类器子模块,用于赋予作为训练样本的所述图像A的每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器;分类子模块,用于利用所述训练后的分类器对作为测试样本的所述图像B的特征点进行分类;候选特征点选取子模块,用于在每种类别内,选择与所述训练样本距离最近的所述测试样本作为候选特征点;筛选子模块,用于在所述每种类别内,依据预置规则,筛选出所述候选特征点;所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值,并且类别内其他所述测试样本和所述训练样本之间的距离大于第二预设阈值时,选取所述候选特征点为所述训练样本的匹配特征点。
坐标变换模块,用于根据所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
拼接模块,用于将所述图像A和图像B拼接为图像A’。
进一步,所述坐标变换模块包括:
建立变换模型子模块,用于建立图像坐标变换模型,即建立所述图像A的特征点坐标与所述图像B中与该特征点匹配的特征点坐标之间的对应方程式;
计算子模块,用于根据多对所述匹配的特征点,使用总体最小二乘法,求解所述对应方程式,得到所述关系式;
变换子模块,用于依据所述关系式将所述图像A变换到图像B的坐标系下。
优选的,所述系统还包括:坐标平移模块,用于在所述图像A’与下一相邻的图像拼接时,把所述图像B的特征点进行坐标平移,得到所述图像A’的特征点。
与现有技术相比,本发明具有以下优点:
在本发明的解决方案中,使用最近邻法训练分类器对特征点进行匹配,快速准确的得到特征点之间的匹配关系;并通过总体最小二乘法准确的得到两张图像的变换关系式,实现对两张图像的拼接;在最后顺次拼接的过程中,使用特征点平移的方法进行特征点提取,进一步减少了计算量,从而能够准确快速的生成全景图。
附图说明
图1是本发明基于特征匹配的全景图生成方法实施例1的步骤流程图;
图2是本发明基于特征匹配的全景图生成方法实施例2的步骤流程图;
图3是本发明基于特征匹配的全景图生成方法实施例2的子步骤流程图;
图4是本发明基于特征匹配的全景图生成方法实施例2的子步骤流程图;
图5是本发明基于特征匹配的全景图生成系统实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明基于特征匹配的全景图生成方法实施例1,具体可以包括:
步骤101,提取相邻的图像A和图像B的特征点;建立所述特征点的向量参数;并确定所述特征点的坐标;
步骤102,以所述图像A的特征点作为样本,对所述图像B的特征点进行分类,在所述图像B的每种分类中,选取与所述图像A中的样本最匹配的特征点;
步骤103,利用所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
步骤104,将所述图像A和图像B拼接为图像A’,即全景图。
参照图2,示出了本发明基于特征匹配的全景图生成方法实施例2,具体可以包括:
步骤201,提取相邻的两张图像(即图像一和图像二)的特征点;建立所述特征点的向量参数;并确定所述特征点的坐标。
生成全景图的过程一般为:先利用摄像设备在不同角度或位置对场景进行拍摄,获得要反映的整个场景信息的多张图像,然后将这些图像根据一定的规则拼接成一张大图即全景图,在该全景图上表现了整个场景的全部信息。
完成步骤201的方法有很多,如可以采用人工特征提取,抽取物体轮廓的特征提取,以图像块灰度值为特征的特征提取方法等等。本实施例的一种优选方案是采用SIFT特征提取算法。根据SIFT特征提取的方法,在图像中找到具有特征的纹理区域,精确计算出这一区域在图像中的二维坐标;并且计算该区域在各个方向上的颜色梯度,统计得到梯度方向直方图,以直方图定义一个高维向量作为向量参数;该向量参数在特征点发生平移、伸缩或旋转时将不会发生变化,同时,该向量参数特征对图像明暗变化也有很强的不变性。由此,使用SIFT特征提取算法,具有全自动和提取的特征对明暗、旋转具有鲁棒性的优点。由于SIFT特征提取算法在现有的算法,所以具体过程在此不再赘述。
步骤202,以所述图像一的特征点作为样本,对所述图像二的特征点进行分类,在所述图像二的每种分类中,选取与所述图像一中的样本最匹配的特征点。
作为优选的实施方案,该步骤的过程可以参见图3,包括以下子步骤:
子步骤2021,以所述图像一的特征点作为训练样本,赋予所述每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器。
最近邻法是一种分类方法,对于一个测试样本,在训练样本集中寻找与该测试样本距离最近的一个训练样本,以该训练样本的类别标号作为此测试样本的类别标号。所述样本之间的距离,可以定义为向量的夹角、向量各维度之间的加权欧氏距离或者向量之间的欧氏距离。本实施例中,采用向量之间的欧氏距离来定义样本之间的距离。欧氏距离(Euclidean distance)是一个常用的距离定义,它是在多维空间中两个点之间的真实距离。
分类器是一种机器学习程序,其实质为数学模型,属于人工智能的范畴;其作用是通过训练后,可以自动的对给定的数据进行分类。
子步骤2022,用所述训练后的分类器对作为测试样本的所述图像二的特征点进行分类。由于两张图像的特征点数量不一定相同,分类之后很有可能出现有些类别有多个测试样本,有些类别没有测试样本的情况。
子步骤2023,基于子步骤2022中的分类结果,在每种类别内,选择与所述训练样本距离最近的所述测试样本作为候选特征点。
子步骤2024,在所述每种类别内,依据预置规则,筛选所述候选特征点,由此在图像一和图像二中得到多对相互匹配的特征点,即每对匹配特征点描述的是场景中相同的点。
所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值(一般取0-10),并且类别内其他测试样本和所述训练样本之间的距离大于第二预设阈值(一般去1-30)时,选取所述候选特征点为所述训练样本的匹配特征点。所述阈值的取值是经过试验确定的,一般情况下,第二预设阈值为第一预设阈值的1.5-2倍。
所述子步骤2021到子步骤2024描述的优选方案,能快速有效地实现待拼接图像的特征点匹配,提高算法的鲁棒性和准确性。
为了得到效果好的全景图,往往对获得的反映整个场景的多张图像有一定的要求。本实施例中,一种优选的方案是,要求每两张相邻图像(即在多张图像中,反映连续场景的两张连续的图像)中都有20%的区域描述的是相同的场景,这就保证了这两张图像间可以提取出足够的匹配特征点。当然,如果图像的纹理比较丰富,可以有足够的匹配特征点,那么描述相同场景的区域可以小于20%。
步骤203,利用所述特征点的匹配关系,计算所述图像一变换到图像二的坐标系下的关系式;并依据所述关系式将所述图像一变换到图像二的坐标系下。
另一种优选的实施方式是,步骤203中,所述计算图像一变换到图像二的坐标系下的关系式的过程参见图4,可以分为以下子步骤:
子步骤2031,建立图像坐标变换模型,即建立所述图像一的特征点坐标与所述图像二中与该特征点匹配的特征点坐标之间的对应方程式。
优选的,设图像一的特征点坐标为(x,y),将它变换(旋转、平移或缩放)到图像二的坐标系后,其坐标变为(x′,y′)(实际上就是图像二中与其匹配的特征点的坐标),则(x,y)和(x′,y′)之间满足如下的方程式:
u v w = m 0 m 1 m 2 m 3 m 4 m 5 m 6 m 7 1 x y 1 - - - ( 1 ) ;
x ′ = u w = m 0 x + m 1 y + m 2 m 6 x + m 7 y + 1 - - - ( 2 ) ;
y ′ = v w = m 3 x + m 4 y + m 5 m 6 x + m 7 y + 1 - - - ( 3 ) ;
其中m0-m7等为8个变换需要的参数,需要求解。
子步骤2032,根据多对所述匹配的特征点,使用总体最小二乘法,求解所述方程式,得到所述关系式。
由变换矩阵(1)式可知,该方程式中有8个未知数,由(2)和(3)式可知,每一对匹配的特征点可以给出关于这8个未知数的2个关系式。由此,取4对匹配特征点,就可以建立方程组,求解出上述8个未知数,得到所述变换的关系式。(4)式即为4对匹配特征点求解的方程组。
优选的,本实施例可以选取多于4对匹配特征点,建立超定方程,使用总体最小二乘法求解上述方程,得到精确度更高的变换关系式。
总体最小二乘法的原理是:在处理一个包含k(k<n)个未知数,且由n个方程构成的方程组时,该方法认为,由于方程组中的系数都是实验数据,这就会造成最后求解的结果有误差;于是该方法就在最小化误差的目标下,求解超定方程,得到较为准确的k个未知数的值。而最小二乘法只把方程中的部分系数认为是实验数据,只对其认定的实验数据进行优化。显然,在本发明实施例中,方程中的系数都是有误差的。由此,比较而言,本发明使用总体最小二乘法进行计算,其准确性高。
x 1 y 1 1 0 0 0 - x 1 x ′ 1 - x ′ 1 y 1 x 2 y 2 1 0 0 0 - x 2 x ′ 2 - x ′ 2 y 2 x 3 y 3 1 0 0 0 - x 3 x ′ 3 - x ′ 3 y 3 x 4 y 4 1 0 0 0 - x 4 x ′ 4 - x ′ 4 y 4 0 0 0 x 1 y 1 1 - x 1 y ′ 1 - y ′ 1 y 1 0 0 0 x 2 y 2 1 - x 2 y ′ 2 - y ′ 2 y 2 0 0 0 x 3 y 3 1 - x 3 y ′ 3 - y ′ 3 y 3 0 0 0 x 4 y 4 1 - x 4 y ′ 4 - y ′ 4 y 4 m 0 m 1 m 2 m 3 m 4 m 5 m 6 m 7 = x ′ 1 x ′ 2 x ′ 3 x ′ 4 y ′ 1 y ′ 2 y ′ 3 y ′ 4 - - - ( 4 )
步骤204,将所述图像一和图像二拼接为图像M,即全景图。
作为本实施例的优选方式,该步骤的过程为:在图像二的坐标系下,将所述图像一和图像二重合的部分,进行加权平均得到该部分的像素值;对所述图像一和图像二不重合的部分,使用各图像的像素值。具体处理过程为:在图像二的基础上,考虑图像一中像素变换之后的坐标,如果图像二中像素没有占用这一坐标,则对该坐标赋以图像一的像素值;如果图像二中像素已经占据这一坐标,则认为这里是两张图像重叠的区域,对该区域需用两图对应像素的加权平均值进行赋值,赋值方法如公式(5)所示:
I=ωAIABIB                (5)
其中,I表示像素值,对于黑白图像是亮度,对于彩色图像一般是RGB值,ωA和ωB分别是图像一和图像二的亮度权值。权值是根据像素到两图像的中心的距离,距图像一中心越近,距图像二中心越远,则图像一中的像素所占的权值就越大,图像二中的像素所占的权值就越小。公式(6)和(7)具体给出了ωA和ωB的选择过程:
ωAB=1              (6)
ωAB=LB/LA          (7)
其中,LA和LB表示像素到图像一中心和图像二中心的距离。
在本实施例中,进一步的优选方案是,当由多张连续的图像拼接为一张全景图时,由以下过程实现:
1)由本实施例中介绍的两张图像的拼接方法,完成前两张相邻图像的拼接,拼接为图像M。
2)通过特征点平移获取图像M的有用特征点,所述有用特征点是:在图像M与下一张图像(即图像三)拼接中,计算匹配特征点时,有用的特征点。在拼接过程中,由于图像二与图像三相邻,所以图像M中的有用特征点实际上是图像二的特征点(而不是图像一的特征点)。在图像变换过程中,由于是将图像一变换到图像二的坐标系下,所以图像二的特征点只会因坐标原点移动发生平移,而不会有任何旋转或缩放变化,所以,只要记录平移参数(a,b),即图像二中的坐标原点在图像M中的坐标为(a,b),就可以通过平移得到图像二的特征点在图像M’中的位置(x’+a,y’+b),其中(x’,y’)是图像二的特征点在图像二中的坐标。用该坐标平移的方法,减少了特征提取的计算量。
3)使用SIFT方法提取图像三的特征点。具体方法如前步骤201所述。
4)将完成特征点提取的图像M和图像三进行图像拼接,得到一张新的拼接图。拼接过程使用如前步骤202到步骤204所述的方法。如果后面还有图像未拼接,则将此图继续用于后面的拼接。如此进行下去,直到将所有图像完成拼接,得到全景图。
参照图5,示出了本发明基于特征匹配的全景图生成系统实施例,具体可以包括:
特征点提取模块501,用于提取相邻的图像A和图像B的特征点,以及建立所述特征点的向量参数和确定所述特征点的坐标;
匹配关系模块502,用于以所述图像A的特征点作为样本,对所述图像B的特征点进行分类,在所述图像B的每种分类中,选取与所述图像A中的样本最匹配的特征点;
坐标变换模块503,用于根据所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
拼接模块504,用于将所述图像A和图像B拼接为图像A’。
进一步的,所述匹配关系模块502包括以下子模块:
训练分类器子模块,用于赋予作为训练样本的所述图像A的每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器;
分类子模块,用于利用所述训练后的分类器对作为测试样本的所述图像B的特征点进行分类;
候选特征点选取子模块,用于在每种类别内,选择与所述训练样本距离最近的测试样本作为候选特征点;
筛选子模块,用于在所述每种类别内,依据预置规则,筛选出所述候选特征点;
所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值,并且类别内其他所述测试样本和所述训练样本之间的距离大于第二预设阈值时,选取所述候选特征点为所述训练样本的匹配特征点。
具体的,所述坐标变换模块503包括以下子模块:
建立变换模型子模块,用于建立图像坐标变换模型,即建立所述图像A的特征点坐标与所述图像B中与该特征点匹配的特征点坐标之间的对应方程式;
计算子模块,用于根据多对所述匹配的特征点,使用总体最小二乘法,求解所述对应方程式,得到所述关系式;
变换子模块,用于依据所述关系式将所述图像A变换到图像B的坐标系下。
优选的,所述系统实施例还可以包括:
坐标平移模块,用于在所述图像A’与下一相邻的图像拼接时,把所述图像B的特征点进行坐标平移,得到所述图像A’的特征点。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本发明所提供的一种基于特征匹配的全景图生成方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于特征匹配的全景图生成方法,其特征在于,包括:
步骤一,提取相邻的图像A和图像B的特征点;建立所述特征点的向量参数;并确定所述特征点的坐标;
步骤二,以所述图像A的特征点作为训练样本,赋予所述每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器;
用所述训练后的分类器对作为测试样本的所述图像B的特征点进行分类;
在每种类别内,选择与所述训练样本距离最近的所述测试样本作为候选特征点;
在所述每种类别内,依据预置规则,筛选所述候选特征点;所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值,并且类别内其他所述测试样本和所述训练样本之间的距离大于第二预设阈值时,选取所述候选特征点为所述训练样本的匹配特征点;
步骤三,利用所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
步骤四,将所述图像A和图像B拼接为图像A’。
2.如权利要求1所述的方法,其特征在于,还包括:
重复所述相邻图像A和图像B拼接为图像A’的操作,将多张图像拼接成一张全景图。
3.如权利要求1所述的方法,其特征在于,还包括:
使用SIFT特征提取算法,提取所述图像的特征点。
4.如权利要求1所述的方法,其特征在于,
所述计算图像A变换到图像B的坐标系下的关系式的过程为:
建立图像坐标变换模型,即建立所述图像A的特征点坐标与所述图像B中与该特征点匹配的特征点坐标之间的对应方程式;
根据多对所述匹配的特征点,使用总体最小二乘法,求解所述对应方程式,得到所述关系式。
5.如权利要求1中所述的方法,其特征在于,所述步骤四包括:
在所述图像B的坐标系下,将所述图像A和图像B重合的部分,进行加权平均得到该部分的像素值;对所述图像A和图像B不重合的部分,使用各图像的像素值。
6.如权利要求2所述的方法,其特征在于,
将所述图像A’与下一相邻的图像拼接时,把所述图像B的特征点进行坐标平移,得到所述图像A’的特征点。
7.如权利要求1所述的方法,其特征在于,所述每相邻的两张图像中,都有百分之二十的区域描述相同的空间场景。
8.一种基于特征匹配的全景图生成系统,其特征在于,包括:
特征点提取模块,用于提取相邻的图像A和图像B的特征点,以及建立所述特征点的向量参数和确定所述特征点的坐标;
匹配关系模块,所述匹配关系模块包括:
训练分类器子模块,用于赋予作为训练样本的所述图像A的每个特征点一种类别,并以所述特征点的向量参数作为特征,使用最近邻法训练分类器;
分类子模块,用于利用所述训练后的分类器对作为测试样本的所述图像B的特征点进行分类;
候选特征点选取子模块,用于在每种类别内,选择与所述训练样本距离最近的所述测试样本作为候选特征点;
筛选子模块,用于在所述每种类别内,依据预置规则,筛选出所述候选特征点;所述预置规则为:当所述候选特征点和所述训练样本之间的距离小于第一预设阈值,并且类别内其他所述测试样本和所述训练样本之间的距离大于第二预设阈值时,选取所述候选特征点为所述训练样本的匹配特征点;
坐标变换模块,用于根据所述特征点的匹配关系,计算所述图像A变换到图像B的坐标系下的关系式;并依据所述关系式将所述图像A变换到图像B的坐标系下;
拼接模块,用于将所述图像A和图像B拼接为图像A’。
9.如权利要求8所述的系统,其特征在于,所述坐标变换模块包括:
建立变换模型子模块,用于建立图像坐标变换模型,即建立所述图像A的特征点坐标与所述图像B中与该特征点匹配的特征点坐标之间的对应方程式;
计算子模块,用于根据多对所述匹配的特征点,使用总体最小二乘法,求解所述对应方程式,得到所述关系式;
变换子模块,用于依据所述关系式将所述图像A变换到图像B的坐标系下。
10.如权利要求8所述的系统,其特征在于,还包括:
坐标平移模块,用于在所述图像A’与下一相邻的图像拼接时,把所述图像B的特征点进行坐标平移,得到所述图像A’的特征点。
CN2008102254312A 2008-10-30 2008-10-30 一种基于特征匹配的全景图生成方法及系统 Expired - Fee Related CN101394573B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008102254312A CN101394573B (zh) 2008-10-30 2008-10-30 一种基于特征匹配的全景图生成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008102254312A CN101394573B (zh) 2008-10-30 2008-10-30 一种基于特征匹配的全景图生成方法及系统

Publications (2)

Publication Number Publication Date
CN101394573A CN101394573A (zh) 2009-03-25
CN101394573B true CN101394573B (zh) 2010-06-16

Family

ID=40494601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102254312A Expired - Fee Related CN101394573B (zh) 2008-10-30 2008-10-30 一种基于特征匹配的全景图生成方法及系统

Country Status (1)

Country Link
CN (1) CN101394573B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231806A (zh) * 2011-06-13 2011-11-02 山东大学 基于视频的双参数管道内壁全景图像模型与生成方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984463A (zh) * 2010-11-02 2011-03-09 中兴通讯股份有限公司 全景图合成方法及装置
CN102201115B (zh) * 2011-04-07 2013-12-11 湖南天幕智能科技有限公司 无人机航拍视频实时全景图拼接方法
CN103260046A (zh) * 2012-02-16 2013-08-21 中兴通讯股份有限公司 一种三维显示方法及系统
JP2013187726A (ja) * 2012-03-08 2013-09-19 Casio Comput Co Ltd 画像解析装置、画像処理装置、画像解析方法及びプログラム
CN102843571B (zh) * 2012-09-14 2015-02-25 冠捷显示科技(厦门)有限公司 多视角立体显示器影像合成方法
CN103260043A (zh) * 2013-04-28 2013-08-21 清华大学 基于学习的双目立体图像匹配方法及系统
CN103364023B (zh) * 2013-06-21 2015-11-18 广东电网公司电力科学研究院 一种基于总体最小二乘的仪表图像中心点提取方法
CN103839253A (zh) * 2013-11-21 2014-06-04 苏州盛景空间信息技术有限公司 一种基于局部仿射变换的任意点匹配方法
CN107767336A (zh) * 2016-08-19 2018-03-06 中国移动通信有限公司研究院 一种图像处理的方法及装置
CN106530407A (zh) * 2016-12-14 2017-03-22 深圳市金大象文化发展有限公司 一种用于虚拟现实的三维全景拼接方法、装置和系统
WO2019010704A1 (zh) * 2017-07-14 2019-01-17 深圳市柔宇科技有限公司 全景图像、视频的识别方法、分类器建立方法及电子装置
CN108304762B (zh) * 2017-11-30 2021-11-05 腾讯科技(深圳)有限公司 一种人体姿态匹配方法及其设备、存储介质、终端
CN109995993A (zh) * 2018-01-02 2019-07-09 广州亿航智能技术有限公司 飞行器及其拍摄控制方法、装置及终端系统
CN108921781B (zh) * 2018-05-07 2020-10-02 清华大学深圳研究生院 一种基于深度的光场拼接方法
CN108900764A (zh) * 2018-06-06 2018-11-27 三星电子(中国)研发中心 拍摄方法和电子装置以及拍摄控制方法和服务器

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丁明明,王琰,董傲霜.全景图像技术研究进展.沈阳工业学院学报23 4.2004,23(4),40-42,48.
丁明明,王琰,董傲霜.全景图像技术研究进展.沈阳工业学院学报23 4.2004,23(4),40-42,48. *
高冠东,贾克斌,肖坷.一种新的基于特征点匹配的图像拼接方法.第十三届全国图象图形学学术会议论文集.2006,514-517. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231806A (zh) * 2011-06-13 2011-11-02 山东大学 基于视频的双参数管道内壁全景图像模型与生成方法

Also Published As

Publication number Publication date
CN101394573A (zh) 2009-03-25

Similar Documents

Publication Publication Date Title
CN101394573B (zh) 一种基于特征匹配的全景图生成方法及系统
TWI709107B (zh) 影像特徵提取方法及包含其顯著物體預測方法
CN106462944B (zh) 高分辨率全景vr生成器及方法
CN110555434B (zh) 一种局部对比和全局指导的立体图像视觉显著性检测方法
CN102006425B (zh) 一种基于多摄像机的视频实时拼接方法
CN111968129A (zh) 具有语义感知的即时定位与地图构建系统及方法
CN103093444B (zh) 基于自相似性和结构信息约束的图像超分辨重建方法
CN107154014B (zh) 一种实时彩色及深度全景图像拼接方法
CN109064404A (zh) 一种基于多相机标定的全景拼接方法、全景拼接系统
González-Aguilera et al. Development of an all-purpose free photogrammetric tool
CN103971375B (zh) 一种基于图像拼接的全景凝视相机空间标定方法
CN105303615A (zh) 一种图像二维拼接与三维表面重建的组合方法
CN105046649A (zh) 一种去除运动视频中运动物体的全景图拼接方法
CN110335222B (zh) 基于神经网络的自修正弱监督双目视差提取方法及装置
CN103258321A (zh) 一种图像拼接方法
CN105488777A (zh) 一种基于移动前景下全景图实时生成系统及其方法
CN109087245A (zh) 基于相邻关系模型的无人机遥感图像拼接系统
CN112734915A (zh) 一种基于深度学习的多视角立体视觉三维场景重建方法
CN110110793A (zh) 基于双流卷积神经网络的双目图像快速目标检测方法
CN117036641A (zh) 一种基于双目视觉的公路场景三维重建与缺陷检测方法
CN103743750A (zh) 一种大口径光学元件表面损伤分布图的生成方法
CN111488951A (zh) 一种基于rgb-d图像分类问题的对抗度量学习算法
CN105374010A (zh) 全景图像的生成方法
CN105654462A (zh) 一种基于影像配准的建筑物高程提取方法
CN111738061A (zh) 基于区域特征提取的双目视觉立体匹配方法及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: GUANGDONG SHENGYANG INFORMATION TECHNOLOGY INDUSTR

Free format text: FORMER OWNER: TSINGHUA UNIVERSITY

Effective date: 20130307

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 100084 HAIDIAN, BEIJING TO: 528300 FOSHAN, GUANGDONG PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20130307

Address after: 528300, first floor, C building, Shunde Creative Industry Park, 41 Fengxiang Road, Daliang District, Foshan, Guangdong, Shunde

Patentee after: Guangdong Shengyang Information Technology Industrial Co., Ltd.

Address before: 100084 Beijing 100084-82 mailbox

Patentee before: Tsinghua University

C56 Change in the name or address of the patentee
CP03 Change of name, title or address

Address after: 528300, building 107, building C, creative Pioneer Park, 41 Fengxiang Road, Shunde District, Foshan, Guangdong, Daliang

Patentee after: Guangdong Shengyang Information Technology Industry Co., Ltd.

Address before: 528300, first floor, C building, Shunde Creative Industry Park, 41 Fengxiang Road, Daliang District, Foshan, Guangdong, Shunde

Patentee before: Guangdong Shengyang Information Technology Industrial Co., Ltd.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100616

Termination date: 20171030

CF01 Termination of patent right due to non-payment of annual fee