CN108171651A - 基于多模型几何拟合和分层单应变换的图像对齐方法 - Google Patents

基于多模型几何拟合和分层单应变换的图像对齐方法 Download PDF

Info

Publication number
CN108171651A
CN108171651A CN201711432105.4A CN201711432105A CN108171651A CN 108171651 A CN108171651 A CN 108171651A CN 201711432105 A CN201711432105 A CN 201711432105A CN 108171651 A CN108171651 A CN 108171651A
Authority
CN
China
Prior art keywords
point
homograph
region
image
match point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711432105.4A
Other languages
English (en)
Other versions
CN108171651B (zh
Inventor
杨敬钰
焦月
李坤
岳焕景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201711432105.4A priority Critical patent/CN108171651B/zh
Publication of CN108171651A publication Critical patent/CN108171651A/zh
Application granted granted Critical
Publication of CN108171651B publication Critical patent/CN108171651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理方法,为更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,基于多模型几何拟合和分层单应变换的图像对齐方法,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。本发明主要应用于图像处理场合。

Description

基于多模型几何拟合和分层单应变换的图像对齐方法
技术领域
本发明属于图像处理方法,关于图像对齐的问题,本发明介绍了一种通过多模型拟合和分层单应变换来处理图像对齐的新方法,能够对于多平面、复杂的图像达到很好的对齐效果,避免重影和模糊。
背景技术
随着科学技术的发展,图像对齐在点云编码、视频稳定以及计算机视觉占据重要地位。图像对齐的基本过程是通过至少两张不同角度拍摄的图像,构造成一个无缝、高清晰和具有更大视野的图像。
图像对齐的核心和关键问题是图像配准问题,而图像配准的性能又取决于估计的单应变换的精确性。因此,图像的单应变换是多年来图像对齐技术研究的重点和难点。
对于图像对齐的研究,国内外研究人员也提出了很多的对齐算法。Hartley等提出了一种基于全局单应变换的方法,可是这种方法要求视差较小而且由于全局变换的局限性(单应矩阵单一),这种方法导致了严重的重影和图像变形。Zaragoza等提出了一种局部单应变换的方法,基于动态直接线性变换让多单应矩阵尽可能相似来处理图像对齐的问题。Xiang等提出了线性约束和局部变换相结合的方法,这种方法保证了图像对齐的连续性。图像对齐的算法日益成熟,然而,由于在图像重叠区域直接选取两幅图像其中一个进行变形,这种方法容易在重叠区域产生明显的缝隙。如何对多幅图像进行无缝对齐,仍然是一个具有挑战性的问题。
发明内容
由于图像对齐主要依赖于单应变换的准确性,因此,对于单应变换的研究就成为了对齐问题的处理关键。为了更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,基于多模型几何拟合和分层单应变换的图像对齐方法,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。
具体步骤是,
1)针对输入源图像I和目标图像I′,利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点,将Ω和特征匹配点分类并且每个类的单应变换最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数;
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离;
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系,如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0;
2)利用多模型几何拟合使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界,考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界,只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域;
3)对于基础区域采用动态直接线性变换的方法来估计局部的单应变换,源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||22),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性;
4)过渡层区域采用离散的单应变换进行处理,首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
本发明的特点及有益效果是:
本发明利用多模型几何拟合和分层单应变换估计的方法,完成了多平面,复杂图像的对齐问题,它具有以下特点:
1、简单易懂,复杂度相对较低,易于实现。
2、对于图像对齐问题,提出一种新的思路,并不是单纯优化单应矩阵,而是从处理过程上进行探索。
3、利用多模型几何拟合的方法,使得复杂的图像可以分成几个不同的区域,有利于后续处理。
4、能量目标函数的优化运用灵活。
附图说明:
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解:
图1是算法流程图;
图2是不同区域的分割图(对应于公式(5)(6)的计算结果);
图3是4种实验方法的结果比较,从左到右依次是,(a)动态直接线性变换,(b)保形半射影,(c)相似投影,(d)我们的实验结果。每一列从上到下分别是原始图,中间图,结果图,放大图。
具体实施方式
本发明利用多模型几何拟合对图像特诊匹配点进行分类,对不同的区域使用不同的单应矩阵估计方法,完成了多平面,复杂图像的对齐问题。
为了更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。具体方法包括以下步骤:
1)针对输入的两张图像(源图像I和目标图像I′),利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点。我们的目标是将Ω和特征匹配点分类并且每个类的单应变换可以最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数。
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离。
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系。如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0。
2)多模型拟合的方法使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界。考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界。只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域。
3)由于基础区域仍然不是一个完美的平面场景,所以利用基本的单应变换会产生非对齐现象,所以,我们采用动态直接线性变换的方法来估计局部的单应变换。源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||22),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性。
4)过渡层区域可能包含多个平面,所以离散的单应变换能达到更好的效果,我们首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
下面结合附图和具体实施方式进一步详细说明本发明。
1)针对输入的两张图像(源图像I和目标图像I′),利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点。我们的目标是将Ω和特征匹配点分类并且每个类的单应变换可以最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数。
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离。
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系。如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0。
2)多模型拟合的方法使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界。考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界。只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域。
3)由于基础区域仍然不是一个完美的平面场景,所以利用基本的单应变换会产生非对齐现象,所以,我们采用动态直接线性变换的方法来估计局部的单应变换。源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||22),γ) (9)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性。
4)过渡层区域可能包含多个平面,所以离散的单应变换能达到更好的效果,我们首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。

Claims (2)

1.一种基于多模型几何拟合和分层单应变换的图像对齐方法,其特征是,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。
2.如权利要求1所述的基于多模型几何拟合和分层单应变换的图像对齐方法,其特征是,具体步骤是,
1)针对输入源图像I和目标图像I′,利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点,将Ω和特征匹配点分类并且每个类的单应变换最小化xi和到相应的匹配点xi的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数;
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离;
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系,如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0;
2)利用多模型几何拟合使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界,考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界,只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域;
3)对于基础区域采用动态直接线性变换的方法来估计局部的单应变换,源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||22),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性;
4)过渡层区域采用离散的单应变换进行处理,首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
CN201711432105.4A 2017-12-26 2017-12-26 基于多模型几何拟合和分层单应变换的图像对齐方法 Active CN108171651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711432105.4A CN108171651B (zh) 2017-12-26 2017-12-26 基于多模型几何拟合和分层单应变换的图像对齐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711432105.4A CN108171651B (zh) 2017-12-26 2017-12-26 基于多模型几何拟合和分层单应变换的图像对齐方法

Publications (2)

Publication Number Publication Date
CN108171651A true CN108171651A (zh) 2018-06-15
CN108171651B CN108171651B (zh) 2021-07-09

Family

ID=62520877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711432105.4A Active CN108171651B (zh) 2017-12-26 2017-12-26 基于多模型几何拟合和分层单应变换的图像对齐方法

Country Status (1)

Country Link
CN (1) CN108171651B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166077A (zh) * 2018-08-17 2019-01-08 广州视源电子科技股份有限公司 图像对齐方法、装置、可读存储介质及计算机设备
CN110223250A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于单应变换的sar几何校正方法
CN111083480A (zh) * 2019-12-10 2020-04-28 四川新视创伟超高清科技有限公司 一种基于cpu的8k超高清视频高速编码方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130230247A1 (en) * 2012-03-05 2013-09-05 Thomson Licensing Method and apparatus for multi-label segmentation
CN106910208A (zh) * 2017-03-07 2017-06-30 中国海洋大学 一种存在运动目标的场景图像拼接方法
CN107194959A (zh) * 2017-04-25 2017-09-22 北京海致网聚信息技术有限公司 基于切片进行图像配准的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130230247A1 (en) * 2012-03-05 2013-09-05 Thomson Licensing Method and apparatus for multi-label segmentation
CN106910208A (zh) * 2017-03-07 2017-06-30 中国海洋大学 一种存在运动目标的场景图像拼接方法
CN107194959A (zh) * 2017-04-25 2017-09-22 北京海致网聚信息技术有限公司 基于切片进行图像配准的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张超: "基于局部特征的图像配准算法及应用研究", 《中国博士学位论文全文数据库 信息科技辑》 *
方贤勇: "图像拼接技术研究", 《中国优秀博硕士学位论文全文数据库 (博士) 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166077A (zh) * 2018-08-17 2019-01-08 广州视源电子科技股份有限公司 图像对齐方法、装置、可读存储介质及计算机设备
CN109166077B (zh) * 2018-08-17 2023-04-18 广州视源电子科技股份有限公司 图像对齐方法、装置、可读存储介质及计算机设备
CN110223250A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于单应变换的sar几何校正方法
CN110223250B (zh) * 2019-06-02 2021-11-30 西安电子科技大学 基于单应变换的sar几何校正方法
CN111083480A (zh) * 2019-12-10 2020-04-28 四川新视创伟超高清科技有限公司 一种基于cpu的8k超高清视频高速编码方法
CN111083480B (zh) * 2019-12-10 2022-11-04 四川新视创伟超高清科技有限公司 一种基于cpu的8k超高清视频高速编码方法

Also Published As

Publication number Publication date
CN108171651B (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
Sun et al. Deep RGB-D saliency detection with depth-sensitive attention and automatic multi-modal fusion
Xiang et al. Learning rgb-d feature embeddings for unseen object instance segmentation
Verma et al. Feastnet: Feature-steered graph convolutions for 3d shape analysis
CN110705448B (zh) 一种人体检测方法及装置
CN109993748B (zh) 一种基于点云处理网络的三维网格物体分割方法
US10078796B2 (en) Apparatus and method of hand gesture recognition based on depth image
Tschopp et al. Efficient convolutional neural networks for pixelwise classification on heterogeneous hardware systems
Hagelskjær et al. Pointvotenet: Accurate object detection and 6 dof pose estimation in point clouds
Li et al. LPSNet: a novel log path signature feature based hand gesture recognition framework
CN111489394B (zh) 物体姿态估计模型训练方法、系统、装置及介质
CN108171651A (zh) 基于多模型几何拟合和分层单应变换的图像对齐方法
CN105184772A (zh) 一种基于超像素的自适应彩色图像分割方法
Georgakopoulos et al. Pose recognition using convolutional neural networks on omni-directional images
EP4055561A1 (en) Object detection device, method, and systerm
Pan et al. Residual meshnet: Learning to deform meshes for single-view 3d reconstruction
CN115147488B (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN110807379A (zh) 一种语义识别方法、装置、以及计算机存储介质
Zheng et al. Feater: An efficient network for human reconstruction via feature map-based transformer
KR100956747B1 (ko) 신경망회로와 병렬처리 프로세서를 결합한 컴퓨터구조 및그를 이용한 처리방법
Chen et al. Generalized Zero-Shot Vehicle Detection in Remote Sensing Imagery via Coarse-to-Fine Framework.
Li et al. Image semantic segmentation based on fully convolutional neural network and CRF
CN106599901B (zh) 基于深度玻尔兹曼机的协同目标分割与行为识别方法
CN113487713B (zh) 一种点云特征提取方法、装置及电子设备
Liu et al. A depth adaptive feature extraction and dense prediction network for 6-D pose estimation in robotic grasping
Gu et al. A Swin Transformer based Framework for Shape Recognition

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant