CN111833237B - 基于卷积神经网络和局部单应性变换的图像配准方法 - Google Patents
基于卷积神经网络和局部单应性变换的图像配准方法 Download PDFInfo
- Publication number
- CN111833237B CN111833237B CN202010446227.4A CN202010446227A CN111833237B CN 111833237 B CN111833237 B CN 111833237B CN 202010446227 A CN202010446227 A CN 202010446227A CN 111833237 B CN111833237 B CN 111833237B
- Authority
- CN
- China
- Prior art keywords
- image
- points
- transformation
- corner
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 116
- 230000009466 transformation Effects 0.000 title claims abstract description 71
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000011426 transformation method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000003416 augmentation Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 241000287196 Asthenes Species 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T3/14—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于卷积神经网络和局部单应性变换的图像配准方法,其自动生成大量的有效样本及其对应的标签,用以训练图像配准所需的局部单应性矩阵估计模型,所生成的有效样本的配准精度高且具有很好的多样性,可以较好地模拟出实际的图像配准情形,从而提高了训练出的模型的性能;在此基础上,构建基于卷积神经网络的图像配准的局部单应性矩阵估计模型,进而实现图像配准;优点是具有配准精度高、鲁棒性好、配准速度快等特点。
Description
技术领域
本发明涉及一种图像配准技术,尤其是涉及一种基于卷积神经网络和局部单应性变换的图像配准方法。
背景技术
图像配准是将不同的两幅或多幅图像进行图像匹配和图像变换的过程,其在全景图像拼接、高动态范围图像成像、同步定位与建图等领域有着广泛的应用。
传统的图像配准方法主要有基于像素的方法和基于特征的方法。在基于像素的图像配准方法中,主要利用图像中的像素点的像素值直接估计图像之间的变换关系,首先,初始化图像之间的单应性矩阵;然后,利用单应性矩阵对每幅图像进行图像变换,并计算变换后的图像中的像素点的像素值误差;最后,使用优化技术最小化误差函数实现图像配准。基于像素的图像配准方法通常速度较慢,对低纹理场景的图像具有较好的效果,但对尺度、亮度变化、旋转的图像的鲁棒性较差。在基于特征的图像配准方法中,一般先提取图像的特征点(如SIFT(Scale-invariant feature transform,尺度不变特征变换)、ORB(OrientedFast and Rotated BRIEF)等),再采用特征匹配方法建立两幅图像的特征点之间的对应关系,并使用如RANSAC方法等找到最佳的单应性矩阵。基于特征的图像配准方法一般比基于像素的图像配准方法的效果更好且速度更快,但是,基于特征的图像配准方法要求图像之间必须有足够数量的匹配点,并且要求匹配点的精度较高,且匹配点位置分布较均匀,否则该方法的配准精度会大幅度降低;基于特征的图像配准方法一般对尺度、亮度变化、旋转的图像具有良好的鲁棒性,但是该方法不适合低纹理场景的图像。
在图像配准中,需要计算目标图像和参考图像之间的单应性矩阵,利用单应性矩阵将目标图像进行变换,实现目标图像和参考图像在空间坐标上的对齐,这一变换过程称为图像映射或图像变换。按照单应性矩阵的作用区域,图像变换分为全局单应性变换和局部单应性变换两种变换方法。全局单应性变换对整幅图像采用同一单应性矩阵进行变换处理,要求目标图像和参考图像在重叠区域所包含的图像信息基本相同,只适合配准视差很小或没有视差的图像,当不满足这个条件时会导致图像配准精度显著降低。局部单应性变换则对图像的不同区域采用不同单应性矩阵进行映射,可以较好地克服全局单应性变换存在的缺陷。
单应性矩阵估计是图像配准的关键环节。随着深度学习技术的快速发展,深度学习也被应用于图像配准,其基本思想是通过学习得到一个可用于图像配准的单应性矩阵估计模型,从而可以利用估计得到的待匹配图像对的单应性矩阵实现待匹配图像对的图像配准。这类方法对亮度变化、尺度、旋转以及纹理的强弱变化等有更好的鲁棒性。然而,在有监督学习的图像配准方法中,需要先进行样本标注,而人工标注样本的成本高,且通常难以保证标注的精度,而且人工标注的方法难以收集到足够丰富多样的样本图像。因此自动生成标注精度高且足够丰富多样的适用于图像配准的单应性矩阵估计模型训练的样本图像和标签尤为重要,尤其是适用于局部单应性矩阵估计模型训练的样本图像和标签的生成。
发明内容
本发明所要解决的技术问题是提供一种基于卷积神经网络和局部单应性变换的图像配准方法,其在自动生成适用于图像配准中局部单应性矩阵估计模型训练的样本图像和标签的基础上,构建基于卷积神经网络的局部单应性矩阵估计模型,进而实现图像配准,且配准精度高、鲁棒性好、配准速度快。
本发明解决上述技术问题所采用的技术方案为:一种基于卷积神经网络和局部单应性变换的图像配准方法,其特征在于包括以下步骤:
步骤1:选取多幅图像用于样本生成,将每幅图像作为目标图像,将所有目标图像构成目标图像集;其中,每幅目标图像的宽度和高度均大于128;
步骤2:将目标图像集中当前待处理的目标图像定义为当前目标图像;
步骤3:将当前目标图像记为SA;然后在图像像素坐标系中将SA的左上角、右上角、左下角、右下角这四个角点分别记为P1、P2、P3、P4;接着对P1、P2、P3、P4各自的横坐标分量分别加上一个随机扰动值,同时对P1、P2、P3、P4各自的纵坐标分量也分别加上一个随机扰动值,得到P1、P2、P3、P4各自对应的扰动点,对应记为P′1、P′2、P′3、P′4;再将P1的坐标与P′1的坐标构成坐标对,将P2的坐标与P′2的坐标构成坐标对,将P3的坐标与P′3的坐标构成坐标对,将P4的坐标与P′4的坐标构成坐标对;最后根据SA的这四对坐标对,采用直接线性变换方法计算相应的全局单应性矩阵,记为其中,针对SA的角点的横坐标分量添加的随机扰动值的取值范围为[-ρx,ρx],针对SA的角点的纵坐标分量添加的随机扰动值的取值范围为[-ρy,ρy],ρx和ρy均为正整数,-ρx为[-ρx,ρx]的下限,ρx为[-ρx,ρx]的上限,-ρy为[-ρy,ρy]的下限,ρy为[-ρy,ρy]的上限,[-ρx,ρx]中的x代表横坐标分量,[-ρy,ρy]中的y代表纵坐标分量;
步骤4:在SA中随机选取一个点,记为pA;然后以pA作为左上角点在SA中裁剪出一个尺寸为128×128的图像块,记为S′A;接着对S′A进行均匀网格划分,共划分出个尺寸为a×a的网格块,a∈{4,8,16,32,64};再将S′A中的所有网格块的角点构成的集合记为GA,GA中包含有M×N个角点,/>
步骤6:对G′A中的每个第一变换点的横坐标分量和纵坐标分量分别添加一个随机扰动值,得到G′A中的每个第一变换点对应的扰动点;然后将G′A中的所有第一变换点对应的扰动点构成的集合记为其中,针对第一变换点的横坐标分量添加的随机扰动值的取值范围为[-ρ′x,ρ′x],针对第一变换点的纵坐标分量添加的随机扰动值的取值范围为[-ρ′y,ρ′y],-ρ′x为[-ρ′x,ρ′x]的下限,ρ′x为[-ρ′x,ρ′x]的上限,-ρ′y为[-ρ′y,ρ′y]的下限,ρ′y为[-ρ′y,ρ′y]的上限,/>ρ′x和ρ′y均为正整数;
步骤9:计算中的所有扰动点的横坐标分量与G″A中的所有第二变换点的横坐标分量之间的均方根误差,记为xrmse;并计算/>中的所有扰动点的纵坐标分量与G″A中的所有第二变换点的纵坐标分量之间的均方根误差,记为yrmse;然后根据xrmse和yrmse,对SA进行均匀网格划分,共划分为row×col个尺寸相同的互不重叠的网格块;其中,int()表示向下取整函数,min()为取最小值函数,hA表示SA的高度,wA表示SA的宽度,hmin表示对SA进行均匀网格划分时的网格块的最小高度,wmin表示对SA进行均匀网格划分时的网格块的最小宽度;
步骤10:采用移动直接线性变换方法逐一计算SA的row×col个网格块中的每个网格块对应的局部单应性矩阵,将SA中的第j个网格块对应的局部单应性矩阵记为然后将SA中的所有网格块对应的局部单应性矩阵构成的集合记为/> 再利用/>对SA进行局部单应性变换,将SA变换成一幅新的图像,记为SB,并且利用/>计算出GA中的所有角点在SB上的对应点的坐标,将利用/>计算出的GA中的所有角点在SB上的对应点构成的集合记为GB;
步骤11:在SB上裁剪出一个与SA中裁剪出的图像块S′A具有相同坐标和相同尺寸的图像块,记为S′B;然后将S′A和S′B构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的一对候选样本;将GB中的所有点的坐标与GA中的对应角点的坐标之间的差值的集合构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的候选样本的标签,记为H*;
步骤12:按S′A在SA中的坐标位置获取S′A在SA上的二值掩模图像,记为MA;然后利用对MA进行局部单应性变换,得到S′A在SB上对应的二值掩模图像,记为M′A;同样,按S′B在SB中的坐标位置获取S′B在SB上的二值掩模图像,记为MB;接着对M′A和MB进行交集运算得到一幅新的二值图像,记为MAB;再统计MAB中像素值为1的像素点的个数,记为NumAB;最后计算M′A和MB的重叠度,记为/> 若/>小于阈值/>则认定候选样本S′A和S′B为无效样本并予以丢弃,否则,认定候选样本S′A和S′B为有效样本并予以保留;其中,NumB表示MB中像素值为1的像素点的个数;
步骤13:将目标图像集中的下一幅目标图像作为当前目标图像,然后返回步骤3继续执行,直至目标图像集中的所有目标图像处理完毕;
步骤14:将从目标图像集中得到的所有有效样本及其对应的标签构成初始训练集;然后采用图像增广技术对初始训练集中的有效样本中的样本图像进行图像增广,即随机选择初始训练集中的有效样本中的样本图像随机改变其颜色和亮度,并且对样本图像进行随机的伽马变换,得到最终训练集;再利用最终训练集中的所有有效样本及其对应的标签训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型,训练时的损失函数采用其中,1≤i≤K,K表示H*中的所有值对应的匹配点对的总数,K=M×N,符号“|| ||2”代表第2范数,τi表示H*中的第i个值对应的匹配点对的标签值,/>表示H*中的第i个值对应的匹配点对所对应的卷积神经网络的输出值;
步骤15:将待配准的两幅图像作为步骤14训练得到的基于卷积神经网络的图像配准的局部单应性矩阵估计模型的输入,计算得到相应的局部单应性矩阵,并基于该局部单应性矩阵实现这两幅图像的配准。
与现有技术相比,本发明的优点在于:针对基于深度学习的图像配准中用于模型训练的样本和标签生成中人工标注样本成本高、精度低且难以收集到足够丰富多样的样本图像的问题,提出了自动生成大量有效样本及其对应的标签的方法,所生成的有效样本的配准精度高且具有很好的多样性,可以较好地模拟出实际的图像配准情形,从而提高了训练出的模型的性能,而且本发明方法所生成的有效样本及其对应的标签适用于局部单应性矩阵估计模型的训练,与全局单应性矩阵估计模型相比能实现更高精度的图像配准。因此,本发明方法具有图像配准精度高、鲁棒性好、配准速度快等特点。
附图说明
图1为本发明方法的总体实现框图;
图2为本发明方法步骤3所生成的四对对应点示意图;
图3为在图2所示图像上采用本发明方法步骤4生成的具有M×N个角点的均匀网格示意图;
图4为本发明方法步骤5所生成的M×N个第一变换点构成的集合G′A的示意图;
图5为对图4所示的所有第一变换点添加随机扰动值后得到的对应扰动点的示意图;
图6为本发明方法步骤9的自适应大小的均匀网格划分示意图;
图8为本发明方法步骤11生成的一对候选样本示意图;
图9为本发明方法步骤12的候选样本重叠度计算的示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于卷积神经网络和局部单应性变换的图像配准方法,其总体实现框图如图1所示,其包括以下步骤:
步骤1:选取多幅图像用于样本生成,将每幅图像作为目标图像,将所有目标图像构成目标图像集;其中,每幅目标图像的宽度和高度均大于128,在本实施例中每幅目标图像的宽度为320且高度为240,即图像尺寸为320×240。
步骤2:将目标图像集中当前待处理的目标图像定义为当前目标图像。
步骤3:将当前目标图像记为SA;然后在图像像素坐标系中将SA的左上角、右上角、左下角、右下角这四个角点分别记为P1、P2、P3、P4;接着对P1、P2、P3、P4各自的横坐标分量分别加上一个随机扰动值,同时对P1、P2、P3、P4各自的纵坐标分量也分别加上一个随机扰动值,得到P1、P2、P3、P4各自对应的扰动点,对应记为P′1、P′2、P′3、P′4;再将P1的坐标与P′1的坐标构成坐标对,将P2的坐标与P′2的坐标构成坐标对,将P3的坐标与P′3的坐标构成坐标对,将P4的坐标与P′4的坐标构成坐标对;最后根据SA的这四对坐标对,采用图像配准中公知的直接线性变换(Direct linear transformation,DLT)方法计算相应的全局单应性矩阵,记为其中,针对SA的角点的横坐标分量添加的随机扰动值的取值范围为[-ρx,ρx],针对SA的角点的纵坐标分量添加的随机扰动值的取值范围为[-ρy,ρy],ρx和ρy均为正整数,ρx和ρy分别不得超过目标图像的宽度和高度的1/2,一般取目标图像的宽度或高度的1/3~1/10,均可以保证生成的样本具有较好的丰富性和视觉效果,在本实施例中ρx和ρy的取值为45,-ρx为[-ρx,ρx]的下限,ρx为[-ρx,ρx]的上限,-ρy为[-ρy,ρy]的下限,ρy为[-ρy,ρy]的上限,[-ρx,ρx]中的x代表横坐标分量,[-ρy,ρy]中的y代表纵坐标分量。
图2给出了一幅目标图像的四个角点P1、P2、P3、P4及各自对应的扰动点P′1、P′2、P′3、P′4的位置示意图。
步骤4:在SA中随机选取一个点,记为pA;然后以pA作为左上角点在SA中裁剪出一个尺寸为128×128的图像块,记为S′A,这里点pA位置的选取需保证所裁剪出的尺寸为128×128的图像块完整包含于SA之中;接着对S′A进行均匀网格划分,共划分出个尺寸为a×a的网格块,a∈{4,8,16,32,64},即网格块的尺寸可为4×4或8×8或16×16或32×32或64×64,在本实施例中取a的值为32;再将S′A中的所有网格块的角点构成的集合记为GA,GA中包含有M×N个角点,/>
图3为在图2所示的目标图像中随机选取一点作为左上角点所裁剪出的尺寸为128×128的图像块经均匀网格划分后得到的所有网格块及所有网格块的角点的示意图,其中M=N=5。
步骤6:对G′A中的每个第一变换点的横坐标分量和纵坐标分量分别添加一个随机扰动值,得到G′A中的每个第一变换点对应的扰动点;然后将G′A中的所有第一变换点对应的扰动点构成的集合记为其中,针对第一变换点的横坐标分量添加的随机扰动值的取值范围为[-ρ′x,ρ′x],针对第一变换点的纵坐标分量添加的随机扰动值的取值范围为[-ρ′y,ρ′y],-ρ′x为[-ρ′x,ρ′x]的下限,ρ′x为[-ρ′x,ρ′x]的上限,-ρ′y为[-ρ′y,ρ′y]的下限,ρ′y为-ρ′y,ρ′y的上限,/>ρ′x和ρ′y均为正整数;在本实施例中ρ′x和ρ′y的取值为11。
图5为图4所示的所有第一变换点添加随机扰动值后对应的扰动点及相应的网格的示意图。
步骤9:计算中的所有扰动点的横坐标分量与G″A中的所有第二变换点的横坐标分量之间的均方根误差,记为xrmse;并计算/>中的所有扰动点的纵坐标分量与G″A中的所有第二变换点的纵坐标分量之间的均方根误差,记为yrmse,均方根误差的计算采用现有技术,当均方根误差大的时候说明目标图像的局部性较强,应该将SA的网格块划分得较小,以提高局部效果;反之,若均方根误差较小,说明目标图像的全局性较好,可以将SA的网格块划分得较大,以提升样本的生成速度;然后根据xrmse和yrmse,对SA进行均匀网格划分,共划分为row×col个尺寸相同的互不重叠的网格块;其中,int()表示向下取整函数,min()为取最小值函数,hA表示SA的高度,wA表示SA的宽度,在本实施例中hA=240、wA=320,hmin表示对SA进行均匀网格划分时的网格块的最小高度,wmin表示对SA进行均匀网格划分时的网格块的最小宽度,在本实施例中hmin=wmin=5,wmin和hmin不能太小,否则会造成目标图像的网格块过多,影响样本生成速度,但wmin和hmin也不能过大,否则会造成目标图像的网格块过少,使变换后的图像产生不自然的块效应。
图6给出了图2所示的目标图像经自适应大小的均匀网格划分后得到的网格块的示意图。
步骤10:采用图像配准中公知的移动直接线性变换(Moving direct lineartransformation,MDLT)方法逐一计算SA的row×col个网格块中的每个网格块对应的局部单应性矩阵,将SA中的第j个网格块对应的局部单应性矩阵记为然后将SA中的所有网格块对应的局部单应性矩阵构成的集合记为/> 再利用对SA进行局部单应性变换,将SA变换成一幅新的图像,记为SB,并且利用/>计算出GA中的所有角点在SB上的对应点的坐标,将利用/>计算出的GA中的所有角点在SB上的对应点构成的集合记为GB。
步骤11:在SB上裁剪出一个与SA中裁剪出的图像块S′A具有相同坐标和相同尺寸的图像块,记为S′B;然后将S′A和S′B构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的一对候选样本;将GB中的所有点的坐标与GA中的对应角点的坐标之间的差值的集合构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的候选样本的标签,记为H*。
图8所示即为从图3和图7中分别裁剪出的一对作为候选样本的图像块S′A和S′B。
步骤12:按S′A在SA中的坐标位置获取S′A在SA上的二值掩模图像,记为MA;然后利用对MA进行局部单应性变换,得到S′A在SB上对应的二值掩模图像,记为M′A;同样,按S′B在SB中的坐标位置获取S′B在SB上的二值掩模图像,记为MB;接着对M′A和MB进行交集运算得到一幅新的二值图像,记为MAB;再统计MAB中像素值为1的像素点的个数,记为NumAB;最后计算M′A和MB的重叠度,记为/> 若/>小于阈值/>则认定候选样本S′A和S′B为无效样本并予以丢弃,否则,认定候选样本S′A和S′B为有效样本并予以保留;其中,在二值掩模图像中数值1表示样本区域,数值0表示非样本区域,NumB表示MB中像素值为1的像素点的个数,本实施例中的阈值/>取值为0.3。
图9给出了重叠度的计算方法示意图。之所以进行候选样本的筛选,是因为实际在生成图像SB的过程中可能会因为的极端分布情况而导致生成的M′A和MB的重叠度过低,无法进行准确的图像配准,因此这种极端样本属于无效样本,应该予以剔除。
步骤13:将目标图像集中的下一幅目标图像作为当前目标图像,然后返回步骤3继续执行,直至目标图像集中的所有目标图像处理完毕。
步骤14:将从目标图像集中得到的所有有效样本及其对应的标签构成初始训练集;然后采用图像增广技术对初始训练集中的有效样本中的样本图像进行图像增广,即随机选择初始训练集中的有效样本中的样本图像随机改变其颜色和亮度,并且对样本图像进行随机的伽马变换,得到最终训练集;再利用最终训练集中的所有有效样本及其对应的标签训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型,训练时的损失函数采用其中,1≤i≤K,K表示H*中的所有值对应的匹配点对的总数,K=M×N,在本实施例中K=25,符号“||||2”代表第2范数,τi表示H*中的第i个值对应的匹配点对的标签值,/>表示H*中的第i个值对应的匹配点对所对应的卷积神经网络的输出值。
本发明可以采用通用的卷积神经网络模型,如Googlenet、VGG等,本实施例则采用了Xception卷积神经网络模型来构建基于卷积神经网络的图像配准的局部单应性矩阵估计模型,该模型训练构建完成之后,即可以用来估计任意的待配准的两幅图像也即目标图像和参考图像之间的局部单应性矩阵,进而实现这两幅图像的配准。
步骤15:将待配准的两幅图像作为步骤14训练得到的基于卷积神经网络的图像配准的局部单应性矩阵估计模型的输入,计算得到相应的局部单应性矩阵,并基于该局部单应性矩阵实现这两幅图像的配准。
为了验证本发明方法的有效性,本实施例中,比较了采用Xception卷积神经网络的本发明方法与SIFT(Scale-Invariant Feature Transform)、ORB(Oriented FAST andRotated BRIEF)、ECC(Error Checking and Correction)、APAP(As-Projective-As-Possible)这四种图像配准方法的性能,比较的性能指标包括图像配准的精度和运行时间。所采用的硬件平台为一台台式计算机,其CPU为Intel i7-6700,内存32GB,操作系统为Ubuntu 16.04LTS,使用一块型号为NVIDIA GTX 1080Ti的GPU(Graphics ProcessingUnit)显卡。SIFT、ORB、ECC三种图像配准方法使用Python OpenCV实现,SIFT图像配准方法和ORB图像配准方法中的RANSAC阈值为5,ECC图像配准方法的最大迭代次数为1000次。
本实施例所使用的目标图像集中的目标图像来自MS-COCO2014和MS-COCO2017数据集。先将这两个数据集中的每幅图像由640×480尺寸统一缩小到320×240,然后利用本发明方法的步骤1到步骤13生成相应的尺寸为128×128的样本图像和相应的标签。为了增加所训练的局部单应性矩阵估计模型的鲁棒性,同时减少过拟合的可能,对由本发明方法所生成的初始训练集中的有效样本中的样本图像还使用了图像增广技术,具体方法是在一定范围内随机改变样本图像的颜色和亮度,并且在一定范围内对样本图像进行随机的伽马变换。利用上述方法共生成50万对有效样本及其对应的标签作为最终训练集;另采用同样的方法生成了10000对有效样本及其对应的标签作为验证集,5000对有效样本及其对应的标签作为测试集,以此来验证本发明方法的性能。在使用Xception卷积神经网络进行训练和测试时,使用的优化方法为Adam,其中,批量大小为128,初始学习率为0.0005;为了防止过拟合,在卷积神经网络的输出层之前加入了Dropout。在模型训练的过程中,观测验证集的测试误差,当验证集的测试误差不再减小时停止训练,以防止发生欠拟合或者过拟合。
在本实施例中,采用配准点坐标的均方根误差RMSE来衡量图像配准精度,定义为式中,f代表不同的图像配准方法,zi表示GA中的第i个角点的坐标值,z'i表示GA中的第i个角点在SB中的对应点的坐标值,f(zi)表示zi经过图像配准方法f变换后的点的坐标值,f(zi)是z'i的估计值,K为匹配点对的总数,本实施例中K为25。表1给出了几种不同的图像配准方法在本实施例生成的测试集上的RMSE(f)。从表1中可知,采用Xception卷积神经网络的本发明方法的RMSE明显低于其它四种图像配准方法,表明本发明方法能够获得更高的图像配准精度。由于本实施例中的测试集也采用了图像增广技术进行处理,随机改变了图像的亮度、颜色等,因此表1的结果也说明本发明方法具有较好的鲁棒性。
表1几种图像配准方法的RMSE比较
表2给出了几种图像配准方法的运行时间比较,其中APAP图像配准方法和本发明方法为采用局部单应性变换的方法,其余三种方法为采用全局单应性变换的方法。与同为局部单应性变换方法的APAP图像配准方法相比,无论是否使用GPU,本发明方法的运行速度均快于APAP图像配准方法,而使用GPU后,本发明方法的速度与基于特征的全局单应性变换方法SIFT和ORB图像配准方法相当。
表2几种图像配准方法的运行时间比较
由此可见,本发明的基于卷积神经网络和局部单应性变换的图像配准方法具有精度高、鲁棒性好、配准速度快等特点。
Claims (1)
1.一种基于卷积神经网络和局部单应性变换的图像配准方法,其特征在于包括以下步骤:
步骤1:选取多幅图像用于样本生成,将每幅图像作为目标图像,将所有目标图像构成目标图像集;其中,每幅目标图像的宽度和高度均大于128;
步骤2:将目标图像集中当前待处理的目标图像定义为当前目标图像;
步骤3:将当前目标图像记为SA;然后在图像像素坐标系中将SA的左上角、右上角、左下角、右下角这四个角点分别记为P1、P2、P3、P4;接着对P1、P2、P3、P4各自的横坐标分量分别加上一个随机扰动值,同时对P1、P2、P3、P4各自的纵坐标分量也分别加上一个随机扰动值,得到P1、P2、P3、P4各自对应的扰动点,对应记为P1′、P2′、P3′、P4′;再将P1的坐标与P1′的坐标构成坐标对,将P2的坐标与P2′的坐标构成坐标对,将P3的坐标与P3′的坐标构成坐标对,将P4的坐标与P4′的坐标构成坐标对;最后根据SA的这四对坐标对,采用直接线性变换方法计算相应的全局单应性矩阵,记为其中,针对SA的角点的横坐标分量添加的随机扰动值的取值范围为[-ρx,ρx],针对SA的角点的纵坐标分量添加的随机扰动值的取值范围为[-ρy,ρy],ρx和ρy均为正整数,-ρx为[-ρx,ρx]的下限,ρx为[-ρx,ρx]的上限,-ρy为[-ρy,ρy]的下限,ρy为[-ρy,ρy]的上限,[-ρx,ρx]中的x代表横坐标分量,[-ρy,ρy]中的y代表纵坐标分量;
步骤4:在SA中随机选取一个点,记为pA;然后以pA作为左上角点在SA中裁剪出一个尺寸为128×128的图像块,记为S′A;接着对S′A进行均匀网格划分,共划分出个尺寸为a×a的网格块,a∈{4,8,16,32,64};再将S′A中的所有网格块的角点构成的集合记为GA,GA中包含有M×N个角点,/>
步骤6:对G′A中的每个第一变换点的横坐标分量和纵坐标分量分别添加一个随机扰动值,得到G′A中的每个第一变换点对应的扰动点;然后将G′A中的所有第一变换点对应的扰动点构成的集合记为其中,针对第一变换点的横坐标分量添加的随机扰动值的取值范围为[-ρ′x,ρ′x],针对第一变换点的纵坐标分量添加的随机扰动值的取值范围为[-ρ′y,ρ′y],-ρ′x为[-ρ′x,ρ′x]的下限,ρ′x为[-ρ′x,ρ′x]的上限,-ρ′y为[-ρ′y,ρ′y]的下限,ρ′y为[-ρ′y,ρ′y]的上限,/>ρ′x和ρ′y均为正整数;
步骤9:计算中的所有扰动点的横坐标分量与G″A中的所有第二变换点的横坐标分量之间的均方根误差,记为xrmse;并计算/>中的所有扰动点的纵坐标分量与G″A中的所有第二变换点的纵坐标分量之间的均方根误差,记为yrmse;然后根据xrmse和yrmse,对SA进行均匀网格划分,共划分为row×col个尺寸相同的互不重叠的网格块;其中,int()表示向下取整函数,min()为取最小值函数,hA表示SA的高度,wA表示SA的宽度,hmin表示对SA进行均匀网格划分时的网格块的最小高度,wmin表示对SA进行均匀网格划分时的网格块的最小宽度;
步骤10:采用移动直接线性变换方法逐一计算SA的row×col个网格块中的每个网格块对应的局部单应性矩阵,将SA中的第j个网格块对应的局部单应性矩阵记为然后将SA中的所有网格块对应的局部单应性矩阵构成的集合记为/> 再利用/>对SA进行局部单应性变换,将SA变换成一幅新的图像,记为SB,并且利用/>计算出GA中的所有角点在SB上的对应点的坐标,将利用/>计算出的GA中的所有角点在SB上的对应点构成的集合记为GB;
步骤11:在SB上裁剪出一个与SA中裁剪出的图像块S′A具有相同坐标和相同尺寸的图像块,记为S′B;然后将S′A和S′B构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的一对候选样本;将GB中的所有点的坐标与GA中的对应角点的坐标之间的差值的集合构成用于训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型的候选样本的标签,记为H*;
步骤12:按S′A在SA中的坐标位置获取S′A在SA上的二值掩模图像,记为MA;然后利用对MA进行局部单应性变换,得到S′A在SB上对应的二值掩模图像,记为M′A;同样,按S′B在SB中的坐标位置获取S′B在SB上的二值掩模图像,记为MB;接着对M′A和MB进行交集运算得到一幅新的二值图像,记为MAB;再统计MAB中像素值为1的像素点的个数,记为NumAB;最后计算M′A和MB的重叠度,记为/>若/>小于阈值/>则认定候选样本S′A和S′B为无效样本并予以丢弃,否则,认定候选样本S′A和S′B为有效样本并予以保留;其中,NumB表示MB中像素值为1的像素点的个数;
步骤13:将目标图像集中的下一幅目标图像作为当前目标图像,然后返回步骤3继续执行,直至目标图像集中的所有目标图像处理完毕;
步骤14:将从目标图像集中得到的所有有效样本及其对应的标签构成初始训练集;然后采用图像增广技术对初始训练集中的有效样本中的样本图像进行图像增广,即随机选择初始训练集中的有效样本中的样本图像随机改变其颜色和亮度,并且对样本图像进行随机的伽马变换,得到最终训练集;再利用最终训练集中的所有有效样本及其对应的标签训练基于卷积神经网络的图像配准的局部单应性矩阵估计模型,训练时的损失函数采用其中,1≤i≤K,K表示H*中的所有值对应的匹配点对的总数,K=M×N,符号“|| ||2”代表第2范数,τi表示H*中的第i个值对应的匹配点对的标签值,/>表示H*中的第i个值对应的匹配点对所对应的卷积神经网络的输出值;
步骤15:将待配准的两幅图像作为步骤14训练得到的基于卷积神经网络的图像配准的局部单应性矩阵估计模型的输入,计算得到相应的局部单应性矩阵,并基于该局部单应性矩阵实现这两幅图像的配准。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059776 | 2020-01-19 | ||
CN2020100597766 | 2020-01-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111833237A CN111833237A (zh) | 2020-10-27 |
CN111833237B true CN111833237B (zh) | 2023-06-06 |
Family
ID=72913953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010446227.4A Active CN111833237B (zh) | 2020-01-19 | 2020-05-25 | 基于卷积神经网络和局部单应性变换的图像配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111833237B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112700483B (zh) * | 2021-01-13 | 2023-02-17 | 上海微亿智造科技有限公司 | 用于提高表面缺陷检测精度的三锥视角融合方法、系统及介质 |
CN112734752B (zh) * | 2021-01-25 | 2021-10-01 | 上海微亿智造科技有限公司 | 用于飞拍过程中图像筛选的方法和系统 |
CN112950680B (zh) * | 2021-02-20 | 2022-07-05 | 哈尔滨学院 | 一种卫星遥感图像配准方法 |
CN113065585B (zh) * | 2021-03-23 | 2021-12-28 | 北京亮亮视野科技有限公司 | 图像合成模型的训练方法、装置与电子设备 |
CN115409689B (zh) * | 2021-05-28 | 2023-09-29 | 南京博视医疗科技有限公司 | 一种多模态视网膜眼底图像的配准方法及装置 |
CN113066088A (zh) * | 2021-06-03 | 2021-07-02 | 常州微亿智造科技有限公司 | 工业检测中的检测方法、检测装置和存储介质 |
CN113516697B (zh) * | 2021-07-19 | 2024-02-02 | 北京世纪好未来教育科技有限公司 | 图像配准的方法、装置、电子设备及计算机可读存储介质 |
CN114742869B (zh) * | 2022-06-15 | 2022-08-16 | 西安交通大学医学院第一附属医院 | 基于图形识别的脑部神经外科配准方法及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007066294A2 (en) * | 2005-12-08 | 2007-06-14 | Koninklijke Philips Electronics N.V. | System and method for enabling selection of an image registration transformation |
CN107689035A (zh) * | 2017-08-30 | 2018-02-13 | 广州华多网络科技有限公司 | 一种基于卷积神经网络的单应性矩阵确定方法及装置 |
CN109345575A (zh) * | 2018-09-17 | 2019-02-15 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的图像配准方法及装置 |
-
2020
- 2020-05-25 CN CN202010446227.4A patent/CN111833237B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007066294A2 (en) * | 2005-12-08 | 2007-06-14 | Koninklijke Philips Electronics N.V. | System and method for enabling selection of an image registration transformation |
CN107689035A (zh) * | 2017-08-30 | 2018-02-13 | 广州华多网络科技有限公司 | 一种基于卷积神经网络的单应性矩阵确定方法及装置 |
CN109345575A (zh) * | 2018-09-17 | 2019-02-15 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的图像配准方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111833237A (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111833237B (zh) | 基于卷积神经网络和局部单应性变换的图像配准方法 | |
Wang et al. | Detect globally, refine locally: A novel approach to saliency detection | |
DeTone et al. | Superpoint: Self-supervised interest point detection and description | |
Li et al. | Short-term and long-term context aggregation network for video inpainting | |
CN112084923B (zh) | 一种遥感图像语义分割方法、存储介质及计算设备 | |
CN109584327B (zh) | 人脸老化模拟方法、装置以及设备 | |
CN113450396B (zh) | 基于骨骼特征的三维/二维图像配准方法及装置 | |
CN111583381B (zh) | 游戏资源图的渲染方法、装置及电子设备 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN110992366A (zh) | 一种图像语义分割方法、装置及存储介质 | |
Park et al. | Neural object learning for 6d pose estimation using a few cluttered images | |
CN113378812A (zh) | 一种基于Mask R-CNN和CRNN的数字表盘识别方法 | |
CN110689000A (zh) | 一种基于生成复杂环境下车牌样本的车辆车牌识别方法 | |
Xu et al. | Generative image completion with image-to-image translation | |
CN113673621A (zh) | 一种基于卷积神经网络和maml算法的类圆目标检测方法 | |
Tan et al. | High dynamic range imaging for dynamic scenes with large-scale motions and severe saturation | |
CN110599588A (zh) | 三维流场内粒子重构方法及装置、电子设备及存储介质 | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 | |
CN114862866B (zh) | 标定板的检测方法、装置、计算机设备和存储介质 | |
CN112002019B (zh) | 一种基于mr混合现实的模拟人物阴影的方法 | |
Xia et al. | A coarse-to-fine ghost removal scheme for HDR imaging | |
CN113159158A (zh) | 一种基于生成对抗网络的车牌矫正与重构方法及系统 | |
Yang et al. | An end‐to‐end perceptual enhancement method for UHD portrait images | |
CN115311296B (zh) | 数据生成、图像识别方法及计算机存储介质和终端设备 | |
CN109740618A (zh) | 基于fhog特征的络试卷分数自动统计方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |