CN107945109B - 基于卷积网络的图像拼接方法及装置 - Google Patents
基于卷积网络的图像拼接方法及装置 Download PDFInfo
- Publication number
- CN107945109B CN107945109B CN201711078325.1A CN201711078325A CN107945109B CN 107945109 B CN107945109 B CN 107945109B CN 201711078325 A CN201711078325 A CN 201711078325A CN 107945109 B CN107945109 B CN 107945109B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- motion field
- color selection
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卷积网络的图像拼接方法及装置,其中,方法包括:利用卷积网络确定待拼接的左图和右图,并获取左图和右图与最终拼接结果图像素的对应关系,以得到左图和右图到最终拼接结果图的初始运动场;获取基于初始运动场变形的左图和右图,并通过图像特征和判别特征的约束,由卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图;根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果。该方法可以通过卷积网络与图像拼接相结合可以对颜色处理更兼精确,保证拼接结果与真实场景的相似度,也能保证拼接结果的实时性。
Description
技术领域
本发明涉及计算机视觉、计算机图形学技术领域,特别涉及一种基于卷积网络的图像拼接方法及装置。
背景技术
目前,图像拼接是计算机视觉与计算机图像学领域中一个重要且基础的问题,并且在超分辨率处理、虚拟现实及增强现实等领域也有非常广泛的应用。例如,在虚拟现实领域中,可以通过图像拼接技术生成宽视角甚至是360度的环绕视角以使得观察者获得沉浸式感受,提升虚拟现实系统在视觉上的真实度;在无人驾驶领域,通过拼接双目摄像头拍摄到的图像可以获得具有更宽视角的路况信息,方便无人车寻路制导。
然而,现有的图像拼接技术仍然存在缺陷,通常无法即精确的处理场景视差问题又保证拼接的实时性。如果对场景进行精细的划分来处理视差,则难以实时的获得拼接结果;如果整幅图像求取变性,或者识别缝合线进行拼接,虽然能保证速度,但对于较大视差的情况下不能较好的配准。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于卷积网络的图像拼接方法,该方法不仅可以对图像视差的处理更精确,而且可以对颜色的选择融合更接近真实场景,进而可以有效提高图像拼接的准确性、可靠性和实时性。
本发明的另一个目的在于提出一种基于卷积网络的图像拼接装置。
为达到上述目的,本发明一方面实施例提出了一种基于卷积网络的图像拼接方法,包括以下步骤:利用卷积网络确定待拼接的左图和右图,并获取所述左图和右图与最终拼接结果图像素的对应关系,以得到所述左图和右图到最终拼接结果图的初始运动场;获取基于所述初始运动场变形的所述左图和右图,并通过图像特征和判别特征的约束,由所述卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图;根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果。
本发明实施例的基于卷积网络的图像拼接方法,通过卷积网络确定待拼接的左图和右图,并获取基于初始运动场变形的左图和右图,通过判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果,从而可以将卷积网络与图像拼接相结合,对左右图中像素逐一估计运动和颜色选择,不仅可以对图像视差的处理更精确,而且可以对颜色的选择融合更接近真实场景,进而可以有效提高图像拼接的准确性、可靠性和实时性。
另外,根据本发明上述实施例的基于卷积网络的图像拼接方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述获取待拼接的左右图像素与最终拼接结果图像素的对应关系,以得到初始运动场,进一步包括:基于编码器-解码器的网络结构,使用所述待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到所述左图和右图与所述拼接结果图像素的对应关系;将所述对应关系作为目标运动场,并使用所述目标运动场约束网络生成结果。
进一步地,在本发明的一个实施例中,所述获取融合时左右图对应的颜色选择图,进一步包括:通过基于网络生成的运动场对所述左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构;将所述基于网络生成的运动场和所述目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用所述判别网络的中间层特征和所述VGG网络的中间层特征约束并生成所述颜色选择图。
进一步地,在本发明的一个实施例中,所述根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,进一步包括:在调整所述运动场生成网络和颜色选择图生成网络时,收敛所述运动场生成网络和颜色选择图;通过所述判别网络的损失和空间平滑约束调整所述运动场生成网络和颜色选择图生成网络。
进一步地,在本发明的一个实施例中,所述拼接结果为:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
其中,Ioutput为所述拼接结果,Iwarped_l和Iwarped_r为所述卷积网络的输入,Wl和Wr为所述颜色选择图。
为达到上述目的,本发明另一方面实施例提出了一种基于卷积网络的图像拼接装置,包括:第一获取模块,用于利用卷积网络确定待拼接的左图和右图,并获取所述左图和右图与最终拼接结果图像素的对应关系,以得到所述左图和右图到最终拼接结果图的初始运动场;第二获取模块,用于获取基于所述初始运动场变形的所述左图和右图,并通过图像特征和判别特征的约束,由所述卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图;拼接模块,用于根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果。
本发明实施例的基于卷积网络的图像拼接装置,可以通过卷积网络确定待拼接的左图和右图,并获取基于初始运动场变形的左图和右图,通过判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果,从而可以将卷积网络与图像拼接相结合,对左右图中像素逐一估计运动和颜色选择,不仅可以对图像视差的处理更精确,而且可以对颜色的选择融合更接近真实场景,进而可以有效提高图像拼接的准确性、可靠性和实时性。
另外,根据本发明上述实施例的基于卷积网络的图像拼接装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述第一获取模块还用于基于编码器-解码器的网络结构,使用所述待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到所述左图和右图与所述拼接结果图像素的对应关系,以及将所述对应关系作为目标运动场,并使用所述目标运动场约束网络生成结果。
进一步地,在本发明的一个实施例中,所述第二获取模块还用于通过基于网络生成的运动场对所述左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构,并将所述基于网络生成的运动场和所述目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用所述判别网络的中间层特征和所述VGG网络的中间层特征约束并生成所述颜色选择图。
进一步地,在本发明的一个实施例中,所述第二获取模块进一步用于在调整所述运动场生成网络和颜色选择图生成网络时,收敛所述运动场生成网络和颜色选择图,并判别网络通过所述判别网络的损失和空间平滑约束调整所述运动场生成网络和颜色选择图生成网络。
进一步地,在本发明的一个实施例中,所述拼接结果为:
Ioutput=Iwarped_l*Wl+warped_r*Wr,
其中,Ioutput为所述拼接结果,Iwarped_l和Iwarped_r为所述卷积网络的输入,Wl和Wr为所述颜色选择图。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于卷积网络的图像拼接方法的流程图;
图2为根据本发明一个实施例的基于卷积网络的图像拼接方法的网络训练的流程图;
图3为根据本发明一个具体实施例的基于卷积网络的图像拼接结果示意图;
图4为根据本发明一个实施例的基于卷积网络的图像拼接装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于卷积网络的图像拼接方法及装置,首先将参照附图描述根据本发明实施例提出的基于卷积网络的图像拼接方法。
图1是本发明一个实施例的基于卷积网络的图像拼接方法的流程图。
如图1所示,该基于卷积网络的图像拼接方法包括以下步骤;
在步骤S101中,利用卷积网络确定待拼接的左图和右图,并获取左图和右图与最终拼接结果图像素的对应关系,以得到左图和右图到最终拼接结果图的初始运动场。
也就是说,本发明实施例可以利用卷积网络,从而可以确定待拼接的左右图与最终拼接结果图像素的对应关系,并且估计左右图像素到拼接结果图的初始运动场。
进一步地,在本发明的一个实施例中,获取待拼接的左右图像素与最终拼接结果图像素的对应关系,以得到初始运动场,进一步包括:基于编码器-解码器的网络结构,使用待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到左图和右图与拼接结果图像素的对应关系;将对应关系作为目标运动场,并使用目标运动场约束网络生成结果。
可以理解的是,如图2所示,本发明实施例可以利用卷积网络,确定待拼接的左右图Iinput_l,,Iinput_r与最终拼接结果图Ioutput像素的对应关系,从而估计左右图像素到拼接结果图的初始运动场Fg。假定xl=[xy]T和xr=[x`y`]T分别是待拼接左右图中对应的一对像素点,则待拼接左右图分别对应的运动场Fl,Fr使得Fl(xl)=Fr(xr)成立。本发明实施例的方法需要目标运动场Ft来对运动场生成网络的运动场结果Fn进行监督,Ft,,Fg各自包含左图对应的运动场Fl和右图对应的运动场Fr,H,W分别表示运动场的高和宽,F(i,j)表示运动场F位置(i,j)处的运动量,p表示使用P范数进行约束,则运动场生成网络的损失函数如下所示:
在步骤S102中,获取基于初始运动场变形的左图和右图,并通过图像特征和判别特征的约束,由卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图。
也就是说,本发明实施例可以计算基于运动场变形的左右图,并通过图像特征和判别特征的约束,由卷积网络求解在每个像素位置左右图颜色值对拼接结果图颜色值的选择,从而得到融合时左右图对应的颜色选择图。
进一步地,在本发明的一个实施例中,获取融合时左右图对应的颜色选择图,进一步包括:通过基于网络生成的运动场对左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构;将基于网络生成的运动场和目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用判别网络的中间层特征和VGG网络的中间层特征约束并生成颜色选择图。
可以理解的是,如图2所示,本发明实施例可以通过计算基于已收敛运动场生成网络得到的运动场Fg变形后的待拼接左右图Iwarped_l,Iwarped_r,将Iwarped_l,作为卷积网络的输入,由卷积网络求解在每个像素位置(i,j)处变形后左右图颜色值Iwarped_r(i,j)对拼接结果图颜色值Ioutput(i,j)的贡献,从而得到融合时变形后左右图对应的颜色选择图Wg_l,。其中,用Fg(i,j)x,Fg(i,j)y分别表示运动场在(i,j)处运动的x分量及y分量,则根据Fg对Iinput_l的变形操作如下式所示,Iinput_r的计算类似:
将Iwarped_l,Iwarped_r作为颜色选择图生成网络的输入,得到Iwarped_l对应的颜色选择图Wg_,Iwarped_r对应的颜色选择图Wg_r=1-Wg_l。
在步骤S103中,根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果。
也就是说,本发明实施例可以根据判别网络和空间平滑约束来整体更新运动场和颜色选择图。
进一步地,在本发明的一个实施例中,根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,进一步包括:在调整运动场生成网络和颜色选择图生成网络时,收敛运动场生成网络和颜色选择图;通过判别网络的损失和空间平滑约束调整运动场生成网络和颜色选择图生成网络。
可以理解的是,如图2所示,本发明实施例可以根据判别网络和空间平滑约束来整体更新运动场生成网络和颜色选择图生成网络,从而使得最终的拼接结果Ioutput效果更好。当两个网络分别收敛后,再通过最小化如下目标来整体调整两个网络:
-logD(Ioutput)+γLossr(Ioutput),
其中,-logD(Ioutput)是为了使网络获得更好的梯度表现而对logD(1-Ioutput)进行的近似表示,表示整个网络结构生成的结果被判别网络判为假的概率。Lossr(Ioutput)是对保证Ioutput空间平滑的约束项。
可选地,在本发明的一个实施例中,拼接结果为:
Ioutput=Iwarped_l*Wl+warped_r*Wr,
其中,Ioutput为拼接结果,Iwarped_l和Iwarped_r为卷积网络的输入,Wl和Wr为颜色选择图。
可以理解的是,考虑到输入图片变形后有部分区域对于最终融合是无效的,所以Iwarped_l对应的最终的颜色选择图Wl=Mo*Wgl+Ws_l,Mo是表示Iwarped_l与Iwarped_r重叠区域Ro的mask,Ws_l是Iwarped_l在Ro之外区域的颜色选择情况,对应的最终的颜色选择图Wr的定义类似,则经过两个网络后拼接的结果Ioutput定义如下:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
颜色选择图生成网络需要借助VGG网络中间层的特征损失LossVGG_feature和判别网络中间层的特征损失LossD_eature来进行约束,目标是最小化αLossVGG_feature+βLossD_feature。
在本发明的一个具体实施例中,包含340对具有一定视差的左右图像对,图像分辨率为256*256,300对作为训练数据Dtrain,40对作为测试数据Dtest使用训练数据作为输入对整个网络结构进行训练,当网络收敛时,再将测试数据输入网络可以实时得到左右图像对的一个拼接结果,拼接结果的分辨率为264*296,例如,如图3所示,根据本发明实施例的方法可以将图中的一对左右图进行拼接,得到图中所示的结果。其中,网络的训练具体包括以下内容:
(1)利用卷积网络,确定待拼接的左右图Iinput_l,Iinput_r与最终拼接结果图Ioutput像素的对应关系,从而估计左右图像素到拼接结果图的初始运动场Fg。运动场生成网络的目标是最小化所有左右图像对对应网络生成的运动场与目标运动场之间的L2范数距离:
(2)计算基于已收敛运动场生成网络得到的运动场Fg变形后的待拼接左右图Iwarped_l,Iwarped_r,即
将Iwarped_l,Iwarped_r作为卷积网络的输入,最小化如下目标:
αLossVGG_feature+βLossD_feature,
求得到融合时变形后左图对应的颜色选择图Wg_l,右图对应的颜色选择图Wg_r=1-Wg_l,对Iwarped_l,Iwarped_r的内容区域加以约束,Iwarped_l,Iwarped_r对应的最终颜色选择图为Wl,Wr,即
则整个网络生成的拼接结果Ioutput:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
(3)根据判别网络和空间平滑约束来整体更新运动场生成网络和颜色选择图生成网络。当两个网络分别收敛后,再通过最小化如下目标来整体调整两个网络:
-logD(Ioutput)+γLossr(Ioutput)。
综上,本发明实施例的方法对提升图像拼接质量和计算速度有较大意义,将左右图与拼接结果图像素间存在的潜在运动及颜色关系通过卷积网络来学习,获得更精细的运动变形估计,更真实的颜色融合;并通过使用训练好的网络保证计算的实时,在估计左右图与拼接结果图间像素的运动场时,使用目标运动场来监督运动场生成网络的学习,目标运动场对运动变形的逼近效果越好,运动场生成网络收敛后初始运动场的效果同样可以得到提升。本发明实施例的方法在估计颜色选择时,使用判别网络的特征来约束拼接结果的分布应当与真实场景图像的分布一致,同时使用VGG网络的特征对场景的特征进行提取来消除由于运动变形不准确造成的重影等,从而保证拼接结果的真实性。
根据本发明实施例提出的基于卷积网络的图像拼接方法,可以通过卷积网络确定待拼接的左图和右图,并获取基于初始运动场变形的左图和右图,通过判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果,从而可以将卷积网络与图像拼接相结合,对左右图中像素逐一估计运动和颜色选择,不仅可以对图像视差的处理更精确,而且可以对颜色的选择融合更接近真实场景,进而可以有效提高图像拼接的准确性、可靠性和实时性。
其次参照附图描述根据本发明实施例提出的基于卷积网络的图像拼接装置。
图4是本发明一个实施例的基于卷积网络的图像拼接装置的结构示意图。
该基于卷积网络的拼接装置10包括:第一获取模块100、第二获取模块200和拼接模块300。
其中,第一获取模块100用于利用卷积网络确定待拼接的左图和右图,并获取左图和右图与最终拼接结果图像素的对应关系,以得到左图和右图到最终拼接结果图的初始运动场。第二获取模块200用于获取基于初始运动场变形的左图和右图,并通过图像特征和判别特征的约束,由卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图。拼接模块300用于根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果。本发明实施例的拼接装置10可以通过卷积网络来求解一对存在视差的左右视角图像的拼接结果,使用第一获取模块和第二获取模块结构的网络分别逐像素的对运动和颜色选择进行估计,逐像素的运动估计可以更好的处理不同像素位置的不同视差水平,颜色选择的估计既能保证颜色信息的合理性也能保证最终的拼接结果更接近真实场景。
进一步地,在本发明的一个实施例中,第一获取模块100还用于基于编码器-解码器的网络结构,使用待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到左图和右图与拼接结果图像素的对应关系,以及将对应关系作为目标运动场,并使用目标运动场约束网络生成结果。
进一步地,在本发明的一个实施例中,第二获取模块200还用于通过基于网络生成的运动场对左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构,并将基于网络生成的运动场和目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用判别网络的中间层特征和VGG网络的中间层特征约束并生成颜色选择图。
进一步地,在本发明的一个实施例中,第二获取模块200进一步用于在调整运动场生成网络和颜色选择图生成网络时,收敛运动场生成网络和颜色选择图,并判别网络通过判别网络的损失和空间平滑约束调整运动场生成网络和颜色选择图生成网络。
进一步地,在本发明的一个实施例中,拼接结果为:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
其中,Ioutput为拼接结果,Iwarped_l和Iwarped_r为卷积网络的输入,Wl和Wr为颜色选择图。
需要说明的是,前述对基于卷积网络的图像拼接方法的解释说明也适用于该实施例的基于卷积网络的图像拼接装置,此处不再赘述。
根据本发明实施例提出的基于卷积网络的图像拼接方法,通过将左右图与拼接结果图像素间存在的潜在运动及颜色关系通过卷积网络来学习,获得更精细的运动变形估计,更真实的颜色融合;并通过使用训练好的网络保证计算的实时,在估计左右图与拼接结果图间像素的运动场时,使用目标运动场来监督运动场生成网络的学习,目标运动场对运动变形的逼近效果越好,运动场生成网络收敛后初始运动场的效果同样可以得到提升。该方法在估计颜色选择时,使用判别网络的特征来约束拼接结果的分布应当与真实场景图像的分布一致,同时使用VGG网络的特征对场景的特征进行提取来消除由于运动变形不准确造成的重影等,从而保证拼接结果的真实性。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于卷积网络的图像拼接方法,其特征在于,包括以下步骤:
利用卷积网络确定待拼接的左图和右图,并获取所述左图和右图与最终拼接结果图像素的对应关系,以得到所述左图和右图到最终拼接结果图的初始运动场;
获取基于所述初始运动场变形的所述左图和右图,并通过图像特征和判别特征的约束,由所述卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图;
根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果,其中,所述拼接结果为:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
其中,Ioutput为所述拼接结果,Iwarped_l和Iwarped_r为所述卷积网络的输入,Wl和Wr为所述颜色选择图。
2.根据权利要求1所述的基于卷积网络的图像拼接方法,其特征在于,所述获取待拼接的左右图像素与最终拼接结果图像素的对应关系,以得到初始运动场,进一步包括:
基于编码器-解码器的网络结构,使用所述待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到所述左图和右图与所述拼接结果图像素的对应关系;
将所述对应关系作为目标运动场,并使用所述目标运动场约束网络生成结果。
3.根据权利要求2所述的基于卷积网络的图像拼接方法,其特征在于,所述获取融合时左右图对应的颜色选择图,进一步包括:
通过基于网络生成的运动场对所述左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构;
将所述基于网络生成的运动场和所述目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用所述判别网络的中间层特征和所述VGG网络的中间层特征约束并生成所述颜色选择图。
4.根据权利要求3所述的基于卷积网络的图像拼接方法,其特征在于,所述根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,进一步包括:
在调整所述运动场生成网络和颜色选择图生成网络时,收敛所述运动场生成网络和颜色选择图;
通过所述判别网络的损失和空间平滑约束调整所述运动场生成网络和颜色选择图生成网络。
5.一种基于卷积网络的图像拼接装置,其特征在于,包括:
第一获取模块,用于利用卷积网络确定待拼接的左图和右图,并获取所述左图和右图与最终拼接结果图像素的对应关系,以得到所述左图和右图到最终拼接结果图的初始运动场;
第二获取模块,用于获取基于所述初始运动场变形的所述左图和右图,并通过图像特征和判别特征的约束,由所述卷积网络求解在每个像素位置对左图颜色和右图颜色的选择,生成拼接结果图颜色,并分别获取融合时左图和右图对应的颜色选择图;
拼接模块,用于根据判别网络和空间平滑约束调整更新得到运动场生成网络和颜色选择图生成网络,得到拼接结果,其中,所述拼接结果为:
Ioutput=Iwarped_l*Wl+Iwarped_r*Wr,
其中,Ioutput为所述拼接结果,Iwarped_l和Iwarped_r为所述卷积网络的输入,Wl和Wr为所述颜色选择图。
6.根据权利要求5所述的基于卷积网络的图像拼接装置,其特征在于,所述第一获取模块还用于基于编码器-解码器的网络结构,使用所述待拼接的左图和右图作为网络输入,根据网格形式的稠密单应性矩阵计算得到所述左图和右图与所述拼接结果图像素的对应关系,以及将所述对应关系作为目标运动场,并使用所述目标运动场约束网络生成结果。
7.根据权利要求6所述的基于卷积网络的图像拼接装置,其特征在于,所述第二获取模块还用于通过基于网络生成的运动场对所述左图和右图进行变形,并且将变形后的左图和右图作为颜色选择图生成网络的输入,其中,颜色选择图网络使用编码器-解码器结构,并将所述基于网络生成的运动场和所述目标运动场分别变形的左图和右图作为判别网络和VGG网络的输入,利用所述判别网络的中间层特征和所述VGG网络的中间层特征约束并生成所述颜色选择图。
8.根据权利要求7所述的基于卷积网络的图像拼接装置,其特征在于,所述第二获取模块进一步用于在调整所述运动场生成网络和颜色选择图生成网络时,收敛所述运动场生成网络和颜色选择图,并判别网络通过所述判别网络的损失和空间平滑约束调整所述运动场生成网络和颜色选择图生成网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711078325.1A CN107945109B (zh) | 2017-11-06 | 2017-11-06 | 基于卷积网络的图像拼接方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711078325.1A CN107945109B (zh) | 2017-11-06 | 2017-11-06 | 基于卷积网络的图像拼接方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107945109A CN107945109A (zh) | 2018-04-20 |
CN107945109B true CN107945109B (zh) | 2020-07-28 |
Family
ID=61934309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711078325.1A Active CN107945109B (zh) | 2017-11-06 | 2017-11-06 | 基于卷积网络的图像拼接方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107945109B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903393B (zh) * | 2019-02-22 | 2021-03-16 | 清华大学 | 基于深度学习的新视角场景合成方法和装置 |
CN113012087B (zh) * | 2021-03-31 | 2022-11-04 | 中南大学 | 基于卷积神经网络的图像融合方法 |
CN115115593A (zh) * | 2022-06-28 | 2022-09-27 | 先临三维科技股份有限公司 | 一种扫描处理方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463786A (zh) * | 2014-12-03 | 2015-03-25 | 中国科学院自动化研究所 | 一种移动机器人图像拼接方法及装置 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106408086A (zh) * | 2016-09-12 | 2017-02-15 | 上海影城有限公司 | 用于图像优化的深度学习神经网络处理方法及系统 |
-
2017
- 2017-11-06 CN CN201711078325.1A patent/CN107945109B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463786A (zh) * | 2014-12-03 | 2015-03-25 | 中国科学院自动化研究所 | 一种移动机器人图像拼接方法及装置 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106408086A (zh) * | 2016-09-12 | 2017-02-15 | 上海影城有限公司 | 用于图像优化的深度学习神经网络处理方法及系统 |
Non-Patent Citations (4)
Title |
---|
Joint Distance Maps Based Action Recognition With Convolutional Neural Networks;Chuankun Li 等;《IEEE Signal Processing Letters》;20170306;第24卷(第5期);第624-628页 * |
Semantic Texture for Robust Dense Tracking;Jan Czarnowski 等;《ICCVW 2017》;20171031;第1卷;第860-868页 * |
一种改进的基于深度学习的遥感影像拼接方法;雒培磊 等;《计算机工程与应用》;20171015;第53卷(第20期);第180-186页 * |
全景图像拼接关键技术研究;倪霄龙;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第02期);第I138-2895页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107945109A (zh) | 2018-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
KR101994121B1 (ko) | 중간 뷰로부터의 효율적인 캔버스 뷰 생성 | |
CN107481279B (zh) | 一种单目视频深度图计算方法 | |
CN103299610B (zh) | 用于视频插入的方法和设备 | |
US9269153B2 (en) | Spatio-temporal confidence maps | |
CN110111248B (zh) | 一种基于特征点的图像拼接方法、虚拟现实系统、照相机 | |
CN111343367B (zh) | 一种十亿像素虚拟现实视频采集装置、系统与方法 | |
CN107945109B (zh) | 基于卷积网络的图像拼接方法及装置 | |
CN113643342B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN113343878A (zh) | 基于生成对抗网络的高保真人脸隐私保护方法和系统 | |
EP3185212B1 (en) | Dynamic particle filter parameterization | |
CN113763569A (zh) | 一种在三维仿真中使用的图像标注方法及装置、电子设备 | |
CN110544202A (zh) | 一种基于模板匹配与特征聚类的视差图像拼接方法及系统 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN113793266A (zh) | 一种多目机器视觉图像拼接方法、系统及存储介质 | |
Mehl et al. | M-fuse: Multi-frame fusion for scene flow estimation | |
Su et al. | Camera view adjustment prediction for improving image composition | |
CN112712566A (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
US11869173B2 (en) | Image inpainting based on multiple image transformations | |
Liu et al. | Deepois: Gyroscope-guided deep optical image stabilizer compensation | |
CN110211190B (zh) | 相机自运动参数估计模型的训练方法、装置及存储介质 | |
JP2018137667A (ja) | カメラキャリブレーション方法、プログラムおよび装置 | |
Halperin et al. | Clear Skies Ahead: Towards Real‐Time Automatic Sky Replacement in Video | |
CN113012298B (zh) | 一种基于区域检测的弯曲mark三维注册增强现实方法 | |
Chen et al. | Making in‐Front‐of Cars Transparent: Sharing First‐Person‐Views via Dashcam |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |