CN112258561B - 针对图像拼接的匹配点获取方法 - Google Patents

针对图像拼接的匹配点获取方法 Download PDF

Info

Publication number
CN112258561B
CN112258561B CN201910659410.XA CN201910659410A CN112258561B CN 112258561 B CN112258561 B CN 112258561B CN 201910659410 A CN201910659410 A CN 201910659410A CN 112258561 B CN112258561 B CN 112258561B
Authority
CN
China
Prior art keywords
spliced
images
matching
matching points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910659410.XA
Other languages
English (en)
Other versions
CN112258561A (zh
Inventor
荆明娥
黄宇杰
范益波
曾晓洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201910659410.XA priority Critical patent/CN112258561B/zh
Publication of CN112258561A publication Critical patent/CN112258561A/zh
Application granted granted Critical
Publication of CN112258561B publication Critical patent/CN112258561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种针对图像拼接的匹配点获取方法,用于在可检测特征不明显的情况下获取足够多的匹配点来完成图像拼接,其特征在于,包括如下步骤:步骤S1,获取待拼接的两张图像作为待拼接图像;步骤S2,将待拼接图像输入预设的卷积神经网络模型从而获取分别对应两张待拼接图像的特征图;步骤S3,利用预先建立的计算模型,并通过预定位方法以及细定位方法获取分别对应两张待拼接图像的特征图之间的匹配点;步骤S4,根据预先建立的定位模型将匹配点从特征图映射到待拼接图像中形成图像匹配点;步骤S5,根据图像匹配点完成待拼接图像的拼接。

Description

针对图像拼接的匹配点获取方法
技术领域
本发明属于计算机视觉领域,具体涉及一种针对图像拼接的匹配点获取方法。
背景技术
图像拼接是计算机视觉中的一个热门话题,它在军事、医疗、工业、娱乐领域以及人们的生活中有着广泛的应用。
图像拼接主要分为如下五个步骤:1)检测可区分性强的关键点;2)从关键点中获取两图之间的匹配点;3)基于获取的匹配点获取变换关系;4)根据变换关系将一张图片映射到另一张中去;5)融合图像来优化映射之后的图像,如去除明显的接缝等。
然而图像拼接也面临着诸多挑战,主要的挑战为:1)大视差;2)可检测特征不明显;3)图像之间相差过大(如大小,亮度);4)重叠区域过小。现有的图像拼接算法主要致力于通过优化拼接步骤3)中的变换关系来解决大视差问题,从而消除鬼影以及使得图片看起来更自然。
在图像拼接算法中足够多的匹配点是必不可少的,但是在可检测特征不明显的情况下,那些现有的优秀算法,如ORB,SIFT,LIFT,SuperPoint等,无法获得足够多的匹配点以供后续的图像拼接步骤去完成图像拼接。并且由于有些图像(例如自然风景图)会由大片的背景组成的,比如天空和海洋,而在这种地方可检测特征是不明显的,因此更难以获得有效的匹配点。
发明内容
为解决上述问题,提供一种可以在可检测特征不明显的情况下仍旧获得足够多匹配点来完成图像拼接的方法,本发明采用了如下技术方案:
本发明提供了一种针对图像拼接的匹配点获取方法,用于在可检测特征不明显的情况下获取足够多的匹配点来完成图像拼接,其特征在于,包括如下步骤:步骤S1,获取待拼接的两张图像作为待拼接图像;步骤S2,将待拼接图像输入预设的卷积神经网络模型从而获取分别对应两张待拼接图像的特征图;步骤S3,利用预先建立的计算模型,并通过预定位方法以及细定位方法获取分别对应两张待拼接图像的特征图之间的匹配点;步骤S4,根据预先建立的定位模型将匹配点从特征图映射到待拼接图像中形成图像匹配点;步骤S5,根据图像匹配点完成待拼接图像的拼接。
本发明提供的针对图像拼接的匹配点获取方法,还可以具有这样的技术特征,其中,特征图的宽和高构成一个与待拼接图像对应的二维空间,计算模型在识别匹配点时,首先提取出特征图在二维空间中每一个点的特征描述子,其次根据特征描述子计算两个点之间的特征距离,最后利用预设的特征距离比值阈值筛选两个点是否为匹配点,当一个点与其最邻近点之间的特征距离除以这个点与其次邻近点之间的特征距离获得的值小于特征距离比值阈值时,则认为该点与最邻近点为一对匹配点。
本发明提供的针对图像拼接的匹配点获取方法,还可以具有这样的技术特征,其中,预定位方法为:在尺寸较小的待拼接图像所对应的特征图中四个顶点处的一定范围的区域内、以及另一待拼接图像所对应的特征图内,根据计算模型识别最匹配的一对匹配点作为标定点,然后根据标定点划出两个长方形区域作为匹配区域;长方形区域的长度取特征图的边长的长度,宽度取特征图较大的边长的三十二分之一并向下取整,细定位方法为:根据计算模型在匹配区域之间获取匹配点。
本发明提供的针对图像拼接的匹配点获取方法,还可以具有这样的技术特征,其中,特征图为待拼接图像输入卷积神经网路模型后由各层卷积层输出的特征图,步骤S4中定位模型映射图像匹配点的过程包括如下步骤:步骤S4-1,在输出当前特征图A的卷积层的前一个最大池化层之前的卷积层输出的特征图B中,找出当前特征图A的匹配点在特征图B中对应的2*2的区域;步骤S4-2,在2*2的区域之间取得最小特征距离的一对点作为特征图B中的匹配点;步骤S4-3,把特征图B作为当前特征图A;步骤S4-4,重复步骤S4-1至步骤S4-3,直到获得与待拼接图像相同尺寸的特征图中的匹配点作为图像匹配点。
本发明提供的针对图像拼接的匹配点获取方法,还可以具有这样的技术特征,其中,卷积神经网络模型由VGGnet16网络除去全连接层以外的部分构成。
发明作用与效果
根据本发明的针对图像拼接的匹配点获取方法,由于通过卷积神经网络模型获取待拼接图像的特征图,还由于利用能够识别特征图中匹配点的计算模型,并通过预定位以及细定位完成对特征图之间的匹配点的识别,因此相较于暴力匹配的方法加速了匹配点的识别过程,使得匹配点的搜寻速度更快。进一步,由于通过定位模型将特征图中的匹配点映射至待拼接图像中形成图像匹配点,因此特征图中的匹配点能够被准确地映射至待拼接图像中,最终实现了通过该图像匹配点完成图像的拼接。本发明的匹配点获取方法打破了常规的图像拼接步骤,跳过了关键点的检测,能够直接在可检测特征不明显的区域里区分每一个难以区分点从而为后续的步骤提供足够多的匹配点。在可检测特征不明显的情况下,该方法较之现有的算法能够获得了4倍以上的匹配点,其匹配点的数目和准确率都优于现有优秀算法,在一些情况下,甚至可以实现匹配点从无到有的突破。另外,该方法在可检测特征明显的情况下仍旧适用,并且有着更高的准确率。
附图说明
图1是本发明实施例中针对图像拼接的获取匹配点方法的流程图;
图2是本发明实施例中针对图像拼接的获取匹配点方法的算法框架的示意图;
图3是本发明实施例中计算模型的特征描述子的示意图;
图4是本发明实施例中点A分别与最邻近点B和次邻近点C的特征距离的图示;
图5是本发明实施例中预定位时对较小图片的处理区域的示意图;
图6是本发明实施例中匹配区域的示意图;以及
图7是本发明实施例中定位模型映射匹配点的示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的针对图像拼接的匹配点获取方法作具体阐述。
<实施例>
本发明提供的用于图像拼接的匹配点获取算法,通过计算模型直接获取卷积神经网络提取的特征图之间的匹配点,而不进行关键点检测的步骤。然后通过定位模型将特征图之间的匹配点映射到原图中去,从而为后续步骤提供匹配点完成图像拼接。
图1是本发明实施例中针对图像拼接的匹配点获取方法的流程图。
如图1所示,针对图像拼接的匹配点获取方法包括如下步骤:
步骤S1,获取待拼接的两张图片作为两张待拼接图像。
步骤S2,将待拼接图像输入卷积神经网络从而获取相应的两张特征图。
本实施例的步骤S2中,卷积神经网络模型采用VGGnet16网络除去全连接层以外的部分作为提取特征图的卷积神经网络,两张待拼接图像送入该卷积神经网络VGGnet16中,从而提取出卷积层Conv1_2,Conv2_2,Conv3_3,Conv4_3输出的特征图(如图2所示)。
本实施例中,Conv4_3卷积层输出的特征图会在获取特征图之间的匹配点时被使用(即在步骤S3中被使用),Conv_33,Conv_22以及Conv1_2卷积层输出的特征图会在定位模型中被使用(即在步骤S4中被使用)。
步骤S3,利用预先建立的计算模型,并通过预定位方法以及细定位方法获取分别对应两张待拼接图像的两张特征图(即两张待拼接图像分别通过Conv4_3卷积层输出的两张特征图)之间的匹配点。
本实施例中,计算模型的作用是在于根据特征图与原图(待检索图像)之间空间维度的对应关系,利用其三维的数据,去提取出特征图中与原图对应的二维空间中的每一个点的特征描述子,将特征描述子作为每一个点的区分。进一步,利用特征描述子计算两点之间的特征距离(对应位置数据相减然后绝对值相加),并利用特征距离比值阈值筛选的方法确定一对点是否为匹配点。
具体地,计算模型的建立与运算过程如下:
从VGGnet16的卷积层中提取出的特征图是三维的,这个三维的特征图可以被表示为H*W*N:一张拥有三颜色通道(红色通道R、绿色通道G、蓝色通道B)的2-D(二维)彩色图片被送入VGGnet16之后,拥有着N组卷积核的卷积层将输出一个拥有着N个通道的尺寸为H*W的特征图。如图3所示,H*W(宽为W,高为H)可以表示一个二维坐标空间。在H*W所表示的二维坐标空间中的每一个点可以用一个元素个数为N的向量来表示。因此上述二维空间中的点(x,y)的特征描述子Fxy可以表示成公式(1)的形式:
Fxy={fxy1,fxy2,…,fxyN} (1)
式(1)中,fxyN表示三维特征图在通道N中在二维坐标(x,y)处的数值,点(x,y)的坐标范围是从(0,0)到(W-1,H-1)。
上述二维空间中的一个点a(x1,y1)和一个点b(x2,y2)之间的特征距离Dab用公式(2)来表示:
式(2)中,表示点a(x1,y1)在通道i中相同二维坐标处的数值,/>表示点b(x2,y2)在通道i中相同二维坐标处的数值。
光有特征距离仍会出现错误判断,因此本发明加入了另一个判断方式:利用特征距离比值阈值筛选的方法确定一对点是否为匹配点。如图4所示,一个点A与其最邻近点B之间的距离DAB,点A与其次邻近点C之间的距离DAC,如果DAB除以DAC的值小于一定阈值,则认为DAB是一对匹配点。
进一步,根据上述计算模型,结合预定位方法以及细定位方法,获取卷积层Conv4_3输出的特征图之间的匹配点。
首先,通过预定位方法标定匹配区域。
本实施例中,预定位方法为:根据计算模型,将较小图片(即尺寸较小的待拼接图像)的特征图中四个顶点(二维空间中的顶点)周围4*4的区域中的每一点(图5中的深灰色区域,那些沿着特征图边界的浅灰色区域中的点将不进行计算)与另一幅图的特征图中每一点之间根据计算模型进行计算,从而获取最匹配的一对匹配点作为一对标定点(如图6中的三角所示)。然后根据标定点划出两个长方形区域作为一个匹配区域(如图6中的深灰色区域所示,浅灰色区域因为沿着特征图边界所以不使用)。该长方形区域的一条边的长度等于特征图一条边界的长度,另一条边的长度为Y,Y的取值为待拼接图像的宽和高中较大那个的三十二分之一下取整,例如对于尺寸为420*400的输入图片,Y的取值为13。
其次,通过细定位方法获取匹配点,即直接通过计算模型在分别对应两个待拼接图像的匹配区域之间获取匹配点。
步骤S4,根据预先建立的定位模型将匹配点从特征图映射到待拼接图像中形成图像匹配点。
本实施例中,如图7所示,定位模型的实施过程如下(以一对匹配点为例,该一对匹配点在图7中以三角标示,其在前一层中对应的区域为图中2*2的灰色区域):
步骤S4-1,在输出当前特征图A(即卷积层Conv4_3输出的特征图)的卷积层的前一个最大池化层之前的卷积层输出的特征图B(即卷积层Conv3_3输出的特征图)中,找出当前特征图A的匹配点在特征图B中对应的2*2的区域;
步骤S4-2,在2*2的区域之间取得最小特征距离的一对点作为特征图B中的匹配点;
步骤S4-3,把特征图B作为当前特征图A;
步骤S4-4,重复步骤S4-1至步骤S4-3(即,以同样的方式获取卷积层Conv2_2以及Conv1_2输出的特征图中的匹配点),直到获得与待拼接图像相同尺寸的特征图(Conv1_2输出的特征图的宽和高与原图相同)中的匹配点作为图像匹配点。
具体地,定位模型通过流水线逐级递归的方式,一层层地将匹配点映射到原图中去。待检索图像经过网络层层卷积到Conv4_3卷积层输出的特征图,会进行三次2*2的最大池化,这造成了Conv4_3卷积层输出特征图的尺寸是原图的六十四分之一。也就是说,特征图中的每一个点对应了原图中8*8的区域,因此定位模型所做的就是找出这8*8区域中具体对应的像素。
本实施例选取了卷积层Conv4_3、Conv3_3、Conv2_2、Conv1_2输出的特征图之间进行逐级映射。正如之前,由于2*2最大池化层的存在,由卷积层Conv4_3(Conv3_3,Conv2_2)输出的特征图中的每一点,分别对应着Conv3_3(Conv2_2,Conv1_2)卷积层输出的特征图中的一个2*2的区域,并且Conv1_2卷积层输出的特征图的二维尺寸和原图是一样大的。
比如,如果卷积层Conv4_3输出的特征图中一个点的二维坐标为(x,y),它在卷积层Conv3_3输出的特征图中对应的区域为[(2x,2y),(2x+1,2y),(2x,2y+1),(2x+1,2y+1)]。对于卷积层Conv4_3输出的特征图中的一对匹配点a和b,首先获取它们在在卷积层Conv3_3输出的特征图中分别对应的两个2*2区域A和B;然后计算区域A和B中任意两点之间的特征距离,并选择其中特征距离最近的一对点作为卷积层Conv3_3输出特征图中的一对匹配点;再按照前两步的方法寻找出卷积层Conv2_2输出的特征图中的对应匹配点,接着在卷积层Conv1_2输出的特征图中找出对应匹配点;最终卷积层Conv4_3输出的特征图中的一对匹配点a和b就成功被映射到了原图的尺寸中去,原图像素级的匹配点就被获得了,也就是说原图中匹配点的二维坐标被获得了。
步骤S5,根据步骤S4中获取的图像匹配点完成待拼接图像的拼接。
本实施例的步骤S5中,根据图像匹配点完成图像的拼接属于常规的技术手段,在此不再赘述。
本实施例中,上述针对图像拼接的匹配点获取方法可以方便地嵌入到现有的图像拼接算法中,从而优化图像拼接软件等程序的图像拼接效果。
实施例作用与效果
根据本实施例提供的针对图像拼接的匹配点获取方法,由于通过卷积神经网络模型获取待拼接图像的特征图,利用了能够识别特征图中匹配点的计算模型来打破常规图像拼接步骤直接获取匹配点而无需进行关键点检测。还由于通过预定位以及细定位完成对特征图之间的匹配点的识别,与直接暴力匹配相比加速了匹配点的识别过程,使得匹配点的搜寻速度更快。进一步,由于通过定位模型将特征图中的匹配点映射至待拼接图像中形成图像匹配点,因此特征图中的匹配点能够被准确地映射至待拼接图像中,最终实现了通过该图像匹配点完成图像的拼接。本发明的匹配点获取方法打破了常规的图像拼接步骤,跳过了关键点的检测,能够直接在可检测特征不明显的区域里区分每一个难以区分点从而为后续的步骤提供足够多的匹配点。在可检测特征不明显的情况下,该方法较之现有的算法能够获得了4倍以上的匹配点,其匹配点的数目和准确率都优于现有优秀算法,在一些情况下,甚至可以实现匹配点从无到有的突破。另外,该方法在可检测特征明显的情况下仍旧适用,并且有着更高的准确率。
实施例中,由于计算模型能够通过提取特征描述子,并根据该特征描述子计算两个特征图中两个点之间的特征距离,并利用预设的特征距离比值阈值筛选两个点是否为匹配点。因此本发明的计算模型能够打破常规步骤直接准确、快速地对匹配点进行识别,而无需进行关键点检测。
实施例中,发明人根据图像拼接特性:两图具有一定的重叠区域,那么重叠区域必定经过较小的图片的四个顶点之一。因此将原来的暴力匹配的搜索过程分为两级,即通过预定位以及细定位完成匹配点的识别,因此本实施例的匹配点识别过程相对于暴力匹配的计算量更小,且不会影响匹配点的识别准确率,从而加速了匹配点的识别过程。
实施例中,由于通过定位模型逐级将各个卷积层输出的特征图中的匹配点映射至上一层卷积层输出的特征图中,因此能够较为准确的完成匹配点到原图的映射,减少从特征图到原图由于映射产生的误差,使得匹配点的识别更准确。
实施例中,由于采用VGGnet16网络出去全连接层以外的部分作为提取特征图的卷积神经网络,因此卷积神经网络模型能够充分提取任意尺寸的图片的特征,使得后续步骤可以根据该特征区分出图中难以区分的像素点。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (3)

1.一种针对图像拼接的匹配点获取方法,用于在可检测特征不明显的情况下获取足够多的匹配点来完成图像拼接,其特征在于,包括如下步骤:
步骤S1,获取待拼接的两张图像作为待拼接图像;
步骤S2,将所述待拼接图像输入预设的卷积神经网络模型从而获取分别对应两张所述待拼接图像的特征图;
步骤S3,利用预先建立的计算模型,并通过预定位方法以及细定位方法获取分别对应两张所述待拼接图像的所述特征图之间的匹配点;
步骤S4,根据预先建立的定位模型将所述匹配点从所述特征图映射到所述待拼接图像中形成图像匹配点;
步骤S5,根据所述图像匹配点完成所述待拼接图像的拼接;
其中,所述特征图的宽和高构成一个与所述待拼接图像对应的二维空间,
所述计算模型在识别所述匹配点时,首先提取出所述特征图在所述二维空间中每一个点的特征描述子,其次根据所述特征描述子计算两个点之间的特征距离,最后利用预设的特征距离比值阈值筛选两个点是否为匹配点,
当一个点与其最邻近点之间的所述特征距离除以这个点与其次邻近点之间的所述特征距离获得的值小于所述特征距离比值阈值时,则认为该点与所述最邻近点为一对匹配点,
所述预定位方法为:在尺寸较小的所述待拼接图像所对应的特征图中四个顶点处的一定范围的区域内、以及另一所述待拼接图像所对应的特征图内,根据所述计算模型识别最匹配的一对匹配点作为标定点,然后根据所述标定点划出两个长方形区域作为匹配区域;
所述长方形区域的长度取所述特征图的边长的长度,宽度取所述特征图较大的边长的三十二分之一并向下取整,
所述细定位方法为:根据所述计算模型在所述匹配区域之间获取所述匹配点。
2.根据权利要求1所述的针对图像拼接的匹配点获取方法,其特征在于:
其中,所述特征图为所述待拼接图像输入所述卷积神经网路模型后由各层卷积层输出的特征图,
所述步骤S4中将所述匹配点从所述特征图映射到所述待拼接图像的定位模型的过程包括如下步骤:
步骤S4-1,在输出当前特征图A的卷积层的前一个最大池化层之前的卷积层输出的特征图B中,找出所述当前特征图A的所述匹配点在所述特征图B中对应的2*2的区域;
步骤S4-2,在所述2*2的区域之间取得最小特征距离的一对点作为所述特征图B中的匹配点;
步骤S4-3,把所述特征图B作为当前特征图A;
步骤S4-4,重复所述步骤S4-1至所述步骤S4-3,直到获得与所述待拼接图像相同尺寸的所述特征图中的所述匹配点作为所述图像匹配点。
3.根据权利要求1所述的针对图像拼接的匹配点获取方法,其特征在于:
其中,所述卷积神经网络模型由VGGnet16网络除去全连接层以外的部分构成。
CN201910659410.XA 2019-07-22 2019-07-22 针对图像拼接的匹配点获取方法 Active CN112258561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910659410.XA CN112258561B (zh) 2019-07-22 2019-07-22 针对图像拼接的匹配点获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910659410.XA CN112258561B (zh) 2019-07-22 2019-07-22 针对图像拼接的匹配点获取方法

Publications (2)

Publication Number Publication Date
CN112258561A CN112258561A (zh) 2021-01-22
CN112258561B true CN112258561B (zh) 2023-08-25

Family

ID=74224446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910659410.XA Active CN112258561B (zh) 2019-07-22 2019-07-22 针对图像拼接的匹配点获取方法

Country Status (1)

Country Link
CN (1) CN112258561B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113496467B (zh) * 2021-06-29 2022-11-01 武汉理工大学 一种藏文图像拼接方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714689B1 (en) * 1995-09-29 2004-03-30 Canon Kabushiki Kaisha Image synthesizing method
CN106940876A (zh) * 2017-02-21 2017-07-11 华东师范大学 一种基于surf的快速无人机航拍图像拼接算法
CN107563438A (zh) * 2017-08-31 2018-01-09 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
CN108122200A (zh) * 2017-12-20 2018-06-05 宁波视睿迪光电有限公司 图像拼接方法以及装置
CN108830855A (zh) * 2018-04-02 2018-11-16 华南理工大学 一种基于多尺度低层特征融合的全卷积网络语义分割方法
CN108961159A (zh) * 2017-05-23 2018-12-07 北京微美云息软件有限公司 应用于光场成像的图像拼接方法
CN109308678A (zh) * 2017-07-28 2019-02-05 株式会社理光 利用全景图像进行重定位的方法、装置及设备
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络系统
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106356757B (zh) * 2016-08-11 2018-03-20 河海大学常州校区 一种基于人眼视觉特性的电力线路无人机巡检方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714689B1 (en) * 1995-09-29 2004-03-30 Canon Kabushiki Kaisha Image synthesizing method
CN106940876A (zh) * 2017-02-21 2017-07-11 华东师范大学 一种基于surf的快速无人机航拍图像拼接算法
CN108961159A (zh) * 2017-05-23 2018-12-07 北京微美云息软件有限公司 应用于光场成像的图像拼接方法
CN109308678A (zh) * 2017-07-28 2019-02-05 株式会社理光 利用全景图像进行重定位的方法、装置及设备
CN107563438A (zh) * 2017-08-31 2018-01-09 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络系统
CN108122200A (zh) * 2017-12-20 2018-06-05 宁波视睿迪光电有限公司 图像拼接方法以及装置
CN108830855A (zh) * 2018-04-02 2018-11-16 华南理工大学 一种基于多尺度低层特征融合的全卷积网络语义分割方法
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
改进的基于深度卷积网的图像匹配算法;雷鸣;刘传才;;计算机系统应用(第01期);全文 *

Also Published As

Publication number Publication date
CN112258561A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
US11847805B2 (en) Method for stitching images of capsule endoscope, electronic device and readable storage medium
CN105631880B (zh) 车道线分割方法和装置
US20140133741A1 (en) Device for generating three dimensional feature data, method for generating three-dimensional feature data, and recording medium on which program for generating three-dimensional feature data is recorded
US8666170B2 (en) Computer system and method of matching for images and graphs
CN111461036B (zh) 一种利用背景建模增强数据的实时行人检测方法
CN111860494A (zh) 图像目标检测的优化方法、装置、电子设备和存储介质
CN105678318A (zh) 交通标牌的匹配方法及装置
CN113159043A (zh) 基于语义信息的特征点匹配方法及系统
CN105095362A (zh) 一种基于目标对象的图像显示方法和装置
CN115937552A (zh) 一种基于融合手工特征与深度特征的图像匹配方法
CA3236016A1 (en) Three-dimensional building model generation based on classification of image elements
CN113095371A (zh) 一种面向三维重建的特征点匹配方法及系统
CN112258561B (zh) 针对图像拼接的匹配点获取方法
CN109993718A (zh) 一种多通道投影图像融合方法及装置
CN111738061A (zh) 基于区域特征提取的双目视觉立体匹配方法及存储介质
CN111062384A (zh) 一种基于深度学习的车窗精确定位方法
CN109993695A (zh) 一种不规则图形标注的图像碎片拼接方法及系统
CN111260755B (zh) 基于深度学习与数字图像处理的数字扎染图案生成方法
CN111797934A (zh) 路标识别方法及装置
CN115731458A (zh) 一种遥感影像的处理方法、装置和电子设备
CN112381747A (zh) 基于轮廓特征点的太赫兹与可见光图像配准方法及装置
CN114821677B (zh) 一种人体检测方法、装置、存储介质及客流统计相机
CN105139428A (zh) 一种基于四元数的彩色图像surf特征描述方法和系统
JP2005173128A (ja) 輪郭形状抽出装置
CN105574876B (zh) 一种基于标签语义推理的自然图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant