CN103208096A - 基于缩小及局部的多时相图像快速自动排序拼合方法 - Google Patents
基于缩小及局部的多时相图像快速自动排序拼合方法 Download PDFInfo
- Publication number
- CN103208096A CN103208096A CN2013101506552A CN201310150655A CN103208096A CN 103208096 A CN103208096 A CN 103208096A CN 2013101506552 A CN2013101506552 A CN 2013101506552A CN 201310150655 A CN201310150655 A CN 201310150655A CN 103208096 A CN103208096 A CN 103208096A
- Authority
- CN
- China
- Prior art keywords
- image
- cloth
- width
- multidate
- carry out
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明设计多时相图像的拼合领域,特别是基于缩小及局部的多时相图像快速自动排序拼合方法。本发明针对多时相图像的局部特征点提取,仅对图像的局部提取SURF特征点,并参与匹配。在图像定位排序的过程中,已经获得相邻图像的变换矩阵,故而,在图像排序定位的过程中,同时进行图像的拼接融合。即完成一个边排序边拼接融合的算法过程。将图像的排序和拼接融合糅合到一起,有助于减少多时相图像的全景拼合时间,提高多时相图像拼合的实时性。
Description
技术领域
本发明设计多时相图像的拼合领域,特别是基于缩小及局部的多时相图像快速自动排序拼合方法。
背景技术
多时相图像排序拼合的基础,是图像间的配准问题。目前,应用较为广泛的基于特征匹配的图像配准方法,主要是SIFT(ScaleInvariantFeatureTransform)和SURF(SpeededUpRobustFeatures)匹配方法。SIFT算法通过提取待配准图像的特征点极其特征描述子,并对其进行两两比较,找到合适的特征点对,建立图像间的对应关系。而SURF算法是SIFT算法的加速版,在opencv中封装的SURF算法,可以在适中的条件下完成两幅图像中物体的匹配基本实现了实时处理,是目前应用较为广泛的特征配准算法。
但是两幅图像的匹配,已经不能满足人们生活工作的需要。在视景合成、对地观测、虚拟现实、遥感、医学等越来越多的领域,我们需要将更多的图像拼接融合到一起,形成一幅更能全面描述场景内容信息的全景图。这个过程即被称为多时相图像的自动拼合。
为了正确拼合出全景图像,要求相邻两幅图像间要有一定的重叠区域,即待拼合的多时相图像在拼合之前,需要是按照实际场景内容的顺序排列的。但是在实际应用中,由于拍摄、存储和处理等过程的影响,图像的排列顺序可能会变得混乱,致使对多时相图像不能直接进行全景图像的拼接。因而,多时相图像的排序问题便成为全景图拼接过程中至关重要的问题。而现有的图像拼接算法和商用全景图拼接软件,除了对次序混乱的图像多时相根据实际场景内容的顺序来进行手动排序外,主要有两种排序算法:即相位相关法和特征匹配关系排序法。
基于相位相关的多时相排序方法,用来对多时相图像进行自动排序和计算平移量。该方法即利用归一化的互功率谱,计算出图像间的相位相关度,作为图像两两之间是否重叠的判断准则,通过最大相关度求交自动确定头尾图像,再利用平移量确定整个图像链中各图像的位置关系。该方法具有较高的实时性和稳健性。但是针对相似性较大的待排序多时相图像,如草地、森林等,由于其图像间的互功率谱峰值较多,无法准确地确定图像间的顺序关系,所以相位相关法并不能准确的对图像进行排序。
利用图像间SURF特征点匹配关系的排序方法,需要首先完成对每幅图像的SURF特征点的提取,以获取两两图像间特征点对的对应关系,并以此判断图像间是否有顺序关系及相应的位移。虽然SURF相对于SIFT,对图像提取的特征点数已经有所减少,但是在大图中,SURF特征点的数量仍相当可观,故而速度也相对较慢实时性比较差。EdwardY.Chang等人提出对图像的特征点较为密集的地方进行筛选,只留下部分特征点参与特征点的匹配。这在一定程度上可以缓解大图排序拼接的耗时,但是会造成一定的不稳定性。并且,对特征点的剔除,也是一个相对复杂的过程,实时性提高不大。并且,可用于匹配拼接的特征点相对集中于图像的边缘,相对重叠率高达50%的多时相图像,可用于匹配的特征点也仅仅集中于图像的一半区域内,对整幅图像提取特征点再进行特征点对的匹配,耗时就会增长。
基于此,现有的多时相图像拼接算法,速度都相对较慢,尤其对于图像较大的图像。由于图像越大特征点就越大,多时相大图的排序拼合就面临着速度和精度方面的问题。
发明内容
本发明的目的是提供一种基于缩小及局部的多时相图像快速自动排序拼合方法,以便通过图像缩小和局部区域提取特征点的方式,来提高单多行多时相图像排序拼合的鲁棒性、稳定性和实时性。
本发明的技术方案是,基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:包括如下步骤:
步骤101:开始基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程;
步骤102:导入N幅顺序混乱的多时相图像;
步骤103:判断导入的N幅图像的尺寸大小,若图像尺寸过大,则进行步骤104,否则直接进行步骤105;
步骤104:对过大的导入图像进行缩小,按照同一个缩小比率scale,缩小后的图像尺寸不小于200*200即可,缩小的过小,会造成缩小图像的分辨率过小,从而影响匹配精度;
步骤105:对缩小图像或较小的原图,进行左右关系的SURF特征提取和匹配,通过特征点的匹配数目和大小关系,确定多时相图像的行数和列数;
步骤106:基于步骤105的操作,依据图像SURF特征点对的关系,辨别出属于第一列的图像,并对其进行记录;
步骤107:对步骤106中记录的第一列图像,进行上下关系的SURF特征提取和匹配,通过两两图像间的匹配关系,确定出首幅图;
步骤108:通过与首幅图的上下关系,可判断出首列图像间的排序关系、匹配关系及相邻图像间用于拼合的变换矩阵,并记录上下图像间的纵向位移量;以首列图像与其他图像间的左右关系,可同时确定行图像间的多时相关系及相应变换矩阵,同时记录左右图像间的横向位移量;
步骤109:依据步骤108得到的图像多时相及两两图像间的变换矩阵,对多行图像进行拼接融合;
步骤110:依据步骤108获取的图像间的横向和纵向位移量,得到结果图像的实际大小,以此得到大小及分辨率都合适的结果图;
步骤111:基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程结束。
所述的步骤105,包括如下步骤:
步骤201:开始行数列数的确定过程;
步骤202:定义序数K=0,行数h=0,以便开始循环过程;
步骤203:对第K幅图像提取左半部分图像中的局部SURF特征点,并标记为P1;
步骤204:对第K幅以外的图像依次提取局部特征点,并标记为P2、P3……这里用到的局部,需和步骤203中第K幅图像的局部不同,应为右半部分图像的局部;
步骤205:使用图像特征点匹配方法,将特征点P1与P2、P3……依次进行匹配;
步骤206:判断特征点P1与P2、P3……是否有匹配的,若有,进行步骤207,若都不匹配,则进行步骤208;
步骤207:序号K进位加1;
步骤208:确定第K幅图像为某一行的首副图,即为首列图中的一幅,对其做出标记,行数h确定进一位,序数K进一位;
步骤209:判断序数K是否满足条件,即判断第K幅图是否存在,若是进行步骤203,否则进行步骤210;
步骤210:轮询结束,可以得知多行多时相图像的行数为h,则列数即为多时相图像总数n与h的比值;
步骤211:行列数的判断过程结束。
所述步骤107,包括如下步骤:
步骤301:开始首幅图的定位过程;
步骤302:定义序号K,并赋值为零;
步骤303:对第K幅图,提取局部特征点,标记为P1;
步骤304:依次提取其他图像的局部特征点,并顺序标记为P2、P3……Ph,其中h为多时相图像的行数,由步骤210获取;
步骤305:将特征点P1依次与P2、P3……Ph进行匹配,匹配算法可选择经典的SURF特征点二次匹配算法,以得到较高精度;
步骤306:判断P1在步骤305中依次进行的匹配过程是否有成功匹配,若有,进行步骤308,否则进行步骤307;
步骤307:在P1与P2、P3……Ph都不匹配的情况下,可以确定第K幅图即为首幅图;
步骤308:将K进位加1;
步骤309:判断K所代表的图像是否仍在第一列图像当中,若是,进行步骤303,否则进行步骤310;
步骤310:首幅图的定位失败,即证明多时相图像的行数判断是错误的,需要重新进行步骤105判断;
步骤311:结束首幅图的定位过程。
所述步骤108,具有如下步骤:
步骤401:开始本流程图的定位过程;
步骤402:提取首幅图的局部特征点P,依次提取非首列图像的局部特征点并与P匹配,记录和定位首行图像的顺序,并记录相应变换矩阵;
步骤403:定义序号K=2,作为循环标志;
步骤404:在首列图像中,依据第(K-1)行图像的首幅图,通过缩小局部特征点的匹配关系,定位第K行图像的首幅图,并记录相应变换矩阵;
步骤405:采用与步骤402同样的方法,定位第K行图像的顺序,并记录相应变换矩阵;
步骤406:将K进位加1,进行下一轮循环;
步骤407:判断当前K是否大于h,其中h表示所获取行数,若是,进行步骤408,否则,可以继续进行轮询,进行步骤404;
步骤408:结束本流程图对多时相图像的顺序定位过程。
所述步骤402,具有如下步骤:
步骤501:开始单行图像的匹配过程;
步骤502:将当前行首幅图定位为当前图,提取其局部特征点,标记为P1;
步骤503:将其他未定位图像依次作为当前图的待匹配图,提取其局部特征点,并分别标记为:P2……Pn,其中n为未匹配定位图的个数;
步骤504:将当前图的特征点P1依次与待匹配图像的特征点P2……Pn进行匹配,可以与P1匹配的Pi所代表的图n,则为与首幅图有重叠区域的图像,即应该为第二幅图,同时,P1与Pi+1……Pn的匹配过程结束;
步骤505:记录Pi所代表的图n,并记录P1与Pi匹配后,获取的变换矩阵;
步骤506:从变换矩阵中获取当前图和Pi所代表图像的相对位移量,所有的相对位移量相加,结合首幅图的尺寸,可以得到整幅拼合图像的尺寸大小,便于对完整拼合图进行尺寸估计;
步骤507:判断对当前行定位的图像,包含首幅图,是否已经达到m幅,其中m代表步骤105中所获取的列数,若是i进行步骤509,否则进行步骤508;
步骤508:将图n作为当前图,进行下一轮循环判断;
步骤509:结束当前行所有图像的排序和定位判断。
本发明的优点是:本发明选择对图像缩小后,再进行特征点提取等操作,提供拼合效果质量,对多时相大图间的匹配拼合,可以在大大缩小拼合时间的同时,保持相当精度。
本发明针对多时相图像的局部特征点提取,仅对图像的局部提取SURF特征点,并参与匹配。在图像定位排序的过程中,已经获得相邻图像的变换矩阵,故而,在图像排序定位的过程中,同时进行图像的拼接融合。即完成一个边排序边拼接融合的算法过程。将图像的排序和拼接融合糅合到一起,有助于减少多时相图像的全景拼合时间,提高多时相图像拼合的实时性。
附图说明
图1基于SURF的多行多时相图像快速排序拼合主流程图;
图2行列数定位流程图;
图3首幅图定位流程图;
图4首列图像定位流程图;
图5单行图像定位匹配流程图。
具体实施方式
基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:首先对多时相序列大图进行缩小操作,缩小倍数任意,但是要求所有图像的缩小倍数一致,并且缩小后,小图像的尺寸不能小于200*200;其次,对缩小图像提取局部SURF特征点,依据局部特征点的匹配特性,判断小图像间的顺序关系和变换矩阵;然后,将小图所得顺序应用到原大图,并将相应的变换矩阵映射到大图,对大图进行拼接,通过融合之后,既得大图像的快速自动拼合结果图。
如图1所示。
主流程图步骤特征是:
步骤101:开始基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程;
步骤102:导入N幅顺序混乱的多时相图像;
步骤103:判断导入的N幅图像的尺寸大小,若图像尺寸过大,则进行步骤104,否则直接进行步骤105;
步骤104:对过大的导入图像进行缩小,按照同一个缩小比率scale,缩小后的图像尺寸不小于200*200即可,缩小的过小,会造成缩小图像的分辨率过小,从而影响匹配精度;
步骤105:对缩小图像或较小的原图,进行左右关系的SURF特征提取和匹配,通过特征点的匹配数目和大小关系,确定多时相图像的行数和列数;
步骤106:基于步骤105的操作,依据图像SURF特征点对的关系,辨别出属于第一列的图像,并对其进行记录;
步骤107:对步骤106中记录的第一列图像,进行上下关系的SURF特征提取和匹配,通过两两图像间的匹配关系,确定出首幅图;
步骤108:通过与首幅图的上下关系,可判断出首列图像间的排序关系、匹配关系及相邻图像间用于拼合的变换矩阵,并记录上下图像间的纵向位移量;以首列图像与其他图像间的左右关系,可同时确定行图像间的多时相关系及相应变换矩阵,同时记录左右图像间的横向位移量;
步骤109:依据步骤108得到的图像多时相及两两图像间的变换矩阵,对多行图像进行拼接融合;
步骤110:依据步骤108获取的图像间的横向和纵向位移量,得到结果图像的实际大小,以此得到大小及分辨率都合适的结果图;
步骤111:基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程结束。
如图2所示,
所述步骤105,包括如下步骤,其特征是:
步骤201:开始行数列数的确定过程;
步骤202:定义序数K=0,行数h=0,以便开始循环过程;
步骤203:对第K幅图像提取左半部分图像中的局部SURF特征点,并标记为P1;
步骤204:对第K幅以外的图像依次提取局部特征点,并标记为P2、P3……这里用到的局部,需和步骤203中第K幅图像的局部不同,应为右半部分图像的局部;
步骤205:使用图像特征点匹配方法,将特征点P1与P2、P3……依次进行匹配;
步骤206:判断特征点P1与P2、P3……是否有匹配的,若有,进行步骤207,若都不匹配,则进行步骤208;
步骤207:序号K进位加1;
步骤208:确定第K幅图像为某一行的首副图,即为首列图中的一幅,对其做出标记,行数h确定进一位,序数K进一位;
步骤209:判断序数K是否满足条件,即判断第K幅图是否存在,若是进行步骤203,否则进行步骤210;
步骤210:轮询结束,可以得知多行多时相图像的行数为h,则列数即为多时相图像总数n与h的比值;
步骤211:行列数的判断过程结束;
如图3所示,
所述步骤107,包括如下步骤,其特征如下:
步骤301:开始首幅图的定位过程;
步骤302:定义序号K,并赋值为零;
步骤303:对第K幅图,提取局部特征点,标记为P1;
步骤304:依次提取其他图像的局部特征点,并顺序标记为P2、P3……Ph,其中h为多时相图像的行数,由步骤210获取;
步骤305:将特征点P1依次与P2、P3……Ph进行匹配,匹配算法可选择经典的SURF特征点二次匹配算法,以得到较高精度;
步骤306:判断P1在步骤305中依次进行的匹配过程是否有成功匹配,若有,进行步骤308,否则进行步骤307;
步骤307:在P1与P2、P3……Ph都不匹配的情况下,可以确定第K幅图即为首幅图;
步骤308:将K进位加1;
步骤309:判断K所代表的图像是否仍在第一列图像当中,若是,进行步骤303,否则进行步骤310;
步骤310:首幅图的定位失败,即证明多时相图像的行数判断是错误的,需要重新进行步骤105判断;
步骤311:结束首幅图的定位过程;
如图4所示,
所述步骤108,具有如下步骤,其特征是:
步骤401:开始本流程图的定位过程;
步骤402:提取首幅图的局部特征点P,依次提取非首列图像的局部特征点并与P匹配,记录和定位首行图像的顺序,并记录相应变换矩阵;
步骤403:定义序号K=2,作为循环标志;
步骤404:在首列图像中,依据第(K-1)行图像的首幅图,通过缩小局部特征点的匹配关系,定位第K行图像的首幅图,并记录相应变换矩阵;
步骤405:采用与步骤402同样的方法,定位第K行图像的顺序,并记录相应变换矩阵;
步骤406:将K进位加1,进行下一轮循环;
步骤407:判断当前K是否大于h,其中h表示所获取行数,若是,进行步骤408,否则,可以继续进行轮询,进行步骤404;
步骤408:结束本流程图对多时相图像的顺序定位过程;
如图5所示,
所述步骤402,具有如下步骤,其特征是:
步骤501:开始单行图像的匹配过程;
步骤502:将当前行首幅图定位为当前图,提取其局部特征点,标记为P1;
步骤503:将其他未定位图像依次作为当前图的待匹配图,提取其局部特征点,并分别标记为:P2……Pn,其中n为未匹配定位图的个数;
步骤504:将当前图的特征点P1依次与待匹配图像的特征点P2……Pn进行匹配,可以与P1匹配的Pi所代表的图n,则为与首幅图有重叠区域的图像,即应该为第二幅图,同时,P1与Pi+1……Pn的匹配过程结束;
步骤505:记录Pi所代表的图n,并记录P1与Pi匹配后,获取的变换矩阵;
步骤506:从变换矩阵中获取当前图和Pi所代表图像的相对位移量,所有的相对位移量相加,结合首幅图的尺寸,可以得到整幅拼合图像的尺寸大小,便于对完整拼合图进行尺寸估计;
步骤507:判断对当前行定位的图像,包含首幅图,是否已经达到m幅,其中m代表步骤105中所获取的列数,若是i进行步骤509,否则进行步骤508;
步骤508:将图n作为当前图,进行下一轮循环判断;
步骤509:结束当前行所有图像的排序和定位判断。
本发明选择对图像缩小后,再进行特征点提取等操作。为方便图像匹配后,将变换矩阵应用到大图,需要所有图像的缩小率一致。而图像过小,会导致特征点的锐减,不利于图像匹配拼接的精确性。故而,如果多时相序列图像中,有部分图像的尺寸较小,则缩小后的拼合效果不佳。
同时,本算法适用于多时相大图间的匹配拼合,可以在大大缩小拼合时间的同时,保持相当精度。
本发明针对多时相图像的局部特征点提取,因为有重叠区域的图像对,其可以参与匹配的特征点都位于重叠区域,故而对整幅图像的特征点提取显得费时又多余。在本发明中,仅对图像的局部提取SURF特征点,并参与匹配。
行首幅图定位时,需要提取当前图的左半幅图像的局部特征点,同时提取待匹配图像的右半幅图像局部特征点,若所有其他图像作为待匹配图像,而结果都不能匹配,则当前图即为首幅图。
在针对行匹配过程中,需要提取当前图的右半部分图像的局部特征点,而待匹配图像提取左半部分图像的局部特征点。
在列图像排序定位过程中,需要提取当前图像的下半幅图像的局部特征点,待匹配图像则提取上半幅图像的局部特征点。
在图像定位排序的过程中,已经获得相邻图像的变换矩阵,故而,在图像排序定位的过程中,同时可以进行图像的拼接融合。即完成一个边排序边拼接融合的算法过程。将图像的排序和拼接融合糅合到一起,有助于减少多时相图像的全景拼合时间,提高多时相图像拼合的实时性。
首幅图像定位后,可以首先对已经确定的首列乱序图进行排序定位和拼接融合,再依次依据每行的首幅图,对单行图像进行定位排序和拼接融合。
若在已经确定多时相图像为单行的情况下,可以通过设定多时相图像的行数,去除多时相图像行列数定位的过程,更快速的完成对单行多时相图像的快速自动排序拼接融合过程。
同理,若在已经确定多时相图像为单列的情况下,可以通过设定多实现图像的列数,快速完成对单列多时相图像的快速自动排序拼合过程。
只有在多时相图像为多行多列的情况下,每一步都需要严格执行。
本实施例没有详细叙述的部分属本行业的公知的常用手段,这里不一一叙述。
Claims (5)
1.基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:包括如下步骤:
步骤101:开始基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程;
步骤102:导入N幅顺序混乱的多时相图像;
步骤103:判断导入的N幅图像的尺寸大小,若图像尺寸过大,则进行步骤104,否则直接进行步骤105;
步骤104:对过大的导入图像进行缩小,按照同一个缩小比率scale,缩小后的图像尺寸不小于200*200即可,缩小的过小,会造成缩小图像的分辨率过小,从而影响匹配精度;
步骤105:对缩小图像或较小的原图,进行左右关系的SURF特征提取和匹配,通过特征点的匹配数目和大小关系,确定多时相图像的行数和列数;
步骤106:基于步骤105的操作,依据图像SURF特征点对的关系,辨别出属于第一列的图像,并对其进行记录;
步骤107:对步骤106中记录的第一列图像,进行上下关系的SURF特征提取和匹配,通过两两图像间的匹配关系,确定出首幅图;
步骤108:通过与首幅图的上下关系,可判断出首列图像间的排序关系、匹配关系及相邻图像间用于拼合的变换矩阵,并记录上下图像间的纵向位移量;以首列图像与其他图像间的左右关系,可同时确定行图像间的多时相关系及相应变换矩阵,同时记录左右图像间的横向位移量;
步骤109:依据步骤108得到的图像多时相及两两图像间的变换矩阵,对多行图像进行拼接融合;
步骤110:依据步骤108获取的图像间的横向和纵向位移量,得到结果图像的实际大小,以此得到大小及分辨率都合适的结果图;
步骤111:基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程结束。
2.根据权利要求1所述的基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:所述的步骤105,包括如下步骤:
步骤201:开始行数列数的确定过程;
步骤202:定义序数K=0,行数h=0,以便开始循环过程;
步骤203:对第K幅图像提取左半部分图像中的局部SURF特征点,并标记为P1;
步骤204:对第K幅以外的图像依次提取局部特征点,并标记为P2、P3……这里用到的局部,需和步骤203中第K幅图像的局部不同,应为右半部分图像的局部;
步骤205:使用图像特征点匹配方法,将特征点P1与P2、P3……依次进行匹配;
步骤206:判断特征点P1与P2、P3……是否有匹配的,若有,进行步骤207,若都不匹配,则进行步骤208;
步骤207:序号K进位加1;
步骤208:确定第K幅图像为某一行的首副图,即为首列图中的一幅,对其做出标记,行数h确定进一位,序数K进一位;
步骤209:判断序数K是否满足条件,即判断第K幅图是否存在,若是进行步骤203,否则进行步骤210;
步骤210:轮询结束,可以得知多行多时相图像的行数为h,则列数即为多时相图像总数n与h的比值;
步骤211:行列数的判断过程结束。
3.根据权利要求1所述的基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:所述步骤107,包括如下步骤:
步骤301:开始首幅图的定位过程;
步骤302:定义序号K,并赋值为零;
步骤303:对第K幅图,提取局部特征点,标记为P1;
步骤304:依次提取其他图像的局部特征点,并顺序标记为P2、P3……Ph,其中h为多时相图像的行数,由步骤210获取;
步骤305:将特征点P1依次与P2、P3……Ph进行匹配,匹配算法可选择经典的SURF特征点二次匹配算法,以得到较高精度;
步骤306:判断P1在步骤305中依次进行的匹配过程是否有成功匹配,若有,进行步骤308,否则进行步骤307;
步骤307:在P1与P2、P3……Ph都不匹配的情况下,可以确定第K幅图即为首幅图;
步骤308:将K进位加1;
步骤309:判断K所代表的图像是否仍在第一列图像当中,若是,进行步骤303,否则进行步骤310;
步骤310:首幅图的定位失败,即证明多时相图像的行数判断是错误的,需要重新进行步骤105判断;
步骤311:结束首幅图的定位过程。
4.根据权利要求1所述的基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:所述步骤108,具有如下步骤:
步骤401:开始本流程图的定位过程;
步骤402:提取首幅图的局部特征点P,依次提取非首列图像的局部特征点并与P匹配,记录和定位首行图像的顺序,并记录相应变换矩阵;
步骤403:定义序号K=2,作为循环标志;
步骤404:在首列图像中,依据第(K-1)行图像的首幅图,通过缩小局部特征点的匹配关系,定位第K行图像的首幅图,并记录相应变换矩阵;
步骤405:采用与步骤402同样的方法,定位第K行图像的顺序,并记录相应变换矩阵;
步骤406:将K进位加1,进行下一轮循环;
步骤407:判断当前K是否大于h,其中h表示所获取行数,若是,进行步骤408,否则,可以继续进行轮询,进行步骤404;
步骤408:结束本流程图对多时相图像的顺序定位过程。
5.根据权利要求4所述的基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:所述步骤402,具有如下步骤:
步骤501:开始单行图像的匹配过程;
步骤502:将当前行首幅图定位为当前图,提取其局部特征点,标记为P1;
步骤503:将其他未定位图像依次作为当前图的待匹配图,提取其局部特征点,并分别标记为:P2……Pn,其中n为未匹配定位图的个数;
步骤504:将当前图的特征点P1依次与待匹配图像的特征点P2……Pn进行匹配,可以与P1匹配的Pi所代表的图n,则为与首幅图有重叠区域的图像,即应该为第二幅图,同时,P1与Pi+1……Pn的匹配过程结束;
步骤505:记录Pi所代表的图n,并记录P1与Pi匹配后,获取的变换矩阵;
步骤506:从变换矩阵中获取当前图和Pi所代表图像的相对位移量,所有的相对位移量相加,结合首幅图的尺寸,可以得到整幅拼合图像的尺寸大小,便于对完整拼合图进行尺寸估计;
步骤507:判断对当前行定位的图像,包含首幅图,是否已经达到m幅,其中m代表步骤105中所获取的列数,若是i进行步骤509,否则进行步骤508;
步骤508:将图n作为当前图,进行下一轮循环判断;
步骤509:结束当前行所有图像的排序和定位判断。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310150655.2A CN103208096B (zh) | 2013-04-26 | 2013-04-26 | 基于缩小及局部的多时相图像快速自动排序拼合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310150655.2A CN103208096B (zh) | 2013-04-26 | 2013-04-26 | 基于缩小及局部的多时相图像快速自动排序拼合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103208096A true CN103208096A (zh) | 2013-07-17 |
CN103208096B CN103208096B (zh) | 2016-02-24 |
Family
ID=48755313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310150655.2A Expired - Fee Related CN103208096B (zh) | 2013-04-26 | 2013-04-26 | 基于缩小及局部的多时相图像快速自动排序拼合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103208096B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103390275A (zh) * | 2013-07-19 | 2013-11-13 | 香港应用科技研究院有限公司 | 动态图像拼接的方法 |
CN107071281A (zh) * | 2017-04-19 | 2017-08-18 | 珠海市魅族科技有限公司 | 全景拍摄方法及装置 |
CN108399678A (zh) * | 2017-02-07 | 2018-08-14 | 深圳怡化电脑股份有限公司 | 一种纸币鉴伪的方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009110410A1 (ja) * | 2008-03-04 | 2009-09-11 | 日本電気株式会社 | 画像照合装置、画像照合用特徴量格納記憶媒体、画像照合方法および画像照合用プログラム |
CN101556695A (zh) * | 2009-05-15 | 2009-10-14 | 广东工业大学 | 一种图像匹配方法 |
-
2013
- 2013-04-26 CN CN201310150655.2A patent/CN103208096B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009110410A1 (ja) * | 2008-03-04 | 2009-09-11 | 日本電気株式会社 | 画像照合装置、画像照合用特徴量格納記憶媒体、画像照合方法および画像照合用プログラム |
CN101556695A (zh) * | 2009-05-15 | 2009-10-14 | 广东工业大学 | 一种图像匹配方法 |
Non-Patent Citations (1)
Title |
---|
陈丽莉,刘贵喜: "《一种有效的序列图像自动拼接方法》", 《光电子·激光》, vol. 22, no. 7, 31 July 2011 (2011-07-31) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103390275A (zh) * | 2013-07-19 | 2013-11-13 | 香港应用科技研究院有限公司 | 动态图像拼接的方法 |
CN103390275B (zh) * | 2013-07-19 | 2016-03-30 | 香港应用科技研究院有限公司 | 动态图像拼接的方法 |
CN108399678A (zh) * | 2017-02-07 | 2018-08-14 | 深圳怡化电脑股份有限公司 | 一种纸币鉴伪的方法及装置 |
CN108399678B (zh) * | 2017-02-07 | 2020-09-22 | 深圳怡化电脑股份有限公司 | 一种纸币鉴伪的方法及装置 |
CN107071281A (zh) * | 2017-04-19 | 2017-08-18 | 珠海市魅族科技有限公司 | 全景拍摄方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103208096B (zh) | 2016-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Radenović et al. | Revisiting oxford and paris: Large-scale image retrieval benchmarking | |
CN100501742C (zh) | 表示图像组的方法和装置 | |
CN101770578B (zh) | 图像特征提取方法 | |
CN109034159A (zh) | 图像信息提取方法和装置 | |
CN101533513B (zh) | 基于双视几何的图片伪造检测方法 | |
CN104584071B (zh) | 物体识别装置、物体识别方法 | |
CN105447047A (zh) | 建立拍照模板数据库、提供拍照推荐信息的方法及装置 | |
Nocerino et al. | 3D reconstruction with a collaborative approach based on smartphones and a cloud-based server | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN103208096A (zh) | 基于缩小及局部的多时相图像快速自动排序拼合方法 | |
TW201710931A (zh) | 光場資料庫中資料擷取之方法及裝置 | |
CN103260043A (zh) | 基于学习的双目立体图像匹配方法及系统 | |
CN115272077A (zh) | 一种基于视域融合的图像拼接方法及系统 | |
JP5536124B2 (ja) | 画像処理システム及び画像処理方法 | |
CN107133260A (zh) | 一种地标图像的匹配识别方法和装置 | |
CN112270748A (zh) | 基于图像的三维重建方法及装置 | |
Huang et al. | Real time complete dense depth reconstruction for a monocular camera | |
CN109493279A (zh) | 一种大规模无人机图像并行拼接方法 | |
JP2981382B2 (ja) | パターンマッチング方法 | |
JP4683238B2 (ja) | オブジェクト認識装置、オブジェクト認識方法、およびオブジェクト認識プログラム | |
Alam et al. | A comparative analysis of feature extraction algorithms for augmented reality applications | |
CN103198294B (zh) | 一种视频或图像视点类型的识别方法 | |
CN108364276B (zh) | 基于标签数据库的纹理图像合成方法 | |
CN111935417A (zh) | 基于多尺度相机阵列的分级视频拼接方法及装置 | |
Rothganger et al. | 3D object modeling and recognition from photographs and image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160224 Termination date: 20210426 |