CN111105351B - 一种视频序列影像拼接方法及装置 - Google Patents
一种视频序列影像拼接方法及装置 Download PDFInfo
- Publication number
- CN111105351B CN111105351B CN201911282869.9A CN201911282869A CN111105351B CN 111105351 B CN111105351 B CN 111105351B CN 201911282869 A CN201911282869 A CN 201911282869A CN 111105351 B CN111105351 B CN 111105351B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- weight value
- points
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000012545 processing Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 abstract description 14
- 230000008569 process Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种视频序列影像拼接方法及装置,其中,所述方法通过获取第一影像和第二影像;对第一影像进行SIFT特征点的检测,获得多个第一特征点,对第二影像进行SIFT特征点的检测,获得多个第二特征点;基于第一特征点与第二特征点,确定第一影像与第二影像融合时的重叠区域;对重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;在每个像素重叠位置基于第一像素的像素值、第一权重值、第二像素的像素值以及第二权重值对第一影像和第二影像进行拼接,获得拼接影像。本发明避免产生鬼影、重影和错位等,同时还避免重叠区域融合后图像失真。
Description
技术领域
本发明涉及数字图像处理与模式识别技术领域,尤其涉及一种视频序列影像拼接方法及装置。
背景技术
在视频监控、虚拟现实、测绘遥感、智能交通、机器人视觉等领域,需要通过扩大传感器的感受范围,这不仅提高了系统对于周围世界的感知能力,也增强系统的适用性。然而,单幅小场景的影像的视野受到限制,已经无法满足现代社区监控、虚拟体验、航空监测、自动控制等实际应用需求。鱼眼镜头、广角镜头、专用全景相机等虽然能够获得广角的大场景影像,但是这些设备价格昂贵、失真严重、使用复杂,无法较好的满足实际需求。
而数字图像拼接技术为解决大场景影像的采集问题,提供了很好的解决方案。图像拼接就是将两幅或者多幅有重叠区域的影像序列,通过影像投影、影像配准、影像融合等处理,最终拼接形成一幅具有更大视场的影像。由于其解决了视野与分辨率的矛盾问题,因而它已经成为了图像处理领域的一个热点问题。在图像拼接中,图像配准是整个拼接技术体系中的核心技术,按照图像配准方法的不同,可以将图像拼接技术分为基于特征的方法和基于光流的方法(非特征)两大类。与基于光流的方法相比,基于特征的方法是提取影像中的点、线、形状等特征进行后续计算,避免了全部影像像素参与计算,节约了存储空间和计算时间,具有较高的计算效率。但目前在无人机、机器视觉等领域中视频序列往往是多方向的,不规则的向不同方向的录制视频,这无疑增加了图像拼接的难度。
由以上的分析可以看出,基于视频序列的影像拼接为大场景数据的获取提供了较好的解决方案。然而,现有的图像拼接手段特征提取、影响融合等控制不够精确,容易导致拼接后生成的图像产生重影、错位以及图像失真等,难以适用到这类多方向的图像拼接中。
发明内容
鉴于上述问题,本发明提出了一种视频序列影像拼接方法,避免了图像拼接过程中产生鬼影、重影和错位,同时避免了重叠区域融合后的图像失真。
第一方面,本申请通过一实施例提供如下技术方案:
一种视频序列影像拼接方法,所述方法包括:
获取第一影像和第二影像;
对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;
对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
优选地,所述基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域,包括:
基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
优选地,所述基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集,包括:
基于所述第一K-D树模型,并采用最优节点优先策略搜索所述第一特征点的近邻点,获得第一粗匹配点集。
优选地,所述将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域,包括:
基于RANSAC算法删除所述第一粗匹配点集中的外点,获得第一精匹配点集;
基于RANSAC算法删除所述第二粗匹配点集中的外点,获得第二精匹配点集;
将所述第一精匹配点集中的像素点与所述第二精匹配点集中的像素点进行匹配,获得所述重叠区域。
优选地,所述对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值,包括:
获取所述每个像素重叠位置与所述重叠区域的边界之间的距离;
基于所述距离的大小对所述每个像素重叠位置的第一像素和第二像素进行线性分配权重,获得第一权重值和第二权重值。
优选地,所述基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域,包括:
获取所述第一影像至所述第二影像的拍摄方向;其中,所述第一影像的时序先于所述第二影像;
基于所述第一特征点与所述第二特征点,将所述第二影像在所述第一影像的拍摄方向的一方进行匹配,获得所述重叠区域。
优选地,在所述对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点之前,还包括:
对所述第一影像和所述第二影像均进行灰度归一化处理和/或柱面投影变换。
第二方面,基于同一发明构思,本申请通过一实施例提供如下技术方案:
一种视频序列影像拼接装置,所述装置包括:
获取模块,用于获取第一影像和第二影像;
特征点处理模块,用于对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
重叠匹配模块,用于基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;
权重分配模块,用于对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
拼接模块,用于在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
优选地,所述重叠匹配模块,还用于:
基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
第三方面,基于同一发明构思,本申请通过一实施例提供如下技术方案:
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一方面中任一项所述方法的步骤。
本实施例中提供的一种视频序列影像拼接方法及装置,其中方法通过获取第一影像和第二影像;然后,对第一影像进行SIFT特征点的检测,获得多个第一特征点,对第二影像进行SIFT特征点的检测,获得多个第二特征点;再基于第一特征点与第二特征点,确定第一影像与第二影像融合时的重叠区域;对重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,第一权重值与第二权重值之和为1。最后,在每个像素重叠位置基于第一像素的像素值、第一权重值、第二像素的像素值以及第二权重值对第一影像和第二影像进行拼接,获得拼接影像。这样在拼接的过程中将首先通过SIFT特征点的检测保证重叠区域的确定准确,避免产生鬼影、重影和错位等,然后经过权重分配对重叠区域进行融合融合过程中采用加权融合,且权重值之和为1,实现重叠区域的柔和过渡,避免重叠区域融合后图像失真。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明第一实施例提供的一种视频序列影像拼接方法的方法流程图;
图2示出了本发明第一实施例中第一权重值和第二权重值得变化关系示意图;
图3示出了本发明第一实施例中不同拼接方向的拼接示意图;
图4示出了本发明第一实施例中通过方向按键进行拼接控制的流程图;
图5示出了本发明第二实施例中提供的一种视频序列影像拼接装置的功能模块图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
第一实施例
请参见图1,示出了本发明第一实施例提供的一种视频序列影像拼接方法的方法流程图。具体的所述方法包括:
步骤S10:获取第一影像和第二影像;
步骤S20:对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
步骤S30:基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;
步骤S40:对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
步骤S50:在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
在步骤S10中,可为视频序列中的第一影像和第二影像,第一影像和第二影像可为拍摄的视频中相邻的两帧画面,也可以是不相邻的两帧画面,还可以是单独拍摄的两张照片。优选地,可设置一间隔时间来提取第一影像和第二影像。例如在获取一段视频中的第一影像之后,间隔10ms获取第二影像,可降低拼接频率,在大面积的影像拼接过程中提高处理效率;此外,还可由用户直接输入两帧影像作为第一影像和第二影像。在本实施例中不排除采用其他方式获取第一影像和第二影像。
进一步的,由于通过相机传感器采集到的数字影像,由于受到多因素干扰,会产生噪声、畸变等缺陷,这些缺陷如果不及时处理,会造成拼接效果不佳。其次,拍摄视频数据时,拍摄平台以及相机的扰动,会造成图像序列中影像的焦平面不在同一个平面,拼接后会出现旋转角、错位、扭曲变形等问题。为了后续处理更加有效,在步骤S20之前还可对第一影像和第二影像均进行灰度归一化处理和/或柱面投影变换等操作,也可直接对视频序列进行灰度归一化处理和/或柱面投影变换等操作。为后续影像配准和融合作准备,保证影像配准与融合的质量。
步骤S20:对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点。
在步骤S20中,在基于视频数据的大场景拼接过程中,一般采用基于特征的拼接方法。与基于轮廓特征、角点特征的拼接方法相比,在本实施例中基于SIFT尺度不变特征的方法,能够有效解决图像旋转和缩放问题,拼接精度高,具有良好的抗噪性。具体的,第一特征点以及第二特征点可采用128维的特征点描述向量进行表示。
步骤S30:基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域。
在步骤S30中,在本实施例中可通过第一特征点与第二特征点的匹配来寻找重叠区域,为了获取更多的匹配特征点,本实施例提供如下的实施方式。即步骤S30包括:
步骤S31:基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
步骤S32:基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
步骤S33:基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
步骤S34:基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
步骤S35:将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
在步骤S31-S34中,子空间划分的具体逻辑过程为现有的技术手段不再赘述。在搜索第一特征点以及第二特征点的近邻点时可依据最优节点优先策略进行搜索,以提高计算效率,快速的获取到第一粗匹配点集和第二粗匹配点集。
在步骤S35中,匹配过程不作限制。为了进一步的提高匹配的准确行,本实施例中采用RANSAC算法对第一粗匹配点集和第二粗匹配点集进行优化处理,具体如下:
步骤S351:基于RANSAC算法删除所述第一粗匹配点集中的外点,获得第一精匹配点集;
步骤S352:基于RANSAC算法删除所述第二粗匹配点集中的外点,获得第二精匹配点集;
步骤S353:将所述第一精匹配点集中的像素点与所述第二精匹配点集中的像素点进行匹配,获得所述重叠区域。
在步骤S351-S353中,简述RANSAC算法的逻辑过程:在第一粗匹配点集中,随机选取4个特征点;判断4个特征点当中是否存在任意三点共线。若存在,则直接舍弃当前选取的特征点;继续随机选取4对特征点,依据坐标变换模型进行变换矩阵的计算,计算出变换矩阵H;依据变换矩阵H,对其他匹配点进行验证,计算其误差,并判断外点,以及删除外点;重复上述过程至预先设定的最大迭代次数,或者符合设定的内外点的比例,至此模型构建成功。最后,输出所有内点的集合,即去除外点之后的第一精匹配点集。基于同样的过程,获得第二精匹配点集的获取过程,不再赘述。最后实现配准得到重叠区域。
由于第一影像和第二影像之间可能存在非重叠区域面积占比较大,计算机在配准小面积的时候会产生较大的计算量,为此,本实施例通过视频影像的拍摄方向对重叠区域进行估计,从而在估计得区域进行配准以减小计算量,具体如下:
步骤S353a:获取所述第一影像至所述第二影像的拍摄方向;其中,所述第一影像的时序先于所述第二影像;
步骤S353b:基于所述第一特征点与所述第二特征点,将所述第二影像在所述第一影像的拍摄方向的一方进行匹配,获得所述重叠区域。
在步骤S353a中,拍摄方向包括但不限于水平方向,竖直方向以及对角线方向,不限于此。另外,拍摄方向也可由用户进行指定(输入)。
步骤S40:对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像。
本实施例中提供一种步骤S40的具体实现方式:
步骤S41:获取所述每个像素重叠位置与所述重叠区域的边界之间的距离;
步骤S42:基于所述距离的大小对所述每个像素重叠位置的第一像素和第二像素进行线性分配权重,获得第一权重值和第二权重值。
在步骤S41-S42中,对于非重叠区域的每个像素的像素值可不做改变。由于,第一权重值与第二权重值之和为1,同时通过步骤S41-S42可分别对重叠区域的第一影像和第二影像进行线性分配权重,可以保证拼接后的图像可以逐渐过渡,提高拼接效果,避免在图像的重叠区域出现失真。具体的,当一像素的第一权重值根据(与重叠区域的边界)的距离值线性增大时,则该像素的第二权重值就根据(与重叠区域的边界)的距离值线性减小,如图2所示。
步骤S50:在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
在步骤S50中,进行拼接可为采用第一权重值对第一像素进行加权,采用第二权重值对第二像素进行加权,最后计算获得融合后的图像的对应像素重叠位置的像素值,最终得到拼接影像。
为便于理解,以一具体实例进行说明。
本实施例的使用场景可为:在室内、室外环境中,尤其在室内环境中。在某些特殊情况下,如火灾,化学品泄漏等,造成环境不适宜人进入。但是迫于某些急切需求,如需要指挥救灾,灭火等,人们又必须了解室内的环境情况。这时,可派一无人机进入室内。无人机上携带有照相摄像装置。无人机进入室内后,先悬停至某一特定高度。此后固定高度,环绕室内空间飞行拍摄一周。采集完某一高度下全部信息后,下降一高度,后悬停,继续拍摄一周。以此往复,直至拍摄完室内所有环境信息。采集完成后,无人机将所拍摄数据传回至地面,地面根据所采集到的数据,进行图片全景拼接,形成一具有室内环境信息的全景照片。要求每新拍摄一张照片,就时时传回地面完成拼接,而不是待全部图像采集完成后再一并传回并一起进行拼接,传回的照片即可作为第一影像和第二影像进行依次按照本实施例中的方法进行拼接。
依据上述使用场景,在不断读入新采集到的照片,通过模拟无人机飞行方向上-下(竖直方向)、左-右(水平方向),读入飞行方向数据以使系统按照飞行方向进行拼接方向的选择,分别进行水平方向,竖直方向,和部分不规则重合区域(L型)的拼接,其中飞行方向可看作拍摄方向。接着根据拍摄方向进行预测重叠区域,并进行拼接,如水平方向的拼接,竖直方向的拼接,和/或对角线方向的拼接,如图3所示的第一影像A与第二影像B进行的拼接。
进一步的,参阅图4,可通过键盘输入W-A-S-D,分别表示拍摄装置在拍摄第一张照片后,前往下一张图像拍摄位置的运动方向。分别代表了上-下-左-右:Sybol=0:算法初始化状态,此时尚未进行任何拼接过程;Symbol=1:执行水平拼接,如图3(a);Symbol=2:执行竖直拼接,如图3(b);Symbol=3:执行对角线方向拼接,如图3(c)。这样实现了拼接策略的优化处理:无人机飞行的轨迹并非随机的,可以通过获取无人机运动状态信息,确定拍摄方向,预测相邻两幅影像的空间位置关系,进而预测可能的重合区域;进而在第一/第二影像局部(而非整幅影像)进行SIFT特征点检测,实现运算量减少的目的。
在获取拼接图像的过程中,对于第一、第二影像特征点的检测均是独立的,它们之间不存在相互的依赖关系;因而可以采用多线程的方式,并行的对待拼接影像进行特征点检测,加速特征点检测过程;实验证明,特征点检测由串行改为多线程并行之后,处理用时可以节约40%-50%。
在上述应用场景中,若将本方法应用至电脑或工作站中进行使用时,具体实现时可按照如下环境进行开发,其中,操作系统为Microsoft Windows 1064bit,编译环境为Microsoft Visual Studio 2010,开发语言为C++,并采用OpenCV 2.4.9实现对影像的相关处理操作。
本实施例中提供的一种视频序列影像拼接方法,通过获取第一影像和第二影像;然后,对第一影像进行SIFT特征点的检测,获得多个第一特征点,对第二影像进行SIFT特征点的检测,获得多个第二特征点;再基于第一特征点与第二特征点,确定第一影像与第二影像融合时的重叠区域;对重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,第一权重值与第二权重值之和为1。最后,在每个像素重叠位置基于第一像素的像素值、第一权重值、第二像素的像素值以及第二权重值对第一影像和第二影像进行拼接,获得拼接影像。这样在拼接的过程中将首先通过SIFT特征点的检测保证重叠区域的确定准确,避免产生鬼影、重影和错位等,然后经过权重分配对重叠区域进行融合融合过程中采用加权融合,且权重值之和为1,实现重叠区域的柔和过渡,避免重叠区域融合后图像失真。
第二实施例
基于同一发明构思,本发明第二实施例提供了一种视频序列影像拼接装置300。图5示出了本发明第二实施例提供的一种视频序列影像拼接装置300的功能模块框图。
所述装置300包括:
获取模块301,用于获取第一影像和第二影像;
特征点处理模块302,用于对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
重叠匹配模块303,用于基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;
权重分配模块304,用于对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
拼接模块305,用于在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
作为一种可选的实施方式,所述重叠匹配模块303,还用于:
基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
作为一种可选的实施方式,所述重叠匹配模块303,还用于:
基于所述第一K-D树模型,并采用最优节点优先策略搜索所述第一特征点的近邻点,获得第一粗匹配点集。
作为一种可选的实施方式,所述重叠匹配模块303,还用于:
基于RANSAC算法删除所述第一粗匹配点集中的外点,获得第一精匹配点集;
基于RANSAC算法删除所述第二粗匹配点集中的外点,获得第二精匹配点集;
将所述第一精匹配点集中的像素点与所述第二精匹配点集中的像素点进行匹配,获得所述重叠区域。
作为一种可选的实施方式,所述权重分配模块304,具体用于:
获取所述每个像素重叠位置与所述重叠区域的边界之间的距离;
基于所述距离的大小对所述每个像素重叠位置的第一像素和第二像素进行线性分配权重,获得第一权重值和第二权重值。
作为一种可选的实施方式,所述重叠匹配模块303,还用于:
获取所述第一影像至所述第二影像的拍摄方向;其中,所述第一影像的时序先于所述第二影像;
基于所述第一特征点与所述第二特征点,将所述第二影像在所述第一影像的拍摄方向的一方进行匹配,获得所述重叠区域。
作为一种可选的实施方式,还包括预处理模块,用于在所述对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;以及对所述第二影像进行SIFT特征点的检测,获得多个第二特征点之前,
对所述第一影像和所述第二影像均进行灰度归一化处理和/或柱面投影变换。
需要说明的是,本发明实施例所提供的一种视频序列影像拼接装置300,其具体实现及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
于本发明实施例中,用户终端中安装有操作系统以及第三方应用程序。用户终端可以为平板电脑、手机、笔记本电脑、PC(personal computer,个人计算机)、可穿戴设备、车载终端等用户终端设备。
本发明提供的装置集成的功能模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例的方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (9)
1.一种视频序列影像拼接方法,其特征在于,应用于无人机拍摄的影像实时配准,所述方法包括:
获取第一影像和第二影像;
对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;
对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像;
所述基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域,包括:获取所述无人机的运动状态信息,所述运动状态信息包括运动方向;基于所述运动方向,获取所述第一影像至所述第二影像的拍摄方向;其中,所述第一影像的时序先于所述第二影像;基于所述第一特征点与所述第二特征点,将所述第二影像在所述第一影像的拍摄方向的一方进行匹配,获得所述重叠区域。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域,包括:
基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集,包括:
基于所述第一K-D树模型,并采用最优节点优先策略搜索所述第一特征点的近邻点,获得第一粗匹配点集。
4.根据权利要求2所述的方法,其特征在于,所述将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域,包括:
基于RANSAC算法删除所述第一粗匹配点集中的外点,获得第一精匹配点集;
基于RANSAC算法删除所述第二粗匹配点集中的外点,获得第二精匹配点集;
将所述第一精匹配点集中的像素点与所述第二精匹配点集中的像素点进行匹配,获得所述重叠区域。
5.根据权利要求1所述的方法,其特征在于,所述对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值,包括:
获取所述每个像素重叠位置与所述重叠区域的边界之间的距离;
基于所述距离的大小对所述每个像素重叠位置的第一像素和第二像素进行线性分配权重,获得第一权重值和第二权重值。
6.根据权利要求1所述的方法,其特征在于,在所述对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点之前,还包括:
对所述第一影像和所述第二影像均进行灰度归一化处理和/或柱面投影变换。
7.一种视频序列影像拼接装置,其特征在于,应用于无人机拍摄的影像实时配准,所述装置包括:
获取模块,用于获取第一影像和第二影像;
特征点处理模块,用于对所述第一影像进行SIFT特征点的检测,获得多个第一特征点;对所述第二影像进行SIFT特征点的检测,获得多个第二特征点;
重叠匹配模块,用于基于所述第一特征点与所述第二特征点,确定所述第一影像与所述第二影像融合时的重叠区域;还具体用于:获取所述无人机的运动状态信息,所述运动状态信息包括运动方向;基于所述运动方向,获取所述第一影像至所述第二影像的拍摄方向;其中,所述第一影像的时序先于所述第二影像;基于所述第一特征点与所述第二特征点,将所述第二影像在所述第一影像的拍摄方向的一方进行匹配,获得所述重叠区域;
权重分配模块,用于对所述重叠区域中的每个像素重叠位置的第一像素和第二像素分配权重,获得第一权重值和第二权重值;其中,所述第一权重值与所述第二权重值之和为1,所述第一像素和所述第一权重值对应于所述第一影像,所述第二像素和所述第二权重值对应于所述第二影像;
拼接模块,用于在每个所述像素重叠位置基于所述第一像素的像素值、所述第一权重值、所述第二像素的像素值以及所述第二权重值对所述第一影像和所述第二影像进行拼接,获得拼接影像。
8.根据权利要求7所述的装置,其特征在于,所述重叠匹配模块,还用于:
基于所述第一特征点对所述第一影像进行子空间划分,获得第一K-D树模型;
基于所述第一K-D树模型搜索所述第一特征点的近邻点,获得第一粗匹配点集;
基于所述第二特征点对所述第二影像进行子空间划分,获得第二K-D树模型;
基于所述第二K-D树模型搜索所述第二特征点的近邻点,获得第二粗匹配点集;
将所述第一粗匹配点集与所述第二粗匹配点集进行匹配,确定所述重叠区域。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911282869.9A CN111105351B (zh) | 2019-12-13 | 2019-12-13 | 一种视频序列影像拼接方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911282869.9A CN111105351B (zh) | 2019-12-13 | 2019-12-13 | 一种视频序列影像拼接方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111105351A CN111105351A (zh) | 2020-05-05 |
CN111105351B true CN111105351B (zh) | 2023-04-18 |
Family
ID=70421865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911282869.9A Active CN111105351B (zh) | 2019-12-13 | 2019-12-13 | 一种视频序列影像拼接方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111105351B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163562B (zh) * | 2020-10-23 | 2021-10-22 | 珠海大横琴科技发展有限公司 | 一种影像重叠区域计算方法、装置、电子设备及存储介质 |
CN113808059A (zh) * | 2021-09-16 | 2021-12-17 | 北京拙河科技有限公司 | 阵列图像融合方法、装置、介质及设备 |
CN113905190B (zh) * | 2021-09-30 | 2023-03-10 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机视频的全景图实时拼接方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010140513A1 (ja) * | 2009-06-02 | 2010-12-09 | 株式会社トプコン | ステレオ画像撮影装置及びその方法 |
CN102402855A (zh) * | 2011-08-29 | 2012-04-04 | 深圳市蓝盾科技有限公司 | 用于智能交通的双摄像机实时全景视频融合方法及系统 |
CN103955888A (zh) * | 2014-05-12 | 2014-07-30 | 中国人民解放军空军预警学院监控系统工程研究所 | 一种基于sift的高清视频图像拼接方法及装置 |
CN105472372A (zh) * | 2014-09-26 | 2016-04-06 | 三星电子株式会社 | 用于生成3d全景图像的图像生成装置及方法 |
CN106683045A (zh) * | 2016-09-28 | 2017-05-17 | 深圳市优象计算技术有限公司 | 一种基于双目像机的全景图像拼接方法 |
CN108320304A (zh) * | 2017-12-18 | 2018-07-24 | 广州亿航智能技术有限公司 | 一种无人机航拍视频媒体的自动编辑方法与系统 |
CN110246082A (zh) * | 2019-05-07 | 2019-09-17 | 华中科技大学 | 一种遥感全景图像拼接方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070081081A1 (en) * | 2005-10-07 | 2007-04-12 | Cheng Brett A | Automated multi-frame image capture for panorama stitching using motion sensor |
US10275935B2 (en) * | 2014-10-31 | 2019-04-30 | Fyusion, Inc. | System and method for infinite synthetic image generation from multi-directional structured image array |
-
2019
- 2019-12-13 CN CN201911282869.9A patent/CN111105351B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010140513A1 (ja) * | 2009-06-02 | 2010-12-09 | 株式会社トプコン | ステレオ画像撮影装置及びその方法 |
CN102402855A (zh) * | 2011-08-29 | 2012-04-04 | 深圳市蓝盾科技有限公司 | 用于智能交通的双摄像机实时全景视频融合方法及系统 |
CN103955888A (zh) * | 2014-05-12 | 2014-07-30 | 中国人民解放军空军预警学院监控系统工程研究所 | 一种基于sift的高清视频图像拼接方法及装置 |
CN105472372A (zh) * | 2014-09-26 | 2016-04-06 | 三星电子株式会社 | 用于生成3d全景图像的图像生成装置及方法 |
CN106683045A (zh) * | 2016-09-28 | 2017-05-17 | 深圳市优象计算技术有限公司 | 一种基于双目像机的全景图像拼接方法 |
CN108320304A (zh) * | 2017-12-18 | 2018-07-24 | 广州亿航智能技术有限公司 | 一种无人机航拍视频媒体的自动编辑方法与系统 |
CN110246082A (zh) * | 2019-05-07 | 2019-09-17 | 华中科技大学 | 一种遥感全景图像拼接方法 |
Non-Patent Citations (3)
Title |
---|
Rapid generation of full view image based on multi-camera[C]//Ninth International Conference on Graphic and Image Processing;Zeng W X 等;《International Society for Optics and Photonics》;20181231;第76-88页 * |
一种适用于特征稀少零件的图像精确拼接方法;李蓓智 等;《机械设计与制造》;20120118;第1156-1161页 * |
电子稳像算法的速度与精度改进;董常青等;《计算机辅助设计与图形学学报》;20180815(第08期);第1-7页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111105351A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108205797B (zh) | 一种全景视频融合方法及装置 | |
CN108805917B (zh) | 空间定位的方法、介质、装置和计算设备 | |
US10410089B2 (en) | Training assistance using synthetic images | |
CN111105351B (zh) | 一种视频序列影像拼接方法及装置 | |
KR101121034B1 (ko) | 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 | |
CN109815843B (zh) | 图像处理方法及相关产品 | |
CN110033475B (zh) | 一种高分辨率纹理生成的航拍图运动物体检测与消除方法 | |
CN105303514A (zh) | 图像处理方法和装置 | |
JP2007293722A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム | |
CN108875750B (zh) | 物体检测方法、装置和系统及存储介质 | |
CN113689578B (zh) | 一种人体数据集生成方法及装置 | |
CN111383204A (zh) | 视频图像融合方法、融合装置、全景监控系统及存储介质 | |
JP7204021B2 (ja) | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN110689476A (zh) | 全景图像拼接方法及其装置、可读存储介质和电子设备 | |
Pulli et al. | Mobile panoramic imaging system | |
KR102072796B1 (ko) | 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
JP7220784B2 (ja) | 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体 | |
CN111563961A (zh) | 一种变电站的三维建模方法和相关装置 | |
CN110111364A (zh) | 运动检测方法、装置、电子设备及存储介质 | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
CN109587303B (zh) | 电子设备和移动平台 | |
CN110796596A (zh) | 图像拼接方法、成像装置及全景成像系统 | |
CN112150355A (zh) | 一种图像处理方法及相关设备 | |
CN113361552B (zh) | 定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |