CN109671045A - 一种多图像融合方法 - Google Patents
一种多图像融合方法 Download PDFInfo
- Publication number
- CN109671045A CN109671045A CN201811628117.9A CN201811628117A CN109671045A CN 109671045 A CN109671045 A CN 109671045A CN 201811628117 A CN201811628117 A CN 201811628117A CN 109671045 A CN109671045 A CN 109671045A
- Authority
- CN
- China
- Prior art keywords
- image information
- panorama
- obtains
- image
- multiple image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000004826 seaming Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000155 melt Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明涉及图像融合领域,更具体地,涉及一种多图像融合方法,包括获取模块和融合模块,包括以下步骤;S1,通过获取模块分别获取全景图像信息以及全景图像所对应的多画面图像信息;S2,分别对全景图像信息和多画面图像信息进行图像点特征提取;S3,对多画面图像信息作全景中定位设置,得到定位结果;S4,通过定位结果,融合模块对所述多画面图像信息进行融合,形成一幅融合后的图像,本发明公开的多图像融合方法,通过对多画面图像信息作全景中定位设置得到定位结果,再通过融合模块对多画面图像信息进行融合,形成一幅融合后的图像,能有效的避免拼接处局部细节出现失真的情况,可以解决现有技术中图像融合和全景图像失真,缺省,清晰度低的问题。
Description
技术领域
本发明涉及图像融合领域,更具体地,涉及一种多图像融合方法。
背景技术
随着科技的进步,人们的生活越来越多姿多彩,而摄影,也越来越受到人们的欢迎,但是,在照片拍摄后,很多时需要后期对图像进行融合处理,现有的图像融合方案,首先经过多路采集设备进行图像采集,把采集到的图像进行特征提取,最后根据特征点的位置进行全景拼接,当采集图像时,一般会采用多个采集设备,并且采集设备的布局通常会要求尽可能达到镜头焦点重合,这样才能保证后期过缝效应不明显,采集后的图像需要经过计算机视觉算法进行特征提取,该部分计算复杂度较高,此外,现有的图像融合算法存在以下问题:现有的全景图像融合算法都仅仅是全景图像拼接算法,就是将采集设备采集的不同角度的画面按照上述系列步骤简单拼凑在一起形成一个全景图像,现有的拼接算法大致分为一下几个步骤:1、对每幅图进行特征点提取,2、对对特征点进行匹配,3、进行图像配准,4、把图像拷贝到另一幅图像的特定位置,5、对重叠边界进行特殊处理,这种做法中的特征提取只是基于每幅因子图像在算法上的提取,由于算法或多或少存在特征提取上的误差,所以导致拼接处局部细节出现失真,有时甚至会出现人物肢体的缺省。这样尤其是在监控领域,画面的模糊以及人物的缺省将导致非常严重的后果。
因此,提出一种解决上述问题的多图像融合方法实为必要。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷(不足),提供一种多图像融合方法。
为解决上述技术问题,本发明的技术方案如下:一种多图像融合方法,包括获取模块和融合模块,包括以下步骤;
S1,通过获取模块分别获取全景图像信息以及全景图像所对应的多画面图像信息;
S2,分别对全景图像信息和多画面图像信息进行图像点特征提取;
S3,对多画面图像信息作全景中定位设置,得到定位结果;
S4,通过定位结果,融合模块对所述多画面图像信息进行融合,形成一幅融合后的图像。
进一步的,所述步骤S1中包括以下步骤;
S11,通过获取模块获取全景图像信息;
S12,通过获取模块获取多画面图像信息,。
更进一步的,所述步骤S2中包括以下步骤;
S21,对多画面图像信息进行特征提取,得到提取结果;
S22,基于提取结果对所述多画面图像信息进行图像拼接,获取所述拼接结果。
进一步的,所述步骤S3中包括以下步骤;
S31,基于拼接结果对多画面图像信息进行几何映射获取所述全景图像信息;
S32,对全景图像信息做全景中定位设置,得到定位结果;
S33,对全景图像信息进行几何映射,获取多画面图像信息。
更进一步的,所述步骤S4中包括以下步骤;
S41,通过融合模块计算接缝位置处两边的像素差值;
S42,对多画面图像信息的交接处调节,形成一幅融合后的图像。
更进一步的,所述获取模块为多通道图像采集设备或全景图像采集设备。
进一步的,所述融合模块计算接缝位置处两边的像素差值公式为D(pi)=IL(pi)-IR(pi)。
与现有技术相比,本发明技术方案的有益效果是:通过对多画面图像信息作全景中定位设置,得到定位结果,再通过融合模块对所述多画面图像信息进行融合,形成一幅融合后的图像,能有效的避免了拼接处局部细节出现失真的情况,可以有效的解决现有技术中图像融合和全景图像所存在的失真,缺省,清晰度低的问题。
附图说明
图1是本发明中多图像融合方法的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以是通过中间媒介间接连接,可以说两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明的具体含义。下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1所示,公开一种多图像融合方法,包括获取模块和融合模块,还包括以下步骤;S1,通过获取模块分别获取全景图像信息以及全景图像所对应的多画面图像信息;S2,分别对全景图像信息和多画面图像信息进行图像点特征提取;S3,对多画面图像信息作全景中定位设置,得到定位结果;S4,通过定位结果,融合模块对所述多画面图像信息进行融合,形成一幅融合后的图像,其中,在步骤S1中包括以下步骤;S11,通过获取模块获取全景图像信息;S12,通过获取模块获取多画面图像信息,。
在本发明中,在步骤S2中包括以下步骤;S21,对多画面图像信息进行特征提取,得到提取结果;S22,基于提取结果对所述多画面图像信息进行图像拼接,获取所述拼接结果,而在步骤S3中包括以下步骤;S31,基于拼接结果对多画面图像信息进行几何映射获取所述全景图像信息;S32,对全景图像信息做全景中定位设置,得到定位结果;S33,对全景图像信息进行几何映射,获取多画面图像信息,而在步骤S4中包括以下步骤;S41,通过融合模块计算接缝位置处两边的像素差值;S42,对多画面图像信息的交接处调节,形成一幅融合后的图像。
在本发明中,获取模块为多通道图像采集设备或全景图像采集设备,融合模块计算接缝位置处两边的像素差值公式为D(pi)=IL(pi)-IR(pi)。
该公式具体包括:首先,计算接缝位置处pi的像素差值,计算公式为:D(pi)=IL(pi)-IR(pi),其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
wi(q)为权重系数,且权重系数的计算公式为:
其中||pi-q||代表pi和q之间的欧氏距离;对所述全景图像信息以及所述多画面图像信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
其中,IL(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I、R(q)代表右边图像融合后的像素值,通过预设融合的方式,将所述多画面图像信息融合成全景图像。
图中,描述位置关系仅用于示例性说明,不能理解为对本专利的限制;显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种多图像融合方法,包括获取模块和融合模块,其特征在于,包括以下步骤;
S1,通过获取模块分别获取全景图像信息以及全景图像所对应的多画面图像信息;
S2,分别对全景图像信息和多画面图像信息进行图像点特征提取;
S3,对多画面图像信息作全景中定位设置,得到定位结果;
S4,通过定位结果,融合模块对所述多画面图像信息进行融合,形成一幅融合后的图像。
2.根据权利要求1所述的多图像融合方法,其特征在于,所述步骤S1中包括以下步骤;
S11,通过获取模块获取全景图像信息;
S12, 通过获取模块获取多画面图像信息。
3.根据权利要求1所述的多图像融合方法,其特征在于,所述步骤S2中包括以下步骤;
S21,对多画面图像信息进行特征提取,得到提取结果;
S22, 基于提取结果对所述多画面图像信息进行图像拼接,获取所述拼接结果。
4.根据权利要求1所述的多图像融合方法,其特征在于,所述步骤S3中包括以下步骤;
S31, 基于拼接结果对多画面图像信息进行几何映射获取所述全景图像信息;
S32, 对全景图像信息做全景中定位设置,得到定位结果;
S33,对全景图像信息进行几何映射,获取多画面图像信息。
5.根据权利要求1所述的多图像融合方法,其特征在于,所述步骤S4中包括以下步骤;
S41, 通过融合模块计算接缝位置处两边的像素差值;
S42,对多画面图像信息的交接处调节,形成一幅融合后的图像。
6.根据权利要求1所述的多图像融合方法,其特征在于,所述获取模块为多通道图像采集设备或全景图像采集设备。
7.根据权利要求5所述的多图像融合方法,其特征在于,所述融合模块计算接缝位置处两边的像素差值公式为D(pi)=IL(pi)-IR(pi)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811628117.9A CN109671045A (zh) | 2018-12-28 | 2018-12-28 | 一种多图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811628117.9A CN109671045A (zh) | 2018-12-28 | 2018-12-28 | 一种多图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109671045A true CN109671045A (zh) | 2019-04-23 |
Family
ID=66146957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811628117.9A Pending CN109671045A (zh) | 2018-12-28 | 2018-12-28 | 一种多图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109671045A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023260A (zh) * | 2014-04-22 | 2015-11-04 | Tcl集团股份有限公司 | 一种全景图像融合方法及融合装置 |
CN105488775A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于六摄像机环视的柱面全景生成装置及方法 |
CN105678722A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像弯曲矫正方法及装置 |
CN105678721A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像接缝处平滑的方法及装置 |
CN105678719A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接接缝处平滑方法及装置 |
CN106357976A (zh) * | 2016-08-30 | 2017-01-25 | 深圳市保千里电子有限公司 | 一种全方位全景图像生成的方法和装置 |
CN108234904A (zh) * | 2018-02-05 | 2018-06-29 | 刘捷 | 一种多视频融合方法、装置与系统 |
CN108510445A (zh) * | 2018-03-30 | 2018-09-07 | 长沙全度影像科技有限公司 | 一种全景图像拼接方法 |
-
2018
- 2018-12-28 CN CN201811628117.9A patent/CN109671045A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023260A (zh) * | 2014-04-22 | 2015-11-04 | Tcl集团股份有限公司 | 一种全景图像融合方法及融合装置 |
CN105488775A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于六摄像机环视的柱面全景生成装置及方法 |
CN105678722A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像弯曲矫正方法及装置 |
CN105678721A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像接缝处平滑的方法及装置 |
CN105678719A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接接缝处平滑方法及装置 |
CN106357976A (zh) * | 2016-08-30 | 2017-01-25 | 深圳市保千里电子有限公司 | 一种全方位全景图像生成的方法和装置 |
CN108234904A (zh) * | 2018-02-05 | 2018-06-29 | 刘捷 | 一种多视频融合方法、装置与系统 |
CN108510445A (zh) * | 2018-03-30 | 2018-09-07 | 长沙全度影像科技有限公司 | 一种全景图像拼接方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11044458B2 (en) | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene | |
KR101956151B1 (ko) | 사용자 단말기에 이용되는 전경 영상 생성 방법 및 장치 | |
CN106060493A (zh) | 多源投影无缝边缘拼接方法及系统 | |
WO2021120407A1 (zh) | 一种基于多对双目相机的视差图像拼接与可视化方法 | |
CN109064404A (zh) | 一种基于多相机标定的全景拼接方法、全景拼接系统 | |
CN104392416B (zh) | 一种运动场景的视频拼接方法 | |
CN110390640A (zh) | 基于模板的泊松融合图像拼接方法、系统、设备及介质 | |
US9344701B2 (en) | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation | |
CN105894451B (zh) | 全景图像拼接方法和装置 | |
CN106875339A (zh) | 一种基于长条形标定板的鱼眼图像拼接方法 | |
CN109118515B (zh) | 一种电力设备的视频跟踪方法及装置 | |
WO2014023231A1 (zh) | 宽视场超高分辨率光学成像系统及方法 | |
CN104408701A (zh) | 一种大场景视频图像拼接方法 | |
WO2015165222A1 (zh) | 全景图像的获取方法和装置 | |
CN106657910A (zh) | 一种电力变电站的全景视频监控方法 | |
CN112862685B (zh) | 图像拼接的处理方法、装置和电子系统 | |
CN105023260A (zh) | 一种全景图像融合方法及融合装置 | |
CN106952219B (zh) | 一种基于外参数修正鱼眼像机的图像生成方法 | |
CN106056594A (zh) | 一种基于双光谱的可见光图像提取系统与方法 | |
CN112085659A (zh) | 一种基于球幕相机的全景拼接融合方法、系统及存储介质 | |
CN110099268B (zh) | 色彩自然匹配与显示区自然融合的盲区透视化显示方法 | |
JP5091099B2 (ja) | 撮像装置 | |
CN106886976B (zh) | 一种基于内参数修正鱼眼像机的图像生成方法 | |
CN107037584B (zh) | 一种智能眼镜透视方法及系统 | |
WO2020029877A1 (zh) | 多相机拼接的亮度调整方法及便携式终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190423 |
|
RJ01 | Rejection of invention patent application after publication |