CN107403408A - 一种双鱼眼图像拼接全景图像接缝融合方法 - Google Patents
一种双鱼眼图像拼接全景图像接缝融合方法 Download PDFInfo
- Publication number
- CN107403408A CN107403408A CN201610329139.XA CN201610329139A CN107403408A CN 107403408 A CN107403408 A CN 107403408A CN 201610329139 A CN201610329139 A CN 201610329139A CN 107403408 A CN107403408 A CN 107403408A
- Authority
- CN
- China
- Prior art keywords
- mrow
- image
- mtd
- width
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000251468 Actinopterygii Species 0.000 title claims abstract description 12
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000001914 filtration Methods 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000003086 colorant Substances 0.000 abstract description 5
- 238000007323 disproportionation reaction Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种双鱼眼图像拼接全景图像接缝融合方法。对于经过特征配准和几何透视变换校正,交叠区域重合的两幅鱼眼展开图像,该方法首先利用两幅图像的交叠区域计算两幅图像之间的亮度颜色调整函数,把两幅图像的亮度颜色调整到一致水平;然后通过合理地设置两幅图像接缝处的加权值,利用金字塔算法对两幅图像的接缝进行融合。本方法既解决了用于拼接的两幅图像的亮度不均,颜色差异问题,又消除了两幅图像拼接处的接缝,使得两幅图像比较完美得拼接在一起。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种双鱼眼图像拼接全景图像接缝融合方法。
背景技术
双鱼眼图像拼接全景图像,因为系统中需要拼接的接缝最少,需要的镜头最少成为最简单的全景图像拼接系统,受到了越来越广泛地关注。系统中两幅图像所处的拍照环境不同,特别是当一个幅图像面向光源,一副图像背向光源时,两幅图像的动态范围差别过大,导致两幅图像互相重合的部分亮度差异非常明显。另外两幅图像分别独自进行白平衡处理,导致两幅图像在重合区域的颜色也不一致。因为亮度和色彩的差异,两幅图像即使经过最精确地配准和几何校正后,所有的特征点完全重合,拼接后的图像在接缝处也会出现明显的亮度和颜色的差异,降低了图像缝合的效果。
常用亮度颜色调整方法如重叠区域亮度均值调整方法,只把两幅图像的平均亮度进行整体平移,只调整了两幅图像的平均亮度,并没有对图像之间的对比度做一致性调整,因此调整效果受到很大限制。而在处理两幅图像拼接的接缝问题时,常用加权平均算法,即把两幅图像相对应的像素值进行加权平均,得到融合后图像对应像素值。这种方法虽然可以使过渡更加平滑,但是融合后的接缝还是比较明显。
发明内容
本发明公开了一种双鱼眼图像拼接全景图像接缝融合方法。对于经过特征配准和几何透视变换校正,交叠区域重合的两幅鱼眼展开图像,该方法首先利用两幅图像的交叠区域计算两幅图像之间的亮度颜色调整函数,把两幅图像的亮度颜色调整到一致水平;然后通过合理地设置两幅图像接缝处的加权值,利用金字塔算法对两幅图像的接缝进行融合。本方法既解决了用于拼接的两幅图像的亮度不均,颜色差异问题,又消除了两幅图像拼接处的接缝,使得两幅图像比较完美得拼接在一起。
一种双鱼眼图像拼接全景图像接缝融合方法,其特征在于:包括以下步骤:
对于经过特征配准和几何透视变换校正,交叠区域重合的两幅鱼眼展开图像:
(1)计算两幅图像的熵,选取熵大的图像作为第一幅图像,另一幅作为第二幅图像;
(2)通过交叠区域分别计算第二幅图像亮度和色彩调整函数,把第二幅图像的亮度和色彩调整到与第一幅图像一致;
(3)利用加权金字塔算法对第一幅图像和调整后的第二幅图像进行融合,得到最终的融合图像。
上述步骤1中利用下面公式计算两幅图像Y通道的熵:
其中pi为亮度为i的像素出现的概率,n为亮度等级,一般取255。选取熵较大的一幅图像为第一幅图像,另一幅为第二幅图像。
上述步骤2中利用交叠区域计算第二幅图像亮度和颜色调整函数,把第二幅图像亮度色彩调整到与第一幅图像一致的步骤为:
(1)如果要把第二幅图像的亮度调整与第一幅图像一致,那么Y通道的调整函数对于交叠区域应该满足:
fY(k)=argmin(1/NΣ(Y1(x,y)-fY(Y2(x,y)))2) (2)
其中N为交叠区域的像素点个数。为了满足上式,第二幅图像Y通道的调整函数可以按照下式计算:
其中Nk为交叠区域中Y(x,y)=k像素点的个数。按照上式为每一级灰度求取对应值,即得到第二幅图像亮度调整函数fY(k)。利用fY(k)调整第二幅图像的亮度,得到调整后的Y通道图像:
Y′2(x,y)=fY(Y2(x,y)) (4)
(2)同样的方法可以求得U,V通道的变换函数fU(k),fV(k),利用U,V通道的映射函数可以得到调整后的U,V通道图像U′2(x,y),V′2(x,y)。
上步骤3中,利用加权金字塔融合算法对第一幅图像和调整后的第二幅图像进行融合,其具体步骤为:
(1)融合权重的计算。假设第一幅图像与第二幅图像交叠区域边界分别为x1,x2,其中x1<x2,当x<x1时,Y2(x,y)=0,当x>x2时,Y1(x,y)=0。那么第一幅图像和第二幅图像的融合权重为:
(2)分别对第一幅图像的Y通道,第二幅图像调整后的Y通道进行拉普拉斯金字塔分解得到LY1 1,LY1 2,...,LY1 N,LY2 1,LY2 2,...,LY2 N,其中N为图像金字塔分解的层数,一般的N≥3。具体运算公式为:利用宽度为2k+1的高斯滤波器g(i,j)对原始图像Y(x,y)进行2倍高斯滤波降采样得到图像的高斯金字塔分解:
对高斯滤波降采样后的图像进行高斯滤波内插,得到上采样图像:
那么图像Y(x,y)的拉普拉斯金字塔分解为:
对第一幅图像融合权重和第二幅图像的融合权重按照(7)式进行高斯金字塔分解得到GW1 1,GW1 2,...,GW1 N,GW2 1,GW2 2,...,GW2 N。
(3)对每一层图像进行融合,得到融合图像的拉普拉斯金字塔:
(4)对融合图像的拉普拉斯金字塔进行反变换得到融合后的Y通道图像YF(x,y)。
(5)按照(2)~(4)步骤分别处理第一幅图像和调整后的第二幅图像的U,V通道,得到融合后的UF(x,y),VF(x,y)。
附图说明
图1为本发明处理流程图。
图2为两幅图像对应权值。
具体实施方式
下面结合附图,对本发明做进一步说明:
本发明实施提出了一种双鱼眼图像拼接全景图像接缝融合方法。其执行过程如下:
对于经过特征配准和几何透视变换校正,交叠区域重合的两幅鱼眼展开图像:
第一步,计算两幅图像的熵,选取熵大的图像作为第一幅图像,另一幅作为第二幅图像;
首先,利用下面公式计算两幅图像Y通道的熵:
其中pi为亮度为i的像素出现的概率,n为亮度等级,一般取255。选取熵较大的一幅图像为第一幅图像,另一幅为第二幅图像。
第二步,通过交叠区域分别计算第二幅图像亮度和色彩调整函数,把第二隔图像亮度色彩调整到与第一幅图像一致;
具体操作按照如下步骤:
(1)如果要把第二幅图像的亮度调整与第一幅图像一致,那么Y通道的调整函数对于交叠区域应该满足:
fY(k)=argmin(1/N∑(Y1(x,y)-fY(Y2(x,y)))2) (2)
其中N为交叠区域的像素点个数。为了满足上式,第二幅图像Y通道的调整函数可以按照下式计算:
其中Nk为交叠区域中Y(x,y)=k像素点的个数。按照上式为每一级灰度求取对应值,即得到第二幅图像亮度调整函数fY(k)。利用fY(k)调整第二幅图像的亮度,得到调整后的Y通道图像:
Y′2(x,y)=fY(Y2(x,y)) (4)
(2)同样的方法可以求得U,V通道的变换函数fU(k),fV(k),利用U,V通道的映射函数可以得到调整后的U,V通道图像U′2(x,y),V′2(x,y)。
第三步,利用加权金字塔融合算法对第一幅图像和调整后的第二幅图像进行融合。
具体操作步骤如下:
(1)融合权重的计算。假设第一幅图像与第二幅图像交叠区域边界分别为x1,x2,其中x1<x2,当x<x1时,Y2(x,y)=0,当x>x2时,Y1(x,y)=0。那么第一幅图像和第二幅图像的融合权重为:
(2)分别对第一幅图像的Y通道,第二幅图像调整后的Y通道进行拉普拉斯金字塔分解得到LY1 1,LY1 2,...,LY1 N,LY2 1,LY2 2,...,LY2 N,其中N为图像金字塔分解的层数,一般的N≥3,经过测试,N=3可以获得比较满意的结果。具体运算公式为:利用宽度为2k+1的高斯滤波器g(i,j)对原始图像Y(x,y)进行2倍高斯滤波降采样得到图像的高斯金字塔分解:
对高斯滤波降采样后的图像进行高斯滤波内插,得到上采样图像:
那么图像Y(x,y)的拉普拉斯金字塔分解为:
对第一幅图像融合权重和第二幅图像的融合权重按照(7)式进行高斯金字塔分解得到GW1 1,GW1 2,...,GW1 N,GW2 1,GW2 2,...,GW2 N。
(3)对每一层图像进行融合,得到融合图像的拉普拉斯金字塔:
(4)对融合图像的拉普拉斯金字塔进行反变换得到融合后的Y通道图像YF(x,y)。
(5)按照(2)~(4)步骤分别处理第一幅图像和调整后的第二幅图像的U,V通道,得到融合后的UF(x,y),VF(x,y)。
上面结合附图对本发明进行了示例性的描述,显然本发明的实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围内。
Claims (4)
1.一种双鱼眼图像拼接全景图像接缝融合方法,其特征在于:包括以下步骤:
对于经过特征配准和几何透视变换校正,交叠区域重合的两幅鱼眼展开图像:
(1)计算两幅图像的熵,选取熵大的图像作为第一幅图像,另一幅作为第二幅图像;
(2)通过交叠区域分别计算第二幅图像亮度和色彩调整函数,把第二幅图像的亮度和色彩调整到与第一幅图像一致;
(3)利用加权金字塔算法对第一幅图像和调整后的第二幅图像进行融合,得到最终的融合图像。
2.根据权利要求1所述一种双鱼眼图像拼接全景图像接缝融合方法,其特征在于:利用下面公式计算两幅图像Y通道的熵:
<mrow>
<mi>H</mi>
<mo>=</mo>
<mo>-</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</msubsup>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中pi为亮度为i的像素出现的概率,n为亮度等级,一般取255。选取熵较大的一幅图像为第一幅图像,另一幅为第二幅图像。
3.根据权利要求1所述一种双鱼眼图像拼接全景图像接缝融合方法,其特征在于:所述步骤2中利用交叠区域计算第二幅图像亮度和颜色调整函数,把第二幅图像调整到与第一幅图像亮度色彩一致的步骤为:
(1)如果要把第二幅图像的亮度调整与第一幅图像一致,那么Y通道的调整函数对于交叠区域应该满足:
fY(k)=argmin(1/N∑(Y2(x,y)-fY(Y2(x,y)))2) (2)
其中N为交叠区域的像素点个数。为了满足上式,第二幅图像Y通道的调整函数可以按照下式计算:
<mrow>
<msub>
<mi>f</mi>
<mi>Y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>1</mn>
<mo>/</mo>
<msub>
<mi>N</mi>
<mi>k</mi>
</msub>
<mo>&Sigma;</mo>
<msub>
<mi>Y</mi>
<mn>2</mn>
</msub>
<msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mrow>
<msub>
<mi>Y</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Nk为交叠区域中Y(x,y)=k像素点的个数。按照上式为每一级灰度求取对应值,即得到第二幅图像亮度调整函数fY(k)。利用fY(k)调整第二幅图像的亮度,得到调整后的Y通道图像:
Y′2(x,y)=fY(Y2(x,y)) (4)
(2)同样的方法可以求得U,V通道的变换函数fU(k),fV(k),利用U,V通道的映射函数可以得到调整后的U,V通道图像U′2(x,y),V′2(x,y)。
4.根据权利要求1所述一种双鱼眼图像拼接全景图像接缝融合方法,其特征在于:所述步骤3中,利用加权金字塔融合算法对第一幅图像和调整后的第二幅图像进行融合,其具体步骤为:
(1)融合权重的计算。假设第一幅图像与第二幅图像交叠区域边界分别为x1,x2,其中x1<x2,当x<x1时,Y2(x,y)=0,当x>x2时,Y1(x,y)=0。那么第一幅图像和第二幅图像的融合权重为:
<mrow>
<msub>
<mi>W</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo><</mo>
<mi>x</mi>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<mi>x</mi>
<mn>1</mn>
</mrow>
<mrow>
<mi>x</mi>
<mn>2</mn>
<mo>-</mo>
<mi>x</mi>
<mn>1</mn>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mn>1</mn>
<mo>&le;</mo>
<mi>x</mi>
<mo>&le;</mo>
<mi>x</mi>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>></mo>
<mi>x</mi>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
1
<mrow>
<msub>
<mi>W</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo><</mo>
<mi>x</mi>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mn>2</mn>
<mo>-</mo>
<mi>x</mi>
</mrow>
<mrow>
<mi>x</mi>
<mn>2</mn>
<mo>-</mo>
<mi>x</mi>
<mn>1</mn>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mn>1</mn>
<mo>&le;</mo>
<mi>x</mi>
<mo>&le;</mo>
<mi>x</mi>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>></mo>
<mi>x</mi>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
(2)分别对第一幅图像的Y通道,第二幅图像调整后的Y通道进行拉普拉斯金字塔分解得到LY1 1,LY1 2,...,LY1 N,LY2 1,LY2 2,...,LY2 N,其中N为图像金字塔分解的层数,一般的N≥3。具体运算公式为:利用宽度为2k+1的高斯滤波器g(i,j)对原始图像Y(x,y)进行2倍高斯滤波降采样得到图像的高斯金字塔分解:
<mrow>
<msup>
<mi>GY</mi>
<mi>i</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mo>-</mo>
<mi>k</mi>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>k</mi>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mo>-</mo>
<mi>k</mi>
</mrow>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>k</mi>
</mrow>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>G</mi>
<mrow>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>x</mi>
<mo>+</mo>
<mi>i</mi>
<mo>,</mo>
<mn>2</mn>
<mi>y</mi>
<mo>+</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
对高斯滤波降采样后的图像进行高斯滤波内插,得到上采样图像:
<mrow>
<msup>
<mi>GY</mi>
<mrow>
<mo>&prime;</mo>
<mi>i</mi>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mo>-</mo>
<mi>k</mi>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>k</mi>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mo>-</mo>
<mi>k</mi>
</mrow>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>k</mi>
</mrow>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>G</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>+</mo>
<mi>i</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>,</mo>
<mfrac>
<mrow>
<mi>y</mi>
<mo>+</mo>
<mi>j</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
那么图像Y(x,y)的拉普拉斯金字塔分解为:
<mrow>
<msup>
<mi>LY</mi>
<mi>i</mi>
</msup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msup>
<mi>GY</mi>
<mi>i</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msup>
<mi>GY</mi>
<mrow>
<mo>&prime;</mo>
<mi>i</mi>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mo><</mo>
<mi>N</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>GY</mi>
<mi>N</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>N</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
对第一幅图像融合权重和第二幅图像的融合权重按照(7)式进行高斯金字塔分解得到GW1 1,GW1 2,...,GW1 N,GW2 1,GW2 2,...,GW2 N。
(3)对每一层图像进行融合,得到融合图像的拉普拉斯金字塔:
<mrow>
<msubsup>
<mi>LY</mi>
<mi>F</mi>
<mi>i</mi>
</msubsup>
<mo>=</mo>
<msubsup>
<mi>GW</mi>
<mn>1</mn>
<mi>i</mi>
</msubsup>
<msubsup>
<mi>LY</mi>
<mn>1</mn>
<mi>i</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>GW</mi>
<mn>2</mn>
<mi>i</mi>
</msubsup>
<msubsup>
<mi>LY</mi>
<mn>2</mn>
<mi>i</mi>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
(4)对融合图像的拉普拉斯金字塔进行反变换得到融合后的Y通道图像YF(x,y)。
(5)按照(2)~(4)步骤分别处理第一幅图像和调整后的第二幅图像的U,V通道,得到融合后的UF(x,y),VF(x,y)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610329139.XA CN107403408A (zh) | 2016-05-18 | 2016-05-18 | 一种双鱼眼图像拼接全景图像接缝融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610329139.XA CN107403408A (zh) | 2016-05-18 | 2016-05-18 | 一种双鱼眼图像拼接全景图像接缝融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107403408A true CN107403408A (zh) | 2017-11-28 |
Family
ID=60393942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610329139.XA Pending CN107403408A (zh) | 2016-05-18 | 2016-05-18 | 一种双鱼眼图像拼接全景图像接缝融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107403408A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108122199A (zh) * | 2017-12-19 | 2018-06-05 | 歌尔科技有限公司 | 一种全景相机的原始图像颜色调整方法及装置 |
CN108632511A (zh) * | 2018-05-16 | 2018-10-09 | 上海小蚁科技有限公司 | 全景鱼眼相机的亮度补偿值确定、亮度补偿方法及装置、终端、鱼眼相机 |
CN108765292A (zh) * | 2018-05-30 | 2018-11-06 | 中国人民解放军军事科学院国防科技创新研究院 | 基于空间三角面片拟合的图像拼接方法 |
CN110009567A (zh) * | 2019-04-09 | 2019-07-12 | 三星电子(中国)研发中心 | 用于鱼眼镜头的图像拼接方法和装置 |
WO2019184667A1 (zh) * | 2018-03-30 | 2019-10-03 | 深圳岚锋创视网络科技有限公司 | 一种全景图像的颜色校正方法和电子设备 |
CN111161148A (zh) * | 2019-12-30 | 2020-05-15 | 上海闻泰电子科技有限公司 | 一种全景图像生成方法、装置、设备和存储介质 |
CN112862691A (zh) * | 2021-03-17 | 2021-05-28 | 苏州灵目电子科技有限公司 | 一种双鱼眼图像拼接全景图像接缝融合方法 |
CN118096629A (zh) * | 2024-04-23 | 2024-05-28 | 四川新视创伟超高清科技有限公司 | 大场景图像优化方法及其优化系统 |
-
2016
- 2016-05-18 CN CN201610329139.XA patent/CN107403408A/zh active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108122199A (zh) * | 2017-12-19 | 2018-06-05 | 歌尔科技有限公司 | 一种全景相机的原始图像颜色调整方法及装置 |
WO2019184667A1 (zh) * | 2018-03-30 | 2019-10-03 | 深圳岚锋创视网络科技有限公司 | 一种全景图像的颜色校正方法和电子设备 |
US11948228B2 (en) | 2018-03-30 | 2024-04-02 | Arashi Vision Inc. | Color correction method for panoramic image and electronic device |
CN108632511A (zh) * | 2018-05-16 | 2018-10-09 | 上海小蚁科技有限公司 | 全景鱼眼相机的亮度补偿值确定、亮度补偿方法及装置、终端、鱼眼相机 |
CN108765292A (zh) * | 2018-05-30 | 2018-11-06 | 中国人民解放军军事科学院国防科技创新研究院 | 基于空间三角面片拟合的图像拼接方法 |
CN108765292B (zh) * | 2018-05-30 | 2022-04-29 | 中国人民解放军军事科学院国防科技创新研究院 | 基于空间三角面片拟合的图像拼接方法 |
CN110009567A (zh) * | 2019-04-09 | 2019-07-12 | 三星电子(中国)研发中心 | 用于鱼眼镜头的图像拼接方法和装置 |
CN111161148A (zh) * | 2019-12-30 | 2020-05-15 | 上海闻泰电子科技有限公司 | 一种全景图像生成方法、装置、设备和存储介质 |
CN111161148B (zh) * | 2019-12-30 | 2024-01-30 | 上海闻泰电子科技有限公司 | 一种全景图像生成方法、装置、设备和存储介质 |
CN112862691A (zh) * | 2021-03-17 | 2021-05-28 | 苏州灵目电子科技有限公司 | 一种双鱼眼图像拼接全景图像接缝融合方法 |
CN118096629A (zh) * | 2024-04-23 | 2024-05-28 | 四川新视创伟超高清科技有限公司 | 大场景图像优化方法及其优化系统 |
CN118096629B (zh) * | 2024-04-23 | 2024-07-09 | 四川新视创伟超高清科技有限公司 | 大场景图像优化方法及其优化系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107403408A (zh) | 一种双鱼眼图像拼接全景图像接缝融合方法 | |
US8687883B2 (en) | Method and a device for merging a plurality of digital pictures | |
US20150138312A1 (en) | Method and apparatus for a surround view camera system photometric alignment | |
US20020071042A1 (en) | Method of image processing and electronic camera | |
US10397524B1 (en) | Three-dimensional around view monitoring system of vehicle and method thereof | |
US20140092221A1 (en) | Image processing apparatus and method, and related computer program | |
CN106060493A (zh) | 多源投影无缝边缘拼接方法及系统 | |
CN112712485B (zh) | 一种图像融合方法及装置 | |
CN103200409B (zh) | 多投影仪显示系统的颜色校正方法 | |
CN103606132A (zh) | 基于空域和时域联合滤波的多帧数字图像去噪方法 | |
US8711251B2 (en) | Method and device for reducing image color noise | |
CN103973997B (zh) | 一种图像处理方法及装置 | |
JP2022524806A (ja) | 画像融合方法及び携帯端末 | |
CN106780330A (zh) | 一种基于彩色与黑白双摄像头的超分辨率重建方法 | |
CN107079127A (zh) | 投影仪以及影像显示方法 | |
CN113129391B (zh) | 基于多曝光图像特征分布权重的多曝光融合方法 | |
CN106570838A (zh) | 一种图像亮度优化方法及装置 | |
CN103702116B (zh) | 一种图像的宽动态压缩方法和装置 | |
CN113421183B (zh) | 车辆环视全景图的生成方法、装置、设备和存储介质 | |
CN104240213B (zh) | 一种显示方法及显示装置 | |
CN111860632A (zh) | 多路图像一致性融合方法 | |
JP5878586B2 (ja) | 画像色調整方法及びその電子装置 | |
CN109636739B (zh) | 图像饱和度增强的细节处理方法及装置 | |
JP5410378B2 (ja) | 映像信号補正装置および映像信号補正プログラム | |
TWI299812B (zh) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171128 |