CN107845109A - 针对光场阵列相机重聚焦图像的全景深融合方法及系统 - Google Patents

针对光场阵列相机重聚焦图像的全景深融合方法及系统 Download PDF

Info

Publication number
CN107845109A
CN107845109A CN201711142288.6A CN201711142288A CN107845109A CN 107845109 A CN107845109 A CN 107845109A CN 201711142288 A CN201711142288 A CN 201711142288A CN 107845109 A CN107845109 A CN 107845109A
Authority
CN
China
Prior art keywords
wavelet
mrow
image
coefficients
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201711142288.6A
Other languages
English (en)
Inventor
杨俊刚
王应谦
肖超
李骏
安玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201711142288.6A priority Critical patent/CN107845109A/zh
Publication of CN107845109A publication Critical patent/CN107845109A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种针对光场阵列相机重聚焦图像的全景深融合方法及系统,对所有待融合的多聚焦图像进行静态小波分解;对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列对应位置近似小波系数的平均值,将平均值作为最终用来重构融合图像的近似小波系数;对上述用来重构融合图像的小波系数采取静态小波逆变换,最终得到全景深的融合图像。采用本发明的方法,可以使大量具有浅景深的多聚焦图像较好地融合成为一幅全景深图像,很好的抑制了传统融合方法导致的振铃效应以及色彩失真。

Description

针对光场阵列相机重聚焦图像的全景深融合方法及系统
技术领域
本发明涉及图像处理,图像融合,计算成像领域,特别是一种针对光场阵列相机重聚焦图像的全景深融合方法及系统。
背景技术
近年来,光场相机在工业领域和学术领域获得越来越多的关注。在过去的几年里,高校和科研部门研制了各式各样的光场相机[1][2][3][4]。相比于传统数码相机,光场相机可以在一次曝光成像中获取当前场景的三维信息,具有拍照后重聚焦[5]等诸多功能。计算重聚焦技术在实际应用中,往往通过不断调节参数,得到聚焦到不同深度的一系列图像,从而覆盖当前场景的所有深度,利用多聚焦图像融合技术可以将一系列聚焦到不同深度的图像融合成为当前场景的全聚焦图像。然而与传统光学相机相比,光场相机等效孔径较大,导致计算重聚焦得到的图像景深较浅,只有小部分深度的物体处于聚焦状态,其余大部分深度的物体都处于离焦的模糊状态。因此要想获得一幅当前场景的全景深图像,就需要大量的重聚焦图像。
现有的多聚焦图像融合算法主要有基于空域的融合算法与基于变换域的融合算法。空域算法往往会导致融合结果对比度较低,发生块状失真[6],如图1(A)以及图2(A)所示。变换域图像融合算法的主要思想是将待融合图像进行多尺度分解,从不同的尺度层中提取相应的细节信息,根据不同的规则将提取出来的信息进行整合。现有的应用最广泛的就是基于离散小波变换(DWT)的算法[7]。然而由于其在分解过程中存在下采样环节,导致在处理大数量浅景深的源图像时效果不理想,容易发生振铃效应(图1(B))以及色彩失真(图2(B))。
相关引用文献:
[1]R.Ng,M.Levoy,M.Bredif,G.Duval,M.Horowitz,and P.Hanrahan,“Lightfield photography with a hand-held plenoptic camera,”CSTR,vol.2,2005.
[2]A.Veeraraghavan,R.Raskar,A.Agrawal,A.Mohan,and J.Tumblin,“Dappledphotography:Mask enhanced cameras for heterodyned lightfields and codedaperture refocusing,”ACM Trans.Graph.,vol.26,no.3,July.2007.
[3]C.-K.Liang,T.-H.Lin,B.-Y.Wong,C.Liu,and H.H.Chen,“Programmableaperture photography:Multiplexed light field acquisition,”ACM Trans.Graph.,vol.27,no.3,pp.55:1–55:10,Aug.2008.
[4]B.Wilburn,N.Joshi,V.Vaish,E.-V.Talvala,E.Antunez,A.Barth,A.Adams,M.Horowitz,and M.Levoy,“High performance imaging using large camera arrays,”ACM Trans.Graph.,vol.24,no.3,pp.765–776,Jul.2005.
[5]Wang Y,Hou G,Sun Z,“A simple and robust super resolution methodfor light field images,”IEEE International Conference on ImageProcessing.IEEE,1459-1463,(2016)
[6]Bai X,Liu M,Chen Z,“Multifocus image fusion through gradient-baseddecision map construction and mathematical morphology,”IEEE Access,4,4749-4760,(2016)
[7]Wang H,Jing Z,Li J,“An image fusion approach based on discretewavelet frame,”Information Fusion,2003.Proceedings of the Sixth InternationalConference of.IEEE,1490-1493,(2003)
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种针对光场阵列相机重聚焦图像的全景深融合方法及系统,解决传统多聚焦图像融合方法在处理大数量浅景深的源图像时效果不理想的问题。
为解决上述技术问题,本发明所采用的技术方案是:一种针对光场阵列相机重聚焦图像的全景深融合方法,包括以下步骤:
1)对所有待融合的多聚焦图像进行静态小波分解;
2)对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列近似小波系数对应位置的平均值,将平均值作为最终用来重构融合图像的近似小波系数;
3)对上述小波系数或近似小波系数采取静态小波逆变换,最终得到全景深的融合图像。
步骤1)中,采用swt2()函数实现静态小波分解。
步骤2)中,所述细节小波系数包括水平细节系数、垂直细节系数和对角细节系数;第k层的水平细节系数Hk的表达式为:
其中,N是多聚焦图像的总数量;n为当前图像,取值从1至N;(i,j)代表分解系数图像的坐标;k为分解层数;代表第n幅图像第k层分解的水平细节系数。
步骤2)中,第k层近似小波系数Ak的计算式为:
其中,为第n幅图像第k层分解的近似系数;N是多聚焦图像的总数量;n为当前图像,取值从1至N;(i,j)代表分解系数图像的坐标;k为分解层数。
使用iswt2()函数实现静态小波逆变换。
相应地,本发明还提供了一种针对光场阵列相机重聚焦图像的全景深融合系统,包括:
分解模块,用于对所有待融合的多聚焦图像进行静态小波分解;
整合模块,对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列近似小波系数对应位置的平均值,将平均值作为最终用来重构融合图像的近似小波系数;
融合模块,用于对上述小波系数或近似小波系数采取静态小波逆变换,最终得到全景深的融合图像。
与现有技术相比,本发明所具有的有益效果为:采用本发明的方法,可以使大量具有浅景深的多聚焦图像较好地融合成为一幅全景深图像,很好的抑制了传统融合方法导致的振铃效应以及色彩失真,操作简单,易于编程实现,并且对小波分解层数具有一定的鲁棒性,随着光场相机的不断推广,本发明方法具有较大的实用价值。
附图说明
图1中,(a)~(u)为阵列相机聚焦到不同深度的重聚焦图像,(A)为空域融合方法获得的融合结果,(B)为基于传统小波变换的融合方法获得的融合结果,(C)为本发明的方法获得的融合结果。
图2中,(a)~(n)为阵列相机聚焦到不同深度的重聚焦图像,(A)为空域融合方法获得的融合结果,(B)为基于传统小波变换的融合方法获得的融合结果,(C)为本发明的方法获得的融合结果。
图3为基于静态小波分解的多聚焦图像融合框架图。设待分解的多聚焦源图像为In(n=1,2,...,N),经过静态小波分解为k层,每层均包含有近似系数A,水平细节系数H,垂直细节系数V和对角细节系数D。假定多帧源图像In的尺寸均为P×Q,由于静态小波变换中没有下采样过程,故每一层的分解系数的尺寸也均为P×Q。不同的分解系数采用不同的规则进行整合,将整合过后的系数进行静态小波逆变换,最终得到输出的融合图像。
具体实施方式
本发明通过在不同尺度下通过对小波基的插值来回避对待分解图像的下采样,从而得到不同尺度的近似小波系数。针对不同类型的近似小波系数采用不同的融合准则,获得融合系数,最终将融合系数进行小波逆变换得到全景深融合图像。如图3所示,具体包括以下步骤:
1.对所有待融合的多聚焦图像进行静态小波分解,得到低频近似、水平细节、垂直细节和对角细节四类静态近似小波系数。在MATLAB环境下,可以通过使用函数swt2()来实现。
2.针对不同类型的近似小波系数,采用不同的整合策略。
(1)由于多聚焦图像的聚焦区域往往细节明显、纹理丰富,所对应的三个细节小波系数往往较大。故针对细节小波系数,我们采取“绝对值取大”的策略,从对一系列的系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的小波系数。
式中N是多聚焦图像的总数量;n为当前图像,取值从1至N;(i,j)代表分解系数图像的坐标;k为分解层数;代表第n幅图像第k层分解的水平细节系数;Hk代表整合之后第k层的水平细节系数。同理可得垂直细节系数V和对角细节系数D。
(2)针对近似小波系数,我们采取“取平均”的策略。求取一系列近似小波系数对应位置的平均值,将结果作为最终用来重构融合图像的近似小波系数。
式中第n幅图像第k层分解的近似系数;Ak代表整合之后的第k层近似系数。
3.对从第2步得到的整合系数采取静态小波逆变换,最终得到全景深的融合图像。在MATLAB环境下,静态小波逆变换可以通过使用函数iswt2()来完成。

Claims (6)

1.一种针对光场阵列相机重聚焦图像的全景深融合方法,其特征在于,包括以下步骤:
1)对所有待融合的多聚焦图像进行静态小波分解;
2)对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列对应位置近似小波系数的平均值,将平均值作为最终用来重构融合图像的近似小波系数;
3)对上述用来重构融合图像的小波系数采取静态小波逆变换,最终得到全景深的融合图像。
2.根据权利要求1所述的针对光场阵列相机重聚焦图像的全景深融合方法,其特征在于,步骤1)中,采用swt2()函数实现静态小波分解。
3.根据权利要求1所述的针对光场阵列相机重聚焦图像的全景深融合方法,其特征在于,步骤2)中,所述细节小波系数包括水平细节系数、垂直细节系数和对角细节系数;第k层的水平细节系数Hk的表达式为:
<mrow> <msup> <mi>H</mi> <mi>k</mi> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>argmax</mi> <mrow> <msubsup> <mi>H</mi> <mi>n</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> </mrow> </mrow> </munder> <mo>{</mo> <mo>|</mo> <msubsup> <mi>H</mi> <mi>n</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>}</mo> <mo>;</mo> </mrow>
其中,N是多聚焦图像的总数量;n为当前图像,取值从1至N;(i,j)代表分解系数图像的坐标;k为分解层数;代表第n幅图像第k层分解的水平细节系数。
4.根据权利要求1所述的针对光场阵列相机重聚焦图像的全景深融合方法,其特征在于,步骤2)中,第k层近似小波系数Ak的计算式为:
<mrow> <msup> <mi>A</mi> <mi>k</mi> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msubsup> <mi>A</mi> <mi>n</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,为第n幅图像第k层分解的近似系数;N是多聚焦图像的总数量;n为当前图像,取值从1至N;(i,j)代表分解系数图像的坐标;k为分解层数。
5.根据权利要求1所述的针对光场阵列相机重聚焦图像的全景深融合方法,其特征在于,使用iswt2()函数实现静态小波逆变换。
6.一种针对光场阵列相机重聚焦图像的全景深融合系统,其特征在于,包括:
分解模块,用于对所有待融合的多聚焦图像进行静态小波分解;
整合模块,对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列近似小波系数对应位置的平均值,将平均值作为最终用来重构融合图像的近似小波系数;
融合模块,用于对上述用来重构融合图像的小波系数采取静态小波逆变换,最终得到全景深的融合图像。
CN201711142288.6A 2017-11-17 2017-11-17 针对光场阵列相机重聚焦图像的全景深融合方法及系统 Withdrawn CN107845109A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711142288.6A CN107845109A (zh) 2017-11-17 2017-11-17 针对光场阵列相机重聚焦图像的全景深融合方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711142288.6A CN107845109A (zh) 2017-11-17 2017-11-17 针对光场阵列相机重聚焦图像的全景深融合方法及系统

Publications (1)

Publication Number Publication Date
CN107845109A true CN107845109A (zh) 2018-03-27

Family

ID=61679785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711142288.6A Withdrawn CN107845109A (zh) 2017-11-17 2017-11-17 针对光场阵列相机重聚焦图像的全景深融合方法及系统

Country Status (1)

Country Link
CN (1) CN107845109A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082360A (zh) * 2019-05-17 2019-08-02 中国科学院光电技术研究所 一种基于阵列相机的序列光学元件表面缺陷在线检测装置及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1545064A (zh) * 2003-11-27 2004-11-10 上海交通大学 红外与可见光图像融合方法
CN101504766A (zh) * 2009-03-25 2009-08-12 湖南大学 基于混合多分辨率分解的图像融合方法
CN102005037A (zh) * 2010-11-12 2011-04-06 湖南大学 结合多尺度双边滤波与方向滤波的多模图像融合方法
CN102208104A (zh) * 2011-05-24 2011-10-05 中国科学院上海技术物理研究所 基于fpga硬件实现的cdb97小波变换实时图像融合方法
CN102081791B (zh) * 2010-11-25 2012-07-04 西北工业大学 一种基于多尺度特征融合的sar图像分割方法
CN103778615A (zh) * 2012-10-23 2014-05-07 西安元朔科技有限公司 基于区域相似性的多聚焦图像融合方法
US9773334B1 (en) * 2014-09-02 2017-09-26 Rockwell Collins, Inc. High performance, low latency combined vision system for use in degraded visual environments

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1545064A (zh) * 2003-11-27 2004-11-10 上海交通大学 红外与可见光图像融合方法
CN101504766A (zh) * 2009-03-25 2009-08-12 湖南大学 基于混合多分辨率分解的图像融合方法
CN102005037A (zh) * 2010-11-12 2011-04-06 湖南大学 结合多尺度双边滤波与方向滤波的多模图像融合方法
CN102081791B (zh) * 2010-11-25 2012-07-04 西北工业大学 一种基于多尺度特征融合的sar图像分割方法
CN102208104A (zh) * 2011-05-24 2011-10-05 中国科学院上海技术物理研究所 基于fpga硬件实现的cdb97小波变换实时图像融合方法
CN103778615A (zh) * 2012-10-23 2014-05-07 西安元朔科技有限公司 基于区域相似性的多聚焦图像融合方法
US9773334B1 (en) * 2014-09-02 2017-09-26 Rockwell Collins, Inc. High performance, low latency combined vision system for use in degraded visual environments

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAILIANG SHI ET AL: "Multi-focus Color Image Fusion Based on SWT and IHS", 《FOURTH INTERNATIONAL CONFERENCE ON FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY (FSKD 2007)》 *
王丽等: "结合Curvelet变换和LSWT的多聚焦图像融合算法", 《计算机工程与科学》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082360A (zh) * 2019-05-17 2019-08-02 中国科学院光电技术研究所 一种基于阵列相机的序列光学元件表面缺陷在线检测装置及方法

Similar Documents

Publication Publication Date Title
CN103826033B (zh) 图像处理方法、图像处理设备、图像拾取设备和存储介质
CN107995424B (zh) 基于深度图的光场全聚焦图像生成方法
Hirsch et al. Online multi-frame blind deconvolution with super-resolution and saturation correction
FI117265B (fi) Elektroninen laite ja menetelmä elektronisessa laitteessa kuvadatan prosessoimiseksi
CN112837245B (zh) 一种基于多模态融合的动态场景去模糊方法
Chen et al. Light field based digital refocusing using a DSLR camera with a pinhole array mask
CN101356546A (zh) 图像高分辨率化装置、图像高分辨率化方法、图像高分辨率化程序以及图像高分辨率化系统
Sen et al. Practical high dynamic range imaging of everyday scenes: Photographing the world as we see it with our own eyes
CN110225260B (zh) 一种基于生成对抗网络的立体高动态范围成像方法
CN109300098B (zh) 一种基于小波变换的多聚焦显微图像融合方法
CN111724317A (zh) Raw域视频去噪监督数据集构造方法
CN112987026A (zh) 一种基于混合神经网络的事件场合成孔径成像算法
CN109118544A (zh) 基于透视变换的合成孔径成像方法
Vijay et al. Non-uniform deblurring in HDR image reconstruction
Zhang et al. Deep motion blur removal using noisy/blurry image pairs
Cao et al. Digital multi-focusing from a single photograph taken with an uncalibrated conventional camera
CN112651911A (zh) 一种基于偏振图像的高动态范围成像生成方法
CN106375675B (zh) 一种航空相机多曝光图像融合方法
Woo et al. Ghost-free deep high-dynamic-range imaging using focus pixels for complex motion scenes
CN112819742B (zh) 一种基于卷积神经网络的事件场合成孔径成像方法
Chen et al. HDR light field imaging of dynamic scenes: A learning-based method and a benchmark dataset
CN107845109A (zh) 针对光场阵列相机重聚焦图像的全景深融合方法及系统
CN117745618A (zh) 一种hdr图像重建方法、系统、设备及介质
CN117237207A (zh) 针对动态场景的无鬼影高动态范围光场成像方法
CN116402908A (zh) 一种基于异构式成像的密集光场图像重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20180327

WW01 Invention patent application withdrawn after publication