CN113762484A - 深度蒸馏的多聚焦图像融合方法 - Google Patents
深度蒸馏的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN113762484A CN113762484A CN202111106048.7A CN202111106048A CN113762484A CN 113762484 A CN113762484 A CN 113762484A CN 202111106048 A CN202111106048 A CN 202111106048A CN 113762484 A CN113762484 A CN 113762484A
- Authority
- CN
- China
- Prior art keywords
- network
- final
- focus image
- image
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种深度蒸馏的多聚焦图像融合方法,属于图像处理领域。本发明包括以下步骤:对源图像,采用现有深度估计模型以及多聚焦图像融合模型获得源图像对应深度图以及伪决策图;设计深度蒸馏多聚焦图像融合网络;以深度图以及伪决策图为真值,设计损失函数,监督网络模型训练,得到最终多聚焦图像融合结果。本发明利用深度图所提供的判别信息,提升对于均质区域的融合精度。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种基于深度蒸馏的多聚焦图像融合方法。
背景技术
光学透镜具有有限的景深(DoF)。在成像过程中,位于DoF内的目标较为清晰,远离焦区域的目标图像会变得模糊。多聚焦图像融合(MFIF)目的是通过集成相机捕获的相同场景的多个源图像来生成全聚焦图像。多聚焦图像融合是图像融合任务的一部分,在计算机视觉中扮演着重要的角色,例如,目标识别和检测。
近年来,研究者们做出了巨大的努力来改进多聚焦图像融合精度。图像融合技术大致分为基于变换域方法,基于空间域方法,变换域-空域集成方法,深度学习方法。早期的多聚焦图像融合方法通常专注于测量活动水平和设计融合规则,因而导致对真实场景多样性的鲁棒性受到限制。近年来,依托深度学习强大的特征表征能力,卷积神经网络(CNN)已成为主流的图像融合技术。尽管深度卷积神经网络在多聚焦图像融合领域取得了巨大的进步,但是面对同质地区融合仍存在挑战。归因于,均匀区域是光滑,缺乏纹理信息,难以判断它们属于聚焦区域还是非聚焦区域,这给实现高精度多聚焦图像融合带来了很大的挑战。
鉴于聚焦和非聚焦区域的产生与目标位于相机的景深有关,即目标位于景深范围内则表征清晰,被称为聚焦区域;反之,目标超出景深范围表现为模糊,称为非聚焦区域。因此,深度信息是区分聚焦和非聚焦区域判别的重要提示。更重要的是,深度信息为同质性区域的区分提供了判别信息。
发明内容
本发明的目的是提出了一种深度蒸馏多聚焦图像融合网络,突破多聚焦图像融合中对同质区域判别及融合的技术瓶颈。
本发明的技术方案:
一种深度蒸馏的多聚焦图像融合方法,步骤如下:
步骤一:制作深度蒸馏的多聚焦图像融合数据集
(1)获取多聚焦图像数据集,包含前聚焦图像I1以及后聚焦图像I2;
(2)对步骤(1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到深度估计网络中,输出其对应的深度图D;将前聚焦图像I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
(3)将图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集;
步骤二:设计深度蒸馏多聚焦图像融合网络模型,实现多聚焦图像融合
(1)设计源图像重构网络,包含两个结构相同的用于源图像特征提取的分支模型,每个分支模型基于VGG框架,由多个卷积层、激励层以及上下采样层组成;卷积层所提取的层级特征表示为F′n、F″n,n表示为第n层,范围为{1,2,...,6};重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中,f(),W,b表示每个层的激活函数、权重和偏置矩阵参数;网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
(2)设计深度蒸馏模块,该模块基于注意力机制,输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F′n、F″nConcat后得到的:
Fn=Cat(F′n,F″n) (3)
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn:
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取深度估计网络中R1,基于决策图预测的多聚焦图像融合模型R2,用于深度蒸馏;深度蒸馏通过最小化loss函数Ln:
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
步骤三:网络训练,训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”';网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln;L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图,Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图;
本发明的有益效果:均匀区域缺乏纹理信息,难以提供其属于聚焦区域还是非聚焦区域的关键线索,这给实现高精度多聚焦图像融合带来了很大的挑战。深度信息为同质性区域的区分提供了判别信息,是区分聚焦和非聚焦区域判别的重要提示。本发明中,我们探索使用深度信息所包含的位置信息帮助多聚焦图像融合任务,提出了一种深度蒸馏多聚焦图像融合网络,突破多聚焦图像融合中对同质区域判别及融合的技术瓶颈。
附图说明
图1为本发明方法的基本结构示意图。
图2为本实施例的深度蒸馏模块结构示意图。
图3为本实施例的决策图预测结果对比示意图。
具体实施方式
本发明提出的深度蒸馏的多聚焦图像融合方法的具体实施详细说明如下:
步骤一:深度蒸馏的多聚焦图像融合数据集制作,具体包括:
1)MFI-WHU dataset为例,制作多聚焦图像数据集,所述数据集包含前聚焦图像I1以及后聚焦图像I2,共计120对;
2)对步骤1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到现有深度估计网络中,输出其对应的深度图D;将前聚焦I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
3)将所述图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集,共计120对;
步骤二:如图1所示,在实施例1中,一种深度蒸馏多聚焦图像融合网络模型,包括:
1)源图像重构网络。该模块包含两个结构相同的分支用于源图像特征提取,每个分支模型基于VGG框架,由多个卷积层以组成,激励层以及上下采样层组成。卷积层所提取的层级特征表示为F′n,F″n(n表示为第n层,范围为{1,2,...,6})。该模块输入为源图像I1、I2,输出为重构结果和
重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中f(),W,b表示每个层的激活函数、权重和偏置矩阵参数。网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
2)深度蒸馏模块。如图2所示,在实施例2中,该模块基于注意力机制。该模块输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F′n,F″n(n={1,2,3})Concat后得到的:
Fn=Cat(F′n,F″n) (3)
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn:
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取现有深度估计网络R1(参见B.Ni,Y.Pei,P.Moulin,and S.Yan,“Multileveldepth and image fusion for human activity detection,”IEEE Transactions onCybernetics,vol.43,no.5,pp.1383–1394,2013.),基于决策图预测的多聚焦图像融合模型R2(参见Y.Liu,S.Liu,and Z.Wang,“A general framework for image fusion basedon multi-scale transform and sparse representation,”Information fusion,vol.24,pp.147–164,2015.),用于深度蒸馏。深度蒸馏通过最小化loss函数Ln:
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
步骤三:网络训练。训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”'。网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln。L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图。Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图。
网络训练过程中的各参数设置如下:
base_lr:1e-4/学习率
momentum:0.9/动量
weight_decay:5e-3/权重衰减
batch size:1/批大小
solver_mode:GPU/本例使用GPU训练
Claims (1)
1.一种深度蒸馏的多聚焦图像融合方法,其特征在于,步骤如下:
步骤一:制作深度蒸馏的多聚焦图像融合数据集
(1)获取多聚焦图像数据集,包含前聚焦图像I1以及后聚焦图像I2;
(2)对步骤(1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到深度估计网络中,输出其对应的深度图D;将前聚焦图像I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
(3)将图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集;
步骤二:设计深度蒸馏多聚焦图像融合网络模型,实现多聚焦图像融合
(1)设计源图像重构网络,包含两个结构相同的用于源图像特征提取的分支模型,每个分支模型基于VGG框架,由多个卷积层、激励层以及上下采样层组成;卷积层所提取的层级特征表示为F'n、F”n,n表示为第n层,范围为{1,2,...,6};重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中,f(),W,b表示每个层的激活函数、权重和偏置矩阵参数;网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
Lr=MSE(Im,Irm) (2)
其中,MSE表示均方误差,Im为源图像I1、I2,Irm表示源图像I1、I2对应的重构结果Ir1和Ir2;
(2)设计深度蒸馏模块,该模块基于注意力机制,输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F'n、F”nConcat后得到的:
Fn=Cat(F'n,F”n) (3)
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn:
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取深度估计网络中R1,基于决策图预测的多聚焦图像融合模型R2,用于深度蒸馏;深度蒸馏通过最小化loss函数Ln:
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
步骤三:网络训练,训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”';网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln;L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图,Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111106048.7A CN113762484B (zh) | 2021-09-22 | 2021-09-22 | 深度蒸馏的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111106048.7A CN113762484B (zh) | 2021-09-22 | 2021-09-22 | 深度蒸馏的多聚焦图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762484A true CN113762484A (zh) | 2021-12-07 |
CN113762484B CN113762484B (zh) | 2022-12-13 |
Family
ID=78796716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111106048.7A Active CN113762484B (zh) | 2021-09-22 | 2021-09-22 | 深度蒸馏的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762484B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205181A (zh) * | 2022-09-15 | 2022-10-18 | 季华实验室 | 一种多聚焦图像融合方法、装置、电子设备及存储介质 |
CN116597268A (zh) * | 2023-07-17 | 2023-08-15 | 中国海洋大学 | 一种高效的多聚焦图像融合方法及其模型搭建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021052487A1 (zh) * | 2019-09-18 | 2021-03-25 | 华为技术有限公司 | 扩展景深图像的获取方法、装置及电子设备 |
CN112581409A (zh) * | 2021-01-05 | 2021-03-30 | 西安理工大学 | 一种基于端到端的多重信息蒸馏网络的图像去雾方法 |
CN113159236A (zh) * | 2021-05-26 | 2021-07-23 | 中国工商银行股份有限公司 | 基于多尺度变换的多聚焦图像融合方法及装置 |
CN113313663A (zh) * | 2021-06-09 | 2021-08-27 | 哈尔滨工业大学 | 基于零样本学习的多聚焦图像融合方法 |
-
2021
- 2021-09-22 CN CN202111106048.7A patent/CN113762484B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021052487A1 (zh) * | 2019-09-18 | 2021-03-25 | 华为技术有限公司 | 扩展景深图像的获取方法、装置及电子设备 |
CN112581409A (zh) * | 2021-01-05 | 2021-03-30 | 西安理工大学 | 一种基于端到端的多重信息蒸馏网络的图像去雾方法 |
CN113159236A (zh) * | 2021-05-26 | 2021-07-23 | 中国工商银行股份有限公司 | 基于多尺度变换的多聚焦图像融合方法及装置 |
CN113313663A (zh) * | 2021-06-09 | 2021-08-27 | 哈尔滨工业大学 | 基于零样本学习的多聚焦图像融合方法 |
Non-Patent Citations (5)
Title |
---|
BINGBING NI 等: "Multilevel Depth and Image Fusion for Human Activity Detection", 《IEEE JOURNALS & MAGAZINE》 * |
YU LIU 等: "A general framework for image fusion based on multi-scale transform and sparse representation", 《INFORMATION FUSION》 * |
刘子闻等: "自学习规则下的多聚焦图像融合", 《中国图象图形学报》 * |
刘帆等: "一种基于深度神经网络模型的多聚焦图像融合方法", 《山东大学学报(工学版)》 * |
吴雪: "基于改进多尺度分析的红外与可见光图像融合方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205181A (zh) * | 2022-09-15 | 2022-10-18 | 季华实验室 | 一种多聚焦图像融合方法、装置、电子设备及存储介质 |
CN116597268A (zh) * | 2023-07-17 | 2023-08-15 | 中国海洋大学 | 一种高效的多聚焦图像融合方法及其模型搭建方法 |
CN116597268B (zh) * | 2023-07-17 | 2023-09-22 | 中国海洋大学 | 一种高效的多聚焦图像融合方法及其模型搭建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113762484B (zh) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106846463B (zh) | 基于深度学习神经网络的显微图像三维重建方法及系统 | |
CN113762484B (zh) | 深度蒸馏的多聚焦图像融合方法 | |
Yang et al. | Review of deep learning for photoacoustic imaging | |
Liu et al. | Perception consistency ultrasound image super-resolution via self-supervised CycleGAN | |
CN113240691B (zh) | 一种基于u型网络的医学图像分割方法 | |
Wang et al. | Quantification of full left ventricular metrics via deep regression learning with contour-guidance | |
Balakrishna et al. | Automatic detection of lumen and media in the IVUS images using U-Net with VGG16 Encoder | |
Nazir et al. | SemAttNet: Toward attention-based semantic aware guided depth completion | |
Hong et al. | Qau-Net: Quartet attention U-Net for liver and liver-tumor segmentation | |
Xu et al. | Rendering portraitures from monocular camera and beyond | |
CN107329233A (zh) | 一种基于神经网络的微滴式pcr仪自动对焦方法 | |
CN111833267A (zh) | 一种进行运动模糊复原的双重生成对抗网络及其运行方法 | |
Yang et al. | Deep learning for photoacoustic imaging: a survey | |
CN113112534A (zh) | 一种基于迭代式自监督的三维生物医学图像配准方法 | |
CN114693744A (zh) | 一种基于改进循环生成对抗网络的光流无监督估计方法 | |
CN110490968A (zh) | 基于生成对抗网络的光场轴向重聚焦图像超分辨方法 | |
Song et al. | Light-field microscopy for the optical imaging of neuronal activity: When model-based methods meet data-driven approaches | |
Si et al. | Fully self-supervised depth estimation from defocus clue | |
CN117611601A (zh) | 基于文字辅助的半监督3d医学图像分割方法 | |
CN111242038B (zh) | 一种基于帧预测网络的动态舌颤检测方法 | |
CN115423722A (zh) | 低采样率下基于条件生成对抗网络的计算鬼成像方法 | |
CN114529476A (zh) | 基于解耦-融合网络的无透镜全息显微成像相位恢复方法 | |
Gill et al. | Focus guided light field saliency estimation | |
Arthy et al. | Deep Capsule Residual Networks for Better Diagnosis Rate in Medical Noisy Images. | |
Liu et al. | An end to end thyroid nodule segmentation model based on optimized U-net convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Zhao Fan Inventor after: Zhao Wenda Inventor after: Wu Xue Inventor after: Liu Yu Inventor after: Zhang Yiming Inventor before: Zhao Fan Inventor before: Zhao Wenda Inventor before: Wu Xue |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |