CN113762484A - 深度蒸馏的多聚焦图像融合方法 - Google Patents

深度蒸馏的多聚焦图像融合方法 Download PDF

Info

Publication number
CN113762484A
CN113762484A CN202111106048.7A CN202111106048A CN113762484A CN 113762484 A CN113762484 A CN 113762484A CN 202111106048 A CN202111106048 A CN 202111106048A CN 113762484 A CN113762484 A CN 113762484A
Authority
CN
China
Prior art keywords
network
final
focus image
image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111106048.7A
Other languages
English (en)
Other versions
CN113762484B (zh
Inventor
赵凡
赵文达
吴雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Normal University
Original Assignee
Liaoning Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Normal University filed Critical Liaoning Normal University
Priority to CN202111106048.7A priority Critical patent/CN113762484B/zh
Publication of CN113762484A publication Critical patent/CN113762484A/zh
Application granted granted Critical
Publication of CN113762484B publication Critical patent/CN113762484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种深度蒸馏的多聚焦图像融合方法,属于图像处理领域。本发明包括以下步骤:对源图像,采用现有深度估计模型以及多聚焦图像融合模型获得源图像对应深度图以及伪决策图;设计深度蒸馏多聚焦图像融合网络;以深度图以及伪决策图为真值,设计损失函数,监督网络模型训练,得到最终多聚焦图像融合结果。本发明利用深度图所提供的判别信息,提升对于均质区域的融合精度。

Description

深度蒸馏的多聚焦图像融合方法
技术领域
本发明属于图像处理领域,尤其涉及一种基于深度蒸馏的多聚焦图像融合方法。
背景技术
光学透镜具有有限的景深(DoF)。在成像过程中,位于DoF内的目标较为清晰,远离焦区域的目标图像会变得模糊。多聚焦图像融合(MFIF)目的是通过集成相机捕获的相同场景的多个源图像来生成全聚焦图像。多聚焦图像融合是图像融合任务的一部分,在计算机视觉中扮演着重要的角色,例如,目标识别和检测。
近年来,研究者们做出了巨大的努力来改进多聚焦图像融合精度。图像融合技术大致分为基于变换域方法,基于空间域方法,变换域-空域集成方法,深度学习方法。早期的多聚焦图像融合方法通常专注于测量活动水平和设计融合规则,因而导致对真实场景多样性的鲁棒性受到限制。近年来,依托深度学习强大的特征表征能力,卷积神经网络(CNN)已成为主流的图像融合技术。尽管深度卷积神经网络在多聚焦图像融合领域取得了巨大的进步,但是面对同质地区融合仍存在挑战。归因于,均匀区域是光滑,缺乏纹理信息,难以判断它们属于聚焦区域还是非聚焦区域,这给实现高精度多聚焦图像融合带来了很大的挑战。
鉴于聚焦和非聚焦区域的产生与目标位于相机的景深有关,即目标位于景深范围内则表征清晰,被称为聚焦区域;反之,目标超出景深范围表现为模糊,称为非聚焦区域。因此,深度信息是区分聚焦和非聚焦区域判别的重要提示。更重要的是,深度信息为同质性区域的区分提供了判别信息。
发明内容
本发明的目的是提出了一种深度蒸馏多聚焦图像融合网络,突破多聚焦图像融合中对同质区域判别及融合的技术瓶颈。
本发明的技术方案:
一种深度蒸馏的多聚焦图像融合方法,步骤如下:
步骤一:制作深度蒸馏的多聚焦图像融合数据集
(1)获取多聚焦图像数据集,包含前聚焦图像I1以及后聚焦图像I2
(2)对步骤(1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到深度估计网络中,输出其对应的深度图D;将前聚焦图像I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
(3)将图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集;
步骤二:设计深度蒸馏多聚焦图像融合网络模型,实现多聚焦图像融合
(1)设计源图像重构网络,包含两个结构相同的用于源图像特征提取的分支模型,每个分支模型基于VGG框架,由多个卷积层、激励层以及上下采样层组成;卷积层所提取的层级特征表示为F′n、F″n,n表示为第n层,范围为{1,2,...,6};重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中,f(),W,b表示每个层的激活函数、权重和偏置矩阵参数;网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
Figure BDA0003272347860000021
其中,MSE表示均方误差,Im为源图像I1、I2
Figure BDA0003272347860000022
表示源图像I1、I2对应的重构结果
Figure BDA0003272347860000023
Figure BDA0003272347860000024
(2)设计深度蒸馏模块,该模块基于注意力机制,输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F′n、F″nConcat后得到的:
Fn=Cat(F′n,F″n) (3)
该模块输出为包含位置和决策图信息的特征
Figure BDA0003272347860000025
通过以下过程获得:
Figure BDA0003272347860000026
其中,
Figure BDA0003272347860000027
为包含位置和决策图信息的特征向量;
Figure BDA0003272347860000028
的获取是通过深度蒸馏得到,其过程如下:
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取深度估计网络中R1,基于决策图预测的多聚焦图像融合模型R2,用于深度蒸馏;深度蒸馏通过最小化loss函数Ln
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
通过该蒸馏过程,dn包含深度信息,mn包含决策图信息;最终,
Figure BDA0003272347860000031
通过下述公式获得:
Figure BDA0003272347860000032
步骤三:网络训练,训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”';网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln;L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图,Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图;
步骤四:测试阶段,输入两幅多聚焦图像I1、I2,输出其对应重构结果
Figure BDA0003272347860000033
以及最终融合结果Ffinal
本发明的有益效果:均匀区域缺乏纹理信息,难以提供其属于聚焦区域还是非聚焦区域的关键线索,这给实现高精度多聚焦图像融合带来了很大的挑战。深度信息为同质性区域的区分提供了判别信息,是区分聚焦和非聚焦区域判别的重要提示。本发明中,我们探索使用深度信息所包含的位置信息帮助多聚焦图像融合任务,提出了一种深度蒸馏多聚焦图像融合网络,突破多聚焦图像融合中对同质区域判别及融合的技术瓶颈。
附图说明
图1为本发明方法的基本结构示意图。
图2为本实施例的深度蒸馏模块结构示意图。
图3为本实施例的决策图预测结果对比示意图。
图中:R1:深度估计网络;R2:多聚焦图像融合网络;DDM:深度蒸馏模块;
Figure BDA0003272347860000034
Element-wise相乘;
Figure BDA0003272347860000035
Concatenation操作;Ffinal:最终融合结果;
Figure BDA0003272347860000036
卷积块。
具体实施方式
本发明提出的深度蒸馏的多聚焦图像融合方法的具体实施详细说明如下:
步骤一:深度蒸馏的多聚焦图像融合数据集制作,具体包括:
1)MFI-WHU dataset为例,制作多聚焦图像数据集,所述数据集包含前聚焦图像I1以及后聚焦图像I2,共计120对;
2)对步骤1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到现有深度估计网络中,输出其对应的深度图D;将前聚焦I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
3)将所述图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集,共计120对;
步骤二:如图1所示,在实施例1中,一种深度蒸馏多聚焦图像融合网络模型,包括:
1)源图像重构网络。该模块包含两个结构相同的分支用于源图像特征提取,每个分支模型基于VGG框架,由多个卷积层以组成,激励层以及上下采样层组成。卷积层所提取的层级特征表示为F′n,F″n(n表示为第n层,范围为{1,2,...,6})。该模块输入为源图像I1、I2,输出为重构结果
Figure BDA0003272347860000041
Figure BDA0003272347860000042
重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中f(),W,b表示每个层的激活函数、权重和偏置矩阵参数。网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
Figure BDA0003272347860000043
其中,MSE表示均方误差,Im为源图像I1、I2
Figure BDA0003272347860000044
表示源图像I1、I2对应的重构结果
Figure BDA0003272347860000045
Figure BDA0003272347860000046
2)深度蒸馏模块。如图2所示,在实施例2中,该模块基于注意力机制。该模块输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F′n,F″n(n={1,2,3})Concat后得到的:
Fn=Cat(F′n,F″n) (3)
深度蒸馏模块的输出为包含位置和决策图信息的特征
Figure BDA0003272347860000051
通过以下过程获得:
Figure BDA0003272347860000052
其中
Figure BDA0003272347860000053
为包含位置和决策图信息的特征向量。
Figure BDA0003272347860000054
的获取是通过深度蒸馏得到,其过程如下:
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取现有深度估计网络R1(参见B.Ni,Y.Pei,P.Moulin,and S.Yan,“Multileveldepth and image fusion for human activity detection,”IEEE Transactions onCybernetics,vol.43,no.5,pp.1383–1394,2013.),基于决策图预测的多聚焦图像融合模型R2(参见Y.Liu,S.Liu,and Z.Wang,“A general framework for image fusion basedon multi-scale transform and sparse representation,”Information fusion,vol.24,pp.147–164,2015.),用于深度蒸馏。深度蒸馏通过最小化loss函数Ln
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
通过该蒸馏过程,dn包含深度信息(如图2中R1(I1)所示),mn包含决策图信息(如图2中R2(I2)所示)。最终,
Figure BDA0003272347860000055
通过下述公式获得:
Figure BDA0003272347860000056
步骤三:网络训练。训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”'。网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln。L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图。Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图。
网络训练过程中的各参数设置如下:
base_lr:1e-4/学习率
momentum:0.9/动量
weight_decay:5e-3/权重衰减
batch size:1/批大小
solver_mode:GPU/本例使用GPU训练
步骤四:测试阶段。本实施例以LytroDataset为测试数据集,验证方法的有效性。输入两幅多聚焦图像I1、I2,本发明模型输出其对应重构结果
Figure BDA0003272347860000061
决策图Dfinal,以及最终融合结果Ffinal。由图3所示,相对于其他方法,本发明方法获得的决策图可以较好的避免同质区域的干扰。

Claims (1)

1.一种深度蒸馏的多聚焦图像融合方法,其特征在于,步骤如下:
步骤一:制作深度蒸馏的多聚焦图像融合数据集
(1)获取多聚焦图像数据集,包含前聚焦图像I1以及后聚焦图像I2
(2)对步骤(1)中的多聚焦图像数据集生成其对应的深度图D以及伪决策图D',其生成过程如下:将前聚焦图像I1输入到深度估计网络中,输出其对应的深度图D;将前聚焦图像I1和后聚焦图像I2输入基于决策图预测的多聚焦图像融合模型中,生成其对应伪决策图D';
(3)将图像对{I1,I2,D,D’}作为网络输入,其中深度图及伪决策图{D,D’}作为网络真值,获得网络训练所需样本集;
步骤二:设计深度蒸馏多聚焦图像融合网络模型,实现多聚焦图像融合
(1)设计源图像重构网络,包含两个结构相同的用于源图像特征提取的分支模型,每个分支模型基于VGG框架,由多个卷积层、激励层以及上下采样层组成;卷积层所提取的层级特征表示为F'n、F”n,n表示为第n层,范围为{1,2,...,6};重构网络训练过程分为前向传播和反向传播过程,网络的前向传播过程:
a(l+1)=f(W(l)a(l)+b(l)) (1)
其中,f(),W,b表示每个层的激活函数、权重和偏置矩阵参数;网络反向传播过程为最小化loss函数Lr的过程,其中Lr表示为:
Lr=MSE(Im,Irm) (2)
其中,MSE表示均方误差,Im为源图像I1、I2,Irm表示源图像I1、I2对应的重构结果Ir1和Ir2
(2)设计深度蒸馏模块,该模块基于注意力机制,输入为源图像特征Fn,n={1,2,3},其中Fn通过将源图像重构网络的层级特征F'n、F”nConcat后得到的:
Fn=Cat(F'n,F”n) (3)
该模块输出为包含位置和决策图信息的特征
Figure FDA0003272347850000011
通过以下过程获得:
Figure FDA0003272347850000012
其中,
Figure FDA0003272347850000013
为包含位置和决策图信息的特征向量;
Figure FDA0003272347850000014
的获取是通过深度蒸馏得到,其过程如下:
对于输入特征Fn,采用卷积操作(Conv)获取两个支路输出dn,mn
dn=Conv(Conv2(Fn)),mn=Conv(Conv2(Fn)) (5)
选取深度估计网络中R1,基于决策图预测的多聚焦图像融合模型R2,用于深度蒸馏;深度蒸馏通过最小化loss函数Ln
Ln=MSE(dn,R1(I1))+MSE(mn,R2(I1,I2)) (6)
通过该蒸馏过程,dn包含深度信息,mn包含决策图信息;最终,
Figure FDA0003272347850000021
通过下述公式获得:
Figure FDA0003272347850000022
步骤三:网络训练,训练网络的损失函数由三部分组成:深度蒸馏损失,即L';监督中间决策图的损失,即L”;以及监督最终决策图的损失,即L”';网络训练为最小化loss函数Lfinal的过程,
Lfinal=L'+L”+L”' (8)
具体地,L'等同于公式(5)中的Ln;L”以及L”'表达式为:
L”=MSE(Dn,R2(I1,I2)),L”'=MSE(Ffinal,Max(I1,I2)) (9)
其中,Dn输出的中间决策图,Ffinal为最终融合结果,由下式得到:
Ffinal=I1*Dfinal+I2*(1-Dfinal) (10)
其中,Dfinal为深度蒸馏多聚焦图像融合网络模型输出的最终决策图;
步骤四:测试阶段,输入两幅多聚焦图像I1、I2,输出其对应重构结果
Figure FDA0003272347850000023
以及最终融合结果Ffinal
CN202111106048.7A 2021-09-22 2021-09-22 深度蒸馏的多聚焦图像融合方法 Active CN113762484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111106048.7A CN113762484B (zh) 2021-09-22 2021-09-22 深度蒸馏的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111106048.7A CN113762484B (zh) 2021-09-22 2021-09-22 深度蒸馏的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN113762484A true CN113762484A (zh) 2021-12-07
CN113762484B CN113762484B (zh) 2022-12-13

Family

ID=78796716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111106048.7A Active CN113762484B (zh) 2021-09-22 2021-09-22 深度蒸馏的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN113762484B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205181A (zh) * 2022-09-15 2022-10-18 季华实验室 一种多聚焦图像融合方法、装置、电子设备及存储介质
CN116597268A (zh) * 2023-07-17 2023-08-15 中国海洋大学 一种高效的多聚焦图像融合方法及其模型搭建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052487A1 (zh) * 2019-09-18 2021-03-25 华为技术有限公司 扩展景深图像的获取方法、装置及电子设备
CN112581409A (zh) * 2021-01-05 2021-03-30 西安理工大学 一种基于端到端的多重信息蒸馏网络的图像去雾方法
CN113159236A (zh) * 2021-05-26 2021-07-23 中国工商银行股份有限公司 基于多尺度变换的多聚焦图像融合方法及装置
CN113313663A (zh) * 2021-06-09 2021-08-27 哈尔滨工业大学 基于零样本学习的多聚焦图像融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052487A1 (zh) * 2019-09-18 2021-03-25 华为技术有限公司 扩展景深图像的获取方法、装置及电子设备
CN112581409A (zh) * 2021-01-05 2021-03-30 西安理工大学 一种基于端到端的多重信息蒸馏网络的图像去雾方法
CN113159236A (zh) * 2021-05-26 2021-07-23 中国工商银行股份有限公司 基于多尺度变换的多聚焦图像融合方法及装置
CN113313663A (zh) * 2021-06-09 2021-08-27 哈尔滨工业大学 基于零样本学习的多聚焦图像融合方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BINGBING NI 等: "Multilevel Depth and Image Fusion for Human Activity Detection", 《IEEE JOURNALS & MAGAZINE》 *
YU LIU 等: "A general framework for image fusion based on multi-scale transform and sparse representation", 《INFORMATION FUSION》 *
刘子闻等: "自学习规则下的多聚焦图像融合", 《中国图象图形学报》 *
刘帆等: "一种基于深度神经网络模型的多聚焦图像融合方法", 《山东大学学报(工学版)》 *
吴雪: "基于改进多尺度分析的红外与可见光图像融合方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205181A (zh) * 2022-09-15 2022-10-18 季华实验室 一种多聚焦图像融合方法、装置、电子设备及存储介质
CN116597268A (zh) * 2023-07-17 2023-08-15 中国海洋大学 一种高效的多聚焦图像融合方法及其模型搭建方法
CN116597268B (zh) * 2023-07-17 2023-09-22 中国海洋大学 一种高效的多聚焦图像融合方法及其模型搭建方法

Also Published As

Publication number Publication date
CN113762484B (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN106846463B (zh) 基于深度学习神经网络的显微图像三维重建方法及系统
CN113762484B (zh) 深度蒸馏的多聚焦图像融合方法
Yang et al. Review of deep learning for photoacoustic imaging
Liu et al. Perception consistency ultrasound image super-resolution via self-supervised CycleGAN
CN113240691B (zh) 一种基于u型网络的医学图像分割方法
Wang et al. Quantification of full left ventricular metrics via deep regression learning with contour-guidance
Balakrishna et al. Automatic detection of lumen and media in the IVUS images using U-Net with VGG16 Encoder
Nazir et al. SemAttNet: Toward attention-based semantic aware guided depth completion
Hong et al. Qau-Net: Quartet attention U-Net for liver and liver-tumor segmentation
Xu et al. Rendering portraitures from monocular camera and beyond
CN107329233A (zh) 一种基于神经网络的微滴式pcr仪自动对焦方法
CN111833267A (zh) 一种进行运动模糊复原的双重生成对抗网络及其运行方法
Yang et al. Deep learning for photoacoustic imaging: a survey
CN113112534A (zh) 一种基于迭代式自监督的三维生物医学图像配准方法
CN114693744A (zh) 一种基于改进循环生成对抗网络的光流无监督估计方法
CN110490968A (zh) 基于生成对抗网络的光场轴向重聚焦图像超分辨方法
Song et al. Light-field microscopy for the optical imaging of neuronal activity: When model-based methods meet data-driven approaches
Si et al. Fully self-supervised depth estimation from defocus clue
CN117611601A (zh) 基于文字辅助的半监督3d医学图像分割方法
CN111242038B (zh) 一种基于帧预测网络的动态舌颤检测方法
CN115423722A (zh) 低采样率下基于条件生成对抗网络的计算鬼成像方法
CN114529476A (zh) 基于解耦-融合网络的无透镜全息显微成像相位恢复方法
Gill et al. Focus guided light field saliency estimation
Arthy et al. Deep Capsule Residual Networks for Better Diagnosis Rate in Medical Noisy Images.
Liu et al. An end to end thyroid nodule segmentation model based on optimized U-net convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Zhao Fan

Inventor after: Zhao Wenda

Inventor after: Wu Xue

Inventor after: Liu Yu

Inventor after: Zhang Yiming

Inventor before: Zhao Fan

Inventor before: Zhao Wenda

Inventor before: Wu Xue

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant