CN114549318A - 基于亚体素卷积神经网络的超高分辨荧光显微成像方法 - Google Patents

基于亚体素卷积神经网络的超高分辨荧光显微成像方法 Download PDF

Info

Publication number
CN114549318A
CN114549318A CN202210170051.3A CN202210170051A CN114549318A CN 114549318 A CN114549318 A CN 114549318A CN 202210170051 A CN202210170051 A CN 202210170051A CN 114549318 A CN114549318 A CN 114549318A
Authority
CN
China
Prior art keywords
dimensional
microscopic imaging
voxel
ultrahigh
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210170051.3A
Other languages
English (en)
Inventor
刘欣
刘成成
李博艺
他得安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202210170051.3A priority Critical patent/CN114549318A/zh
Publication of CN114549318A publication Critical patent/CN114549318A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

本发明提供一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,基于结合了多分支结构和残差学习的端到端三维亚体素卷积神经网络构建并训练得到超高分辨三维光学显微成像模型,通过该成像模型将原始光学低分辨率图像映射到三维超高分辨荧光探针的定位图像上,从而应用于三维超高分辨荧光显微成像。相较于现有的显微成像技术,该基于亚体素卷积神经网络的超高分辨荧光显微成像方法显著改善了超高分辨荧光显微成像的轴向分辨率,并且降低了三维荧光显微超分辨重建的计算复杂度。而且经网络训练成功得到的超高分辨三维光学显微成像模型即不需要额外的人工参数调节,也不需要额外的人工干预,适用于快速、灵活、三维超高分辨荧光显微成像。

Description

基于亚体素卷积神经网络的超高分辨荧光显微成像方法
技术领域
本发明属于显微成像技术领域,具体涉及基于亚体素卷积神经网络的超高分辨荧光显微成像方法。
背景技术
超高分辨荧光定位显微成像技术是生物医学研究中不可缺少的工具,极大的促进了学者对微观世界的探索。对比传统荧光显微成像,通过将单分子定位方法与光可开关荧光探针相结合,超高分辨荧光定位显微成像方法突破了光学衍射极限,能够在纳米尺度对活细胞的胞内细胞器或分子结构进行成像。
然而,目前的超高分辨荧光显微成像技术主要集中在二维尺度。随着生物医学的发展,科研人员更希望能够在纳米尺度下观察细胞的三维结构及其空间关系,即进行三维超高分辨成像。但是,由于光在细胞内的散射等现象,致使目前提出的基于单分子定位的方法无法有效解析深度(Z轴)信息,导致三维荧光显微成像的轴向分辨率相较横向分辨率较低。
深度学习作为一种新兴技术,已成功应用于超高分辨荧光显微成像研究,并取得重要进展。但是,现有基于深度学习的超高分辨荧光显微成像方法主要通过二维卷积操作实现超高分辨成像。尽管其可在二维尺度有效改善超高分辨荧光显微成像性能,但是其轴向分辨率仍远低于横向分辨率。
相较于传统的二维卷积神经网络,三维卷积神经网络可以同时处理三维图像的横向信息和轴向信息,有效学习三维尺度下的图像特征。然而,在训练深度三维卷积神经网络过程中,随着网络加深,易导致梯度消失或梯度爆炸问题,使得网络训练难以收敛。
发明内容
为解决上述问题,提供一种显著改善超高分辨荧光显微成像的轴向分辨率、并且降低三维荧光显微超分辨重建的计算复杂度的成像方法,本发明采用了如下技术方案:
本发明提供了一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于,包括以下步骤:步骤S1,基于三维亚体素卷积神经网络构建深度学习模型并进行训练,将训练好的深度学习模型作为超高分辨三维光学显微成像模型;步骤S2,获取待成像的原始三维荧光显微图像序列;步骤S3,将原始三维荧光显微图像序列输入至超高分辨三维光学显微成像模型中以获取每一帧对应的超高分辨荧光探针定位结果;步骤S4,将所有帧的超高分辨荧光探针定位结果进行叠加,获得超高三维荧光显微成像图,其中,三维亚体素卷积神经网络包含若干个三维卷积层、三分支多尺度卷积模块以及与三维卷积层跳跃连接的残差模块。
本发明提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,还可以具有这样的技术特征,其中,超高分辨三维光学显微成像模型通过以下步骤得到:步骤S1-1,基于三维亚体素卷积神经网络构建深度学习模型;步骤S1-2,获取仿真训练数据;步骤S1-3,构建损失函数;步骤S1-4,将仿真训练数据作为输入,使用损失函数对深度学习模型采用Adam优化算法进行优化遍历训练,得到超高分辨三维光学显微成像模型。
本发明提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,还可以具有这样的技术特征,其中,仿真训练数据基于以下步骤得到:步骤S1-3-1,在预定像素的三维网格区域中生成随机分布在仿真结构模板内的若干个荧光分子,基于光学显微成像系统对当前分布进行仿真成像;步骤S1-3-2,随机改变仿真结构模板内激活的荧光分子的位置,利用光学显微成像系统再次进行仿真成像;步骤S1-3-3,将步骤S1-3-2重复预定次数并获取预定帧仿真光学图像;步骤S1-3-4,利用前向模型通过在荧光分子的真实位置处的冲激函数与三维PSF卷积从而模拟光学成像过程,获得无噪声仿真光学图像;步骤S1-3-5,为无噪声仿真光学图像逐一添加背景噪声得到有噪声仿真光学图像,将有噪声仿真光学图像作为仿真训练数据。
本发明提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,还可以具有这样的技术特征,其中,损失函数为MSE与L1正则化的结合:
Figure BDA0003517272820000031
式中,y是训练标签,荧光分子真实分布的成像图,
Figure BDA0003517272820000032
是网络的预测输出图像,N是网络每次优化遍历的小批量图像数量。
本发明提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,还可以具有这样的技术特征,其中,在优化遍历训练中,训练周期为600,网络每次优化遍历的小批量图像数量N为8,初始学习率为0.0001。
本发明提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,还可以具有这样的技术特征,其中,三维卷积层为10个,第1个卷积层用于提取图像的浅层特征,第2个卷积层至第4个卷积层引入跳跃连接构成一个残差模块,用于实现局部残差学习,第5个卷积层至第7个卷积层用于学习同尺度深层特征,三分支多尺度卷积模块在第5个卷积层至第7个卷积层之后,该三分支多尺度卷积模块采用具有不同感受野的支路学习多尺度特征,并添加跳跃连接用于残差学习,第6个卷积层和第9个卷积层相连接,用于实现不同层次、尺度的特征融合,第10个卷积层用于实现上采样操作。
发明作用与效果
根据本发明的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,基于结合了多分支结构和残差学习的端到端三维亚体素卷积神经网络构建了深度学习模型,对该深度学习模型进行训练得到超高分辨三维光学显微成像模型,通过该成像模型将原始光学低分辨率图像映射到三维超高分辨荧光探针的定位图像上,从而应用于三维超高分辨荧光显微成像。由于三维亚体素卷积神经网络通过跳跃连接实现浅层网络与深层网络间的特征融合,因此使得网络训练的误差大大减小,并收敛到一个较小的值附近,从而提高了荧光定位的精确度。
相较于现有的显微成像技术,本发明的基于亚体素卷积神经网络的超高分辨荧光显微成像方法显著改善了超高分辨荧光显微成像的轴向分辨率,并且降低了三维荧光显微超分辨重建的计算复杂度。而且经网络训练成功得到的超高分辨三维光学显微成像模型即不需要额外的人工参数调节,也不需要额外的人工干预,适用于快速、灵活、三维超高分辨荧光显微成像。
附图说明
图1是本发明实施例中基于亚体素卷积神经网络的超高分辨荧光显微成像方法的流程图;
图2是本发明实施例中三维亚体素卷积神经网络的结构示意图;
图3是本发明实施例中仿真实验使用的仿体模型示意图;
图4是本发明实施例中的仿体模型的原始成像图像示意图;
图5是本发明实施例中基于亚体素卷积神经网络的超高分辨荧光显微成像方法重建得到的三维超高分辨荧光显微成像结果示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的亚体素卷积神经网络的超高分辨荧光显微成像方法作具体阐述。
<实施例>
图1是本发明实施例中基于亚体素卷积神经网络的超高分辨荧光显微成像方法的流程图。
如图1所示,基于亚体素卷积神经网络的超高分辨荧光显微成像方法包括以下步骤:
步骤S1,基于三维亚体素卷积神经网络构建深度学习模型并进行训练,将训练好的深度学习模型作为超高分辨三维光学显微成像模型。
本实施例中,采用一种结合多分支结构和残差学习的端到端亚体素卷积神经网络,应用于三维超高分辨荧光显微成像。该神经网络的初始输入是原始低分辨光学图像,相应的最终输出是超高分辨三维荧光定位图像。
该步骤S1中,超高分辨三维光学显微成像模型获取过程如下:
步骤S1-1,基于三维亚体素卷积神经网络构建深度学习模型。
图2是本发明实施例中三维亚体素卷积神经网络的结构示意图。
本实施例中,如图2所示,该三维亚体素卷积神经网络包含10个三维卷积层、一个三分支多尺度卷积模块。其中,第1个卷积层用于提取图像的浅层特征。紧接着第2个卷积层至第4个卷积层引入跳跃连接构成一个残差模块,用于实现局部残差学习。三分支多尺度卷积模块之前层叠三个卷积层,即第5个卷积层至第7个卷积层,用于学习同尺度深层特征。而三分支多尺度卷积模块采用具有不同感受野的支路学习多尺度特征,并添加跳跃连接用于残差学习。第6个卷积层和第9个卷积层相连接,用于实现不同层次、尺度的特征融合。网络末端的第10个卷积层(亚体素卷积层)用于实现上采样操作。
图3是本发明实施例中仿真实验使用的仿体模型示意图,图4是本发明实施例中的仿体模型的原始成像图像示意图。
步骤S1-2,基于如图3所示的仿体模型获取仿真训练数据。具体地:
步骤S1-3-1,在32x32x32的三维网格区域(不包括图像角落处的小边界)中生成随机分布在仿真结构模板内的若干个荧光分子,基于光学显微成像系统对当前分布进行仿真成像;
步骤S1-3-2,随机改变仿真结构模板内激活的荧光分子的位置,利用光学显微成像系统再次进行仿真成像;
步骤S1-3-3,为了模拟成像区域内荧光分子在生物组织内不断流动的过程,将上述步骤S1-3-2重复1000次获取1000帧原始仿真光学图像,如图4所示;
步骤S1-3-4,利用前向模型通过在荧光分子的真实位置处的冲激函数与三维PSF卷积从而模拟光学成像过程,获得无噪声仿真光学图像;
步骤S1-3-5,为无噪声仿真光学图像逐一添加背景噪声得到有噪声仿真光学图像,将有噪声仿真光学图像作为仿真训练数据。
本实施例中,是直接通过神经网络将原始光学低分辨率图像映射到三维超高分辨荧光探针的定位图像,因此损失函数对网络的训练有很大影响。而采用图像处理中常用的均方误差(MSE)损失函数来训练深度学习模型会使得重建图像过于平滑,无法很好地保留图像细节信息,不适用于三维荧光探针定位任务。因此,本实施例采用MSE结合L1正则化的损失函数来训练网络。
步骤S1-3,构建MSE结合L1正则化的损失函数,该函数表示如下:
Figure BDA0003517272820000081
式中,y是训练标签,荧光分子真实分布的成像图,
Figure BDA0003517272820000082
是网络的预测输出图像,N是网络每次优化遍历的小批量图像数量。
步骤S1-4,将仿真训练数据作为输入,使用损失函数对深度学习模型采用Adam优化算法进行优化遍历训练,得到超高分辨三维光学显微成像模型。
具体训练过程为,使用Adam优化算法在包含1500对原始三维仿真光学图像和相应标签的训练集上训练总共600个周期(即遍历训练集600次),其中网络每次优化遍历的小批量图像数量大小N为8,初始学习率为0.0001。为了使误差收敛到较小的值,使用学习率衰减策略,具体为每经过100轮学习率衰减一半(降低训练误差平稳时的学习率)。
步骤S2,获取待成像的原始三维荧光显微图像序列。
步骤S3,将原始三维荧光显微图像序列输入至超高分辨三维光学显微成像模型中以获取每一帧对应的超高分辨荧光探针定位结果。
步骤S4,将所有帧的超高分辨荧光探针定位结果进行叠加,获得超高三维荧光显微成像图。
图5是本发明实施例中基于亚体素卷积神经网络的超高分辨荧光显微成像方法重建得到的三维超高分辨荧光显微成像结果示意图。
本实施例中,基于训练得到的超高分辨三维光学显微成像模型对实验获取的仿体模型的低分辨原始光学显微图像进行处理,最终得到的三维超高分辨光学显微成像图像如图5所示。
实施例作用与效果
根据本实施例提供的基于亚体素卷积神经网络的超高分辨荧光显微成像方法,基于结合了多分支结构和残差学习的端到端三维亚体素卷积神经网络构建了深度学习模型,对该深度学习模型进行训练得到超高分辨三维光学显微成像模型,通过该成像模型将原始光学低分辨率图像映射到三维超高分辨荧光探针的定位图像上,从而应用于三维超高分辨荧光显微成像。
相较于现有的显微成像技术,本实施例的基于亚体素卷积神经网络的超高分辨荧光显微成像方法显著改善了超高分辨荧光显微成像的轴向分辨率,并且降低了三维荧光显微超分辨重建的计算复杂度。而且经网络训练成功得到的超高分辨三维光学显微成像模型即不需要额外的人工参数调节,也不需要额外的人工干预,适用于快速、灵活、三维超高分辨荧光显微成像。
实施例中,由于三维亚体素卷积神经网络通过跳跃连接实现浅层网络与深层网络间的特征融合,因此使得网络训练的误差大大减小,并收敛到一个较小的值附近,从而提高了荧光定位的精确度。
实施例中,还由于使用了MSE结合L1正则化损失函数来训练深度学习模型,解决了由传统均方误差(MSE)损失函数来训练深度学习模型带来的重建图像过于平滑,导致无法很好地保留图像细节信息等问题,能够更好地适用于三维荧光探针定位任务。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (6)

1.一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于,包括以下步骤:
步骤S1,基于三维亚体素卷积神经网络构建深度学习模型并进行训练,将训练好的深度学习模型作为超高分辨三维光学显微成像模型;
步骤S2,获取待成像的原始三维荧光显微图像序列;
步骤S3,将所述原始三维荧光显微图像序列输入至所述超高分辨三维光学显微成像模型中以获取每一帧对应的超高分辨荧光探针定位结果;
步骤S4,将所有帧的所述超高分辨荧光探针定位结果进行叠加,获得超高三维荧光显微成像图,
其中,所述三维亚体素卷积神经网络包含若干个三维卷积层、三分支多尺度卷积模块以及与所述三维卷积层跳跃连接的残差模块。
2.根据权利要求1所述的一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于:
其中,所述超高分辨三维光学显微成像模型通过以下步骤得到:
步骤S1-1,基于三维亚体素卷积神经网络构建深度学习模型;
步骤S1-2,获取仿真训练数据;
步骤S1-3,构建损失函数;
步骤S1-4,将所述仿真训练数据作为输入,使用所述损失函数对所述深度学习模型采用Adam优化算法进行优化遍历训练,得到所述超高分辨三维光学显微成像模型。
3.根据权利要求2所述的一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于:
其中,所述仿真训练数据基于以下步骤得到:
步骤S1-3-1,在预定像素的三维网格区域中生成随机分布在仿真结构模板内的若干个荧光分子,基于光学显微成像系统对当前分布进行仿真成像;
步骤S1-3-2,随机改变所述仿真结构模板内激活的荧光分子的位置,利用所述光学显微成像系统再次进行仿真成像;
步骤S1-3-3,将所述步骤S1-3-2重复预定次数并获取预定帧仿真光学图像;
步骤S1-3-4,利用前向模型通过在所述荧光分子的真实位置处的冲激函数与三维PSF卷积从而模拟光学成像过程,获得无噪声仿真光学图像;
步骤S1-3-5,为所述无噪声仿真光学图像逐一添加背景噪声得到有噪声仿真光学图像,将所述有噪声仿真光学图像作为所述仿真训练数据。
4.根据权利要求2所述的一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于:
其中,所述损失函数为MSE与L1正则化的结合:
Figure FDA0003517272810000031
式中,y是训练标签,荧光分子真实分布的成像图,
Figure FDA0003517272810000032
是网络的预测输出图像,N是网络每次优化遍历的小批量图像数量。
5.根据权利要求2所述的一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于:
其中,在所述优化遍历训练中,训练周期为600,网络每次优化遍历的小批量图像数量N为8,初始学习率为0.0001。
6.根据权利要求1所述的一种基于亚体素卷积神经网络的超高分辨荧光显微成像方法,其特征在于:
其中,所述三维卷积层为10个,
第1个卷积层用于提取图像的浅层特征,
第2个卷积层至第4个卷积层引入跳跃连接构成一个所述残差模块,用于实现局部残差学习,
第5个卷积层至第7个卷积层用于学习同尺度深层特征,
所述三分支多尺度卷积模块在第5个卷积层至第7个卷积层之后,该三分支多尺度卷积模块采用具有不同感受野的支路学习多尺度特征,并添加跳跃连接用于残差学习,
第6个卷积层和第9个卷积层相连接,用于实现不同层次、尺度的特征融合,
第10个卷积层用于实现上采样操作。
CN202210170051.3A 2022-02-23 2022-02-23 基于亚体素卷积神经网络的超高分辨荧光显微成像方法 Pending CN114549318A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210170051.3A CN114549318A (zh) 2022-02-23 2022-02-23 基于亚体素卷积神经网络的超高分辨荧光显微成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210170051.3A CN114549318A (zh) 2022-02-23 2022-02-23 基于亚体素卷积神经网络的超高分辨荧光显微成像方法

Publications (1)

Publication Number Publication Date
CN114549318A true CN114549318A (zh) 2022-05-27

Family

ID=81678110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210170051.3A Pending CN114549318A (zh) 2022-02-23 2022-02-23 基于亚体素卷积神经网络的超高分辨荧光显微成像方法

Country Status (1)

Country Link
CN (1) CN114549318A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220211A (zh) * 2022-07-29 2022-10-21 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN116503258A (zh) * 2023-06-20 2023-07-28 中国科学院生物物理研究所 超分辨计算成像方法、装置、电子设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220211A (zh) * 2022-07-29 2022-10-21 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN115220211B (zh) * 2022-07-29 2024-03-08 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN116503258A (zh) * 2023-06-20 2023-07-28 中国科学院生物物理研究所 超分辨计算成像方法、装置、电子设备及存储介质
CN116503258B (zh) * 2023-06-20 2023-11-03 中国科学院生物物理研究所 超分辨计算成像方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108550115B (zh) 一种图像超分辨率重建方法
CN111047515B (zh) 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法
Liu et al. A survey on applications of deep learning in microscopy image analysis
CN108460726B (zh) 一种基于增强递归残差网络的磁共振图像超分辨重建方法
CN109214989B (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN114549318A (zh) 基于亚体素卷积神经网络的超高分辨荧光显微成像方法
CN109829855A (zh) 一种基于融合多层次特征图的超分辨率重建方法
CN107464216A (zh) 一种基于多层卷积神经网络的医学图像超分辨率重构方法
CN113506222B (zh) 一种基于卷积神经网络的多模态图像超分辨方法
Du et al. Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network
CN109884018A (zh) 一种基于神经网络的亚微米级无透镜显微成像方法及系统
CN110210524A (zh) 一种图像增强模型的训练方法、图像增强方法及装置
CN111583285A (zh) 一种基于边缘关注策略的肝脏影像语义分割方法
CN111899165A (zh) 一种基于功能模块的多任务图像重建卷积网络模型
CN113066025B (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN113763406B (zh) 基于半监督学习的婴儿脑mri分割方法
CN114581453A (zh) 基于多轴面特征融合二维卷积神经网络的医学图像分割方法
CN114331911A (zh) 一种基于卷积神经网络的傅里叶叠层显微图像去噪方法
CN114092329B (zh) 一种基于亚像素神经网络的超分辨荧光显微成像方法
CN116563100A (zh) 一种基于内核引导网络的盲超分辨率重建方法
Yang et al. An effective and comprehensive image super resolution algorithm combined with a novel convolutional neural network and wavelet transform
CN111524078B (zh) 一种基于稠密网络的显微镜图像去模糊方法
JP2023532755A (ja) 画像を処理するためのコンピュータ実装方法、コンピュータプログラム製品、およびシステム
CN116091492B (zh) 一种图像变化像素级检测方法与系统
Yang et al. RSAMSR: A deep neural network based on residual self-encoding and attention mechanism for image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination