CN110443882B - 基于深度学习算法的光场显微三维重建方法及装置 - Google Patents

基于深度学习算法的光场显微三维重建方法及装置 Download PDF

Info

Publication number
CN110443882B
CN110443882B CN201910602894.4A CN201910602894A CN110443882B CN 110443882 B CN110443882 B CN 110443882B CN 201910602894 A CN201910602894 A CN 201910602894A CN 110443882 B CN110443882 B CN 110443882B
Authority
CN
China
Prior art keywords
light field
data
network
dimensional
microscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910602894.4A
Other languages
English (en)
Other versions
CN110443882A (zh
Inventor
戴琼海
乔晖
李晓煦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910602894.4A priority Critical patent/CN110443882B/zh
Publication of CN110443882A publication Critical patent/CN110443882A/zh
Application granted granted Critical
Publication of CN110443882B publication Critical patent/CN110443882B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Abstract

本发明公开了一种基于深度学习算法的光场显微三维重建方法及装置,其中,方法包括:搭建光场显微成像系统;通过对光场显微成像系统进行仿真得到成像系统的点扩散函数;生成仿真样本体分布数据集;通过点扩散函数与对应的样本数据生成仿真光场数据集,并对可能产生的噪声及背景模型进行校正;搭建深度卷积神经网络,以仿真光场数据作为网络的输入,并以仿真样本体分布数据作为网络的输出,根据显微样本设计损失函数对网络进行训练;在完成模型的训练后,将待重建的光场显微数据输入模型进行测试,获取对应样本体分布数据的预测值。该方法可以在保持光场快速采集三维信息优势的同时,实现快速的、高分辨的、少伪影的光场数据三维重建。

Description

基于深度学习算法的光场显微三维重建方法及装置
技术领域
本发明涉及计算光学、计算摄像学、计算机视觉和计算机图形学等技术领域,特别涉及一种基于深度学习算法的光场显微三维重建方法及装置。
背景技术
生命科学和医学技术的发展对三维快速体成像技术提出了更高的要求。在这种情况下,光场显微技术以其同时获得样本空间信息和角度信息的特点成为了一种备受关注的方法。由于光场可以快速获取样本的三维信息,其成为了快速成像问题的一种通用解决方法。在被引入到光学显微中之后,光场显微技术在例如钙信号成像等三维成像问题的生物光学成像问题中扮演着越来越重要的角色。
尽管光场显微技术具有快速获取样本三维信息的能力,但是其常用的重建算法——三维解卷积算法存在一些固有的问题,从而严重地限制了光场显微应用范围的扩展。第一,为了达到精确的效果,拟合方法需要对点扩散函数有着较为准确的估计,但是这在实验中是难以测量的。第二,基于极大似然估计的三维解卷积算法往往需要大量的迭代步骤以达到较好的收敛效果,这就对重建的速度造成了限制。第三,由于焦面处的分辨率存在物理限制,而传统方法是无法有效解决这一问题的。此外,由于问题的病态性,三维解卷积算法常常造成无法预计的噪声。综上所述,可以发现,尽管与其他三维成像方法相比,光场显微技术在一些方面有着显著的优势,但是其重建算法仍有待提高。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习算法的光场显微三维重建方法,该方法可以在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
本发明的另一个目的在于提出一种基于深度学习算法的光场显微三维重建装置。
为达到上述目的,本发明一方面实施例提出了一种基于深度学习算法的光场显微三维重建方法,包括以下步骤:搭建光场显微成像系统,以采集空间与角度四维光场数据;根据光场传播原理对所述光场显微成像系统进行仿真,以得到成像系统的点扩散函数;获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集;通过所述点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正;搭建以生成对抗网络为基础的深度卷积神经网络,以所述仿真光场数据作为网络的输入,并以所述仿真样本体分布数据作为所述网络的输出,根据显微样本设计损失函数对所述网络进行训练;在完成所述模型的训练后,将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值。
本发明实施例的基于深度学习算法的光场显微三维重建方法,通过单次拍摄实现对样本空间与角度四维信息的采集,并可以通过基于深度学习算法的卷积神经网络学习,实现从单张二维光场图像到对应三维样本体分布数据的重建映射,从而在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于深度学习算法的光场显微三维重建方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述通过所述点扩散函数与对应的样本数据生成仿真光场数据集,包括:利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的所述点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
进一步地,在本发明的一个实施例中,所述损失函数为:
lossG=lossmse1·lossD_G2·losstv
其中,ω1和ω2分别代表损失函数各项之间的权重。
进一步地,在本发明的一个实施例中,其中,
Figure BDA0002119867870000021
Figure BDA0002119867870000022
Figure BDA0002119867870000023
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值。
进一步地,在本发明的一个实施例中,所述将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值,包括:对所述待重建的光场显微数据进行预处理,以使所述待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
为达到上述目的,本发明另一方面实施例提出了一种基于深度学习算法的光场显微三维重建装置,包括:成像系统模块,用于搭建光场显微成像系统,以采集空间与角度四维光场数据;系统仿真模块,用于根据光场传播原理对所述光场显微成像系统进行仿真,以得到成像系统的点扩散函数;样本生成模块,用于获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集;仿真成像模块,用于通过所述点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正;网络训练模块,用于搭建以生成对抗网络为基础的深度卷积神经网络,以所述仿真光场数据作为网络的输入,并以所述仿真样本体分布数据作为所述网络的输出,根据显微样本设计损失函数对所述网络进行训练;实验测试模块,用于在完成所述模型的训练后,将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值。
本发明实施例的基于深度学习算法的光场显微三维重建装置,通过单次拍摄实现对样本空间与角度四维信息的采集,并可以通过基于深度学习算法的卷积神经网络学习,实现从单张二维光场图像到对应三维样本体分布数据的重建映射,从而在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于深度学习算法的光场显微三维重建装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述仿真成像模块进一步用于利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的所述点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
进一步地,在本发明的一个实施例中,所述损失函数为:
lossG=lossmse1·lossD_G2·losstv
其中,ω1和ω2分别代表损失函数各项之间的权重。
进一步地,在本发明的一个实施例中,其中,
Figure BDA0002119867870000031
Figure BDA0002119867870000032
Figure BDA0002119867870000033
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值。
进一步地,在本发明的一个实施例中,所述实验测试模块进一步用于对所述待重建的光场显微数据进行预处理,以使所述待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于深度学习算法的光场显微三维重建方法的流程图;
图2为根据本发明实施例的基于深度学习算法的光场显微三维重建系统的结构图;
图3为根据本发明实施例的深度卷积神经网络的整体结构图;
图4为根据本发明实施例的深度卷积神经网络中生成网络的结构图;
图5为根据本发明实施例的深度卷积神经网络中鉴别网络的结构图;
图6为根据本发明实施例的基于深度学习算法的光场显微三维重建装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于深度学习算法的光场显微三维重建方法及装置,首先将参照附图描述根据本发明实施例提出的基于深度学习算法的光场显微三维重建方法。
图1是本发明一个实施例的基于深度学习算法的光场显微三维重建方法的流程图。
如图1所示,该基于深度学习算法的光场显微三维重建方法包括以下步骤:
在步骤S101中,搭建光场显微成像系统,以采集空间与角度四维光场数据。
可以理解的是,如图1所示,设计并搭建光场显微成像系统,实现对空间与角度四维光场数据的采集。
其中,的光场显微成像系统是通过微透镜阵列实现角度信息与空间信息的同时采集,在单次采集获得样本的三维信息,从而获得较高的时间分辨率。
具体而言,利用激光器对荧光样本进行激发,利用双向透镜对激发光和荧光进行分离,利用微透镜阵列对光的位置和角度信息实现同时采集。具体光路搭建如图2所示,光场成像系统主要包括激光器、双向透镜、透镜、微透镜阵列及传感器阵列等器件,其中,激光器为光源,用于使样本产生相应波长的荧光;双向透镜用于滤去光源产生的固定波长的光,而使得需要采集的荧光按照对应的波长通过;透镜用于将发散的光汇聚为平行光;微透镜阵列用于将光束的空间信息与角度信息进行解耦;传感器阵列用于对光束相应位置的强度信息进行采集。
在步骤S102中,根据光场传播原理对光场显微成像系统进行仿真,以得到成像系统的点扩散函数。
其中,的对成像系统的仿真是基于波动光学标量衍射理论推导的,以点扩散函数对成像系统进行建模,最终得到与成像过程原理相同的仿真模型,通过参数的匹配可以获得与实验图像相近的仿真图像。
具体而言,样本经过成像系统的成像过程等价于样本的三维体分布数据与相应位置的点扩散函数的卷积加和,因此系统的点扩散函数是成像系统的一种特征表达。本发明实施例的仿真算法中使用了基于波动光学的衍射理论对光场显微系统的点扩散函数进行了仿真计算,通过将算法中的成像视场大小、样本尺寸、分辨率大小、微透镜焦距等参数进行匹配后,可以得到与实验系统的点扩散函数相近的仿真点扩散函数。
在步骤S103中,获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集。
其中,的对三维样本体分布数据集的参数及分布特性的设计以及对仿真样本体分布数据集的生成,是通过引入合理随机性的仿真算法生成与实验样本特征分布相近的仿真三维样本体分布数据,以用于对网络模型的训练。
具体而言,设计三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集,即通过仿真算法,在引入合理随机性的前提下,按照实际生物样本中可能存在的分布特征,如空间分布、时域变化、形态结构以及强度分布等,生成相应的仿真样本数据集,使之与实验过程中的样本基本符合同样的规律和性质。
在步骤S104中,通过点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正。
进一步地,在本发明的一个实施例中,通过点扩散函数与对应的样本数据生成仿真光场数据集,包括:利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
可以理解的是,通过仿真计算得到的点扩散函数与对应的样本数据生成仿真光场数据集,是指利用基本成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
具体而言,仿真计算得到的点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正。通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像;并对实验过程中常见的噪声类型(包括但不限于高斯噪声、泊松噪声等)以及背景光(包括但不限于整体直流分量以及微透镜阵列带来的局部背景差异)进行建模,并通过与实采图像的对比计算相关参数,实现对仿真光场数据的校正。
在步骤S105中,搭建以生成对抗网络为基础的深度卷积神经网络,以仿真光场数据作为网络的输入,并以仿真样本体分布数据作为网络的输出,根据显微样本设计损失函数对网络进行训练。
其中,设计并实现以生成对抗网络为基础的深度卷积神经网络是指设计了一种生成对抗式的网络结构,将生成网络的预测输出与真实目标输出混合输入鉴别网络进行判别,通过生成网络和鉴别网络的相互对抗和共同优化,最终达到鉴别网络难以区分生成网络的预测输出为目标的收敛解。
具体而言,设计了一种生成对抗式的网络结构,如图3所示,网络结构包含生成网络与鉴别网络两部分,其中,生成网络的输入为单张二维光场显微图像,输出为对应的样本三维体分布数据;鉴别网络的输入为,生成网络生成的样本三维体分布数据以及作为真实值的样本三维体分布数据,对应于不同的分类类别。具体地,生成网络主要由卷积层、池化层、级联层、上采样层等神经网络常用结构,构建了从单张二维输入光场到对应的三维样本体分布的多特征通道全卷积神经网络;鉴别网络利用了卷积层、变形层、全连接层等神经网络常用,结构构建了对输入三维样本体分布进行二分类的卷积神经网络,用于判断输入的三维样本体分布是来源于真值或是生成网络。通过生成网络和鉴别网络的相互对抗和共同优化,最终达到鉴别网络难以区分生成网络的预测输出为目标的收敛解。
下面将结合附图对深度卷积神经网络中生成网络鉴别网络进行进一步阐述。
如图4所示,生成网络中主要包含卷积层、批正则化层、线性整流激活函数单元、池化层、上采样层、级联层等,构建了从单张光场图像到三维样本体分布的端到端的网络结构。其中,在网络提取特征的前几层使用了卷积核大小不同的平行卷积单元,然后通过级联层将其相连继续传入后续的网络层之中。卷积层、批归一化层和线性整流激活函数组成卷积单元,用于提取特征;池化层用于对提取的特征进行整合,将最显著的特征表达出来;上采样层用于对特征进行上采样表达,填充到需要的输出尺寸;级联层用于跨层级联特征,从而增加参与回归的特征,以实现更好的效果。需要说明的是,图3给出的是本发明实施例的网络的一种实施例,提出的是一种结构而非一套参数配置。
如图5所示,鉴别网络利用了卷积层、变形层、全连接层等神经网络常用结构构建了对输入三维样本体分布进行二分类的卷积神经网络,用于判断输入的三维样本体分布是来源于真值或是生成网络。其中,卷积层主要用于提取来自与输入三维样本体分布的特征,变形层用于将提取的特征变形为列向量,全连接层用于对列向量进行组合,生成输入分类概率值。需要说明的是,图4给出的是本网络的一种实施例,提出的是一种结构而非一套参数配置。
进一步地,本发明实施例结合了生物显微样本的特征,特别设计适用于生物显微样本的损失函数对网络模型进行训练,主要体现在向损失函数中引入了全微分梯度约束项,用于对生物样本分布的连续性进行约束。网络的损失函数可以分为两部分,即生成网络的损失函数和鉴别网络的损失函数,其中,生成网络的损失函数共有三项,即由均方误差度量的数据拟合项、由鉴别网络对生成的预测值进行判别后用交叉熵度量鉴别项以及使用全微分进行的梯度范数约束项,具体可表示为:
lossG=lossmse1·lossD_G2·losstv
其中,
Figure BDA0002119867870000071
Figure BDA0002119867870000072
Figure BDA0002119867870000073
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值,ω1和ω2分别代表损失函数各项之间的权重。
鉴别网络的损失函数由通过交叉熵函数度量的鉴别误差构成,可表示为:
Figure BDA0002119867870000074
式中各项含义与之前相同。
进一步地,在步骤S105中,设置合适的参数对网络进行训练。网络的输入和输出分别对应于步骤S104和步骤S103中生成的仿真光场数据和仿真样本三维体分布数据。需要训练的参数主要包含两部分,一部分是与网络模型相关的参数,包括但不限于网络的层数、卷积核的大小、提取特征时的使用不同卷积核大小的通道数等,另一部分是与训练过程相关的参数,包括但不限于损失函数中各项的权重、训练的样本数、训练迭代次数、生成网络与鉴别网络训练次数的关系、训练步长等。值得注意的是,网络模型参数以及训练参数都与最终训练结果有较大的联系,因此需要对不同任务进行不同的调整、优化。
在步骤S106中,在完成模型的训练后,将待重建的光场显微数据输入模型进行测试,获取对应样本体分布数据的预测值。
进一步地,在本发明的一个实施例中,将待重建的光场显微数据输入模型进行测试,获取对应样本体分布数据的预测值,包括:对待重建的光场显微数据进行预处理,以使待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
可以理解的是,的将实验采集到的光场显微数据输入网络进行测试以得到对应样本体分布数据的预测值,是指将实验采集到的光场显微数据进行预处理,使得数据的强度范围与训练数据强度范围相匹配后,输入网络进行计算,进一步得到对三维样本体分布数据的预测。
具体而言,将实验采集到的光场显微数据输入网络进行测试以得到对应样本体分布数据的预测值。首先,需要对实验采集到的光场显微数据进行预处理,使得数据的强度范围与训练数据强度范围相匹配,以符合网络对这一成像逆问题非线性建模的范围;然后,在将预处理后的光场图像输入网络进行计算后,可以得到对三维样本体分布数据的预测。
根据本发明实施例提出的基于深度学习算法的光场显微三维重建方法,通过单次拍摄实现对样本空间与角度四维信息的采集,并可以通过基于深度学习算法的卷积神经网络学习,实现从单张二维光场图像到对应三维样本体分布数据的重建映射,从而在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
其次参照附图描述根据本发明实施例提出的基于深度学习算法的光场显微三维重建装置。
图6是本发明一个实施例的基于深度学习算法的光场显微三维重建装置的结构示意图。
如图6所示,该基于深度学习算法的光场显微三维重建装置10包括:成像系统模块100、系统仿真模块200、样本生成模块300、仿真成像模块400、网络训练模块500和实验测试模块600。
其中,成像系统模块100用于搭建光场显微成像系统,以采集空间与角度四维光场数据。系统仿真模块200用于根据光场传播原理对光场显微成像系统的仿真,以得到成像系统的点扩散函数。样本生成模块300用于获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集。仿真成像模块400用于通过点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正。网络训练模块500用于搭建以生成对抗网络为基础的深度卷积神经网络,以仿真光场数据作为网络的输入,并以仿真样本体分布数据作为网络的输出,根据显微样本设计损失函数对网络进行训练。实验测试模块600用于在完成模型的训练后,将待重建的光场显微数据输入模型进行测试,获取对应样本体分布数据的预测值。本发明实施例的装置10在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
进一步地,在本发明的一个实施例中,仿真成像模块400进一步用于利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
进一步地,在本发明的一个实施例中,损失函数为:
lossG=lossmse1·lossD_G2·losstv
其中,ω1和ω2分别代表损失函数各项之间的权重。
进一步地,在本发明的一个实施例中,其中,
Figure BDA0002119867870000091
Figure BDA0002119867870000092
Figure BDA0002119867870000093
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值。
进一步地,在本发明的一个实施例中,实验测试模块600进一步用于对待重建的光场显微数据进行预处理,以使待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
需要说明的是,前述对基于深度学习算法的光场显微三维重建方法实施例的解释说明也适用于该实施例的基于深度学习算法的光场显微三维重建装置,此处不再赘述。
根据本发明实施例提出的基于深度学习算法的光场显微三维重建装置,通过单次拍摄实现对样本空间与角度四维信息的采集,并可以通过基于深度学习算法的卷积神经网络学习,实现从单张二维光场图像到对应三维样本体分布数据的重建映射,从而在保持光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于深度学习算法的光场显微三维重建方法,其特征在于,包括以下步骤:
搭建光场显微成像系统,以采集空间与角度四维光场数据;
根据光场传播原理对所述光场显微成像系统进行仿真,以得到成像系统的点扩散函数;
获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集;
通过所述点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正;
搭建以生成对抗网络为基础的深度卷积神经网络,以所述仿真光场数据作为网络的输入,并以所述仿真样本体分布数据作为所述网络的输出,根据显微样本设计损失函数对所述网络进行训练;以及
在完成所述模型的训练后,将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值。
2.根据权利要求1所述的方法,其特征在于,所述通过所述点扩散函数与对应的样本数据生成仿真光场数据集,包括:
利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的所述点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
3.根据权利要求1所述的方法,其特征在于,所述损失函数为:
lossG=lossmse1·lossD_G2·losstv
其中,ω1和ω2分别代表损失函数各项之间的权重。
4.根据权利要求3所述的方法,其特征在于,其中,
Figure FDA0002119867860000011
Figure FDA0002119867860000012
Figure FDA0002119867860000013
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值。
5.根据权利要求1所述的方法,其特征在于,所述将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值,包括:
对所述待重建的光场显微数据进行预处理,以使所述待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
6.一种基于深度学习算法的光场显微三维重建装置,其特征在于,包括:
成像系统模块,用于搭建光场显微成像系统,以采集空间与角度四维光场数据;
系统仿真模块,用于根据光场传播原理对所述光场显微成像系统进行仿真,以得到成像系统的点扩散函数;
样本生成模块,用于获取三维样本体分布数据集的参数及分布特性,生成仿真样本体分布数据集;
仿真成像模块,用于通过所述点扩散函数与对应的样本数据生成仿真光场数据集,并对实际成像过程中可能产生的噪声及背景模型进行校正;
网络训练模块,用于搭建以生成对抗网络为基础的深度卷积神经网络,以所述仿真光场数据作为网络的输入,并以所述仿真样本体分布数据作为所述网络的输出,根据显微样本设计损失函数对所述网络进行训练;以及
实验测试模块,用于在完成所述模型的训练后,将待重建的光场显微数据输入所述模型进行测试,获取对应样本体分布数据的预测值。
7.根据权利要求6所述的装置,其特征在于,所述仿真成像模块进一步用于利用基本成像原理中对成像过程的卷积近似,并通过将仿真生成的所述点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
8.根据权利要求6所述的装置,其特征在于,所述损失函数为:
lossc=lossmse1·lossD_G2·losstv
其中,ω1和ω2分别代表损失函数各项之间的权重。
9.根据权利要求8所述的装置,其特征在于,其中,
Figure FDA0002119867860000021
Figure FDA0002119867860000022
Figure FDA0002119867860000023
其中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,D(pred)为鉴别网络对预测结果的分类值。
10.根据权利要求6所述的装置,其特征在于,所述实验测试模块进一步用于对所述待重建的光场显微数据进行预处理,以使所述待重建的光场显微数据的强度范围与训练数据的强度范围相匹配,进一步得到对三维样本体分布数据的预测值。
CN201910602894.4A 2019-07-05 2019-07-05 基于深度学习算法的光场显微三维重建方法及装置 Active CN110443882B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910602894.4A CN110443882B (zh) 2019-07-05 2019-07-05 基于深度学习算法的光场显微三维重建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910602894.4A CN110443882B (zh) 2019-07-05 2019-07-05 基于深度学习算法的光场显微三维重建方法及装置

Publications (2)

Publication Number Publication Date
CN110443882A CN110443882A (zh) 2019-11-12
CN110443882B true CN110443882B (zh) 2021-06-11

Family

ID=68429023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910602894.4A Active CN110443882B (zh) 2019-07-05 2019-07-05 基于深度学习算法的光场显微三维重建方法及装置

Country Status (1)

Country Link
CN (1) CN110443882B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967827B (zh) * 2019-12-04 2021-07-02 清华大学深圳国际研究生院 一种基于光场微型显微系统的成像建模方法及装置
CN111402127B (zh) * 2020-02-18 2022-07-19 清华大学 基于光场信息去除光学像差的方法及装置
CN111310903B (zh) * 2020-02-24 2023-04-07 清华大学 基于卷积神经网络的三维单分子定位系统
CN111429562B (zh) * 2020-02-25 2023-04-07 深圳华大智造科技股份有限公司 基于深度学习的宽场彩色光切片显微成像方法
CN111462299B (zh) * 2020-03-02 2022-07-19 清华大学 基于深度学习的非视域飞秒成像三维重建方法及装置
CN111352229B (zh) * 2020-04-07 2021-10-08 华中科技大学 一种虚拟多平面成像系统及方法
US11644756B2 (en) * 2020-08-07 2023-05-09 KLA Corp. 3D structure inspection or metrology using deep learning
CN113160392B (zh) * 2021-05-14 2022-03-01 电子科技大学成都学院 基于深度神经网络的光学建筑目标三维重建方法
CN113295722B (zh) * 2021-05-21 2022-09-20 厦门大学 一种基于深度学习算法的x射线光谱数据矫正方法及装置
CN113298700B (zh) * 2021-05-31 2023-09-05 清华大学深圳国际研究生院 一种在散射场景中的高分辨图像重构方法
CN113554744A (zh) * 2021-07-08 2021-10-26 清华大学 一种大体积散射样本快速扫描三维成像方法及装置
CN114155340A (zh) * 2021-10-20 2022-03-08 清华大学 扫描光场数据的重建方法、装置、电子设备及存储介质
CN113971722B (zh) * 2021-12-23 2022-05-17 清华大学 一种傅里叶域的光场解卷积方法及装置
CN114518654B (zh) * 2022-02-11 2023-05-09 南京大学 一种高分辨大景深成像方法
CN114612362B (zh) * 2022-03-18 2023-05-23 四川大学 基于多点扩散函数生成对抗网络的大景深成像方法及系统
CN114511605B (zh) * 2022-04-18 2022-09-02 清华大学 光场深度估计方法、装置、电子设备及存储介质
CN115374712B (zh) * 2022-10-24 2023-01-24 中国航天三江集团有限公司 激光内通道热效应影响下光传输仿真参数校准方法与装置
CN117237546B (zh) * 2023-11-14 2024-01-30 武汉大学 一种基于光场成像的增材构件三维轮廓重建方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2973403A1 (en) * 2013-03-15 2016-01-20 The Regents of the University of Colorado 3-d localization and imaging of dense arrays of particles
CN106846463A (zh) * 2017-01-13 2017-06-13 清华大学 基于深度学习神经网络的显微图像三维重建方法及系统
CN107277327A (zh) * 2017-07-28 2017-10-20 清华大学深圳研究生院 一种估计全光圈下单透镜光场相机的点扩散函数的方法
CN107730469A (zh) * 2017-10-17 2018-02-23 长沙全度影像科技有限公司 一种基于卷积神经网络cnn的三片简单透镜图像复原方法
CN107945125A (zh) * 2017-11-17 2018-04-20 福州大学 一种融合频谱估计法和卷积神经网络的模糊图像处理方法
CN109118438A (zh) * 2018-06-29 2019-01-01 上海航天控制技术研究所 一种基于生成对抗网络的高斯模糊图像复原方法
CN109523482A (zh) * 2018-11-14 2019-03-26 太原理工大学 一种基于深度神经网络的对含纹理退化图像的复原方法
CN109615651A (zh) * 2019-01-29 2019-04-12 清华大学 基于光场显微系统的三维显微成像方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991240B2 (en) * 2007-09-17 2011-08-02 Aptina Imaging Corporation Methods, systems and apparatuses for modeling optical images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2973403A1 (en) * 2013-03-15 2016-01-20 The Regents of the University of Colorado 3-d localization and imaging of dense arrays of particles
CN106846463A (zh) * 2017-01-13 2017-06-13 清华大学 基于深度学习神经网络的显微图像三维重建方法及系统
CN107277327A (zh) * 2017-07-28 2017-10-20 清华大学深圳研究生院 一种估计全光圈下单透镜光场相机的点扩散函数的方法
CN107730469A (zh) * 2017-10-17 2018-02-23 长沙全度影像科技有限公司 一种基于卷积神经网络cnn的三片简单透镜图像复原方法
CN107945125A (zh) * 2017-11-17 2018-04-20 福州大学 一种融合频谱估计法和卷积神经网络的模糊图像处理方法
CN109118438A (zh) * 2018-06-29 2019-01-01 上海航天控制技术研究所 一种基于生成对抗网络的高斯模糊图像复原方法
CN109523482A (zh) * 2018-11-14 2019-03-26 太原理工大学 一种基于深度神经网络的对含纹理退化图像的复原方法
CN109615651A (zh) * 2019-01-29 2019-04-12 清华大学 基于光场显微系统的三维显微成像方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Fast 3D cell tracking with wide-field fluorescence microscopy through deep learning》;Liu Kan,et al;《physics optics》;20180515;1-15 *

Also Published As

Publication number Publication date
CN110443882A (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN110443882B (zh) 基于深度学习算法的光场显微三维重建方法及装置
Buchner Collaborative nested sampling: Big data versus complex physical models
CN110441271B (zh) 基于卷积神经网络的光场高分辨解卷积方法及系统
Dufour et al. Shape, displacement and mechanical properties from isogeometric multiview stereocorrelation
CN107209362A (zh) 傅立叶重叠关联断层摄影
CN110148103A (zh) 基于联合优化的高光谱和多光谱图像融合方法、计算机可读存储介质、电子设备
CN113256772B (zh) 一种基于视角转换的双角度光场高分辨重构系统及方法
Wang et al. RSCNet: A residual self-calibrated network for hyperspectral image change detection
Guo et al. Complex-valued Pix2pix—Deep neural network for nonlinear electromagnetic inverse scattering
Dax et al. Group equivariant neural posterior estimation
Kyono et al. Machine learning for quality assessment of ground-based optical images of satellites
Tan et al. An open-source shake-the-box method and its performance evaluation
Xiao et al. A review of remote sensing image spatiotemporal fusion: Challenges, applications and recent trends
Kosmopoulos et al. Short-term forecasting of large-scale clouds impact on downwelling surface solar irradiation
CN114187263B (zh) 一种融合先验引导和域适应的磨损表面朗伯反射分离方法
CN115131503A (zh) 一种虹膜三维识别的健康监测方法及其系统
Viel et al. Hyperspectral image classification: an analysis employing CNN, LSTM, transformer, and attention mechanism
Yang et al. Fill in the blank: transferrable deep learning approaches to recover missing physical field information
Song et al. Uncertainty quantification in super-resolution guided wave array imaging using a variational Bayesian deep learning approach
Ntampaka et al. The importance of being interpretable: Toward an understandable machine learning encoder for galaxy cluster cosmology
CN112200264B (zh) 基于散射复用的高通量免成像分类方法与装置
Vodacek et al. Adaptive optical sensing in an object tracking DDDAS
Tekawade et al. 3d autoencoders for feature extraction in X-ray tomography
CN115311186B (zh) 一种红外与可见光图像跨尺度注意力对抗融合方法及终端
Ronen et al. Variable imaging projection cloud scattering tomography

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant