CN110441271B - 基于卷积神经网络的光场高分辨解卷积方法及系统 - Google Patents
基于卷积神经网络的光场高分辨解卷积方法及系统 Download PDFInfo
- Publication number
- CN110441271B CN110441271B CN201910637854.3A CN201910637854A CN110441271B CN 110441271 B CN110441271 B CN 110441271B CN 201910637854 A CN201910637854 A CN 201910637854A CN 110441271 B CN110441271 B CN 110441271B
- Authority
- CN
- China
- Prior art keywords
- light field
- dimensional
- simulation
- distribution data
- deconvolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/63—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
- G01N21/64—Fluorescence; Phosphorescence
- G01N21/6402—Atomic fluorescence; Laser induced fluorescence
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/63—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
- G01N21/64—Fluorescence; Phosphorescence
- G01N21/645—Specially adapted constructive features of fluorimeters
- G01N21/6456—Spatial resolved fluorescence measurements; Imaging
- G01N21/6458—Fluorescence microscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biochemistry (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卷积神经网络的光场高分辨解卷积方法及系统,其中,该方法包括:通过光场显微成像系统采集光场显微数据;根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;根据光场成像原理对上述数据集进行实验光场系统的仿真成像,并引入实验因素得到仿真光场图像;以理查德‑露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积得到初步重建体分布数据;生成深度卷积神经网络;将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。该方法克服传统光场三维重建算法中存在的一些固有问题,实现高分辨的、少伪影的光场数据三维重建。
Description
技术领域
本发明涉及计算光学、计算摄像学、计算机视觉和计算机图形学技术领域,特别涉及一种基于卷积神经网络的光场高分辨解卷积方法及系统。
背景技术
活体细胞和组织的三维快速动态成像是现代生命科学和医学技术研究所关注的重要问题,相关研究对高分辨快速三维成像技术有着急切的需求。光场显微成像技术凭借其对空间信息和角度信息同时采集的能力,对快速成像的需求提供了一种可行的解决方法。在被引入到光学显微这一领域后,光场显微成像技术已经在钙信号成像等诸多生物成像问题中扮演着重要的角色。
尽管光场显微成像技术已经取得了一系列优秀的成果,但是仍存在一些难以解决的问题限制了其应用范围的进一步扩展。为了追求成像速度的提升,光场显微成像技术通过牺牲空间分辨率换取了角度分辨率,尽管解卷积算法能够一定程度上对牺牲的空间分辨率进行补偿,但是仍远远低于光学系统的衍射极限,而使用到的解卷积重建算法在提升空间分辨率的同时又会引入新的问题。第一,解卷积算法需要对实现系统的点扩散函数进行较为准确的估计,而这在实验中是难以直接测量的;第二,三维解卷积算法需要大量的迭代步骤以达到较好的收敛效果,造成了极大的计算代价;第三,由于焦面处的采样率限制,焦面附近的分辨率无法通过解卷积算法得到有效提升;第四,由于问题的病态性,解卷积算法往往会引入无法预计的噪声,对重建结果造成较大的影响。
综上所述,尽管光场显微成像技术在快速成像方面独具优势,仍有着较大的提高空间,特别是其重建算法。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于卷积神经网络的光场高分辨解卷积方法,该方法在保证光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
本发明的另一个目的在于提出一种基于卷积神经网络的光场高分辨解卷积系统,通过单次拍摄实现对样本空间与角度四维信息的采集。
为达到上述目的,本发明一方面实施例提出了一种基于卷积神经网络的光场高分辨解卷积方法,包括:通过光场显微成像系统采集光场显微数据;根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
本发明实施例的基于卷积神经网络的光场高分辨解卷积方法,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于卷积神经网络的光场高分辨解卷积方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述通过光场显微成像系统采集光场显微数据,包括:通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
进一步地,在本发明的一个实施例中,所述根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
进一步地,在本发明的一个实施例中,所述对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k),
式中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
其中,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
为达到上述目的,本发明另一方面实施例提出了一种基于卷积神经网络的光场高分辨解卷积系统,包括:采集模块,用于通过光场显微成像系统采集光场显微数据;生成模块,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;仿真成像模块,用于根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;第一解卷积模块,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;训练模块,用于生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;第二解卷积模块,用于对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
本发明实施例的基于卷积神经网络的光场高分辨解卷积系统,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于卷积神经网络的光场高分辨解卷积系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述采集模块包括:通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
进一步地,在本发明的一个实施例中,所述仿真成像模块中,根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
进一步地,在本发明的一个实施例中,所述解卷积模块中,对所述仿真光场图像进行解卷积,包括:利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k),
式中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
其中,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的一种基于卷积神经网络的光场高分辨解卷积方法流程图;
图2为根据本发明实施例的光场显微成像系统的结构示意图;
图3为根据本发明实施例的另一种基于卷积神经网络的光场高分辨解卷积方法流程图;
图4为根据本发明实施例的深度神经网络的结构示意图;
图5为根据本发明实施例的基于卷积神经网络的光场高分辨解卷积系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法及系统,首先将参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法。
图1是本发明一个实施例的基于卷积神经网络的光场高分辨解卷积方法流程图。
如图1所示,该基于卷积神经网络的光场高分辨解卷积方法包括以下步骤:
在步骤S1中,通过光场显微成像系统采集光场显微数据。
进一步地,在本发明的一个实施例中,通过光场显微成像系统采集光场显微数据,包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据,也即获得较高的时间分辨率。
也就是说,设计并搭建光场显微成像系统,利用激光器、透镜、二向色镜、物镜、微透镜阵列及传感器阵列等器件实现对空间与角度四维光场数据的采集。
具体地,如图2所示,光场显微成像系统主要包括:激光器、双向透镜、透镜、微透镜阵列及传感器阵列等器件。激光器为光源,用于使样本产生相应波长的荧光;双向透镜用于滤去光源产生的固定波长的光,而使得需要采集的荧光按照对应的波长通过;透镜用于将发散的光汇聚为平行光;微透镜阵列用于将光束的空间信息与角度信息进行解耦;传感器阵列用于对光束相应位置的强度信息进行采集。换言之,利用激光器对荧光样本进行激发,利用二向色镜对激发光和荧光进行分离,利用微透镜阵列对光的位置和角度信息实现同时采集。
在步骤S2中,根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
也就是说,如图3所示,设计三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
具体地,通过仿真算法,在引入合理随机性的前提下,按照实际生物样本中可能存在的分布特征,如空间分布、时域变化、形态结构以及强度分布等,生成相应的仿真样本数据集,与实验样本特征分布相近的仿真三维样本体分布数据,以用于对网络模型的训练,使之与实验过程中的样本基本符合同样的规律和性质。
在步骤S3中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像。
也就是说,如图3所示,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像。
其中,实验样本特征分布是指包括但不限于实验样本的空间分布性质、时域变化性质、形态结构性质以及强度分布性质等。
进一步地,在本发明的一个实施例中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
换句话说,对成像系统的仿真是基于波动光学标量衍射理论推导的,以点扩散函数对成像系统进行建模,最终得到与成像过程原理相同的仿真模型,通过参数的匹配可以获得与实验图像将近的仿真图像。
具体而言,样本经过成像系统的成像过程等价于样本的三维体分布数据与相应位置的点扩散函数的卷积加和,因此系统的点扩散函数是成像系统的一种特征表达。本仿真算法中使用了基于波动光学的衍射理论对光场显微系统的点扩散函数进行了仿真计算,通过将算法中的成像视场大小、样本尺寸、分辨率大小、微透镜焦距等参数进行匹配后,可以得到与实验系统的点扩散函数相近的仿真点扩散函数。通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像;并对实验过程中常见的噪声类型(包括但不限于高斯噪声、泊松噪声等)以及背景光(包括但不限于整体直流分量以及微透镜阵列带来的局部背景差异)进行建模,并通过与实采图像的对比计算相关参数,实现对仿真光场数据的校正。
在步骤S4中,以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到初步重建体分布数据。
换言之,以理查德-露西解卷积算法为基础实现光场三维解卷积算法,以仿真点扩散函数为先验信息,以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到分辨率较低、伪影较为严重的初步重建体分布数据。
其中,三维解卷积算法中包含了对背景噪声的估计,利用迭代的形式进行计算,使得重建结果中噪声较小,但是由于解卷积算法的瓶颈,重建结果的分辨率会相对较低,而伪影会相对较为严重。三维解卷积的计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为成像系统的传输矩阵,即点扩散函数的矩阵形式,b为对背景的估计,diag(·)为对角矩阵的构成函数。
在步骤S5中,生成深度卷积神经网络,其中,以初步重建体分布数据作为网络模型的输入,以仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练。
也就是说,如图2所示,设计并实现深度卷积神经网络,设计合适的损失函数并选取恰当的训练参数,训练从解卷积初步重建体分布数据到仿真样本体分布数据的映射。
需要说明的是,如图4所示,为深度卷积神经网络的一种实施例,提出的是一种结构而非一套参数配置,该深度卷积神经网络中主要包含三维卷积层、批正则化层、线性整流激活函数单元、三维池化层、三维上采样层、级联层等,构建了从低分辨率、伪影严重的三维样本体分布数据到高分辨率、伪影较少的三维样本体分布数据的端到端的网络结构。其中,三维卷积层、批归一化层和线性整流激活函数组成卷积单元,用于提取特征;三维池化层用于对提取的特征进行整合,将最显著的特征表达出来;三维上采样层用于对特征进行上采样表达,填充到需要的输出尺寸;级联层用于跨层级联特征,从而增加参与回归的特征,以实现更好的效果。
具体而言,网络模型利用卷积层、池化层、级联层、上采样层等神经网络常用结构构建了从一个低分辨率、伪影严重的三维样本体分布到高分辨率、伪影较少的三维样本体分布的全卷积神经网络。而损失函数由数据拟合项以及全微分约束项组成,分别用于约束模型的收敛方向以及对重建结果进行校正,可表示为,具体可表示为:
式中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
其中,数据拟合项由均方误差进行度量,全微分约束项由三维样本体分布数据的全微分矩阵的一范数进行度量。
同时,如图3所示,设置合适的参数对网络进行训练。网络的输入和输出对应于步骤S4和步骤S2中生成的三维解卷积算法输出的样本三维体分布以及仿真样本三维体分布数据。需要训练的参数主要包含两部分,一部分是与网络模型相关的参数,训练参数包括但不限于网络的层数、卷积核的大小等,另一部分是与训练过程相关的参数,其中,包括但不限于损失函数中各项的权重、训练的样本数、训练迭代次数、训练步长等。值得注意的是,网络模型参数以及训练参数都与最终训练结果有较大的联系,因此需要对不同任务进行不同的调整、优化。
在步骤S6中,对光场显微数据进行三维解卷积,将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。
也就是说,如图3所示,对实验采集到的光场显微数据进行三维解卷积,然后将初步重建的结果输入到训练好的网络模型中,得到对应样本体分布数据的预测值。
具体而言,首先对实验采集到的光场显微数据进行三维解卷积,步骤S6可视为对实验采集光场数据的预处理,在迭代较少次数的情况下,获得具有样本基本形状,但是分辨率较低的、伪影较为严重的三维样本体分布。之后将初步重建的结果输入到训练好的网络模型中,生成分辨率较高的、伪影明显减少的三维样本体分布。
综上,本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
其次参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积系统。
图5是本发明一个实施例的基于卷积神经网络的光场高分辨解卷积系统结构示意图。
如图5所示,该基于卷积神经网络的光场高分辨解卷积系统10包括:采集模块100、生成模块200、仿真成像模块300、第一解卷积模块400、训练模块500和第二解卷积模块600。
其中,采集模块100,用于通过光场显微成像系统采集光场显微数据。
生成模块200,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
在本发明的一个实施例中,通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
仿真成像模块300,用于根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像。
在本发明的一个实施例中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
解卷积模块400,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到初步重建体分布数据。
在本发明的一个实施例中,对仿真光场图像进行解卷积,包括:
利用基于极大似然估计的理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k),
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
训练模块500,用于生成深度卷积神经网络,其中,以初步重建体分布数据作为网络模型的输入,以仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练。
其中,深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
三维解卷积模块600,用于对光场显微数据进行三维解卷积,将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。
需要说明的是,前述对方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积系统,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于卷积神经网络的光场高分辨解卷积方法,其特征在于,包括以下步骤:
通过光场显微成像系统采集光场显微数据;
根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;
根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;
以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;
生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;以及
对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
2.根据权利要求1所述的方法,其特征在于,所述通过光场显微成像系统采集光场显微数据,包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
3.根据权利要求1所述的方法,其特征在于,所述根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
4.根据权利要求1所述的方法,其特征在于,所述对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西解卷积算法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k),
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
6.一种基于卷积神经网络的光场高分辨解卷积系统,其特征在于,包括:
采集模块,用于通过光场显微成像系统采集光场显微数据;
生成模块,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;
仿真成像模块,用于根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;
第一解卷积模块,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;
训练模块,用于生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;以及
第二解卷积模块,用于对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
7.根据权利要求6所述的系统,其特征在于,所述采集模块包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
8.根据权利要求6所述的系统,其特征在于,所述仿真成像模块中,根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
9.根据权利要求6所述的系统,其特征在于,所述解卷积模块中,对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西解卷积算法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k),
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637854.3A CN110441271B (zh) | 2019-07-15 | 2019-07-15 | 基于卷积神经网络的光场高分辨解卷积方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637854.3A CN110441271B (zh) | 2019-07-15 | 2019-07-15 | 基于卷积神经网络的光场高分辨解卷积方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110441271A CN110441271A (zh) | 2019-11-12 |
CN110441271B true CN110441271B (zh) | 2020-08-28 |
Family
ID=68430331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910637854.3A Active CN110441271B (zh) | 2019-07-15 | 2019-07-15 | 基于卷积神经网络的光场高分辨解卷积方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110441271B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111182191B (zh) * | 2019-11-15 | 2021-08-20 | 浙江荷湖科技有限公司 | 基于计算像差补偿的宽视场高分辨率摄像设备及方法 |
CN110989154B (zh) * | 2019-11-22 | 2020-07-31 | 北京大学 | 显微光场体成像的重建方法及其正过程和反投影获取方法 |
CN111310903B (zh) * | 2020-02-24 | 2023-04-07 | 清华大学 | 基于卷积神经网络的三维单分子定位系统 |
CN111352229B (zh) * | 2020-04-07 | 2021-10-08 | 华中科技大学 | 一种虚拟多平面成像系统及方法 |
CN112699917A (zh) * | 2020-12-11 | 2021-04-23 | 北京信息科技大学 | 一种非线性光学卷积神经网络的图像识别方法 |
CN113808248B (zh) * | 2021-03-10 | 2022-07-29 | 北京航空航天大学 | 基于物理感知的三维流体逆向建模方法 |
CN113256772B (zh) * | 2021-05-10 | 2023-08-01 | 华中科技大学 | 一种基于视角转换的双角度光场高分辨重构系统及方法 |
CN113327211B (zh) * | 2021-07-28 | 2021-11-02 | 清华大学 | 大视场高分辨光场显微系统校正方法和装置 |
CN113900608B (zh) * | 2021-09-07 | 2024-03-15 | 北京邮电大学 | 立体三维光场的显示方法、装置、电子设备及介质 |
CN114155340B (zh) * | 2021-10-20 | 2024-05-24 | 清华大学 | 扫描光场数据的重建方法、装置、电子设备及存储介质 |
CN115220211B (zh) * | 2022-07-29 | 2024-03-08 | 江南大学 | 基于深度学习和光场成像的显微成像系统及方法 |
CN116188609B (zh) * | 2022-12-30 | 2023-09-29 | 浙江荷湖科技有限公司 | 一种光场显微成像三维重建图像伪影消除方法及系统 |
CN117876377B (zh) * | 2024-03-13 | 2024-05-28 | 浙江荷湖科技有限公司 | 一种基于大模型的显微成像通用神经提取方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8724000B2 (en) * | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
US9445003B1 (en) * | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
CN104463949B (zh) * | 2014-10-24 | 2018-02-06 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其系统 |
CN106530381B (zh) * | 2016-10-19 | 2019-01-29 | 浙江大学 | 一种基于gpu加速的三维荧光显微图像的去卷积算法 |
CN108230223A (zh) * | 2017-12-28 | 2018-06-29 | 清华大学 | 基于卷积神经网络的光场角度超分辨率方法及装置 |
CN109344818B (zh) * | 2018-09-28 | 2020-04-14 | 合肥工业大学 | 一种基于深度卷积网络的光场显著目标检测方法 |
CN109615651B (zh) * | 2019-01-29 | 2022-05-20 | 清华大学 | 基于光场显微系统的三维显微成像方法及系统 |
-
2019
- 2019-07-15 CN CN201910637854.3A patent/CN110441271B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110441271A (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110441271B (zh) | 基于卷积神经网络的光场高分辨解卷积方法及系统 | |
CN110443882B (zh) | 基于深度学习算法的光场显微三维重建方法及装置 | |
Shajkofci et al. | Spatially-variant CNN-based point spread function estimation for blind deconvolution and depth estimation in optical microscopy | |
CN101865673B (zh) | 一种微观光场采集与三维重建方法及装置 | |
CN112465701A (zh) | 显微图像的深度学习超分辨率重建方法、介质及电子设备 | |
CN113256772B (zh) | 一种基于视角转换的双角度光场高分辨重构系统及方法 | |
CN114092325B (zh) | 一种荧光图像超分辨重建方法、装置、计算机设备及介质 | |
Zhou et al. | W2S: microscopy data with joint denoising and super-resolution for widefield to SIM mapping | |
CN115220211B (zh) | 基于深度学习和光场成像的显微成像系统及方法 | |
CN111650738A (zh) | 一种基于深度学习的傅里叶叠层显微图像重构方法及装置 | |
Sanghvi et al. | Photon limited non-blind deblurring using algorithm unrolling | |
CN114331840B (zh) | 重建高保真超分辨显微图像的方法、装置 | |
Sweere et al. | Deep learning-based super-resolution and de-noising for XMM-newton images | |
Cao et al. | Dynamic structured illumination microscopy with a neural space-time model | |
KR102319643B1 (ko) | 점 확산 함수 레이어를 가진 뉴럴 네트워크를 이용한 현미경 영상 처리 방법 및 그 장치 | |
Zhang et al. | Large depth-of-field ultra-compact microscope by progressive optimization and deep learning | |
Bakr et al. | EMCA: efficient multiscale channel attention module | |
CN114298950A (zh) | 一种基于改进的GoDec算法的红外与可见光图像融合方法 | |
Zhang et al. | Pgnn: Physics-guided neural network for fourier ptychographic microscopy | |
Zhou et al. | Parameter-free Gaussian PSF model for extended depth of field in brightfield microscopy | |
Kwon et al. | Image quality enhancement of 4D light field microscopy via reference impge propagation-based one-shot learning | |
CN112967268B (zh) | 基于光场的数字光学层析方法和装置 | |
Markham et al. | Parametric blind deconvolution of microscopic images: Further results | |
Jia et al. | Parallel blind deconvolution of astronomical images based on the fractal energy ratio of the image and regularization of the point spread function | |
Yoo et al. | Bayesian approach for automatic joint parameter estimation in 3D image reconstruction from multi-focus microscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |