CN110441271A - 基于卷积神经网络的光场高分辨解卷积方法及系统 - Google Patents

基于卷积神经网络的光场高分辨解卷积方法及系统 Download PDF

Info

Publication number
CN110441271A
CN110441271A CN201910637854.3A CN201910637854A CN110441271A CN 110441271 A CN110441271 A CN 110441271A CN 201910637854 A CN201910637854 A CN 201910637854A CN 110441271 A CN110441271 A CN 110441271A
Authority
CN
China
Prior art keywords
light field
dimensional
distributed data
imaging
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910637854.3A
Other languages
English (en)
Other versions
CN110441271B (zh
Inventor
戴琼海
李晓煦
乔晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910637854.3A priority Critical patent/CN110441271B/zh
Publication of CN110441271A publication Critical patent/CN110441271A/zh
Application granted granted Critical
Publication of CN110441271B publication Critical patent/CN110441271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6402Atomic fluorescence; Laser induced fluorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的光场高分辨解卷积方法及系统,其中,该方法包括:通过光场显微成像系统采集光场显微数据;根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;根据光场成像原理对上述数据集进行实验光场系统的仿真成像,并引入实验因素得到仿真光场图像;以理查德‑露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积得到初步重建体分布数据;生成深度卷积神经网络;将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。该方法克服传统光场三维重建算法中存在的一些固有问题,实现高分辨的、少伪影的光场数据三维重建。

Description

基于卷积神经网络的光场高分辨解卷积方法及系统
技术领域
本发明涉及计算光学、计算摄像学、计算机视觉和计算机图形学技术领域,特别涉及一种基于卷积神经网络的光场高分辨解卷积方法及系统。
背景技术
活体细胞和组织的三维快速动态成像是现代生命科学和医学技术研究所关注的重要问题,相关研究对高分辨快速三维成像技术有着急切的需求。光场显微成像技术凭借其对空间信息和角度信息同时采集的能力,对快速成像的需求提供了一种可行的解决方法。在被引入到光学显微这一领域后,光场显微成像技术已经在钙信号成像等诸多生物成像问题中扮演着重要的角色。
尽管光场显微成像技术已经取得了一系列优秀的成果,但是仍存在一些难以解决的问题限制了其应用范围的进一步扩展。为了追求成像速度的提升,光场显微成像技术通过牺牲空间分辨率换取了角度分辨率,尽管解卷积算法能够一定程度上对牺牲的空间分辨率进行补偿,但是仍远远低于光学系统的衍射极限,而使用到的解卷积重建算法在提升空间分辨率的同时又会引入新的问题。第一,解卷积算法需要对实现系统的点扩散函数进行较为准确的估计,而这在实验中是难以直接测量的;第二,三维解卷积算法需要大量的迭代步骤以达到较好的收敛效果,造成了极大的计算代价;第三,由于焦面处的采样率限制,焦面附近的分辨率无法通过解卷积算法得到有效提升;第四,由于问题的病态性,解卷积算法往往会引入无法预计的噪声,对重建结果造成较大的影响。
综上所述,尽管光场显微成像技术在快速成像方面独具优势,仍有着较大的提高空间,特别是其重建算法。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于卷积神经网络的光场高分辨解卷积方法,该方法在保证光场快速采集三维信息优势的同时,实现了快速的、高分辨的、少伪影的光场数据三维重建。
本发明的另一个目的在于提出一种基于卷积神经网络的光场高分辨解卷积系统,通过单次拍摄实现对样本空间与角度四维信息的采集。
为达到上述目的,本发明一方面实施例提出了一种基于卷积神经网络的光场高分辨解卷积方法,包括:通过光场显微成像系统采集光场显微数据;根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
本发明实施例的基于卷积神经网络的光场高分辨解卷积方法,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于卷积神经网络的光场高分辨解卷积方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述通过光场显微成像系统采集光场显微数据,包括:通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
进一步地,在本发明的一个实施例中,所述根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
进一步地,在本发明的一个实施例中,所述对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
式中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
其中,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
为达到上述目的,本发明另一方面实施例提出了一种基于卷积神经网络的光场高分辨解卷积系统,包括:采集模块,用于通过光场显微成像系统采集光场显微数据;生成模块,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;仿真成像模块,用于根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;第一解卷积模块,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;训练模块,用于生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;第二解卷积模块,用于对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
本发明实施例的基于卷积神经网络的光场高分辨解卷积系统,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
另外,根据本发明上述实施例的基于卷积神经网络的光场高分辨解卷积系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述采集模块包括:通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
进一步地,在本发明的一个实施例中,所述仿真成像模块中,根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
进一步地,在本发明的一个实施例中,所述解卷积模块中,对所述仿真光场图像进行解卷积,包括:利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
式中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
其中,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的一种基于卷积神经网络的光场高分辨解卷积方法流程图;
图2为根据本发明实施例的光场显微成像系统的结构示意图;
图3为根据本发明实施例的另一种基于卷积神经网络的光场高分辨解卷积方法流程图;
图4为根据本发明实施例的深度神经网络的结构示意图;
图5为根据本发明实施例的基于卷积神经网络的光场高分辨解卷积系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法及系统,首先将参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法。
图1是本发明一个实施例的基于卷积神经网络的光场高分辨解卷积方法流程图。
如图1所示,该基于卷积神经网络的光场高分辨解卷积方法包括以下步骤:
在步骤S1中,通过光场显微成像系统采集光场显微数据。
进一步地,在本发明的一个实施例中,通过光场显微成像系统采集光场显微数据,包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据,也即获得较高的时间分辨率。
也就是说,设计并搭建光场显微成像系统,利用激光器、透镜、二向色镜、物镜、微透镜阵列及传感器阵列等器件实现对空间与角度四维光场数据的采集。
具体地,如图2所示,光场显微成像系统主要包括:激光器、双向透镜、透镜、微透镜阵列及传感器阵列等器件。激光器为光源,用于使样本产生相应波长的荧光;双向透镜用于滤去光源产生的固定波长的光,而使得需要采集的荧光按照对应的波长通过;透镜用于将发散的光汇聚为平行光;微透镜阵列用于将光束的空间信息与角度信息进行解耦;传感器阵列用于对光束相应位置的强度信息进行采集。换言之,利用激光器对荧光样本进行激发,利用二向色镜对激发光和荧光进行分离,利用微透镜阵列对光的位置和角度信息实现同时采集。
在步骤S2中,根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
也就是说,如图3所示,设计三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
具体地,通过仿真算法,在引入合理随机性的前提下,按照实际生物样本中可能存在的分布特征,如空间分布、时域变化、形态结构以及强度分布等,生成相应的仿真样本数据集,与实验样本特征分布相近的仿真三维样本体分布数据,以用于对网络模型的训练,使之与实验过程中的样本基本符合同样的规律和性质。
在步骤S3中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像。
也就是说,如图3所示,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像。
其中,实验样本特征分布是指包括但不限于实验样本的空间分布性质、时域变化性质、形态结构性质以及强度分布性质等。
进一步地,在本发明的一个实施例中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
换句话说,对成像系统的仿真是基于波动光学标量衍射理论推导的,以点扩散函数对成像系统进行建模,最终得到与成像过程原理相同的仿真模型,通过参数的匹配可以获得与实验图像将近的仿真图像。
具体而言,样本经过成像系统的成像过程等价于样本的三维体分布数据与相应位置的点扩散函数的卷积加和,因此系统的点扩散函数是成像系统的一种特征表达。本仿真算法中使用了基于波动光学的衍射理论对光场显微系统的点扩散函数进行了仿真计算,通过将算法中的成像视场大小、样本尺寸、分辨率大小、微透镜焦距等参数进行匹配后,可以得到与实验系统的点扩散函数相近的仿真点扩散函数。通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像;并对实验过程中常见的噪声类型(包括但不限于高斯噪声、泊松噪声等)以及背景光(包括但不限于整体直流分量以及微透镜阵列带来的局部背景差异)进行建模,并通过与实采图像的对比计算相关参数,实现对仿真光场数据的校正。
在步骤S4中,以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到初步重建体分布数据。
换言之,以理查德-露西解卷积算法为基础实现光场三维解卷积算法,以仿真点扩散函数为先验信息,以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到分辨率较低、伪影较为严重的初步重建体分布数据。
其中,三维解卷积算法中包含了对背景噪声的估计,利用迭代的形式进行计算,使得重建结果中噪声较小,但是由于解卷积算法的瓶颈,重建结果的分辨率会相对较低,而伪影会相对较为严重。三维解卷积的计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为成像系统的传输矩阵,即点扩散函数的矩阵形式,b为对背景的估计,diag(·)为对角矩阵的构成函数。
在步骤S5中,生成深度卷积神经网络,其中,以初步重建体分布数据作为网络模型的输入,以仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练。
也就是说,如图2所示,设计并实现深度卷积神经网络,设计合适的损失函数并选取恰当的训练参数,训练从解卷积初步重建体分布数据到仿真样本体分布数据的映射。
需要说明的是,如图4所示,为深度卷积神经网络的一种实施例,提出的是一种结构而非一套参数配置,该深度卷积神经网络中主要包含三维卷积层、批正则化层、线性整流激活函数单元、三维池化层、三维上采样层、级联层等,构建了从低分辨率、伪影严重的三维样本体分布数据到高分辨率、伪影较少的三维样本体分布数据的端到端的网络结构。其中,三维卷积层、批归一化层和线性整流激活函数组成卷积单元,用于提取特征;三维池化层用于对提取的特征进行整合,将最显著的特征表达出来;三维上采样层用于对特征进行上采样表达,填充到需要的输出尺寸;级联层用于跨层级联特征,从而增加参与回归的特征,以实现更好的效果。
具体而言,网络模型利用卷积层、池化层、级联层、上采样层等神经网络常用结构构建了从一个低分辨率、伪影严重的三维样本体分布到高分辨率、伪影较少的三维样本体分布的全卷积神经网络。而损失函数由数据拟合项以及全微分约束项组成,分别用于约束模型的收敛方向以及对重建结果进行校正,可表示为,具体可表示为:
式中,pred为网络对三维样本体分布的预测,gt为其真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
其中,数据拟合项由均方误差进行度量,全微分约束项由三维样本体分布数据的全微分矩阵的一范数进行度量。
同时,如图3所示,设置合适的参数对网络进行训练。网络的输入和输出对应于步骤S4和步骤S2中生成的三维解卷积算法输出的样本三维体分布以及仿真样本三维体分布数据。需要训练的参数主要包含两部分,一部分是与网络模型相关的参数,训练参数包括但不限于网络的层数、卷积核的大小等,另一部分是与训练过程相关的参数,其中,包括但不限于损失函数中各项的权重、训练的样本数、训练迭代次数、训练步长等。值得注意的是,网络模型参数以及训练参数都与最终训练结果有较大的联系,因此需要对不同任务进行不同的调整、优化。
在步骤S6中,对光场显微数据进行三维解卷积,将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。
也就是说,如图3所示,对实验采集到的光场显微数据进行三维解卷积,然后将初步重建的结果输入到训练好的网络模型中,得到对应样本体分布数据的预测值。
具体而言,首先对实验采集到的光场显微数据进行三维解卷积,步骤S6可视为对实验采集光场数据的预处理,在迭代较少次数的情况下,获得具有样本基本形状,但是分辨率较低的、伪影较为严重的三维样本体分布。之后将初步重建的结果输入到训练好的网络模型中,生成分辨率较高的、伪影明显减少的三维样本体分布。
综上,本发明实施例提出的基于卷积神经网络的光场高分辨解卷积方法,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
其次参照附图描述根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积系统。
图5是本发明一个实施例的基于卷积神经网络的光场高分辨解卷积系统结构示意图。
如图5所示,该基于卷积神经网络的光场高分辨解卷积系统10包括:采集模块100、生成模块200、仿真成像模块300、第一解卷积模块400、训练模块500和第二解卷积模块600。
其中,采集模块100,用于通过光场显微成像系统采集光场显微数据。
生成模块200,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集。
在本发明的一个实施例中,通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
仿真成像模块300,用于根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像。
在本发明的一个实施例中,根据光场成像原理对仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成仿真光场图像。
解卷积模块400,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对仿真光场图像进行解卷积,得到初步重建体分布数据。
在本发明的一个实施例中,对仿真光场图像进行解卷积,包括:
利用基于极大似然估计的理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
训练模块500,用于生成深度卷积神经网络,其中,以初步重建体分布数据作为网络模型的输入,以仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练。
其中,深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
三维解卷积模块600,用于对光场显微数据进行三维解卷积,将初步重建的结果输入到深度卷积神经网络中,得到对应样本体分布数据的预测值。
需要说明的是,前述对方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
根据本发明实施例提出的基于卷积神经网络的光场高分辨解卷积系统,可以通过三维解卷积算法作为一种数据预处理的方法,利用基于卷积神经网络的卷积神经网络学习从将低分辨率的、伪影严重的三维样本体分布到高分辨率的、伪影较少的三维样本体分布的重建映射,在保持光场快速采集三维信息优势的同时,克服了传统光场三维重建算法中存在的一些固有问题,实现了高分辨的、少伪影的光场数据三维重建。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于卷积神经网络的光场高分辨解卷积方法,其特征在于,包括以下步骤:
通过光场显微成像系统采集光场显微数据;
根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;
根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;
以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;
生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;以及
对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
2.根据权利要求1所述的方法,其特征在于,所述通过光场显微成像系统采集光场显微数据,包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
3.根据权利要求1所述的方法,其特征在于,所述根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
4.根据权利要求1所述的方法,其特征在于,所述对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
5.根据权利要求1所述的方法,其特征在于,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
6.一种基于卷积神经网络的光场高分辨解卷积系统,其特征在于,包括:
采集模块,用于通过光场显微成像系统采集光场显微数据;
生成模块,用于根据预设的三维样本体分布数据集的分布特性与参数,生成仿真样本体分布数据集;
仿真成像模块,用于根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,并引入预设的实验因素,得到仿真光场图像;
第一解卷积模块,用于以理查德-露西解卷积算法为基础实现光场三维解卷积算法,并以仿真点扩散函数为先验信息,对所述仿真光场图像进行解卷积,得到初步重建体分布数据;
训练模块,用于生成深度卷积神经网络,其中,以所述初步重建体分布数据作为网络模型的输入,以所述仿真样本体分布数据作为网络模型的目标值,获取显微样本的损失函数,并选取满足第一预设条件的参数对网络模型进行训练;以及
第二解卷积模块,用于对所述光场显微数据进行三维解卷积,将初步重建的结果输入到所述深度卷积神经网络中,得到对应样本体分布数据的预测值。
7.根据权利要求6所述的系统,其特征在于,所述采集模块包括:
通过微透镜阵列同时采集角度信息与空间信息,以在单次采集获得样本的三维信息,得到满足第二预设条件的光场显微数据。
8.根据权利要求6所述的系统,其特征在于,所述仿真成像模块中,根据光场成像原理对所述仿真样本体分布数据集进行实验光场系统的仿真成像,包括:
利用所述光场成像原理中对成像过程的卷积近似,通过将仿真生成的点扩散函数与仿真生成的三维样本体分布数据进行卷积加和,生成所述仿真光场图像。
9.根据权利要求6所述的系统,其特征在于,所述解卷积模块中,对所述仿真光场图像进行解卷积,包括:
利用基于极大似然估计的所述理查德-露西迭代法进行三维解卷积问题的求解,计算公式如下:
g(k+1)=diag(HT1)-1diag(HTdiag(Hg(k)+b)-1f)g(k)
其中,g(k)表示第k次迭代时求取的三维解卷积结果,H为光场显微成像系统的传输矩阵,b为对背景的估计,diag(·)为对角矩阵的构成函数。
10.根据权利要求6所述的系统,其特征在于,所述深度卷积神经网络的损失函数由数据拟合项以及全微分约束项组成,以分别用于约束模型的收敛方向以及对重建结果进行校正,表示公式为:
其中,pred为网络对三维样本体分布的预测,gt为真实值,N为参与损失函数计算的样本数量,ω为损失函数不同项之间的权重系数。
CN201910637854.3A 2019-07-15 2019-07-15 基于卷积神经网络的光场高分辨解卷积方法及系统 Active CN110441271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910637854.3A CN110441271B (zh) 2019-07-15 2019-07-15 基于卷积神经网络的光场高分辨解卷积方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910637854.3A CN110441271B (zh) 2019-07-15 2019-07-15 基于卷积神经网络的光场高分辨解卷积方法及系统

Publications (2)

Publication Number Publication Date
CN110441271A true CN110441271A (zh) 2019-11-12
CN110441271B CN110441271B (zh) 2020-08-28

Family

ID=68430331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910637854.3A Active CN110441271B (zh) 2019-07-15 2019-07-15 基于卷积神经网络的光场高分辨解卷积方法及系统

Country Status (1)

Country Link
CN (1) CN110441271B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182191A (zh) * 2019-11-15 2020-05-19 北京超放信息技术有限公司 基于计算像差补偿的宽视场高分辨率摄像设备及方法
CN111310903A (zh) * 2020-02-24 2020-06-19 清华大学 基于卷积神经网络的三维单分子定位系统
CN111352229A (zh) * 2020-04-07 2020-06-30 华中科技大学 一种虚拟多平面成像系统及方法
CN112699917A (zh) * 2020-12-11 2021-04-23 北京信息科技大学 一种非线性光学卷积神经网络的图像识别方法
WO2021098276A1 (zh) * 2019-11-22 2021-05-27 北京大学 显微光场体成像的重建方法及其正过程和反投影获取方法
CN113256772A (zh) * 2021-05-10 2021-08-13 华中科技大学 一种基于视角转换的双角度光场高分辨重构系统及方法
CN113327211A (zh) * 2021-07-28 2021-08-31 清华大学 大视场高分辨光场显微系统校正方法和装置
CN113808248A (zh) * 2021-03-10 2021-12-17 北京航空航天大学 基于物理感知的三维流体逆向建模方法
CN113900608A (zh) * 2021-09-07 2022-01-07 北京邮电大学 立体三维光场的显示方法、装置、电子设备及介质
CN114155340A (zh) * 2021-10-20 2022-03-08 清华大学 扫描光场数据的重建方法、装置、电子设备及存储介质
CN115220211A (zh) * 2022-07-29 2022-10-21 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN116188609A (zh) * 2022-12-30 2023-05-30 浙江荷湖科技有限公司 一种光场显微成像三维重建图像伪影消除方法及系统
CN117876377A (zh) * 2024-03-13 2024-04-12 浙江荷湖科技有限公司 一种基于大模型的显微成像通用神经提取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130128087A1 (en) * 2010-08-27 2013-05-23 Todor G. Georgiev Methods and Apparatus for Super-Resolution in Integral Photography
CN104463949A (zh) * 2014-10-24 2015-03-25 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
US9445003B1 (en) * 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
CN106530381A (zh) * 2016-10-19 2017-03-22 浙江大学 一种基于gpu加速的三维荧光显微图像的去卷积算法
CN108230223A (zh) * 2017-12-28 2018-06-29 清华大学 基于卷积神经网络的光场角度超分辨率方法及装置
CN109344818A (zh) * 2018-09-28 2019-02-15 合肥工业大学 一种基于深度卷积网络的光场显著目标检测方法
CN109615651A (zh) * 2019-01-29 2019-04-12 清华大学 基于光场显微系统的三维显微成像方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130128087A1 (en) * 2010-08-27 2013-05-23 Todor G. Georgiev Methods and Apparatus for Super-Resolution in Integral Photography
US9445003B1 (en) * 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
CN104463949A (zh) * 2014-10-24 2015-03-25 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
CN106530381A (zh) * 2016-10-19 2017-03-22 浙江大学 一种基于gpu加速的三维荧光显微图像的去卷积算法
CN108230223A (zh) * 2017-12-28 2018-06-29 清华大学 基于卷积神经网络的光场角度超分辨率方法及装置
CN109344818A (zh) * 2018-09-28 2019-02-15 合肥工业大学 一种基于深度卷积网络的光场显著目标检测方法
CN109615651A (zh) * 2019-01-29 2019-04-12 清华大学 基于光场显微系统的三维显微成像方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DONALD G.DANSEREAU ET AL.: "Richardson-Lucy Deblurring for Moving Light Field Cameras", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *
M.SHAHZEB KHAN GUL ET AL.: "Spatial and Angular Resolution Enhancement of Light Fields Using Convolutional Neural Networks", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
MICHAEL BROXTON ET AL.: "Wave optics theory and 3-D deconvolution for the light field microscope", 《OPTICAL EXPRESS》 *
YOUNGJIN YOON ET AL.: "Light-Field Image Super-Resolution Using Convolutional Neural Network", 《IEEE SIGNAL PROCESSING LETTERS》 *
宋祥磊等: "光场显微成像微尺度流场三维重建方法研究", 《光学学报》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182191B (zh) * 2019-11-15 2021-08-20 浙江荷湖科技有限公司 基于计算像差补偿的宽视场高分辨率摄像设备及方法
CN111182191A (zh) * 2019-11-15 2020-05-19 北京超放信息技术有限公司 基于计算像差补偿的宽视场高分辨率摄像设备及方法
WO2021098276A1 (zh) * 2019-11-22 2021-05-27 北京大学 显微光场体成像的重建方法及其正过程和反投影获取方法
CN111310903B (zh) * 2020-02-24 2023-04-07 清华大学 基于卷积神经网络的三维单分子定位系统
CN111310903A (zh) * 2020-02-24 2020-06-19 清华大学 基于卷积神经网络的三维单分子定位系统
CN111352229A (zh) * 2020-04-07 2020-06-30 华中科技大学 一种虚拟多平面成像系统及方法
CN111352229B (zh) * 2020-04-07 2021-10-08 华中科技大学 一种虚拟多平面成像系统及方法
CN112699917A (zh) * 2020-12-11 2021-04-23 北京信息科技大学 一种非线性光学卷积神经网络的图像识别方法
CN113808248A (zh) * 2021-03-10 2021-12-17 北京航空航天大学 基于物理感知的三维流体逆向建模方法
CN113256772A (zh) * 2021-05-10 2021-08-13 华中科技大学 一种基于视角转换的双角度光场高分辨重构系统及方法
CN113327211A (zh) * 2021-07-28 2021-08-31 清华大学 大视场高分辨光场显微系统校正方法和装置
CN113900608A (zh) * 2021-09-07 2022-01-07 北京邮电大学 立体三维光场的显示方法、装置、电子设备及介质
CN113900608B (zh) * 2021-09-07 2024-03-15 北京邮电大学 立体三维光场的显示方法、装置、电子设备及介质
CN114155340A (zh) * 2021-10-20 2022-03-08 清华大学 扫描光场数据的重建方法、装置、电子设备及存储介质
CN114155340B (zh) * 2021-10-20 2024-05-24 清华大学 扫描光场数据的重建方法、装置、电子设备及存储介质
CN115220211A (zh) * 2022-07-29 2022-10-21 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN115220211B (zh) * 2022-07-29 2024-03-08 江南大学 基于深度学习和光场成像的显微成像系统及方法
CN116188609A (zh) * 2022-12-30 2023-05-30 浙江荷湖科技有限公司 一种光场显微成像三维重建图像伪影消除方法及系统
CN116188609B (zh) * 2022-12-30 2023-09-29 浙江荷湖科技有限公司 一种光场显微成像三维重建图像伪影消除方法及系统
CN117876377A (zh) * 2024-03-13 2024-04-12 浙江荷湖科技有限公司 一种基于大模型的显微成像通用神经提取方法
CN117876377B (zh) * 2024-03-13 2024-05-28 浙江荷湖科技有限公司 一种基于大模型的显微成像通用神经提取方法

Also Published As

Publication number Publication date
CN110441271B (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
CN110441271A (zh) 基于卷积神经网络的光场高分辨解卷积方法及系统
CN110443882A (zh) 基于深度学习算法的光场显微三维重建方法及装置
Ikoma et al. Depth from defocus with learned optics for imaging and occlusion-aware depth estimation
Brady Optical imaging and spectroscopy
CN109376767A (zh) 基于深度学习的视网膜oct图像分类方法
CN110211061A (zh) 基于神经网络的单深度相机深度图实时增强方法及装置
CN108460391B (zh) 基于生成对抗网络的高光谱图像无监督特征提取方法
Liu et al. Recovery of continuous 3d refractive index maps from discrete intensity-only measurements using neural fields
CN102279386B (zh) 基于fpga的sar成像信号处理数据转置方法
CN108451508B (zh) 基于多层感知机的生物自发荧光三维成像方法
Orchard et al. Fast neuromimetic object recognition using FPGA outperforms GPU implementations
CN110490818B (zh) 基于cgan的计算鬼成像重建恢复方法
Li et al. Learning to reconstruct botanical trees from single images
CN113256772B (zh) 一种基于视角转换的双角度光场高分辨重构系统及方法
CN106023082A (zh) 基于微透镜阵列与脉冲激光的弥散介质光学参数场重建装置及其重建方法
CN110378981A (zh) 基于神经网络的傅里叶叠层显微镜光瞳恢复方法
Guo et al. Complex-valued Pix2pix—Deep neural network for nonlinear electromagnetic inverse scattering
Elias et al. Measuring and quantifying dynamic visual signals in jumping spiders
Lu et al. Classification of Alzheimer’s disease in MobileNet
Chen et al. Learning mesh representations via binary space partitioning tree networks
Guo et al. Blind restoration of images distorted by atmospheric turbulence based on deep transfer learning
Deb et al. FourierNets enable the design of highly non-local optical encoders for computational imaging
CN109887023A (zh) 一种基于加权梯度幅度的双目融合立体图像质量评价方法
CN115272435A (zh) 一种基于光场序列特征分析的光场深度估计方法
Wu et al. RRG-GAN Restoring Network for Simple Lens Imaging System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant