CN110308547A - 一种基于深度学习的稠密样本无透镜显微成像装置与方法 - Google Patents

一种基于深度学习的稠密样本无透镜显微成像装置与方法 Download PDF

Info

Publication number
CN110308547A
CN110308547A CN201910737743.XA CN201910737743A CN110308547A CN 110308547 A CN110308547 A CN 110308547A CN 201910737743 A CN201910737743 A CN 201910737743A CN 110308547 A CN110308547 A CN 110308547A
Authority
CN
China
Prior art keywords
image
sample
layer
neural network
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910737743.XA
Other languages
English (en)
Other versions
CN110308547B (zh
Inventor
纪刚
周粉粉
周萌萌
安帅
商胜楠
于腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Powerise Technology Co Ltd
Original Assignee
Qingdao Powerise Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Powerise Technology Co Ltd filed Critical Qingdao Powerise Technology Co Ltd
Priority to CN201910737743.XA priority Critical patent/CN110308547B/zh
Publication of CN110308547A publication Critical patent/CN110308547A/zh
Application granted granted Critical
Publication of CN110308547B publication Critical patent/CN110308547B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0032Optical details of illumination, e.g. light-sources, pinholes, beam splitters, slits, fibers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及显微成像技术领域,特别涉及一种基于深度学习的稠密样本无透镜显微成像装置与方法,深度学习无透镜显微成像装置的主体结构包括有光源、散射片、小孔、被测样本、图像传感器和深度学习计算平台,具体工作方式如下:光源发出的光经过散射片和小孔后,照射到被测样本上,图像传感器采集了样本的全息图像,并发送至深度学习计算平台进行图像还原,该方法的优势在于只需要拍摄一张被测稠密样本的全息图,通过深度学习重建算法即可还原被测样本图像;该装置采集样本的全息图像,而后基于深度神经网络对全息图像进行处理,重建样本图像。该装置设计构思巧妙,使用便捷,同时具备稠密样本成像能力,而且计算速度快、重建质量好。

Description

一种基于深度学习的稠密样本无透镜显微成像装置与方法
技术领域:
本发明涉及显微成像技术领域,特别涉及一种基于深度学习的稠密样本无透镜显微成像装置与方法。
背景技术:
光学显微镜,自1670年被虎克发明以来,已成为医学、生物以及工业检测等领域中不可或缺的重要工具。但是,现代检测应用对检测设备提出了现场化、即时化、快速化和便携化等要求,传统的显微镜由于体积和重量的限制,在上述场景下较难应用。
近年来,同轴全息成像技术为设计显微镜提供了一种新的研究方向,可实现高度紧凑和高通量的无透镜显微成像。为了使系统结构紧凑,无透镜全息显微镜采用同轴全息形式,其中样本散射光波和参考光束光波在相同方向上共同传播,图像传感器记录了物体光波和参考光波之间的干涉全息图案。而后,通过数字全息重建方法从记录的全息图案中反演得到被测样本图像。无透镜全息显微技术消除了光学镜头在体积、重量、成像尺寸等方面的局限,较传统显微镜具有结构简单、体积小巧、操作简便、价格低廉等优点。
然而,无透镜全息显微镜对观测样本的稀疏度具有一定的要求。当样本目标在视野内占据较大空间或样本较为稠密时(例如病理切片和组织切片),不同样本衍射后会相互干涉,当干涉较为严重时,数字全息重建算法无法完全消除全息孪生像的干扰,导致重建结果中存在较大的伪像。为了解决上述问题,近年来研究人员尝试通过拍摄多幅具有一定差异的全息图像,通过增加物理约束消除孪生伪像的干扰,以实现稠密样本的重建。常用的方法有改变样本到探测器之间距离,改变光源照射角度,以及增加波长等,但是这些方法需要增加特殊物理装置,系统实现较为复杂,因此本发明寻求设计提供一种基于深度学习的稠密样本无透镜显微成像装置与方法。
发明内容:
本发明的目的在于克服现有技术所述的上述缺点,寻求设计提供一种基于深度学习的稠密样本无透镜显微成像装置与方法。该装置结构简单,使用方便,同时能够保证测量结果的准确性。
为了实现上述目的,本发明涉及的一种基于深度学习的稠密样本无透镜显微成像装置与方法通过如下技术方案实现:本发明通过深度学习无透镜显微成像装置实现,其主体结构包括有光源、散射片、小孔、被测样本、图像传感器和深度学习计算平台,光源设置于散射片上部,距离为1mm;散射片的下部设置有小孔,样本位于小孔正下方,图像传感器设置于样本的正下方,图像传感器与计算机通信连接;具体工作方式如下:光源发出的光经过散射片和小孔后,照射到被测样本上,图像传感器采集了样本的全息图像,并发送至深度学习计算平台,在深度学习计算平台上将全息图像还原为原始样本图像,该方法的优势在于只需要拍摄一张被测稠密样本的全息图,通过深度学习重建算法即可还原被测样本图像;
光源采用部分相干光源或激光相干光源;散射片的散射角在10度以上,图像传感器采用工业相机或智能相机,深度学习计算平台与相机之间可通过网线、光纤等有线方式或wifi、移动网络等无线方式进行连接和数据传输,深度学习计算平台中含有GPU计算卡或专用计算芯片,图像重建方法在深度计算平台中完成和实现。
图像重建方法包括光波角谱反向传播计算模块和深度神经网络模块,光波角谱反向传播计算模块的输入为采集的全息图像,输出为复数图像;深度神经网络模块将复数图像分为实部图像和虚部图像作为输入,而后通过网络处理后给出优化后的实部图像和虚部图像,所述深度神经网络模块包括有卷积神经网络。
本发明中涉及的光源为LED光源,LED光源波长λ为520nm;所用散射片为50°散射角的工程散射片,散射片与LED光源之间间隔为1mm;所用小孔为100微米针孔,小孔紧贴在散射片背部;样本为待观测显微样本,样本与小孔之间间隔为6cm;所用相机为单板工业相机,分辨率为2.2微米,相机与样本之间间隔为z,z在0.2-5mm之间;所用深度学习计算平台为PC计算机,计算机中插入了GPU计算卡,计算机与单板相机之间采用USB3.0进行有线连接;
光波角谱反向传播计算模块中计算了物体P(x,y)经过距离-z的反向传播后所得到的光场,上述传播过程可通过光波近场衍射传播进行描述,可采用菲涅尔卷积法或角谱法等方式进行数值计算,本发明中采用了角谱法进行实现,记物体P(x,y)传播距离z后的光波为E(x',y')=ASP{P(x,y);λ,z},其计算过程如下:
步骤一:计算P(x,y)的角谱
步骤二:物体角谱传播距离z,
步骤三:重建出射光波
因此,光波角谱反向传播计算模块的计算形式为E(x',y')=ASP{P(x,y);λ,-z}。
深度神经网络的输入将反向传播后的复数数据分解为实部和虚部,并将实部数据和虚部数据作为网络的输入,深度神经网络采用的是全卷积网络,网络经过四组下采样,然后又经过四组上采样,最后恢复出图像,网络的连接顺序依次为输入层、第一卷积层加激活层、第一密集网络块、第一最大池化层、第二密集网络块、第二最大池化层、第三密集网络块、第三最大池化层、第四密集网络块、第四最大池化层、第五密集网络块、第一反卷积层、第一拼接层、第六密集网络块、第二反卷积层、第二拼接层、第七密集网络块、第三反卷积层、第三拼接层、第八密集网络块、第四反卷积层、第四拼接层、第九密集网络块、第二卷积层加激活层和输出层,输出层输出处理后的实部图像和虚部图像,其中密集网络块包括有三层卷积和三层拼接,其顺序为输入、第一层卷积、第一拼接层、第二层卷积、第二拼接层、第三层卷积、第三拼接层。
本发明中深度神经网络的具体建立步骤按照如下方式进行:
S1、利用显微成像装置采集显微样本数据,记为{Oi(x,y)}i=1,…N
S2、对训练样本数据进行显微数字成像仿真,获得仿真的全息图像,具体步骤如下:
a)选择一张训练样本数据Oi(x,y),采用角谱传播法进行z距离的传播,获得像面光场θi(x′,y′)=ASP{Oi(x,y);λ,z};
b)模拟图像传感器采集过程,获得全息图像Ii(x′,y′)=|θi(x′,y′)2
c)重复a)和b)的过程,直到完成生成所有训练样本的全息图像{Ii(x′,y′)}i=1,…N
S3、利用光波角谱反向传播计算模块对仿真的全息图像{Ii(x′,y′)}i=1,…N进行反向传播,Ei(x,y)=ASP{Ii(x′,y′);λ,-z},获得反向重建结果{Ei(x,y)}i=1,…N
S4、将将重建结果{Ei(x,y)}i=1,…N与{Oi(x,y)}i=1,…N进行配对,形成训练样本数据集{Oi(x,y),Ei(x,y)}i=1,…N
S5、训练样本集按照9:1比例制作成训练集和测试集,训练集用于训练深度神经网络,测试集用于测试深度神经网络;
S6、将训练样本集注入到深度神经网络中,网络训练过程如下:
a)设定误差损失函数为:
式中,Γ(·;α)为所建立的深度神经网络,α为待训练深度神经网络参数;
b)将所述损失函数根据链式求导法则,由后向前逐层求导,然后采用随机梯度下降方法更新深度神经网络参数α;
c)通过反复对深度神经网络参数进行迭代优化,观察训练样本和测试样本的误差损失函数结果,直到能够满足系统的精度为止;
S7、生成得到深度神经网络:
为了验证本发明装置的成像能力,采用了500张显微镜图像作为原始图像,进行了神经网络训练,得到训练损失函数,再得到利用图像传感器采集的绦虫卵全息图像,通过光波角谱反向传播计算模块找到物体所在平面,而后得到物体光场,但是图像中具有大量的伪纹,物体内部很难辨认,将反向传播物体光场的实部和虚部代入到深度神经网络中,经过深度神经网络处理后振幅图像和相位图像中的孪生伪纹被消除,重建图像中被观测目标更加清晰、易辨识。
本发明是提出了一种基于深度学习的无透镜显微成像装置,该装置采集样本的全息图像,而后基于深度神经网络对全息图像进行处理,重建样本图像。该装置设计构思巧妙,使用便捷,同时具备稠密样本成像能力,而且计算速度快、重建质量好。
附图说明:
图1为本发明涉及的基于深度学习的无透镜显微成像装置系统结构原理示意图。
图2为本发明涉及的深度学习损失函数曲线示意图。
图3为本发明涉及的绦虫卵全息图像示意图。
图4为本发明涉及的反向传播物体振幅示意图。
图5为本发明涉及的反向传播物体相位示意图。
图6为本发明涉及的深度神经网络优化后物体振幅示意图。
图7为本发明涉及的深度神经网络优化后物体相位示意图。
具体实施方式:
为使本发明的实施例的目的、技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述。
实施例1:
本实施例涉及的一种基于深度学习的无透镜显微成像装置通过如下技术方案实现:
按照图1中的结构组建了深度学习无透镜显微成像装置,其主体结构包括有光源、散射片、小孔、被测样本、图像传感器和深度学习计算平台,具体工作方式如下:光源发出的光经过散射片和小孔后,照射到被测样本上,图像传感器采集了样本的全息图像,并发送至深度学习计算平台,在深度学习计算平台上将全息图像还原为原始样本图像,该方法的优势在于只需要拍摄一张被测稠密样本的全息图,通过深度学习重建算法即可还原被测样本图像;
光源可采用部分相干光源(如LED),或激光相干光源;散射片的散射角在10度以上,图像传感器可采用工业相机或智能相机,深度学习计算平台与相机之间可通过网线、光纤等有线方式或wifi、移动网络等无线方式进行连接和数据传输,深度学习计算平台中含有GPU计算卡或专用计算芯片,图像重建方法在深度计算平台中完成和实现。
图像重建方法包括光波角谱反向传播计算模块和深度神经网络模块,光波角谱反向传播计算模块的输入为采集的全息图像,输出为复数图像;深度神经网络模块将复数图像分为实部图像和虚部图像作为输入,而后通过网络处理后给出优化后的实部图像和虚部图像,所述深度神经网络模块包括有卷积神经网络。
实施例2:
本实施例中涉及的光源为LED光源,LED光源波长λ为520nm;所用散射片为50°散射角的工程散射片,散射片与LED光源之间间隔约1mm;所用小孔为100微米针孔,小孔紧贴在散射片背部;样本为待观测显微样本,样本与小孔之间间隔为6cm;所用相机为单板工业相机,分辨率为2.2微米,相机与样本之间间隔为z,z在0.2-5mm之间;所用深度学习计算平台为PC计算机,计算机中插入了GPU计算卡,计算机与单板相机之间采用USB3.0进行有线连接;
光波角谱反向传播计算模块中计算了物体P(x,y)经过距离-z的反向传播后所得到的光场,上述传播过程可通过光波近场衍射传播进行描述,可采用菲涅尔卷积法或角谱法等方式进行数值计算,本实施例中采用了角谱法进行实现,记物体P(x,y)传播距离z后的光波为E(x',y')=ASP{P(x,y);λ,z},其计算过程如下:
步骤一:计算P(x,y)的角谱
步骤二:物体角谱传播距离z,
步骤三:重建出射光波
因此,光波角谱反向传播计算模块的计算形式为E(x',y')=ASP{P(x,y);λ,-z}。
深度神经网络的输入将反向传播后的复数数据分解为实部和虚部,并将实部数据和虚部数据作为网络的输入,深度神经网络采用的是全卷积网络,网络经过四组下采样,然后又经过四组上采样,最后恢复出图像,网络的连接顺序依次为输入层、第一卷积层加激活层、第一密集网络块、第一最大池化层、第二密集网络块、第二最大池化层、第三密集网络块、第三最大池化层、第四密集网络块、第四最大池化层、第五密集网络块、第一反卷积层、第一拼接层(将第四密集网络块的输出特征图与第一反卷积层的输出特征图拼接)、第六密集网络块、第二反卷积层、第二拼接层(将第三密集网络块的输出特征图与第二反卷积层的输出特征图拼接)、第七密集网络块、第三反卷积层、第三拼接层(将第二密集网络块的输出特征图与第三反卷积层的输出特征图拼接)、第八密集网络块、第四反卷积层、第四拼接层(将第一密集网络块的输出特征图与第四反卷积层的输出特征图拼接)、第九密集网络块、第二卷积层加激活层和输出层,输出层输出处理后的实部图像和虚部图像,其中密集网络块包括有三层卷积和三层拼接,其顺序为输入、第一层卷积、第一拼接层(输入与第一层卷积的输出特征图拼接)、第二层卷积、第二拼接层(第一拼接层与第二层卷积的输出特征图拼接)、第三层卷积、第三拼接层(第二拼接层与第三层卷积的输出特征图拼接),在本实施例中,各层网络所用参数如表1所示。
表1 深度神经网络参数列表
本实施例中深度神经网络的具体建立步骤按照如下方式进行:
S1、利用显微成像装置采集显微样本数据,记为{Oi(x,y)}i=1,…N
S2、对训练样本数据进行显微数字成像仿真,获得仿真的全息图像,具体步骤如下:
a)选择一张训练样本数据Oi(x,y),采用角谱传播法进行z距离的传播,获得像面光场θi(x′,y′)=ASP{Oi(x,y);λ,z};
b)模拟图像传感器采集过程,获得全息图像Ii(x′,y′)=|θi(x′,y′)2
c)重复a)和b)的过程,直到完成生成所有训练样本的全息图像{Ii(x′,y′)}i=1,…N
S3、利用光波角谱反向传播计算模块对仿真的全息图像{Ii(x′,y′)}i=1,…N进行反向传播,Ei(x,y)=ASP{Ii(x′,y′);λ,-z},获得反向重建结果{Ei(x,y)}i=1,…N
S4、将将重建结果{Ei(x,y)}i=1,…N与{Oi(x,y)}i=1,…N进行配对,形成训练样本数据集{Oi(x,y),Ei(x,y)}i=1,…N
S5、训练样本集按照9:1比例制作成训练集和测试集,训练集用于训练深度神经网络,测试集用于测试深度神经网络;
S6、将训练样本集注入到深度神经网络中,网络训练过程如下:
a)设定误差损失函数为:
式中,Γ(·;α)为所建立的深度神经网络,α为待训练深度神经网络参数;
b)将所述损失函数根据链式求导法则,由后向前逐层求导,然后采用随机梯度下降方法更新深度神经网络参数α;
c)通过反复对深度神经网络参数进行迭代优化,观察训练样本和测试样本的误差损失函数结果,直到能够满足系统的精度为止;
S7、生成得到深度神经网络:
为了验证本发明装置的成像能力,采用了500张显微镜图像作为原始图像,进行了神经网络训练,训练损失函数曲线如图2所示:
图3中给出了利用图像传感器采集的绦虫卵全息图像,通过光波角谱反向传播计算模块找到物体所在平面,而后得到物体光场,其振幅和相位分别如图4和图5所示,可以看到图像中具有大量的伪纹,物体内部很难辨认,将反向传播物体光场的实部和虚部代入到深度神经网络中,经过处理后的物体振幅和相位分别如图6和图7所示,经过深度神经网络处理后振幅图像和相位图像中的孪生伪纹被消除,重建图像中被观测目标更加清晰、易辨识。

Claims (3)

1.一种基于深度学习的稠密样本无透镜显微成像装置与方法,其特征在于通过如下技术方案实现:涉及的深度学习无透镜显微成像装置的主体结构包括有光源、散射片、小孔、被测样本、图像传感器和深度学习计算平台,光源设置于散射片上部,距离为1mm;散射片的下部设置有小孔,样本位于小孔正下方,图像传感器设置于样本的正下方,图像传感器与计算机通信连接;具体工作方式如下:光源发出的光经过散射片和小孔后,照射到被测样本上,图像传感器采集了样本的全息图像,并发送至深度学习计算平台,在深度学习计算平台上将全息图像还原为原始样本图像,该方法的优势在于只需要拍摄一张被测稠密样本的全息图,通过深度学习重建算法即可还原被测样本图像;
光源采用部分相干光源或激光相干光源;散射片的散射角在10度以上,图像传感器采用工业相机或智能相机,深度学习计算平台与相机之间可通过网线、光纤等有线方式或wifi、移动网络等无线方式进行连接和数据传输,深度学习计算平台中含有GPU计算卡或专用计算芯片,图像重建方法在深度计算平台中完成和实现;
图像重建方法包括光波角谱反向传播计算模块和深度神经网络模块,光波角谱反向传播计算模块的输入为采集的全息图像,输出为复数图像;深度神经网络模块将复数图像分为实部图像和虚部图像作为输入,而后通过网络处理后给出优化后的实部图像和虚部图像,所述深度神经网络模块包括有卷积神经网络。
2.根据权利要求1所述的一种基于深度学习的稠密样本无透镜显微成像装置与方法,其特征在于光源选用LED光源,LED光源波长λ为520nm;所用散射片为50°散射角的工程散射片,散射片与LED光源之间间隔为1mm;所用小孔为100微米针孔,小孔紧贴在散射片背部;样本为待观测显微样本,样本与小孔之间间隔为6cm;所用相机为单板工业相机,分辨率为2.2微米,相机与样本之间间隔为z,z在0.2-5mm之间;所用深度学习计算平台为PC计算机,计算机中插入了GPU计算卡,计算机与单板相机之间采用USB3.0进行有线连接;
光波角谱反向传播计算模块中计算了物体P(x,y)经过距离-z的反向传播后所得到的光场,上述传播过程可通过光波近场衍射传播进行描述,可采用菲涅尔卷积法或角谱法等方式进行数值计算,本发明中采用了角谱法进行实现,记物体P(x,y)传播距离z后的光波为E(x',y')=ASP{P(x,y);λ,z},其计算过程如下:
步骤一:计算P(x,y)的角谱
步骤二:物体角谱传播距离z,
步骤三:重建出射光波
因此,光波角谱反向传播计算模块的计算形式为E(x',y')=ASP{P(x,y);λ,-z};
深度神经网络的输入将反向传播后的复数数据分解为实部和虚部,并将实部数据和虚部数据作为网络的输入,深度神经网络采用的是全卷积网络,网络经过四组下采样,然后又经过四组上采样,最后恢复出图像,网络的连接顺序依次为输入层、第一卷积层加激活层、第一密集网络块、第一最大池化层、第二密集网络块、第二最大池化层、第三密集网络块、第三最大池化层、第四密集网络块、第四最大池化层、第五密集网络块、第一反卷积层、第一拼接层、第六密集网络块、第二反卷积层、第二拼接层、第七密集网络块、第三反卷积层、第三拼接层、第八密集网络块、第四反卷积层、第四拼接层、第九密集网络块、第二卷积层加激活层和输出层,输出层输出处理后的实部图像和虚部图像,其中密集网络块包括有三层卷积和三层拼接,其顺序为输入、第一层卷积、第一拼接层、第二层卷积、第二拼接层、第三层卷积、第三拼接层。
3.根据权利要求2所述的一种基于深度学习的稠密样本无透镜显微成像装置与方法,其特征在于:
深度神经网络的具体建立步骤按照如下方式进行:
S1、利用显微成像装置采集显微样本数据,记为{Oi(x,y)}i=1,…N
S2、对训练样本数据进行显微数字成像仿真,获得仿真的全息图像,具体步骤如下:
a)选择一张训练样本数据Oi(x,y),采用角谱传播法进行z距离的传播,获得像面光场θi(x′,y′)=ASP{Oi(x,y);λ,z};
b)模拟图像传感器采集过程,获得全息图像Ii(x′,y′)=|θi(x′,y′)|2
c)重复a)和b)的过程,直到完成生成所有训练样本的全息图像{Ii(x′,y′)}i=1,…N
S3、利用光波角谱反向传播计算模块对仿真的全息图像
{Ii(x′,y′)}i=1,…N进行反向传播,Ei(x,y)=ASP{Ii(x′,y′);λ,-z},获得反向重建结果{Ei(x,y)}i=1,…N
S4、将将重建结果{Ei(x,y)}i=1,…N与{Oi(x,y)}i=1,…N进行配对,形成训练样本数据集{Oi(x,y),Ei(x,y)}i=1,…N
S5、训练样本集按照9:1比例制作成训练集和测试集,训练集用于训练深度神经网络,测试集用于测试深度神经网络;
S6、将训练样本集注入到深度神经网络中,网络训练过程如下:
a)设定误差损失函数为:
式中,Γ(·;α)为所建立的深度神经网络,α为待训练深度神经网络参数;
b)将所述损失函数根据链式求导法则,由后向前逐层求导,然后采用随机梯度下降方法更新深度神经网络参数α;
c)通过反复对深度神经网络参数进行迭代优化,观察训练样本和测试样本的误差损失函数结果,直到能够满足系统的精度为止;
S7、生成得到深度神经网络:
为了验证本发明装置的成像能力,采用了500张显微镜图像作为原始图像,进行了神经网络训练,得到训练损失函数,再得到利用图像传感器采集的绦虫卵全息图像,通过光波角谱反向传播计算模块找到物体所在平面,而后得到物体光场,但是图像中具有大量的伪纹,物体内部很难辨认,将反向传播物体光场的实部和虚部代入到深度神经网络中,经过深度神经网络处理后振幅图像和相位图像中的孪生伪纹被消除,重建图像中被观测目标更加清晰、易辨识。
CN201910737743.XA 2019-08-12 2019-08-12 一种基于深度学习的稠密样本无透镜显微成像装置与方法 Active CN110308547B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910737743.XA CN110308547B (zh) 2019-08-12 2019-08-12 一种基于深度学习的稠密样本无透镜显微成像装置与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910737743.XA CN110308547B (zh) 2019-08-12 2019-08-12 一种基于深度学习的稠密样本无透镜显微成像装置与方法

Publications (2)

Publication Number Publication Date
CN110308547A true CN110308547A (zh) 2019-10-08
CN110308547B CN110308547B (zh) 2021-09-07

Family

ID=68082215

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910737743.XA Active CN110308547B (zh) 2019-08-12 2019-08-12 一种基于深度学习的稠密样本无透镜显微成像装置与方法

Country Status (1)

Country Link
CN (1) CN110308547B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110927115A (zh) * 2019-12-09 2020-03-27 杭州电子科技大学 基于深度学习的无透镜双型融合目标检测装置及方法
CN110967827A (zh) * 2019-12-04 2020-04-07 清华大学深圳国际研究生院 一种基于光场微型显微系统的成像建模方法及装置
CN110989155A (zh) * 2019-12-10 2020-04-10 青岛联合创智科技有限公司 一种基于滤光片阵列的无透镜显微成像装置及重构方法
CN112131945A (zh) * 2020-08-21 2020-12-25 南京大学 一种基于深度学习的无透镜显微成像系统及方法
CN112200726A (zh) * 2020-10-29 2021-01-08 陈根生 基于无透镜显微成像的尿沉渣有形成分检测方法及系统
WO2021073335A1 (zh) * 2019-10-18 2021-04-22 南京大学 一种基于卷积神经网络的无透镜全息显微微粒表征方法
CN112835192A (zh) * 2021-01-18 2021-05-25 浙江未来技术研究院(嘉兴) 一种面向手术显微镜的立体图像互补增强装置及方法
CN112965229A (zh) * 2021-03-02 2021-06-15 南京大学 基于正交偏振光的无透镜显微成像系统及方法
CN113223142A (zh) * 2021-04-12 2021-08-06 浙江大学 一种实现浮游生物三维成像的改进型灰度层析重构方法
CN113780349A (zh) * 2021-08-09 2021-12-10 深圳奥锐达科技有限公司 训练样本集的获取方法、模型训练方法及相关装置
CN114002931A (zh) * 2021-10-08 2022-02-01 清华大学深圳国际研究生院 基于深度学习加速计算的大视场全息投影方法及系统
CN114067015A (zh) * 2021-11-11 2022-02-18 中国人民解放军陆军装甲兵学院 一种结合dnn的纯相位全息图生成方法及系统
CN114972284A (zh) * 2022-06-08 2022-08-30 南京大学 基于自监督深度学习的无透镜显微成像系统及方法
CN115061274A (zh) * 2022-07-01 2022-09-16 苏州大学 一种基于稀疏照明的超分辨内窥镜的成像方法及其装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012082776A2 (en) * 2010-12-14 2012-06-21 The Regents Of The University Of California Method and device for holographic opto-fluidic microscopy
US20120218379A1 (en) * 2009-10-20 2012-08-30 The Regents Of The University Of California Incoherent lensfree cell holography and microscopy on a chip
CN105182514A (zh) * 2015-09-29 2015-12-23 南京理工大学 基于led光源的无透镜显微镜及其图像重构方法
CN108983579A (zh) * 2018-09-05 2018-12-11 南京大学 无透镜数字全息显微成像相位恢复和重建的方法及其装置
WO2019010327A1 (en) * 2017-07-05 2019-01-10 Accelerate Diagnostics, Inc. LENS-FREE HOLOGRAPHIC OPTIC SYSTEM FOR DETECTION AND QUANTIFICATION OF MICROBIAL GROWTH WITHOUT HIGH-SENSITIVITY LABELS FOR SCREENING, IDENTIFICATION AND SENSITIVITY ANALYSIS
CN109240064A (zh) * 2018-08-06 2019-01-18 浙江工业大学 基于am335x处理器的便携式数字全息显微系统
CN109884018A (zh) * 2019-03-22 2019-06-14 华中科技大学 一种基于神经网络的亚微米级无透镜显微成像方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120218379A1 (en) * 2009-10-20 2012-08-30 The Regents Of The University Of California Incoherent lensfree cell holography and microscopy on a chip
WO2012082776A2 (en) * 2010-12-14 2012-06-21 The Regents Of The University Of California Method and device for holographic opto-fluidic microscopy
CN105182514A (zh) * 2015-09-29 2015-12-23 南京理工大学 基于led光源的无透镜显微镜及其图像重构方法
WO2019010327A1 (en) * 2017-07-05 2019-01-10 Accelerate Diagnostics, Inc. LENS-FREE HOLOGRAPHIC OPTIC SYSTEM FOR DETECTION AND QUANTIFICATION OF MICROBIAL GROWTH WITHOUT HIGH-SENSITIVITY LABELS FOR SCREENING, IDENTIFICATION AND SENSITIVITY ANALYSIS
CN109240064A (zh) * 2018-08-06 2019-01-18 浙江工业大学 基于am335x处理器的便携式数字全息显微系统
CN108983579A (zh) * 2018-09-05 2018-12-11 南京大学 无透镜数字全息显微成像相位恢复和重建的方法及其装置
CN109884018A (zh) * 2019-03-22 2019-06-14 华中科技大学 一种基于神经网络的亚微米级无透镜显微成像方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANTHONY BERDEU等: "Comparative study of fully three-dimensional reconstruction algorithms for lens-free microscopy", 《APPLIED OPTICS》 *
YAIR RIVENSON等: "Phase recovery and holographic image reconstruction using deep learning in neural networks", 《LIGHT: SCIENCE&APPLICATIONS》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021073335A1 (zh) * 2019-10-18 2021-04-22 南京大学 一种基于卷积神经网络的无透镜全息显微微粒表征方法
CN110967827A (zh) * 2019-12-04 2020-04-07 清华大学深圳国际研究生院 一种基于光场微型显微系统的成像建模方法及装置
CN110927115B (zh) * 2019-12-09 2022-05-13 杭州电子科技大学 基于深度学习的无透镜双型融合目标检测装置及方法
CN110927115A (zh) * 2019-12-09 2020-03-27 杭州电子科技大学 基于深度学习的无透镜双型融合目标检测装置及方法
CN110989155B (zh) * 2019-12-10 2021-12-14 青岛联合创智科技有限公司 一种基于滤光片阵列的无透镜显微成像装置及重构方法
CN110989155A (zh) * 2019-12-10 2020-04-10 青岛联合创智科技有限公司 一种基于滤光片阵列的无透镜显微成像装置及重构方法
CN112131945A (zh) * 2020-08-21 2020-12-25 南京大学 一种基于深度学习的无透镜显微成像系统及方法
CN112200726A (zh) * 2020-10-29 2021-01-08 陈根生 基于无透镜显微成像的尿沉渣有形成分检测方法及系统
CN112835192A (zh) * 2021-01-18 2021-05-25 浙江未来技术研究院(嘉兴) 一种面向手术显微镜的立体图像互补增强装置及方法
CN112835192B (zh) * 2021-01-18 2023-01-24 浙江未来技术研究院(嘉兴) 一种面向手术显微镜的立体图像互补增强装置及方法
CN112965229B (zh) * 2021-03-02 2022-02-08 南京大学 基于正交偏振光的无透镜显微成像系统及方法
CN112965229A (zh) * 2021-03-02 2021-06-15 南京大学 基于正交偏振光的无透镜显微成像系统及方法
CN113223142A (zh) * 2021-04-12 2021-08-06 浙江大学 一种实现浮游生物三维成像的改进型灰度层析重构方法
CN113780349A (zh) * 2021-08-09 2021-12-10 深圳奥锐达科技有限公司 训练样本集的获取方法、模型训练方法及相关装置
CN113780349B (zh) * 2021-08-09 2023-07-11 深圳奥锐达科技有限公司 训练样本集的获取方法、模型训练方法及相关装置
CN114002931A (zh) * 2021-10-08 2022-02-01 清华大学深圳国际研究生院 基于深度学习加速计算的大视场全息投影方法及系统
CN114067015A (zh) * 2021-11-11 2022-02-18 中国人民解放军陆军装甲兵学院 一种结合dnn的纯相位全息图生成方法及系统
CN114972284A (zh) * 2022-06-08 2022-08-30 南京大学 基于自监督深度学习的无透镜显微成像系统及方法
CN115061274A (zh) * 2022-07-01 2022-09-16 苏州大学 一种基于稀疏照明的超分辨内窥镜的成像方法及其装置

Also Published As

Publication number Publication date
CN110308547B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN110308547A (zh) 一种基于深度学习的稠密样本无透镜显微成像装置与方法
CN110494723B (zh) 波前传感器及其使用方法
CN110443882A (zh) 基于深度学习算法的光场显微三维重建方法及装置
Jin et al. Three-dimensional rapid flame chemiluminescence tomography via deep learning
CN110378473B (zh) 基于深度学习和随机图案的相位层析方法及装置
CN104198040B (zh) 一种二维琼斯矩阵参量的全息测量方法及实施装置
CN107607195B (zh) 一种基于复振幅实时获取的光束质量测量方法
Bichal et al. On the application of background oriented schlieren for wavefront sensing
CN103743707A (zh) 可控高速层析相位的显微方法与装置
CN103148800A (zh) 一种基于光场传播的非标记三维显微方法和装置
Gorevoy et al. Optimization of prism-based stereoscopic imaging systems at the optical design stage with respect to required 3D measurement accuracy
Li et al. Compact three-dimensional computational imaging using a dynamic virtual camera
Komuro et al. Deep ghost phase imaging
Dardikman et al. Four dimensional phase unwrapping of dynamic objects in digital holography
Popescu The power of imaging with phase, not power
CN112836422B (zh) 干涉与卷积神经网络混合方案测量方法
Cao et al. Hybrid digital holographic imaging system for three-dimensional dense particle field measurement
CN106197303A (zh) 一种光频域反射中利用阿基米德螺旋线的光纤铺设方法
Xu et al. Wavelength encoding spectral imaging based on the combination of deeply learned filters and an RGB camera
Xu et al. Snapshot hyperspectral imaging based on equalization designed doe
CN110857908B (zh) 基于离轴数字全息显微术和光谱分析方法的生物样品分析测试系统
Abrantes et al. Digital microscopic holography for micrometer particles in air
CN113432731B (zh) 一种光栅横向剪切干涉波前重建过程中的补偿方法
CN101320003B (zh) 一种提高相干梯度敏感测量精度的方法
He et al. Ghost imaging object recognition based on self-attention mechanism network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: 266200 Household No. 8, Qingda Third Road, Laoshan District, Qingdao City, Shandong Province

Patentee after: QINGDAO LIANHE CHUANGZHI TECHNOLOGY Co.,Ltd.

Address before: Room 1204, No. 40, Hong Kong Middle Road, Shinan District, Qingdao, Shandong 266200

Patentee before: QINGDAO LIANHE CHUANGZHI TECHNOLOGY Co.,Ltd.

CP02 Change in the address of a patent holder