CN116540394A - 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 - Google Patents

基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 Download PDF

Info

Publication number
CN116540394A
CN116540394A CN202310385698.2A CN202310385698A CN116540394A CN 116540394 A CN116540394 A CN 116540394A CN 202310385698 A CN202310385698 A CN 202310385698A CN 116540394 A CN116540394 A CN 116540394A
Authority
CN
China
Prior art keywords
image
light
sample
detection
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310385698.2A
Other languages
English (en)
Inventor
匡翠方
甘艳红
叶子桐
刘旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310385698.2A priority Critical patent/CN116540394A/zh
Publication of CN116540394A publication Critical patent/CN116540394A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Quality & Reliability (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

本发明公开了一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,包括以下步骤:对光束进行整形,形成复合多个深度且横向错开的结构光照明样品并保持固定不动;移动探测物镜拍摄多个图像堆栈并输入到深度傅里叶神经网络中进行训练;利用相同的深度复合结构光照明样品并拍摄一帧样品图像输入到训练好的网络中进行离焦预测;最终根据网络输出的结果完成离焦补偿。本发明实现利用单帧图像完成光片显微镜的离焦预测,解决传统自聚焦方案中需要扫描多帧图像的问题,提升系统长时程高质量成像能力;深度傅里叶神经网络对离焦判断快、精度高,有利于提高光片显微镜的成像速度,其所需训练集数量少、网络泛化性好,有助于提高网络的可获得性。

Description

基于结构光照明和深度学习的光片显微镜单帧自聚焦方法
技术领域
本发明涉及光学显微成像领域,具体地说,涉及一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法。
背景技术
光学显微镜因其非侵入的特性,在生命科学研究领域得到了广泛的应用。其中,由于光片荧光显微镜采取侧向照明和宽场探测的策略,因此它兼具良好的光学层切能力和快速成像的能力,有效避免焦平面外的样品的荧光激发,有利于降低对活细胞样品造成的光毒性影响,是长时程的活细胞动态观测的重要工具之一。比如,科研工作者们可以用光片荧光显微镜很好地实现针对持续数小时至数天的活体标本的延时成像,如斑马鱼和果蝇的发育。最佳的成像质量建立在光片系统的良好对焦的基础上。然而,在长时程成像过程中,系统需要不断应对由于各种因素而可能出现的离焦问题,例如温度的改变、成像缓冲液折射率的变化、样品本身引入的像差等。
近年来,为了保证在长时程成像过程中光片显微镜稳定的成像质量,科研工作者提出了一些适配的自聚焦方法。比如,可以固定激发光片并移动探测物镜来实现对样品的三维扫描,通过计算相关的参数(DOI:10.1038/nbt.3708;10.1101/222497)以识别光片与探测物镜的离焦量并利用光学元件进行离焦量校正。但是,这种方法需要对样品进行三维扫描获取多帧样品信息,造成自聚焦效率低的问题。通过瞳孔分割图像相位检测实现快速自动聚焦(DOI:10.1038/s41592-021-01208-1)的方法在探测路中引入分束镜,将实时探测的荧光部分引流到额外搭建的离焦检测光路上,可以通过单帧图像实现对系统实时漂移检测并离焦校正。但该系统引入的额外硬件会造成光子损耗,同时也增大了系统的复杂度。利用深度学习的方法,科研工作者实现了在无附加探测硬件的条件下通过两帧离焦图像判别系统离焦量(DOI:10.1364/boe.427099)。但目前已有的光片荧光显微镜中的自聚焦方法均需要两张及以上数量的图像方能实现离焦量的预测,这无疑在离焦检测的过程中增大了样品的额外曝光量,增加样品光毒性和光漂白的风险,降低系统的成像速度。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,可有效提高光片显微镜的自聚焦效率以及提高系统长时程成像的稳定性。
为了实现上述目的,本发明提供的技术方案如下:
根据本说明书的第一方面,提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,该方法包括以下步骤:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
进一步地,步骤1)中,深度复合结构光沿着探测光轴的方向上具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz。
进一步地,位于不同轴向深度的结构光在横向方向上相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图。
进一步地,步骤2)中,用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
进一步地,步骤2)的预处理过程中,根据深度复合结构光的深度数量N和照明范围,将拍摄的每张图像分割成N个子图,并对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的多个强度信息组成张量,再乘上对应的校正系数,将校正后的N个张量拼接后输入深度傅里叶神经网络。
进一步地,每个子图的张量其对应的校正系数计算公式如下:
factorN=NR(zfocus±m·Dz)/RN(zfocus)
其中,下标N指代第N个子图;m≥0为整数,m·Dz的数值等于第N个子图对应的照明结构光与理想焦平面之间的距离;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
进一步地,所述深度傅里叶神经网络由3个全连接层组成,每个全连接层的神经单元均由ReLU激活函数激活,并根据需要选择是否在第二个全连接层之后引入Dropout层;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
根据本说明书的第二方面,提供一种利用第一方面所述方法实现的光片显微系统,该系统分为激发光路、探测光路和计算机三部分:
所述激发光路包括依次放置的激光器、准直透镜、柱透镜组、光束整形系统、扫描振镜、扫描透镜、管镜和激发物镜;所述激光器用于发出激光;所述准直透镜用于激光的准直;所述柱透镜组用于将准直的圆形高斯光束整形成准直的长条形光束;所述光束整形系统用于将入射光束整形成深度复合结构光;所述扫描振镜用于将激发光束沿着横向方向进行扫描,形成均匀的照明光片或者沿着探测光轴方向进行扫描,改变光片的轴向照明位置;所述扫描透镜和管镜用于将从扫描振镜出射的光束共轭到激发物镜的入瞳处;所述激发物镜用于将光束汇聚到样品平面上进行样品照明;
所述探测光路包括依次放置的与所述激发物镜正交的探测物镜、探测管镜、滤光片和相机;样品发出的信号被探测物镜收集,被探测管镜聚焦和滤光片滤除杂散光后,成像到相机上;
所述计算机用于控制光束的整形、扫描振镜的扫描、样品的照明以及相机的成像,并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量预测。
进一步地,所述激发光路中的光束整形系统为能实现对光束的出射振幅分布或者相位分布进行调节的相关元件,其核心元件采用振幅型空间光调制器、相位型空间光调制器或数字微镜阵列。
进一步地,对离焦量进行补偿的元件采用与激发物镜入瞳面共轭的沿着探测光轴方向扫描的扫描振镜、探测物镜或者是探测管镜,通过调整扫描振镜的偏置角或者探测物镜、探测管镜的轴向位置,即可完成离焦量补偿。
本发明的有益效果是:本发明提供的基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,能够实现利用单帧图像完成光片显微镜的离焦预测,解决了传统自聚焦方案中需要扫描多帧图像的问题,减少了对样品的额外曝光次数,有助于降低样品的光毒性和光漂白问题,提升了系统长时程高质量成像能力。另外,深度傅里叶神经网络对离焦量判断速度快、精度高,有利于提高光片显微镜的成像速度,其所需训练集数量少、网络泛化性好,有助于提高网路的可获得性和广泛应用。
附图说明
图1为本发明实施例的具有不同深度数量的深度复合结构光示意图,其中(a)复合两个深度的结构光照明光片的横截面强度分布图;(b)复合三个深度的结构光照明光片的横截面强度分布图。
图2为本发明实施例的利用深度复合结构光照明的离焦预测原理示意图,其中(a)利用复合三个深度的结构光照明样品所采集的图像堆栈;(b)任一子图的傅里叶变换图像;(c)每个子图堆栈的RN(z)曲线,其中N=1,2,3;(d)每根RN(z)曲线各自进行归一化。
图3为本发明实施例的预处理模块的结构示意图。
图4为本发明实施例的深度傅里叶神经网络的结构示意图。
图5为本发明实施例的深度傅里叶神经网络工作流程图,其中(a)网络训练的流程图;(b)网络工作的流程图。
图6为本发明实施例的基于深度复合结构光照明的光片显微系统示意图。
图7为本发明实施例的深度傅里叶神经网络的训练集数量要求效果图。
图8为本发明实施例的深度傅里叶神经网络结构泛化性效果图,其中(a)利用微管样品训练的神经网络对微管样品进行离焦量测试效果图;(b)利用微管样品训练的神经网络对微丝样品进行离焦量测试效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明作进一步说明。
本实施例提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,具体过程如下:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
具体地,步骤1)中,深度复合结构光沿着探测光轴的方向上(此处定义为z轴)具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz;位于不同轴向深度的结构光在横向方向上(此处定义为x轴)相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图,如图1所示。
在步骤2)中,以复合三个深度、深度差Dz为0.5微米的结构光为例,利用如图1中(b)所示的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈,如图2中(a)所示;用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
步骤2)的预处理过程通过预处理模块实现,堆栈图像中的每张图像分割成3个子图,如图2中(a)所示;对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,如图2中(b)所示;提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的8×1个强度信息组成张量,再乘上对应的校正系数,将校正后的3个张量拼接后输入深度傅里叶神经网络,如图3所示。每个子图中大小为8×1的张量其对应的校正系数计算公式为:
factor1=NR(zfocus+Dz)/R1(zfocus) (1)
factor2=NR(zfocus)/R2(zfocus) (2)
factor3=NR(zfocus-Dz)/R3(zfocus) (3)
其中,下标N=1,2,3指代第N个子图;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数,如图2中(b)和图2中(c)所示;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线,如图2中(d)所示;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
如图4所示,本实施例中深度傅里叶神经网络由3个全连接层组成,分别包含64、32和32个神经单元,每个神经单元均由ReLU激活函数激活,根据需要选择是否在第二个全连接层之后引入Dropout层。参见图5中(a),采集的图像堆栈经预处理模块提取的张量信息被输入到深度傅里叶神经网络进行训练;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
在步骤3)中,如图5中(b)所示,采用相同的深度复合结构光对样品进行照明,采集一帧离焦的图像输入到预处理模块和已经训练好的、获取了合适权重参数的深度傅里叶神经网络中进行离焦预测。最终,根据网络输出的结果,完成离焦补偿。
为了实现上述方法,参见图6,本发明提供了一种光片显微系统,该系统可以分为激发光路、探测光路和计算机三部分:
激发光路:激发光路包括依次放置的激光器1、准直透镜2、柱透镜组3和4、偏振分束镜5、半波片6、空间光调制器7、第一透镜8、环形掩膜板9、中继透镜组10和11、x扫描振镜12、扫描透镜13、管镜14和激发物镜15。所述激光器1用于发出激光;所述准直透镜2用于激光的准直;所述柱透镜组3和4用于将准直的圆形高斯光束整形成准直的长条形光束;所述偏振分束镜5用于提取光束的s偏振光入射空间光调制器7;所述半波片6用于优化入射空间光调制器7的光束的偏振态;所述空间光调制器7用于对光束进行整形,形成深度复合结构光;所述第一透镜8用于将从空间光调制器7出射的像进行傅里叶变换;所述环形掩膜板9用于滤除空间光调制器7出射的零级衍射光和更高阶的衍射光,只保留±1级衍射光进入后续系统;所述中继透镜组10和11组成4f成像系统,将从环形掩膜板9出射的像共轭到x扫描振镜12上;所述x扫描振镜12用于将激发光片沿着横向方向即x轴快速扫描,形成均匀的光片,照明样品;所述扫描透镜13和管镜14用于将从x扫描振镜12出射的光束共轭到激发物镜15的入瞳处,因此环形掩膜板9、x扫描振镜12均和激发物镜15的入瞳共轭;所述激发物镜15用于将光束汇聚到样品平面上进行照明样品。
探测光路:探测光路包括依次放置的与激发物镜正交的探测物镜16、探测管镜17、滤光片18和相机19。样品发出的信号被探测物镜16收集,被探测管镜17聚焦和滤光片18滤除杂散光后,成像到相机9上。
计算机20:用于控制空间光调制器7的工作、x扫描振镜12的扫描、样品的照明以及相机19的成像;并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量的预测。
其中,所述激发光路中的空间光调制器7即为光束整形系统的核心元件,对光束的出射振幅分布进行调节,其他典型例子可为数字微镜阵列。
在步骤4)中,根据深度傅里叶神经网络的输出,可通过调节探测物镜16的轴向位置进行离焦补偿。此外,其他离焦补偿方案包括但不限于:调节与激发物镜15入瞳面共轭的沿z轴扫描光片的扫描振镜的偏置角度或者调节探测管镜17的轴向位置以使激发光片与探测物镜焦平面重合。
为测试效果,本系统采用数值孔径为1.1的探测物镜进行成像,并利用微管样品采集数据集对深度傅里叶神经网络进行训练。如图7所示,该神经网络仅需55个数据集即可拥有良好的离焦量预测效果,即预测值与真实值之间的均方根误差RMSE收敛。相比常规通常需要100个以上的数据集的神经网络而言,深度傅里叶神经网络大大压缩对数据量的需求。
如图8所示,仅利用微管数据集训练的深度傅里叶神经网络在后续对微管样品以及微丝样品的离焦预测效果均表现良好,在±0.7μm的范围内均具有较低的RMSE,其中如图8中(a)所示微管样品的预测精度RMSE为0.1024μm,如图8中(b)所示微丝样品的预测精度RMSE为0.1140μm,说明本发明所提神经网络方法具有较高的预测精度以及良好的样品结构泛化性。
以上所述仅为本发明的较佳实施举例,并不用于限制本发明,凡在本发明精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,该方法包括以下步骤:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
2.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤1)中,深度复合结构光沿着探测光轴的方向上具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz。
3.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,位于不同轴向深度的结构光在横向方向上相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图。
4.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤2)中,用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
5.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤2)的预处理过程中,根据深度复合结构光的深度数量N和照明范围,将拍摄的每张图像分割成N个子图,并对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的多个强度信息组成张量,再乘上对应的校正系数,将校正后的N个张量拼接后输入深度傅里叶神经网络。
6.根据权利要求5所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,每个子图的张量其对应的校正系数计算公式为:factorN=NR(zfocus±m·Dz)/RN(zfocus),其中,下标N指代第N个子图;m≥0为整数,m·Dz的数值等于第N个子图对应的照明结构光与理想焦平面之间的距离;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
7.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,所述深度傅里叶神经网络由3个全连接层组成,每个全连接层的神经单元均由ReLU激活函数激活,并根据需要选择是否在第二个全连接层之后引入Dropout层;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
8.一种利用权利要求1-7中任一项所述方法实现的光片显微系统,其特征在于,该系统分为激发光路、探测光路和计算机三部分:
所述激发光路包括依次放置的激光器、准直透镜、柱透镜组、光束整形系统、扫描振镜、扫描透镜、管镜和激发物镜;所述激光器用于发出激光;所述准直透镜用于激光的准直;所述柱透镜组用于将准直的圆形高斯光束整形成准直的长条形光束;所述光束整形系统用于将入射光束整形成深度复合结构光;所述扫描振镜用于将激发光束沿着横向方向进行扫描,形成均匀的照明光片或者沿着探测光轴方向进行扫描,改变光片的轴向照明位置;所述扫描透镜和管镜用于将从扫描振镜出射的光束共轭到激发物镜的入瞳处;所述激发物镜用于将光束汇聚到样品平面上进行样品照明;
所述探测光路包括依次放置的与所述激发物镜正交的探测物镜、探测管镜、滤光片和相机;样品发出的信号被探测物镜收集,被探测管镜聚焦和滤光片滤除杂散光后,成像到相机上;
所述计算机用于控制光束的整形、扫描振镜的扫描、样品的照明以及相机的成像,并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量预测。
9.根据权利要求8所述的光片显微系统,其特征在于,所述激发光路中的光束整形系统为能实现对光束的出射振幅分布或者相位分布进行调节的相关元件,其核心元件采用振幅型空间光调制器、相位型空间光调制器或数字微镜阵列。
10.根据权利要求8所述的光片显微系统,其特征在于,对离焦量进行补偿的元件采用与激发物镜入瞳面共轭的沿着探测光轴方向扫描的扫描振镜、探测物镜或者是探测管镜,通过调整扫描振镜的偏置角或者探测物镜、探测管镜的轴向位置,即可完成离焦量补偿。
CN202310385698.2A 2023-04-12 2023-04-12 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 Pending CN116540394A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310385698.2A CN116540394A (zh) 2023-04-12 2023-04-12 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310385698.2A CN116540394A (zh) 2023-04-12 2023-04-12 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法

Publications (1)

Publication Number Publication Date
CN116540394A true CN116540394A (zh) 2023-08-04

Family

ID=87444416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310385698.2A Pending CN116540394A (zh) 2023-04-12 2023-04-12 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法

Country Status (1)

Country Link
CN (1) CN116540394A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118151324A (zh) * 2024-05-13 2024-06-07 济南汉江光电科技有限公司 一种光学组件调节装置及调节对光方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118151324A (zh) * 2024-05-13 2024-06-07 济南汉江光电科技有限公司 一种光学组件调节装置及调节对光方法

Similar Documents

Publication Publication Date Title
US10281702B2 (en) Multi-focal structured illumination microscopy systems and methods
US10477097B2 (en) Single-frame autofocusing using multi-LED illumination
US20180307005A1 (en) Multifunction Autofocus System and Method for Automated Microscopy
AU2011357735B2 (en) Fast auto-focus in microscopic imaging
CN111429562B (zh) 基于深度学习的宽场彩色光切片显微成像方法
US10876970B2 (en) Light-sheet microscope with parallelized 3D image acquisition
CN104458683B (zh) 深层细胞超分辨率成像的方法、系统及棱镜光薄片装置
Westphal et al. Dynamic far-field fluorescence nanoscopy
CN110836877A (zh) 一种基于液晶变焦透镜的光切片显微成像方法和装置
US11086113B2 (en) Multi-focal structured illumination microscopy systems and methods
CN116540394A (zh) 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法
CN110208227A (zh) 一种单物镜光片显微成像系统
CN108020505A (zh) 变焦共聚焦光镊显微成像装置和方法
WO2019178090A1 (en) Light disc microscopy for fluorescence microscopes
CN116183568A (zh) 一种三维结构光照明超分辨显微成像的高保真重构的方法和装置
Jonkman et al. [18] Resolution in optical microscopy
JP5696396B2 (ja) 顕微鏡及びゴースト除去方法
CN110623641A (zh) 一种自适应二次三次谐波联合探测显微成像方法及装置
US10211024B1 (en) System and method for axial scanning based on static phase masks
CN113933277B (zh) 一种高密度三维单分子定位超分辨显微成像系统及方法
WO2021082355A1 (zh) 平铺光片选择性平面照明显微镜、其使用方法以及显微镜系统
Pan et al. In situ correction of liquid meniscus in cell culture imaging system based on parallel Fourier ptychographic microscopy (96 Eyes)
CN116259053B (zh) 基于卷积神经网络的医学显微图像成像焦点预测方法
US20240241056A1 (en) Methods, systems and apparatus for a multi-spectral structured illumination microscope
CN117369106B (zh) 一种多点共聚焦图像扫描显微镜及成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination