CN116540394A - 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 - Google Patents
基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 Download PDFInfo
- Publication number
- CN116540394A CN116540394A CN202310385698.2A CN202310385698A CN116540394A CN 116540394 A CN116540394 A CN 116540394A CN 202310385698 A CN202310385698 A CN 202310385698A CN 116540394 A CN116540394 A CN 116540394A
- Authority
- CN
- China
- Prior art keywords
- image
- light
- sample
- detection
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000005286 illumination Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims abstract description 32
- 239000002131 composite material Substances 0.000 claims abstract description 25
- 238000007493 shaping process Methods 0.000 claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000005284 excitation Effects 0.000 claims description 32
- 230000003287 optical effect Effects 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 210000001747 pupil Anatomy 0.000 claims description 8
- 238000000386 microscopy Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001268 conjugating effect Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000021615 conjugation Effects 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 6
- 230000007774 longterm Effects 0.000 abstract description 5
- 239000000523 sample Substances 0.000 description 47
- 238000010586 diagram Methods 0.000 description 8
- 102000029749 Microtubule Human genes 0.000 description 7
- 108091022875 Microtubule Proteins 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 210000004688 microtubule Anatomy 0.000 description 7
- 102000002151 Microfilament Proteins Human genes 0.000 description 3
- 108010040897 Microfilament Proteins Proteins 0.000 description 3
- 206010034972 Photosensitivity reaction Diseases 0.000 description 3
- 210000003632 microfilament Anatomy 0.000 description 3
- 208000007578 phototoxic dermatitis Diseases 0.000 description 3
- 231100000018 phototoxicity Toxicity 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000252212 Danio rerio Species 0.000 description 1
- 241000255581 Drosophila <fruit fly, genus> Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013329 compounding Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/244—Devices for focusing using image analysis techniques
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/36—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
- G02B7/38—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Quality & Reliability (AREA)
- Microscoopes, Condenser (AREA)
Abstract
本发明公开了一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,包括以下步骤:对光束进行整形,形成复合多个深度且横向错开的结构光照明样品并保持固定不动;移动探测物镜拍摄多个图像堆栈并输入到深度傅里叶神经网络中进行训练;利用相同的深度复合结构光照明样品并拍摄一帧样品图像输入到训练好的网络中进行离焦预测;最终根据网络输出的结果完成离焦补偿。本发明实现利用单帧图像完成光片显微镜的离焦预测,解决传统自聚焦方案中需要扫描多帧图像的问题,提升系统长时程高质量成像能力;深度傅里叶神经网络对离焦判断快、精度高,有利于提高光片显微镜的成像速度,其所需训练集数量少、网络泛化性好,有助于提高网络的可获得性。
Description
技术领域
本发明涉及光学显微成像领域,具体地说,涉及一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法。
背景技术
光学显微镜因其非侵入的特性,在生命科学研究领域得到了广泛的应用。其中,由于光片荧光显微镜采取侧向照明和宽场探测的策略,因此它兼具良好的光学层切能力和快速成像的能力,有效避免焦平面外的样品的荧光激发,有利于降低对活细胞样品造成的光毒性影响,是长时程的活细胞动态观测的重要工具之一。比如,科研工作者们可以用光片荧光显微镜很好地实现针对持续数小时至数天的活体标本的延时成像,如斑马鱼和果蝇的发育。最佳的成像质量建立在光片系统的良好对焦的基础上。然而,在长时程成像过程中,系统需要不断应对由于各种因素而可能出现的离焦问题,例如温度的改变、成像缓冲液折射率的变化、样品本身引入的像差等。
近年来,为了保证在长时程成像过程中光片显微镜稳定的成像质量,科研工作者提出了一些适配的自聚焦方法。比如,可以固定激发光片并移动探测物镜来实现对样品的三维扫描,通过计算相关的参数(DOI:10.1038/nbt.3708;10.1101/222497)以识别光片与探测物镜的离焦量并利用光学元件进行离焦量校正。但是,这种方法需要对样品进行三维扫描获取多帧样品信息,造成自聚焦效率低的问题。通过瞳孔分割图像相位检测实现快速自动聚焦(DOI:10.1038/s41592-021-01208-1)的方法在探测路中引入分束镜,将实时探测的荧光部分引流到额外搭建的离焦检测光路上,可以通过单帧图像实现对系统实时漂移检测并离焦校正。但该系统引入的额外硬件会造成光子损耗,同时也增大了系统的复杂度。利用深度学习的方法,科研工作者实现了在无附加探测硬件的条件下通过两帧离焦图像判别系统离焦量(DOI:10.1364/boe.427099)。但目前已有的光片荧光显微镜中的自聚焦方法均需要两张及以上数量的图像方能实现离焦量的预测,这无疑在离焦检测的过程中增大了样品的额外曝光量,增加样品光毒性和光漂白的风险,降低系统的成像速度。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,可有效提高光片显微镜的自聚焦效率以及提高系统长时程成像的稳定性。
为了实现上述目的,本发明提供的技术方案如下:
根据本说明书的第一方面,提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,该方法包括以下步骤:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
进一步地,步骤1)中,深度复合结构光沿着探测光轴的方向上具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz。
进一步地,位于不同轴向深度的结构光在横向方向上相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图。
进一步地,步骤2)中,用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
进一步地,步骤2)的预处理过程中,根据深度复合结构光的深度数量N和照明范围,将拍摄的每张图像分割成N个子图,并对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的多个强度信息组成张量,再乘上对应的校正系数,将校正后的N个张量拼接后输入深度傅里叶神经网络。
进一步地,每个子图的张量其对应的校正系数计算公式如下:
factorN=NR(zfocus±m·Dz)/RN(zfocus)
其中,下标N指代第N个子图;m≥0为整数,m·Dz的数值等于第N个子图对应的照明结构光与理想焦平面之间的距离;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
进一步地,所述深度傅里叶神经网络由3个全连接层组成,每个全连接层的神经单元均由ReLU激活函数激活,并根据需要选择是否在第二个全连接层之后引入Dropout层;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
根据本说明书的第二方面,提供一种利用第一方面所述方法实现的光片显微系统,该系统分为激发光路、探测光路和计算机三部分:
所述激发光路包括依次放置的激光器、准直透镜、柱透镜组、光束整形系统、扫描振镜、扫描透镜、管镜和激发物镜;所述激光器用于发出激光;所述准直透镜用于激光的准直;所述柱透镜组用于将准直的圆形高斯光束整形成准直的长条形光束;所述光束整形系统用于将入射光束整形成深度复合结构光;所述扫描振镜用于将激发光束沿着横向方向进行扫描,形成均匀的照明光片或者沿着探测光轴方向进行扫描,改变光片的轴向照明位置;所述扫描透镜和管镜用于将从扫描振镜出射的光束共轭到激发物镜的入瞳处;所述激发物镜用于将光束汇聚到样品平面上进行样品照明;
所述探测光路包括依次放置的与所述激发物镜正交的探测物镜、探测管镜、滤光片和相机;样品发出的信号被探测物镜收集,被探测管镜聚焦和滤光片滤除杂散光后,成像到相机上;
所述计算机用于控制光束的整形、扫描振镜的扫描、样品的照明以及相机的成像,并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量预测。
进一步地,所述激发光路中的光束整形系统为能实现对光束的出射振幅分布或者相位分布进行调节的相关元件,其核心元件采用振幅型空间光调制器、相位型空间光调制器或数字微镜阵列。
进一步地,对离焦量进行补偿的元件采用与激发物镜入瞳面共轭的沿着探测光轴方向扫描的扫描振镜、探测物镜或者是探测管镜,通过调整扫描振镜的偏置角或者探测物镜、探测管镜的轴向位置,即可完成离焦量补偿。
本发明的有益效果是:本发明提供的基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,能够实现利用单帧图像完成光片显微镜的离焦预测,解决了传统自聚焦方案中需要扫描多帧图像的问题,减少了对样品的额外曝光次数,有助于降低样品的光毒性和光漂白问题,提升了系统长时程高质量成像能力。另外,深度傅里叶神经网络对离焦量判断速度快、精度高,有利于提高光片显微镜的成像速度,其所需训练集数量少、网络泛化性好,有助于提高网路的可获得性和广泛应用。
附图说明
图1为本发明实施例的具有不同深度数量的深度复合结构光示意图,其中(a)复合两个深度的结构光照明光片的横截面强度分布图;(b)复合三个深度的结构光照明光片的横截面强度分布图。
图2为本发明实施例的利用深度复合结构光照明的离焦预测原理示意图,其中(a)利用复合三个深度的结构光照明样品所采集的图像堆栈;(b)任一子图的傅里叶变换图像;(c)每个子图堆栈的RN(z)曲线,其中N=1,2,3;(d)每根RN(z)曲线各自进行归一化。
图3为本发明实施例的预处理模块的结构示意图。
图4为本发明实施例的深度傅里叶神经网络的结构示意图。
图5为本发明实施例的深度傅里叶神经网络工作流程图,其中(a)网络训练的流程图;(b)网络工作的流程图。
图6为本发明实施例的基于深度复合结构光照明的光片显微系统示意图。
图7为本发明实施例的深度傅里叶神经网络的训练集数量要求效果图。
图8为本发明实施例的深度傅里叶神经网络结构泛化性效果图,其中(a)利用微管样品训练的神经网络对微管样品进行离焦量测试效果图;(b)利用微管样品训练的神经网络对微丝样品进行离焦量测试效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明作进一步说明。
本实施例提供一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,具体过程如下:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
具体地,步骤1)中,深度复合结构光沿着探测光轴的方向上(此处定义为z轴)具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz;位于不同轴向深度的结构光在横向方向上(此处定义为x轴)相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图,如图1所示。
在步骤2)中,以复合三个深度、深度差Dz为0.5微米的结构光为例,利用如图1中(b)所示的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈,如图2中(a)所示;用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
步骤2)的预处理过程通过预处理模块实现,堆栈图像中的每张图像分割成3个子图,如图2中(a)所示;对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,如图2中(b)所示;提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的8×1个强度信息组成张量,再乘上对应的校正系数,将校正后的3个张量拼接后输入深度傅里叶神经网络,如图3所示。每个子图中大小为8×1的张量其对应的校正系数计算公式为:
factor1=NR(zfocus+Dz)/R1(zfocus) (1)
factor2=NR(zfocus)/R2(zfocus) (2)
factor3=NR(zfocus-Dz)/R3(zfocus) (3)
其中,下标N=1,2,3指代第N个子图;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数,如图2中(b)和图2中(c)所示;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线,如图2中(d)所示;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
如图4所示,本实施例中深度傅里叶神经网络由3个全连接层组成,分别包含64、32和32个神经单元,每个神经单元均由ReLU激活函数激活,根据需要选择是否在第二个全连接层之后引入Dropout层。参见图5中(a),采集的图像堆栈经预处理模块提取的张量信息被输入到深度傅里叶神经网络进行训练;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
在步骤3)中,如图5中(b)所示,采用相同的深度复合结构光对样品进行照明,采集一帧离焦的图像输入到预处理模块和已经训练好的、获取了合适权重参数的深度傅里叶神经网络中进行离焦预测。最终,根据网络输出的结果,完成离焦补偿。
为了实现上述方法,参见图6,本发明提供了一种光片显微系统,该系统可以分为激发光路、探测光路和计算机三部分:
激发光路:激发光路包括依次放置的激光器1、准直透镜2、柱透镜组3和4、偏振分束镜5、半波片6、空间光调制器7、第一透镜8、环形掩膜板9、中继透镜组10和11、x扫描振镜12、扫描透镜13、管镜14和激发物镜15。所述激光器1用于发出激光;所述准直透镜2用于激光的准直;所述柱透镜组3和4用于将准直的圆形高斯光束整形成准直的长条形光束;所述偏振分束镜5用于提取光束的s偏振光入射空间光调制器7;所述半波片6用于优化入射空间光调制器7的光束的偏振态;所述空间光调制器7用于对光束进行整形,形成深度复合结构光;所述第一透镜8用于将从空间光调制器7出射的像进行傅里叶变换;所述环形掩膜板9用于滤除空间光调制器7出射的零级衍射光和更高阶的衍射光,只保留±1级衍射光进入后续系统;所述中继透镜组10和11组成4f成像系统,将从环形掩膜板9出射的像共轭到x扫描振镜12上;所述x扫描振镜12用于将激发光片沿着横向方向即x轴快速扫描,形成均匀的光片,照明样品;所述扫描透镜13和管镜14用于将从x扫描振镜12出射的光束共轭到激发物镜15的入瞳处,因此环形掩膜板9、x扫描振镜12均和激发物镜15的入瞳共轭;所述激发物镜15用于将光束汇聚到样品平面上进行照明样品。
探测光路:探测光路包括依次放置的与激发物镜正交的探测物镜16、探测管镜17、滤光片18和相机19。样品发出的信号被探测物镜16收集,被探测管镜17聚焦和滤光片18滤除杂散光后,成像到相机9上。
计算机20:用于控制空间光调制器7的工作、x扫描振镜12的扫描、样品的照明以及相机19的成像;并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量的预测。
其中,所述激发光路中的空间光调制器7即为光束整形系统的核心元件,对光束的出射振幅分布进行调节,其他典型例子可为数字微镜阵列。
在步骤4)中,根据深度傅里叶神经网络的输出,可通过调节探测物镜16的轴向位置进行离焦补偿。此外,其他离焦补偿方案包括但不限于:调节与激发物镜15入瞳面共轭的沿z轴扫描光片的扫描振镜的偏置角度或者调节探测管镜17的轴向位置以使激发光片与探测物镜焦平面重合。
为测试效果,本系统采用数值孔径为1.1的探测物镜进行成像,并利用微管样品采集数据集对深度傅里叶神经网络进行训练。如图7所示,该神经网络仅需55个数据集即可拥有良好的离焦量预测效果,即预测值与真实值之间的均方根误差RMSE收敛。相比常规通常需要100个以上的数据集的神经网络而言,深度傅里叶神经网络大大压缩对数据量的需求。
如图8所示,仅利用微管数据集训练的深度傅里叶神经网络在后续对微管样品以及微丝样品的离焦预测效果均表现良好,在±0.7μm的范围内均具有较低的RMSE,其中如图8中(a)所示微管样品的预测精度RMSE为0.1024μm,如图8中(b)所示微丝样品的预测精度RMSE为0.1140μm,说明本发明所提神经网络方法具有较高的预测精度以及良好的样品结构泛化性。
以上所述仅为本发明的较佳实施举例,并不用于限制本发明,凡在本发明精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,该方法包括以下步骤:
1)通过光束整形元件对光束进行整形,形成复合多个深度且在横向方向上相互错开的结构光;
2)利用步骤1)形成的深度复合结构光照明样品并保持固定不动,同时沿着探测光轴方向移动探测物镜,拍摄多个覆盖设定深度范围的图像堆栈;
将图像堆栈中的每张图像进行预处理后输入深度傅里叶神经网络中对网络进行训练,所述预处理具体为:将每张图像分割成多个子图,对每个子图进行傅里叶变换后除以零阶峰的值进行归一化,提取高阶峰的邻近数据组成张量,对多个张量进行校正后拼接在一起;
3)利用相同的深度复合结构光照明样品,拍摄一帧样品图像,对样品图像进行预处理后输入到已经训练好的深度傅里叶神经网络中进行离焦预测;
4)根据步骤3)得到的离焦预测结果完成离焦补偿。
2.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤1)中,深度复合结构光沿着探测光轴的方向上具有N个深度,其中N≥2,可根据实际实验条件调整成更多的深度数量N和深度差Dz。
3.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,位于不同轴向深度的结构光在横向方向上相互错开,即在探测相机的视场范围内将单帧图像分割成N个由处于不同深度的结构光照明的子图。
4.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤2)中,用于网络训练的图像堆栈数据集中,每张图像的真实离焦量为已知量。
5.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,步骤2)的预处理过程中,根据深度复合结构光的深度数量N和照明范围,将拍摄的每张图像分割成N个子图,并对每个子图进行傅里叶变换并除以零阶峰的值进行归一化,提取每张傅里叶变换图像中由结构光提供的其中一个高阶峰邻近的多个强度信息组成张量,再乘上对应的校正系数,将校正后的N个张量拼接后输入深度傅里叶神经网络。
6.根据权利要求5所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,每个子图的张量其对应的校正系数计算公式为:factorN=NR(zfocus±m·Dz)/RN(zfocus),其中,下标N指代第N个子图;m≥0为整数,m·Dz的数值等于第N个子图对应的照明结构光与理想焦平面之间的距离;R(z)函数定义为所有同一横向区域形成的子图堆栈中,每一张子图其傅里叶变换图像中高阶峰的值与零阶峰的值随深度位置变化的比值函数;NR(z)函数定义为任意一个图像堆栈的归一化R(z)曲线;zfocus为图像堆栈中的理想焦平面所在位置;则RN(zfocus)为在zfocus位置处的图像的第N个子图的傅里叶变换图像中高阶峰与零阶峰的比值。
7.根据权利要求1所述的一种基于结构光照明和深度学习的光片显微镜单帧自聚焦方法,其特征在于,所述深度傅里叶神经网络由3个全连接层组成,每个全连接层的神经单元均由ReLU激活函数激活,并根据需要选择是否在第二个全连接层之后引入Dropout层;在训练过程中,使用预测离焦量与实际离焦量的平均绝对误差来评估验证数据集上的网络性能,直至平均绝对误差的数值不再优化则停止网络的训练;训练好的网络最终输出一个含有正负的标量,用以指代显微镜的离焦量和离焦方向。
8.一种利用权利要求1-7中任一项所述方法实现的光片显微系统,其特征在于,该系统分为激发光路、探测光路和计算机三部分:
所述激发光路包括依次放置的激光器、准直透镜、柱透镜组、光束整形系统、扫描振镜、扫描透镜、管镜和激发物镜;所述激光器用于发出激光;所述准直透镜用于激光的准直;所述柱透镜组用于将准直的圆形高斯光束整形成准直的长条形光束;所述光束整形系统用于将入射光束整形成深度复合结构光;所述扫描振镜用于将激发光束沿着横向方向进行扫描,形成均匀的照明光片或者沿着探测光轴方向进行扫描,改变光片的轴向照明位置;所述扫描透镜和管镜用于将从扫描振镜出射的光束共轭到激发物镜的入瞳处;所述激发物镜用于将光束汇聚到样品平面上进行样品照明;
所述探测光路包括依次放置的与所述激发物镜正交的探测物镜、探测管镜、滤光片和相机;样品发出的信号被探测物镜收集,被探测管镜聚焦和滤光片滤除杂散光后,成像到相机上;
所述计算机用于控制光束的整形、扫描振镜的扫描、样品的照明以及相机的成像,并用于深度傅里叶神经网络的训练以及后续单帧成像下系统的离焦量预测。
9.根据权利要求8所述的光片显微系统,其特征在于,所述激发光路中的光束整形系统为能实现对光束的出射振幅分布或者相位分布进行调节的相关元件,其核心元件采用振幅型空间光调制器、相位型空间光调制器或数字微镜阵列。
10.根据权利要求8所述的光片显微系统,其特征在于,对离焦量进行补偿的元件采用与激发物镜入瞳面共轭的沿着探测光轴方向扫描的扫描振镜、探测物镜或者是探测管镜,通过调整扫描振镜的偏置角或者探测物镜、探测管镜的轴向位置,即可完成离焦量补偿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310385698.2A CN116540394A (zh) | 2023-04-12 | 2023-04-12 | 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310385698.2A CN116540394A (zh) | 2023-04-12 | 2023-04-12 | 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116540394A true CN116540394A (zh) | 2023-08-04 |
Family
ID=87444416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310385698.2A Pending CN116540394A (zh) | 2023-04-12 | 2023-04-12 | 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116540394A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118151324A (zh) * | 2024-05-13 | 2024-06-07 | 济南汉江光电科技有限公司 | 一种光学组件调节装置及调节对光方法 |
-
2023
- 2023-04-12 CN CN202310385698.2A patent/CN116540394A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118151324A (zh) * | 2024-05-13 | 2024-06-07 | 济南汉江光电科技有限公司 | 一种光学组件调节装置及调节对光方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10281702B2 (en) | Multi-focal structured illumination microscopy systems and methods | |
US10477097B2 (en) | Single-frame autofocusing using multi-LED illumination | |
US20180307005A1 (en) | Multifunction Autofocus System and Method for Automated Microscopy | |
AU2011357735B2 (en) | Fast auto-focus in microscopic imaging | |
CN111429562B (zh) | 基于深度学习的宽场彩色光切片显微成像方法 | |
US10876970B2 (en) | Light-sheet microscope with parallelized 3D image acquisition | |
CN104458683B (zh) | 深层细胞超分辨率成像的方法、系统及棱镜光薄片装置 | |
Westphal et al. | Dynamic far-field fluorescence nanoscopy | |
CN110836877A (zh) | 一种基于液晶变焦透镜的光切片显微成像方法和装置 | |
US11086113B2 (en) | Multi-focal structured illumination microscopy systems and methods | |
CN116540394A (zh) | 基于结构光照明和深度学习的光片显微镜单帧自聚焦方法 | |
CN110208227A (zh) | 一种单物镜光片显微成像系统 | |
CN108020505A (zh) | 变焦共聚焦光镊显微成像装置和方法 | |
WO2019178090A1 (en) | Light disc microscopy for fluorescence microscopes | |
CN116183568A (zh) | 一种三维结构光照明超分辨显微成像的高保真重构的方法和装置 | |
Jonkman et al. | [18] Resolution in optical microscopy | |
JP5696396B2 (ja) | 顕微鏡及びゴースト除去方法 | |
CN110623641A (zh) | 一种自适应二次三次谐波联合探测显微成像方法及装置 | |
US10211024B1 (en) | System and method for axial scanning based on static phase masks | |
CN113933277B (zh) | 一种高密度三维单分子定位超分辨显微成像系统及方法 | |
WO2021082355A1 (zh) | 平铺光片选择性平面照明显微镜、其使用方法以及显微镜系统 | |
Pan et al. | In situ correction of liquid meniscus in cell culture imaging system based on parallel Fourier ptychographic microscopy (96 Eyes) | |
CN116259053B (zh) | 基于卷积神经网络的医学显微图像成像焦点预测方法 | |
US20240241056A1 (en) | Methods, systems and apparatus for a multi-spectral structured illumination microscope | |
CN117369106B (zh) | 一种多点共聚焦图像扫描显微镜及成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |