CN111310903B - 基于卷积神经网络的三维单分子定位系统 - Google Patents
基于卷积神经网络的三维单分子定位系统 Download PDFInfo
- Publication number
- CN111310903B CN111310903B CN202010113830.0A CN202010113830A CN111310903B CN 111310903 B CN111310903 B CN 111310903B CN 202010113830 A CN202010113830 A CN 202010113830A CN 111310903 B CN111310903 B CN 111310903B
- Authority
- CN
- China
- Prior art keywords
- neural network
- dimensional
- positioning
- training
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Neurology (AREA)
- Image Processing (AREA)
- Microscoopes, Condenser (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
本发明公开了一种基于卷积神经网络的三维单分子定位系统,该系统利用荧光小球样本对点扩散函数进行标定;利用点扩散函数图像以及相机噪声模型模拟激发生成训练样本,并生成每张训练图像对应的真值三维矩阵;将训练样本输入到无监督降噪网络中得到降噪模型参数;将降噪后的训练样本以及真值三维矩阵输入定位神经网络中进行训练,得到定位模型参数;通过荧光显微镜对待观测样本进行成像,并将图像分割为与训练集相同的大小;对处理后的图像进行降噪;将降噪后图像输入到训练后的定位网络中进行测试;最终将输出结果通过稀疏编码的方法进行超分辨重建,得到超分辨图像。该系统可对高重叠率、高密度激发的点扩散函数保持轴向定位的高精度与高准确度。
Description
技术领域
本发明涉及计算机视觉和计算机图形学技术领域,特别涉及一种基于神经网络的三维单分子定位系统。
背景技术
在显微成像领域,实现更高精度的三维成像是当前的前沿问题。单分子定位显微技术可以突破传统光学显微镜的衍射极限,大幅度提升成像的定位精度,是生物医学领域观测细胞内部物质的最重要的技术之一。特别地,近年提出的PSF Engineering方法通过特殊订制的光学系统点扩散函数可以有效地提升荧光分子的轴向定位精度,吸引了领域学者的广泛关注。
目前大部分的三维单分子定位算法对荧光分子的稀疏性和信噪比都具有较高的要求:一方面,因为算法无法可靠辨识点扩散函数重叠的荧光分子,在采集过程只能采用低能量的激光照射样本,以保证单次激发的荧光点足够稀疏,这导致激发过程往往需要重复上万次。另一方面,研究者们需要长曝光时间来保证采集低分辨率图像的信噪比。综上,单分子定位显微成像需要很长的采集过程。同时,相比传统的点扩散函数,面向单分子定位特殊订制的PSF往往点扩散函数重叠概率更高,信噪比更低,极大限制了其广泛采用。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的目的在于提出一种基于卷积神经网络的三维单分子定位系统。
为达到上述目的,本发明实施例提出了基于卷积神经网络的三维单分子定位系统,包括:荧光显微镜样本采集处理模块、训练数据生成模块、降噪神经网络模块、定位神经网络模块和三维重建模块,其中,所述荧光显微镜样本采集处理模块,用于通过超分辨荧光显微镜采集待定位样本,在测试图像的处理过程中,根据预设训练图像尺寸,对所述待定位样本进行切割,得到测试样本;所述训练数据生成模块,用于利用荧光小球样本对点扩散函数进行标定,得到所述训练数据集,并生成所述训练数据集中每个训练图像对应的真值三维矩阵;所述降噪神经网络模块,用于在训练过程中,通过所述训练数据集对无监督降噪网络进行训练,得到降噪模型参数,以对所述训练数据集进行降噪,再将降噪后的训练数据集输出至所述定位神经网络模块;在测试过程中,仿照训练过程对所述测试样本进行降噪;所述定位神经网络模块,用于在测试过程中,通过所述降噪后的训练数据集和所述真值三维矩阵对所述定位神经网络中进行训练,生成模型参数,以对所述待定位样本进行三维定位,生成三维定位数据;所述三维重建模块,用于利用稀疏编码法对所述三维定位数据进行重建,得到超分辨图像。
本发明实施例的基于卷积神经网络的三维单分子定位系统,在对低密度、少重叠的图像保持较高定位精度的同时,提高三维单分子定位对于高密度多重叠、低信噪比的鲁棒性,从而使得单分子定位过程中,提高单次采集的的荧光点数,减少曝光时间,节省工作量。
另外,根据本发明上述实施例的基于卷积神经网络的三维单分子定位系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述训练数据生成模块具体通过空间中的随机激发点与标定的点扩散函数进行卷积求和得到所述训练数据集,其中,随机激发过程采用随机数生成器,在空间中对三维坐标进行预设范围的随机生成,激发点的亮度同时也通过所述随机数生成器生成,以保证所述每个训练图像的强度保持不变。
进一步地,在本发明的一个实施例中,所述训练数据生成模块中所述点扩散函数为所述荧光显微镜样本采集处理模块张的三维矩阵,第三维度代表轴向位置,卷积过程按照所述轴向位置将随机激发点与点扩散函数进行卷积。
进一步地,在本发明的一个实施例中,所述降噪神经网络模块包括噪声自动生成器以及一个以U-net为基础的无监督降噪网络。
进一步地,在本发明的一个实施例中,所述无监督降噪网络以加入随机噪声的训练数据集为输入,以未加入随机噪声的训练数据集为目标值,采用均方差作为损失函数对U-net网络进行训练。
进一步地,在本发明的一个实施例中,采用回归模型对所述定位卷积神经网络结构进行设计。
进一步地,在本发明的一个实施例中,所述定位神经网络模块包括四个U-net通道相复合,测试时将所述所述降噪后的训练数据集分别输入到四个通道中,通过四个通道分别输出四个中间结果,其大小与所述所述真值三维矩阵相同,然后将四个中间结果相叠加,通过一个卷积层输出所述三维定位数据。
进一步地,在本发明的一个实施例中,所述四个U-net通道之间互不相同,在U-net的前四个卷积层分别采用卷积核的大小为3×3、4×4、5×5、6×6。
进一步地,在本发明的一个实施例中,在U-net的编码过程中,每一个深度由两次保持图像大小不变的卷积、激活、批标准化和一次下采样构成。
进一步地,在本发明的一个实施例中,所述三维重建模块具体用于:利用稀疏编码法将所述三维定位数据进行快速的拼接与整合,仅将每个矩阵定位出的激发点的坐标记录,通过换算定位到整体图像中,最终通过所有图像不断更新点集,得到所述超分辨图像。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于卷积神经网络的三维单分子定位系统结构示意图;
图2为根据本发明一个实施例的基于卷积神经网络的三维单分子定位系统中定位卷积神经网络整体结构示意图;
图3为根据本发明一个实施例的基于卷积神经网络的三维单分子定位系统的定位卷积神经网络中特征提取网络结构示意图;
图4为根据本发明一个实施例的基于卷积神经网络的三维单分子定位系统具体执行流程图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于卷积神经网络的三维单分子定位系统。
图1是本发明一个实施例的基于卷积神经网络的三维单分子定位系统结构示意图。
如图1所示,该系统包括:荧光显微镜样本采集处理模块100、训练数据生成模块200、降噪神经网络模块300、定位神经网络模块400和三维重建模块500。
其中,荧光显微镜样本采集处理模块100,用于主要通过超分辨荧光显微镜采集待定位样本,在测试图像的处理过程中,根据预设训练图像尺寸,对待定位样本进行切割,将切割后的图像和切割尺寸以及重叠尺寸(即测试样本)输出。
训练数据生成模块200,用于利用荧光小球样本对点扩散函数进行标定,得到训练数据集,并生成训练数据集中每个训练图像对应的真值三维矩阵。
进一步地,在本发明的一个实施例中,训练数据生成模块200主要通过空间中的随机激发点与标定的点扩散函数进行卷积求和得到训练数据集,其中,随机激发过程采用随机数生成器,在空间中对三维坐标进行预设范围的随机生成,激发点的亮度同时也通过随机数生成器生成,以保证每个训练图像的强度保持不变。
需要说明的是,训练数据生成模块中点扩散函数为荧光显微镜样本采集处理模块张的三维矩阵,第三维度代表轴向位置,卷积过程按照轴向位置将随机激发点与点扩散函数进行卷积。
降噪神经网络模块300,用于在训练过程中,通过训练数据集对无监督降噪网络进行训练,得到降噪模型参数,以对训练数据集进行降噪,再将降噪后的训练数据集输出至定位神经网络模块;在测试过程中,仿照训练过程对测试样本进行降噪。
进一步地,降噪神经网络模块主要包括噪声自动生成器以及一个以U-net为基础的无监督降噪网络。该无监督降噪网络以加入随机噪声的训练数据图像为输入,以未加入随机噪声的训练数据图像为目标值,采用均方差作为损失函数对U-net网络进行训练。
定位神经网络模块400,用于在测试过程中,通过降噪后的训练数据集和真值三维矩阵对定位神经网络中进行训练,生成模型参数,以对待定位样本进行三维定位,生成三维定位数据。
进一步地,在本发明的一个实施例中,采用回归模型对定位卷积神经网络结构进行设计。
进一步地,如图2和3所示,定位神经网络模块主要包括四个U-net通道相复合,测试时将降噪后的训练数据集分别输入到四个通道中,通过四个通道分别输出四个中间结果,其大小与真值三维矩阵相同,然后将四个中间结果相叠加,通过一个卷积层输出最终的定位结果三维矩阵(即三维定位数据)。
需要说明的是,四个U-net通道之间互不相同,在U-net的前四个卷积层分别采用卷积核的大小为3×3、4×4、5×5、6×6。其中,每个通道中U-net中采用了卷积层、激活层、批标准化、全连接层等神经网络常用结构,采用了跳跃连接构建了回归卷积神经网络在U-net的编码过程中,在U-net的编码过程中,每一个深度由两次保持图像大小不变的卷积、激活、批标准化和一次下采样构成,解码过程则是上采样。
另外,定位神经网络模块400其损失函数的由六项构成,四个通道以及最终结果与真值矩阵计算的均方误差函数,再加上最终结果沿轴向维度展开与真值的均方误差,同时,每一个损失函数都加入了稀疏性约束,整体损失函数可以表示为:
loss=w1×loss_channel_1+w2×loss_channel_2+w3×loss_channel_3 +w4×loss_channel_4+w5×loss_res+w6×loss_zzz
其中,w1~w6指各损失函数在总损失函数中的权重,上式中仅列出了第一个通道的损失函数,w代表稀疏性约束在该部分损失函数中的权重,rt(k)代表轴向第k层的在所有层中的权重,gt和pred分别为真值和预测结果,convG和convP分别为gt和pred与二维高斯核卷积的结果,col为真值矩阵的列尺寸,row为针织矩阵行尺寸,ConvPdVec核ConvGtVec分别为预测结果和真值在沿轴向维度展开之后与一维高斯核卷积后得到的结果。
三维重建模块500,用于利用稀疏编码法对三维定位数据进行重建,得到超分辨图像。
具体而言,三维重建模块300具体用于:利用稀疏编码法将三维定位数据进行快速的拼接与整合,仅将每个矩阵定位出的激发点的坐标记录,通过换算定位到整体图像中,最终通过所有图像不断更新点集,最终得到三维定位图像(即超分辨图像)。
如图4所示,下面对本发明实施例的基于卷积神经网络的三维单分子定位系统具体工作流程做详细描述。
S401,在试验台上搭建搭建PSF-Engineering光路,使用傅里叶转换透镜和空间光调制器进行设计,空间光调制器上的相位模式采用双螺旋点扩散函数的相位模式,通过超分辨荧光显微镜观测样本,在训练过程前使用荧光小球采集得到PSF标定图像。
S402,通过S401标定的点扩散函数图像,通过随机激发空间中的点及其亮度的方式,模拟真实激发过程,与对应深度的点扩散函数进行卷积,得到训练数据集。
S403,通过超分辨荧光显微镜观测样本,在定位过程前,采集得到待检测生物样本图像。
S404,设计并实现设计并实现以复合U-net为基础的卷积神经网络,以二维训练集数据为输入,以三维标定真值矩阵为目标值,设计适用的损失函数对网络进行训练。
S405,用测试数据对无监督降噪网络进行训练并使用训练得到的降噪模型对测试数据图像进行降噪处理。
S406,将降噪处理的图像输入到定位卷积神经网络中,预测得到定位矩阵,再通过拼接的方式进行三维重建
根据本发明实施例提出的基于卷积神经网络的三维单分子定位系统,在对低密度、少重叠的图像保持较高定位精度的同时,提高三维单分子定位对于高密度多重叠、低信噪比的鲁棒性,从而使得单分子定位过程中,提高单次采集的的荧光点数,减少曝光时间,节省工作量。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (9)
1.一种基于卷积神经网络的三维单分子定位系统,其特征在于,包括:荧光显微镜样本采集处理模块、训练数据生成模块、降噪神经网络模块、定位神经网络模块和三维重建模块,其中,
所述荧光显微镜样本采集处理模块,用于通过超分辨荧光显微镜采集待定位样本,在测试图像的处理过程中,根据预设训练图像尺寸,对所述待定位样本进行切割,得到测试样本;
所述训练数据生成模块,用于利用荧光小球样本对点扩散函数进行标定,得到所述训练数据集,并生成所述训练数据集中每个训练图像对应的真值三维矩阵;
所述降噪神经网络模块,用于在训练过程中,通过所述训练数据集对无监督降噪网络进行训练,得到降噪模型参数,以对所述训练数据集进行降噪,再将降噪后的训练数据集输出至所述定位神经网络模块;在测试过程中,仿照训练过程对所述测试样本进行降噪;
所述定位神经网络模块,用于在测试过程中,通过所述降噪后的训练数据集和所述真值三维矩阵对所述定位神经网络中进行训练,生成模型参数,以对所述待定位样本进行三维定位,生成三维定位数据,其中,所述定位神经网络模块包括四个U-net通道相复合,测试时将所述降噪后的训练数据集分别输入到四个通道中,通过四个通道分别输出四个中间结果,其大小与所述真值三维矩阵相同,然后将四个中间结果相叠加,通过一个卷积层输出所述三维定位数据;
所述三维重建模块,用于利用稀疏编码法对所述三维定位数据进行重建,得到超分辨图像。
2.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述训练数据生成模块具体通过空间中的随机激发点与标定的点扩散函数进行卷积求和得到所述训练数据集,其中,随机激发过程采用随机数生成器,在空间中对三维坐标进行预设范围的随机生成,激发点的亮度同时也通过所述随机数生成器生成,以保证所述每个训练图像的强度保持不变。
3.根据权利要求2所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述训练数据生成模块中所述点扩散函数为所述荧光显微镜样本采集处理模块张的三维矩阵,第三维度代表轴向位置,卷积过程按照所述轴向位置将随机激发点与点扩散函数进行卷积。
4.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述降噪神经网络模块包括噪声自动生成器以及一个以U-net为基础的无监督降噪网络。
5.根据权利要求4所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述无监督降噪网络以加入随机噪声的训练数据集为输入,以未加入随机噪声的训练数据集为目标值,采用均方差作为损失函数对U-net网络进行训练。
6.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,采用回归模型对所述定位卷积神经网络结构进行设计。
7.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述四个U-net通道之间互不相同,在U-net的前四个卷积层分别采用卷积核的大小为3×3、4×4、5×5、6×6。
8.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,在U-net的编码过程中,每一个深度由两次保持图像大小不变的卷积、激活、批标准化和一次下采样构成。
9.根据权利要求1所述的基于卷积神经网络的三维单分子定位系统,其特征在于,所述三维重建模块具体用于:利用稀疏编码法将所述三维定位数据进行快速的拼接与整合,仅将每个矩阵定位出的激发点的坐标记录,通过换算定位到整体图像中,最终通过所有图像不断更新点集,得到所述超分辨图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113830.0A CN111310903B (zh) | 2020-02-24 | 2020-02-24 | 基于卷积神经网络的三维单分子定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113830.0A CN111310903B (zh) | 2020-02-24 | 2020-02-24 | 基于卷积神经网络的三维单分子定位系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310903A CN111310903A (zh) | 2020-06-19 |
CN111310903B true CN111310903B (zh) | 2023-04-07 |
Family
ID=71147672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010113830.0A Active CN111310903B (zh) | 2020-02-24 | 2020-02-24 | 基于卷积神经网络的三维单分子定位系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310903B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022027216A1 (zh) * | 2020-08-04 | 2022-02-10 | 深圳高性能医疗器械国家研究院有限公司 | 一种图像降噪方法及其应用 |
CN112508819A (zh) * | 2020-12-17 | 2021-03-16 | 广州大学 | 基于卷积神经网络的包裹相位去噪方法、系统和存储介质 |
CN112598597A (zh) * | 2020-12-25 | 2021-04-02 | 华为技术有限公司 | 一种降噪模型的训练方法及相关装置 |
CN113838132B (zh) * | 2021-09-22 | 2023-08-04 | 中国计量大学 | 一种基于卷积神经网络的单分子定位方法 |
CN114187362B (zh) * | 2022-02-15 | 2022-04-29 | 苏州英示测量科技有限公司 | 点衍射干涉三维定位方法、电子设备及点衍射干涉装置 |
CN114757847A (zh) * | 2022-04-24 | 2022-07-15 | 汕头市超声仪器研究所股份有限公司 | 多信息提取的扩展U-Net及其在低剂量X射线成像的应用方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110441271A (zh) * | 2019-07-15 | 2019-11-12 | 清华大学 | 基于卷积神经网络的光场高分辨解卷积方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063730B (zh) * | 2011-01-14 | 2012-09-12 | 华中科技大学 | 基于单分子定位的快速超分辨成像方法及系统 |
US10303979B2 (en) * | 2016-11-16 | 2019-05-28 | Phenomic Ai Inc. | System and method for classifying and segmenting microscopy images with deep multiple instance learning |
US10937131B2 (en) * | 2017-06-15 | 2021-03-02 | Sun Yat-Sen University | Image deblurring algorithm based on sparse positive source separation model |
CN108088660B (zh) * | 2017-12-15 | 2019-10-29 | 清华大学 | 宽场荧光显微镜的点扩散函数测量方法及系统 |
CN108010062B (zh) * | 2017-12-27 | 2021-03-23 | 清华大学 | 三维单分子追踪方法及装置 |
CN108960284B (zh) * | 2018-05-31 | 2021-09-07 | 天津大学 | 基于显微图像和深度学习的微球单一性识别和定位的方法 |
CN110443882B (zh) * | 2019-07-05 | 2021-06-11 | 清华大学 | 基于深度学习算法的光场显微三维重建方法及装置 |
CN110680284A (zh) * | 2019-10-17 | 2020-01-14 | 山东工商学院 | 一种基于3D-Unet的介观荧光分子成像三维重建方法及系统 |
-
2020
- 2020-02-24 CN CN202010113830.0A patent/CN111310903B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110441271A (zh) * | 2019-07-15 | 2019-11-12 | 清华大学 | 基于卷积神经网络的光场高分辨解卷积方法及系统 |
Non-Patent Citations (1)
Title |
---|
基于深度卷积神经网络的图像重建算法;于波等;《计算机系统应用》;20180915(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111310903A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310903B (zh) | 基于卷积神经网络的三维单分子定位系统 | |
CN110441271B (zh) | 基于卷积神经网络的光场高分辨解卷积方法及系统 | |
Yang et al. | Low-dose x-ray tomography through a deep convolutional neural network | |
CN111524064B (zh) | 基于深度学习的荧光显微图像超分辨重建方法 | |
Markham et al. | Parametric blind deconvolution: a robust method for the simultaneous estimation of image and blur | |
CN112465701B (zh) | 显微图像的深度学习超分辨率重建方法、介质及电子设备 | |
CN114331911A (zh) | 一种基于卷积神经网络的傅里叶叠层显微图像去噪方法 | |
Ning et al. | Deep self-learning enables fast, high-fidelity isotropic resolution restoration for volumetric fluorescence microscopy | |
CN111667407B (zh) | 一种深度信息引导的图像超分辨率方法 | |
CN114972284A (zh) | 基于自监督深度学习的无透镜显微成像系统及方法 | |
Villarraga-Gómez et al. | Improving throughput and image quality of high-resolution 3D X-ray microscopes using deep learning reconstruction techniques | |
US20240193768A1 (en) | Fluorescence lifetime imaging using deep learning | |
Hoppe et al. | Three-dimensional FRET reconstruction microscopy for analysis of dynamic molecular interactions in live cells | |
CN113221948B (zh) | 基于对抗生成网络和弱监督学习的数字切片图像分类方法 | |
CN112633123B (zh) | 一种基于深度学习的异源遥感影像变化检测方法及装置 | |
CN115619646B (zh) | 一种深度学习的亚五十纳米结构光照明超分辨成像方法 | |
CN115880440B (zh) | 一种基于生成对抗网络的磁粒子三维重建成像方法 | |
CN115984107A (zh) | 自监督多模态结构光显微重建方法和系统 | |
CN111751343A (zh) | 基于瓶颈残差gan的介观荧光分子层析成像方法及系统 | |
CN111476125A (zh) | 基于生成对抗网络的三维荧光显微信号去噪方法 | |
CN116843779A (zh) | 直线扫描探测器微分bpf重建图像稀疏伪影校正方法 | |
CN115293981A (zh) | 结构光照明荧光显微图像去噪和超分辨率重建方法及系统 | |
CN110243828B (zh) | 基于卷积神经网络的生物组织三维成像方法 | |
KR102628495B1 (ko) | 나노 입자의 3차원 원자 단위 구조 결정 장치 및 그 결정 방법 | |
FR2638875A1 (fr) | Procede de selection d'un objet dans un referentiel a n dimensions et de visualisation de l'objet selectionne |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |