CN113808017A - 基于照明优化的结构光成像方法及装置 - Google Patents
基于照明优化的结构光成像方法及装置 Download PDFInfo
- Publication number
- CN113808017A CN113808017A CN202110977086.3A CN202110977086A CN113808017A CN 113808017 A CN113808017 A CN 113808017A CN 202110977086 A CN202110977086 A CN 202110977086A CN 113808017 A CN113808017 A CN 113808017A
- Authority
- CN
- China
- Prior art keywords
- network
- optimized
- structured light
- illumination
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 74
- 238000003384 imaging method Methods 0.000 title claims abstract description 71
- 238000005457 optimization Methods 0.000 title claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000001914 filtration Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 7
- 238000011161 development Methods 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 16
- 238000013135 deep learning Methods 0.000 abstract description 14
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000399 optical microscopy Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种基于照明优化的结构光成像方法和装置,其中,方法包括:设计基于深度神经网络的编码网络和解码网络;利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;利用优化的网络编码照明样本,得到样本的成像;将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
Description
技术领域
本发明涉及计算摄像学中的超分辨成像技术领域,特别涉及一种基于照明优化的结构光成像方法及装置。
背景技术
光学显微成像的分辨率受光学系统衍射特性的限制,近年来,研究人员在利用现有成像系统恢复更高分辨率的图像方面付出大量努力。2000年,加利福尼亚大学旧金山分校的M.Gustafsson博士提出了结构光照明显微法(Structured IlluminationMicroscopy,SIM)。SIM通过结构光编码照明光源(一般是正弦编码)照射物体,在傅里叶空间频域,结构光照明编码频谱与样本原像频谱卷积,以此将位于显微成像过程的光学传递函数(Optical Transfer Function,OTF)之外的信息转移到可观测范围内,通过特定算法拼接OTF范围外的高频信息与OTF内的低频信息,从而还原高分辨率图像。SIM成像分辨率最高可达原成像系统分辨率的两倍。
具体的,传统的SIM通过采集九或十五张结构光编码照明的低分辨率编码图像通过特定算法生成一张高分辨图像,恢复算法有直接法、贝叶斯估计法及Gerchberg–Saxton算法(G-S算法)等。
由于SIM的主要局限性是每一幅重建的高分辨率SIM图像都需要获得一系列高质量的图像,这会降低时间分辨率,增加光漂白,因此近年来SIM一直在提高速度、分辨率,并减少所需的光照剂量等方面不断改进。随着深度神经网络的发展,研究者开始运用深度学习理论进行图像的超分辨研究,利用深度学习减少原始图像的数量来提高SIM的速度,并从其中获取超分辨率信息的方法被提出。2020年,研究者发现使用Unet网络仅通过三张原始图像就可达到传统九张图像的超分辨效果,不仅可以在极低光线条件下生成图像,还通过验证在不同细胞结构上的性能,实现了活细胞超分辨率成像,大大减少了光漂白。另外,还有研究者使用CycleGAN网络也实现了相同的结果。但现有的深度学习方法都采用传统的单一正弦光编码照明图像作为网络输入,需要网络去适应物理系统,这样就不能发挥出各自的最优性能。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于照明优化的结构光成像方法,利用深度学习模型作为实现手段,设计可随着网络迭代学习的优化结构光编码图案,同时模拟结构光照明下被采集图像的成像过程,通过深度神经网络实现结构光照明超分辨率图像的快速重建,并搭建系统进行原理验证。
本发明的第二个目的在于提出一种基于照明优化的结构光成像装置。
为达上述目的,本发明第一方面实施例提出了一种基于照明优化的结构光成像方法,包括:
设计基于深度神经网络的编码网络和解码网络;
利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
利用所述优化的网络编码照明样本,得到所述样本的成像;
将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
另外,根据本发明上述实施例的基于照明优化的结构光成像方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述编码网络获取优化的结构光照明编码,输入高分辨率图像,输出经优化的结构光照明的低分辨率图像。
进一步地,在本发明的一个实施例中,所述解码网络用于将所述低分辨率的图像作为输入,重建出所述超分辨率的图像。
进一步地,在本发明的一个实施例中,所述编码网络获取优化的结构光照明编码,输入高分辨率的图像,输出经优化的结构光照明的低分辨率的图像,包括:设置更新迭代的结构光编码照明层,经过低通滤波后和所述编码网络输入的高分辨率的图像进行点乘操作,得到所述点乘操作的操作结果;将所述操作结果再经过一次低通滤波得到所述经优化的结构光照明的低分辨率的图像。
进一步地,在本发明的一个实施例中,所述低通滤波的操作为将所述低分辨率的图像进行傅里叶变换,并对所述低分辨率的图像点乘光学传递函数,以进行逆傅里叶变换得到空域中的图像。
进一步地,在本发明的一个实施例中,所述进行逆傅里叶变换得到空域中的图像,由下面公式计算:
进一步地,在本发明的一个实施例中,所述设计基于深度神经网络的解码网络,包括:基于U2NET的网络、基于注意力机制的网络和基于神经网络的变种或发展模型中的一种。
进一步地,在本发明的一个实施例中,所述利用所述深度神经网络训练所述编码网络和所述解码网络,包括:使用所述高分辨率图像的数据集对所述编码网络和所述解码网络进行训练。
进一步地,在本发明的一个实施例中,所述利用所述优化的网络编码照明样本,得到所述样本的成像,包括:经过所述优化的编码网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,所述样本的反射光由传感器接收采集。
本发明实施例的基于照明优化的结构光成像方法,通过设计基于深度神经网络的编码网络和解码网络,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络,利用优化的网络编码照明样本,得到样本的成像,将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
为达上述目的,本发明第二方面实施例提出了基于照明优化的结构光成像装置,包括:
设计模块,用于设计基于深度神经网络的编码网络和解码网络;
训练模块,用于利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
照明模块,用于利用所述优化的网络编码照明样本,得到所述样本的成像;
输出模块,用于将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
本发明实施例的基于照明优化的结构光成像装置,通过设计模块,用于设计基于深度神经网络的编码网络和解码网络;训练模块,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;照明模块,用于利用优化的网络编码照明样本,得到样本的成像;输出模块,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的照明优化的结构光成像的基本网络结构图;
图2为根据本发明一个实施例的基于照明优化的结构光成像方法流程图;
图3为根据本发明一个实施例的编码网络的一种基本框图;
图4为根据本发明一个实施例的结构光照明编码示例图;
图5根据本发明一个实施例的照明优化的结构光成像的实际应用模型结构图;
图6根据本发明一个实施例的结构光照明成像光路图;
图7为根据本发明一个实施例的基于照明优化的结构光成像装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于深度学习的大地电磁数据静位移校正方法和装置。
图2为本发明实施例所提供的一种基于照明优化的结构光成像方法的流程图。
如图2所示,该方法包括以下步骤:
步骤S1,设计基于深度神经网络的编码网络和解码网络。
步骤S2,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络。
步骤S3,利用优化的网络编码照明样本,得到样本的成像。
步骤S4,将样本的成像输入到优化的解码网络中,输出超分辨率图像。
具体的,如图1所示,为本发明照明优化的结构光成像基本网络结构。图3为编码网络具体实施过程,目的是学习出最适应网络的结构光照明编码,以及模拟真实成像场景得到低分辨率图像。首先在网络中设置可更新迭代的结构光编码照明层,经过低通滤波后和编码网络输入的超分辨率图像进行点乘操作;将上一步得到的结果再经过一次低通滤波得到编码照明后的低分辨率图像,即编码网络的输出。其中,低通滤波的过程依据SIM超分辨的基本原理设计。根据成像公式
式中的含义与前式相同,OTF是光学传递函数,即PSF在频域空间的表现形式。因此,根据上述原理,低通滤波操作在网络中的实现过程为:将图像先进行傅里叶变换,然后对其点乘光学传递函数,最后进行逆傅里叶变换得到空域中的图像。
根据本发明的一个实施例,如图1中的解码器所示为基于深度神经网络设计的解码网络,目的是进行超分辨图像重建,其包括但不限于U2NET网络。U2NET网络是对Unet的一种改进,随着网络的加深能够维持较高的分辨率。U2NET是一个两级的嵌入U型网络结构,底层利用残差U型单元(RSU)实现了低层高分辨率的局部信息与高层低分辨率全局信息的融合;高层利用类似Unet的网络结构。这样的设计可以利用来自RSU的不同尺度不同感受野的混合,捕捉来自更多的不同尺度的上下文信息,此外采用RSU中的池化操作使U2NET在不增加计算复杂度的基础上可以提升整个模型架构的深度。
进一步地,如图4和图5所示,利用现有数据集对整个网络进行端到端的训练,经上述分析可知,整体网络的输入输出均为高分辨率图像。通过数次迭代更新得到最优的网络模型。
进一步地,本发明为了更好的说明,图6为实际应用时照明优化的结构光成像的基本流程。经过网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,样本反射光由传感器接收采集。然后将得到的低分辨率图像输入解码网络中,解码网络的输出即为重建的高分辨图像。
根据本发明实施例的基于照明优化的结构光成像方法,通过设计基于深度神经网络的编码网络和解码网络,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络,利用优化的网络编码照明样本,得到样本的成像,将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
图7为根据本发明一个实施例的基于照明优化的结构光成像装置的结构示意图。
如图7所示,该装置10包括:设计模块100、训练模块200、照明模块300和输出模块400。
设计模块100,用于设计基于深度神经网络的编码网络和解码网络;
训练模块200,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;
照明模块300,用于利用优化的网络编码照明样本,得到样本的成像;
输出模块400,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。
根据本发明实施例的于照明优化的结构光成像装置,通过设计模块,用于设计基于深度神经网络的编码网络和解码网络;训练模块,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;照明模块,用于利用优化的网络编码照明样本,得到样本的成像;输出模块,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于照明优化的结构光成像方法,其特征在于,包括以下步骤:
设计基于深度神经网络的编码网络和解码网络;
利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
利用所述优化的网络编码照明样本,得到所述样本的成像;
将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
2.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述编码网络获取优化的结构光照明编码,输入高分辨率图像,输出经优化的结构光照明的低分辨率图像。
3.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述解码网络用于将所述低分辨率的图像作为输入,重建出所述超分辨率的图像。
4.根据权利要求2所述的基于照明优化的结构光成像方法,其特征在于,所述编码网络获取优化的结构光照明编码,输入高分辨率的图像,输出经优化的结构光照明的低分辨率的图像,包括:
设置更新迭代的结构光编码照明层,经过低通滤波后和所述编码网络输入的高分辨率的图像进行点乘操作,得到所述点乘操作的操作结果;
将所述操作结果再经过一次低通滤波得到所述经优化的结构光照明的低分辨率的图像。
5.根据权利要求4所述的基于照明优化的结构光成像方法,其特征在于,所述低通滤波的操作为将所述低分辨率的图像进行傅里叶变换,并对所述低分辨率的图像点乘光学传递函数,以进行逆傅里叶变换得到空域中的图像。
7.根据权利要求6所述的基于照明优化的结构光成像方法,其特征在于,所述设计基于深度神经网络的解码网络,包括:
基于U2NET的网络、基于注意力机制的网络和基于神经网络的变种或发展模型中的一种。
8.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述利用所述深度神经网络训练所述编码网络和所述解码网络,包括:
使用所述高分辨率图像的数据集对所述编码网络和所述解码网络进行训练。
9.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述利用所述优化的网络编码照明样本,得到所述样本的成像,包括:
经过所述优化的编码网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,所述样本的反射光由传感器接收采集。
10.一种基于照明优化的结构光成像装置,其特征在于,包括:
设计模块,用于设计基于深度神经网络的编码网络和解码网络;
训练模块,用于利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
照明模块,用于利用所述优化的网络编码照明样本,得到所述样本的成像;
输出模块,用于将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110977086.3A CN113808017B (zh) | 2021-08-24 | 基于照明优化的结构光成像方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110977086.3A CN113808017B (zh) | 2021-08-24 | 基于照明优化的结构光成像方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808017A true CN113808017A (zh) | 2021-12-17 |
CN113808017B CN113808017B (zh) | 2024-06-28 |
Family
ID=
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197861A (zh) * | 2014-08-25 | 2014-12-10 | 深圳大学 | 基于结构光灰度向量的三维数字成像方法 |
CN107981838A (zh) * | 2017-12-20 | 2018-05-04 | 清华大学 | 结构光照明的频域光学相干层析系统及方法 |
CN108734660A (zh) * | 2018-05-25 | 2018-11-02 | 上海通途半导体科技有限公司 | 一种基于深度学习的图像超分辨率重建方法及装置 |
CN109407293A (zh) * | 2018-10-31 | 2019-03-01 | 浙江大学 | 基于双振镜双物镜的三维结构光照明超分辨显微成像装置和方法 |
US20190333199A1 (en) * | 2018-04-26 | 2019-10-31 | The Regents Of The University Of California | Systems and methods for deep learning microscopy |
WO2021082103A1 (zh) * | 2019-10-31 | 2021-05-06 | 清华大学 | 基于深度学习的无变形单次激发平面回波成像方法及装置 |
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197861A (zh) * | 2014-08-25 | 2014-12-10 | 深圳大学 | 基于结构光灰度向量的三维数字成像方法 |
CN107981838A (zh) * | 2017-12-20 | 2018-05-04 | 清华大学 | 结构光照明的频域光学相干层析系统及方法 |
US20190333199A1 (en) * | 2018-04-26 | 2019-10-31 | The Regents Of The University Of California | Systems and methods for deep learning microscopy |
CN108734660A (zh) * | 2018-05-25 | 2018-11-02 | 上海通途半导体科技有限公司 | 一种基于深度学习的图像超分辨率重建方法及装置 |
CN109407293A (zh) * | 2018-10-31 | 2019-03-01 | 浙江大学 | 基于双振镜双物镜的三维结构光照明超分辨显微成像装置和方法 |
WO2021082103A1 (zh) * | 2019-10-31 | 2021-05-06 | 清华大学 | 基于深度学习的无变形单次激发平面回波成像方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110441271B (zh) | 基于卷积神经网络的光场高分辨解卷积方法及系统 | |
Zhou et al. | Diffraction tomography with a deep image prior | |
CN110415201B (zh) | 基于结构光和深度学习的单曝光超分辨率成像方法及装置 | |
Matlock et al. | High-throughput, volumetric quantitative phase imaging with multiplexed intensity diffraction tomography | |
CN112697751B (zh) | 多角度照明无透镜成像方法、系统及装置 | |
CN108957724B (zh) | 一种基于傅里叶叠层成像技术的显微镜错位校正方法 | |
CN109211790B (zh) | 一种基于傅里叶功率谱探测的单像素相位成像方法 | |
CN105976315B (zh) | 基于部分傅里叶空间的显微成像方法 | |
Zhang et al. | Nonlinear optimization approach for Fourier ptychographic microscopy | |
Qiao et al. | 3D structured illumination microscopy via channel attention generative adversarial network | |
CN108537862B (zh) | 一种自适应降噪的傅里叶衍射扫描显微镜成像方法 | |
Matlock et al. | Physical model simulator-trained neural network for computational 3d phase imaging of multiple-scattering samples | |
Cao et al. | Dynamic structured illumination microscopy with a neural space-time model | |
CN114266702A (zh) | 基于压缩感知和深度光学的高速超分辨成像方法及装置 | |
Li et al. | Patch-based U-net model for isotropic quantitative differential phase contrast imaging | |
Wang et al. | Automated data processing architecture for the gemini planet imager exoplanet survey | |
Wijesinghe et al. | Emergent physics-informed design of deep learning for microscopy | |
Gutiérrez-Zaballa et al. | On-chip hyperspectral image segmentation with fully convolutional networks for scene understanding in autonomous driving | |
CN113808017B (zh) | 基于照明优化的结构光成像方法及装置 | |
CN113808017A (zh) | 基于照明优化的结构光成像方法及装置 | |
CN111121969B (zh) | 一种基于孔径扫描的多光谱叠层成像方法 | |
Cui et al. | Dual-domain strip attention for image restoration | |
Zhang et al. | The integration of neural network and physical reconstruction model for Fourier ptychographic microscopy | |
Sun et al. | High-resolution 3D Fourier ptychographic reconstruction using a hemispherical illumination source with multiplexed-coded strategy | |
CN111610623A (zh) | 基于傅里叶叠层的显微成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |