CN113808017A - 基于照明优化的结构光成像方法及装置 - Google Patents

基于照明优化的结构光成像方法及装置 Download PDF

Info

Publication number
CN113808017A
CN113808017A CN202110977086.3A CN202110977086A CN113808017A CN 113808017 A CN113808017 A CN 113808017A CN 202110977086 A CN202110977086 A CN 202110977086A CN 113808017 A CN113808017 A CN 113808017A
Authority
CN
China
Prior art keywords
network
optimized
structured light
illumination
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110977086.3A
Other languages
English (en)
Other versions
CN113808017B (zh
Inventor
边丽蘅
任秋凌
张军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110977086.3A priority Critical patent/CN113808017B/zh
Priority claimed from CN202110977086.3A external-priority patent/CN113808017B/zh
Publication of CN113808017A publication Critical patent/CN113808017A/zh
Application granted granted Critical
Publication of CN113808017B publication Critical patent/CN113808017B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种基于照明优化的结构光成像方法和装置,其中,方法包括:设计基于深度神经网络的编码网络和解码网络;利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;利用优化的网络编码照明样本,得到样本的成像;将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。

Description

基于照明优化的结构光成像方法及装置
技术领域
本发明涉及计算摄像学中的超分辨成像技术领域,特别涉及一种基于照明优化的结构光成像方法及装置。
背景技术
光学显微成像的分辨率受光学系统衍射特性的限制,近年来,研究人员在利用现有成像系统恢复更高分辨率的图像方面付出大量努力。2000年,加利福尼亚大学旧金山分校的M.Gustafsson博士提出了结构光照明显微法(Structured IlluminationMicroscopy,SIM)。SIM通过结构光编码照明光源(一般是正弦编码)照射物体,在傅里叶空间频域,结构光照明编码频谱与样本原像频谱卷积,以此将位于显微成像过程的光学传递函数(Optical Transfer Function,OTF)之外的信息转移到可观测范围内,通过特定算法拼接OTF范围外的高频信息与OTF内的低频信息,从而还原高分辨率图像。SIM成像分辨率最高可达原成像系统分辨率的两倍。
具体的,传统的SIM通过采集九或十五张结构光编码照明的低分辨率编码图像通过特定算法生成一张高分辨图像,恢复算法有直接法、贝叶斯估计法及Gerchberg–Saxton算法(G-S算法)等。
由于SIM的主要局限性是每一幅重建的高分辨率SIM图像都需要获得一系列高质量的图像,这会降低时间分辨率,增加光漂白,因此近年来SIM一直在提高速度、分辨率,并减少所需的光照剂量等方面不断改进。随着深度神经网络的发展,研究者开始运用深度学习理论进行图像的超分辨研究,利用深度学习减少原始图像的数量来提高SIM的速度,并从其中获取超分辨率信息的方法被提出。2020年,研究者发现使用Unet网络仅通过三张原始图像就可达到传统九张图像的超分辨效果,不仅可以在极低光线条件下生成图像,还通过验证在不同细胞结构上的性能,实现了活细胞超分辨率成像,大大减少了光漂白。另外,还有研究者使用CycleGAN网络也实现了相同的结果。但现有的深度学习方法都采用传统的单一正弦光编码照明图像作为网络输入,需要网络去适应物理系统,这样就不能发挥出各自的最优性能。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于照明优化的结构光成像方法,利用深度学习模型作为实现手段,设计可随着网络迭代学习的优化结构光编码图案,同时模拟结构光照明下被采集图像的成像过程,通过深度神经网络实现结构光照明超分辨率图像的快速重建,并搭建系统进行原理验证。
本发明的第二个目的在于提出一种基于照明优化的结构光成像装置。
为达上述目的,本发明第一方面实施例提出了一种基于照明优化的结构光成像方法,包括:
设计基于深度神经网络的编码网络和解码网络;
利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
利用所述优化的网络编码照明样本,得到所述样本的成像;
将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
另外,根据本发明上述实施例的基于照明优化的结构光成像方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述编码网络获取优化的结构光照明编码,输入高分辨率图像,输出经优化的结构光照明的低分辨率图像。
进一步地,在本发明的一个实施例中,所述解码网络用于将所述低分辨率的图像作为输入,重建出所述超分辨率的图像。
进一步地,在本发明的一个实施例中,所述编码网络获取优化的结构光照明编码,输入高分辨率的图像,输出经优化的结构光照明的低分辨率的图像,包括:设置更新迭代的结构光编码照明层,经过低通滤波后和所述编码网络输入的高分辨率的图像进行点乘操作,得到所述点乘操作的操作结果;将所述操作结果再经过一次低通滤波得到所述经优化的结构光照明的低分辨率的图像。
进一步地,在本发明的一个实施例中,所述低通滤波的操作为将所述低分辨率的图像进行傅里叶变换,并对所述低分辨率的图像点乘光学传递函数,以进行逆傅里叶变换得到空域中的图像。
进一步地,在本发明的一个实施例中,所述进行逆傅里叶变换得到空域中的图像,由下面公式计算:
Figure BDA0003227931800000021
其中,
Figure BDA0003227931800000031
是样本的成像,
Figure BDA0003227931800000032
是样本出射光的强度分布函数,OTF是光学传递函数。
进一步地,在本发明的一个实施例中,所述设计基于深度神经网络的解码网络,包括:基于U2NET的网络、基于注意力机制的网络和基于神经网络的变种或发展模型中的一种。
进一步地,在本发明的一个实施例中,所述利用所述深度神经网络训练所述编码网络和所述解码网络,包括:使用所述高分辨率图像的数据集对所述编码网络和所述解码网络进行训练。
进一步地,在本发明的一个实施例中,所述利用所述优化的网络编码照明样本,得到所述样本的成像,包括:经过所述优化的编码网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,所述样本的反射光由传感器接收采集。
本发明实施例的基于照明优化的结构光成像方法,通过设计基于深度神经网络的编码网络和解码网络,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络,利用优化的网络编码照明样本,得到样本的成像,将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
为达上述目的,本发明第二方面实施例提出了基于照明优化的结构光成像装置,包括:
设计模块,用于设计基于深度神经网络的编码网络和解码网络;
训练模块,用于利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
照明模块,用于利用所述优化的网络编码照明样本,得到所述样本的成像;
输出模块,用于将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
本发明实施例的基于照明优化的结构光成像装置,通过设计模块,用于设计基于深度神经网络的编码网络和解码网络;训练模块,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;照明模块,用于利用优化的网络编码照明样本,得到样本的成像;输出模块,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的照明优化的结构光成像的基本网络结构图;
图2为根据本发明一个实施例的基于照明优化的结构光成像方法流程图;
图3为根据本发明一个实施例的编码网络的一种基本框图;
图4为根据本发明一个实施例的结构光照明编码示例图;
图5根据本发明一个实施例的照明优化的结构光成像的实际应用模型结构图;
图6根据本发明一个实施例的结构光照明成像光路图;
图7为根据本发明一个实施例的基于照明优化的结构光成像装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于深度学习的大地电磁数据静位移校正方法和装置。
图2为本发明实施例所提供的一种基于照明优化的结构光成像方法的流程图。
如图2所示,该方法包括以下步骤:
步骤S1,设计基于深度神经网络的编码网络和解码网络。
步骤S2,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络。
步骤S3,利用优化的网络编码照明样本,得到样本的成像。
步骤S4,将样本的成像输入到优化的解码网络中,输出超分辨率图像。
具体的,如图1所示,为本发明照明优化的结构光成像基本网络结构。图3为编码网络具体实施过程,目的是学习出最适应网络的结构光照明编码,以及模拟真实成像场景得到低分辨率图像。首先在网络中设置可更新迭代的结构光编码照明层,经过低通滤波后和编码网络输入的超分辨率图像进行点乘操作;将上一步得到的结果再经过一次低通滤波得到编码照明后的低分辨率图像,即编码网络的输出。其中,低通滤波的过程依据SIM超分辨的基本原理设计。根据成像公式
Figure BDA0003227931800000041
式中
Figure BDA0003227931800000052
是样品成的像,
Figure BDA0003227931800000053
是样品出射光的强度分布函数,PSF是点扩散函数。将上式进行傅里叶变换取得频域空间的结果为
Figure BDA0003227931800000051
式中
Figure BDA0003227931800000054
的含义与前式相同,OTF是光学传递函数,即PSF在频域空间的表现形式。因此,根据上述原理,低通滤波操作在网络中的实现过程为:将图像先进行傅里叶变换,然后对其点乘光学传递函数,最后进行逆傅里叶变换得到空域中的图像。
根据本发明的一个实施例,如图1中的解码器所示为基于深度神经网络设计的解码网络,目的是进行超分辨图像重建,其包括但不限于U2NET网络。U2NET网络是对Unet的一种改进,随着网络的加深能够维持较高的分辨率。U2NET是一个两级的嵌入U型网络结构,底层利用残差U型单元(RSU)实现了低层高分辨率的局部信息与高层低分辨率全局信息的融合;高层利用类似Unet的网络结构。这样的设计可以利用来自RSU的不同尺度不同感受野的混合,捕捉来自更多的不同尺度的上下文信息,此外采用RSU中的池化操作使U2NET在不增加计算复杂度的基础上可以提升整个模型架构的深度。
进一步地,如图4和图5所示,利用现有数据集对整个网络进行端到端的训练,经上述分析可知,整体网络的输入输出均为高分辨率图像。通过数次迭代更新得到最优的网络模型。
进一步地,本发明为了更好的说明,图6为实际应用时照明优化的结构光成像的基本流程。经过网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,样本反射光由传感器接收采集。然后将得到的低分辨率图像输入解码网络中,解码网络的输出即为重建的高分辨图像。
根据本发明实施例的基于照明优化的结构光成像方法,通过设计基于深度神经网络的编码网络和解码网络,利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络,利用优化的网络编码照明样本,得到样本的成像,将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
图7为根据本发明一个实施例的基于照明优化的结构光成像装置的结构示意图。
如图7所示,该装置10包括:设计模块100、训练模块200、照明模块300和输出模块400。
设计模块100,用于设计基于深度神经网络的编码网络和解码网络;
训练模块200,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;
照明模块300,用于利用优化的网络编码照明样本,得到样本的成像;
输出模块400,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。
根据本发明实施例的于照明优化的结构光成像装置,通过设计模块,用于设计基于深度神经网络的编码网络和解码网络;训练模块,用于利用深度神经网络训练编码网络和解码网络,得到优化的编码网络和优化的解码网络;照明模块,用于利用优化的网络编码照明样本,得到样本的成像;输出模块,用于将样本的成像输入到优化的解码网络中,输出超分辨率图像。本发明结合结构光照明成像方法与深度学习理论,实现优化的结构光照明超分辨图像的快速重建,使深度学习方法在结构光照明成像应用中发挥出最优性能。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于照明优化的结构光成像方法,其特征在于,包括以下步骤:
设计基于深度神经网络的编码网络和解码网络;
利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
利用所述优化的网络编码照明样本,得到所述样本的成像;
将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
2.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述编码网络获取优化的结构光照明编码,输入高分辨率图像,输出经优化的结构光照明的低分辨率图像。
3.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述解码网络用于将所述低分辨率的图像作为输入,重建出所述超分辨率的图像。
4.根据权利要求2所述的基于照明优化的结构光成像方法,其特征在于,所述编码网络获取优化的结构光照明编码,输入高分辨率的图像,输出经优化的结构光照明的低分辨率的图像,包括:
设置更新迭代的结构光编码照明层,经过低通滤波后和所述编码网络输入的高分辨率的图像进行点乘操作,得到所述点乘操作的操作结果;
将所述操作结果再经过一次低通滤波得到所述经优化的结构光照明的低分辨率的图像。
5.根据权利要求4所述的基于照明优化的结构光成像方法,其特征在于,所述低通滤波的操作为将所述低分辨率的图像进行傅里叶变换,并对所述低分辨率的图像点乘光学传递函数,以进行逆傅里叶变换得到空域中的图像。
6.根据权利要求5所述的基于照明优化的结构光成像方法,其特征在于,所述进行逆傅里叶变换得到空域中的图像,由下面公式计算:
Figure FDA0003227931790000011
其中,
Figure FDA0003227931790000012
是样本的成像,
Figure FDA0003227931790000013
是样本出射光的强度分布函数,OTF是光学传递函数。
7.根据权利要求6所述的基于照明优化的结构光成像方法,其特征在于,所述设计基于深度神经网络的解码网络,包括:
基于U2NET的网络、基于注意力机制的网络和基于神经网络的变种或发展模型中的一种。
8.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述利用所述深度神经网络训练所述编码网络和所述解码网络,包括:
使用所述高分辨率图像的数据集对所述编码网络和所述解码网络进行训练。
9.根据权利要求1所述的基于照明优化的结构光成像方法,其特征在于,所述利用所述优化的网络编码照明样本,得到所述样本的成像,包括:
经过所述优化的编码网络优化得到的编码照明结构光由空间光调制器产生,经分光镜投射在被观测样本平面,所述样本的反射光由传感器接收采集。
10.一种基于照明优化的结构光成像装置,其特征在于,包括:
设计模块,用于设计基于深度神经网络的编码网络和解码网络;
训练模块,用于利用所述深度神经网络训练所述编码网络和所述解码网络,得到优化的编码网络和优化的解码网络;
照明模块,用于利用所述优化的网络编码照明样本,得到所述样本的成像;
输出模块,用于将所述样本的成像输入到所述优化的解码网络中,输出超分辨率图像。
CN202110977086.3A 2021-08-24 基于照明优化的结构光成像方法及装置 Active CN113808017B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110977086.3A CN113808017B (zh) 2021-08-24 基于照明优化的结构光成像方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110977086.3A CN113808017B (zh) 2021-08-24 基于照明优化的结构光成像方法及装置

Publications (2)

Publication Number Publication Date
CN113808017A true CN113808017A (zh) 2021-12-17
CN113808017B CN113808017B (zh) 2024-06-28

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197861A (zh) * 2014-08-25 2014-12-10 深圳大学 基于结构光灰度向量的三维数字成像方法
CN107981838A (zh) * 2017-12-20 2018-05-04 清华大学 结构光照明的频域光学相干层析系统及方法
CN108734660A (zh) * 2018-05-25 2018-11-02 上海通途半导体科技有限公司 一种基于深度学习的图像超分辨率重建方法及装置
CN109407293A (zh) * 2018-10-31 2019-03-01 浙江大学 基于双振镜双物镜的三维结构光照明超分辨显微成像装置和方法
US20190333199A1 (en) * 2018-04-26 2019-10-31 The Regents Of The University Of California Systems and methods for deep learning microscopy
WO2021082103A1 (zh) * 2019-10-31 2021-05-06 清华大学 基于深度学习的无变形单次激发平面回波成像方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197861A (zh) * 2014-08-25 2014-12-10 深圳大学 基于结构光灰度向量的三维数字成像方法
CN107981838A (zh) * 2017-12-20 2018-05-04 清华大学 结构光照明的频域光学相干层析系统及方法
US20190333199A1 (en) * 2018-04-26 2019-10-31 The Regents Of The University Of California Systems and methods for deep learning microscopy
CN108734660A (zh) * 2018-05-25 2018-11-02 上海通途半导体科技有限公司 一种基于深度学习的图像超分辨率重建方法及装置
CN109407293A (zh) * 2018-10-31 2019-03-01 浙江大学 基于双振镜双物镜的三维结构光照明超分辨显微成像装置和方法
WO2021082103A1 (zh) * 2019-10-31 2021-05-06 清华大学 基于深度学习的无变形单次激发平面回波成像方法及装置

Similar Documents

Publication Publication Date Title
CN110441271B (zh) 基于卷积神经网络的光场高分辨解卷积方法及系统
Zhou et al. Diffraction tomography with a deep image prior
CN110415201B (zh) 基于结构光和深度学习的单曝光超分辨率成像方法及装置
Matlock et al. High-throughput, volumetric quantitative phase imaging with multiplexed intensity diffraction tomography
CN112697751B (zh) 多角度照明无透镜成像方法、系统及装置
CN108957724B (zh) 一种基于傅里叶叠层成像技术的显微镜错位校正方法
CN109211790B (zh) 一种基于傅里叶功率谱探测的单像素相位成像方法
CN105976315B (zh) 基于部分傅里叶空间的显微成像方法
Zhang et al. Nonlinear optimization approach for Fourier ptychographic microscopy
Qiao et al. 3D structured illumination microscopy via channel attention generative adversarial network
CN108537862B (zh) 一种自适应降噪的傅里叶衍射扫描显微镜成像方法
Matlock et al. Physical model simulator-trained neural network for computational 3d phase imaging of multiple-scattering samples
Cao et al. Dynamic structured illumination microscopy with a neural space-time model
CN114266702A (zh) 基于压缩感知和深度光学的高速超分辨成像方法及装置
Li et al. Patch-based U-net model for isotropic quantitative differential phase contrast imaging
Wang et al. Automated data processing architecture for the gemini planet imager exoplanet survey
Wijesinghe et al. Emergent physics-informed design of deep learning for microscopy
Gutiérrez-Zaballa et al. On-chip hyperspectral image segmentation with fully convolutional networks for scene understanding in autonomous driving
CN113808017B (zh) 基于照明优化的结构光成像方法及装置
CN113808017A (zh) 基于照明优化的结构光成像方法及装置
CN111121969B (zh) 一种基于孔径扫描的多光谱叠层成像方法
Cui et al. Dual-domain strip attention for image restoration
Zhang et al. The integration of neural network and physical reconstruction model for Fourier ptychographic microscopy
Sun et al. High-resolution 3D Fourier ptychographic reconstruction using a hemispherical illumination source with multiplexed-coded strategy
CN111610623A (zh) 基于傅里叶叠层的显微成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant