CN116147531A - 基于深度学习的光学自干涉数字全息重构方法及系统 - Google Patents
基于深度学习的光学自干涉数字全息重构方法及系统 Download PDFInfo
- Publication number
- CN116147531A CN116147531A CN202211696054.7A CN202211696054A CN116147531A CN 116147531 A CN116147531 A CN 116147531A CN 202211696054 A CN202211696054 A CN 202211696054A CN 116147531 A CN116147531 A CN 116147531A
- Authority
- CN
- China
- Prior art keywords
- fresnel
- neural network
- training
- reconstruction
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/2441—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Holo Graphy (AREA)
Abstract
本发明涉及光学自干涉数字全息技术领域,尤其涉及一种基于深度学习的光学自干涉数字全息重构方法及系统。本发明提出了一种以U‑Net为基础的端对端的神经网络直接实现菲涅尔非相干相关数字全息单次曝光相位重构的方法,其中,菲涅尔全息图通过光路采集,可以提高成像速度,加快网络的训练速度,同时,训练得到的全息重构模型,能够在单幅菲涅尔全息图的条件下,实现样品的相位重构,因此减少了环境的干扰以及振动的影响,提高了动态测量下的可用性。
Description
技术领域
本发明涉及光学自干涉数字全息技术领域,尤其涉及一种基于深度学习的光学自干涉数字全息重构方法及系统。
背景技术
光学自干涉数字全息技术,是一种以空间非相干光源为信息载体构建全息图的技术,其原理为空间非相干光源上任意两点发出的光波互不相干,因此,在两光波互相重叠区域并不会形成干涉,通过适当的光学技巧,对空间非相干光源同一点发出的光进行分波,利用两束光波的空间自相干特性实现点源全息图的记录,所有的点源全息图的非相干叠加构成样品的全息图,利用合适的再现算法即可从样品全息图实现三维重建。其中,菲涅尔非相干相关数字全息通过在空间光调制器上加载衍射透镜,并通过加载的透镜对点光源发出的光分波,从而记录非相干全息图。其具有无接触、无侵害、非扫描、高横向分辨率、低散斑噪声等优势。目前,该技术已经被广泛应用于生物荧光成像、天文成像、自适应光学等领域中。
菲涅尔非相干相关数字全息技术为了利用点光源的时间相干性,通常以同轴记录方式为主,然而,全息图中的直流项以及共轭项会影响再现图的质量。为了消除这些影响,菲涅尔非相干相关数字全息经常结合相移技术,通过记录同一样品的多幅相移全息图,结合相移算法抑制直流项和共轭项,得到复值全息图。该类方法不易受噪声的影响,能够提高重建项的信噪比,具有较高的测量精度。相移技术可分为时域相移以及空域相移,但无论是采用不同时刻下的多幅相移干涉图的时域相移、还是利用复杂的干涉光路或牺牲空间分辨率的偏振相机,同时采集多幅相移干涉图的空域相移,都将引入额外的测量误差,并且极大的减低了系统的成像速度,限制了其在动态相位测量上的应用。
因此,如何在保证高测量精度的条件下,实现动态测量,依旧是该技术的难点。
发明内容
本发明旨在解决现有技术在非相干光学相位重构中,难以实现动态测量的技术问题。
为解决上述技术问题,第一方面,本发明实施例提供一种基于深度学习的光学自干涉数字全息重构方法,所述光学自干涉数字全息重构方法包括以下步骤:
S1、构建以U-Net为基础的端对端的卷积神经网络;
S2、搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图;
S3、将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集;
S4、根据所述训练数据集对所述卷积神经网络进行训练;
S5、在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线;
S6、结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型;
S7、将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
更进一步地,步骤S2中,所述菲涅尔全息图的所述相移量至少包括0、2π/3、4π/3。
更进一步地,步骤S3中,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据的步骤,具体为:
对所述相移量为0的所述菲涅尔全息图进行反向传播处理,反向传播距离与所述重构距离相同,之后,将完成反向传播的所述菲涅尔全息图作为所述输入数据。
更进一步地,步骤S4中,所述卷积神经网络使用均方根误差计算其输出与所述相位重构图之间的差异。
更进一步地,步骤S4中,所述卷积神经网络使用梯度下降法优化网络参数。
更进一步地,步骤S4中,所述卷积神经网络使用的LOSS函数为其输出与所述相位重构图之间的均方根之和。
更进一步地,步骤S6中,结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整的步骤,具体为:
判断所述训练误差曲线、所述测试误差曲线与预设误差值之间的数值关系,其中:
若所述训练误差曲线、所述测试误差曲线均低于所述预设误差值,则保留网络参数;
若所述训练误差曲线、所述测试误差曲线均高于所述预设误差值,则增加所述卷积神经网络中卷积核的数量;
若所述训练误差曲线低于所述预设误差值、且所述测试误差曲线高于所述预设误差值,则利用所述菲涅尔非相干自干涉光路补充采集所述菲涅尔全息图,并重新划分所述训练数据集和所述测试数据集。
第二方面,本发明实施例还提供一种基于深度学习的光学自干涉数字全息重构系统,包括:
网络构建模块,用于构建以U-Net为基础的端对端的卷积神经网络;
数据获取模块,用于搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图;
数据预处理模块,用于将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集;
网络训练模块,用于根据所述训练数据集对所述卷积神经网络进行训练;
拟合模块,用于在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线;
优化模块,用于结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型;
相位重构模块,用于将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
本发明所达到的有益效果,在于提出了一种以U-Net为基础的端对端的神经网络直接实现菲涅尔非相干相关数字全息单次曝光相位重构的方法,其中,菲涅尔全息图通过光路采集,可以提高成像速度,加快网络的训练速度,同时,训练得到的全息重构模型,能够在单幅菲涅尔全息图的条件下,实现样品的相位重构,因此减少了环境的干扰以及振动的影响,提高了动态测量下的可用性。
附图
图1是本发明实施例提供的一种基于深度学习的光学自干涉数字全息重构方法的步骤流程示意图;
图2是本发明实施例提供的卷积神经网络的结构示意图;
图3是本发明实施例提供的菲涅尔非相干自干涉光路的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参照图1,图1是本发明实施例提供的一种基于深度学习的光学自干涉数字全息重构方法的步骤流程示意图,所述光学自干涉数字全息重构方法包括以下步骤:
S1、构建以U-Net为基础的端对端的卷积神经网络。
示例性的,请参照图2,图2是本发明实施例提供的卷积神经网络的结构示意图,其中,图2左侧是包括输入层的下采样卷积核的集合,右侧是包括输出层的上采样卷积核的集合,其中,层次相同的卷积核的大小相同,使得图像在被所述卷积神经网络输出后仍然保持原本的大小。
S2、搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图。
示例性的,请参照图3,图3是本发明实施例提供的菲涅尔非相干自干涉光路的结构示意图,其中:1、LED光源,2、孔径光阑,3、分辨率板,4、偏振片1,5、成像透镜,6、分光棱镜,7、空间光调制器,8、偏振片2,9、图像探测器。干涉光路进行采集时,LED光源发出红光,通过孔径光阑调整孔径大小,直接通过样品,再通过偏振片1调整光波的偏振形态;随后通过成像透镜到达分光棱镜;光波通过分光棱镜照射到空间光调制器上,被反射成调制光波和非调制光波,这两束光波再通过分光棱镜反射,随后通过偏振片2改变成具有相同偏振态的两束光,最后在图像探测器上成像。
在实际实施过程中,对所述菲涅尔非相干自干涉光路进行以下调整:
偏振片1的偏振方向与空间光调制器的活跃轴成45度;
偏振片2的偏振方向与偏振片1平行。
配合图像探测器采集相移干涉图作为数据集。
更进一步地,步骤S2中,所述菲涅尔全息图的所述相移量至少包括0、2π/3、4π/3。
示例性的,为便于所述卷积神经网络的训练,通过所述菲涅尔非相干自干涉光路采集的所述菲涅尔全息图的数量应尽可能的多,例如,采集8000组不同样品对应的相移菲涅尔全息图,其中6000组数据作为训练数据集,2000组作为测试数据集。
S3、将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集。
更进一步地,步骤S3中,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据的步骤,具体为:
对所述相移量为0的所述菲涅尔全息图进行反向传播处理,反向传播距离与所述重构距离相同,之后,将完成反向传播的所述菲涅尔全息图作为所述输入数据。
S4、根据所述训练数据集对所述卷积神经网络进行训练。
具体的,所述卷积神经网络用于根据所述菲涅尔全息图构建对应的相位重构图,而在本发明实施例中,通过提前将不同相移量的图像通过三步相移算法和衍射传播再现算法进行处理后,得到具有参考和评价作用的相位重构图作为网络标签,当所述卷积神经网络输出图像后,将其输出与所述标签进行对比,就能够体现当前训练阶段中所述卷积神经网络的性能。
更进一步地,步骤S4中,所述卷积神经网络使用均方根误差计算其输出与所述相位重构图之间的差异。
更进一步地,步骤S4中,所述卷积神经网络使用梯度下降法优化网络参数。
更进一步地,步骤S4中,所述卷积神经网络使用的LOSS函数为其输出与所述相位重构图之间的均方根之和。
S5、在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线。
S6、结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型。
更进一步地,步骤S6中,结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整的步骤,具体为:
判断所述训练误差曲线、所述测试误差曲线与预设误差值之间的数值关系,其中:
若所述训练误差曲线、所述测试误差曲线均低于所述预设误差值,则保留网络参数;
若所述训练误差曲线、所述测试误差曲线均高于所述预设误差值,则增加所述卷积神经网络中卷积核的数量;
若所述训练误差曲线低于所述预设误差值、且所述测试误差曲线高于所述预设误差值,则利用所述菲涅尔非相干自干涉光路补充采集所述菲涅尔全息图,并重新划分所述训练数据集和所述测试数据集。
S7、将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
本发明所达到的有益效果,在于提出了一种以U-Net为基础的端对端的神经网络直接实现菲涅尔非相干相关数字全息单次曝光相位重构的方法,其中,菲涅尔全息图通过光路采集,可以提高成像速度,加快网络的训练速度,同时,训练得到的全息重构模型,能够在单幅菲涅尔全息图的条件下,实现样品的相位重构,因此减少了环境的干扰以及振动的影响,提高了动态测量下的可用性。
本发明实施例还提供一种基于深度学习的光学自干涉数字全息重构系统,包括:
网络构建模块,用于构建以U-Net为基础的端对端的卷积神经网络;
数据获取模块,用于搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图;
数据预处理模块,用于将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集;
网络训练模块,用于根据所述训练数据集对所述卷积神经网络进行训练;
拟合模块,用于在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线;
优化模块,用于结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型;
相位重构模块,用于将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
所述基于深度学习的光学自干涉数字全息重构系统能够实现上述实施例中任意一项所述的基于深度学习的光学自干涉数字全息重构方法中的步骤,且能实现相同的技术效果,为避免赘述,此处不再重复。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存取存储器(Random AccessMemory,简称RAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,所揭露的仅为本发明较佳实施例而已,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式用等同变化,均属于本发明的保护之内。
Claims (8)
1.一种基于深度学习的光学自干涉数字全息重构方法,其特征在于,所述光学自干涉数字全息重构方法包括以下步骤:
S1、构建以U-Net为基础的端对端的卷积神经网络;
S2、搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图;
S3、将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集;
S4、根据所述训练数据集对所述卷积神经网络进行训练;
S5、在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线;
S6、结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型;
S7、将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
2.如权利要求1所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S2中,所述菲涅尔全息图的所述相移量至少包括0、2π/3、4π/3。
3.如权利要求2所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S3中,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据的步骤,具体为:
对所述相移量为0的所述菲涅尔全息图进行反向传播处理,反向传播距离与所述重构距离相同,之后,将完成反向传播的所述菲涅尔全息图作为所述输入数据。
4.如权利要求1所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S4中,所述卷积神经网络使用均方根误差计算其输出与所述相位重构图之间的差异。
5.如权利要求1所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S4中,所述卷积神经网络使用梯度下降法优化网络参数。
6.如权利要求1所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S4中,所述卷积神经网络使用的LOSS函数为其输出与所述相位重构图之间的均方根之和。
7.如权利要求1所述的基于深度学习的光学自干涉数字全息重构方法,其特征在于,步骤S6中,结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整的步骤,具体为:
判断所述训练误差曲线、所述测试误差曲线与预设误差值之间的数值关系,其中:
若所述训练误差曲线、所述测试误差曲线均低于所述预设误差值,则保留网络参数;
若所述训练误差曲线、所述测试误差曲线均高于所述预设误差值,则增加所述卷积神经网络中卷积核的数量;
若所述训练误差曲线低于所述预设误差值、且所述测试误差曲线高于所述预设误差值,则利用所述菲涅尔非相干自干涉光路补充采集所述菲涅尔全息图,并重新划分所述训练数据集和所述测试数据集。
8.一种基于深度学习的光学自干涉数字全息重构系统,其特征在于,包括:
网络构建模块,用于构建以U-Net为基础的端对端的卷积神经网络;
数据获取模块,用于搭建菲涅尔非相干自干涉光路,并通过所述菲涅尔非相干自干涉光路采集多组不同相移量的菲涅尔全息图;
数据预处理模块,用于将不同所述相移量的所述菲涅尔全息图通过三步相移算法处理得到复值全息图,并将所述复值全息图通过衍射传播再现算法进行处理,得到相位重构图,将所述相位重构图作为标签,记录重构距离,之后,对所述菲涅尔全息图进行反向传播,记录反向传播的所述菲涅尔全息图作为输入数据,将所述输入数据和所述标签作为数据对,构建训练数据集和测试数据集;
网络训练模块,用于根据所述训练数据集对所述卷积神经网络进行训练;
拟合模块,用于在所述卷积神经网络训练的过程中,将所述训练数据集和所述测试数据集轮换作为卷积神经网络的输入,并分别记录所述训练数据集和所述测试数据集的作为所述卷积神经网络的输出与所述相位重构图之间的训练误差曲线、测试误差曲线;
优化模块,用于结合所述训练误差曲线、所述测试误差曲线,对所述卷积神经网络进行优化调整,并输出收敛后的所述卷积神经网络,作为菲涅尔非相干相关数字全息重构模型;
相位重构模块,用于将所述菲涅尔全息图输入所述菲涅尔非相干相关数字全息重构模型,输出得到对应的菲涅尔全息相位重构图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211696054.7A CN116147531B (zh) | 2022-12-28 | 2022-12-28 | 基于深度学习的光学自干涉数字全息重构方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211696054.7A CN116147531B (zh) | 2022-12-28 | 2022-12-28 | 基于深度学习的光学自干涉数字全息重构方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116147531A true CN116147531A (zh) | 2023-05-23 |
CN116147531B CN116147531B (zh) | 2023-08-29 |
Family
ID=86357507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211696054.7A Active CN116147531B (zh) | 2022-12-28 | 2022-12-28 | 基于深度学习的光学自干涉数字全息重构方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116147531B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117075739A (zh) * | 2023-10-13 | 2023-11-17 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976408A (zh) * | 2016-04-28 | 2016-09-28 | 北京大学 | 一种量子逆向传播神经网络的数字全息压缩传输方法 |
US20190294108A1 (en) * | 2018-03-21 | 2019-09-26 | The Regents Of The University Of California | Method and system for phase recovery and holographic image reconstruction using a neural network |
CN110363843A (zh) * | 2019-06-18 | 2019-10-22 | 安徽大学 | 基于相移压缩菲涅尔全息的三维图像光学重建方法及系统 |
KR102277100B1 (ko) * | 2020-01-29 | 2021-07-15 | 광운대학교 산학협력단 | 인공지능 및 딥러닝 기술을 이용한 랜덤위상을 갖는 홀로그램 생성방법 |
KR20210108315A (ko) * | 2020-02-25 | 2021-09-02 | 한국전자통신연구원 | 딥러닝 기반 디지털 홀로그램 합성 및 처리 시스템 및 방법 |
AU2021104935A4 (en) * | 2021-07-26 | 2021-09-30 | Dongguan University Of Technology | Deep learning-based three wavelength phase unwrapping method, system, and related apparatus |
CN216718912U (zh) * | 2022-01-06 | 2022-06-10 | 上海昊量光电设备有限公司 | 一种基于位相片阵列的非相干数字全息成像系统 |
CN114625529A (zh) * | 2020-12-08 | 2022-06-14 | 国际商业机器公司 | 采用全息干涉测量法的视觉质量评估增强 |
CN114998469A (zh) * | 2022-06-10 | 2022-09-02 | 中国地质大学(北京) | 一种基于神经卷积网络的区域红外数字全息方法 |
-
2022
- 2022-12-28 CN CN202211696054.7A patent/CN116147531B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976408A (zh) * | 2016-04-28 | 2016-09-28 | 北京大学 | 一种量子逆向传播神经网络的数字全息压缩传输方法 |
US20190294108A1 (en) * | 2018-03-21 | 2019-09-26 | The Regents Of The University Of California | Method and system for phase recovery and holographic image reconstruction using a neural network |
CN110363843A (zh) * | 2019-06-18 | 2019-10-22 | 安徽大学 | 基于相移压缩菲涅尔全息的三维图像光学重建方法及系统 |
KR102277100B1 (ko) * | 2020-01-29 | 2021-07-15 | 광운대학교 산학협력단 | 인공지능 및 딥러닝 기술을 이용한 랜덤위상을 갖는 홀로그램 생성방법 |
KR20210108315A (ko) * | 2020-02-25 | 2021-09-02 | 한국전자통신연구원 | 딥러닝 기반 디지털 홀로그램 합성 및 처리 시스템 및 방법 |
CN114625529A (zh) * | 2020-12-08 | 2022-06-14 | 国际商业机器公司 | 采用全息干涉测量法的视觉质量评估增强 |
AU2021104935A4 (en) * | 2021-07-26 | 2021-09-30 | Dongguan University Of Technology | Deep learning-based three wavelength phase unwrapping method, system, and related apparatus |
CN216718912U (zh) * | 2022-01-06 | 2022-06-10 | 上海昊量光电设备有限公司 | 一种基于位相片阵列的非相干数字全息成像系统 |
CN114998469A (zh) * | 2022-06-10 | 2022-09-02 | 中国地质大学(北京) | 一种基于神经卷积网络的区域红外数字全息方法 |
Non-Patent Citations (1)
Title |
---|
李菊;李军;: "基于U_net网络的单幅全息图重建方法研究", 激光杂志, no. 01, pages 96 - 99 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117075739A (zh) * | 2023-10-13 | 2023-11-17 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
CN117075739B (zh) * | 2023-10-13 | 2024-01-23 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116147531B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pandey et al. | Quantization noise and its reduction in lensless Fourier digital holography | |
Montresor et al. | Computational de-noising based on deep learning for phase data in digital holographic interferometry | |
Khmaladze et al. | Simultaneous dual-wavelength reflection digital holography applied to the study of the porous coal samples | |
CN116147531B (zh) | 基于深度学习的光学自干涉数字全息重构方法及系统 | |
Montrésor et al. | Error analysis for noise reduction in 3D deformation measurement with digital color holography | |
KR20190137733A (ko) | 결함 검출 방법 및 장치 | |
US9823623B2 (en) | Conversion of complex holograms to phase holograms | |
He et al. | Wavefront correction for spatial nonuniformity of the liquid crystal on silicon based spatial light modulator | |
CN110895792A (zh) | 一种图像拼接方法及装置 | |
Meteyer et al. | Modeling of speckle decorrelation in digital Fresnel holographic interferometry | |
CN117053716A (zh) | 一种圆形孔径干涉图轮廓参数自动检测方法 | |
Zhuang et al. | Deep-learning based reconstruction in optical scanning holography | |
Xu et al. | End-to-end learning for digital hologram reconstruction | |
Brault et al. | Accurate unsupervised estimation of aberrations in digital holographic microscopy for improved quantitative reconstruction | |
KR20230123956A (ko) | 광학 측정 시스템 및 광학 측정 방법 | |
KR101498474B1 (ko) | 다단계 보간법을 이용한 디지털 홀로그래피의 분해능 향상 방법 | |
CN113238076A (zh) | 一种基于深度学习的复杂流场测量方法与系统 | |
Banet et al. | Speckle decorrelation effects on motion-compensated, multi-wavelength 3D digital holography: theory and simulations | |
Polyanskii et al. | Optical correlation approach to all-optical holographic associative memory | |
JPS60181877A (ja) | 光学的相関器 | |
Shibukawa et al. | Digital image diffusion technique for suppressing interpage crosstalk in holographic data storage | |
Wang et al. | In‐Line and Off‐Axis Hybrid Digital Holographic Imaging Method Based on Off‐Axis Hologram Constraints | |
JP4038576B2 (ja) | デジタルホログラフィを利用した変位分布計測方法及び物体像再生方法 | |
KR102424811B1 (ko) | 홀로그램 패턴 이미지를 처리하는 방법 및 장치 | |
CN114764220B (zh) | 一种基于离轴数字全息改善散斑自相关重建效果的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |