CN115690252A - 一种基于卷积神经网络的全息图重建方法及系统 - Google Patents
一种基于卷积神经网络的全息图重建方法及系统 Download PDFInfo
- Publication number
- CN115690252A CN115690252A CN202211429236.8A CN202211429236A CN115690252A CN 115690252 A CN115690252 A CN 115690252A CN 202211429236 A CN202211429236 A CN 202211429236A CN 115690252 A CN115690252 A CN 115690252A
- Authority
- CN
- China
- Prior art keywords
- neural network
- hologram
- convolutional neural
- diffraction
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Holo Graphy (AREA)
Abstract
本发明涉及一种基于卷积神经网络的全息图重建方法及系统,属于图像处理领域,方法包括:计算目标图像反向传播的衍射场;构建卷积神经网络模型;将衍射场输入到卷积神经网络模型中,得到纯相位全息图;采用高衍射级角谱法计算纯相位全息图的(0th,1st)衍射级处的重建图像;基于纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数;将损失函数反向传播更新卷积神经网络模型的参数;获取训练集;采用训练集训练卷积神经网络模型;重复以上步骤,直到损失函数整体不再下降,得到更新后的卷积神经网络模型;将待处理的图像输入至更新后的卷积神经网络模型得到纯相位全息图。本发明中的上述方法能够提高全息图的重建质量。
Description
技术领域
本发明涉及图像处理领域,特别是涉及一种基于卷积神经网络的全息图重建方法及系统。
背景技术
全息技术可以重构物体的整个光场,提供所有的视觉信息,被认为是一种更有前途的视觉显示技术。计算全息(Computer generated holograme,CGH)是计算机技术与传统全息技术的结合,广泛应用于三维显示、虚拟现实和增强现实、光学捕获、干涉测量、显微成像等领域。
空间光调制器是全息图光学重建过程中最重要的设备,类似于显示设备的屏幕。相位型全息图比振幅型全息图具有更高的衍射效率,因此纯相位空间光调制器比振幅型空间光调制器使用更为广泛。而如何将复振幅信息转化为纯相位信息,是计算全息面临的主要问题。传统的生成方法有基于迭代的Gerchberg-Saxton(GS)算法和WirtingerHolography(WH)算法,一步编码的Double-phase Holography(DPH)算法和StochasticGradient Descent(SGD)算法等。但仍存在生成速度慢或再现质量不够理想的问题。近年来,研究者将新兴的神经网络与计算全息相结合,通过网络中巨量的结点拟合衍射场与全息图之间的关系,取得了不错的效果,但重建质量仍有待提高。
基于上述缺陷本发明提出了高衍射阶角谱法(HDO-ASM)用于高衍射阶的数值重建。与去除高衍射阶的传统方法不同,本发明选择通过使用HDO-ASM和基于U-Net的神经网络的方法,以高衍射阶来重建目标图像,所生成的全息图重建图像中几乎没有散斑噪声和条纹。
发明内容
本发明的目的是提供一种基于卷积神经网络的全息图重建方法及系统,通过使用HDO-ASM和基于U-Net的神经网络的方法,以高衍射阶来重建目标图像,提高了全息图的重建质量。
为实现上述目的,本发明提供了如下方案:
一种基于卷积神经网络的全息图重建方法,所述重建方法包括:
计算目标图像反向传播的衍射场;
构建卷积神经网络模型;
将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图;
采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的重建图像;
获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息;
基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数;
将所述损失函数反向传播更新所述卷积神经网络模型的参数;
获取训练集;
采用所述训练集训练所述卷积神经网络模型;
重复以上步骤,直到损失函数不再下降,得到更新后的卷积神经网络模型;
将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图全息图。
可选的,所述计算目标图像反向传播的衍射场具体采用以下公式:
其中,F{·}和F-1{·}分别表示傅里叶变换和傅里叶逆变换,U0(x,y)表示目标图像的光场,λ表示参考光的波长,fx和fy是衍射场分别在x方向和y方向上的空间频率,是表示逆向衍射过程中的光学传递函数,L(fx,fy)表示带宽限制函数,z表示目标图像与成像平面的距离。
可选的,所述卷积神经网络模型包括:输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层,所述输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层依次连接。
可选的,所述采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的再现像衍射场具体采用以下公式:
其中,F{·}和F-1{·}分别表示傅里叶变换和傅里叶逆变换,t(x,y)表示纯相位全息图的透过率函数,表示在全息图被照亮后,包含相位信息的透射光沿方向传播,λ表示参考光的波长,fx和fy是衍射场分别在x方向和y方向上的空间频率,表示正向衍射过程中的传递函数,L(fx,fy)表示带宽限制函数,z表示目标图像反向传播至目标平面的距离。
可选的,所述损失函数的表达式为:
L1=∑||U′(x,y)|-|U0(x,y)||
其中,|U′(x,y)|表示重建图像的振幅信息,|U0(x,y)|表示目标图像的振幅信息。
基于本发明中的上述方法本发明另外提供一种基于卷积神经网络的全息图重建系统,所述重建系统包括:
衍射场计算模块,用于计算目标图像反向传播的衍射场;
神经网络构建模块,用于构建卷积神经网络模型;
纯相位全息图确定模块,用于将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图;
重建图像计算模块,用于采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的重建图像;
振幅信息获取模块,用于获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息;
损失函数确定模块,用于基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数;
参数更新模块,用于将所述损失函数反向传播更新所述卷积神经网络模型的参数;
训练集获取模块,用于获取训练集;
训练模块,用于采用所述训练集训练所述卷积神经网络模型;
循环模块,用于重复以上模块,直到损失函数不再下降,得到更新后的卷积神经网络模型;
图像重建模块,用于将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图。
可选的,所述衍射场计算模块具体采用以下公式:
其中,F{·}和F-1{·}分别表示傅里叶变换和傅里叶逆变换,U0(x,y)表示目标图像的光场,λ表示参考光的波长,fx和fy是衍射场分别在x方向和y方向上的空间频率,是表示逆向衍射过程中的光学传递函数,L(fx,fy)表示带宽限制函数,z表示目标图像与成像平面的距离。
可选的,所述卷积神经网络模型包括:输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层,所述输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层依次连接。
可选的,所述重建图像计算模块具体采用以下公式:
其中,F{·}和F-1{·}分别表示傅里叶变换和傅里叶逆变换,t(x,y)表示纯相位全息图的透过率函数,表示在全息图被照亮后,包含相位信息的透射光沿方向传播,λ表示参考光的波长,fx和fy是衍射场分别在x方向和y方向上的空间频率,表示正向衍射过程中的传递函数,L(fx,fy)表示带宽限制函数,z表示目标图像反向传播至目标平面的距离。
可选的,所述损失函数的表达式为:
L1=∑||U′(x,y)|-|U0(x,y)||
其中,|U′(x,y)|表示重建图像的振幅信息,|U0(x,y)|表示目标图像的振幅信息。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明中的上述系统及方法避免了直流分量的干扰,传统的方法优化的是零级再现像,而由于空间光调制器衍射效率达不到100%,零级再现像会受到一个直流分量的干扰,导致图像失真,空间光调制器衍射效率越低,直流分量就越强,受到的干扰就越严重,图像失真就越厉害,本发明中的方法为高衍射级角谱法,相比于传统的编码方法,该方法重建的图像不失真,显示质量较高;
本发明中的方法更加灵活快速,与传统的方法相比,将高衍射级角谱法与U-Net神经网络结合生成全息图,可以根据生成质量和生成速度灵活地调整网络参数,使得在生成速度和再现质量方面达到一个较好的平衡,而传统的方法编码方式单一,再现质量和生成速度是较为固定的,不能调整两者间的关系。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于卷积神经网络的全息图重建方法流程图;
图2为本发明实施例采用角谱法计算衍射场的过程示意图;
图3为本发明实施例U-Net网络模型结构示意图;
图4为本发明实施例基于卷积神经网络的全息图重建系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于卷积神经网络的全息图重建方法及系统通过使用HDO-ASM和基于U-Net的神经网络的方法,以高衍射阶来重建目标图像,提高了全息图的重建质量。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明设计了一种基于U-Net神经网络,采用高衍射级角谱法(HDO-ASM)对再现像进行优化的方法。通过将HDO-ASM与基于U-Net的神经网络相结合,可以快速生成更高显示质量和清晰度的全息图。本发明中使用U-Net生成全息图的过程主要包括反向衍射、生成全息图、正向衍射、反向传播四个过程。选取目标图像并求出该目标图像在目标平面上的光场分布,并通过二维傅里叶变换得到目标光场的频谱。根据角谱法(ASM),计算出目标光场反向传播距离z后的衍射场。将反向衍射场输入到U-Net中,经过上下采样后,输出与衍射场尺寸相等的纯相位全息图。采用y轴方向上的条状编码方式,使用高衍射级角谱法(HDO-ASM)计算出在(0th,1st)衍射级处的再现图像。将再现图像与目标图像作比较,使用L1损失函数,求出两者的L1损失函数,然后通过反向传播算法更新U-Net的网络参数。重复上述四个步骤的训练周期,最终生成具有高质量重建的纯相位全息图。
具体的,如图1所示,图1为本发明实施例基于卷积神经网络的全息图重建方法流程图,本发明中的方法包括:
反向衍射过程:
步骤101:计算目标图像反向传播的衍射场。
图2展示了使用角谱法(Angle SpectrumMethod)计算衍射场的过程,(a)部分表示目标图像,(b)部分表示目标图像的频谱,(c)部分表示衍射场频谱,(d)部分表示衍射场。反向衍射是指将目标图像反向传播至与目标平面距离为z处的成像面上,该成像面与目标平面平行,中心相同,大小相等。通过角谱法可以计算出成像面上与目标图像尺寸相等的衍射场,表示为:
式中,F{·}和F-1{·}分别是傅里叶变换和傅里叶逆变换,U0(x,y)是目标图像的光场,λ是参考光的波长,fx和fy是衍射场分别在x方向和y方向上的空间频率,是是逆向衍射过程中的光学传递函数(OTF),表示为:
式中,∧是合取符号,代表同时满足两个条件;M×N是目标图像及全息图的尺寸,β是采样间隔,它与此次光学实验中用到的空间光调制器的像素间隔相同,L(fx,fy)在此处的作用是,当成像距离较远时,通过删减输入源中不必要的高频信号,减少产生的光传递函数的叠频误差问题。
步骤102:构建卷积神经网络模型。
U-Net是一种全卷积神经网络,使用卷积层连接上下采样层,图3为本发明的网络结构示意图,设计参数如下:输入层为两个通道,分别是反向传播的衍射场U(x,y)的实数部分和虚数部分。输出层为一个通道,是衍射场对应的纯相位信息。网络模型有三个下采样层和三个上采样层,采样后的最大特征通道设置为1024。根据图3所示的网络结构,生成一个U-Net网络模型,根据以上参数配置好网络模型后,将衍射场Uz(x,y)输入到U-Net中,经过上下采样后,输出数据是与衍射场尺寸相等的纯相位全息图。位相分布可以表示为φ(x,y),全息图的透过率函数为
步骤103:将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图。
正向衍射过程:
步骤104:采用高衍射级角谱法计算上一步骤得到的纯相位全息图的(0th,1st)衍射级处的重建图像。
位于(c-th,d-th)衍射级的重建图像可以精确表示为:
其中表示在全息图被照亮后,包含相位信息的透射光(反射光)沿方向传播。该方法可应用于所有衍射阶的数值重建。当衍射阶数为(0th,1st)时,和在对轴近似下分别是和将其代入公式(5)中,即可以得到(0th,1st)衍射级的重建图像。
高衍射级角谱法与角谱法不同之处在于:角谱法只能用于计算衍射场中央的零级再现像,高衍射级角谱法包含有传播方向在x轴和y轴上的方向余弦,能够精确计算出位于该传播方向上的衍射级的再现像。通过更改传播方向,可以计算任意衍射级再现像。
反向传播过程:
步骤105:获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息。
步骤106:基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数。
步骤107:将所述损失函数反向传播更新所述卷积神经网络模型的参数。
损失函数如下:
L1=∑||U′(x,y)|-|U0(x,y)|| (6)
将L1损失函数反向传播,以更新第102步中U-Net的网络参数。
步骤108:获取训练集。
步骤109:采用所述训练集训练所述卷积神经网络模型。
步骤110:使用DIV2K数据集作为U-Net的训练集,不断重复以上步骤,直到达到损失函数不再下降,即直到损失函数在一个较小的值附近波动,整体上不再下降。通过损失函数的反向传播不断更新网络模型的参数,使得网络模型生成的纯相位全息图的重建质量不断提高,最终得到更新后的卷积神经网络模型。
步骤111:将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图。
图4为本发明实施例基于卷积神经网络的全息图重建系统结构示意图,如图4所示,基于本发明中的上述方法,本发明另外提供了一种基于卷积神经网络的全息图重建系统,所述系统包括:
衍射场计算模块201,用于计算目标图像反向传播的衍射场。
神经网络构建模块202,用于构建卷积神经网络模型。
纯相位全息图确定模块203,用于将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图。
重建图像计算模块204,用于采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的重建图像。
振幅信息获取模块205,用于获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息。
损失函数确定模块206,用于基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数。
参数更新模块207,用于将所述损失函数反向传播更新所述卷积神经网络模型的参数。
训练集获取模块208,用于获取训练集。
训练模块209,用于采用所述训练集训练所述卷积神经网络模型。
循环模块210,用于重复以上模块,直到损失函数不再下降,得到更新后的卷积神经网络模型。
图像重建模块211,用于将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于卷积神经网络的全息图重建方法,其特征在于,所述重建方法包括:
计算目标图像反向传播的衍射场;
构建卷积神经网络模型;
将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图;
采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的重建图像;
获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息;
基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数;
将所述损失函数反向传播更新所述卷积神经网络模型的参数;
获取训练集;
采用所述训练集训练所述卷积神经网络模型;
重复以上步骤,直到损失函数不再下降,得到更新后的卷积神经网络模型;
将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图。
3.根据权利要求1所述的基于卷积神经网络的全息图重建方法,其特征在于,所述卷积神经网络模型包括:输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层,所述输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层依次连接。
6.一种基于卷积神经网络的全息图重建系统,其特征在于,所述重建系统包括:
衍射场计算模块,用于计算目标图像反向传播的衍射场;
神经网络构建模块,用于构建卷积神经网络模型;
纯相位全息图确定模块,用于将所述衍射场输入到所述卷积神经网络模型中,得到纯相位全息图;
重建图像计算模块,用于采用高衍射级角谱法计算所述纯相位全息图的(0th,1st)衍射级处的重建图像;
振幅信息获取模块,用于获取纯相位全息图重建图像的振幅信息和目标图像的振幅信息;
损失函数确定模块,用于基于所述纯相位全息图重建图像的振幅信息和目标图像的振幅信息确定损失函数;
参数更新模块,用于将所述损失函数反向传播更新所述卷积神经网络模型的参数;
训练集获取模块,用于获取训练集;
训练模块,用于采用所述训练集训练所述卷积神经网络模型;
循环模块,用于重复以上模块,直到损失函数不再下降,得到更新后的卷积神经网络模型;
图像重建模块,用于将待处理的图像输入至所述更新后的卷积神经网络模型得到纯相位全息图。
8.根据权利要求6所述的基于卷积神经网络的全息图重建系统,其特征在于,所述卷积神经网络模型包括:输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层,所述输入层、第一上采样层、第二上采样层、第三上采样层、第一下采样层、第二下采样层、第三下采样层以及输出层依次连接。
10.根据权利要求6所述的基于卷积神经网络的全息图重建系统,其特征在于,所述损失函数的表达式为:
L1=∑||U′(x,y)|-|U0(x,y)||
其中,|U′(x,y)|表示重建图像的振幅信息,|U0(x,y)|表示目标图像的振幅信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211429236.8A CN115690252A (zh) | 2022-11-15 | 2022-11-15 | 一种基于卷积神经网络的全息图重建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211429236.8A CN115690252A (zh) | 2022-11-15 | 2022-11-15 | 一种基于卷积神经网络的全息图重建方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115690252A true CN115690252A (zh) | 2023-02-03 |
Family
ID=85052013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211429236.8A Pending CN115690252A (zh) | 2022-11-15 | 2022-11-15 | 一种基于卷积神经网络的全息图重建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115690252A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704070A (zh) * | 2023-08-07 | 2023-09-05 | 北京理工大学 | 联合优化的图像重建方法和系统 |
-
2022
- 2022-11-15 CN CN202211429236.8A patent/CN115690252A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704070A (zh) * | 2023-08-07 | 2023-09-05 | 北京理工大学 | 联合优化的图像重建方法和系统 |
CN116704070B (zh) * | 2023-08-07 | 2023-11-14 | 北京理工大学 | 联合优化的图像重建方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | 4K-DMDNet: diffraction model-driven network for 4K computer-generated holography | |
Shimobaba et al. | Review of fast algorithms and hardware implementations on computer holography | |
EP2024792A1 (en) | Phase retrieval and phase hologram synthesis | |
CN114067015A (zh) | 一种结合dnn的纯相位全息图生成方法及系统 | |
CN114387395A (zh) | 一种基于相位-双分辨率网络的全息图快速生成方法 | |
CN115690252A (zh) | 一种基于卷积神经网络的全息图重建方法及系统 | |
CN115200702A (zh) | 基于复数神经网络的计算成像方法及装置 | |
CN109581849A (zh) | 一种同轴全息重建方法及系统 | |
US20240103439A1 (en) | Method and system for optimizing first-diffraction-order reconstruction of holograms, device and medium | |
Li et al. | Speckle noise suppression algorithm of holographic display based on spatial light modulator | |
Yan et al. | Generating Multi‐Depth 3D Holograms Using a Fully Convolutional Neural Network | |
Min et al. | Wigner inverse transform based computer generated hologram for large object at far field from its perspective light field | |
CN116645432A (zh) | 基于改良ViT网络的高质量全息图生成方法 | |
CN112180707B (zh) | 基于球面自衍射模型的球面纯相位全息图生成方法 | |
CN110647023B (zh) | 一种基于部分角谱法的快速全息图生成和高质量再现方法 | |
Peng et al. | Speckle suppression of cylindrical holography using deterministic gradient update | |
Chen et al. | Real-time hologram generation using a non-iterative modified Gerchberg-Saxton algorithm | |
Kang et al. | Real-time fringe pattern generation with high quality | |
Bo | Deep learning approach for computer-generated holography | |
CN114895542B (zh) | 一种三维计算全息图非迭代快速生成方法 | |
CN115291490B (zh) | 基于光学计算的拓展距离全息显示方法 | |
Cheng et al. | Pre-compensated annealing gradient descent for spherical holography | |
CN116184798A (zh) | 一种生成三相位全息图的编码方法及系统 | |
CN118037556B (zh) | 一种基于空间光场的超表面大视场全息术的相位恢复方法 | |
CN112085841B (zh) | 一种基于深度前馈神经网络的数字全息图生成系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |