CN116245012A - 一种基于机器学习的数字全息物光波提取法 - Google Patents
一种基于机器学习的数字全息物光波提取法 Download PDFInfo
- Publication number
- CN116245012A CN116245012A CN202211705338.8A CN202211705338A CN116245012A CN 116245012 A CN116245012 A CN 116245012A CN 202211705338 A CN202211705338 A CN 202211705338A CN 116245012 A CN116245012 A CN 116245012A
- Authority
- CN
- China
- Prior art keywords
- phase shift
- phase
- light wave
- object light
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 14
- 238000010801 machine learning Methods 0.000 title claims abstract description 14
- 230000010363 phase shift Effects 0.000 claims abstract description 81
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 33
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000004088 simulation Methods 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000005210 holographic interferometry Methods 0.000 claims description 3
- 238000001454 recorded image Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 239000012080 ambient air Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
- G03H1/08—Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
- G03H1/0866—Digital holographic imaging, i.e. synthesizing holobjects from holograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
- G03H1/08—Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
- G03H1/0866—Digital holographic imaging, i.e. synthesizing holobjects from holograms
- G03H2001/0875—Solving phase ambiguity, e.g. phase unwrapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Holo Graphy (AREA)
Abstract
本发明公开一种基于机器学习的数字全息物光波提取法,其特征在于,包括以下步骤:步骤一:建立训练集;步骤一一:构建一个曲面作为全息系统的物面输入,参考光为平面光;步骤一二:取得物面光波的相位分布与复振幅分布;步骤二:神经网络搭建;步骤三:相位重建。本发明涉及物光波提取法领域,具体地讲,涉及一种基于机器学习的数字全息物光波提取法。本发明要解决的技术问题是提供一种基于机器学习的数字全息物光波提取法,于MATLAB上完成全息记录、再现仿真,用于生产训练神经网络所需的训练集、校验集、测试集;训练完成后的模型将使用测试集进行验证;利用验证后的神经网络提取相移值,进而基于相移值和干涉图根据相移算法重建原始物光波,最后对重建质量进行分析。
Description
技术领域
本发明涉及物光波提取领域,具体地讲,涉及一种基于机器学习的数字全息物光波提取法。
背景技术
目前相移干涉数字全息技术提取物光波的方法为:在参考光波所在的光路中利用相移器引入相移量,记录相移前后的多幅干涉图,然后采用相应算法对多幅干涉图的相应像素值进行运算,从干涉图中得到待测物光波的相位分布。待测物光波相位分布中包含了待测物体许多有用的待测信息,获得了定量的待测物光波相位分布以后就可进行各种测量应用。
相移干涉具有很高的测量精度,是光学干涉精密测量中的重要技术,在光学测量与检测领域具有广泛应用。但是,传统相移干涉需要特殊相移值或相等相移值,需要对相移器件进行精确标定和精密控制,对机械振动和环境空气扰动敏感。
发明内容
本发明要解决的技术问题是提供一种基于机器学习的数字全息物光波提取法,于MATLAB上完成全息记录、再现仿真,用于生产训练神经网络所需的训练集、校验集、测试集,并基于ResU-Net神经网络架构进行网络搭建、训练、验证等,训练完成后的模型将使用测试集进行验证;利用验证后的神经网络提取相移值,进而基于相移值和干涉图根据相移算法重建原始物光波,最后对重建质量进行分析。
本发明采用如下技术方案实现发明目的:
一种基于机器学习的数字全息物光波提取法,其特征在于,包括以下步骤:
步骤一:建立训练集;
步骤一一:构建一个曲面作为全息系统的物面输入,参考光为平面光;
步骤一二:取得物面光波的相位分布与复振幅分布;
步骤一三:通过式(1):
R(x,y,θ)=AOeiθ (1)
以曲面中心为原点建立直角坐标系,Z轴竖直向上,X轴水平向右,X、Y、Z之间成右手螺旋关系;
其中:R(x,y,θ)表示参考光的复振幅,x,y表示X、Y轴坐标,θ表示参考光的相位,AO表示参考光的实振幅,i表示虚数单位。
连续改变参考光波的相位θ,令其θ=0.005×k,k为记录次数,即可得到k张与原始干涉图像有相移值θ的干涉图;
步骤二:神经网络搭建;使用ResUNET搭建神经网络,神经网络经过训练后会返回模型在训练集和校验集上的损失,以对模型的精确度进行评价;
步骤三:相位重建;
步骤三一:相移全息图生成与重建;
步骤三二:数据分析;
步骤三三:误差分析。
作为本技术方案的进一步限定,所述步骤二中,模型训练完成后,通过皮尔逊线性相关系数评估训练后的神经网络性能;
皮尔逊线性相关系数的表达式如下:
其中:Cov(x,y)为x与y的协方差,Var[x]为x的方差,Var[y]为y的方差。
作为本技术方案的进一步限定,在所述步骤三一中采用四步相移法。
利用四步相移算法可得全息面处物波的复振幅分布为:
广义相移数字全息干涉术在四步相移算法基础上使原本需要严格等步长的相移值可以为任意值,甚至可以为未知量,通过复杂运算从相移干涉图中进行相移提取其未知相移值,重建物光波,搭建全息重建仿真系统;
设第一幅干涉图的平面参考光相位为0,第一幅到第二幅干涉图,平面参考光的相移量为α1,第二幅到第三幅的相移量为α2,第三幅到第四幅的相移量为α3,则由式(3)可推出其四幅干涉图的强度表达式为:
用式I1减去I3式、I2式减去I4式,得
CCD记录面上的光场分布为O(x,y);
进一步带入物光复振幅的虚部和实部得到物光波的复振幅的恢复公式:
作为本技术方案的进一步限定,所述步骤三一的具体流程为:
步骤三一一:将四张全息图输入神经网络,提取其两两之间的相移值;
步骤三一二:利用所得相移值以及记录的相移干涉图重建原始物光波并提取包裹相位;
步骤三一三:通过相关算法对恢复的相位进行解包裹。
与现有技术相比,本发明的优点和积极效果是:
1、通过MATLAB进行光学全息模拟,从而获得大量全息图数据,该数据作为训练集对机器学习系统进行训练,当输入任意两幅相移全息图的数据时,能够得到相邻两幅全息图中参考光波的相位差(相移值),由相移算法对物光波进行重建,从而恢复待测物光波的振幅和相位。
2、本专利提出的方法不需要事先设定相移值,而是从干涉图中通过机器学习的方法直接提取相移值,这些相移值可以是任意未知(一般在0~π之间)且可以是不相等的,然后再通过相应的物光波重建算法得到待测物光波,因此降低了对相移器的标定和控制精度要求,降低了环境等因素的影响,提高了误差免疫能力和使用的方便性,极大拓宽了数字全息技术的应用领域并降低了仪器系统的成本。
附图说明
图1为本发明的物面三维绘图。
图2为本发明的参考光波。
图3为本发明的相位分布及复振幅分布。
图4为本发明的相移前全息干涉图。
图5为本发明的干涉图。
图6为本发明的训练集物面相位示意图。
图7为本发明的模型损失。
图8为本发明的预测数据与目标数据。
图9为本发明的输入图像的振幅分布。
图10为本发明的Lena相移干涉图。
图11为本发明的恢复图像振幅。
图12为本发明的未解包裹的恢复图像相位。
图13为本发明的恢复图像相位。
图14为本发明的两幅相位图像叠加。
图15为本发明的振幅图像对比。
具体实施方式
下面结合附图,对本发明的一个具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
如图1-图15所示,本发明包括以下步骤:
步骤一:建立训练集。
步骤一一:于MATLAB中进行全息记录仿真,构建尺寸为128像素×128像素的物面(输入面)与记录面,全息图的记录和重建距离为21.6540mm,激光器的光源波长为532nm的绿光。
构建一个曲面作为全息系统的物面输入,使用MATLAB绘制物面图像,如图1所示:参考光为平面光,使用MATLAB绘制,如图2所示。
步骤一二:取得物面光波的相位分布与复振幅分布。如图3所示,左为相位分布,右为复振幅分布。
利用卷积法计算菲涅尔衍射,给出菲涅尔衍射的脉冲响应,得到记录面上物光波的菲涅尔衍射场,记录面上物光波衍射场与参考光波发生干涉,形成全息干涉图,如图4所示:
步骤一三:通过式(1):
R(x,y,θ)=AOeiθ (1)
以曲面中心为原点建立直角坐标系,Z轴竖直向上,X轴水平向右,X、Y、Z之间成右手螺旋关系;
其中:R(x,y,θ)表示参考光的复振幅,x,y表示X、Y轴坐标,θ表示参考光的相位,AO表示参考光的实振幅,i表示虚数单位。
连续改变参考光波的相位θ,令其θ=0.005×k,k为记录次数,即可得到k张与原始干涉图像有相移值θ的干涉图。
将相移值为0的原始图像和第一张相移后的干涉图像作为神经网络的输入对,以两张干涉图间的相移值作为神经网络的输出。其输入对展示如图5所示,左侧为θ=0,右侧为θ=2.2。
实际生成训练集时,为防止训练集过于单一,致使训练模型过拟合,影响实验结果,因此除不规则物面外,还仿真了众多三维曲面,以增强训练集的多样性。
最终由MATLAB仿真生成了1000对干涉图作为数据集,其中以6:2:2的比例分别将1000对干涉图划分为训练集:校验集:测试集,并分别送入神经网络,训练集与校验集用于模型的训练以及训练过程中的校验,测试集用于模型训练完成后的测试与性能验证。
步骤二:神经网络搭建;使用ResUNET搭建神经网络,神经网络经过训练后会返回模型在训练集和校验集上的损失,以对模型的精确度进行评价。
神经网络架构方面选择了ResUNET,开发环境为基于Python3.6.2的TensorFlow2-GPU深度学习的框架,电脑配置为CPU(i7-8750HCPU@2.20GHz),GPU(NvidiaGeForceGTX1050ti,3GB显存,CUDA11.2),16GB内存。
ResUNET是深度残差神经网络(ResNET)和U-NET的结合,并且很好的利用了这两种神经网络的优势,即:残差模块的加入在减少参数和计算量的同时,有效的抑制了梯度消失或梯度爆炸;U型网络结构,先下采样再上采样的训练策略,增加少量参数换取网络深度增加。
ResUNet由三部分组成:编码单元、桥接单元、解码单元。
在编码单元中,不是使用池化操作来对特征图大小进行下采样,而是将步长2应用于第一个卷积块以将特征图数据量减少一半。
在每个解码单元之前,都会对较低级别的特征图进行上采样,并与来自相应编码路径的特征图进行连接。
原网络结构通过Sigmoid激活应用1x1卷积以获得二维输出,但本文所训练的模型以相移值这一一维数据作为输出,因此需要在卷积块后加入二维平均池化层和全连接层,并将激活函数设置为Linear。
损失函数定义为均方误差(MSE),并对网络超参数进行一定的设置,具体网络模型训练超参数,如表1所示。
表1超参数设置
神经网络经过训练后会返回模型在训练集和校验集上的损失,以对模型的精确度进行评价,如图7所示,模型的损失随着训练次数的增加而不断收敛,即模型在校验集上的效果不错,可以在测试集上进行评估。
模型训练完成后,使用200对校验集数据对其性能进行评估,将200对图片打乱顺序,输入神经网络进行预测,预测值将与原始数值进行比对(如图8所示),并通过皮尔逊线性相关系数评估训练后的神经网络性能。
皮尔逊线性相关系数的表达式如下:
其中:Cov(x,y)为x与y的协方差;Var[x]为x的方差;Var[y]为y的方差。
经计算,对于200对预测值与原始数值,其之间的相关系数为:
r(target,predict)=0.980088768
步骤三:相位重建。
在MATLAB中建立相移全息干涉图重建系统,通过输入全息记录仿真系统生成的四张相移全息图和神经网络所预测的相移值,对全息图进行重建。
步骤三一:相移全息图生成与重建;
所述步骤三一的具体流程为:
将分辨率为512像素×512像素的Lena图做为物体的振幅输入,以圆形抛物面作为物体的相位输入,构建一个待记录物体。采用四步相移法,相移值分别为0,0.1,0.4,0.9(仅用于比对验证,实际可为未知量)。
如图9所示,左侧为振幅分布,右侧为相位分布。
步骤三一一:将四张全息图输入神经网络,提取其两两之间的相移值。
由于神经网络以128像素×128像素全息图训练,因此在输入时需要将该全息图分割成128像素×128像素共16个部分进行输入,提取的相移值做平均值处理。
最终由神经网络预测的相移值为:(I)与(II)之间α1=0.0998384,(II)与(III)之间α2=0.4001463,(III)与(IV)之间α3=0.9086141。
步骤三一二:将所得相移值以及相移干涉图输入MATLAB中进行重建,如图11及图12所示。
步骤三一三:通过MATLAB相关算法对恢复图像的相位进行解包裹,如图13所示。
步骤三二:数据分析。
为了更加直观的看到原始相位与重建相位的关系,可以以X=256为横切面,比对两个相位的差别。
如图14所示,可以看到红线(原始相位)与蓝线(恢复相位)几乎完全重叠,四步相移同轴全息术通过神经网络预测的相移值,可以实现较高质量的相位重建。
通过振幅图像,图15所示的对比,左为原图,右为恢复。可以看出恢复图像上出现细微的波纹状噪声,通过MATLAB计算两张图片的结构相似性SSIM(StructuralSimilarity),SSIM=0.9511,整体成像质量可以接受。
步骤三三:误差分析。
本发明所做实验,系统误差为神经网络预测值与真实值的偏差,可以通过进一步增加网络深度、优化网络算法来减小其误差,但无法完全避免。
在所述步骤三一中采用四步相移法;
利用四步相移算法可得全息面处物光波的复振幅分布为:
广义相移数字全息干涉术在四步相移算法基础上使原本需要严格等步长的相移值可以为任意值,甚至可以为未知量,通过复杂运算从相移干涉图中进行相移提取其未知相移值,重建物光波,搭建全息重建仿真系统;
设第一幅干涉图的平面参考光相位为0,第一幅到第二幅干涉图,平面参考光的相移量为α1,第二幅到第三幅的相移量为α2,第三幅到第四幅的相移量为α3,则由式(3)可推出其四幅干涉图的强度表达式为:
用式I1减去I3式、I2式减去I4式,得
CCD记录面上的光场分布为O(x,y);
进一步带入物光复振幅的虚部和实部得到物光波的复振幅的恢复公式:
以上公开的仅为本发明的具体实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (4)
1.一种基于机器学习的数字全息物光波提取法,其特征在于,包括以下步骤:
步骤一:建立训练集;
步骤一一:构建一个曲面作为全息系统的物面输入,参考光为平面光;
步骤一二:取得物面光波的相位分布与复振幅分布;
步骤一三:通过式(1):
R(x,y,θ)=AOeiθ (1)
以曲面中心为原点建立直角坐标系,Z轴竖直向上,X轴水平向右,X、Y、Z轴的方向成右手螺旋关系;
其中:R(x,y,θ)表示参考光的复振幅,x,y表示X、Y轴坐标,θ表示参考光的相位,AO表示参考光的实振幅,i表示虚数单位。
连续改变参考光波的相位θ,令其θ=0.005×k,k为记录次数,即可得到k张与原始干涉图像有相移值θ的干涉图;
步骤二:神经网络搭建;使用ResUNET搭建神经网络,神经网络经过训练后会返回模型在训练集和校验集上的损失,以对模型的精确度进行评价;
步骤三:相位重建;
步骤三一:相移全息图生成与重建;
步骤三二:数据分析;
步骤三三:误差分析。
3.根据权利要求1所述的基于机器学习的数字全息物光波提取法,其特征在于:在所述步骤三一中采用四步相移法;
利用四步相移算法可得全息面处物光波的复振幅分布为:
广义相移数字全息干涉术在四步相移算法基础上使原本需要严格等步长的相移值可以为任意值,甚至可以为未知量,通过计算从相移干涉图中提取其未知相移值,重建物光波,搭建全息重建仿真系统;
设第一幅干涉图的平面参考光相位为0,第一幅到第二幅干涉图,平面参考光的相移量为α1,第二幅到第三幅的相移量为α2,第三幅到第四幅的相移量为α3,则由式(3)可推出其四幅干涉图的强度表达式为:
用式I1减去I3式、I2式减去I4式,得
CCD记录面上的物光波分布为O(x,y);
进一步带入物光波复振幅的虚部和实部得到物光波的复振幅恢复公式:
4.根据权利要求3所述的基于机器学习的数字全息物光波提取法,其特征在于:所述步骤三一的具体流程为:
步骤三一一:将四张全息图输入神经网络,提取其两两之间的相移值;
步骤三一二:利用所得相移值以及记录的相移干涉图重建原始物光波并提取包裹相位;
步骤三一三:通过相关算法对恢复的相位进行解包裹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211705338.8A CN116245012A (zh) | 2022-12-29 | 2022-12-29 | 一种基于机器学习的数字全息物光波提取法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211705338.8A CN116245012A (zh) | 2022-12-29 | 2022-12-29 | 一种基于机器学习的数字全息物光波提取法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116245012A true CN116245012A (zh) | 2023-06-09 |
Family
ID=86634082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211705338.8A Pending CN116245012A (zh) | 2022-12-29 | 2022-12-29 | 一种基于机器学习的数字全息物光波提取法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116245012A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117075739A (zh) * | 2023-10-13 | 2023-11-17 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
-
2022
- 2022-12-29 CN CN202211705338.8A patent/CN116245012A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117075739A (zh) * | 2023-10-13 | 2023-11-17 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
CN117075739B (zh) * | 2023-10-13 | 2024-01-23 | 深圳优立全息科技有限公司 | 基于全息沙盘的全息展示方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363843B (zh) | 基于相移压缩菲涅尔全息的三维图像光学重建方法及系统 | |
Blinder et al. | Signal processing challenges for digital holographic video display systems | |
Henzler et al. | Generative modelling of BRDF textures from flash images | |
Oh et al. | Rendering wave effects with augmented light field | |
CN113762460B (zh) | 基于数值散斑的多模光纤传输图像迁移重构算法 | |
CN105467806B (zh) | 单像素全息相机 | |
CN105629696A (zh) | 一种基于迭代去噪收缩阈值算法的数字全息重构方法 | |
CN116245012A (zh) | 一种基于机器学习的数字全息物光波提取法 | |
Seo et al. | An architecture of a high-speed digital hologram generator based on FPGA | |
CN113467211B (zh) | 一种基于频谱损失函数梯度下降的全息编码方法 | |
Vithin et al. | Deep learning based single shot multiple phase derivative retrieval method in multi-wave digital holographic interferometry | |
CN104501781A (zh) | 基于已知先验信息约束的叠层成像技术 | |
WO2024087406A1 (zh) | 一种基于深度学习的数字全息包裹相位畸变补偿方法 | |
Lu et al. | Complex-valued speckle effect and its suppression for high quality of phase unwrapping reconstruction in coherent digital holographic microscopy | |
Chen et al. | Fast-converging algorithm for wavefront reconstruction based on a sequence of diffracted intensity images | |
JP2022039234A (ja) | ホログラムデータ生成装置およびそのプログラム | |
CN112348947A (zh) | 一种基于参考信息辅助的深度学习的三维重构方法 | |
JP2007502445A (ja) | デジタル・ホログラフィにおける画像の再構成での空間解像度を修正する方法 | |
CN113448232B (zh) | 三维分层目标压缩全息术的测量矩阵降维方法 | |
Liao et al. | Optical steganography with RVNCA-based keys for 3D object | |
Hossain et al. | A Comparisonal Analysis of Computer Generated Holograms (CGHs) for the Application of Security in Communication System | |
Wang et al. | An InSAR Interferogram Filtering Method Based on Multi-Level Feature Fusion CNN | |
Bo | Deep learning approach for computer-generated holography | |
US20230099872A1 (en) | Image correlation for end-to-end displacement and strain measurement | |
Wang et al. | Bi-directional phase compensation to accelerate conical hologram generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |