CN110675326A - 基于U-Net网络的计算鬼成像重建恢复的方法 - Google Patents

基于U-Net网络的计算鬼成像重建恢复的方法 Download PDF

Info

Publication number
CN110675326A
CN110675326A CN201910672246.6A CN201910672246A CN110675326A CN 110675326 A CN110675326 A CN 110675326A CN 201910672246 A CN201910672246 A CN 201910672246A CN 110675326 A CN110675326 A CN 110675326A
Authority
CN
China
Prior art keywords
ghost imaging
net network
image
training
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910672246.6A
Other languages
English (en)
Other versions
CN110675326B (zh
Inventor
隋连升
张力文
王战敏
张志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201910672246.6A priority Critical patent/CN110675326B/zh
Publication of CN110675326A publication Critical patent/CN110675326A/zh
Application granted granted Critical
Publication of CN110675326B publication Critical patent/CN110675326B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开的基于U‑Net网络的计算鬼成像重建恢复的方法,首先获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard矩阵的鬼成像数据集;然后构建U‑Net网络模型,将得到的数据分为训练集和测试集,通过训练集数据训练U‑Net网络模型;最后通过测试集验证训练好的U‑Net网络模型并输出结果,实现计算鬼成像重建。本发明公开的方法能够将随机相位掩模的个数减少到7%并得到很好的结果,有效的提高计算鬼成像的重建效果,并提高重建速度。

Description

基于U-Net网络的计算鬼成像重建恢复的方法
技术领域
本发明属于量子成像和人工智能技术领域,具体涉及一种基于U-Net网 络的计算鬼成像重建恢复的方法。
背景技术
近年来鬼成像的重建恢复得到广泛的关注。计算鬼成像是一种经典的光 场鬼成像,它利用计算全息技术产生已知的关联光场,省去了探测光场分布 的空闲光路,使得光学系统结构更为简单,抵抗外界的干扰能力更强,像的 重建更高效。计算鬼成像不仅继承了鬼成像在成像原理方面的重要特性,而 且相比双光子对鬼成像和赝热源鬼成像,对其研究具有更为重要的实际应用 价值。鬼成像技术目前正从实验研究逐步走向实际应用,在诸多领域体现出 重要的应用价值,如高分辨光刻、密码技术、隐身技术、雷达成像等。
鬼成像的恢复传统方法是通过压缩感知进行恢复的。压缩感知采用了低 维的观测方法,利用信号的稀疏特性(即信号的少量线性投影包含了重构的 足够信息),其信号的重构过程就是将观测向量Y在对应的测量矩阵中获得 稀疏分解的过程,所要解的信号X就是该分解的系数向量。压缩鬼成像技 术可以在测量数据较小的前提下更好的重构出目标图像,它允许一个包含N2个像素点的图像的测量次数小于N2次,如果将随机散斑强度函数Ii(x,y)转换 为行向量,表示为Iri,将目标图像的分布函数为w(x,y)转换为列向量Tc,那 么由桶探测器接收的光照强度Bi可以表示为Bi=Ici×Tc,为了从测量值中 重构出原始图像信息,求解稀疏解的最优化问题必须解决,换句话说,如果 列向量Tc是稀疏的,那么采用重构算法将可以从行向量Iri以及光照强度Bi中 恢复出Tc。目前,很多有效的方法被提出来解决这个问题,如匹配追踪(MP)、 正交匹配追踪(OMP)、SL0算法等。
自2012年起,卷积神经网络(convolutional neural networks,CNN)在图 像处理领域发展迅猛,突破了很多传统方法无法解决的瓶颈,在很多行业得 到了成功应用。Long等将CNN结构改造成全卷积神经网络,通过卷积和 反卷积过程完成对每个像素的分类,提出全卷积神经网络(fully convolutional networks,FCN)的图像语义分割算法,使图像分割效果取得了突破性进展。 但FCN由于多次下采样导致对图像中的细节不够敏感,且没有充分考虑像 素与像素之间的关系,缺乏空间一致性。
发明内容
本发明的目的是提供一种基于U-Net网络的计算鬼成像重建恢复的方 法,有效提高了计算鬼成像重建效果并且提高了重建速度。
本发明所采用的技术方案是,基于U-Net网络的计算鬼成像重建恢复的 方法,具体操作过程包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard 矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试 集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计 算鬼成像重建。
本发明的其他特点还在于,
步骤1的具体过程如下:
通过现有生成鬼成像图像的仪器得到鬼成像图像记为O(x,y),如式(2) 所示:
O(x,y)=<δSδIr(x,y)> (2)
其中,<·>为系综平均;
Figure BDA0002142099790000031
其中,Br通过桶探测器得出;
Figure BDA0002142099790000032
其中,
Figure BDA0002142099790000033
是Rr的共轭函数;
Figure BDA0002142099790000034
其中,z表示光的传播距离,λ是激光的波长,Er是SLM的复振幅;
Figure BDA0002142099790000035
其中,E(in)是射入SLM的复振幅;
Figure BDA0002142099790000036
是随机相位掩模,随机相位 掩模由随机Hadamard矩阵生成,则鬼成像的最终结果由式(7)表示:
Figure BDA0002142099790000037
优选的,步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1 中的训练集数据作为输入通过给定参数的卷积层,再进行实例正则化层,最 后通过激活函数层输出;
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训 练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超 参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型 训练完成,否则重复执行步骤2.1和步骤2.2。
优选的,步骤2.1中实例正则化的公式如式(8)所示:
Figure BDA0002142099790000041
其中,γ和β都是超参数,μ(x)为图像x的均值,σ(x)为图像x的方差。
优选的,步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活 函数,其他卷积模块的激活函数层为relu激活函数。
优选的,步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷 积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的 输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷 积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的 输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进 行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256, 对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.1.3的输出结果与步骤2.1.4的上采样结果运用 concat操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小 为7*7,步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat 操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模 块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输 出结果,网络模型训练完成。
优选的,步骤2.2中的损失函数如式(9)所示:
其中,n为图像的大小,i为图像对应的像素位置,yi为通过网络得到的 图像中像素为i的位置,y′i为训练集中的原始图像中像素为i的位置。
优选的,步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始 图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中 的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则 重复执行步骤3.1和步骤3.2。
优选的,步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6 的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行 网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
本发明的有益效果是,基于U-Net网络的计算鬼成像重建恢复的方法, 有效提高了计算鬼成像重建效果并且提高了重建速度。基于MNSIT数据集, 通过用Hadamard矩阵作为改进随机相位掩模来得到计算鬼成像,其次对 U-Net网络的结构进行了调整,在原有的基础上添加了instance layer和增加 了网络的深度、特征层的深度,并运用大量的计算鬼成像图像和它们的原始 图像对网络进行训练,最后在测试集中得到了实验的泛化效果,能够将随机 相位掩模的个数减少到7%并得到很好的结果。
附图说明
图1是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中采集计 算鬼成像图像的装置结构示意图;
图2是本发明的基于U-Net网络的计算鬼成像重建恢复的方法的流程示 意图;
图3是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中U-Net 网络的结构示意图;
图4是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中卷积模 块的结构示意图;
图5是不同方法得到的鬼成像的图像,其中N为随机相位掩模的个数; 其中,(a)是MNSIT训练集中的原始图像,(b)为随机相位掩模为随机矩 阵且数量为784得出的鬼成像的结果;(c)为随机相位掩模为随机Hadamard 矩阵且数量为784得出的鬼成像的结果;(d)为随机相位掩模为随机 Hadamard矩阵且数量为430得出的鬼成像的结果;
图6是在测试集中选取的通过7%随机相位掩模得到的鬼成像结 果得到的重建图像结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的基于U-Net网络的计算鬼成像重建恢复的方法,具体操作过程 包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard 矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试 集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计 算鬼成像重建。
步骤1的具体过程如下:
如图1所示,通过现有生成鬼成像图像的仪器得到鬼成像图像记为O(x, y),如式(2)所示:
O(x,y)=<δSδIr(x,y)> (2)
其中,<·>为系综平均;
其中,Br通过桶探测器得出;
Figure BDA0002142099790000072
其中,
Figure BDA0002142099790000073
是Rr的共轭函数;
Figure BDA0002142099790000074
其中,z表示光的传播距离,λ是激光的波长,Er是SLM的复振幅;
Figure BDA0002142099790000081
其中,E(in)是射入SLM的复振幅;
Figure BDA0002142099790000082
是随机相位掩模,随机相位 掩模由随机Hadamard矩阵生成,则鬼成像的最终结果由式(7)表示:
Figure BDA0002142099790000083
如图2所示,步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1 中的训练集数据作为输入通过给定参数的卷积层,如图3所示,再进行实例 正则化层,最后通过激活函数层输出;
步骤2.1中实例正则化的公式如式(8)所示:
Figure BDA0002142099790000084
其中,γ和β都是超参数,μ(x)为图像x的均值,σ(x)为图像x的方差。
步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活函数,其 他卷积模块的激活函数层为relu激活函数。
如图4所示,步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷 积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的 输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷 积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的 输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进 行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256, 对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.13的输出结果与步骤2.1.4的上采样结果运用concat 操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小为7*7, 步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat 操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模 块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输 出结果,网络模型训练完成。
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训 练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超 参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型 训练完成,否则重复执行步骤2.1和步骤2.2。
步骤2.2中的损失函数如式(9)所示:
Figure BDA0002142099790000091
其中,n为图像的大小,i为图像对应的像素位置,yi为通过网络得到的 图像中像素为i的位置,y′i为训练集中的原始图像中像素为i的位置。
步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始 图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中 的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则 重复执行步骤3.1和步骤3.2;
步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6 的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行 网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
测试集比较网络的输出和对应的原始图像的方法为峰值信噪比,峰值信 噪比如公式(10)所示:
Figure BDA0002142099790000101
其中,MSE通过公式(9)得到。
将训练集60000张,验证9900张,测试集0-9各10张,一共100张。 然后我们运用每组网络的训练数据中的训练集进行网络的训练,验证集对超 参数进行训练,最后在测试集中验证网络的泛化效果;通过运用上述方法, 能够将随机相位掩模的个数减少到7%并得到很好的结果,图5是不同方法 得到的鬼成像的图像,其中N为随机相位掩模的个数。图中(a)是MNSIT训 练集中的原始图像,(b)为随机相位掩模为随机矩阵,且数量为784得出的鬼成像的结果,(c)为随机相位掩模为随机Hadamard矩阵,且数量为784得出 的鬼成像的结果,(d)为随机相位掩模为随机Hadamard矩阵,且数量为430 得出的鬼成像的结果;鬼成像得到的结果在图5中展示,可以看到但采样率 相同的时候基于随机哈达玛矩阵的鬼成像的结果要明显优于基于随机相位 掩模的结果,当采样数为430的基于随机哈达玛矩阵的结果和基于随机矩阵 采样率为784的结果相似。
图6是在测试集中选取的通过7%随机相位掩模得到的鬼成像结 果得到的重建图像结果;每一行对应的是MNSIT集中对应的‘0-9’数 字内容的实验效果对比;其中,第一列为网络的输入,第二列为其对 应的真值,第三列为其对应的重建结果。图6的结果由如下过程得出, 将第一列中的一张鬼成像输入到训练好的网络中,就会得到第三列的 结果,其中第二列为真值,可以看出通过网络重建的图像已经有很好 的效果了。
表1 7%相位掩模个数和10%相位掩模个数的网络的结果
total Hadamard c=007 Hadamard c=010
0 17.0767 15.8245
1 21.3223 22.215
2 14.8609 15.453
3 13.9131 15.2115
4 14.7294 15.2455
5 14.4925 15.1652
6 17.7676 15.0067
7 16.1313 18.2517
8 14.297 14.2675
9 15.8707 16.6548
0-9 16.0462 16.3295
表1给出了我们在测试中分别训练的7%相位掩模个数和10%相位掩模 个数的网络的结果。
其中第一列的第2到11行表示图像中的内容是数字几,最后一行表示 0-9总体的结果的均值。第二列表示的是采样率为7%的峰值信噪比的值,第 三列表示的是采样率为10%的峰值信噪比的值。从表1中我们可看出虽然我 们减少了相位掩模的个数我们对测试集中的数据整体的重建效果改变不大, 在7%的相位掩模个数也可以恢复出很好的效果。

Claims (9)

1.基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,具体操作过程包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计算鬼成像重建。
2.如权利要求1所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤1的具体过程如下:
通过现有生成鬼成像图像的仪器得到鬼成像图像记为O(x,y),如式(2)所示:
O(x,y)=<δSδIr(x,y)> (2)
其中,<·>为系综平均;
Figure FDA0002142099780000011
其中,Br通过桶探测器得出;
Figure FDA0002142099780000012
其中,
Figure FDA0002142099780000013
是Rr的共轭函数;
Figure FDA0002142099780000014
其中,z表示光的传播距离,λ是激光的波长,Er是SLM的复振幅;
Figure FDA0002142099780000021
其中,E(in)是射入SLM的复振幅;是随机相位掩模,随机相位掩模由随机Hadamard矩阵生成,则鬼成像的最终结果由式(7)表示:
3.如权利要求1所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1中的训练集数据作为输入通过给定参数的卷积层,再进行实例正则化层,最后通过激活函数层输出;
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则重复执行步骤2.1和步骤2.2。
4.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.1中实例正则化的公式如式(8)所示:
Figure FDA0002142099780000024
其中,γ和β都是超参数,μ(x)为图像x的均值,σ(x)为图像x的方差。
5.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活函数,其他卷积模块的激活函数层为relu激活函数。
6.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256,对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.1.3的输出结果与步骤2.1.4的上采样结果运用concat操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小为7*7,步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输出结果,网络模型训练完成。
7.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.2中的损失函数如式(9)所示:
Figure FDA0002142099780000031
其中,n为图像的大小,i为图像对应的像素位置,yi为通过网络得到的图像中像素为i的位置,y′i为训练集中的原始图像中像素为i的位置。
8.如权利要求6所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则重复执行步骤3.1和步骤3.2。
9.如权利要求6所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
CN201910672246.6A 2019-07-24 2019-07-24 基于U-Net网络的计算鬼成像重建恢复的方法 Expired - Fee Related CN110675326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910672246.6A CN110675326B (zh) 2019-07-24 2019-07-24 基于U-Net网络的计算鬼成像重建恢复的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910672246.6A CN110675326B (zh) 2019-07-24 2019-07-24 基于U-Net网络的计算鬼成像重建恢复的方法

Publications (2)

Publication Number Publication Date
CN110675326A true CN110675326A (zh) 2020-01-10
CN110675326B CN110675326B (zh) 2022-04-22

Family

ID=69068833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910672246.6A Expired - Fee Related CN110675326B (zh) 2019-07-24 2019-07-24 基于U-Net网络的计算鬼成像重建恢复的方法

Country Status (1)

Country Link
CN (1) CN110675326B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112187457A (zh) * 2020-09-30 2021-01-05 长春大学 一种基于云服务的量子密码矩阵的关联成像方法
CN112351151A (zh) * 2020-11-10 2021-02-09 广东工业大学 基于fcn的图像信息加密方法及装置
CN112434749A (zh) * 2020-12-02 2021-03-02 电子科技大学中山学院 一种基于U-Net的多模光纤散斑图重建与识别方法
CN112819910A (zh) * 2021-01-08 2021-05-18 上海理工大学 基于双鬼注意力机制网络的高光谱图像重建方法
CN113129226A (zh) * 2021-03-24 2021-07-16 西安理工大学 基于convGRU-U-Net的计算鬼成像重建算法
CN113129225A (zh) * 2021-03-09 2021-07-16 西安理工大学 基于Dense Net网络的计算鬼成像重建恢复方法
CN113240610A (zh) * 2021-05-27 2021-08-10 清华大学深圳国际研究生院 一种基于仿人眼机制的双通道鬼成像重建方法及系统
CN113379614A (zh) * 2021-03-31 2021-09-10 西安理工大学 基于Resnet网络的计算鬼成像重建恢复方法
CN114429429A (zh) * 2022-01-25 2022-05-03 西安交通大学 一种鬼成像求逆方法、系统、电子设备及存储介质
CN115220061A (zh) * 2022-07-15 2022-10-21 哈工大机器人(合肥)国际创新研究院 一种基于正交归一化的深度学习偏振鬼成像方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100245602A1 (en) * 2009-03-27 2010-09-30 Canon Kabushiki Kaisha Method of removing an artefact from an image
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN108932688A (zh) * 2018-05-31 2018-12-04 西安理工大学 一种基于计算鬼成像的双层框架光学水印方法
CN109598676A (zh) * 2018-11-15 2019-04-09 华南理工大学 一种基于哈达玛变换的单幅图像超分辨率方法
CN109978762A (zh) * 2019-02-27 2019-07-05 南京信息工程大学 一种基于条件生成对抗网络的超分辨率重建方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100245602A1 (en) * 2009-03-27 2010-09-30 Canon Kabushiki Kaisha Method of removing an artefact from an image
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN108932688A (zh) * 2018-05-31 2018-12-04 西安理工大学 一种基于计算鬼成像的双层框架光学水印方法
CN109598676A (zh) * 2018-11-15 2019-04-09 华南理工大学 一种基于哈达玛变换的单幅图像超分辨率方法
CN109978762A (zh) * 2019-02-27 2019-07-05 南京信息工程大学 一种基于条件生成对抗网络的超分辨率重建方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112187457A (zh) * 2020-09-30 2021-01-05 长春大学 一种基于云服务的量子密码矩阵的关联成像方法
CN112351151B (zh) * 2020-11-10 2022-09-16 广东工业大学 基于fcn的图像信息加密方法及装置
CN112351151A (zh) * 2020-11-10 2021-02-09 广东工业大学 基于fcn的图像信息加密方法及装置
CN112434749A (zh) * 2020-12-02 2021-03-02 电子科技大学中山学院 一种基于U-Net的多模光纤散斑图重建与识别方法
CN112819910A (zh) * 2021-01-08 2021-05-18 上海理工大学 基于双鬼注意力机制网络的高光谱图像重建方法
CN113129225A (zh) * 2021-03-09 2021-07-16 西安理工大学 基于Dense Net网络的计算鬼成像重建恢复方法
CN113129226A (zh) * 2021-03-24 2021-07-16 西安理工大学 基于convGRU-U-Net的计算鬼成像重建算法
CN113129226B (zh) * 2021-03-24 2023-06-23 西安理工大学 基于convGRU-U-Net的计算鬼成像重建算法
CN113379614A (zh) * 2021-03-31 2021-09-10 西安理工大学 基于Resnet网络的计算鬼成像重建恢复方法
CN113240610A (zh) * 2021-05-27 2021-08-10 清华大学深圳国际研究生院 一种基于仿人眼机制的双通道鬼成像重建方法及系统
CN114429429A (zh) * 2022-01-25 2022-05-03 西安交通大学 一种鬼成像求逆方法、系统、电子设备及存储介质
CN114429429B (zh) * 2022-01-25 2024-02-06 西安交通大学 一种鬼成像求逆方法、系统、电子设备及存储介质
CN115220061A (zh) * 2022-07-15 2022-10-21 哈工大机器人(合肥)国际创新研究院 一种基于正交归一化的深度学习偏振鬼成像方法和系统
CN115220061B (zh) * 2022-07-15 2024-05-10 哈工大机器人(合肥)国际创新研究院 一种基于正交归一化的深度学习偏振鬼成像方法和系统

Also Published As

Publication number Publication date
CN110675326B (zh) 2022-04-22

Similar Documents

Publication Publication Date Title
CN110675326B (zh) 基于U-Net网络的计算鬼成像重建恢复的方法
Lan et al. MADNet: A fast and lightweight network for single-image super resolution
CN110490818B (zh) 基于cgan的计算鬼成像重建恢复方法
Dong et al. Crowd counting by using top-k relations: A mixed ground-truth CNN framework
Liu et al. Computational ghost imaging based on an untrained neural network
Chen et al. Single image super-resolution using deep CNN with dense skip connections and inception-resnet
Zhai et al. Foveated ghost imaging based on deep learning
Chen et al. Unsupervised phase retrieval using deep approximate mmse estimation
Ren et al. A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms
Peng et al. RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement Method
Wu et al. Fish Target Detection in Underwater Blurred Scenes Based on Improved YOLOv5
Wan et al. Progressive convolutional transformer for image restoration
Zou et al. Target recognition based on pre-processing in computational ghost imaging with deep learning
Guo et al. MDSFE: Multiscale deep stacking fusion enhancer network for visual data enhancement
Wang et al. Lightweight image denoising network with four-channel interaction transform
Fan et al. Improved polarization scattering imaging using local-global context polarization feature learning framework
Lihe et al. PhDnet: A novel physic-aware dehazing network for remote sensing images
Zhuge et al. Single image denoising with a feature-enhanced network
CN115860113B (zh) 一种自对抗神经网络模型的训练方法及相关装置
CN113379614B (zh) 基于Resnet网络的计算鬼成像重建恢复方法
Wang et al. VPU: A video-based point cloud upsampling framework
Yang et al. S2O-FSPI: Fourier single pixel imaging via sampling strategy optimization
Wang et al. EIDNet: Extragradient-based iterative denoising network for image compressive sensing reconstruction
Zhang et al. Distributed compressive sensing via LSTM-Aided sparse Bayesian learning
Du et al. Degradation aware unfolding network for spectral super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220422

CF01 Termination of patent right due to non-payment of annual fee