CN110675326A - 基于U-Net网络的计算鬼成像重建恢复的方法 - Google Patents
基于U-Net网络的计算鬼成像重建恢复的方法 Download PDFInfo
- Publication number
- CN110675326A CN110675326A CN201910672246.6A CN201910672246A CN110675326A CN 110675326 A CN110675326 A CN 110675326A CN 201910672246 A CN201910672246 A CN 201910672246A CN 110675326 A CN110675326 A CN 110675326A
- Authority
- CN
- China
- Prior art keywords
- ghost imaging
- net network
- image
- training
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000011084 recovery Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 238000005070 sampling Methods 0.000 claims description 17
- 230000004913 activation Effects 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000001459 lithography Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开的基于U‑Net网络的计算鬼成像重建恢复的方法,首先获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard矩阵的鬼成像数据集;然后构建U‑Net网络模型,将得到的数据分为训练集和测试集,通过训练集数据训练U‑Net网络模型;最后通过测试集验证训练好的U‑Net网络模型并输出结果,实现计算鬼成像重建。本发明公开的方法能够将随机相位掩模的个数减少到7%并得到很好的结果,有效的提高计算鬼成像的重建效果,并提高重建速度。
Description
技术领域
本发明属于量子成像和人工智能技术领域,具体涉及一种基于U-Net网 络的计算鬼成像重建恢复的方法。
背景技术
近年来鬼成像的重建恢复得到广泛的关注。计算鬼成像是一种经典的光 场鬼成像,它利用计算全息技术产生已知的关联光场,省去了探测光场分布 的空闲光路,使得光学系统结构更为简单,抵抗外界的干扰能力更强,像的 重建更高效。计算鬼成像不仅继承了鬼成像在成像原理方面的重要特性,而 且相比双光子对鬼成像和赝热源鬼成像,对其研究具有更为重要的实际应用 价值。鬼成像技术目前正从实验研究逐步走向实际应用,在诸多领域体现出 重要的应用价值,如高分辨光刻、密码技术、隐身技术、雷达成像等。
鬼成像的恢复传统方法是通过压缩感知进行恢复的。压缩感知采用了低 维的观测方法,利用信号的稀疏特性(即信号的少量线性投影包含了重构的 足够信息),其信号的重构过程就是将观测向量Y在对应的测量矩阵中获得 稀疏分解的过程,所要解的信号X就是该分解的系数向量。压缩鬼成像技 术可以在测量数据较小的前提下更好的重构出目标图像,它允许一个包含N2个像素点的图像的测量次数小于N2次,如果将随机散斑强度函数Ii(x,y)转换 为行向量,表示为Iri,将目标图像的分布函数为w(x,y)转换为列向量Tc,那 么由桶探测器接收的光照强度Bi可以表示为Bi=Ici×Tc,为了从测量值中 重构出原始图像信息,求解稀疏解的最优化问题必须解决,换句话说,如果 列向量Tc是稀疏的,那么采用重构算法将可以从行向量Iri以及光照强度Bi中 恢复出Tc。目前,很多有效的方法被提出来解决这个问题,如匹配追踪(MP)、 正交匹配追踪(OMP)、SL0算法等。
自2012年起,卷积神经网络(convolutional neural networks,CNN)在图 像处理领域发展迅猛,突破了很多传统方法无法解决的瓶颈,在很多行业得 到了成功应用。Long等将CNN结构改造成全卷积神经网络,通过卷积和 反卷积过程完成对每个像素的分类,提出全卷积神经网络(fully convolutional networks,FCN)的图像语义分割算法,使图像分割效果取得了突破性进展。 但FCN由于多次下采样导致对图像中的细节不够敏感,且没有充分考虑像 素与像素之间的关系,缺乏空间一致性。
发明内容
本发明的目的是提供一种基于U-Net网络的计算鬼成像重建恢复的方 法,有效提高了计算鬼成像重建效果并且提高了重建速度。
本发明所采用的技术方案是,基于U-Net网络的计算鬼成像重建恢复的 方法,具体操作过程包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard 矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试 集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计 算鬼成像重建。
本发明的其他特点还在于,
步骤1的具体过程如下:
通过现有生成鬼成像图像的仪器得到鬼成像图像记为O(x,y),如式(2) 所示:
O(x,y)=<δSδIr(x,y)> (2)
其中,<·>为系综平均;
其中,Br通过桶探测器得出;
其中,z表示光的传播距离,λ是激光的波长,Er是SLM的复振幅;
优选的,步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1 中的训练集数据作为输入通过给定参数的卷积层,再进行实例正则化层,最 后通过激活函数层输出;
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训 练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超 参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型 训练完成,否则重复执行步骤2.1和步骤2.2。
优选的,步骤2.1中实例正则化的公式如式(8)所示:
其中,γ和β都是超参数,μ(x)为图像x的均值,σ(x)为图像x的方差。
优选的,步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活 函数,其他卷积模块的激活函数层为relu激活函数。
优选的,步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷 积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的 输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷 积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的 输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进 行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256, 对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.1.3的输出结果与步骤2.1.4的上采样结果运用 concat操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小 为7*7,步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat 操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模 块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输 出结果,网络模型训练完成。
优选的,步骤2.2中的损失函数如式(9)所示:
其中,n为图像的大小,i为图像对应的像素位置,yi为通过网络得到的 图像中像素为i的位置,y′i为训练集中的原始图像中像素为i的位置。
优选的,步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始 图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中 的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则 重复执行步骤3.1和步骤3.2。
优选的,步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6 的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行 网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
本发明的有益效果是,基于U-Net网络的计算鬼成像重建恢复的方法, 有效提高了计算鬼成像重建效果并且提高了重建速度。基于MNSIT数据集, 通过用Hadamard矩阵作为改进随机相位掩模来得到计算鬼成像,其次对 U-Net网络的结构进行了调整,在原有的基础上添加了instance layer和增加 了网络的深度、特征层的深度,并运用大量的计算鬼成像图像和它们的原始 图像对网络进行训练,最后在测试集中得到了实验的泛化效果,能够将随机 相位掩模的个数减少到7%并得到很好的结果。
附图说明
图1是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中采集计 算鬼成像图像的装置结构示意图;
图2是本发明的基于U-Net网络的计算鬼成像重建恢复的方法的流程示 意图;
图3是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中U-Net 网络的结构示意图;
图4是本发明的基于U-Net网络的计算鬼成像重建恢复的方法中卷积模 块的结构示意图;
图5是不同方法得到的鬼成像的图像,其中N为随机相位掩模的个数; 其中,(a)是MNSIT训练集中的原始图像,(b)为随机相位掩模为随机矩 阵且数量为784得出的鬼成像的结果;(c)为随机相位掩模为随机Hadamard 矩阵且数量为784得出的鬼成像的结果;(d)为随机相位掩模为随机 Hadamard矩阵且数量为430得出的鬼成像的结果;
图6是在测试集中选取的通过7%随机相位掩模得到的鬼成像结 果得到的重建图像结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的基于U-Net网络的计算鬼成像重建恢复的方法,具体操作过程 包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard 矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试 集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计 算鬼成像重建。
步骤1的具体过程如下:
如图1所示,通过现有生成鬼成像图像的仪器得到鬼成像图像记为O(x, y),如式(2)所示:
O(x,y)=<δSδIr(x,y)> (2)
其中,<·>为系综平均;
其中,Br通过桶探测器得出;
其中,z表示光的传播距离,λ是激光的波长,Er是SLM的复振幅;
如图2所示,步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1 中的训练集数据作为输入通过给定参数的卷积层,如图3所示,再进行实例 正则化层,最后通过激活函数层输出;
步骤2.1中实例正则化的公式如式(8)所示:
其中,γ和β都是超参数,μ(x)为图像x的均值,σ(x)为图像x的方差。
步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活函数,其 他卷积模块的激活函数层为relu激活函数。
如图4所示,步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷 积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的 输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷 积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的 输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进 行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256, 对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.13的输出结果与步骤2.1.4的上采样结果运用concat 操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小为7*7, 步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat 操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模 块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输 出结果,网络模型训练完成。
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训 练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超 参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型 训练完成,否则重复执行步骤2.1和步骤2.2。
步骤2.2中的损失函数如式(9)所示:
其中,n为图像的大小,i为图像对应的像素位置,yi为通过网络得到的 图像中像素为i的位置,y′i为训练集中的原始图像中像素为i的位置。
步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始 图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中 的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则 重复执行步骤3.1和步骤3.2;
步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6 的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行 网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
测试集比较网络的输出和对应的原始图像的方法为峰值信噪比,峰值信 噪比如公式(10)所示:
其中,MSE通过公式(9)得到。
将训练集60000张,验证9900张,测试集0-9各10张,一共100张。 然后我们运用每组网络的训练数据中的训练集进行网络的训练,验证集对超 参数进行训练,最后在测试集中验证网络的泛化效果;通过运用上述方法, 能够将随机相位掩模的个数减少到7%并得到很好的结果,图5是不同方法 得到的鬼成像的图像,其中N为随机相位掩模的个数。图中(a)是MNSIT训 练集中的原始图像,(b)为随机相位掩模为随机矩阵,且数量为784得出的鬼成像的结果,(c)为随机相位掩模为随机Hadamard矩阵,且数量为784得出 的鬼成像的结果,(d)为随机相位掩模为随机Hadamard矩阵,且数量为430 得出的鬼成像的结果;鬼成像得到的结果在图5中展示,可以看到但采样率 相同的时候基于随机哈达玛矩阵的鬼成像的结果要明显优于基于随机相位 掩模的结果,当采样数为430的基于随机哈达玛矩阵的结果和基于随机矩阵 采样率为784的结果相似。
图6是在测试集中选取的通过7%随机相位掩模得到的鬼成像结 果得到的重建图像结果;每一行对应的是MNSIT集中对应的‘0-9’数 字内容的实验效果对比;其中,第一列为网络的输入,第二列为其对 应的真值,第三列为其对应的重建结果。图6的结果由如下过程得出, 将第一列中的一张鬼成像输入到训练好的网络中,就会得到第三列的 结果,其中第二列为真值,可以看出通过网络重建的图像已经有很好 的效果了。
表1 7%相位掩模个数和10%相位掩模个数的网络的结果
total | Hadamard c=007 | Hadamard c=010 |
0 | 17.0767 | 15.8245 |
1 | 21.3223 | 22.215 |
2 | 14.8609 | 15.453 |
3 | 13.9131 | 15.2115 |
4 | 14.7294 | 15.2455 |
5 | 14.4925 | 15.1652 |
6 | 17.7676 | 15.0067 |
7 | 16.1313 | 18.2517 |
8 | 14.297 | 14.2675 |
9 | 15.8707 | 16.6548 |
0-9 | 16.0462 | 16.3295 |
表1给出了我们在测试中分别训练的7%相位掩模个数和10%相位掩模 个数的网络的结果。
其中第一列的第2到11行表示图像中的内容是数字几,最后一行表示 0-9总体的结果的均值。第二列表示的是采样率为7%的峰值信噪比的值,第 三列表示的是采样率为10%的峰值信噪比的值。从表1中我们可看出虽然我 们减少了相位掩模的个数我们对测试集中的数据整体的重建效果改变不大, 在7%的相位掩模个数也可以恢复出很好的效果。
Claims (9)
1.基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,具体操作过程包括如下步骤:
步骤1,获取计算鬼成像得到的MNSIT数据集相对应的基于Hadamard矩阵的鬼成像数据集;
步骤2,构建U-Net网络模型,将步骤1得到的数据分为训练集、测试集和验证集,通过训练集数据训练U-Net网络模型中的参数;
步骤3,通过测试集数据训练U-Net网络模型中的超参数;
步骤4,通过验证集验证训练好的U-Net网络模型并输出结果,实现计算鬼成像重建。
3.如权利要求1所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2的具体过程如下:
步骤2.1,构建U-Net网络模型,并初始化网络中的所有参数,将步骤1中的训练集数据作为输入通过给定参数的卷积层,再进行实例正则化层,最后通过激活函数层输出;
步骤2.2,定义损失函数,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的超参数不变对网络中的参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则重复执行步骤2.1和步骤2.2。
5.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.1中,最后一个卷积模块的激活函数层为sigmoid激活函数,其他卷积模块的激活函数层为relu激活函数。
6.如权利要求3所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤2.1中构建U-Net网络模型的具体过程如下:
步骤2.1.1,将训练集数据作为输入,进行5个卷积模块的操作,其中卷积核的大小为9*9,步长为1,特征层为64,并将经过最后一个卷积模块的输出保存;
步骤2.1.2,对步骤2.1.1的输出结果运用最大池化操作进行池化;
步骤2.1.3,对步骤2.1.2的输出结果进行5个卷积模块的操作,其中卷积核的大小为7*7,步长为1,特征层为128,并将经过最后一个卷积模块的输出保存;
步骤2.1.4,将上述输出结果重复步骤2.1.2的操作并输出,对其输出进行5个卷积模块的操作,其中卷积核的大小为5*5,步长为1,特征层为256,对其输出的输出运用反卷积操作进行上采样;
步骤2.1.5,将步骤2.1.3的输出结果与步骤2.1.4的上采样结果运用concat操作连接起来,并对其进行5个卷积模块的操作,其中卷积核的大小为7*7,步长为1,特征层为128,对其出输出再进行一次上采样;
步骤2.1.6,将步骤2.1.1的输出结果与步骤2.1.5的上采样结果用concat操作连接起来,执行步骤2.1.1的过程并输出,将输出结果进行1个卷积模块的操作,其中卷积核的大小为1*1,步长为1,特征层为1,得到网络的输出结果,网络模型训练完成。
8.如权利要求6所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1,将验证集中的数据输入到网络中,执行步骤2.1。
步骤3.2,通过比较损失函数将步骤2.1的输出结果与训练集数据的原始图像,根据损失函数对网络进行反向传播,保持网络中的参数不变对网络中的超参数进行训练,直至损失函数稳定,则U-Net网络模型训练完成,否则重复执行步骤3.1和步骤3.2。
9.如权利要求6所述的基于U-Net网络的计算鬼成像重建恢复的方法,其特征在于,所述步骤4的具体过程如下:
将需要处理的图像输入到训练好的网络中,重复步骤2.1.1至步骤2.1.6的操作,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行网络反向传播,直至损失函数保持稳定,输出结果即为计算鬼成像图像重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672246.6A CN110675326B (zh) | 2019-07-24 | 2019-07-24 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672246.6A CN110675326B (zh) | 2019-07-24 | 2019-07-24 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110675326A true CN110675326A (zh) | 2020-01-10 |
CN110675326B CN110675326B (zh) | 2022-04-22 |
Family
ID=69068833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910672246.6A Expired - Fee Related CN110675326B (zh) | 2019-07-24 | 2019-07-24 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675326B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112187457A (zh) * | 2020-09-30 | 2021-01-05 | 长春大学 | 一种基于云服务的量子密码矩阵的关联成像方法 |
CN112351151A (zh) * | 2020-11-10 | 2021-02-09 | 广东工业大学 | 基于fcn的图像信息加密方法及装置 |
CN112434749A (zh) * | 2020-12-02 | 2021-03-02 | 电子科技大学中山学院 | 一种基于U-Net的多模光纤散斑图重建与识别方法 |
CN112819910A (zh) * | 2021-01-08 | 2021-05-18 | 上海理工大学 | 基于双鬼注意力机制网络的高光谱图像重建方法 |
CN113129226A (zh) * | 2021-03-24 | 2021-07-16 | 西安理工大学 | 基于convGRU-U-Net的计算鬼成像重建算法 |
CN113129225A (zh) * | 2021-03-09 | 2021-07-16 | 西安理工大学 | 基于Dense Net网络的计算鬼成像重建恢复方法 |
CN113240610A (zh) * | 2021-05-27 | 2021-08-10 | 清华大学深圳国际研究生院 | 一种基于仿人眼机制的双通道鬼成像重建方法及系统 |
CN113379614A (zh) * | 2021-03-31 | 2021-09-10 | 西安理工大学 | 基于Resnet网络的计算鬼成像重建恢复方法 |
CN114429429A (zh) * | 2022-01-25 | 2022-05-03 | 西安交通大学 | 一种鬼成像求逆方法、系统、电子设备及存储介质 |
CN115220061A (zh) * | 2022-07-15 | 2022-10-21 | 哈工大机器人(合肥)国际创新研究院 | 一种基于正交归一化的深度学习偏振鬼成像方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100245602A1 (en) * | 2009-03-27 | 2010-09-30 | Canon Kabushiki Kaisha | Method of removing an artefact from an image |
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
CN108932688A (zh) * | 2018-05-31 | 2018-12-04 | 西安理工大学 | 一种基于计算鬼成像的双层框架光学水印方法 |
CN109598676A (zh) * | 2018-11-15 | 2019-04-09 | 华南理工大学 | 一种基于哈达玛变换的单幅图像超分辨率方法 |
CN109978762A (zh) * | 2019-02-27 | 2019-07-05 | 南京信息工程大学 | 一种基于条件生成对抗网络的超分辨率重建方法 |
-
2019
- 2019-07-24 CN CN201910672246.6A patent/CN110675326B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100245602A1 (en) * | 2009-03-27 | 2010-09-30 | Canon Kabushiki Kaisha | Method of removing an artefact from an image |
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
CN108932688A (zh) * | 2018-05-31 | 2018-12-04 | 西安理工大学 | 一种基于计算鬼成像的双层框架光学水印方法 |
CN109598676A (zh) * | 2018-11-15 | 2019-04-09 | 华南理工大学 | 一种基于哈达玛变换的单幅图像超分辨率方法 |
CN109978762A (zh) * | 2019-02-27 | 2019-07-05 | 南京信息工程大学 | 一种基于条件生成对抗网络的超分辨率重建方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112187457A (zh) * | 2020-09-30 | 2021-01-05 | 长春大学 | 一种基于云服务的量子密码矩阵的关联成像方法 |
CN112351151B (zh) * | 2020-11-10 | 2022-09-16 | 广东工业大学 | 基于fcn的图像信息加密方法及装置 |
CN112351151A (zh) * | 2020-11-10 | 2021-02-09 | 广东工业大学 | 基于fcn的图像信息加密方法及装置 |
CN112434749A (zh) * | 2020-12-02 | 2021-03-02 | 电子科技大学中山学院 | 一种基于U-Net的多模光纤散斑图重建与识别方法 |
CN112819910A (zh) * | 2021-01-08 | 2021-05-18 | 上海理工大学 | 基于双鬼注意力机制网络的高光谱图像重建方法 |
CN113129225A (zh) * | 2021-03-09 | 2021-07-16 | 西安理工大学 | 基于Dense Net网络的计算鬼成像重建恢复方法 |
CN113129226A (zh) * | 2021-03-24 | 2021-07-16 | 西安理工大学 | 基于convGRU-U-Net的计算鬼成像重建算法 |
CN113129226B (zh) * | 2021-03-24 | 2023-06-23 | 西安理工大学 | 基于convGRU-U-Net的计算鬼成像重建算法 |
CN113379614A (zh) * | 2021-03-31 | 2021-09-10 | 西安理工大学 | 基于Resnet网络的计算鬼成像重建恢复方法 |
CN113240610A (zh) * | 2021-05-27 | 2021-08-10 | 清华大学深圳国际研究生院 | 一种基于仿人眼机制的双通道鬼成像重建方法及系统 |
CN114429429A (zh) * | 2022-01-25 | 2022-05-03 | 西安交通大学 | 一种鬼成像求逆方法、系统、电子设备及存储介质 |
CN114429429B (zh) * | 2022-01-25 | 2024-02-06 | 西安交通大学 | 一种鬼成像求逆方法、系统、电子设备及存储介质 |
CN115220061A (zh) * | 2022-07-15 | 2022-10-21 | 哈工大机器人(合肥)国际创新研究院 | 一种基于正交归一化的深度学习偏振鬼成像方法和系统 |
CN115220061B (zh) * | 2022-07-15 | 2024-05-10 | 哈工大机器人(合肥)国际创新研究院 | 一种基于正交归一化的深度学习偏振鬼成像方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110675326B (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675326B (zh) | 基于U-Net网络的计算鬼成像重建恢复的方法 | |
Lan et al. | MADNet: A fast and lightweight network for single-image super resolution | |
CN110490818B (zh) | 基于cgan的计算鬼成像重建恢复方法 | |
Dong et al. | Crowd counting by using top-k relations: A mixed ground-truth CNN framework | |
Liu et al. | Computational ghost imaging based on an untrained neural network | |
Chen et al. | Single image super-resolution using deep CNN with dense skip connections and inception-resnet | |
Zhai et al. | Foveated ghost imaging based on deep learning | |
Chen et al. | Unsupervised phase retrieval using deep approximate mmse estimation | |
Ren et al. | A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms | |
Peng et al. | RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement Method | |
Wu et al. | Fish Target Detection in Underwater Blurred Scenes Based on Improved YOLOv5 | |
Wan et al. | Progressive convolutional transformer for image restoration | |
Zou et al. | Target recognition based on pre-processing in computational ghost imaging with deep learning | |
Guo et al. | MDSFE: Multiscale deep stacking fusion enhancer network for visual data enhancement | |
Wang et al. | Lightweight image denoising network with four-channel interaction transform | |
Fan et al. | Improved polarization scattering imaging using local-global context polarization feature learning framework | |
Lihe et al. | PhDnet: A novel physic-aware dehazing network for remote sensing images | |
Zhuge et al. | Single image denoising with a feature-enhanced network | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN113379614B (zh) | 基于Resnet网络的计算鬼成像重建恢复方法 | |
Wang et al. | VPU: A video-based point cloud upsampling framework | |
Yang et al. | S2O-FSPI: Fourier single pixel imaging via sampling strategy optimization | |
Wang et al. | EIDNet: Extragradient-based iterative denoising network for image compressive sensing reconstruction | |
Zhang et al. | Distributed compressive sensing via LSTM-Aided sparse Bayesian learning | |
Du et al. | Degradation aware unfolding network for spectral super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220422 |
|
CF01 | Termination of patent right due to non-payment of annual fee |