CN113393548A - 基于深度残差神经网络的非视域成像方法 - Google Patents

基于深度残差神经网络的非视域成像方法 Download PDF

Info

Publication number
CN113393548A
CN113393548A CN202110572832.0A CN202110572832A CN113393548A CN 113393548 A CN113393548 A CN 113393548A CN 202110572832 A CN202110572832 A CN 202110572832A CN 113393548 A CN113393548 A CN 113393548A
Authority
CN
China
Prior art keywords
image
neural network
autocorrelation
residual error
corr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110572832.0A
Other languages
English (en)
Other versions
CN113393548B (zh
Inventor
卢孝强
陈跃
郑向涛
任玉涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XiAn Institute of Optics and Precision Mechanics of CAS
Original Assignee
XiAn Institute of Optics and Precision Mechanics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XiAn Institute of Optics and Precision Mechanics of CAS filed Critical XiAn Institute of Optics and Precision Mechanics of CAS
Priority to CN202110572832.0A priority Critical patent/CN113393548B/zh
Publication of CN113393548A publication Critical patent/CN113393548A/zh
Application granted granted Critical
Publication of CN113393548B publication Critical patent/CN113393548B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提出了一种基于深度残差神经网络的非视域成像方法,解决现有非视域成像方法成本高昂、捕获时间长、分辨率低的问题,该方法减少了捕获时间、提高了图像质量。该基于深度残差神经网络的非视域成像方法,包括以下步骤:步骤一、合成训练数据集图像对;步骤二、获取输出原图估计图像;步骤三、构建目标损失函数;步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定状态,得到自相关图到原图的映射,残差神经网络模型训练完成;步骤五、采集激光散斑图,对激光散斑图做自相关运算;步骤六、将自相关激光散斑图输入训练好的残差神经网络,生成非视域目标图像。

Description

基于深度残差神经网络的非视域成像方法
技术领域
本发明属于非视域成像领域,具体涉及一种基于深度残差神经网络的非视 域成像方法,可用于应急救援和自动驾驶等领域。
背景技术
非视域成像(Non-Light-of-Sight Imaging)技术是针对隐藏目标进行成像的 技术。由于其能够对视域外的目标进行成像,可以应用于一些特殊场景。在紧 急救援、自动驾驶等领域,人眼和传统成像设备有时会受到遮挡或阻碍,视线 区域受到限制,存在一定的视觉盲区。传统的光学成像技术是通过探测器对视 线区域内的场景成像,无法探测视线以外的区域,如墙体拐角后面、烟雾后面 的物体等。例如,在自动驾驶中,可以检测公路拐角处不可直接观测到的物体, 使自动驾驶车辆提前感知路况,从而避免碰撞。在紧急救援(如火灾和地震) 任务中,救援队员不需要进入危险环境就可以检测和定位目标,使救援行动更 加安全和高效。
现有非视域成像的方法主要包括以下三类:
第一类为基于飞行时间的非视域成像方法,该方法为目前的主流方法。A. Velten等人在文献“A.Velten,T.Willwacher,O.Gupta,A.Veeraraghavan,M. G.Bawendi,andR.Raskar,“RecoveringThree-Dimensional Shape around a Corner Using UltrafastTime-of-Flight Imaging,”Nature Communications,vol.3,no.1,pp. 1-8,2012”中提出了使用高时间分辨率激光脉冲和条纹相机,结合飞行时间技术 和计算重建算法,解码多次漫反射后的光子信息。该方法中,演示了一种三维 范围的相机,它能够使用漫反射光环顾一个角落,在超过40厘米×40厘米×40 厘米的隐藏空间达到亚毫米的深度精度和厘米的横向精度。在非视域成像的众 多工作中,基于飞行时间的技术是最受欢迎的,因为它们能够解析携带隐藏场 景信息的光子三步反射的路径长度。但是基于飞行时间的测量方法硬件成本高 昂,捕获时间长,难以投入大规模实际应用。
第二类为基于相关属性的非视域成像方法,虽然隐藏目标的信息很大程度 上被中继墙上光子的漫反射所丢失,但是光的某些相关特性仍然保留了下来。 基于相关的方法利用散斑模式或空间相干来观察拐角。散斑图是相干光波干涉 产生的强度波动。虽然斑点图案看起来是随机的,但是观察到的图案编码了隐 藏场景的信息。O.Katz等人在“O.Katz,P.Heidmann,M.Fink,andS. Gigan,“Non-Invasive Real-Time Imaging ThroughScattering Layers and around Corners via Speckle Correlations,”NaturePhotonics,vol.8,no.3,2014.”中表 明,由于散斑相关性的“记忆效应”,使用标准相机捕获的单个高分辨率散射光 高分辨率图像可编码足够的信息,以通过视觉上不透明的层和绕过拐角的图像 进行分辨率有限的成像。虽然这种方法实现了有限衍射分辨率,但由于记忆效 应,其视场受到了限制。
第三类为基于强度的非视域成像方法,其主要利用产生阴影的遮挡。C. Saunders等人提出的使用普通数码相机采集目标阴影图像(参见文献“C. Saunders,J.Murray-Bruce,and V.K.Goyal,“Computational Periscopy with an Ordinary DigitalCamera,”Nature,vol.565,no.7740,pp.472-475,2019.”),通过 构建光传输矩阵和估计遮挡位置来重建场景,该方法由于只使用普通相机,成 本很低,不需要复杂遮挡校准、控制照明、时间分辨检测或场景运动,且可获 得彩色二维图像。但是这种方法只能针对形状简单的目标图像,且重建分辨率 较低。
发明内容
本发明提出了一种基于深度残差神经网络的非视域成像方法,解决现有非 视域成像方法成本高昂、捕获时间长、分辨率低的问题,该方法减少了捕获时 间、提高了图像质量。
为实现上述目的,本发明的技术解决方案如下:
一种基于深度残差神经网络的非视域成像方法,包括以下步骤:
步骤一、合成训练数据集图像对;
1.1)将数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数据集;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理, 得到分块后图片块I;
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像 corr,计算公式为:
Figure BDA0003083323640000031
其中,
Figure BDA0003083323640000032
为傅里叶变换;
Figure BDA0003083323640000033
为傅里叶逆变换;Real为取运算后的实部;
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自 相关图像corr′,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自 相关图像corrN
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集 图像对,计算公式为:
Final=[cOrrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
将步骤一中的训练数据集图像对输入至残差神经网络模型中,输出自相关 图像corrN对应的原图估计图像
Figure BDA0003083323640000034
步骤三、构建目标损失函数;
选择分块后图片块I与步骤二所获取的原图估计图像
Figure BDA0003083323640000035
组成二范数损失函 数,该二范数损失函数为目标损失函数;
Figure BDA0003083323640000041
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定 状态,从而得到自相关图到原图的映射,残差神经网络模型训练完成;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,CMOS相机采集带有可见表面物体上的激光 散斑图,并对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入至步骤四训练好的残差神经网络模型, 生成非视域目标图像,获取与激光散斑图相对应的原图。
进一步地,步骤四中,对目标损失函数进行优化后,还包括对残差神经网 络模型进行定量测试和定性测试的步骤:
a)对残差神经网络模型进行定量测试;
将测试集中的图像输入训练后的残差神经网络模型中,计算图像的指标分 数,指标分数为均方误差和PSNR峰值信噪比的大小,若指标分数达到要求, 则执行下一步,若达不到要求,则返回步骤一;
b)对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经 网络模型对曝光时间的鲁棒性。
进一步地,步骤四中,对目标损失函数采用Adam优化方法训练,使得目 标损失函数达到稳定状态。
进一步地,步骤1.1)中,数据集以伯克利分割数据集为基础,伯克利分割 数据集图片数量为500张,其中,训练集的图片数量为450张,测试集图片数量 为50张,裁剪得到边缘稀疏图像数据集的图片数量为27000张,像素大小为 128×128。
进一步地,步骤1.2)中,边缘检测器为Canny边缘检测器,Canny边缘检 测器的阈值设置为[0.1,0.6]。
进一步地,步骤1.5)中,给归一化后自相关图像corr′添加的噪声为高斯 噪声。
本发明与现有技术相比,其有益效果如下:
1.本发明非视域成像方法使用残差神经网络作为映射网络来处理非视域成 像问题,可以减少参数,节省内存,增加鲁棒性,提高运算效率。
2.本发明非视域成像方法使用CMOS相机采集激光散斑图像,不需要昂贵 的瞬态测量设备,进而缩短了捕获时间,降低了硬件成本。
3.本发明非视域成像方法基于残差神经网络,图像重建分辨率高,解决了 现有技术在低信噪比测量中重建非视域场景捕获时间长,硬件成本高和重建图 像分辨率低的问题。
附图说明
图1为本发明基于深度残差神经网络的非视域成像方法流程图;
图2为实现本发明基于深度残差神经网络的非视域成像方法的系统图;
图3为本发明非视域成像方法实施例中训练集示例图;
图4为本发明非视域成像方法实施例中自相关图与原图样例图;
图5为本发明非视域成像方法场景目标图像对曝光时间的鲁棒性的测试结 果示意图。
附图标记:1-CMOS相机,2-激光发射器,3-障碍物,4-目标,5-虚拟源, 6-虚拟探测器,7-基座。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。本领域技术人员应 当理解的是,这些实施方式仅仅用来解释本发明的技术原理,目的并不是用来 限制本发明的保护范围。
本发明提供一种基于深度残差神经网络的非视域成像方法,该方法可以从 激光散斑图像中恢复出非视域场景,该方法包括:(1)将深度残差神经网络(Residual NeuralNetwork)在基于Berkeley Segmentation数据集的合成数据集 上完成多轮训练,学习图像间自相关性,使得训练损失达到最小;(2)使用CMOS 相机采集非视域场景的激光散斑图像,预测散斑图像的自相关图像;(3)将自相 关图像输入训练完毕的模型,重建非视域场景的实时图像。本发明与现有非视 域成像方法相比,由于使用了CMOS相机采集散斑图像,缩短了捕获时间,而 且节约了硬件成本,对噪声更加鲁棒,重建图像分辨率更高,解决了现有方法 在低信噪比测量中重建非视域场景捕获时间长,硬件成本高和重建图像分辨率 低的问题。
本发明提供一种基于深度残差网络的非视域成像方法,该方法基于深度残 差网络的非视域成像系统实现,如图2所示,该系统包括基座7、设置在基座7 上的激光发射器2及CMOS相机1;激光发射器2和/或CMOS相机1可绕自身轴向 旋转,且激光发射器2与CMOS相机1的光轴夹角为锐角。
如图1所示,本发明基于深度残差神经网络的非视域成像方法具体包括以 下步骤:
步骤一、合成训练数据集图像对;
1.1)将现有数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数 据集;数据集包括训练集和测试集;
该步骤中,数据集具体为伯克利分割数据集,分割数据集图片数量为500 张,其中训练集的图片数量为450张,测试集图片数量为50张,裁剪得到边缘 稀疏图像数据集的图片数量为27000张,像素大小为128×128;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理, 得到分块后图片块I;
该步骤中,边缘检测器为Canny边缘检测器,Canny边缘检测器的阈值设置 为[0.1,0.6];
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像 corr,计算公式为:
Figure BDA0003083323640000071
其中,
Figure BDA0003083323640000072
是傅里叶变换;
Figure BDA0003083323640000073
是傅里叶逆变换;Real是取运算后的实部;
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自 相关图像corr′,以便于神经网络输入,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自 相关图像corrN
该步骤中,给自相关运算后的图片块添加噪声,经过分析,相机在采集非 视域场景的激光散斑图像的噪声为高斯噪声;
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集 图像对,计算公式为:
Final=[corrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
由于自相关图像corrN和分块后图片块I的映射为恒等映射,恒等映射需通 过残差神经网络进行学习;因此,将步骤一中的训练数据集图像对输入至残差 神经网络中,输出自相关图像corrN对应的原图估计图像
Figure BDA0003083323640000074
该步骤中,残差神经网络为三种类型的层串联神经网络,第一层卷积神经 网络将自相关图像corrN生成特征图,再对特征图中非线性的自相关图像进行 线性处理;中间层卷积神经网络依次将上一层输出图像进行卷积处理、归一化 处理和线性处理;最后一层卷积神经网络对倒数第二层输出的图像进行优化重 建;具体的,第一层卷积神经网络是大小为3×3×c的64个滤波器,所生成特 征图数量为64张;中间层卷积神经网络是大小为3×3×64的64个滤波器;最 后一层卷积神经网络是大小为3×3×64的c个滤波器;c表示图像通道的数量, 对于灰度图像c=1,对于彩色图像c=3;
步骤三、构建目标损失函数;
选择分块后图片块I与步骤二所生产的原图估计图像
Figure BDA0003083323640000082
组成二范数损失函 数,该二范数损失函数为目标损失函数:
Figure BDA0003083323640000081
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定 状态,得到自相关图到原图的映射,残差神经网络模型训练完成;
该步骤中,对目标损失函数采用Adam优化方法训练,使得目标损失函数 达到稳定状态;
对目标损失函数进行优化后,还可包括对残差神经网络模型进行定量测试 和定性测试的步骤;
对残差神经网络模型进行定量测试;
将测试集中的图像输入至训练后的残差神经网络模型中,计算图像的指标 分数,指标分数为均方误差和PSNR峰值信噪比的大小;若指标分数达到要求, 则执行下一步,若达不到要求,则返回步骤一;
对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经 网络模型对曝光时间的鲁棒性;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,使其在带有可见表面物体形成的虚拟光源能 够覆盖非视域目标,用CMOS相机采集带有可见表面物体上的激光散斑图,并 对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入到步骤四训练好的残差神经网络模型 中,生成非视域目标图像;获取与散斑图相对应的原图。
本发明方法的效果可以通过以下实验做进一步的说明。
1.仿真条件
本发明是在中央处理器为Intel(R)Xeon(R)E5-2697 2.60GHZ、内存4G、 GPUTesla K40m、Ubuntu 18操作系统上,运用Python及其他相关工具包进行的 仿真。实验中使用的训练和测试的数据集基于伯克利分割数据集(Berkeley Segmentation Dataset)500生成,其样例如图3所示;
2.仿真内容
按如下步骤用本发明方法进行实验:首先用训练数据训练网络,在测试集 上进行测试,生成测试集散斑自相关图像的原图(非视域场景目标),如图4所示; 然后,测试基于深度残差神经网络生成的非视域场景目标图像对曝光时间的鲁 棒性,测试结果如图5所示。

Claims (6)

1.一种基于深度残差神经网络的非视域成像方法,其特征在于,包括以下步骤:
步骤一、合成训练数据集图像对;
1.1)将数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数据集;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理,得到分块后图片块I;
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像corr,计算公式为:
Figure FDA0003083323630000013
其中,
Figure FDA0003083323630000015
为傅里叶变换;
Figure FDA0003083323630000014
为傅里叶逆变换;Real为取运算后的实部;
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自相关图像corr′,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自相关图像corrN
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集图像对,计算公式为:
Final=[corrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
将步骤一中的训练数据集图像对输入至残差神经网络模型中,输出自相关图像corrN对应的原图估计图像
Figure FDA0003083323630000011
步骤三、构建目标损失函数;
选择分块后图片块I与步骤二所获取的原图估计图像
Figure FDA0003083323630000012
组成二范数损失函数,该二范数损失函数为目标损失函数;
Figure FDA0003083323630000021
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定状态,从而得到自相关图到原图的映射,残差神经网络模型训练完成;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,CMOS相机采集带有可见表面物体上的激光散斑图,并对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入步骤四训练好的残差神经网络模型,生成非视域目标图像,获取与激光散斑图相对应的原图。
2.根据权利要求1所述的基于深度残差神经网络的非视域成像方法,其特征在于骤,步骤四中,对目标损失函数进行优化后,还包括对残差神经网络模型进行定量测试和定性测试的步骤:
a)对残差神经网络模型进行定量测试;
将测试集中的图像输入训练后的残差神经网络模型中,计算图像的指标分数,指标分数为均方误差和PSNR峰值信噪比的大小,若指标分数达到要求,则执行下一步,若达不到要求,则返回步骤一;
b)对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经网络模型对曝光时间的鲁棒性。
3.根据权利要求2所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤四中,对目标损失函数采用Adam优化方法训练,使得目标损失函数达到稳定状态。
4.根据权利要求1或2或3所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.1)中,数据集以伯克利分割数据集为基础,伯克利分割数据集图片数量为500张,其中,训练集的图片数量为450张,测试集图片数量为50张,裁剪得到边缘稀疏图像数据集的图片数量为27000张,像素大小为128×128。
5.根据权利要求4所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.2)中,边缘检测器为Canny边缘检测器,Canny边缘检测器的阈值设置为[0.1,0.6]。
6.根据权利要求5所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.5)中,给归一化后自相关图像corr′添加的噪声为高斯噪声。
CN202110572832.0A 2021-05-25 2021-05-25 基于深度残差神经网络的非视域成像方法 Active CN113393548B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110572832.0A CN113393548B (zh) 2021-05-25 2021-05-25 基于深度残差神经网络的非视域成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110572832.0A CN113393548B (zh) 2021-05-25 2021-05-25 基于深度残差神经网络的非视域成像方法

Publications (2)

Publication Number Publication Date
CN113393548A true CN113393548A (zh) 2021-09-14
CN113393548B CN113393548B (zh) 2022-12-09

Family

ID=77619128

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110572832.0A Active CN113393548B (zh) 2021-05-25 2021-05-25 基于深度残差神经网络的非视域成像方法

Country Status (1)

Country Link
CN (1) CN113393548B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919398A (zh) * 2021-10-18 2022-01-11 中国科学院光电技术研究所 一种基于深度学习的非视域目标信号辨识方法
CN115984405A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978778A (zh) * 2019-03-06 2019-07-05 浙江工业大学 基于残差学习的卷积神经网络医学ct图像去噪方法
US20200111194A1 (en) * 2018-10-08 2020-04-09 Rensselaer Polytechnic Institute Ct super-resolution gan constrained by the identical, residual and cycle learning ensemble (gan-circle)

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200111194A1 (en) * 2018-10-08 2020-04-09 Rensselaer Polytechnic Institute Ct super-resolution gan constrained by the identical, residual and cycle learning ensemble (gan-circle)
CN109978778A (zh) * 2019-03-06 2019-07-05 浙江工业大学 基于残差学习的卷积神经网络医学ct图像去噪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MOHAMED SAMY: "NU-Net: Deep Residual Wide Field of View Convolutional Neural Network for Semantic Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
宋锐; 施智平; 渠瀛; 邵振洲; 关永: "基于深度残差学习的自动驾驶道路场景理解", 《计算机应用研究》 *
柏宇阳等: "改进的残差卷积神经网络遥感图像超分辨重建", 《黑龙江大学自然科学学报》 *
王一宁等: "基于残差神经网络的图像超分辨率改进算法", 《计算机应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919398A (zh) * 2021-10-18 2022-01-11 中国科学院光电技术研究所 一种基于深度学习的非视域目标信号辨识方法
CN113919398B (zh) * 2021-10-18 2023-06-16 中国科学院光电技术研究所 一种基于深度学习的非视域目标信号辨识方法
CN115984405A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法
CN115984405B (zh) * 2023-01-12 2024-03-29 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法

Also Published As

Publication number Publication date
CN113393548B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
Han et al. A review on intelligence dehazing and color restoration for underwater images
Satat et al. Towards photography through realistic fog
Pinto et al. MARESye: A hybrid imaging system for underwater robotic applications
CN113393548B (zh) 基于深度残差神经网络的非视域成像方法
US11461592B2 (en) Methods and systems for object recognition in low illumination conditions
Protas et al. Visualization methods for image transformation convolutional neural networks
US20200150266A1 (en) Synthetic Apertures for Long-Range, Sub-Diffraction Limited Visible Imaging Using Fourier Ptychography
Fayaz et al. Underwater image restoration: A state‐of‐the‐art review
CN113962866B (zh) 一种基于物理感知学习的散射成像目标重建方法
US11875482B2 (en) Lensless imaging device
JP2009545265A (ja) コード化アパーチャーセンサのための処理方法
CN114648547B (zh) 用于反无人机红外探测系统的弱小目标检测方法和装置
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
Estrada et al. Underwater LiDAR image enhancement using a GAN based machine learning technique
Krska et al. Double your corners, double your fun: the doorway camera
Zhuang et al. A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment
CN113160210A (zh) 基于深度相机的排水管道缺陷检测方法及装置
US11734834B2 (en) Systems and methods for detecting movement of at least one non-line-of-sight object
CN109064444B (zh) 基于显著性分析的轨道板病害检测方法
Tadic et al. Edge-preserving Filtering and Fuzzy Image Enhancement in Depth Images Captured by Realsense Cameras in Robotic Applications.
Berechet et al. Advanced algorithms for identifying targets from a three-dimensional reconstruction of sparse 3D Ladar data
Lv et al. Turn a silicon camera into an ingaas camera
Li et al. Omnidirectional Ring Structured Light Noise Filtering Based On DCGAN Network And Autoencoder
CN110942480A (zh) 一种单目单帧多光谱三维成像方法
Ramachandran et al. Self-supervised depth enhancement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant