CN113393548B - 基于深度残差神经网络的非视域成像方法 - Google Patents
基于深度残差神经网络的非视域成像方法 Download PDFInfo
- Publication number
- CN113393548B CN113393548B CN202110572832.0A CN202110572832A CN113393548B CN 113393548 B CN113393548 B CN 113393548B CN 202110572832 A CN202110572832 A CN 202110572832A CN 113393548 B CN113393548 B CN 113393548B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- autocorrelation
- corr
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 claims abstract description 35
- 238000003062 neural network model Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 238000013507 mapping Methods 0.000 claims abstract description 7
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 238000012113 quantitative test Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000003446 memory effect Effects 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于深度残差神经网络的非视域成像方法,解决现有非视域成像方法成本高昂、捕获时间长、分辨率低的问题,该方法减少了捕获时间、提高了图像质量。该基于深度残差神经网络的非视域成像方法,包括以下步骤:步骤一、合成训练数据集图像对;步骤二、获取输出原图估计图像;步骤三、构建目标损失函数;步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定状态,得到自相关图到原图的映射,残差神经网络模型训练完成;步骤五、采集激光散斑图,对激光散斑图做自相关运算;步骤六、将自相关激光散斑图输入训练好的残差神经网络,生成非视域目标图像。
Description
技术领域
本发明属于非视域成像领域,具体涉及一种基于深度残差神经网络的非视 域成像方法,可用于应急救援和自动驾驶等领域。
背景技术
非视域成像(Non-Light-of-Sight Imaging)技术是针对隐藏目标进行成像的 技术。由于其能够对视域外的目标进行成像,可以应用于一些特殊场景。在紧 急救援、自动驾驶等领域,人眼和传统成像设备有时会受到遮挡或阻碍,视线 区域受到限制,存在一定的视觉盲区。传统的光学成像技术是通过探测器对视 线区域内的场景成像,无法探测视线以外的区域,如墙体拐角后面、烟雾后面 的物体等。例如,在自动驾驶中,可以检测公路拐角处不可直接观测到的物体, 使自动驾驶车辆提前感知路况,从而避免碰撞。在紧急救援(如火灾和地震) 任务中,救援队员不需要进入危险环境就可以检测和定位目标,使救援行动更 加安全和高效。
现有非视域成像的方法主要包括以下三类:
第一类为基于飞行时间的非视域成像方法,该方法为目前的主流方法。A. Velten等人在文献“A.Velten,T.Willwacher,O.Gupta,A.Veeraraghavan,M. G.Bawendi,andR.Raskar,“RecoveringThree-Dimensional Shape around a Corner Using UltrafastTime-of-Flight Imaging,”Nature Communications,vol.3,no.1,pp. 1-8,2012”中提出了使用高时间分辨率激光脉冲和条纹相机,结合飞行时间技术 和计算重建算法,解码多次漫反射后的光子信息。该方法中,演示了一种三维 范围的相机,它能够使用漫反射光环顾一个角落,在超过40厘米×40厘米×40 厘米的隐藏空间达到亚毫米的深度精度和厘米的横向精度。在非视域成像的众 多工作中,基于飞行时间的技术是最受欢迎的,因为它们能够解析携带隐藏场 景信息的光子三步反射的路径长度。但是基于飞行时间的测量方法硬件成本高 昂,捕获时间长,难以投入大规模实际应用。
第二类为基于相关属性的非视域成像方法,虽然隐藏目标的信息很大程度 上被中继墙上光子的漫反射所丢失,但是光的某些相关特性仍然保留了下来。 基于相关的方法利用散斑模式或空间相干来观察拐角。散斑图是相干光波干涉 产生的强度波动。虽然斑点图案看起来是随机的,但是观察到的图案编码了隐 藏场景的信息。O.Katz等人在“O.Katz,P.Heidmann,M.Fink,andS. Gigan,“Non-Invasive Real-Time Imaging ThroughScattering Layers and around Corners via Speckle Correlations,”NaturePhotonics,vol.8,no.3,2014.”中表 明,由于散斑相关性的“记忆效应”,使用标准相机捕获的单个高分辨率散射光 高分辨率图像可编码足够的信息,以通过视觉上不透明的层和绕过拐角的图像 进行分辨率有限的成像。虽然这种方法实现了有限衍射分辨率,但由于记忆效 应,其视场受到了限制。
第三类为基于强度的非视域成像方法,其主要利用产生阴影的遮挡。C. Saunders等人提出的使用普通数码相机采集目标阴影图像(参见文献“C. Saunders,J.Murray-Bruce,and V.K.Goyal,“Computational Periscopy with an Ordinary DigitalCamera,”Nature,vol.565,no.7740,pp.472-475,2019.”),通过 构建光传输矩阵和估计遮挡位置来重建场景,该方法由于只使用普通相机,成 本很低,不需要复杂遮挡校准、控制照明、时间分辨检测或场景运动,且可获 得彩色二维图像。但是这种方法只能针对形状简单的目标图像,且重建分辨率 较低。
发明内容
本发明提出了一种基于深度残差神经网络的非视域成像方法,解决现有非 视域成像方法成本高昂、捕获时间长、分辨率低的问题,该方法减少了捕获时 间、提高了图像质量。
为实现上述目的,本发明的技术解决方案如下:
一种基于深度残差神经网络的非视域成像方法,包括以下步骤:
步骤一、合成训练数据集图像对;
1.1)将数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数据集;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理, 得到分块后图片块I;
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像 corr,计算公式为:
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自 相关图像corr′,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自 相关图像corrN;
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集 图像对,计算公式为:
Final=[cOrrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
步骤三、构建目标损失函数;
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定 状态,从而得到自相关图到原图的映射,残差神经网络模型训练完成;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,CMOS相机采集带有可见表面物体上的激光 散斑图,并对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入至步骤四训练好的残差神经网络模型, 生成非视域目标图像,获取与激光散斑图相对应的原图。
进一步地,步骤四中,对目标损失函数进行优化后,还包括对残差神经网 络模型进行定量测试和定性测试的步骤:
a)对残差神经网络模型进行定量测试;
将测试集中的图像输入训练后的残差神经网络模型中,计算图像的指标分 数,指标分数为均方误差和PSNR峰值信噪比的大小,若指标分数达到要求, 则执行下一步,若达不到要求,则返回步骤一;
b)对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经 网络模型对曝光时间的鲁棒性。
进一步地,步骤四中,对目标损失函数采用Adam优化方法训练,使得目 标损失函数达到稳定状态。
进一步地,步骤1.1)中,数据集以伯克利分割数据集为基础,伯克利分割 数据集图片数量为500张,其中,训练集的图片数量为450张,测试集图片数量 为50张,裁剪得到边缘稀疏图像数据集的图片数量为27000张,像素大小为 128×128。
进一步地,步骤1.2)中,边缘检测器为Canny边缘检测器,Canny边缘检 测器的阈值设置为[0.1,0.6]。
进一步地,步骤1.5)中,给归一化后自相关图像corr′添加的噪声为高斯 噪声。
本发明与现有技术相比,其有益效果如下:
1.本发明非视域成像方法使用残差神经网络作为映射网络来处理非视域成 像问题,可以减少参数,节省内存,增加鲁棒性,提高运算效率。
2.本发明非视域成像方法使用CMOS相机采集激光散斑图像,不需要昂贵 的瞬态测量设备,进而缩短了捕获时间,降低了硬件成本。
3.本发明非视域成像方法基于残差神经网络,图像重建分辨率高,解决了 现有技术在低信噪比测量中重建非视域场景捕获时间长,硬件成本高和重建图 像分辨率低的问题。
附图说明
图1为本发明基于深度残差神经网络的非视域成像方法流程图;
图2为实现本发明基于深度残差神经网络的非视域成像方法的系统图;
图3为本发明非视域成像方法实施例中训练集示例图;
图4为本发明非视域成像方法实施例中自相关图与原图样例图;
图5为本发明非视域成像方法场景目标图像对曝光时间的鲁棒性的测试结 果示意图。
附图标记:1-CMOS相机,2-激光发射器,3-障碍物,4-目标,5-虚拟源, 6-虚拟探测器,7-基座。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。本领域技术人员应 当理解的是,这些实施方式仅仅用来解释本发明的技术原理,目的并不是用来 限制本发明的保护范围。
本发明提供一种基于深度残差神经网络的非视域成像方法,该方法可以从 激光散斑图像中恢复出非视域场景,该方法包括:(1)将深度残差神经网络(Residual NeuralNetwork)在基于Berkeley Segmentation数据集的合成数据集 上完成多轮训练,学习图像间自相关性,使得训练损失达到最小;(2)使用CMOS 相机采集非视域场景的激光散斑图像,预测散斑图像的自相关图像;(3)将自相 关图像输入训练完毕的模型,重建非视域场景的实时图像。本发明与现有非视 域成像方法相比,由于使用了CMOS相机采集散斑图像,缩短了捕获时间,而 且节约了硬件成本,对噪声更加鲁棒,重建图像分辨率更高,解决了现有方法 在低信噪比测量中重建非视域场景捕获时间长,硬件成本高和重建图像分辨率 低的问题。
本发明提供一种基于深度残差网络的非视域成像方法,该方法基于深度残 差网络的非视域成像系统实现,如图2所示,该系统包括基座7、设置在基座7 上的激光发射器2及CMOS相机1;激光发射器2和/或CMOS相机1可绕自身轴向 旋转,且激光发射器2与CMOS相机1的光轴夹角为锐角。
如图1所示,本发明基于深度残差神经网络的非视域成像方法具体包括以 下步骤:
步骤一、合成训练数据集图像对;
1.1)将现有数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数 据集;数据集包括训练集和测试集;
该步骤中,数据集具体为伯克利分割数据集,分割数据集图片数量为500 张,其中训练集的图片数量为450张,测试集图片数量为50张,裁剪得到边缘 稀疏图像数据集的图片数量为27000张,像素大小为128×128;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理, 得到分块后图片块I;
该步骤中,边缘检测器为Canny边缘检测器,Canny边缘检测器的阈值设置 为[0.1,0.6];
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像 corr,计算公式为:
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自 相关图像corr′,以便于神经网络输入,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自 相关图像corrN;
该步骤中,给自相关运算后的图片块添加噪声,经过分析,相机在采集非 视域场景的激光散斑图像的噪声为高斯噪声;
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集 图像对,计算公式为:
Final=[corrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
该步骤中,残差神经网络为三种类型的层串联神经网络,第一层卷积神经 网络将自相关图像corrN生成特征图,再对特征图中非线性的自相关图像进行 线性处理;中间层卷积神经网络依次将上一层输出图像进行卷积处理、归一化 处理和线性处理;最后一层卷积神经网络对倒数第二层输出的图像进行优化重 建;具体的,第一层卷积神经网络是大小为3×3×c的64个滤波器,所生成特 征图数量为64张;中间层卷积神经网络是大小为3×3×64的64个滤波器;最 后一层卷积神经网络是大小为3×3×64的c个滤波器;c表示图像通道的数量, 对于灰度图像c=1,对于彩色图像c=3;
步骤三、构建目标损失函数;
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定 状态,得到自相关图到原图的映射,残差神经网络模型训练完成;
该步骤中,对目标损失函数采用Adam优化方法训练,使得目标损失函数 达到稳定状态;
对目标损失函数进行优化后,还可包括对残差神经网络模型进行定量测试 和定性测试的步骤;
对残差神经网络模型进行定量测试;
将测试集中的图像输入至训练后的残差神经网络模型中,计算图像的指标 分数,指标分数为均方误差和PSNR峰值信噪比的大小;若指标分数达到要求, 则执行下一步,若达不到要求,则返回步骤一;
对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经 网络模型对曝光时间的鲁棒性;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,使其在带有可见表面物体形成的虚拟光源能 够覆盖非视域目标,用CMOS相机采集带有可见表面物体上的激光散斑图,并 对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入到步骤四训练好的残差神经网络模型 中,生成非视域目标图像;获取与散斑图相对应的原图。
本发明方法的效果可以通过以下实验做进一步的说明。
1.仿真条件
本发明是在中央处理器为Intel(R)Xeon(R)E5-2697 2.60GHZ、内存4G、 GPUTesla K40m、Ubuntu 18操作系统上,运用Python及其他相关工具包进行的 仿真。实验中使用的训练和测试的数据集基于伯克利分割数据集(Berkeley Segmentation Dataset)500生成,其样例如图3所示;
2.仿真内容
按如下步骤用本发明方法进行实验:首先用训练数据训练网络,在测试集 上进行测试,生成测试集散斑自相关图像的原图(非视域场景目标),如图4所示; 然后,测试基于深度残差神经网络生成的非视域场景目标图像对曝光时间的鲁 棒性,测试结果如图5所示。
Claims (6)
1.一种基于深度残差神经网络的非视域成像方法,其特征在于,包括以下步骤:
步骤一、合成训练数据集图像对;
1.1)将数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数据集;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理,得到分块后图片块I;
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像corr,计算公式为:
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自相关图像corr′,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自相关图像corrN;
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集图像对,计算公式为:
Final=[corrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
步骤三、构建目标损失函数;
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定状态,从而得到自相关图到原图的映射,残差神经网络模型训练完成;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,CMOS相机采集带有可见表面物体上的激光散斑图,并对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入步骤四训练好的残差神经网络模型,生成非视域目标图像,获取与激光散斑图相对应的原图。
2.根据权利要求1所述的基于深度残差神经网络的非视域成像方法,其特征在于骤,步骤四中,对目标损失函数进行优化后,还包括对残差神经网络模型进行定量测试和定性测试的步骤:
a)对残差神经网络模型进行定量测试;
将测试集中的图像输入训练后的残差神经网络模型中,计算图像的指标分数,指标分数为均方误差和PSNR峰值信噪比的大小,若指标分数达到要求,则执行下一步,若达不到要求,则返回步骤一;
b)对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经网络模型对曝光时间的鲁棒性。
3.根据权利要求2所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤四中,对目标损失函数采用Adam优化方法训练,使得目标损失函数达到稳定状态。
4.根据权利要求1或2或3所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.1)中,数据集以伯克利分割数据集为基础,伯克利分割数据集图片数量为500张,其中,训练集的图片数量为450张,测试集图片数量为50张,裁剪得到边缘稀疏图像数据集的图片数量为27000张,像素大小为128×128。
5.根据权利要求4所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.2)中,边缘检测器为Canny边缘检测器,Canny边缘检测器的阈值设置为[0.1,0.6]。
6.根据权利要求5所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.5)中,给归一化后自相关图像corr′添加的噪声为高斯噪声。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110572832.0A CN113393548B (zh) | 2021-05-25 | 2021-05-25 | 基于深度残差神经网络的非视域成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110572832.0A CN113393548B (zh) | 2021-05-25 | 2021-05-25 | 基于深度残差神经网络的非视域成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113393548A CN113393548A (zh) | 2021-09-14 |
CN113393548B true CN113393548B (zh) | 2022-12-09 |
Family
ID=77619128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110572832.0A Active CN113393548B (zh) | 2021-05-25 | 2021-05-25 | 基于深度残差神经网络的非视域成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113393548B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113919398B (zh) * | 2021-10-18 | 2023-06-16 | 中国科学院光电技术研究所 | 一种基于深度学习的非视域目标信号辨识方法 |
CN114494480B (zh) * | 2021-12-08 | 2024-09-06 | 山东大学 | 基于未训练深度解码神经网络的非视域成像方法 |
CN115984405B (zh) * | 2023-01-12 | 2024-03-29 | 中国科学院宁波材料技术与工程研究所 | 基于自相关性增强的散射成像方法、系统及模型训练方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978778A (zh) * | 2019-03-06 | 2019-07-05 | 浙江工业大学 | 基于残差学习的卷积神经网络医学ct图像去噪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232541B2 (en) * | 2018-10-08 | 2022-01-25 | Rensselaer Polytechnic Institute | CT super-resolution GAN constrained by the identical, residual and cycle learning ensemble (GAN-circle) |
-
2021
- 2021-05-25 CN CN202110572832.0A patent/CN113393548B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978778A (zh) * | 2019-03-06 | 2019-07-05 | 浙江工业大学 | 基于残差学习的卷积神经网络医学ct图像去噪方法 |
Non-Patent Citations (4)
Title |
---|
NU-Net: Deep Residual Wide Field of View Convolutional Neural Network for Semantic Segmentation;Mohamed Samy;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)》;20181216;全文 * |
基于残差神经网络的图像超分辨率改进算法;王一宁等;《计算机应用》;20180110(第01期);全文 * |
基于深度残差学习的自动驾驶道路场景理解;宋锐; 施智平; 渠瀛; 邵振洲; 关永;《计算机应用研究》;20180619;第36卷(第9期);全文 * |
改进的残差卷积神经网络遥感图像超分辨重建;柏宇阳等;《黑龙江大学自然科学学报》;20200625(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113393548A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113393548B (zh) | 基于深度残差神经网络的非视域成像方法 | |
Han et al. | A review on intelligence dehazing and color restoration for underwater images | |
KR102674646B1 (ko) | 뷰로부터 거리 정보를 획득하는 장치 및 방법 | |
Protas et al. | Visualization methods for image transformation convolutional neural networks | |
Fayaz et al. | Underwater image restoration: A state‐of‐the‐art review | |
CN113962866B (zh) | 一种基于物理感知学习的散射成像目标重建方法 | |
WO2020036782A2 (en) | Methods and systems for object recognition in low illumination conditions | |
JP2009545265A (ja) | コード化アパーチャーセンサのための処理方法 | |
Estrada et al. | Underwater LiDAR image enhancement using a GAN based machine learning technique | |
CN114648547B (zh) | 用于反无人机红外探测系统的弱小目标检测方法和装置 | |
Chen et al. | A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery | |
Walz et al. | Uncertainty depth estimation with gated images for 3D reconstruction | |
Krska et al. | Double your corners, double your fun: the doorway camera | |
CN113160210A (zh) | 基于深度相机的排水管道缺陷检测方法及装置 | |
Mathai et al. | Transparent object reconstruction based on compressive sensing and super-resolution convolutional neural network | |
US20230215019A1 (en) | Systems and methods for detecting movement of at least one non-line-of-sight object | |
CN115345845B (zh) | 基于方向梯度直方图的特征融合烟幕干扰效能评估及处理方法及电子设备 | |
Tadic et al. | Edge-preserving Filtering and Fuzzy Image Enhancement in Depth Images Captured by Realsense Cameras in Robotic Applications. | |
Berechet et al. | Advanced algorithms for identifying targets from a three-dimensional reconstruction of sparse 3D Ladar data | |
Song et al. | GM-APD lidar single-source data self-guided: Obtaining high-resolution depth map | |
Li et al. | Omnidirectional Ring Structured Light Noise Filtering Based On DCGAN Network And Autoencoder | |
CN114119781B (zh) | 基于光强互关联的非视域成像方法 | |
Wu et al. | Data-driven visibility enhancement using multi-camera system | |
Wang et al. | Remote sensing image denoising algorithm based on improved Transformer network | |
Ramachandran et al. | Self-supervised depth enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |