CN107767413B - 一种基于卷积神经网络的图像深度估计方法 - Google Patents
一种基于卷积神经网络的图像深度估计方法 Download PDFInfo
- Publication number
- CN107767413B CN107767413B CN201710850577.5A CN201710850577A CN107767413B CN 107767413 B CN107767413 B CN 107767413B CN 201710850577 A CN201710850577 A CN 201710850577A CN 107767413 B CN107767413 B CN 107767413B
- Authority
- CN
- China
- Prior art keywords
- convolution
- neural network
- deconvolution
- layer
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明公开了一种基于卷积神经网络的图像深度估计方法,包括以下步骤:搭建卷积‑反卷积对神经网络模型,所述卷积‑反卷积对神经网络模型包括多个不同的卷积层、多个卷积‑反卷积层对和激活层;选取训练集,并设置卷积‑反卷积对神经网络模型的训练参数;根据卷积‑反卷积对神经网络模型及其训练参数,以最小化损失函数为目标训练卷积‑反卷积对神经网络模型形成图像深度估计神经网络模型;将待处理的图像输入到图像深度估计神经网络模型,输出对应的深度图。利用本发明的基于卷积‑反卷积对神经网络的图像深度估计方法获得的深度图灰度值较精确,深度图层次感更强。
Description
技术领域
本发明涉及计算机视觉与图像处理领域,具体涉及一种基于卷积-反卷积对神经网络的图像深度估计方法。
背景技术
深度估计方法用于估计待处理的图像中各像素点的深度信息,获取待处理的图像的全局深度图,在计算机视觉和计算机图形学应用领域发挥着重要的作用。当前深度估计方法从摄像头数量上可分为单目和双目。
双目立体视觉使用两台摄像机从两个视点观测同一物体,获取在物体不同视角下的感知图像,通过三角测量的方法将匹配点的视差信息转换为深度。一般的双目视觉方法都是利用对极几何将问题变换到欧式几何条件下,然后再使用三角测量的方法估计深度信息。双目立体视觉法的优点是方法成熟,能够稳定地获得较好的深度估计结果,应用于三维重建也优于其他基于视觉的三维重建方法;不足的是运算量仍然偏大,而且在基线距离较大的情况下重建效果明显降低。
单目图像的深度估计方法可以细分为四种思路:1.聚焦法:如果一张图片拍摄时聚焦在近景那么远景就会模糊,因此可以通过判断图片中的清晰和模糊区域来估计近景还是远景,从而得到深度图。2.形状匹配法:这种方法假设形状和深度有一定的对应关系,通过预先建立的形状和深度对应的关系库,来找出每个形状对应的深度从而得到深度图。3.零平面法:利用场景里的物体和零平面的关系来估计深度图。4.人工标记法:这种方法通过大量的人工交互来完成图像各区域的深度估计。上述各种思路下估算图像的深度信息,均有多种实现方法。
然而,现有的多种估计深度信息的方法,通常仅依据图像中像素点的位置信息确定深度信息,依据自底向上的原则,将图像底部的物体视为近景,图像顶部的物体视为远景,确定得到图像的深度信息。这样的估计方法,通常估计的深度值不精确,深度图层次感不强。同时未考虑到图像中物体边缘的影响,得到的深度图边缘模糊。
发明内容
本发明的目的是针对现有技术的不足,提供了一种基于卷积神经网络的图像深度估计方法,利用所述方法得到的深度灰度值更精确,深度图层次感也更强。
本发明的目的可以通过如下技术方案实现:
一种基于卷积神经网络的图像深度估计方法,所述方法包括以下步骤:
S1、搭建卷积-反卷积对神经网络模型,所述卷积-反卷积对神经网络模型包括多个不同的卷积层、多个卷积-反卷积层对和激活层;
S2、选取训练集,并设置卷积-反卷积对神经网络模型的训练参数;
S3、根据卷积-反卷积对神经网络模型及其训练参数,以最小化损失函数为目标训练卷积-反卷积对神经网络模型形成图像深度估计神经网络模型;
S4、将待处理的图像输入到图像深度估计神经网络模型,输出对应的深度图。
进一步地,步骤S1的卷积-反卷积层对是由一个卷积核为3×3的卷积层和一个卷积核为4×4的反卷积层组成。
进一步地,步骤S1搭建的卷积-反卷积对神经网络模型中前四层卷积层的卷积核大小分别为7×7、7×7、5×5和5×5,从第15层卷积层到最后一层卷积层共有7对卷积-反卷积层对,由一个卷积核为3×3的卷积层和一个卷积核为4×4的反卷积层组成,其余第5层至第14层的卷积层的卷积核大小都是3×3。
进一步地,步骤S1的卷积-反卷积对神经网络模型中的每个卷积层后面都添加有相应的ReLu激活层,用作深度预测的卷积层除外。
进一步地,步骤S1的卷积-反卷积对神经网络模型包括7个卷积-反卷积层对,其中最后4个卷积-反卷积层对中的每个卷积层后均添加有一层输出层,与下一个卷积-反卷积层对中的反卷积层连结,所述4层输出层的输出通道分别是128、256、512和512。
进一步地,当输出层与下一个卷积-反卷积层对中的反卷积层连结时,先对输出层通过双线性采样进行上采样,把输出层的特征图的大小扩展至下一个卷积-反卷积层对中的反卷积层特征图的大小。
进一步地,步骤S3中的损失函数L(θ)为交叉熵损失函数:
其中,x(i)和y(i)分别表示选取的训练集中的原始图像和对应的深度图像,y(i)的值取0或1,θ表示权重,m表示图像的个数,hθ(x(i))表示训练出的原始彩色图像到深度图像的映射。
进一步地,步骤S3在训练卷积-反卷积对神经网络模型的过程中,所述卷积-反卷积对神经网络模型的权重初始值由高斯函数随机生成,最小化损失函数采用Adam优化方法。
进一步地,步骤S3中所述图像深度估计神经网络模型是根据最小化损失函数获得的卷积层的权重来建立的。
进一步地,步骤S2中所述的训练集包括NYU DEPTH数据集和KITTI数据集,先通过NYU DEPTH数据集做预训练,再用KITTI数据集做精细化调整。
本发明与现有技术相比,具有如下优点和有益效果:
本发明的图像深度估计方法基于深度网络的学习,通过引入卷积-反卷积层对,极大地增强了神经网络的学习能力,建立起原始图像到深度图像的准确映射;将图像深度估计过程分为模型训练过程和估计过程,能够显著提高图像深度估计的PNSR和视觉效果,减少了深度估计时间,应用在三维图像的建模和场景生成中的深度估计环节能有效地提升实验结果的效率和质量。另外,本发明搭建的卷积-反卷积对神经网络模型中的卷积-反卷积层对选用合适大小卷积核的卷积层和反卷积层,使得不需要引入池化层就能够使网络整体有足够的能力很好地估计图像深度,从而避免了因为引入池化层使得参数减少而导致的模型不精确、效果变差等问题。
附图说明
图1为本发明实施例一种基于卷积神经网络的图像深度估计方法的流程图。
图2为本发明实施例的卷积-反卷积对神经网络模型的内部构造示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本实施例提供了一种基于卷积神经网络的图像深度估计方法,所述方法的神经网络通过引入卷积-反卷积层对、卷积层和激活层,借助卷积层的学习能力和激活层的筛选能力获取好的特征,极大地增强了神经网络的学习能力,准确地学习出从原始图像到深度图像的映射以建立输入到输出的映射,从而能够通过学习到的映射进行深度图像的预测和估计。流程图如图1所示,包括以下步骤:
S1、搭建卷积-反卷积对神经网络模型,所述卷积-反卷积对神经网络模型包括多个不同的卷积层、多个卷积-反卷积层对和激活层;
本实施例中采用的是监督学习的方法,训练集的图像有RGBD四通道,即红绿蓝和深度四通道,即是含有深度值标签或任何对应的深度图。为了对图像深度值做出有效预测,采用一种互相关联的、多尺度预测的卷积-反卷积对神经网络模型设计结构,其内部构造示意图如图2所示,把合成深度图像的结果作为监督信号,把实地深度值作为参考标准计算损失函数LOSS。本实施例的卷积-反卷积对神经网络模型包括一层输入层,14层卷积层,7对卷积-反卷积层对,以及每个卷积层后面跟着的激活层(除了用作深度预测的卷积层);其中前四层卷积层的卷积核大小分别为7×7、7×7、5×5和5×5,其余卷积层的卷积核都是3×3,卷积-反卷积层对中的卷积层的卷积核也为3×3,反卷积层的是4×4,该大小的卷积核引入的参数不会太多故计算量不会太大,但是却能够提取到相对精确的特征;另外,本实施例中每个卷积层后的激活层选用修正线性单元ReLu函数:
其中α=10,β=0.1,以此来限制其输出深度值处于一个合理的范围,使得训练后的网络更具稀疏性。相比其它sigmod激活函数,ReLu函数在数据量大且复杂的网络结构的表现更高效,更快速。也正是因为ReLu这种非线性函数能够很好地传递深度值的误差梯度,越底层的卷积收敛地越快,高层的特征需要在充分训练后才能收敛,与深度网络的梯度弥散现象正好相反。
最后4对卷积-反卷积层对用作多尺度估计图像深度,是一个从粗糙到精确的估计过程。每一组中的反卷积层对图像深度做出估计,并对估计深度图进行上采样然后再与反卷积层连结。上述的连结操作指:需要连结的两张特征图必须是维数相等的,即同宽同高,如分别是N1·H×W和N2·H×W,那么它们连结后的特征图为(N1+N2)·H×W,这个操作有效增加了样本数,提高了神经网络模型的准确率。其中,反卷积层的作用尤为重要,它把与该反卷积层相连结的卷积层的特征图对应的矩阵进行转置后用作反卷积层的滤波器参数,相当于进行卷积的逆运算。它连接输入激活层的单个特征值和多个输出特征,是一个扩大了的密级的激活特征图。然后裁剪该扩大后的特征图至上一层ReLu激活层的大小。反卷积层里经过学习后的卷积核与图像基础大小相对应,以此来重建输入图像对应深度图。
基于反卷积层的功能作用,本实施例设计了多级的卷积层-反卷积层网络结构用来捕获不同级别的深度信息细节特征。底层的反卷积对捕捉输入图像中景象的粗糙的大概深度值,靠近顶层的反卷积对捕捉并编码特定位置的景物的深度细节,如边缘深度等。反卷积层善于放大激活层中与边缘深度相关的特征而有效压制其它区域深度信息的干扰,再在相连的卷积层输出深度估计图。因此通过该方法,输出深度图里的边缘特征会比其它卷积神经网络更清晰分明。因为连结的前提条件是特征图等高等宽,所以在连结深度估计图和下一卷积层对中的反卷积层时,先对深度估计图像进行上采样,把特征图的大小扩展至下一层反卷积层特征图的大小,此处的上采样采取双线性采样的方法,具体过程为:
根据源图像的像素点ps深度值附近4个像素点的深度值的线性加权估计出新插入的深度值,分别是左上,右上,右下,左下四个像素点,具体计算公式如下:
其中,Is(ps)表示像素点ps对应的图像深度值,i、j表示像素点的横坐标、纵坐标,i-5≤t<b≤i+5,j-5≤l<r≤j+5,权重wij与ps到的距离成正比,且从而重构出超出原有维度大小的深度图图像。然后把深度估计图作为新的输入图像先输入到下一次级反卷积层继续训练。最后经过4级卷积层-反卷积层的由粗到精的提取、采样、训练后,输出一幅精度最高的深度估计图。
通过本实施例中建立的卷积神经网络模型中选取的卷积层的总层数和卷积核大小,在保证神经网络的能力的基础上,无需引入池化层便足以实现很好地深度值估计,从而避免了引入池化层导致参数减少而引起的深度结果不精确、效果变差等问题。
S2、选取训练集,并设置卷积-反卷积对神经网络模型的训练参数;
本实施例中选取在图像识别领域常用的、高质量的NYU Depth数据集中的一部分和KITTI数据集作为训练集,每张图像分别有对应的景物图像和深度图像。在采用基于卷积神经网络估计图像深度的方法前,需要对该卷积神经网络进行预训练,然后设置该卷积神经网络模型的训练参数,包括每次进行训练的图像数量、输入图像的大小和输出图像的大小、学习速率等。学习速率设为0.002,每次训练时的衰减速率设为0.9;该网络模型的权重参数的初始值由高斯随机函数去生成,足够的随机性可以增强网络的鲁棒性;通过Adam优化方法更新每个卷积层的参数;输入的训练图片剪裁成128*436的大小,但其实整个方法对测试图片的大小不做要求;训练的最小批取4,即每次训练取4个样本进行训练。每训练2000次后进行一次测试,观察目前模型的效果以更改模型的相关参数。在本模型中经过约15000次迭代后收敛,学习速率降为0。具体涉及参数如表1所示:
参数名 | 参数值 |
图片大小 | 128*436 |
批大小(batch_size) | 4 |
最大迭代次数 | 50000 |
学习率 | 0.002 |
学习率递减迭代次数 | 1000 |
学习率迭代因子 | 0.9 |
表1
S3、根据卷积-反卷积对神经网络模型及其训练参数,以最小化损失函数为目标训练卷积-反卷积对神经网络模型形成图像深度估计神经网络模型;
其中损失函数L(θ)为交叉熵损失函数:
其中,x(i)和y(i)分别表示选取的训练集中的原始图像和对应的深度图像,y(i)的值取0或1,θ表示权重,m表示图像的个数,hθ(x(i))表示训练出的原始彩色图像到深度图像的映射。
卷积核的权重在迭代中不断更新,最后达到最优解。在本实施例中使用Adam优化方法优化全局参数,最小化损失函数。过程可归纳为:Adam每时间步长迭代一次,利用梯度的样本均值估计和样本平方均值估计动态调整每个参数的学习率,公式为:
mt=μ*mt-1+(1-μ)*gt
其中mt,nt分别是对梯度的一阶矩估计和二阶矩估计,可以看作对期望E|gt|、的估计;是对mt,nt的校正,这样可以近似为对期望的无偏估计,θt是学习率。可以看出,对学习率形成一个动态约束,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。
以最小化损失函数L(θ)为目标训练该网络模型,优化各个卷积层的权重从而建立有效的图像深度估计神经网络模型,该模型应用无监督的学习方法达到了普遍监督学习模型的效果,并能更好地保存物体边缘的深度值信息、更好地估计细长物体的深度值,如树和路灯等。
S4、将待处理的图像输入到图像深度估计神经网络模型,输出对应的深度图。
本实施例的图像深度估计方法,通过引入卷积-反卷积层对,极大地增强了神经网络的学习能力,建立起NYU数据集图像、KITTI数据集图像到深度图的准确映射。卷积-反卷积层对中的卷积核分别选用3×3、4×4的效果很好,所述大小的卷积核引入的参数不会太多故计算量不会太大,但是却能够提取到相对精确的特征;除了卷积-反卷积层对的引入,本实施例还在每个卷积层后面增加了Adam激活函数的隐藏层,搭建起需要学习的深度估计卷积神经网络模型后,通过不断减小损失函数的数值来训练网络模型的参数,损失函数选用交叉熵代价函数,减小交叉熵代价能够增大PSNR,从而提高图像的质量;用不同的数据集如KITTI、Make3D或Stereo等训练本深度估计卷积神经网络模型以构造普通彩色图像到深度图像的映射,最终都可以获得接近实地的深度图,证明了本发明具有良好的通用性。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (5)
1.一种基于卷积神经网络的图像深度估计方法,其特征在于,所述方法包括以下步骤:
S1、搭建卷积-反卷积对神经网络模型,所述卷积-反卷积对神经网络模型包括多个不同的卷积层、多个卷积-反卷积层对和激活层;
所述搭建的卷积-反卷积对神经网络模型中前四层卷积层的卷积核大小分别为7×7、7×7、5×5和5×5,从第15层卷积层到最后一层卷积层共有7对卷积-反卷积层对,由一个卷积核为3×3的卷积层和一个卷积核为4×4的反卷积层组成,其余第5层至第14层的卷积层的卷积核大小都是3×3;
所述7对卷积-反卷积层对中,最后4个卷积-反卷积层对中的每个卷积层后均添加有一层输出层,与下一个卷积-反卷积层对中的反卷积层连结,所述4层输出层的输出通道分别是128、256、512和512;当输出层与下一个卷积-反卷积层对中的反卷积层连结时,先对输出层通过双线性采样进行上采样,把输出层的特征图的大小扩展至下一个卷积-反卷积层对中的反卷积层特征图的大小;
且卷积-反卷积对神经网络模型中的每个卷积层后面都添加有相应的ReLu激活层,用作深度预测的卷积层除外;
S2、选取训练集,并设置卷积-反卷积对神经网络模型的训练参数;
S3、根据卷积-反卷积对神经网络模型及其训练参数,以最小化损失函数为目标训练卷积-反卷积对神经网络模型形成图像深度估计神经网络模型;
S4、将待处理的图像输入到图像深度估计神经网络模型,输出对应的深度图。
3.根据权利要求1所述的一种基于卷积神经网络的图像深度估计方法,其特征在于:步骤S3在训练卷积-反卷积对神经网络模型的过程中,所述卷积-反卷积对神经网络模型的权重初始值由高斯函数随机生成,最小化损失函数采用Adam优化方法。
4.根据权利要求1所述的一种基于卷积神经网络的图像深度估计方法,其特征在于:步骤S3中所述图像深度估计神经网络模型是根据最小化损失函数获得的卷积层的权重来建立的。
5.根据权利要求1所述的一种基于卷积神经网络的图像深度估计方法,其特征在于:步骤S2中所述的训练集包括NYU DEPTH数据集和KITTI数据集,先通过NYU DEPTH数据集做预训练,再用KITTI数据集做精细化调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710850577.5A CN107767413B (zh) | 2017-09-20 | 2017-09-20 | 一种基于卷积神经网络的图像深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710850577.5A CN107767413B (zh) | 2017-09-20 | 2017-09-20 | 一种基于卷积神经网络的图像深度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767413A CN107767413A (zh) | 2018-03-06 |
CN107767413B true CN107767413B (zh) | 2020-02-18 |
Family
ID=61266091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710850577.5A Active CN107767413B (zh) | 2017-09-20 | 2017-09-20 | 一种基于卷积神经网络的图像深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767413B (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491081B (zh) * | 2018-03-23 | 2020-09-25 | 联想(北京)有限公司 | 一种基于神经网络的数据处理方法及装置 |
CN108615244B (zh) * | 2018-03-27 | 2019-11-15 | 中国地质大学(武汉) | 一种基于cnn和深度滤波器的图像深度估计方法及系统 |
CN108734693B (zh) * | 2018-03-30 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108846473B (zh) * | 2018-04-10 | 2022-03-01 | 杭州电子科技大学 | 基于方向和尺度自适应卷积神经网络的光场深度估计方法 |
CN108537836A (zh) * | 2018-04-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种深度数据获取方法及移动终端 |
CN108574525B (zh) * | 2018-04-16 | 2020-07-07 | 南京理工大学 | 一种基于适应性矩估计的星载ais碰撞信号分离方法 |
CN108926341A (zh) * | 2018-04-20 | 2018-12-04 | 平安科技(深圳)有限公司 | Ecg信号的检测方法、装置、计算机设备和存储介质 |
CN108650201B (zh) * | 2018-05-10 | 2020-11-03 | 东南大学 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
CN108596330B (zh) * | 2018-05-16 | 2022-03-15 | 中国人民解放军陆军工程大学 | 一种并行特征全卷积神经网络装置及其构建方法 |
WO2019222467A1 (en) * | 2018-05-17 | 2019-11-21 | Niantic, Inc. | Self-supervised training of a depth estimation system |
CN110647888B (zh) * | 2018-06-26 | 2023-07-25 | 毛文涛 | 基于单目图像的三维信息的提取方法及电子装置 |
CN108769674B (zh) * | 2018-06-27 | 2019-11-12 | 北京大学深圳研究生院 | 一种基于自适应层次化运动建模的视频预测方法 |
CN108921095A (zh) * | 2018-07-03 | 2018-11-30 | 安徽灵图壹智能科技有限公司 | 一种基于神经网络的停车位管理系统、方法及停车位 |
CN108898669A (zh) * | 2018-07-17 | 2018-11-27 | 网易(杭州)网络有限公司 | 数据处理方法、装置、介质和计算设备 |
CN109035319B (zh) | 2018-07-27 | 2021-04-30 | 深圳市商汤科技有限公司 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
CN110766152B (zh) * | 2018-07-27 | 2023-08-04 | 富士通株式会社 | 用于训练深度神经网络的方法和装置 |
CN109461180B (zh) * | 2018-09-25 | 2022-08-30 | 北京理工大学 | 一种基于深度学习的三维场景重建方法 |
CN109124635B (zh) * | 2018-09-25 | 2022-09-02 | 上海联影医疗科技股份有限公司 | 模型生成方法、磁共振成像扫描方法及系统 |
CN109598754B (zh) * | 2018-09-29 | 2020-03-17 | 天津大学 | 一种基于深度卷积网络的双目深度估计方法 |
CN111027566B (zh) * | 2018-10-10 | 2023-04-07 | 中国移动通信有限公司研究院 | 一种图像处理方法、系统、装置、设备及存储介质 |
CN109523617B (zh) * | 2018-10-15 | 2022-10-18 | 中山大学 | 一种基于单目摄像机的光照估计方法 |
CN109191514B (zh) * | 2018-10-23 | 2020-11-24 | 北京字节跳动网络技术有限公司 | 用于生成深度检测模型的方法和装置 |
CN111091593B (zh) * | 2018-10-24 | 2024-03-22 | 深圳云天励飞技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN109377530B (zh) * | 2018-11-30 | 2021-07-27 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
CN109685842B (zh) * | 2018-12-14 | 2023-03-21 | 电子科技大学 | 一种基于多尺度网络的稀疏深度稠密化方法 |
CN109801323A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 具有自我提升能力的金字塔双目深度估计模型 |
CN111369612B (zh) * | 2018-12-25 | 2023-11-24 | 北京欣奕华科技有限公司 | 一种三维点云图像生成方法及设备 |
CN109934342B (zh) * | 2018-12-28 | 2022-12-09 | 奥比中光科技集团股份有限公司 | 神经网络模型训练方法、深度图像修复方法及系统 |
CN109872326B (zh) * | 2019-01-25 | 2022-04-05 | 广西科技大学 | 基于深度强化网络跳跃连接的轮廓检测方法 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
CN109949354B (zh) * | 2019-03-13 | 2023-11-14 | 北京信息科技大学 | 一种基于全卷积神经网络的光场深度信息估计方法 |
CN110060286B (zh) * | 2019-04-25 | 2023-05-23 | 东北大学 | 一种单目深度估计方法 |
US11044462B2 (en) | 2019-05-02 | 2021-06-22 | Niantic, Inc. | Self-supervised training of a depth estimation model using depth hints |
CN110443849B (zh) * | 2019-07-11 | 2022-10-14 | 南京邮电大学 | 一种基于深度图像的双流卷积神经网络回归学习的目标定位方法 |
CN110570468A (zh) * | 2019-08-16 | 2019-12-13 | 苏州禾昆智能科技有限公司 | 一种基于深度学习的双目视觉深度估计方法及其系统 |
CN110599532A (zh) * | 2019-09-18 | 2019-12-20 | 厦门美图之家科技有限公司 | 图像的深度估计模型优化、深度估计处理方法及装置 |
CN110599533B (zh) * | 2019-09-20 | 2023-06-27 | 湖南大学 | 适用于嵌入式平台的快速单目深度估计方法 |
CN110706239B (zh) * | 2019-09-26 | 2022-11-11 | 哈尔滨工程大学 | 融合全卷积神经网络与改进aspp模块的场景分割方法 |
CN111105451B (zh) * | 2019-10-31 | 2022-08-05 | 武汉大学 | 一种克服遮挡效应的驾驶场景双目深度估计方法 |
CN110992414B (zh) * | 2019-11-05 | 2023-06-30 | 天津大学 | 一种基于卷积神经网络的室内单目场景深度估计的方法 |
CN111429501A (zh) * | 2020-03-25 | 2020-07-17 | 贝壳技术有限公司 | 深度图预测模型生成方法和装置、深度图预测方法和装置 |
CN110956655B (zh) * | 2019-12-09 | 2022-08-23 | 清华大学 | 一种基于单目图像的稠密深度估计方法 |
CN111507183B (zh) * | 2020-03-11 | 2021-02-02 | 杭州电子科技大学 | 一种基于多尺度密度图融合空洞卷积的人群计数方法 |
CN112184586A (zh) * | 2020-09-29 | 2021-01-05 | 中科方寸知微(南京)科技有限公司 | 基于深度感知的单目视觉图像背景快速虚化的方法及系统 |
CN112381770B (zh) * | 2020-11-03 | 2024-04-05 | 西安交通大学 | 一种基于融合卷积神经网络的磨损表面三维形貌测量方法 |
CN112365510B (zh) * | 2020-11-12 | 2022-12-30 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112766687B (zh) * | 2021-01-12 | 2024-02-27 | 北京化工大学 | 一种基于深度cnn的飞机总装物料配送优先级分配方法 |
CN113096175B (zh) * | 2021-03-24 | 2023-10-24 | 苏州中科广视文化科技有限公司 | 一种基于卷积神经网络的深度图置信度估计方法 |
CN113781541B (zh) * | 2021-09-15 | 2024-03-26 | 平安科技(深圳)有限公司 | 基于神经网络的三维图像处理方法、装置及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488534A (zh) * | 2015-12-04 | 2016-04-13 | 中国科学院深圳先进技术研究院 | 交通场景深度解析方法、装置及系统 |
CN105657402A (zh) * | 2016-01-18 | 2016-06-08 | 深圳市未来媒体技术研究院 | 一种深度图恢复方法 |
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106599805A (zh) * | 2016-12-01 | 2017-04-26 | 华中科技大学 | 一种基于有监督数据驱动的单目视频深度估计方法 |
CN106981080A (zh) * | 2017-02-24 | 2017-07-25 | 东华大学 | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 |
CN106991646A (zh) * | 2017-03-28 | 2017-07-28 | 福建帝视信息科技有限公司 | 一种基于密集连接网络的图像超分辨率方法 |
-
2017
- 2017-09-20 CN CN201710850577.5A patent/CN107767413B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488534A (zh) * | 2015-12-04 | 2016-04-13 | 中国科学院深圳先进技术研究院 | 交通场景深度解析方法、装置及系统 |
CN105657402A (zh) * | 2016-01-18 | 2016-06-08 | 深圳市未来媒体技术研究院 | 一种深度图恢复方法 |
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106599805A (zh) * | 2016-12-01 | 2017-04-26 | 华中科技大学 | 一种基于有监督数据驱动的单目视频深度估计方法 |
CN106981080A (zh) * | 2017-02-24 | 2017-07-25 | 东华大学 | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 |
CN106991646A (zh) * | 2017-03-28 | 2017-07-28 | 福建帝视信息科技有限公司 | 一种基于密集连接网络的图像超分辨率方法 |
Non-Patent Citations (4)
Title |
---|
DenseNet with pre-activated deconvolution for estimating depth map from single image;Saurav Sharma 等;《AMMDS 2017》;20170907;第3-5节,图1,图3 * |
Simon Je'gou 等.The One Hundred Layers Tiramisu:Fully Convolutional DenseNets for Semantic Segmentation.《CVPRW 2017》.2017, * |
基于深层卷积神经网络的单目红外图像深度估计;许路 等;《光学学报》;20160710;第36卷(第7期);0715002-1-0715002-10 * |
基于红外与雷达的夜间无人车场景深度估计;姚广顺 等;《激光与光电子学进展》;20170808;121003-1-121003-7 * |
Also Published As
Publication number | Publication date |
---|---|
CN107767413A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767413B (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
CN112001960B (zh) | 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法 | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
CN109360178B (zh) | 基于融合图像的无参考立体图像质量评价方法 | |
CN109377530A (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN109376611A (zh) | 一种基于3d卷积神经网络的视频显著性检测方法 | |
CN110288550B (zh) | 基于先验知识引导条件生成对抗网络的单张图像去雾方法 | |
CN110059728B (zh) | 基于注意力模型的rgb-d图像视觉显著性检测方法 | |
CN110570363A (zh) | 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法 | |
CN112750201B (zh) | 三维重建方法及相关装置、设备 | |
CN114004754B (zh) | 一种基于深度学习的场景深度补全系统及方法 | |
CN110322403A (zh) | 一种基于生成对抗网络的多监督图像超分辨重建方法 | |
CN109788275A (zh) | 自然性、结构和双目不对称无参考立体图像质量评价方法 | |
CN109472757A (zh) | 一种基于生成对抗神经网络的图像去台标方法 | |
CN108388901B (zh) | 基于空间-语义通道的协同显著目标检测方法 | |
CN111882516B (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
CN115205160A (zh) | 基于局部场景感知的无参考低照度图像增强方法 | |
CN115810149A (zh) | 基于超像素与图卷积的高分辨率遥感图像建筑物提取方法 | |
CN110706196B (zh) | 基于聚类感知的无参考色调映射图像质量评价算法 | |
CN109905694B (zh) | 一种立体视频的质量评价方法、装置和设备 | |
CN111476739B (zh) | 水下图像增强方法、系统及存储介质 | |
CN111369435B (zh) | 基于自适应稳定模型的彩色图像深度上采样方法及系统 | |
CN109887023B (zh) | 一种基于加权梯度幅度的双目融合立体图像质量评价方法 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN116033279A (zh) | 一种夜晚监控相机的近红外图像彩色化方法、系统及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |