CN110443843A - 一种基于生成对抗网络的无监督单目深度估计方法 - Google Patents
一种基于生成对抗网络的无监督单目深度估计方法 Download PDFInfo
- Publication number
- CN110443843A CN110443843A CN201910688782.5A CN201910688782A CN110443843A CN 110443843 A CN110443843 A CN 110443843A CN 201910688782 A CN201910688782 A CN 201910688782A CN 110443843 A CN110443843 A CN 110443843A
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- input
- unsupervised
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000012937 correction Methods 0.000 claims abstract description 7
- 238000013480 data collection Methods 0.000 claims abstract 2
- 238000003786 synthesis reaction Methods 0.000 claims description 25
- 230000015572 biosynthetic process Effects 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 24
- 238000005259 measurement Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明的一种基于生成对抗网络的无监督单目深度估计方法,其包括如下步骤:步骤1:通过双目相机获取具有时间严格同步的左右图像对,建立双目彩色图像数据集,并对双目彩色图像进行校正;步骤2:建立无监督生成对抗网络模型,将校正后的双目彩色图像输入到网络中,对网络模型进行训练和迭代回归;步骤3:将单目彩色图像输入到训练好的网络模型中,生成与之对应视差图;步骤4:将视差图通过双目视差深度转换公式转换为深度信息,并合成深度图。本发明提供的深度估计方法将使用无监督网络模型将单目彩色图像转换含有深度信息的深度图,无需复杂的真实深度数据。
Description
技术领域
本发明属于机器人视觉技术领域,涉及一种基于生成对抗网络的无监督单目深度估计方法。
背景技术
深度信息是计算机视觉中视觉SLAM、三维场景重建、影像医学等领域的核心问题。在机器人领域,准确的深度估计是计算机视觉理解三维环境对于机器的运动规划,导航定位,运动避障以及控制决策都有十分重要的意义。
通常来说,深度估计主要有两种方法:三维测量传感器直接测量和图像信息深度恢复。三维测量传感器主要依赖各种直接测量传感器如Velodyne设计激光雷达通过以一定的频率发出激光束扫描周围三位点,建立三维环境。但是激光雷达结构复杂,成本较高。微软Kinect相机采用Light coding和Time of Fight方法能够较为准确实现周围环境深度测量,但它受背景物体和光线强度影响较大,测量距离较短只适用室内环境。另一种方法是通过不同视角对于同一物体进行拍摄,然后通过数学变换转换至欧式几何空间后再利用三角测量的方法计算深度信息,已经应用于双目立体相机上。但该方法在运算量比较大,且当摄影机基线距离较大时场景深度预测精度发生严重下滑。
随着深度学习的快速发展,基于CNN网络的图像直接估计深度方法取得了很大的进步。深度CNN能够提取图像中不同场景的各种特征如色彩、光流、几何形状纹理等,然后将特征用于合成深度图的训练之中,得到RGB图像到深度图的映射网络。当前单目深度估计问题可以分为有监督和无监督两种方法。有监督学习是通过输入图像对真实深度图的端到端训练来拟合估计深度,而无监督法是通过对立体相机的左右图像进行左右一致性训练来获取左右视差图。大量的研究表明,基于有监督深度学习网络的深度估计方法能够有效地估计出深度图,并且在引入如条件随机场(CRFs)、马尔科夫随机场(MRFs)等概率图模型后,进一步提升了深度网络模型的回归性能。但是有监督学习需要大量的真实深度图作为数据回归的参照值,这些实际真实深度数据需要由深度传感器测量。这种方法不仅需要大量的采集及标注工作,而且还需要对数据集进行容错训练,减少场景变化对估计的影响。
最近,为了避免有监督深度估计地面真值数据集的局限性,一些研究者提出了无监督单目深度估计的方法。基于双目立体相机的无监督深度估计方法的原理是通过输入左图像推断生成图像对应的右图像,并根据同一物体在左右图像中的视差估计输入图像的深度。
尽管这些无监督方法可以在不依赖大深度地面真实性的情况下获得比较结果,但是,那些基于DispNet网络的无监督神经网络结构只有一个尺度特征,并且受M.M.的启发,将L1范数和结构相似性指数度量(SSIM)的损失函数结合起来作为损失项。深度估计工作可以引入多尺度特征,提高性能的准确性。Godard等人提出用单一的生成网络估计正、反向视差图,并利用左右视差图的一致性约束模型学习。其他建议通过联合学习相机姿态来进行深度估计的工作。这些研究是根据预期图像合成作为监督来优化模型,图像合成的质量直接影响了生成的视差图的质量。然而这些人着重研究了重建损失,而没有考虑使用对抗网络来提高图像生成的质量。
发明内容
本发明的目的是提供一种基于生成对抗网络的无监督单目深度估计方法,能够解决当前深度估计传感器成本过高,相机位姿估计不准确地问题,同时为相机进行环境感知,三维场景重建,自动驾驶等相关任务提供基础。
本发明的一种基于生成对抗网络的无监督单目深度估计方法,包括如下步骤:
步骤1:通过双目相机获取具有时间严格同步的左右图像对,建立双目彩色图像数据集,并对双目彩色图像进行校正;
步骤2:建立无监督生成对抗网络模型,将校正后的双目彩色图像输入到网络中,对网络模型进行训练和迭代回归;
步骤3:将单目彩色图像输入到训练好的网络模型中,生成与之对应视差图;
步骤4:将视差图通过双目视差深度转换公式转换为深度信息,并合成深度图。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,步骤3中的无监督生成对抗网络模型包括生成器和鉴别器,生成器包括编码部分和解码部分。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,步骤3包括:
步骤3.1:将校正后的双目彩色图像输入到无监督生成对抗网络模型的生成器中,双目彩色图像在编码部分进行编码,在不同尺度提取图像的特征;
步骤3.2:通过解码部分进行解码,分别利用左右图像的不同尺度的特征合成左右图像各自的视差图;
步骤3.3:将左右图像的两张视差图融合为最后用于计算深度的右侧图像视差图;
步骤3.4:将融合的右侧图像视差图与输入的左侧图像做变形运算转换为合成的右侧图像;
步骤3.5:将输入的右侧图像和合成的右侧图像输入到鉴别器中用以判断输入到鉴别器图像的真假;
步骤3.6:通过多个损失函数回归网络模型的参数,提升模型的回归性能和深度估计的准确性,完成模型训练。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,所述生成器使用ResNet50网络。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,所述鉴别器使用VGG-16网络。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,多个损失函数包括:表征匹配损失函数、视差平滑损失函数、左右视差一致性损失函数和图像生成损失函数。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,其特征在于:
表征匹配损失函数为:
为输入的右侧图像的像素值,合成的右侧图像的像素值,α为常数;
为输入的右侧图像的像素值的均值,为合成的右侧图像的像素值的均值,为输入的右侧图像的像素值的标准差,为合成的右侧图像的像素值的标准差,为输入的右侧图像和合成的右侧图像的像素值的协方差,c1和c2为常数;
视差平滑损失函数为:
式中,为生成的对应左侧图像视差;
左右视差一致性损失函数为:
式中,为经过变换后的右侧图像视差;
图像生成损失函数为:
式中,式中μ为控制梯度惩罚的罚因子,λ为一个介于0~1之间的随机值,D为判别器函数,为随机变量服从P概率分布的期望值。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,网络模型的总损失函数为:
式中,αap、αds、αlr、αgan为超参数。
在本发明的基于生成对抗网络的无监督单目深度估计方法中,所述步骤4中的双目视差深度转换公式为:
其中,b为训练过程中使用的双目相机的左右相机基线,f为相机焦距,d为生成的视差,dis为计算得出的每个像素对应深度信息,并生成深度图。
本发明的一种基于生成对抗网络的无监督单目深度估计方法,至少具有以下有益效果:
1)使用无监督网络模型实现了深度估计,训练过程中只需要双目相机的左右视图,不需要复杂的真实深度图做回归。
2)使用对抗生成网络,为深度估计引入图像生成机制,将回归问题转换为图像生成问题,提高了深度估计的准确度。
3)在对抗生成网络中引入多种损失函数,如表征匹配损失、视差平滑损失、左右视差一致性损失,提高了图像生成质量和模型的回归性能。
4)引入梯度乘法函数,解决对抗生成网络训练过程中梯度消失、过拟合等问题。
附图说明
图1是本发明的一种基于生成对抗网络的无监督单目深度估计方法的流程图;
图2是为基于生成对抗网络的单目深度估计模型结构图。
具体实施方式
如图1所示,本发明的一种基于生成对抗网络的无监督单目深度估计方法,包括如下步骤:
步骤1:通过双目相机获取具有时间严格同步的左右图像对,建立双目彩色图像数据集,并对双目彩色图像进行校正;
步骤2:建立无监督生成对抗网络模型,将校正后的双目彩色图像输入到网络中,对网络模型进行训练和迭代回归;
步骤3:将单目彩色图像输入到训练好的网络模型中,生成与之对应视差图;
本发明建立的无监督生成对抗网络模型包括生成器和鉴别器,生成器使用具有残差机制ResNet50网络,鉴别器使用VGG-16网络。生成器包括编码部分和解码部分;步骤3具体包括:
步骤3.1:将校正后的双目彩色图像输入到无监督生成对抗网络模型的生成器中,双目彩色图像在编码部分进行编码,在不同尺度提取图像的特征;
步骤3.2:通过解码部分进行解码,分别利用左右图像的不同尺度的特征合成左右图像各自的视差图;
步骤3.3:将左右图像的两张视差图融合为最后用于计算深度的右侧图像视差图;
步骤3.4:将融合的右侧图像视差图与输入的左侧图像做变形运算转换为合成的右侧图像;
步骤3.5:将输入的右侧图像和合成的右侧图像输入到鉴别器中用以判断输入到鉴别器图像的真假;
步骤3.6:通过多个损失函数回归网络模型参数,提升模型的回归性能和深度估计的准确性,完成模型训练。
图2为无监督生成对抗网络模型的结构图。图中,Il和Ir为输入的用于训练的双目相机左右图像对,G为图像生成器,包括Encoder编码部分和Decoder解码部分,生成器使用具有残差机制的ResNet50网络。生成器主要作用是使图像经过一系列不同的大小的卷积核,提取图像特征,组合不同的相近的特征,并保留图像原有特征。残差机制是将各个网络层的输入部分直接添加到输出,以保证输入的内容直接作用到后面的网络层,保留图像的低级特惠总能,以减小输入输出的特征。C为连接运算,W变形运算,为合成的右侧图像。D为鉴别器,使用VGGNet16网络,图像经过鉴别器不同的卷积核后,提取特征后返回预测的概率值,范围在0~1之间的数字,用来判断输入图像的真假,其中输出0为假,1为真。
图2中,Encoder和Decoder部分具体的网络结构如表1和表2,表中,k为卷积核大小,s为卷积步长,chns为每一层输入和输出的通道数,in和out为每一层输入和输出相对输入图像的尺度因子,input为每一层的输入对象,+代表级联操作,*代表该层的2倍上采样操作。
表1:Encoder部分网络结构
表2:Decoder部分网络结构
具体实施时,将处理好的训练数据集中的双目图像对输入到无监督对抗生成网络模型的生成器之中,输入双目左右图像对Il和Ir到ResNet50网络中Encoder部分进行编码,在不同尺度提取图像的特征。然后通过ResNet50网络中的Decoder部分进行解码,分别利用左右图像的不同尺度的特征合成左右图像各自的视差图dl,dr。然后将两张视差图融合为最后用于计算深度的右侧图像视差图dr’,后将融合后的视差图dr’与输入的左侧图像Il做变形运算转换为合成的右侧图像一同输入到网络模型的鉴别器D中,用以鉴别输入到鉴别器中图像的真假,鉴别器使用VGG-16网络,从而提高视差图的生成质量。
在整个模型的训练过程中,定义多个损失函数用来回归优化所述的网络模型参数,提升了模型的回归性能和深度估计的准确性,具体包括如下损失函数:
表征匹配损失函数为:
为输入的右侧图像的像素值,合成的右侧图像的像素值,α为常数;
为输入的右侧图像的像素值的均值,为合成的右侧图像的像素值的均值,为输入的右侧图像的像素值的标准差,为合成的右侧图像的像素值的标准差,为输入的右侧图像和合成的右侧图像的像素值的协方差,c1和c2为常数;
视差平滑损失函数为:
式中,为生成的对应左侧图像视差;
左右视差一致性损失函数为:
式中,为经过变换后的右侧图像视差;
图像生成损失函数为:
式中,式中λ为控制梯度惩罚的罚因子,为一个介于0~1之间的随机值,D为判别器函数,为随机变量服从P概率分布的期望值。
网络模型的总损失函数为:
式中,αap、αds、αlr、αgan为超参数。根据经验及训练的结果分析:取αap=0.85、αds=0.1、αlr=1.0、αgan=0.001。
步骤4:将视差图通过双目视差深度转换公式转换为深度信息,并合成深度图。
具体实施时,双目视差深度转换公式为:
其中,b为训练过程中使用的双目相机的左右相机基线,f为相机焦距,d为生成的视差,dis为计算得出的每个像素对应深度信息,并生成深度图。
对于生成的深度数据结果的评估,使用Abs_rel(绝对相关误差),Sq_rel(平方相关误差),rmse(均方根误差),rmse_log(均方根对数误差)和δ(深度阈值)作为评价指标。表2为评估的结果。
表2:生成的深度数据评估结果
以上所述仅为本发明的较佳实施例,并不用以限制本发明的思想,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于生成对抗网络的无监督单目深度估计方法,其特征在于,包括如下步骤:
步骤1:通过双目相机获取具有时间严格同步的左右图像对,建立双目彩色图像数据集,并对双目彩色图像进行校正;
步骤2:建立无监督生成对抗网络模型,将校正后的双目彩色图像输入到网络中,对网络模型进行训练和迭代回归;
步骤3:将单目彩色图像输入到训练好的网络模型中,生成与之对应视差图;
步骤4:将视差图通过双目视差深度转换公式转换为深度信息,并合成深度图。
2.如权利要求1所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,步骤3中的无监督生成对抗网络模型包括生成器和鉴别器,生成器包括编码部分和解码部分。
3.如权利要求2所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,步骤3包括:
步骤3.1:将校正后的双目彩色图像输入到无监督生成对抗网络模型的生成器中,双目彩色图像在编码部分进行编码,在不同尺度提取图像的特征;
步骤3.2:通过解码部分进行解码,分别利用左右图像的不同尺度的特征合成左右图像各自的视差图;
步骤3.3:将左右图像的两张视差图融合为最后用于计算深度的右侧图像视差图;
步骤3.4:将融合的右侧图像视差图与输入的左侧图像做变形运算转换为合成的右侧图像;
步骤3.5:将输入的右侧图像和合成的右侧图像输入到鉴别器中用以判断输入到鉴别器图像的真假;
步骤3.6:通过多个损失函数回归网络模型的参数,提升模型的回归性能和深度估计的准确性,完成模型训练。
4.如权利要求2所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,所述生成器使用ResNet50网络。
5.如权利要求2所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,所述鉴别器使用VGG-16网络。
6.如权利要求3所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,多个损失函数包括:表征匹配损失函数、视差平滑损失函数、左右视差一致性损失函数和图像生成损失函数。
7.如权利要求6所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于:
表征匹配损失函数为:
为输入的右侧图像的像素值,合成的右侧图像的像素值,α为常数;
为输入的右侧图像的像素值的均值,为合成的右侧图像的像素值的均值,为输入的右侧图像的像素值的标准差,为合成的右侧图像的像素值的标准差,为输入的右侧图像和合成的右侧图像的像素值的协方差,c1和c2为常数;
视差平滑损失函数为:
式中,为生成的对应左侧图像视差;
左右视差一致性损失函数为:
式中,为经过变换后的右侧图像视差;
图像生成损失函数为:
式中,式中μ为控制梯度惩罚的罚因子,λ为一个介于0~1之间的随机值,D为判别器函数,为随机变量服从P概率分布的期望值。
8.如权利要求7所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,网络模型的总损失函数为:
式中,αap、αds、αlr、αgan为超参数。
9.如权利要求1所述的基于生成对抗网络的无监督单目深度估计方法,其特征在于,所述步骤4中的双目视差深度转换公式为:
其中,b为训练过程中使用的双目相机的左右相机基线,f为相机焦距,d为生成的视差,dis为计算得出的每个像素对应深度信息,并生成深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688782.5A CN110443843A (zh) | 2019-07-29 | 2019-07-29 | 一种基于生成对抗网络的无监督单目深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688782.5A CN110443843A (zh) | 2019-07-29 | 2019-07-29 | 一种基于生成对抗网络的无监督单目深度估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110443843A true CN110443843A (zh) | 2019-11-12 |
Family
ID=68432015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910688782.5A Pending CN110443843A (zh) | 2019-07-29 | 2019-07-29 | 一种基于生成对抗网络的无监督单目深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443843A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105432A (zh) * | 2019-12-24 | 2020-05-05 | 中国科学技术大学 | 基于深度学习的无监督端到端的驾驶环境感知方法 |
CN111178501A (zh) * | 2019-12-12 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 双循环对抗网络架构的优化方法、系统、电子设备及装置 |
CN111192238A (zh) * | 2019-12-17 | 2020-05-22 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
CN111292425A (zh) * | 2020-01-21 | 2020-06-16 | 武汉大学 | 一种基于单双目混合数据集的视图合成方法 |
CN111325782A (zh) * | 2020-02-18 | 2020-06-23 | 南京航空航天大学 | 一种基于多尺度统一的无监督单目视图深度估计方法 |
CN111402397A (zh) * | 2020-02-28 | 2020-07-10 | 清华大学 | 基于无监督数据的tof深度数据优化方法及装置 |
CN111445476A (zh) * | 2020-02-27 | 2020-07-24 | 上海交通大学 | 基于多模态无监督图像内容解耦的单目深度估计方法 |
CN111652922A (zh) * | 2020-06-04 | 2020-09-11 | 江苏天宏机械工业有限公司 | 一种基于双目视觉的单目视频深度估计方法及系统 |
CN112016612A (zh) * | 2020-08-26 | 2020-12-01 | 四川阿泰因机器人智能装备有限公司 | 一种基于单目深度估计的多传感器融合slam方法 |
CN112561980A (zh) * | 2020-12-16 | 2021-03-26 | 北京航空航天大学 | 一种基于循环一致性的单目深度估计方法 |
CN112932482A (zh) * | 2021-01-28 | 2021-06-11 | 南通帕克医用材料有限公司 | 一种基于单目相机识别的穿刺技术 |
CN112991419A (zh) * | 2021-03-09 | 2021-06-18 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN113435573A (zh) * | 2021-06-07 | 2021-09-24 | 华中科技大学 | 内窥镜图像的视差预测模型建立方法及深度估计方法 |
KR20220097629A (ko) * | 2020-12-30 | 2022-07-08 | 한국기술교육대학교 산학협력단 | 비지도 학습 기반의 깊이 예측 방법 및 이를 이용하는 시스템 |
TWI803328B (zh) * | 2022-05-24 | 2023-05-21 | 鴻海精密工業股份有限公司 | 深度圖像生成方法、系統、電子設備及可讀存儲介質 |
CN117372494A (zh) * | 2023-08-07 | 2024-01-09 | 合肥工业大学 | 基于单双目视觉协同的电网作业人员视差估计及定位方法 |
US12026956B1 (en) * | 2021-10-28 | 2024-07-02 | Zoox, Inc. | Object bounding contours based on image data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201615470D0 (en) * | 2016-09-12 | 2016-10-26 | Ucl Business Plc | Predicting depth from image data using a statistical model |
CN109064511A (zh) * | 2018-08-22 | 2018-12-21 | 广东工业大学 | 一种人体重心高度测量方法、装置及相关设备 |
CN109166144A (zh) * | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109712228A (zh) * | 2018-11-19 | 2019-05-03 | 中国科学院深圳先进技术研究院 | 建立三维重建模型的方法、装置、电子设备及存储介质 |
-
2019
- 2019-07-29 CN CN201910688782.5A patent/CN110443843A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201615470D0 (en) * | 2016-09-12 | 2016-10-26 | Ucl Business Plc | Predicting depth from image data using a statistical model |
CN109166144A (zh) * | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109064511A (zh) * | 2018-08-22 | 2018-12-21 | 广东工业大学 | 一种人体重心高度测量方法、装置及相关设备 |
CN109712228A (zh) * | 2018-11-19 | 2019-05-03 | 中国科学院深圳先进技术研究院 | 建立三维重建模型的方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
PILZER A: "Unsupervised adversarial depth estimation using cycled generative networks", 《IEEE》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178501B (zh) * | 2019-12-12 | 2023-08-18 | 中国科学院深圳先进技术研究院 | 双循环对抗网络架构的优化方法、系统、电子设备及装置 |
CN111178501A (zh) * | 2019-12-12 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 双循环对抗网络架构的优化方法、系统、电子设备及装置 |
CN111192238A (zh) * | 2019-12-17 | 2020-05-22 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
CN111192238B (zh) * | 2019-12-17 | 2022-09-20 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
CN111105432B (zh) * | 2019-12-24 | 2023-04-07 | 中国科学技术大学 | 基于深度学习的无监督端到端的驾驶环境感知方法 |
CN111105432A (zh) * | 2019-12-24 | 2020-05-05 | 中国科学技术大学 | 基于深度学习的无监督端到端的驾驶环境感知方法 |
CN111292425A (zh) * | 2020-01-21 | 2020-06-16 | 武汉大学 | 一种基于单双目混合数据集的视图合成方法 |
CN111292425B (zh) * | 2020-01-21 | 2022-02-01 | 武汉大学 | 一种基于单双目混合数据集的视图合成方法 |
CN111325782A (zh) * | 2020-02-18 | 2020-06-23 | 南京航空航天大学 | 一种基于多尺度统一的无监督单目视图深度估计方法 |
CN111445476B (zh) * | 2020-02-27 | 2023-05-26 | 上海交通大学 | 基于多模态无监督图像内容解耦的单目深度估计方法 |
CN111445476A (zh) * | 2020-02-27 | 2020-07-24 | 上海交通大学 | 基于多模态无监督图像内容解耦的单目深度估计方法 |
CN111402397A (zh) * | 2020-02-28 | 2020-07-10 | 清华大学 | 基于无监督数据的tof深度数据优化方法及装置 |
CN111652922A (zh) * | 2020-06-04 | 2020-09-11 | 江苏天宏机械工业有限公司 | 一种基于双目视觉的单目视频深度估计方法及系统 |
CN111652922B (zh) * | 2020-06-04 | 2023-09-08 | 江苏天宏机械工业有限公司 | 一种基于双目视觉的单目视频深度估计方法 |
CN112016612A (zh) * | 2020-08-26 | 2020-12-01 | 四川阿泰因机器人智能装备有限公司 | 一种基于单目深度估计的多传感器融合slam方法 |
CN112561980A (zh) * | 2020-12-16 | 2021-03-26 | 北京航空航天大学 | 一种基于循环一致性的单目深度估计方法 |
KR20220097629A (ko) * | 2020-12-30 | 2022-07-08 | 한국기술교육대학교 산학협력단 | 비지도 학습 기반의 깊이 예측 방법 및 이를 이용하는 시스템 |
KR102617344B1 (ko) | 2020-12-30 | 2023-12-28 | 한국기술교육대학교 산학협력단 | 비지도 학습 기반의 깊이 예측 방법 및 이를 이용하는 시스템 |
CN112932482A (zh) * | 2021-01-28 | 2021-06-11 | 南通帕克医用材料有限公司 | 一种基于单目相机识别的穿刺技术 |
CN112991419B (zh) * | 2021-03-09 | 2023-11-14 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN112991419A (zh) * | 2021-03-09 | 2021-06-18 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN113435573A (zh) * | 2021-06-07 | 2021-09-24 | 华中科技大学 | 内窥镜图像的视差预测模型建立方法及深度估计方法 |
CN113435573B (zh) * | 2021-06-07 | 2022-04-29 | 华中科技大学 | 内窥镜图像的视差预测模型建立方法及深度估计方法 |
US12026956B1 (en) * | 2021-10-28 | 2024-07-02 | Zoox, Inc. | Object bounding contours based on image data |
TWI803328B (zh) * | 2022-05-24 | 2023-05-21 | 鴻海精密工業股份有限公司 | 深度圖像生成方法、系統、電子設備及可讀存儲介質 |
CN117372494A (zh) * | 2023-08-07 | 2024-01-09 | 合肥工业大学 | 基于单双目视觉协同的电网作业人员视差估计及定位方法 |
CN117372494B (zh) * | 2023-08-07 | 2024-09-03 | 合肥工业大学 | 基于单双目视觉协同的电网作业人员视差估计及定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443843A (zh) | 一种基于生成对抗网络的无监督单目深度估计方法 | |
Zhou et al. | Voxelnet: End-to-end learning for point cloud based 3d object detection | |
CN104036546B (zh) | 一种基于自适应形变模型的任意视角人脸三维重构方法 | |
CN111325794A (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
CN107590831B (zh) | 一种基于深度学习的立体匹配方法 | |
CN103177450A (zh) | 一种基于构件集采样的图像场景分割与分层联合求解方法 | |
CN110021043A (zh) | 一种基于立体匹配和置信度传播的场景深度获取方法 | |
CN112750198A (zh) | 一种基于非刚性点云的稠密对应预测方法 | |
CN116612468A (zh) | 基于多模态融合与深度注意力机制的三维目标检测方法 | |
CN109389588A (zh) | 度量视频连续帧与其卷积特征图间差异的方法 | |
CN116152439A (zh) | 一种基于多视角人体图像的人体三维姿态重建方法及系统 | |
CN111428555B (zh) | 一种分关节的手部姿态估计方法 | |
CN117078753A (zh) | 基于相机的渐进式特征分布采样6d位姿估计方法及系统 | |
CN109284720A (zh) | 度量视频连续帧与其卷积特征图间差异在视频行为识别中的应用 | |
Madhuanand et al. | Deep learning for monocular depth estimation from UAV images | |
CN113221744B (zh) | 一种基于深度学习的单目图像3d物体检测方法 | |
CN117711066A (zh) | 一种三维人体姿态估计方法、装置、设备及介质 | |
CN117132651A (zh) | 一种融合彩色图像和深度图像的三维人体姿态估计方法 | |
CN115496859A (zh) | 基于散乱点云交叉注意学习的三维场景运动趋势估计方法 | |
CN112419387B (zh) | 一种日光温室番茄植株图像无监督深度估计方法 | |
CN112907644A (zh) | 一种面向机器地图的视觉定位方法 | |
Liu et al. | Perceptual losses for self-supervised depth estimation | |
Jiang et al. | Real-time target detection and tracking system based on stereo camera for quadruped robots | |
Zhang | Artificial Intelligence Technology for Interactive Mobile Devices and Its Application in 3D Visual Design. | |
Yingcai et al. | Multi-scale Deep CNN Network for Unsupervised Monocular Depth Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191112 |