CN112150531A - 一种鲁棒的自监督学习单帧图像深度估计方法 - Google Patents

一种鲁棒的自监督学习单帧图像深度估计方法 Download PDF

Info

Publication number
CN112150531A
CN112150531A CN202011057349.0A CN202011057349A CN112150531A CN 112150531 A CN112150531 A CN 112150531A CN 202011057349 A CN202011057349 A CN 202011057349A CN 112150531 A CN112150531 A CN 112150531A
Authority
CN
China
Prior art keywords
depth
image
loss
frame
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011057349.0A
Other languages
English (en)
Other versions
CN112150531B (zh
Inventor
孙瑾秋
张艳宁
李睿
朱宇
何贤拓
李贤俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011057349.0A priority Critical patent/CN112150531B/zh
Publication of CN112150531A publication Critical patent/CN112150531A/zh
Application granted granted Critical
Publication of CN112150531B publication Critical patent/CN112150531B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种鲁棒的自监督学习单帧图像深度估计方法,首先生成单帧深度及帧间相对运动数据,然后依次计算光照鲁棒性损失函数、相对运动区域掩膜和环路一致性损失,最终得到网络最终损失函数。本发明能够有效提升自监督学习的深度估计方法在复杂场景下的鲁棒性以及学习能力,从而使得方法可以更好适应真实世界中光照变化剧烈、物体运动复杂的场景中,具有很强的应用价值。

Description

一种鲁棒的自监督学习单帧图像深度估计方法
技术领域
本发明涉及一种图像深度估计方法,特别是一种自监督单帧图像深度估计方法。
背景技术
基于自监督学习深度估计方法突破了基于深度学习的一般方法需要带标签数据的限制,具有重要的研究意义。文献“Godard C,Mac Aodha O,Firman M,et al.Digginginto self-supervised monocular depth estimation[C]//Proceedings of the IEEEinternational conference on computer vision.2019:3828-3838.”提出了一种基于自监督估计的深度估计方法,利用帧间残差函数最小值来处理自监督学习中场景的遮挡;并提出基于损失值的二元掩膜降低相对静止场景带来的监督信号偏差;最后采用多层级深度图升采样的方式提升多层级自监督效果。该方法有效提升了自监督估计的精度。然而,自监督深度估计方法利用图像损失函数作为监督信号,这要求相邻帧之间图像亮度稳定,且图像中不能存在相对运动的物体,如汽车、行人等。而在真实场景中,这两种要求往往难以直接满足,使得深度估计网络训练情况容易受到训练集中序列图像光照变化、物体相对运动的影响;同时,主流的自监督深度估计方法往往只利用了序列图像中相邻两帧之间的几何相关关系,而多帧帧间相关关系挖掘不足,这都阻碍了了深度估计性能的进一步提升。因此,文献所采用的方法在处理真实场景情况下的鲁棒性有所不足。文献采用图像像素值差异作为直接监督信号,未能考虑自然场景中帧间存在光照变化时对模型训练产生的影响;同时,方法提出的二元掩膜未能全面解决场景中存在的不同速运动物体导致的训练误差增大的现象;最后,包括文献方法在内的自监督学习深度估计方法未能有效挖掘多帧之间的相关信息,序列相关信息的缺乏应用限制了相关方法性能的进一步提升。
发明内容
为了克服现有技术的不足,本发明提供一种基于鲁棒约束的自监督单帧图像深度估计方法,采用一系列鲁棒的自监督深度估计损失函数,消除帧间光照变化、场景包含相对运动区域以及多帧相关关系挖掘不足对自监督深度估计造成的不利影响,采用本方法获取的场景深度信息在权威评估数据集上达到了当时最优的效果。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤一,在序列图像中截取相邻的三帧图像(It-1,It,It+1)作为一个训练样本,依次截取序列图像中所有相邻三帧图像组成训练样本集,其中,设It为目标图像,设It′∈(It-1,It+1)为两帧源图像;将It输入到深度估计网络fD中获取深度图
Figure BDA0002711199800000021
并将两个图像对(It,It′)分别输入到运动估计网络fM中,获取两对帧间运动参数(Rt→t′,tt→t′),其中Rt→t′和tt→t′分别为目标图像到源图像视角位姿变化的3*3旋转矩阵以及3*1的相对平移向量;
步骤二,将两帧源图像It′∈(It-1,It+1)生成仿真的目标图像It′→t,源图像It′上的像素pt′在目标图It上的对应点pt′=K[Rt→t′|tt→t′]Dt(pt)K-1pt,其中,Dt(pt)为像素pt位置上的深度,K为拍摄相机的内参数;计算仿真的目标图像It′→t与真实目标图像间的损失图Lp(It,It′→t)=min(r(It,It′→t)),其中min(·)为逐像素求取最小值操作,r(It,It′→t)为两帧图像间像素误差值;
步骤三,采用掩膜与损失图逐像素相乘的方法剔除相对运动区域;
步骤四,计算环路一致性损失
Figure BDA0002711199800000022
其中I为单位矩阵,Rt-1→t,Rt→t+1,Rt+1→t-1分别为三张输入图(It-1,It,It+1)两两输入运动估计网络中得到的旋转矩阵,
Figure BDA0002711199800000023
为矩阵乘法,避免估计退化的正则项
Figure BDA0002711199800000024
||R′i→j||为矩阵Ri→j非对角线元素绝对值之和;
步骤五,计算网络最终输入的损失
Figure BDA0002711199800000025
其中Lp为损失图,
Figure BDA0002711199800000026
为运动区域掩膜,Lc为环路一致性损失,λ、μ为权重参数,深度图平滑性约束
Figure BDA0002711199800000027
Figure BDA0002711199800000028
为It深度图估计结果,|·|为取绝对值操作。
所述的深度估计网络fD是以ResNet18为编码器的UNet结构。
所述的运动估计网络fM以ResNet18为编码器。
所述的
Figure BDA0002711199800000029
其中,SSIM为图像质量评估算法,α为权重参数,||·||1代表求取L1范数,图像梯度值
Figure BDA00027111998000000210
所述的权重参数α设为0.85。
所述的掩膜
Figure BDA0002711199800000031
其中,残差一致掩膜
Figure BDA0002711199800000032
β、ε为控制阈值超参数,
Figure BDA0002711199800000033
为Iverson括号操作,Ldisp=||Lp(It,It-1→t)-Lp(It,It+1→t)||1;残差-梯度一致掩膜
Figure BDA0002711199800000034
ξ为阈值参数,残差-梯度一致性计算值
Figure BDA0002711199800000035
所述的控制阈值超参数β、ε分别为3.5和0.06。
所述的阈值参数ξ设置为0.45。
本发明的有益效果是:针对当前自监督深度估计方法在面对光照变化、物体相对运动等复杂场景时鲁棒性不足的问题,从算法损失图计算、相对运动区域掩膜设计以及鲁棒损失设计等方向入手,全面提升了自监督深度估计方法的鲁棒性和有效性:
1)本发明提出了一种优选的基于光照不变性像素误差rIL(It,It′→t)的损失图计算方法,通过求取梯度操作有效抑制和消除了邻域的光照变化,从而克服了现有技术未考虑场景光照变化从而导致模型训练产生偏差的问题,有效抑制场景中光照对损失图计算的不利影响。
2)本发明提出了一种优选的综合运动区域掩膜
Figure BDA0002711199800000036
通过结合残差一致和残差-梯度一致约束,从而克服了现有方法的二元掩膜无法全面定位场景中存在的不同速运动物体的缺陷,从而更全面、准确对场景中相对运动区域进行估计,降低运动区域对于网络训练的负面影响。
3)本发明提出了一种基于环路一致性的损失,此损失利用帧间环路运动参数构成的一致性约束,有效填补了自监督深度估计现有方法未能有效挖掘多帧相关信息的技术空白,进而全面提升了深度图的估计效果。
基于以上提出的整体框架以及重点技术手段,本发明可有效提升自监督学习的深度估计方法在复杂场景下的鲁棒性以及学习能力,从而使得方法可以更好适应真实世界中光照变化剧烈、物体运动复杂的场景中,具有很强的应用价值。
具体实施方式
下面结合实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
本发明的实施例包括以下步骤:
步骤一:单帧深度及帧间相对运动数据生成。
本方法训练样本为序列图像数据,输入数据分辨率为192*640像素。在序列图像中截取相邻的三帧图像(It-1,It,It+1)作为一个训练样本,进而按顺序截取序列中的所有相邻三帧图像组成训练样本集。其中设It为目标图像,设It′∈(It-1,It+1)为两帧源图像。进而将It输入到深度估计网络fD中获取深度图
Figure BDA0002711199800000041
其中深度估计网络利用经典的UNet结构,其编码器采用ResNet18网络,并由多个卷积层以及上采样层构成解码器,编码器与解码器之间构建4个跳层连接。同时,将目标图与两帧源图像构成的两个图像对(It,It′)分别输入到运动估计网络fM中,从而获取两对帧间运动参数。其中运动网络采用与深度估计网络结构一致的独立编码器网络,其输出的一系列运动参数(Rt→t′,tt→t′)描述了图像对(It,It′)帧间的立体运动。其中Rt→t′和tt→t′分别为目标图像到源图像的3*3旋转矩阵,以及3*1的相对平移向量。
步骤二:光照鲁棒性损失函数计算。
依赖上一步骤获取的It的深度值以及(It,It′)之间的运动参数(Rt→t′,tt→t′),可以依据如下公知公式将两帧源图像直接生成仿真的目标图像It′→t
pt′=K[Rt→t′|tt→t′]Dt(pt)K-1pt (1)
其中pt为源图像It′上的像素pt′在目标图It上的对应点,Dt(pt)为像素pt位置上的深度,K为拍摄相机的已知的内参数。[Rt→t′|tt→t′]为图像It到It′的帧间运动参数。计算仿真的目标图像It′→t与真实目标图像It间的损失图Lp(It,It′→t),用以作为监督深度估计网络fD以及运动估计网络fM的信号:
Lp(It,It′→t)=min(r(It,It′→t)) (2)
其中,min(·)为帧间求取最小值操作,r(It,It′→t)为两帧图像间像素误差值,常规方法中误差值计算如下:
Figure BDA0002711199800000042
其中,SSIM为已有经典的图像质量评估算法,α为权重参数,其值设为0.85。||·||1代表求取L1范数。
本发明为避免因相邻帧因光照变化导致像素误差r(It,It′→t)难以准确训练神经网络的问题,发明了一种优选的基于梯度的光照鲁棒性像素误差rIL(It,It′→t):
Figure BDA0002711199800000051
其中,G(I)为图像梯度值,分别在x,y方向上计算目标的梯度值并相加:
Figure BDA0002711199800000052
Figure BDA0002711199800000053
Figure BDA0002711199800000054
为在x,y方向求取梯度操作。方法通过求取图像邻域的梯度信息,从而抵消相邻像素间存在的加性光照变化,并消除图像中低梯度区域上的乘性光照变化,进而有效抑制光照变化对损失图造成的影响。
步骤三:相对运动区域掩膜计算。
上一步生成损失图Lp(It,It′→t)后,开展相对运动区域剔除。相对运动区域的剔除采用掩膜
Figure BDA0002711199800000055
与损失图Lp(It,It′→t)逐像素相乘的方法,设图像中不存在相对运动区域的掩膜值为1,存在相对运动区域的掩膜值为0,从而运用损失图Lp(It,It′→t)与掩膜值
Figure BDA0002711199800000056
逐像素相乘的方式滤除损失函数中因相对运动区域导致误差错误区域,即滤除运动后的残差值为:
Figure BDA0002711199800000057
本发明中,为更加全面、准确的提取场景中的相对运动区域,发明了一种优选的综合运动区域掩膜
Figure BDA0002711199800000058
来代替常规的运动区域掩膜
Figure BDA0002711199800000059
此掩膜由两子掩膜构成:残差一致掩膜
Figure BDA00027111998000000510
及残差-梯度一致掩膜
Figure BDA00027111998000000511
Figure BDA00027111998000000512
其中,⊙代表逐像素相乘的矩阵Hadamard乘积。
(1)残差一致子掩膜
Figure BDA00027111998000000513
计算。
对于残差一致子掩膜
Figure BDA00027111998000000514
其利用静态场景中相邻损失图之间的一致性特点,进而定位相邻损失图之间不一致的部位作为运动区域来剔除,其计算方式为:
Figure BDA00027111998000000515
其中β为损失图差异容忍度超参数,其值为3.5,ε用以处理损失图某区域值为0导致掩膜失效情况,其值设为0.06。
Figure BDA00027111998000000516
为Iverson括号,其输出结果为与输入L尺寸相同的0-1二值图,当L中像素满足L<ω时,输出图对应位置的值为1,否则为0。Ldisp为两帧损失图间的差异图:
Ldisp=||Lp(It,It-1→t)-Lp(It,It+1→t)||1 (9)
其中,||·||1代表对差异值求取矩阵L1范数。
(2)残差-梯度一致子掩膜MGL计算。
对于残差-梯度一致子掩膜MGL,其立足静态场景中,图像低梯度区域的损失值也较低的特点,从而提取场景中低梯度但高损失的区域作为运动区域剔除。其计算方式为:
Figure BDA0002711199800000061
其中ξ为阈值参数,在本发明中设置为0.45;C为残差-梯度一致性值,用以衡量图像区域中梯度与损失图的一致性。在本发明中的计算方式为:
Figure BDA0002711199800000062
步骤四:环路一致性损失计算。
常规自监督深度估计方法并未考虑序列图像环路一致性信息,为了更好利用图像序列的关联关系,提升网络学习能力,本发明提出了自监督网络训练中的环路一致性损失Lc。获取相对运动区域剔除处理后的残差图后,利用理想状态下,帧间旋转运动矩阵叠加后与单位矩阵一致的约束设计一致性损失。其计算方法为:
Figure BDA0002711199800000063
其中I为单位矩阵,Rt-1→t,Rt→t+1,Rt+1→t-1分别为图(It-1,It),(It,It+1),(It+1,It-1)输入运动估计网络中得到的旋转矩阵,
Figure BDA0002711199800000064
为矩阵乘法操作,Lreg为避免旋转运动矩阵R估计退化为单位矩阵的正则项:
Figure BDA0002711199800000065
其中||R′i→j||为矩阵Ri→j非对角线元素绝对值之和。
步骤五:网络最终损失函数计算。
本发明中,网络最终输入的损失函数Lfinal为:
Figure BDA0002711199800000066
其中Lp为加入基于梯度的光照鲁棒性像素误差rIL(It,It′→t)后的损失图,
Figure BDA0002711199800000071
运动区域剔除掩膜,Lc为环路一致性损失,λ=0.1,μ=0.01为权重参数。Ls为自监督深度估计方法中常用的深度图平滑性约束:
Figure BDA0002711199800000072
其中
Figure BDA0002711199800000073
为It深度图估计结果,|·|为取绝对值操作。
本发明提出了一系列基于图像以及几何的鲁棒约束。发明提出了一种基于梯度信息的光照鲁棒损失函数,可有效降低帧间光照变化对网络训练产生的不利影响;提出了一种运动区域滤除掩膜,可基于损失图一致性与梯度-损失一致性对场景中相对运动区域精准定位及剔除;提出一种基于环路一致性约束的损失函数,将环路一致性引入网络训练,从而提升运动估计网络及深度估计网络的学习能力。本发明提出的方法有效提升了基于自监督学习的估计效果,在权威评估数据集上取得当时最好的估计结果。

Claims (8)

1.一种鲁棒的自监督学习单帧图像深度估计方法,其特征在于包括以下步骤:
步骤一,在序列图像中截取相邻的三帧图像(It-1,It,It+1)作为一个训练样本,依次截取序列图像中所有相邻三帧图像组成训练样本集,其中,设It为目标图像,设It′∈(It-1,It+1)为两帧源图像;将It输入到深度估计网络fD中获取深度图
Figure FDA0002711199790000011
并将两个图像对(It,It′)分别输入到运动估计网络fM中,获取两对帧间运动参数(Rt→t′,tt→t′),其中Rt→t′和tt→t′分别为目标图像到源图像视角位姿变化的3*3旋转矩阵以及3*1的相对平移向量;
步骤二,将两帧源图像It′∈(It-1,It+1)生成仿真的目标图像It′→t,源图像It′上的像素pt′在目标图It上的对应点pt′=K[Rt→t′|tt→t′]Dt(pt)K-1pt,其中,Dt(pt)为像素pt位置上的深度,K为拍摄相机的内参数;计算仿真的目标图像It′→t与真实目标图像间的损失图Lp(It,It′→t)=min(r(It,It′→t)),其中min(·)为逐像素求取最小值操作,r(It,It′→t)为两帧图像间像素误差值;
步骤三,采用掩膜与损失图逐像素相乘的方法剔除相对运动区域;
步骤四,计算环路一致性损失
Figure FDA0002711199790000012
其中I为单位矩阵,Rt-1→t,Rt→t+1,Rt+1→t-1分别为三张输入图(It-1,It,It+1)两两输入运动估计网络中得到的旋转矩阵,
Figure FDA0002711199790000013
为矩阵乘法,避免估计退化的正则项
Figure FDA0002711199790000014
||R′i→j||为矩阵Ri→j非对角线元素绝对值之和;
步骤五,计算网络最终输入的损失
Figure FDA0002711199790000015
其中Lp为损失图,
Figure FDA0002711199790000016
为运动区域掩膜,Lc为环路一致性损失,λ、μ为权重参数,深度图平滑性约束
Figure FDA0002711199790000017
Figure FDA0002711199790000018
为It深度图估计结果,|·|为取绝对值操作。
2.根据权利要求1所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的深度估计网络fD是以ResNet18为编码器的UNet结构。
3.根据权利要求1所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的运动估计网络fM以ResNet18为编码器。
4.根据权利要求1所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的
Figure FDA0002711199790000021
其中,SSIM为图像质量评估算法,α为权重参数,||·||1代表求取L1范数,图像梯度值
Figure FDA0002711199790000022
5.根据权利要求4所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的权重参数α设为0.85。
6.根据权利要求1所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的掩膜
Figure FDA0002711199790000023
其中,残差一致掩膜
Figure FDA0002711199790000024
β、ε为控制阈值超参数,
Figure FDA0002711199790000025
为Iverson括号操作,Ldisp=||Lp(It,It-1→t)-Lp(It,It+1→t)||1;残差-梯度一致掩膜
Figure FDA0002711199790000026
ξ为阈值参数,残差-梯度一致性计算值
Figure FDA0002711199790000027
7.根据权利要求6所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的控制阈值超参数β、ε分别为3.5和0.06。
8.根据权利要求6所述的鲁棒的自监督学习单帧图像深度估计方法,其特征在于:所述的阈值参数ξ设置为0.45。
CN202011057349.0A 2020-09-29 2020-09-29 一种鲁棒的自监督学习单帧图像深度估计方法 Active CN112150531B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011057349.0A CN112150531B (zh) 2020-09-29 2020-09-29 一种鲁棒的自监督学习单帧图像深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011057349.0A CN112150531B (zh) 2020-09-29 2020-09-29 一种鲁棒的自监督学习单帧图像深度估计方法

Publications (2)

Publication Number Publication Date
CN112150531A true CN112150531A (zh) 2020-12-29
CN112150531B CN112150531B (zh) 2022-12-09

Family

ID=73894627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011057349.0A Active CN112150531B (zh) 2020-09-29 2020-09-29 一种鲁棒的自监督学习单帧图像深度估计方法

Country Status (1)

Country Link
CN (1) CN112150531B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139990A (zh) * 2021-05-08 2021-07-20 电子科技大学 一种基于内容感知的深度网格流鲁棒图像对齐方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765479A (zh) * 2018-04-04 2018-11-06 上海工程技术大学 利用深度学习对视频序列中单目视图深度估计优化方法
CN108961327A (zh) * 2018-05-22 2018-12-07 深圳市商汤科技有限公司 一种单目深度估计方法及其装置、设备和存储介质
US20190139179A1 (en) * 2017-11-03 2019-05-09 Baidu Usa Llc Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
CN110009674A (zh) * 2019-04-01 2019-07-12 厦门大学 基于无监督深度学习的单目图像景深实时计算方法
CN110335337A (zh) * 2019-04-28 2019-10-15 厦门大学 一种基于端到端半监督生成对抗网络的视觉里程计的方法
US20190332942A1 (en) * 2016-12-29 2019-10-31 Zhejiang Gongshang University Method for generating spatial-temporally consistent depth map sequences based on convolution neural networks
CN110443842A (zh) * 2019-07-24 2019-11-12 大连理工大学 基于视角融合的深度图预测方法
CN110503680A (zh) * 2019-08-29 2019-11-26 大连海事大学 一种基于非监督的卷积神经网络单目场景深度估计方法
CN110910447A (zh) * 2019-10-31 2020-03-24 北京工业大学 一种基于动静态场景分离的视觉里程计方法
CN110910437A (zh) * 2019-11-07 2020-03-24 大连理工大学 一种复杂室内场景的深度预测方法
US20200134847A1 (en) * 2018-10-31 2020-04-30 Bentley Systems, Incorporated Structure depth-aware weighting in bundle adjustment
CN111325797A (zh) * 2020-03-03 2020-06-23 华东理工大学 一种基于自监督学习的位姿估计方法
CN111369608A (zh) * 2020-05-29 2020-07-03 南京晓庄学院 一种基于图像深度估计的视觉里程计方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190332942A1 (en) * 2016-12-29 2019-10-31 Zhejiang Gongshang University Method for generating spatial-temporally consistent depth map sequences based on convolution neural networks
US20190139179A1 (en) * 2017-11-03 2019-05-09 Baidu Usa Llc Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
CN108765479A (zh) * 2018-04-04 2018-11-06 上海工程技术大学 利用深度学习对视频序列中单目视图深度估计优化方法
CN108961327A (zh) * 2018-05-22 2018-12-07 深圳市商汤科技有限公司 一种单目深度估计方法及其装置、设备和存储介质
US20200134847A1 (en) * 2018-10-31 2020-04-30 Bentley Systems, Incorporated Structure depth-aware weighting in bundle adjustment
CN110009674A (zh) * 2019-04-01 2019-07-12 厦门大学 基于无监督深度学习的单目图像景深实时计算方法
CN110335337A (zh) * 2019-04-28 2019-10-15 厦门大学 一种基于端到端半监督生成对抗网络的视觉里程计的方法
CN110443842A (zh) * 2019-07-24 2019-11-12 大连理工大学 基于视角融合的深度图预测方法
CN110503680A (zh) * 2019-08-29 2019-11-26 大连海事大学 一种基于非监督的卷积神经网络单目场景深度估计方法
CN110910447A (zh) * 2019-10-31 2020-03-24 北京工业大学 一种基于动静态场景分离的视觉里程计方法
CN110910437A (zh) * 2019-11-07 2020-03-24 大连理工大学 一种复杂室内场景的深度预测方法
CN111325797A (zh) * 2020-03-03 2020-06-23 华东理工大学 一种基于自监督学习的位姿估计方法
CN111369608A (zh) * 2020-05-29 2020-07-03 南京晓庄学院 一种基于图像深度估计的视觉里程计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CLÉMENT GODARD 等: "Digging into self-supervised monocular depth estimation", 《IN PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
JIA-WANG BIAN 等: "Unsupervised Scale-consistent Depth and Ego-motion Learning from Monocular Video", 《ARXIV:1908.10553V2》 *
YANG WANG 等: "UnOS: Unified Unsupervised Optical-flow and Stereo-depth Estimation by Watching Videos", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
梁欣凯 等: "基于深度学习的序列图像深度估计技术", 《红外与激光工程》 *
许路 等: "基于深层卷积神经网络的单目红外图像深度估计", 《光学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139990A (zh) * 2021-05-08 2021-07-20 电子科技大学 一种基于内容感知的深度网格流鲁棒图像对齐方法
CN113139990B (zh) * 2021-05-08 2022-03-15 电子科技大学 一种基于内容感知的深度网格流鲁棒图像对齐方法

Also Published As

Publication number Publication date
CN112150531B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
US10970600B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
CN111062872B (zh) 一种基于边缘检测的图像超分辨率重建方法及系统
CN108510485B (zh) 一种基于卷积神经网络的无参照图像质量评估方法
CN110782490B (zh) 一种具有时空一致性的视频深度图估计方法及装置
CN111489372B (zh) 基于级联卷积神经网络的视频前背景分离方法
CN108765479A (zh) 利用深度学习对视频序列中单目视图深度估计优化方法
CN114972134B (zh) 一种提取并融合局部和全局特征的低光图像增强方法
CN115393227B (zh) 基于深度学习的微光全彩视频图像自适应增强方法及系统
CN112580473A (zh) 一种融合运动特征的视频超分辨率重构方法
CN111612703A (zh) 一种基于生成对抗网络的图像盲去模糊方法
CN113077505A (zh) 一种基于对比学习的单目深度估计网络的优化方法
CN114170286A (zh) 一种基于无监督深度学习的单目深度估计方法
CN112164010A (zh) 一种多尺度融合卷积神经网络图像去雾方法
CN112150531B (zh) 一种鲁棒的自监督学习单帧图像深度估计方法
CN113610912B (zh) 三维场景重建中低分辨率图像单目深度估计系统及方法
Liang et al. Learning to remove sandstorm for image enhancement
CN110536064A (zh) 一种固定场景的像素级精度视频图像去抖动方法
CN114494050A (zh) 一种基于事件相机的自监督视频去模糊和图像插帧方法
CN112270691A (zh) 一种基于动态滤波器网络的单目视频结构和运动预测方法
CN111429375A (zh) 日间图像参照辅助的夜晚监控视频质量提升方法
CN110675320A (zh) 一种空间参数变化及复杂场景下目标图像清晰化方法
CN115760640A (zh) 基于含噪Retinex模型的煤矿低光照图像增强方法
RU2754965C1 (ru) Устройство восстановления изображений в пространстве кватернионов с использованием анизотропного градиента и нейронной сети
CN107301625A (zh) 基于亮度融合网络的图像去雾算法
CN115937011B (zh) 一种基于时滞特征回归的关键帧位姿优化视觉slam方法、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Sun Jinqiu

Inventor after: Zhang Yanning

Inventor after: Li Rui

Inventor after: Zhu Yu

Inventor after: He Xiantuo

Inventor after: Li Xianjun

Inventor after: Li Junzhi

Inventor before: Sun Jinqiu

Inventor before: Zhang Yanning

Inventor before: Li Rui

Inventor before: Zhu Yu

Inventor before: He Xiantuo

Inventor before: Li Xianjun

CB03 Change of inventor or designer information