CN107274445B - 一种图像深度估计方法和系统 - Google Patents

一种图像深度估计方法和系统 Download PDF

Info

Publication number
CN107274445B
CN107274445B CN201710355882.7A CN201710355882A CN107274445B CN 107274445 B CN107274445 B CN 107274445B CN 201710355882 A CN201710355882 A CN 201710355882A CN 107274445 B CN107274445 B CN 107274445B
Authority
CN
China
Prior art keywords
convolution
depth estimation
image
depth
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710355882.7A
Other languages
English (en)
Other versions
CN107274445A (zh
Inventor
陶文兵
张治国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201710355882.7A priority Critical patent/CN107274445B/zh
Publication of CN107274445A publication Critical patent/CN107274445A/zh
Application granted granted Critical
Publication of CN107274445B publication Critical patent/CN107274445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像深度估计方法和系统,其中方法的实现包括:构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。本发明方法效率高,得到深度图精确度高、致密性强。

Description

一种图像深度估计方法和系统
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种图像深度估计方法和系统。
背景技术
图像深度估计被广泛应用到智能车避障,机器人控制,汽车辅助驾驶,增强现实等应用领域。道路场景下基于视觉的图像深度估计,利用计算机视觉技术,通过处理摄像头捕捉的图像,获得引导信息。与其他引导技术相比,基于视觉的方法不必增加其他的传感器设施,易于对采集设备进行扩展。随着我国车辆拥有数量的增加和道路状况的日益复杂以及对辅助驾驶功能的更高要求,基于视觉的图像深度估计也被广泛地应用到智能辅助驾驶之中。
目前道路场景下基于计算机视觉的深度估计方法主要分为两种:1)基于双目图像的深度估计方法;2)基于单目图像的深度估计方法。
基于双目图像的道路场景深度估计方法是通过安装在两个不同角度的摄像机对同一个场景从不同的视角拍摄,然后通过两幅图像以及两幅图像之间的基本几何关系恢复场景的三维信息,从而获得场景中每个像素点的深度估计值。在智能辅助驾驶中,利用获得的深度值对前方障碍物进行预警。但是,基于双目图像的道路场景深度估计方法存在大量的问题。如双目摄像机在车辆行驶过程中的自标定问题,双目相机的计算量大问题等。这些问题造成了基于双目相机的道路场景深度估计的不准确和不实用。
基于单目图像的道路场景深度估计方法又可以分为非基于学习的方法和基于学习的方法。非基于学习的方法通常是给定一部分的道路场景图像以及场景图像所对应的深度图像作为参考图像集合,然后根据拍摄的当前帧图像与参考的图像集合中的道路场景图像中的图像匹配结果,获得道路场景的深度信息。方法的计算复杂度非常高,检测图像和参考图像集合中进行匹配的过程一般非常缓慢。并且,方法一般要求参考图像集合中的图像与拍摄的图像具有相似的空间结构,并且需要花费极大的存储空间维护一个数据庞大的参考图像集合。基于学习的道路场景深度估计方法一般是以场景图像以及图像的深度作为输入,学习道路场景图像与深度图像之间的对应关系,获得深度模型。然后利用深度模型对输入的图像中场景深度进行预测,获得场景中目标或者像素的深度信息。当前大部分的基于学习的道路场景图像深度估计方法是通过深度学习的方法进行的。但是,大部分的基于深度学习的深度估计方法是针对单幅图像或者双目图像中的左右立体图像而言的,并且往往需要光流等信息作为辅助进行输入计算,不能直接实现端对端的深度估计计算,同时也造成了深度估计计算不准确等问题。另外一个问题是当前的基于深度学习方法的深度估计是将深度估计问题看作分类问题来处理,采用全连接层,最终得到的结果不能够直接输出与输入图像相同尺度大小的深度图,即得到的结果是非致密的,需要后期进一步的上采样才能够得到最终的输出结果。同时,网络层数过深,使得运算速度非常慢,要实现像素级的深度估计需要大量的运存。
由此可见,现有技术存在精确度低、效率低、且最终得到的深度图是非致密的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种图像深度估计方法和系统,其目的在于构建深度估计网络,利用训练样本训练深度估计网络,得到训练好的深度估计网络;采集测试图像输入深度估计网络,得到深度图,由此解决现有技术存在精确度低、效率低、且最终得到的深度图是非致密的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种图像深度估计方法,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
(1-2)卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
(1-3)解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,步骤(2)还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
进一步的,步骤(3)还包括利用高斯滤波对深度图进行平滑处理。
按照本发明的另一方面,提供了一种图像深度估计系统,包括:
构建深度估计网络模块,用于构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
训练深度估计网络模块,用于选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
在线深度估计模块,用于采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,构建深度估计网络模块包括:
构建编码部分子模块,用于构建编码部分,编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
构建卷积连接部分子模块,用于构建卷积连接部分,卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
构建解码部分子模块,用于构建解码部分,解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
构建深度估计网络子模块,用于利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,训练深度估计网络模块还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,在线深度估计模块还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
进一步的,在线深度估计模块还包括利用高斯滤波对深度图进行平滑处理。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明利用深度估计网络实现图像深度的快速估计,并且能够直接得到致密的场景深度图,同时使得构造的深度估计网络具有较小的体积,容易实现在移动端系统中的快速部署,另外,本发明使用连续帧图像作为训练样本,增加了训练样本的信息量,同时加入了编码部分到解码部分之间的跳跃连接,提升了深度图估计的准确性和致密性,且效率高。
(2)将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层,实现深度估计网络的全卷积跳跃连接,进而能够实现端对端的致密深度估计,同时减少深度估计网络的参数训练量,缩小深度估计网络参数的存储空间,使得最终的深度图更加准确。
(3)优选的,对训练样本进行预处理,能够有效的解决训练样本数量过少而造成的深度估计网络的欠拟合,增强训练样本的种类和泛化性。
(4)优选的,对当前帧图像和前一帧图像进行直方图均衡化处理,能够提升深度估计网络中输入图像的对比度,提升最终深度估计的效果。
(5)优选的,对最终的深度估计图进行平滑处理,能够有效减少深度估计图中的空洞出现,提升深度估计图中的有效像素数,使深度图中前景目标和背景之间深度值平滑过渡。
附图说明
图1是本发明实施例提供的一种图像深度估计方法的流程图;
图2是本发明实施例提供的深度估计网络结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,一种图像深度估计方法,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,深度估计网络为全卷积跳跃连接的深度学习网络,如图2所示。
进一步的,步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,通过最大池操作将下一卷积块的尺度下采样为上一卷积块尺度的1/2,优选地,在本发明实施例中卷积块的数量为5个;每个卷积块中包含若干个卷积层,同一个卷积块中的卷积层尺度相同,卷积层中包含的通道数相同,同一个卷积块中的相邻卷积层通过卷积核与上一层卷积层卷积获得,相邻两个卷积层之间不使用最大池操作进行下采样,优选地,本发明中第1个卷积块中包含2层卷积层,每层卷积层中通道数量为64个;第2个卷积块中包含2层卷积层,每层卷积层中通道数量为128个;第3、4、5个卷积块各包含3层卷积层,这三个卷积块中的卷积层中包含的通道数量分别为256个、384个和512个;所有卷积层之间采用的卷积核为3×3大小,层与层之间使用校正线性单元(Rectified linear units,ReLU)作为激活函数;
(1-2)卷积连接部分包含若干层卷积核为1×1的卷积层,每层卷积层之后跟随防止过拟合(dropout)操作,并使用ReLU进行激活,优选地,本发明中卷积连接部分中卷积层的数量为3层,每层卷积连接层中包含的通道数量分别为1024个、4096个和1024个;
(1-3)解码部分包含若干层反卷积层,下一反卷积层的尺度为上一反卷积层尺度的2倍;优选地,本发明中反卷积层的数目为4层,1到4层反卷积层中包含的通道数目分别为512、384、256和128;将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层,优选地,最终反卷积层中,1到4层包含的通道数目分别是896、640、384和192;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,深度估计网络中采用的损失函数为L2损失函数,定义为:
Figure BDA0001298969450000071
其中,y和
Figure BDA0001298969450000072
分别表示真实深度值与预测深度值,yi表示第i个有效像素点的真实深度值,
Figure BDA0001298969450000073
表示第i个有效像素点的预测深度值,n表示有效像素点的个数;
进一步的,步骤(2)还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,步骤(2)包括以下子步骤:
(2-1)利用随机函数随机[1,3]内的随机数r;
(2-2)根据随机数r对训练样本进行相应的处理,当r=1时,对训练样本随机旋转同一角度。当r=2时,对训练样本在一定概率条件下进行翻转。当r=3时,对两张连续图像中RGB三个颜色通道分别乘以一个随机数,两张连续图像的同一个颜色通道所乘的随机数相同,深度图保持不变,优选地,对图像进行旋转的角度范围为-5°到5°;图像是否翻转的概率为0.5;图像颜色变化所采用的随机数范围为0.8到1.2之间。
进一步的,步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理,削弱当前帧图像和前一帧图像中因为光照变化、运动模糊等因素对深度估计的影响。
进一步的,步骤(3)还包括将预先处理后的当前帧图像和前一帧图像合并,将合并后的RGB颜色6个通道输入训练网络,得到当前帧图像所对应的深度图;利用高斯滤波对深度图进行平滑,优选地,高斯滤波的核函数大小为5×5;将平滑后的深度图归一化到[0,255]灰度间间,并输出。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种图像深度估计方法,其特征在于,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图;
所述步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
(1-2)卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
(1-3)解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络;
深度估计网络采用的损失函数为:
Figure FDA0002416656930000011
其中,y和
Figure FDA0002416656930000012
分别表示真实深度值与预测深度值,yi表示第i个有效像素点的真实深度值,
Figure FDA0002416656930000013
表示第i个有效像素点的预测深度值,n表示有效像素点的个数;
步骤(2)包括以下子步骤:
(2-1)利用随机函数随机[1,3]内的随机数r;
(2-2)根据随机数r对训练样本进行相应的处理,当r=1时,对训练样本随机旋转同一角度,当r=2时,对训练样本在一定概率条件下进行翻转, 当r=3时,对两张连续图像中RGB三个颜色通道分别乘以一个随机数,两张连续图像的同一个颜色通道所乘的随机数相同,深度图保持不变,对图像进行旋转的角度范围为-5°到5°;图像是否翻转的概率为0.5;图像颜色变化所采用的随机数范围为0.8到1.2之间。
2.如权利要求1所述的一种图像深度估计方法,其特征在于,所述步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
3.如权利要求1或2所述的一种图像深度估计方法,其特征在于,所述步骤(3)还包括利用高斯滤波对深度图进行平滑处理。
4.一种图像深度估计系统,其特征在于,包括:
构建深度估计网络模块,用于构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
训练深度估计网络模块,用于选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
在线深度估计模块,用于采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图;
所述构建深度估计网络模块包括:
构建编码部分子模块,用于构建编码部分,编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
构建卷积连接部分子模块,用于构建卷积连接部分,卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
构建解码部分子模块,用于构建解码部分,解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
构建深度估计网络子模块,用于利用编码部分、卷积连接部分和解码部分构建深度估计网络;
深度估计网络采用的损失函数为:
Figure FDA0002416656930000031
其中,y和
Figure FDA0002416656930000032
分别表示真实深度值与预测深度值,yi表示第i个有效像素点的真实深度值,
Figure FDA0002416656930000033
表示第i个有效像素点的预测深度值,n表示有效像素点的个数;
训练深度估计网络模块包括:
利用随机函数随机[1,3]内的随机数r;
根据随机数r对训练样本进行相应的处理,当r=1时,对训练样本随机旋转同一角度,当r=2时,对训练样本在一定概率条件下进行翻转, 当r=3时,对两张连续图像中RGB三个颜色通道分别乘以一个随机数,两张连续图像的同一个颜色通道所乘的随机数相同,深度图保持不变,对图像进行旋转的角度范围为-5°到5°;图像是否翻转的概率为0.5;图像颜色变化所采用的随机数范围为0.8到1.2之间。
5.如权利要求4所述的一种图像深度估计系统,其特征在于,所述在线深度估计模块还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
6.如权利要求4或5所述的一种图像深度估计系统,其特征在于,所述在线深度估计模块还包括利用高斯滤波对深度图进行平滑处理。
CN201710355882.7A 2017-05-19 2017-05-19 一种图像深度估计方法和系统 Active CN107274445B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710355882.7A CN107274445B (zh) 2017-05-19 2017-05-19 一种图像深度估计方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710355882.7A CN107274445B (zh) 2017-05-19 2017-05-19 一种图像深度估计方法和系统

Publications (2)

Publication Number Publication Date
CN107274445A CN107274445A (zh) 2017-10-20
CN107274445B true CN107274445B (zh) 2020-05-19

Family

ID=60064069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710355882.7A Active CN107274445B (zh) 2017-05-19 2017-05-19 一种图像深度估计方法和系统

Country Status (1)

Country Link
CN (1) CN107274445B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961328A (zh) * 2017-11-29 2018-12-07 北京猎户星空科技有限公司 单摄景深模型生成方法、生成装置及电子设备
US11182917B2 (en) 2017-12-08 2021-11-23 Baidu Usa Llc Stereo camera depth determination using hardware accelerator
CN108288038A (zh) * 2018-01-19 2018-07-17 东华大学 基于场景分割的夜间机器人运动决策方法
CN108491081B (zh) * 2018-03-23 2020-09-25 联想(北京)有限公司 一种基于神经网络的数据处理方法及装置
CN108537836A (zh) * 2018-04-12 2018-09-14 维沃移动通信有限公司 一种深度数据获取方法及移动终端
US10810754B2 (en) 2018-04-24 2020-10-20 Ford Global Technologies, Llc Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation
CN110827341A (zh) * 2018-08-10 2020-02-21 中国移动通信有限公司研究院 一种图片深度估计方法、装置和存储介质
CN109299656B (zh) * 2018-08-13 2021-10-22 浙江零跑科技股份有限公司 一种车载视觉系统场景视深确定方法
RU2698402C1 (ru) 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
CN109472830A (zh) * 2018-09-28 2019-03-15 中山大学 一种基于无监督学习的单目视觉定位方法
CN109522840B (zh) * 2018-11-16 2023-05-30 孙睿 一种高速路车流密度监测计算系统及方法
US11017542B2 (en) 2018-12-21 2021-05-25 Beijing Voyager Technology Co., Ld. Systems and methods for determining depth information in two-dimensional images
CN110175603B (zh) * 2019-04-01 2021-08-10 佛山缔乐视觉科技有限公司 一种雕刻文字识别方法、系统及存储介质
CN110599533B (zh) * 2019-09-20 2023-06-27 湖南大学 适用于嵌入式平台的快速单目深度估计方法
CN110782490B (zh) * 2019-09-24 2022-07-05 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN113093806B (zh) * 2021-04-07 2022-06-14 涵涡智航科技(玉溪)有限公司 一种用于飞行器空间全向避障方法及系统
CN114337849B (zh) * 2021-12-21 2023-03-14 上海交通大学 基于互信息量估计神经网络的物理层保密方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2009225320A1 (en) * 2009-10-14 2011-04-28 Canon Kabushiki Kaisha Method of decoding image using iterative DVC approach

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354565A (zh) * 2015-12-23 2016-02-24 北京市商汤科技开发有限公司 基于全卷积网络人脸五官定位与判别的方法及系统
CN106202997B (zh) * 2016-06-29 2018-10-30 四川大学 一种基于深度学习的细胞分裂检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2009225320A1 (en) * 2009-10-14 2011-04-28 Canon Kabushiki Kaisha Method of decoding image using iterative DVC approach

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STATISTICAL NEURAL NETWORKS BASED BLIND DECONVOLUTION OF SPECTROSCOPIC DATA;Jinghe Yuan等;《IEEE》;20071105;第1-5页 *

Also Published As

Publication number Publication date
CN107274445A (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
CN107274445B (zh) 一种图像深度估计方法和系统
CN112132156B (zh) 多深度特征融合的图像显著性目标检测方法及系统
CN112528878B (zh) 检测车道线的方法、装置、终端设备及可读存储介质
CN109753913B (zh) 计算高效的多模式视频语义分割方法
CN113284054A (zh) 图像增强方法以及图像增强装置
WO2021063341A1 (zh) 图像增强方法以及装置
CN111046880A (zh) 一种红外目标图像分割方法、系统、电子设备及存储介质
CN112287860A (zh) 物体识别模型的训练方法及装置、物体识别方法及系统
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN108830131B (zh) 基于深度学习的交通目标检测与测距方法
CN111696110A (zh) 场景分割方法及系统
CN113312983A (zh) 基于多模态数据融合的语义分割方法、系统、装置及介质
CN112819858B (zh) 基于视频增强的目标跟踪方法、装置、设备及存储介质
CN115861380B (zh) 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置
CN113269133A (zh) 一种基于深度学习的无人机视角视频语义分割方法
CN110956119A (zh) 一种准确且快速的图像中目标检测方法
CN112149526A (zh) 一种基于长距离信息融合的车道线检测方法及系统
CN112861987A (zh) 暗光环境下的目标检测方法
CN116665156A (zh) 多尺度融合注意力的交通头盔小目标检测系统及方法
CN115147450B (zh) 基于运动帧差图像的移动目标检测方法及检测装置
CN116309050A (zh) 图像超分辨率方法、程序产品、存储介质及电子设备
CN116977683A (zh) 对象识别方法、装置、计算机设备、存储介质和程序产品
WO2022193132A1 (zh) 图像检测方法、装置和电子设备
CN112446292B (zh) 一种2d图像显著目标检测方法及系统
CN111815529B (zh) 一种基于模型融合和数据增强的低质图像分类增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant