CN107274445A - 一种图像深度估计方法和系统 - Google Patents
一种图像深度估计方法和系统 Download PDFInfo
- Publication number
- CN107274445A CN107274445A CN201710355882.7A CN201710355882A CN107274445A CN 107274445 A CN107274445 A CN 107274445A CN 201710355882 A CN201710355882 A CN 201710355882A CN 107274445 A CN107274445 A CN 107274445A
- Authority
- CN
- China
- Prior art keywords
- depth
- estimation
- image
- layer
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种图像深度估计方法和系统,其中方法的实现包括:构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。本发明方法效率高,得到深度图精确度高、致密性强。
Description
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种图像深度估计方法和系统。
背景技术
图像深度估计被广泛应用到智能车避障,机器人控制,汽车辅助驾驶,增强现实等应用领域。道路场景下基于视觉的图像深度估计,利用计算机视觉技术,通过处理摄像头捕捉的图像,获得引导信息。与其他引导技术相比,基于视觉的方法不必增加其他的传感器设施,易于对采集设备进行扩展。随着我国车辆拥有数量的增加和道路状况的日益复杂以及对辅助驾驶功能的更高要求,基于视觉的图像深度估计也被广泛地应用到智能辅助驾驶之中。
目前道路场景下基于计算机视觉的深度估计方法主要分为两种:1)基于双目图像的深度估计方法;2)基于单目图像的深度估计方法。
基于双目图像的道路场景深度估计方法是通过安装在两个不同角度的摄像机对同一个场景从不同的视角拍摄,然后通过两幅图像以及两幅图像之间的基本几何关系恢复场景的三维信息,从而获得场景中每个像素点的深度估计值。在智能辅助驾驶中,利用获得的深度值对前方障碍物进行预警。但是,基于双目图像的道路场景深度估计方法存在大量的问题。如双目摄像机在车辆行驶过程中的自标定问题,双目相机的计算量大问题等。这些问题造成了基于双目相机的道路场景深度估计的不准确和不实用。
基于单目图像的道路场景深度估计方法又可以分为非基于学习的方法和基于学习的方法。非基于学习的方法通常是给定一部分的道路场景图像以及场景图像所对应的深度图像作为参考图像集合,然后根据拍摄的当前帧图像与参考的图像集合中的道路场景图像中的图像匹配结果,获得道路场景的深度信息。方法的计算复杂度非常高,检测图像和参考图像集合中进行匹配的过程一般非常缓慢。并且,方法一般要求参考图像集合中的图像与拍摄的图像具有相似的空间结构,并且需要花费极大的存储空间维护一个数据庞大的参考图像集合。基于学习的道路场景深度估计方法一般是以场景图像以及图像的深度作为输入,学习道路场景图像与深度图像之间的对应关系,获得深度模型。然后利用深度模型对输入的图像中场景深度进行预测,获得场景中目标或者像素的深度信息。当前大部分的基于学习的道路场景图像深度估计方法是通过深度学习的方法进行的。但是,大部分的基于深度学习的深度估计方法是针对单幅图像或者双目图像中的左右立体图像而言的,并且往往需要光流等信息作为辅助进行输入计算,不能直接实现端对端的深度估计计算,同时也造成了深度估计计算不准确等问题。另外一个问题是当前的基于深度学习方法的深度估计是将深度估计问题看作分类问题来处理,采用全连接层,最终得到的结果不能够直接输出与输入图像相同尺度大小的深度图,即得到的结果是非致密的,需要后期进一步的上采样才能够得到最终的输出结果。同时,网络层数过深,使得运算速度非常慢,要实现像素级的深度估计需要大量的运存。
由此可见,现有技术存在精确度低、效率低、且最终得到的深度图是非致密的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种图像深度估计方法和系统,其目的在于构建深度估计网络,利用训练样本训练深度估计网络,得到训练好的深度估计网络;采集测试图像输入深度估计网络,得到深度图,由此解决现有技术存在精确度低、效率低、且最终得到的深度图是非致密的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种图像深度估计方法,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
(1-2)卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
(1-3)解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,步骤(2)还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
进一步的,步骤(3)还包括利用高斯滤波对深度图进行平滑处理。
按照本发明的另一方面,提供了一种图像深度估计系统,包括:
构建深度估计网络模块,用于构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
训练深度估计网络模块,用于选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
在线深度估计模块,用于采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,构建深度估计网络模块包括:
构建编码部分子模块,用于构建编码部分,编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
构建卷积连接部分子模块,用于构建卷积连接部分,卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
构建解码部分子模块,用于构建解码部分,解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
构建深度估计网络子模块,用于利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,训练深度估计网络模块还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,在线深度估计模块还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
进一步的,在线深度估计模块还包括利用高斯滤波对深度图进行平滑处理。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明利用深度估计网络实现图像深度的快速估计,并且能够直接得到致密的场景深度图,同时使得构造的深度估计网络具有较小的体积,容易实现在移动端系统中的快速部署,另外,本发明使用连续帧图像作为训练样本,增加了训练样本的信息量,同时加入了编码部分到解码部分之间的跳跃连接,提升了深度图估计的准确性和致密性,且效率高。
(2)将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层,实现深度估计网络的全卷积跳跃连接,进而能够实现端对端的致密深度估计,同时减少深度估计网络的参数训练量,缩小深度估计网络参数的存储空间,使得最终的深度图更加准确。
(3)优选的,对训练样本进行预处理,能够有效的解决训练样本数量过少而造成的深度估计网络的欠拟合,增强训练样本的种类和泛化性。
(4)优选的,对当前帧图像和前一帧图像进行直方图均衡化处理,能够提升深度估计网络中输入图像的对比度,提升最终深度估计的效果。
(5)优选的,对最终的深度估计图进行平滑处理,能够有效减少深度估计图中的空洞出现,提升深度估计图中的有效像素数,使深度图中前景目标和背景之间深度值平滑过渡。
附图说明
图1是本发明实施例提供的一种图像深度估计方法的流程图;
图2是本发明实施例提供的深度估计网络结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,一种图像深度估计方法,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
进一步的,深度估计网络为全卷积跳跃连接的深度学习网络,如图2所示。
进一步的,步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,通过最大池操作将下一卷积块的尺度下采样为上一卷积块尺度的1/2,优选地,在本发明实施例中卷积块的数量为5个;每个卷积块中包含若干个卷积层,同一个卷积块中的卷积层尺度相同,卷积层中包含的通道数相同,同一个卷积块中的相邻卷积层通过卷积核与上一层卷积层卷积获得,相邻两个卷积层之间不使用最大池操作进行下采样,优选地,本发明中第1个卷积块中包含2层卷积层,每层卷积层中通道数量为64个;第2个卷积块中包含2层卷积层,每层卷积层中通道数量为128个;第3、4、5个卷积块各包含3层卷积层,这三个卷积块中的卷积层中包含的通道数量分别为256个、384个和512个;所有卷积层之间采用的卷积核为3×3大小,层与层之间使用校正线性单元(Rectified linear units,ReLU)作为激活函数;
(1-2)卷积连接部分包含若干层卷积核为1×1的卷积层,每层卷积层之后跟随防止过拟合(dropout)操作,并使用ReLU进行激活,优选地,本发明中卷积连接部分中卷积层的数量为3层,每层卷积连接层中包含的通道数量分别为1024个、4096个和1024个;
(1-3)解码部分包含若干层反卷积层,下一反卷积层的尺度为上一反卷积层尺度的2倍;优选地,本发明中反卷积层的数目为4层,1到4层反卷积层中包含的通道数目分别为512、384、256和128;将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层,优选地,最终反卷积层中,1到4层包含的通道数目分别是896、640、384和192;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络。
进一步的,深度估计网络中采用的损失函数为L2损失函数,定义为:
其中,y和分别表示真实深度值与预测深度值,yi表示第i个有效像素点的真实深度值,表示第i个有效像素点的预测深度值,n表示有效像素点的个数;
进一步的,步骤(2)还包括对训练样本进行预处理,使得训练样本具有泛化性。
进一步的,步骤(2)包括以下子步骤:
(2-1)利用随机函数随机[1,3]内的随机数r;
(2-2)根据随机数r对训练样本进行相应的处理,当r=1时,对训练样本随机旋转同一角度。当r=2时,对训练样本在一定概率条件下进行翻转。当r=3时,对两张连续图像中RGB三个颜色通道分别乘以一个随机数,两张连续图像的同一个颜色通道所乘的随机数相同,深度图保持不变,优选地,对图像进行旋转的角度范围为-5°到5°;图像是否翻转的概率为0.5;图像颜色变化所采用的随机数范围为0.8到1.2之间。
进一步的,步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理,削弱当前帧图像和前一帧图像中因为光照变化、运动模糊等因素对深度估计的影响。
进一步的,步骤(3)还包括将预先处理后的当前帧图像和前一帧图像合并,将合并后的RGB颜色6个通道输入训练网络,得到当前帧图像所对应的深度图;利用高斯滤波对深度图进行平滑,优选地,高斯滤波的核函数大小为5×5;将平滑后的深度图归一化到[0,255]灰度间间,并输出。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种图像深度估计方法,其特征在于,包括:
(1)构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(2)选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
(3)采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
2.如权利要求1所述的一种图像深度估计方法,其特征在于,所述步骤(1)包括以下子步骤:
(1-1)编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
(1-2)卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
(1-3)解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
(1-4)利用编码部分、卷积连接部分和解码部分构建深度估计网络。
3.如权利要求1或2所述的一种图像深度估计方法,其特征在于,所述步骤(2)还包括对训练样本进行预处理,使得训练样本具有泛化性。
4.如权利要求1或2所述的一种图像深度估计方法,其特征在于,所述步骤(3)还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
5.如权利要求1或2所述的一种图像深度估计方法,其特征在于,所述步骤(3)还包括利用高斯滤波对深度图进行平滑处理。
6.一种图像深度估计系统,其特征在于,包括:
构建深度估计网络模块,用于构建深度估计网络,深度估计网络包括:编码部分、卷积连接部分和解码部分,解码部分的反卷积层与编码部分的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
训练深度估计网络模块,用于选取样本图像中的两张连续图像和其中一张图像的深度图作为训练样本,利用训练样本训练深度估计网络,得到训练好的深度估计网络;
在线深度估计模块,用于采集测试图像,提取测试图像的当前帧图像和当前帧图像的前一帧图像;将当前帧图像和前一帧图像的颜色通道输入训练好的深度估计网络,得到当前帧图像的深度图。
7.如权利要求6所述的一种图像深度估计系统,其特征在于,所述构建深度估计网络模块包括:
构建编码部分子模块,用于构建编码部分,编码部分由若干层卷积块组成,上一卷积块与下一卷积块之间通过最大池操作连接,每个卷积块中包含若干个卷积层;
构建卷积连接部分子模块,用于构建卷积连接部分,卷积连接部分包含若干层卷积层,对每层卷积层进行防止过拟合操作;
构建解码部分子模块,用于构建解码部分,解码部分包含若干层反卷积层,将每层反卷积层与编码部分中的尺度相同的卷积块中的最后一层卷积层相连接,形成最终的反卷积层;
构建深度估计网络子模块,用于利用编码部分、卷积连接部分和解码部分构建深度估计网络。
8.如权利要求6或7所述的一种图像深度估计系统,其特征在于,所述训练深度估计网络模块还包括对训练样本进行预处理,使得训练样本具有泛化性。
9.如权利要求6或7所述的一种图像深度估计系统,其特征在于,所述在线深度估计模块还包括对当前帧图像和前一帧图像进行直方图均衡化处理。
10.如权利要求6或7所述的一种图像深度估计系统,其特征在于,所述在线深度估计模块还包括利用高斯滤波对深度图进行平滑处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710355882.7A CN107274445B (zh) | 2017-05-19 | 2017-05-19 | 一种图像深度估计方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710355882.7A CN107274445B (zh) | 2017-05-19 | 2017-05-19 | 一种图像深度估计方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107274445A true CN107274445A (zh) | 2017-10-20 |
CN107274445B CN107274445B (zh) | 2020-05-19 |
Family
ID=60064069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710355882.7A Active CN107274445B (zh) | 2017-05-19 | 2017-05-19 | 一种图像深度估计方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107274445B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108288038A (zh) * | 2018-01-19 | 2018-07-17 | 东华大学 | 基于场景分割的夜间机器人运动决策方法 |
CN108491081A (zh) * | 2018-03-23 | 2018-09-04 | 联想(北京)有限公司 | 一种基于神经网络的数据处理方法及装置 |
CN108537836A (zh) * | 2018-04-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种深度数据获取方法及移动终端 |
CN108961328A (zh) * | 2017-11-29 | 2018-12-07 | 北京猎户星空科技有限公司 | 单摄景深模型生成方法、生成装置及电子设备 |
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉系统场景视深确定方法 |
CN109472830A (zh) * | 2018-09-28 | 2019-03-15 | 中山大学 | 一种基于无监督学习的单目视觉定位方法 |
CN109522840A (zh) * | 2018-11-16 | 2019-03-26 | 孙睿 | 一种高速路车流密度监测计算系统及方法 |
CN110175603A (zh) * | 2019-04-01 | 2019-08-27 | 佛山缔乐视觉科技有限公司 | 一种雕刻文字识别方法、系统及存储介质 |
CN110574371A (zh) * | 2017-12-08 | 2019-12-13 | 百度时代网络技术(北京)有限公司 | 使用硬件加速器的立体摄像机深度确定 |
CN110599533A (zh) * | 2019-09-20 | 2019-12-20 | 湖南大学 | 适用于嵌入式平台的快速单目深度估计方法 |
CN110782490A (zh) * | 2019-09-24 | 2020-02-11 | 武汉大学 | 一种具有时空一致性的视频深度图估计方法及装置 |
CN110827341A (zh) * | 2018-08-10 | 2020-02-21 | 中国移动通信有限公司研究院 | 一种图片深度估计方法、装置和存储介质 |
WO2020131134A1 (en) * | 2018-12-21 | 2020-06-25 | Didi Research America, Llc | Systems and methods for determining depth information in two-dimensional images |
US10810754B2 (en) | 2018-04-24 | 2020-10-20 | Ford Global Technologies, Llc | Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation |
US10832432B2 (en) | 2018-08-30 | 2020-11-10 | Samsung Electronics Co., Ltd | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
CN113093806A (zh) * | 2021-04-07 | 2021-07-09 | 涵涡智航科技(玉溪)有限公司 | 一种用于飞行器空间全向避障方法及系统 |
CN114337849A (zh) * | 2021-12-21 | 2022-04-12 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2009225320A1 (en) * | 2009-10-14 | 2011-04-28 | Canon Kabushiki Kaisha | Method of decoding image using iterative DVC approach |
CN105354565A (zh) * | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
-
2017
- 2017-05-19 CN CN201710355882.7A patent/CN107274445B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2009225320A1 (en) * | 2009-10-14 | 2011-04-28 | Canon Kabushiki Kaisha | Method of decoding image using iterative DVC approach |
CN105354565A (zh) * | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
Non-Patent Citations (4)
Title |
---|
(美)马达拉等: "《金融中的统计方法》", 31 August 2008, 上海:格致出版社 * |
JINGHE YUAN等: "STATISTICAL NEURAL NETWORKS BASED BLIND DECONVOLUTION OF SPECTROSCOPIC DATA", 《IEEE》 * |
袁雪寒: "基于反卷积网络的图像模式学习及应用", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊 )》 * |
骆遥: "基于深度全卷积神经网络的文字区域定位方法", 《无线互联科技》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961328A (zh) * | 2017-11-29 | 2018-12-07 | 北京猎户星空科技有限公司 | 单摄景深模型生成方法、生成装置及电子设备 |
US11182917B2 (en) | 2017-12-08 | 2021-11-23 | Baidu Usa Llc | Stereo camera depth determination using hardware accelerator |
CN110574371B (zh) * | 2017-12-08 | 2021-12-21 | 百度时代网络技术(北京)有限公司 | 使用硬件加速器的立体摄像机深度确定 |
CN110574371A (zh) * | 2017-12-08 | 2019-12-13 | 百度时代网络技术(北京)有限公司 | 使用硬件加速器的立体摄像机深度确定 |
CN108288038A (zh) * | 2018-01-19 | 2018-07-17 | 东华大学 | 基于场景分割的夜间机器人运动决策方法 |
CN108491081A (zh) * | 2018-03-23 | 2018-09-04 | 联想(北京)有限公司 | 一种基于神经网络的数据处理方法及装置 |
CN108491081B (zh) * | 2018-03-23 | 2020-09-25 | 联想(北京)有限公司 | 一种基于神经网络的数据处理方法及装置 |
CN108537836A (zh) * | 2018-04-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种深度数据获取方法及移动终端 |
US10810754B2 (en) | 2018-04-24 | 2020-10-20 | Ford Global Technologies, Llc | Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation |
CN110827341A (zh) * | 2018-08-10 | 2020-02-21 | 中国移动通信有限公司研究院 | 一种图片深度估计方法、装置和存储介质 |
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉系统场景视深确定方法 |
US11410323B2 (en) | 2018-08-30 | 2022-08-09 | Samsung Electronics., Ltd | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
US10832432B2 (en) | 2018-08-30 | 2020-11-10 | Samsung Electronics Co., Ltd | Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image |
CN109472830A (zh) * | 2018-09-28 | 2019-03-15 | 中山大学 | 一种基于无监督学习的单目视觉定位方法 |
CN109522840B (zh) * | 2018-11-16 | 2023-05-30 | 孙睿 | 一种高速路车流密度监测计算系统及方法 |
CN109522840A (zh) * | 2018-11-16 | 2019-03-26 | 孙睿 | 一种高速路车流密度监测计算系统及方法 |
WO2020131134A1 (en) * | 2018-12-21 | 2020-06-25 | Didi Research America, Llc | Systems and methods for determining depth information in two-dimensional images |
US11017542B2 (en) | 2018-12-21 | 2021-05-25 | Beijing Voyager Technology Co., Ld. | Systems and methods for determining depth information in two-dimensional images |
CN112889071A (zh) * | 2018-12-21 | 2021-06-01 | 北京航迹科技有限公司 | 用于确定二维图像中深度信息的系统和方法 |
CN112889071B (zh) * | 2018-12-21 | 2024-04-16 | 北京航迹科技有限公司 | 用于确定二维图像中深度信息的系统和方法 |
CN110175603A (zh) * | 2019-04-01 | 2019-08-27 | 佛山缔乐视觉科技有限公司 | 一种雕刻文字识别方法、系统及存储介质 |
CN110599533B (zh) * | 2019-09-20 | 2023-06-27 | 湖南大学 | 适用于嵌入式平台的快速单目深度估计方法 |
CN110599533A (zh) * | 2019-09-20 | 2019-12-20 | 湖南大学 | 适用于嵌入式平台的快速单目深度估计方法 |
CN110782490B (zh) * | 2019-09-24 | 2022-07-05 | 武汉大学 | 一种具有时空一致性的视频深度图估计方法及装置 |
CN110782490A (zh) * | 2019-09-24 | 2020-02-11 | 武汉大学 | 一种具有时空一致性的视频深度图估计方法及装置 |
CN113093806A (zh) * | 2021-04-07 | 2021-07-09 | 涵涡智航科技(玉溪)有限公司 | 一种用于飞行器空间全向避障方法及系统 |
CN114337849A (zh) * | 2021-12-21 | 2022-04-12 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
CN114337849B (zh) * | 2021-12-21 | 2023-03-14 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107274445B (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274445A (zh) | 一种图像深度估计方法和系统 | |
CN109740465B (zh) | 一种基于实例分割神经网络框架的车道线检测算法 | |
CN110298262B (zh) | 物体识别方法及装置 | |
Mehra et al. | ReViewNet: A fast and resource optimized network for enabling safe autonomous driving in hazy weather conditions | |
CN111598030B (zh) | 一种航拍图像中车辆检测和分割的方法及系统 | |
CN105354806B (zh) | 基于暗通道的快速去雾方法及系统 | |
CN110097044B (zh) | 基于深度学习的一阶段车牌检测识别方法 | |
CN109003297B (zh) | 一种单目深度估计方法、装置、终端和存储介质 | |
CN104766071B (zh) | 一种应用于无人驾驶汽车的交通灯快速检测算法 | |
CN109829445B (zh) | 一种视频流中的车辆检测方法 | |
CN108765333B (zh) | 一种基于深度卷积神经网络的深度图完善方法 | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪系统及方法 | |
CN110717921B (zh) | 改进型编码解码结构的全卷积神经网络语义分割方法 | |
CN110706239A (zh) | 融合全卷积神经网络与改进aspp模块的场景分割方法 | |
CN108038486A (zh) | 一种文字检测方法 | |
CN115512251A (zh) | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 | |
CN113269133A (zh) | 一种基于深度学习的无人机视角视频语义分割方法 | |
CN112070070A (zh) | 一种用于城市遥感场景识别的lw-cnn方法和系统 | |
CN110956119A (zh) | 一种准确且快速的图像中目标检测方法 | |
CN112861727A (zh) | 一种基于混合深度可分离卷积的实时语义分割方法 | |
CN112598003A (zh) | 基于数据扩充和全监督预处理的实时语义分割方法 | |
CN112907573A (zh) | 一种基于3d卷积的深度补全方法 | |
CN116434088A (zh) | 基于无人机航拍图像的车道线检测及车道辅助保持方法 | |
CN112201078A (zh) | 一种基于图神经网络的自动泊车停车位检测方法 | |
CN114708566A (zh) | 一种基于改进YOLOv4的自动驾驶目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |