CN109272493A - 一种基于递归卷积神经网络的单目视觉里程计方法 - Google Patents
一种基于递归卷积神经网络的单目视觉里程计方法 Download PDFInfo
- Publication number
- CN109272493A CN109272493A CN201810990033.3A CN201810990033A CN109272493A CN 109272493 A CN109272493 A CN 109272493A CN 201810990033 A CN201810990033 A CN 201810990033A CN 109272493 A CN109272493 A CN 109272493A
- Authority
- CN
- China
- Prior art keywords
- error
- image
- neural network
- network
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于递归卷积神经网络的单目视觉里程计方法。该方法首先利用深度卷积神经网络充分提取图像的特征,然后借助于递归神经网络建立图像序列间的联系进行建模;同时利用卷积‑反卷积网络实现对图像的深度恢复。利用双目图像对间的对应像素匹配得到视图合成误差;利用估计的深度图得到左右视差一致性误差;利用左右目图像序列分别预测获得的相机位姿获得位姿一致性误差;利用左目图像序列和右目图像序列在时间上的前后连续性像素匹配得到序列视图合成误差,最小化误差从而获得最优神经网络模型参数。本发明对公开发布的多组图像数据集序列进行测试,并通过与现有方法的比较验证了本发明的有效性和优越性。
Description
技术领域
本发明属于图像处理、计算机视觉和深度学习等技术领域,具体涉及一种基于递归卷积神经网络的单目视觉里程计方法。
背景技术
里程计技术是移动机器人利用传感器实现自身实时定位的关键技术,是实现路径规划、自主导航及完成其它任务的基础要求。一般情况下,里程计信息可以从旋转编码器、惯性测量元件(IMU)及GPS等传感器获取,但是在轮子打滑以及无GPS信号的情况下则不适用。在视觉里程计方面,现存很多优秀的基于几何结构的方法,包括特征点法、直接法和半直接法。基于特征点法的传统视觉里程计方法的处理流程为:特征提取、特征匹配和运动估计和优化,这些传统算法在精度与鲁棒性方面也都取得了不错的效果。然而这些方法都存在一些致命的缺点,如在特征缺失、图像模糊等情况下效果则不是很理想,并且特征点的提取与匹配计算量非常大,难以实现实时定位。而对于直接法而言,若光照变化剧烈则效果将变得非常差。同时,对于单目视觉里程计,还需要一些额外的信息(如相机高度)或先验信息来估计场景的尺度,易造成极大的尺度漂移。
近年来深度学习技术已经成功地应用到很多计算机视觉问题中,比如图像分类、深度估计、物体检测与语义分割等。然而在用于视觉自主导航方面还相当滞后,如视觉里程计(VO)、从运动恢复结构(Structure from Motion)、同时定位与建图(SLAM)等。据所查阅的国内外资料显示,这方面成果相对较少,基本还处于研究起步阶段。
相比传统视觉里程计算法,基于深度学习的方法替代了繁琐的公式计算,无需人工特征提取和匹配,显得简洁直观,并且在线运算速度快。2015年,Konda和Memisevic首次提出将深度学习用于估计相机速度和方向的改变。该方法主要分为两个步骤:首先提取图像的深度,然后对速度和方向的改变进行估计。它将多目视觉里程计作为分类问题来处理,精度无法与传统的视觉里程计算法相比。同年,Costante等人利用预处理好的光流图作为输入进行运动估计,以便更好的解决模型的通用问题,但是需要提前得到光流图难以实时应用。Kendal等人将视觉里程计作为回归问题来处理,提出了利用卷积神经网络来回归位姿的方法,在其基础上Li等人于2017年将RGB-D图像输入CNN网络来进行定位估计。Benjamin等人提出了一种将相机位姿和图像深度作为监督信息的深度学习算法,该网络将连续图像对作为输入,通过多层编码和解码网络可估计得到图像深度和相机运动。同年,Zhou等人提出了一种无监督深度学习算法,利用单目的图像序列实现深度估计和位姿估计。该网络由两个子网络组成:即深度估计网络和位姿估计网络。但是该系统不能恢复绝对的尺度,并且定位精度很差。
发明内容
本发明的目的是提供一种基于深度递归卷积神经网络的单目视觉里程计,利用深度卷积神经网络充分的对图像特征进行学习,同时利用深度递归神经网络学习图像整体的序列特征,结合时间上的连续性大大提高了单目视觉里程计的精度。本发明的目的在于解决传统单目视觉里程计技术中存在的问题,提出一种基于递归卷积神经网络的单目视觉里程计方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于递归卷积神经网络的单目视觉里程计方法,包括以下步骤:
步骤1:将单目彩色图像序列输入网络;
步骤2:深度估计网络估计图像的深度图并提取深度图的深度值;
步骤3:位姿估计网络CNN层提取图像特征生成特征向量;
步骤4:将此特征向量输入RNN层,输出6自由度位姿。
与现有技术相比,本发明具有以下有益效果:
本发明基于深度递归卷积神经网络的单目视觉里程计,不仅可以利用深度卷积神经网络充分的对图像特征进行学习,同时利用深度递归神经网络学习图像整体的序列特征,结合时间上的连续性可大大提高视觉里程计的准确性。本发明的单目视觉里程计拥有卷积神经网络优良的图像特征提取能力,又利用递归神经网络获得图像间的序列信息,将双目图像间的一致性误差和单目图像序列误差作为监督信号进行自监督训练,实现了较精确的定位,并可以恢复场景的绝对尺度信息。相比于传统的几何视觉里程计算法,本发明提出的利用深度学习网络的方法一方面减小了对图像间几何匹配与计算的依赖,另一方面也避免了传统方法中对大量参数的调试,同时实现了自监督学习,具有很好的适应性。
附图说明
图1是本发明的系统总体框架图;
图2是本发明的深度估计网络结构图和位姿估计网络结构图;
图3是本发明的实验效果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
参见图1和图2,本发明的核心思想是利用深度卷积神经网络充分的对图像特征进行学习,同时利用深度递归神经网络学习图像整体的序列特征,结合时间上的连续性大大提高了视觉里程计的精度。本实施例的一种基于递归卷积神经网络的单目视觉里程计方法,其系统框架图如附图1所示,主要包括深度估计网络和位姿估计网络。其中,深度估计网络采用卷积—反卷积的结构,除最后的深度预测层外其它层的激活函数均采用ReLU函数,每一层都采用了填充操作,网络的前两层分别采用了大小为7×7、5×5的卷积核,其余层的卷积核大小均为3×3以提取更加细致的局部特征;位姿估计网络分别将左目和右目图像序列输入深度卷积神经网络,学习高层次的特征,然后将此CNN特征传递给深度递归神经网络进行动态建模,从而结合两者的优势更好的实现图像定位任务。
本发明测试时执行步骤如下:
Step1:将单目彩色图像序列输入网络;
Step2:深度估计网络估计图像的深度图并提取深度图的深度值;
Step3:位姿估计网络CNN层提取图像特征生成特征向量;
Step4:将此特征向量输入RNN层,输出6自由度位姿。
其中,位姿估计网络具体分为以下三个过程:
(1)通过多层卷积操作提取每帧图像的特征信息;
(2)利用递归机制学习图像间的序列信息;
(3)综合图像序列信息和结构信息回归相机的6自由度位姿。
本发明结合双目图像间的几何约束,通过最小化左目和右目图像一致性误差从而可以得到场景的绝对尺度。
误差包括双目图像一致性误差和单目图像序列误差。其中双目图像一致性误差包括视图合成误差、左右视差一致性误差和位姿一致性误差。
视图合成误差计算方法为:
假设pl(ul,vl)、pr(ur,vr)分别是像素p在左右图像中相对应的像素,则它们之间存在关系:ul=ur、vl=vr+Dp、Dp=Bf/Dd,其中:B是双目相机的基线,f是相机的焦距,Dd是像素的深度值。训练过程中,利用图像对中的一张图像可以合成另一张图像,结合L1范数和SSIM可以得出视图合成误差计算公式如下:
式中N′为像素数量的总和,分别为左右目图像,为相对应的合成图像,α为L1范数和SSIM之间的比例因子。
左右视差一致性误差计算方法为:
根据深度图Dp可以进一步得到左右图像的视差图Ddis,定义视差图为Ddis=Dp×Iw,其中Iw为图像的宽度。利用左右图像的视差图分别合成右左图像的视差图则可得到视差一致性误差如下所示,其中N为图像对数量总和。
位姿一致性误差为:
通过位姿估计网络,分别输入左右图像序列预测得到相机的位姿 则两者之间必存在一定的误差,本文采用L1范数衡量两者之间的误差,即
式中:λp、λo分别为左右图像位置和方向一致性的权重参数。
而单目图像序列误差则包括左目图像序列和右目图像序列视图合成误差,视图合成误差为:
pk+1=KTk,k+1DdK-1pk
式中:K是相机的内参矩阵,Tk,k+1是从第k帧转换到第k+1帧的转换矩阵,Dd是第k帧像素的深度值。因此可以利用第k帧图像Ik和第k+1帧图像Ik+1分别合成由以下公式可得左右图像序列的视图合成误差。
总的误差损失函数由以上两大部分误差共同组成,即:
附图2给出了本发明深度估计网络结构和位姿估计网络结构,其中,图2a为深度估计网络结构图,2b为位姿估计网络结构图。附图3给出了本发明的实验效果。可以看出,采用本专利方法获得了满意的视觉里程计效果。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (10)
1.一种基于递归卷积神经网络的单目视觉里程计方法,其特征在于,包括以下步骤:
步骤1:将单目彩色图像序列输入网络;
步骤2:深度估计网络估计图像的深度图并提取深度图的深度值;
步骤3:位姿估计网络CNN层提取图像特征生成特征向量;
步骤4:将此特征向量输入RNN层,输出6自由度位姿。
2.根据权利要求1所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,步骤2中,深度估计网络采用卷积—反卷积的结构,除最后的深度预测层外其它层的激活函数均采用ReLU函数,每一层都采用填充操作,网络的前两层分别采用大小为7×7和5×5的卷积核,其余层的卷积核大小均为3×3。
3.根据权利要求1所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,步骤3中,位姿估计网络分别将左目和右目图像序列输入深度卷积神经网络,学习高层次的特征,然后将此位姿估计网络CNN特征传递给深度递归神经网络进行动态建模。
4.根据权利要求3所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,位姿估计网络包括以下三个过程:
过程1:通过多层卷积操作提取每帧图像的特征信息;
过程2:利用递归机制学习图像间的序列信息;
过程3:综合图像序列信息和结构信息回归相机的6自由度位姿。
5.根据权利要求3所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,结合双目图像间的几何约束,通过最小化左目和右目图像一致性误差从而得到场景的绝对尺度。
6.根据权利要求5所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,误差包括双目图像一致性误差和单目图像序列误差;其中双目图像一致性误差包括视图合成误差、左右视差一致性误差和位姿一致性误差;单目图像序列误差则包括左目图像序列和右目图像序列视图合成误差。
7.根据权利要求6所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,双目图像一致性误差中的视图合成误差的计算方法如下:
式中,为左视图合成误差,为右视图合成误差,N′为像素数量的总和,和分别为左目、右目图像,和为相对应的合成图像,α为L1范数和SSIM之间的比例因子。
8.根据权利要求6所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,双目图像一致性误差中的左右视差一致性误差的计算方法如下:
其中,为左视差一致性误差,为右视差一致性误差,N为图像对数量总和,和分别为左右图像的视差图及相应合成的视差图。
9.根据权利要求6所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,双目图像一致性误差中的位姿一致性误差为:
其中,N为图像对数量总和,和分别为输入左右图像序列预测得到的相机位姿,λp和λo分别为左右图像位置和方向一致性的权重参数。
10.根据权利要求6所述的基于递归卷积神经网络的单目视觉里程计方法,其特征在于,单目图像序列误差中的左目图像序列和右目图像序列视图合成误差为:
式中,为第k帧视图合成误差,为第k+1帧视图合成误差,N′为像素数量的总和,Ik和Ik+1分别为第k帧、第k+1帧图像,和为相对应的合成图像,β为L1范数和SSIM之间的比例因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810990033.3A CN109272493A (zh) | 2018-08-28 | 2018-08-28 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810990033.3A CN109272493A (zh) | 2018-08-28 | 2018-08-28 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109272493A true CN109272493A (zh) | 2019-01-25 |
Family
ID=65154775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810990033.3A Pending CN109272493A (zh) | 2018-08-28 | 2018-08-28 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109272493A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109798888A (zh) * | 2019-03-15 | 2019-05-24 | 京东方科技集团股份有限公司 | 移动设备的姿态确定装置、方法和视觉里程计 |
CN110610486A (zh) * | 2019-08-28 | 2019-12-24 | 清华大学 | 单目图像深度估计方法及装置 |
CN110910447A (zh) * | 2019-10-31 | 2020-03-24 | 北京工业大学 | 一种基于动静态场景分离的视觉里程计方法 |
CN111311666A (zh) * | 2020-05-13 | 2020-06-19 | 南京晓庄学院 | 一种融合边缘特征和深度学习的单目视觉里程计方法 |
CN111899280A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
CN111950599A (zh) * | 2020-07-20 | 2020-11-17 | 重庆邮电大学 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
WO2020238008A1 (zh) * | 2019-05-29 | 2020-12-03 | 北京市商汤科技开发有限公司 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
CN112648997A (zh) * | 2019-10-10 | 2021-04-13 | 成都鼎桥通信技术有限公司 | 一种基于多任务网络模型定位的方法及系统 |
CN112991436A (zh) * | 2021-03-25 | 2021-06-18 | 中国科学技术大学 | 基于物体尺寸先验信息的单目视觉slam方法 |
US11144818B2 (en) | 2019-07-05 | 2021-10-12 | Toyota Research Institute, Inc. | Network architecture for ego-motion estimation |
CN114034312A (zh) * | 2021-11-05 | 2022-02-11 | 太原理工大学 | 一种轻量级多解耦的视觉里程计实现方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106658023A (zh) * | 2016-12-21 | 2017-05-10 | 山东大学 | 一种基于深度学习的端到端视觉里程计及方法 |
CN107066507A (zh) * | 2017-01-10 | 2017-08-18 | 中国人民解放军国防科学技术大学 | 一种基于云机器人混合云架构的语义地图构建方法 |
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
-
2018
- 2018-08-28 CN CN201810990033.3A patent/CN109272493A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
CN106658023A (zh) * | 2016-12-21 | 2017-05-10 | 山东大学 | 一种基于深度学习的端到端视觉里程计及方法 |
CN107066507A (zh) * | 2017-01-10 | 2017-08-18 | 中国人民解放军国防科学技术大学 | 一种基于云机器人混合云架构的语义地图构建方法 |
Non-Patent Citations (1)
Title |
---|
JIEXIONG TANG ET AL.: "Geometric Correspondence Network for Camera Motion Estimation", 《 IEEE ROBOTICS AND AUTOMATION LETTERS》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109798888A (zh) * | 2019-03-15 | 2019-05-24 | 京东方科技集团股份有限公司 | 移动设备的姿态确定装置、方法和视觉里程计 |
CN109798888B (zh) * | 2019-03-15 | 2021-09-17 | 京东方科技集团股份有限公司 | 移动设备的姿态确定装置、方法和视觉里程计 |
WO2020238008A1 (zh) * | 2019-05-29 | 2020-12-03 | 北京市商汤科技开发有限公司 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
US11144818B2 (en) | 2019-07-05 | 2021-10-12 | Toyota Research Institute, Inc. | Network architecture for ego-motion estimation |
CN110610486A (zh) * | 2019-08-28 | 2019-12-24 | 清华大学 | 单目图像深度估计方法及装置 |
CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
CN112648997A (zh) * | 2019-10-10 | 2021-04-13 | 成都鼎桥通信技术有限公司 | 一种基于多任务网络模型定位的方法及系统 |
CN110910447A (zh) * | 2019-10-31 | 2020-03-24 | 北京工业大学 | 一种基于动静态场景分离的视觉里程计方法 |
CN111311666A (zh) * | 2020-05-13 | 2020-06-19 | 南京晓庄学院 | 一种融合边缘特征和深度学习的单目视觉里程计方法 |
CN111899280A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
CN111899280B (zh) * | 2020-07-13 | 2023-07-25 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
CN111950599B (zh) * | 2020-07-20 | 2022-07-01 | 重庆邮电大学 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
CN111950599A (zh) * | 2020-07-20 | 2020-11-17 | 重庆邮电大学 | 一种动态环境下融合边缘信息的稠密视觉里程计方法 |
CN112991436A (zh) * | 2021-03-25 | 2021-06-18 | 中国科学技术大学 | 基于物体尺寸先验信息的单目视觉slam方法 |
CN112991436B (zh) * | 2021-03-25 | 2022-09-06 | 中国科学技术大学 | 基于物体尺寸先验信息的单目视觉slam方法 |
CN114034312A (zh) * | 2021-11-05 | 2022-02-11 | 太原理工大学 | 一种轻量级多解耦的视觉里程计实现方法 |
CN114034312B (zh) * | 2021-11-05 | 2024-03-26 | 太原理工大学 | 一种轻量级多解耦的视觉里程计实现方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109272493A (zh) | 一种基于递归卷积神经网络的单目视觉里程计方法 | |
Liang et al. | Learning for disparity estimation through feature constancy | |
CN104318782B (zh) | 一种面向区域重叠的高速公路视频测速方法及系统 | |
CN111311666B (zh) | 一种融合边缘特征和深度学习的单目视觉里程计方法 | |
CN110490928A (zh) | 一种基于深度神经网络的相机姿态估计方法 | |
CN110084850B (zh) | 一种基于图像语义分割的动态场景视觉定位方法 | |
CN106595659A (zh) | 城市复杂环境下多无人机视觉slam的地图融合方法 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN102426705B (zh) | 一种视频场景行为拼接方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN109191515A (zh) | 一种图像视差估计方法及装置、存储介质 | |
CN107886120A (zh) | 用于目标检测跟踪的方法和装置 | |
CN105608417B (zh) | 交通信号灯检测方法及装置 | |
CN111595334B (zh) | 基于视觉点线特征与imu紧耦合的室内自主定位方法 | |
CN105631861A (zh) | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 | |
CN110322499A (zh) | 一种基于多层特征的单目图像深度估计方法 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN107397658B (zh) | 一种多尺度全卷积网络及视觉导盲方法和装置 | |
CN101625768A (zh) | 一种基于立体视觉的三维人脸重建方法 | |
CN111340922A (zh) | 定位与地图构建的方法和电子设备 | |
Schorghuber et al. | SLAMANTIC-leveraging semantics to improve VSLAM in dynamic environments | |
CN114719848B (zh) | 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法 | |
CN107689060A (zh) | 目标对象的视觉处理方法、装置及基于视觉处理的设备 | |
CN114943757A (zh) | 基于单目景深预测和深度增强学习的无人机森林探索系统 | |
Jin et al. | Beyond learning: Back to geometric essence of visual odometry via fusion-based paradigm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190125 |