CN112598010B - 一种双目视觉的非结构化地形实时感知与重构方法 - Google Patents

一种双目视觉的非结构化地形实时感知与重构方法 Download PDF

Info

Publication number
CN112598010B
CN112598010B CN202011352477.8A CN202011352477A CN112598010B CN 112598010 B CN112598010 B CN 112598010B CN 202011352477 A CN202011352477 A CN 202011352477A CN 112598010 B CN112598010 B CN 112598010B
Authority
CN
China
Prior art keywords
topography
global
local
terrain
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011352477.8A
Other languages
English (en)
Other versions
CN112598010A (zh
Inventor
王少杰
侯亮
吴彬云
梁皓烙
张文博
饶红艳
陈泽波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202011352477.8A priority Critical patent/CN112598010B/zh
Publication of CN112598010A publication Critical patent/CN112598010A/zh
Application granted granted Critical
Publication of CN112598010B publication Critical patent/CN112598010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,包括如下步骤:1)通过机载环境感知系统获取全局地形和全局位置信息,通过集群车载环境感知系统获取局部地形与局部位置信息;2)对全局地形和局部地形分别进行视觉图像处理,结合机载环境感知系统和集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息与局部地形深度信息;3)采用目标特征提取与图像融合方法实现全局地形深度与全局位置信息、局部地形深度与局部位置信息的融合,构建实时、精准的非结构化地形。本发明不需要人工操作,智能化程度高,适用于工程机械集群作业,能获得实时更新、精确的非结构化地形。

Description

一种双目视觉的非结构化地形实时感知与重构方法
技术领域
本发明涉及工程机械集群自主作业环境感知、图像处理与机器视觉技术领域,特别是指一种双目视觉的非结构化地形实时感知与重构方法。
背景技术
工程机械是一种广泛应用于高速公路、铁路、建筑、矿山、港口等建设工程的土石方施工机械。伴随着制造业的发展,以及在人工智能、大数据、物联网等新一代信息技术的推动下,未来工程机械将会向高效、节能、数据化、智能化的方向发展。工程机械智能化的终极目标是实现自主作业,关键是对复杂作业状态的准确预测,这是工程机械未来无人驾驶与群体智能协同作业的前提之一;而环境感知是工程机械在未知环境下自主运行、自主作业、智能协同作业的基础,也是工程机械实现集群智能的前提。
工程机械领域的环境感知研究大多还停留在个体工程机械的自主作业上,对工程机械的集群协同作业的环境识别和三维重构的研究比较少。因此,开展全局性的作业环境感知研究对未来实现工程机械的集群协同作业非常关键。
工程机械集群作业场景具有工况最复杂、环境最恶劣、覆盖面最广等特点,由于地表形貌复杂、土壤松软度不一,而且塌方、石块滚落等造成地形动态变化,导致非结构化地形重构难;传统的非结构化地形感知与重构仅通过无人机进行单次扫描,构建的非结构化地形无法满足实时作业的需求。
中国发明专利201110358699.5提出了一种基于多传感器融合的非结构化环境理解方法,通过将安装在车辆上的同时工作的多个传感器信息感知融合在一起,提高智能系统对局部环境感知理解的可靠性。中国发明专利201210448487.0提出了一种无人驾驶车自动环境感知系统及其工作方法,感知系统包括双工业彩色数字CCD相机、双二维激光扫描仪、惯性导航系统、CPS接收天线和工业控制计算机,同时提供了一种利用该感知系统进行无人驾驶车自动环境感知的工作方法。这些专利主要提出一种车载传感器的局部环境感知系统和方法,由于车载传感器无法保证绝对测量高度和大范围的测量视角,无法有效获取大范围障碍区域及其后方的环境信息,造成环境探索和场景理解等行为缺乏全局性优化。
中国发明专利201610200674.5提出了一种基于无人机的双目视觉三维测绘系统和方法,测绘系统包括无人机、双目测量装置和地面控制中心,同时提供了一种三维测绘方法。该专利通过无人机机载视觉系统,能实现全局观测信息的获取,其缺点在于无人机负载和续航能力差,无法提供实时动态的环境信息。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于双目视觉的非结构化地形实时感知与重构方法,不需要人工操作,智能化程度高,适用于工程机械集群作业,能获得实时更新、精确的非结构化地形。
本发明采用如下技术方案:
一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,包括如下步骤:
1)通过机载环境感知系统获取全局地形和全局位置信息,通过集群车载环境感知系统获取局部地形与局部位置信息;
2)对全局地形和局部地形分别进行视觉图像处理,结合机载环境感知系统和集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息与局部地形深度信息;
3)采用目标特征提取与图像融合方法实现全局地形深度与全局位置信息、局部地形深度与局部位置信息的融合,构建实时、精准的非结构化地形。
优选的,所述机载环境感知系统获包括无人机、机载双目摄像机和北斗定位传感器设备,该机载双目摄像机和北斗定位传感器设备安装于无人机上,对机载双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;通过启动无人机至适宜高度,对作业环境进行单次扫描,采集周围环境全局地形和全局位置信息。
优选的,所述集群车载环境感知系统包括有工程机械、双目摄像机和北斗定位传感设备,该机载双目摄像机和北斗定位传感器设备安装于工程机械,对双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;当工程机械发动时,不间断地采集周围环境的局部地形与局部位置信息。
优选的,所述步骤2)中,对全局地形结合机载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息,包括如下:
2a.1)对全局地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2a.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到全局地形深度信息。
优选的,所述步骤2)中,对局部地形结合集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到局部地形深度信息,包括如下:
2b.1)对局部地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2b.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到局部地形深度信息。
优选的,通过建立摄像机模型和采用棋盘标定法对双目摄像机进行参数标定。
优选的,利用Harris-SURF算法提取左右灰度图像表面离散特征点,并进行特征点左右图像立体匹配,将匹配成功的特征点集的左右图像像素点坐标代入映射矩阵方程,得到特征点的深度值信息,即为全局地形深度信息或局部地形深度信息。
优选的,步骤3)中,通过主成分分析变换法、小波变换法或Gram Schmidt变换法实现全局地形深度信息与全局位置信息、局部地形深度信息与局部位置信息的融合。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
本发明的方法,通过集群车载双目视觉传感器获得局部地形深度信息,通过无人机车载双目视觉传感器获得全局地形深度信息,再结合机载北斗定位信息与车载北斗定位信息,采用目标特征提取与图像融合方法实现全局地形深度与定位信息、局部地形深度与定位信息的融合,构建实时、精准的非结构化地形。与现有技术比,不需要人工操作,智能化程度高,适用于工程机械集群作业,能获得实时更新、精确的非结构化地形。
本发明的方法,利用Harris-SURF特征点提取与匹配算法获取全局地形深度信息与局部地形深度信息,并结合机载北斗定位信息与车载北斗定位信息,利用主成分分析变换法、小波变换法、Gram Schmidt变换法等实现全局地形深度与定位信息、局部地形深度与定位信息的融合,构建实时的精准非结构化地形。
附图说明
图1为本发明的地形感知与重构方法的程序设计流程图。
图2为本发明的Harris-SURF特征点提取与匹配算法流程。
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
本发明可直接应用于工程机械集群作业过程中获得非结构化地形的实时深度与位置信息,解决传统的非结构化地形感知与重构仅通过无人机进行单次扫描,构建的地形无法满足实时作业的需求的问题,实现非结构化地形的动态感知与重构,为未来工程机械的协同作业提供基础保障。
参见图1,本发明提出一种双目视觉的非结构化地形实时感知与重构方法,包括如下步骤:
1)通过机载环境感知系统获取全局地形和全局位置信息,通过集群车载环境感知系统获取局部地形与局部位置信息。
该步骤中,通过单次扫描并获得周围环境全局地形深度与位置信息。具体的,可通过机载环境感知系统进行全局地形环境感知与重构。在工程机械集群作业开始前,通过控制机载环境感知系统飞行至作业区域的特定高度,开启机载双目相机对作业现场进行单次全局扫描,同时开启机载北斗定位传感设备,获得周围环境全局性的机载图像对和全局定位信息。
其中,机载环境感知系统获包括无人机、机载双目摄像机和北斗定位传感器设备,该机载双目摄像机和北斗定位传感器设备安装于无人机上,对机载双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;通过启动无人机至适宜高度,开启机载双目相机对作业现场进行单次全局扫描,同时开启机载北斗定位传感设备,获得周围环境全局性的机载图像对(左右图像)和全局定位信息,即实现采集周围环境全局地形和全局位置信息。
集群车载环境感知系统包括有工程机械、双目摄像机和北斗定位传感设备,该机载双目摄像机和北斗定位传感器设备安装于工程机械,对双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;当工程机械发动时,通过控制开启车载的双目相机对周围局部环境进行实时动态扫描,同时开启车载的北斗定位传感设备,获得周围环境局部性的机载图像对(左右图像)和局部定位信息,即实现不间断地采集周围环境的局部地形与局部位置信息。
本发明分别对机载和车载的双目摄像机进行相机参数标定,得到校正后的内外参数,具体的,通过建立摄像机模型和采用棋盘标定法进行摄像机参数标定。包括:
1.1)建立摄像机模型
摄像机模型一般包含4个坐标系:世界坐标系,摄像机坐标系,图像坐标系,图像像素坐标系。通过平移旋转变换、透视变换、数字化图像,分析由世界坐标系到图像像素坐标系的映射关系为:
其中,m为图像像素坐标(u,v,1),M为世界坐标系的坐标点(X,Y,Z,1),s为尺度因子,[R t]:摄像机的外参数,R旋转矩阵、t平移矩阵;A为内参数矩阵,u0和v0是图像平面原点的坐标,α和β是图像水平和垂直方向上的单位距离分辨率,γ代表两轴方向上尺度的偏差。
1.2)采用棋盘标定法进行摄像机参数标定
标定板角点坐标已知,左右摄像机同时多角度拍摄三张以上照片,经图像采集卡处理发送至处理器的双目视觉模块,分别进行图像预处理、标定板棋盘格角点检测、摄像机内外参数求解、径向畸变系数估计,获得该双目视觉子系统的图像二维像素点到空间三维位置之间的映射矩阵方程。
棋盘标定法的过程如下:
①标定板选取:采用将打印好的国际象棋棋盘贴在某一平板上作为标定板;
②图像获取:将标定板进行移动或移动摄像机,从不同角度上获取三张以上的照片;
③角点检测:对第②步获取的照片逐一的检测出所有角点;
④计算内外参数:不考虑径向畸变,利用旋转矩阵正交性,在通过求解线性方程,得出摄像机的5个内外参数;
⑤估计径向畸变:采用最小二乘法对径向畸变系数进行估计;
⑥优化内外参数:利用再投影误差最小准则优化内外参数。
2)对全局地形和局部地形分别进行视觉图像处理,结合机载环境感知系统和集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息与局部地形深度信息。
该步骤中,对全局地形结合机载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息,包括如下:
2a.1)对全局地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2a.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到全局地形深度信息。即将匹配成功的特征点集的左右图像像素点坐标代入前述已知的映射矩阵方程,算得特征点的深度值信息,得到全局地形深度信息。
对局部地形结合集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到局部地形深度信息,包括如下:
2b.1)对局部地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2b.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到局部地形深度信息。即将匹配成功的特征点集的左右图像像素点坐标代入前述已知的映射矩阵方程,算得特征点的深度值信息,得到局部地形深度信息。
该步骤2a.1)和2b.1)中,将获得的全局地形或局部地形图像对通过加权平均法转化为灰度图像;进行直方图均衡化操作处理,使得图像的灰度分布趋向平均,图像所占有的像素灰度间距拉开,加大图像的反差,达到图像增强的目的。
步骤2a.2)和2b.2)中利用Harris-SURF算法提取全局地形灰度图像表面离散特征点,并进行特征点左右图像立体匹配,该算法将Harris提取的角点与SURF算法提取的特征点合并,并剔除重复点获得新的特征点集,然后为每个特征点定义主方向并生成特征描述符。该算法保留了Harris角点检测算法的稳定性,同时融合了SURF算法尺度不变的特性,提高了特征匹配精度和效率。Harris-SURF特征点提取与匹配算法流程如图2所示,过程如下:
①角点检测:采用单尺度Harris角点检测算法对图像进行检测并提取角点,获得图像角点集;
②特征点检测:使用Hessian矩阵检测图像极值点,进行特征点定位,并确定特征点所在位置及尺度值;
③初始特征点集:将Harris检测出的角点集与SURF算法提取的特征点合并,剔除部分重复点及对尺度变化不稳定的特征点,形成初始特征点集;
④生成特征描述符:确定初始特征点集的主方向,并为每个特征点生成64维的特征描述符;
⑤特征点匹配:获得特征点相关信息后,采用欧氏距离或马氏距离作为待配准图像与原图像间的相似性度量,剔除错误匹配点,进行特征点精确匹配。
3)采用目标特征提取与图像融合方法实现全局地形深度与全局位置信息、局部地形深度与局部位置信息的融合,构建实时、精准的非结构化地形。
该步骤中,通过主成分分析变换法、小波变换法或Gram Schmidt变换法等实现全局地形深度信息与全局位置信息、局部地形深度信息与局部位置信息的融合,构建实时的精准非结构化地形。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。

Claims (6)

1.一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,包括如下步骤:
1)通过机载环境感知系统获取全局地形和全局位置信息,通过集群车载环境感知系统获取局部地形与局部位置信息;
2)对全局地形和局部地形分别进行视觉图像处理,结合机载环境感知系统和集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息与局部地形深度信息;
对全局地形结合机载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到全局地形深度信息包括如下:
2a.1)对全局地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2a.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到全局地形深度信息;
对局部地形结合集群车载环境感知系统的左右相机标定参数,并采用视觉匹配算法计算得到局部地形深度信息,包括如下:
2b.1)对局部地形进行滤波去燥、灰度修正、图像增强得到左右灰度图像;
2b.2)检测并匹配左右灰度图像中物体表面的边缘特征以及点特征后,由映射矩阵方程计算得到局部地形深度信息;
3)采用目标特征提取与图像融合方法实现全局地形深度与全局位置信息、局部地形深度与局部位置信息的融合,构建实时、精准的非结构化地形。
2.如权利要求1所述的一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,所述机载环境感知系统获包括无人机、机载双目摄像机和北斗定位传感器设备,该机载双目摄像机和北斗定位传感器设备安装于无人机上,对机载双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;通过启动无人机至适宜高度,对作业环境进行单次扫描,采集周围环境全局地形和全局位置信息。
3.如权利要求1所述的一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,所述集群车载环境感知系统包括有工程机械、双目摄像机和北斗定位传感设备,该双目摄像机和北斗定位传感器设备安装于工程机械,对双目摄像机进行参数标定,获取由图像二维像素点到空间三维位置之间的映射矩阵方程,即得到左右相机标定参数;当工程机械发动时,不间断地采集周围环境的局部地形与局部位置信息。
4.如权利要求2或3所述的一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,通过建立摄像机模型和采用棋盘标定法对双目摄像机进行参数标定。
5.如权利要求1所述的一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,利用Harris-SURF算法提取左右灰度图像表面离散特征点,并进行特征点左右图像立体匹配,将匹配成功的特征点集的左右图像像素点坐标代入映射矩阵方程,得到特征点的深度值信息,即为全局地形深度信息或局部地形深度信息。
6.如权利要求1所述的一种双目视觉的非结构化地形实时感知与重构方法,其特征在于,
步骤3)中,通过主成分分析变换法、小波变换法或Gram Schmidt 变换法实现全局地形深度信息与全局位置信息、局部地形深度信息与局部位置信息的融合。
CN202011352477.8A 2020-11-26 2020-11-26 一种双目视觉的非结构化地形实时感知与重构方法 Active CN112598010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011352477.8A CN112598010B (zh) 2020-11-26 2020-11-26 一种双目视觉的非结构化地形实时感知与重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011352477.8A CN112598010B (zh) 2020-11-26 2020-11-26 一种双目视觉的非结构化地形实时感知与重构方法

Publications (2)

Publication Number Publication Date
CN112598010A CN112598010A (zh) 2021-04-02
CN112598010B true CN112598010B (zh) 2023-08-01

Family

ID=75184478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011352477.8A Active CN112598010B (zh) 2020-11-26 2020-11-26 一种双目视觉的非结构化地形实时感知与重构方法

Country Status (1)

Country Link
CN (1) CN112598010B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204443A (zh) * 2016-07-01 2016-12-07 成都通甲优博科技有限责任公司 一种基于多目复用的全景无人机系统
CN107656545A (zh) * 2017-09-12 2018-02-02 武汉大学 一种面向无人机野外搜救的自主避障与导航方法
CN109029417A (zh) * 2018-05-21 2018-12-18 南京航空航天大学 基于混合视觉里程计和多尺度地图的无人机slam方法
CN109579863A (zh) * 2018-12-13 2019-04-05 北京航空航天大学 基于图像处理的未知地形导航系统及方法
CN110084853A (zh) * 2019-04-22 2019-08-02 北京易达图灵科技有限公司 一种视觉定位方法及系统
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN111123911A (zh) * 2019-11-22 2020-05-08 北京空间飞行器总体设计部 一种腿足式智能星表探测机器人感知系统及其工作方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204443A (zh) * 2016-07-01 2016-12-07 成都通甲优博科技有限责任公司 一种基于多目复用的全景无人机系统
CN107656545A (zh) * 2017-09-12 2018-02-02 武汉大学 一种面向无人机野外搜救的自主避障与导航方法
CN109029417A (zh) * 2018-05-21 2018-12-18 南京航空航天大学 基于混合视觉里程计和多尺度地图的无人机slam方法
CN109579863A (zh) * 2018-12-13 2019-04-05 北京航空航天大学 基于图像处理的未知地形导航系统及方法
CN110084853A (zh) * 2019-04-22 2019-08-02 北京易达图灵科技有限公司 一种视觉定位方法及系统
CN111123911A (zh) * 2019-11-22 2020-05-08 北京空间飞行器总体设计部 一种腿足式智能星表探测机器人感知系统及其工作方法
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Revisiting Stereo Depth Estimation From a Sequence-to-Sequence Persective with Transformers";Zhaoshuo Li et al.;《arxiv》;全文 *
"一种基于智能手机成像的三维重建方法";曾昭鹏;《激光与光电子学进展》;全文 *
"基于双目视觉的地形三维重建";周瑜 等;《机械与电子》;第34卷(第7期);全文 *

Also Published As

Publication number Publication date
CN112598010A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN108932736B (zh) 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法
CN113436260A (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN111060924B (zh) 一种slam与目标跟踪方法
US20030014224A1 (en) Method and apparatus for automatically generating a site model
CN109238173B (zh) 一种储煤场三维实景重构系统及煤量快速估算方法
CN110334701B (zh) 数字孪生环境下基于深度学习和多目视觉的数据采集方法
CN103426165A (zh) 一种地面激光点云与无人机影像重建点云的精配准方法
Gao et al. Ground and aerial meta-data integration for localization and reconstruction: A review
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN113642463B (zh) 一种视频监控和遥感图像的天地多视图对齐方法
CN110998241A (zh) 用于校准可移动对象的光学系统的系统和方法
CN113345084B (zh) 三维建模系统及三维建模方法
CN108171753A (zh) 基于形心特征点与邻域灰度互相关性的立体视觉定位方法
CN111563957B (zh) 一种煤田火灾及矸石山火灾三维温度场数字化成像方法
CN110415363A (zh) 一种基于三目视觉的散乱物识别定位方法
CN111080685A (zh) 一种基于多视角立体视觉的飞机钣金零件三维重建方法及系统
CN116563377A (zh) 一种基于半球投影模型的火星岩石测量方法
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN115909025A (zh) 一种小天体表面采样点地形视觉自主检测识别方法
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
CN117523461A (zh) 一种基于机载单目相机的运动目标跟踪与定位方法
CN117392237A (zh) 一种鲁棒的激光雷达-相机自标定方法
CN114766039A (zh) 对象检测方法、对象检测设备、终端设备、以及介质
CN112598010B (zh) 一种双目视觉的非结构化地形实时感知与重构方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Shaojie

Inventor after: Hou Liang

Inventor after: Wu Binyun

Inventor after: Liang Haolao

Inventor after: Zhang Wenbo

Inventor after: Rao Hongyan

Inventor after: Chen Zebo

Inventor before: Wang Shaojie

Inventor before: Wu Binyun

Inventor before: Liang Haolao

Inventor before: Zhang Wenbo

Inventor before: Rao Hongyan

Inventor before: Chen Zebo

Inventor before: Hou Liang

GR01 Patent grant
GR01 Patent grant