CN108648219B - 一种基于双目的障碍物与可行区域检测方法 - Google Patents

一种基于双目的障碍物与可行区域检测方法 Download PDF

Info

Publication number
CN108648219B
CN108648219B CN201810307418.5A CN201810307418A CN108648219B CN 108648219 B CN108648219 B CN 108648219B CN 201810307418 A CN201810307418 A CN 201810307418A CN 108648219 B CN108648219 B CN 108648219B
Authority
CN
China
Prior art keywords
binocular
point cloud
point
feasible region
traversable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810307418.5A
Other languages
English (en)
Other versions
CN108648219A (zh
Inventor
张清泉
王军南
余饶东
唐杭生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dacheng Robot Technology Co ltd
Original Assignee
Zhejiang Dacheng Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dacheng Robot Technology Co ltd filed Critical Zhejiang Dacheng Robot Technology Co ltd
Priority to CN201810307418.5A priority Critical patent/CN108648219B/zh
Publication of CN108648219A publication Critical patent/CN108648219A/zh
Application granted granted Critical
Publication of CN108648219B publication Critical patent/CN108648219B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于双目的障碍物与可行区域检测方法,包括:步骤1:标定双目系统;步骤2:通过视觉SLAM算法构建环境地图;步骤3:进行点云拼接;步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下;步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable;步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。

Description

一种基于双目的障碍物与可行区域检测方法
技术领域
本发明涉及障碍物与可行区域检测技术领域,具体涉及一种基于双目的障碍物与可行区域检测方法。
背景技术
双目相机由于成本低廉,信息量大的优势在机器人构图、定位导航等应用中获得广泛应用。基于图像的构图通常使用视觉SLAM(simultaneous localization andmapping)系统,得到的地图形式为一系列关键帧和空间点的集合。该地图仅包含离散可行位姿,在实际应用中具有很大的局限性。双目相机可以通过左右图像的匹配得到真实世界的点云信息。然而图像匹配得到的点云存在噪声大、精度不高等问题,同样也制约了实际应用。
本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,克服了上述两个缺点,并进一步在融合后的点云中检测障碍物与可行区域。
发明内容
本发明提供了一种基于双目的障碍物与可行区域检测方法,在视觉SLAM系统得到关键帧和空间点的基础上,融合双目系统得到场景稠密点云,在该点云中检测障碍物与可行区域信息。
本发明所述地图为关键帧集合
Figure BDA0001621392760000011
Nk表示关键帧数目。所述关键帧表示为Ki
Figure BDA0001621392760000012
其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,
Figure BDA0001621392760000013
为双目相机系统在Ki位置时得到的图像。
本发明采用的技术方案如下:
一种基于双目的障碍物与可行区域检测方法,包括以下步骤:
步骤1:标定双目系统;
步骤1中,标定双目系统,分别得到两个相机的内参和外参,并且标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
步骤2:通过视觉SLAM算法构建环境地图;
所述的环境地图为关键帧集合
Figure BDA0001621392760000021
Nk表示关键帧数目,Kl、Ki
Figure BDA0001621392760000022
表示不同的关键帧,关键帧
Figure BDA0001621392760000023
其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,
Figure BDA0001621392760000024
为双目相机系统在Ki位置时得到的图像。
步骤3:进行点云拼接;
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法(opencv开源库中的代码)计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...Pip...Pmp},其中,mp为Ki形成的点云总数目,
Figure BDA0001621392760000025
(uip,vip)为三维点对应的图像坐标,
Figure BDA0001621392760000026
为三维点相对于左相机的坐标,
Figure BDA0001621392760000027
为该点云在世界坐标系中的坐标,并建立以下关系式:
Figure BDA0001621392760000028
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
Figure BDA0001621392760000029
Figure BDA00016213927600000210
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性;
Figure BDA0001621392760000031
I(u,v)记为获取图像I在(u,v)处的灰度值,
Figure BDA0001621392760000032
是指图像
Figure BDA0001621392760000033
在(uip+i,vip+j)处的灰度值,
Figure BDA0001621392760000034
是指图像
Figure BDA0001621392760000035
在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点
Figure BDA0001621392760000036
加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},
Figure BDA0001621392760000037
wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。
步骤4中,使用PCL点云库中的VoxelGridFilter对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
Figure BDA0001621392760000038
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
Figure BDA0001621392760000039
Figure BDA00016213927600000310
Figure BDA00016213927600000311
Figure BDA00016213927600000312
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable
Figure BDA0001621392760000041
检测转换后的Setw中是否存在点Pwj
Figure BDA0001621392760000042
满足以下关系:
Figure BDA0001621392760000043
Figure BDA0001621392760000044
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。
附图说明
图1为本发明基于双目的障碍物与可行区域检测方法的流程示意图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任意方式组合。
实施例一:
步骤1:标定系统。标定双目系统,分别得到两个相机的内参和外参。标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
步骤2:通过视觉SLAM算法构建环境地图。所述的环境地图为关键帧集合
Figure BDA0001621392760000051
Nk表示关键帧数目,K1、Ki
Figure BDA0001621392760000052
表示不同的关键帧,关键帧
Figure BDA0001621392760000053
其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,
Figure BDA0001621392760000054
为双目相机系统在Ki位置时得到的图像。
步骤3:进行点云拼接。构建三维点集合Setw={Pw1...Pwi...PwN},Pwi={xi,yi,zi},对于关键帧集合SetK中的每个元素Ki,执行下列操作。
步骤3.1:使用StereoBM算法(opencv开源库中的代码)算法计算双目视差图。并进一步将双目视差图转化为基于左相机的三维点云。形成点云集合SetP={P1...Pip...Pmp},其中mp为Ki形成的点云总数目。
Figure BDA0001621392760000055
(uip,vip)为三维点对应的图像坐标,
Figure BDA0001621392760000056
为三维点相对于左相机的坐标,
Figure BDA0001621392760000057
为该点云在世界坐标系中的坐标。
Figure BDA0001621392760000058
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1。以投影到Ki-1为例。
R'=Ri-1 T
t'=-Ri-1 T×ti-1
Figure BDA0001621392760000059
Figure BDA00016213927600000510
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性。
Figure BDA00016213927600000511
I(u,v)记为获取图像I在(u,v)处的灰度值。如果Ierr大于阈值ε,则Pip无效。否则判定Pip有效,将点
Figure BDA00016213927600000512
加入到集合Setw。I(u,v)记为获取图像I在(u,v)处的灰度值,
Figure BDA00016213927600000513
是指图像
Figure BDA00016213927600000514
在(uip+i,vip+j)处的灰度值,
Figure BDA00016213927600000515
是指图像
Figure BDA00016213927600000516
在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点
Figure BDA0001621392760000061
加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},
Figure BDA0001621392760000062
wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。使用PCL点云库中的VoxelGridFilter对点云进行降采样处理,设置降采样后的点云为Setw。使用下列公式将点云转换到移动底盘坐标系下。
Figure BDA0001621392760000063
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
Figure BDA0001621392760000064
Figure BDA0001621392760000065
Figure BDA0001621392760000066
Figure BDA0001621392760000067
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果zi小于阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable,检测Setw中是否存在点Pwj,满足以下关系:
Figure BDA0001621392760000068
Figure BDA0001621392760000069
则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。从而计算得到障碍物区域。

Claims (5)

1.一种基于双目的障碍物与可行区域检测方法,其特征在于,包括以下步骤:
步骤1:标定双目系统;
步骤2:通过视觉SLAM算法构建环境地图;
步骤3:进行点云拼接;
步骤4:将三维点集合Setw进行降采样,并将点云转到移动底盘坐标系下;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable,对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
Figure FDA0003286067040000011
Figure FDA0003286067040000012
Figure FDA0003286067040000013
Figure FDA0003286067040000014
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs,设置障碍物高度阈值h_thres,对于任意一点Pti∈Settraversable
Figure FDA0003286067040000015
检测转换后的Setw中是否存在点Pwj
Figure FDA0003286067040000016
满足以下关系:
Figure FDA0003286067040000021
Figure FDA0003286067040000022
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,将Pwj加入到Setobs中,并将该点Pwj在Settraversable中删除。
2.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤1中,标定双目系统,分别得到两个相机的内参和外参,并且标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
3.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤2中,所述的环境地图为关键帧集合
Figure FDA0003286067040000023
Nk表示关键帧数目,K1、Ki
Figure FDA0003286067040000024
表示不同的关键帧,关键帧
Figure FDA0003286067040000025
其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,
Figure FDA0003286067040000026
为双目相机系统在Ki位置时得到的图像。
4.根据权利要求3所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤3中,进行点云拼接,具体包括:
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...,Pip...,Pmp},其中,mp为Ki形成的点云总数目,
Figure FDA0003286067040000027
(uip,vip)为三维点对应的图像坐标,
Figure FDA0003286067040000028
为三维点相对于左相机的坐标,
Figure FDA0003286067040000029
为该点云在世界坐标系中的坐标,并建立以下关系式:
Figure FDA00032860670400000210
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
Figure FDA0003286067040000031
Figure FDA0003286067040000032
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中Ri-1 T表示对矩阵Ri-1进行转置;
步骤3.3:利用图像灰度值误差Ierr判定Pip有效性;
Figure FDA0003286067040000033
I(u,v)记为获取图像I在(u,v)处的灰度值,
Figure FDA0003286067040000034
是指图像
Figure FDA0003286067040000035
在(uip+i,vip+j)处的灰度值,
Figure FDA0003286067040000036
是指图像
Figure FDA0003286067040000037
在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点
Figure FDA0003286067040000038
加入到集合Setw,构建三维点集合Setw={Pw1...,Pwi...,PwN},
Figure FDA0003286067040000039
wN为三维点的个数。
5.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤4中,对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
Figure FDA00032860670400000310
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw
CN201810307418.5A 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法 Active CN108648219B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810307418.5A CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810307418.5A CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Publications (2)

Publication Number Publication Date
CN108648219A CN108648219A (zh) 2018-10-12
CN108648219B true CN108648219B (zh) 2022-02-22

Family

ID=63745857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810307418.5A Active CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Country Status (1)

Country Link
CN (1) CN108648219B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110864670B (zh) * 2019-11-27 2022-02-08 苏州智加科技有限公司 目标障碍物位置的获取方法和系统
CN111461981B (zh) * 2020-03-30 2023-09-01 北京百度网讯科技有限公司 点云拼接算法的误差估计方法和装置
CN113792583A (zh) * 2021-08-03 2021-12-14 北京中科慧眼科技有限公司 基于可行驶区域的障碍物检测方法、系统和智能终端

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101549683A (zh) * 2009-04-23 2009-10-07 上海交通大学 自动识别道路深坑与障碍物的车辆智能方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN105096386A (zh) * 2015-07-21 2015-11-25 中国民航大学 大范围复杂城市环境几何地图自动生成方法
CN106599108A (zh) * 2016-11-30 2017-04-26 浙江大学 一种三维环境中多模态环境地图构建方法
CN106650640A (zh) * 2016-12-05 2017-05-10 浙江大学 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN106802668A (zh) * 2017-02-16 2017-06-06 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
CN107169986A (zh) * 2017-05-23 2017-09-15 北京理工大学 一种障碍物检测方法及系统
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577126B2 (en) * 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101549683A (zh) * 2009-04-23 2009-10-07 上海交通大学 自动识别道路深坑与障碍物的车辆智能方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN105096386A (zh) * 2015-07-21 2015-11-25 中国民航大学 大范围复杂城市环境几何地图自动生成方法
CN106599108A (zh) * 2016-11-30 2017-04-26 浙江大学 一种三维环境中多模态环境地图构建方法
CN106650640A (zh) * 2016-12-05 2017-05-10 浙江大学 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN106802668A (zh) * 2017-02-16 2017-06-06 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
CN107169986A (zh) * 2017-05-23 2017-09-15 北京理工大学 一种障碍物检测方法及系统
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A stereo vision-based obstacle detection system in vehicles;Kunsoo Huh 等;《Optics and Lasers in Engineering》;20071231;第46卷(第2期);第168-178页 *
基于双目视觉的智能车辆障碍物探测技术研究;王荣本 等;《中国图象图形学报》;20071231;第12卷(第12期);第2158-2163页 *
基于点云图的农业导航中障碍物检测方法;姬长英 等;《农业工程学报》;20150430;第31卷(第7期);第173-179页 *
融合多特征基于图割实现视频遮挡区域检测;张世辉 等;《光学学报》;20150430;第35卷(第4期);第1-10页 *

Also Published As

Publication number Publication date
CN108648219A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam系统
CN107160395B (zh) 地图构建方法及机器人控制系统
RU2713611C2 (ru) Способ моделирования трехмерного пространства
CN105096386B (zh) 大范围复杂城市环境几何地图自动生成方法
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN114862949B (zh) 一种基于点线面特征的结构化场景视觉slam方法
CN108648219B (zh) 一种基于双目的障碍物与可行区域检测方法
Meilland et al. Dense omnidirectional RGB‐D mapping of large‐scale outdoor environments for real‐time localization and autonomous navigation
CN113658337B (zh) 一种基于车辙线的多模态里程计方法
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
CN110599545B (zh) 一种基于特征的构建稠密地图的系统
KR20220064524A (ko) 이미지 기반 측위 방법 및 시스템
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
Pirker et al. GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping.
CN116222543A (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
CN114037762A (zh) 基于图像与高精度地图配准的实时高精度定位方法
Tao et al. Automated processing of mobile mapping image sequences
Nirmal et al. Homing with stereovision
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
CN113888629A (zh) 一种基于rgbd相机的快速物体三维位姿估计方法
CN113739786A (zh) 一种面向四足机器人的室内环境感知方法、装置及设备
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
CN117036462A (zh) 基于事件相机的视觉定位方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant