CN108648219A - 一种基于双目的障碍物与可行区域检测方法 - Google Patents

一种基于双目的障碍物与可行区域检测方法 Download PDF

Info

Publication number
CN108648219A
CN108648219A CN201810307418.5A CN201810307418A CN108648219A CN 108648219 A CN108648219 A CN 108648219A CN 201810307418 A CN201810307418 A CN 201810307418A CN 108648219 A CN108648219 A CN 108648219A
Authority
CN
China
Prior art keywords
point
binocular
cloud
area
feasible solutions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810307418.5A
Other languages
English (en)
Other versions
CN108648219B (zh
Inventor
张清泉
王军南
余饶东
唐杭生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dacheng Robot Technology Co Ltd
Original Assignee
Zhejiang Dacheng Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dacheng Robot Technology Co Ltd filed Critical Zhejiang Dacheng Robot Technology Co Ltd
Priority to CN201810307418.5A priority Critical patent/CN108648219B/zh
Publication of CN108648219A publication Critical patent/CN108648219A/zh
Application granted granted Critical
Publication of CN108648219B publication Critical patent/CN108648219B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于双目的障碍物与可行区域检测方法,包括:步骤1:标定双目系统;步骤2:通过视觉SLAM算法构建环境地图;步骤3:进行点云拼接;步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下;步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable;步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。

Description

一种基于双目的障碍物与可行区域检测方法
技术领域
本发明涉及障碍物与可行区域检测技术领域,具体涉及一种基于双目的障碍物与可行区域检测方法。
背景技术
双目相机由于成本低廉,信息量大的优势在机器人构图、定位导航等应用中获得广泛应用。基于图像的构图通常使用视觉SLAM(simultaneous localization andmapping)系统,得到的地图形式为一系列关键帧和空间点的集合。该地图仅包含离散可行位姿,在实际应用中具有很大的局限性。双目相机可以通过左右图像的匹配得到真实世界的点云信息。然而图像匹配得到的点云存在噪声大、精度不高等问题,同样也制约了实际应用。
本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,克服了上述两个缺点,并进一步在融合后的点云中检测障碍物与可行区域。
发明内容
本发明提供了一种基于双目的障碍物与可行区域检测方法,在视觉SLAM系统得到关键帧和空间点的基础上,融合双目系统得到场景稠密点云,在该点云中检测障碍物与可行区域信息。
本发明所述地图为关键帧集合Nk表示关键帧数目。所述关键帧表示为Ki其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机系统在Ki位置时得到的图像。
本发明采用的技术方案如下:
一种基于双目的障碍物与可行区域检测方法,包括以下步骤:
步骤1:标定双目系统;
步骤1中,标定双目系统,分别得到两个相机的内参和外参,并且标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
步骤2:通过视觉SLAM算法构建环境地图;
所述的环境地图为关键帧集合Nk表示关键帧数目,Kl、Ki表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机系统在Ki位置时得到的图像。
步骤3:进行点云拼接;
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法(opencv开源库中的代码)计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...Pip...Pmp},其中,mp为Ki形成的点云总数目,
(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标,并建立以下关系式:
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性;
I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。
步骤4中,使用PCL点云库中的VoxelGridFilter对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable检测转换后的Setw中是否存在点Pwj满足以下关系:
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明在视觉SLAM系统构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。
附图说明
图1为本发明基于双目的障碍物与可行区域检测方法的流程示意图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任意方式组合。
实施例一:
步骤1:标定系统。标定双目系统,分别得到两个相机的内参和外参。标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
步骤2:通过视觉SLAM算法构建环境地图。所述的环境地图为关键帧集合Nk表示关键帧数目,K1、Ki表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机系统在Ki位置时得到的图像。
步骤3:进行点云拼接。构建三维点集合Setw={Pw1...Pwi...PwN},Pwi={xi,yi,zi},对于关键帧集合SetK中的每个元素Ki,执行下列操作。
步骤3.1:使用StereoBM算法(opencv开源库中的代码)算法计算双目视差图。并进一步将双目视差图转化为基于左相机的三维点云。形成点云集合SetP={P1...Pip...Pmp},其中mp为Ki形成的点云总数目。(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标。
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1。以投影到Ki-1为例。
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性。
I(u,v)记为获取图像I在(u,v)处的灰度值。如果Ierr大于阈值ε,则Pip无效。否则判定Pip有效,将点加入到集合Setw。I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。使用PCL点云库中的VoxelGridFilter对点云进行降采样处理,设置降采样后的点云为Setw。使用下列公式将点云转换到移动底盘坐标系下。
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果zi小于阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable,检测Setw中是否存在点Pwj,满足以下关系:
则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。从而计算得到障碍物区域。

Claims (5)

1.一种基于双目的障碍物与可行区域检测方法,其特征在于,包括以下步骤:
步骤1:标定双目系统;
步骤2:通过视觉SLAM算法构建环境地图;
步骤3:进行点云拼接;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable,对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs,设置障碍物高度阈值h_thres,对于任意一点Pti∈Settraversable检测转换后的Setw中是否存在点Pwj满足以下关系:
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。
2.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤1中,标定双目系统,分别得到两个相机的内参和外参,并且标定双目系统与移动底盘之间的旋转矩阵Rb和平移矩阵tb
3.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤2中,所述的环境地图为关键帧集合Nk表示关键帧数目,K1、Ki表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机系统在Ki位置时得到的图像。
4.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤3中,进行点云拼接,具体包括:
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...Pip...Pmp},其中,mp为Ki形成的点云总数目,(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标,并建立以下关系式:
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中Ri-1 T表示对矩阵Ri-1进行转置;
步骤3.3:利用图像灰度值误差判定Pip有效性;
I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数。
5.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤4中,对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw
CN201810307418.5A 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法 Active CN108648219B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810307418.5A CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810307418.5A CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Publications (2)

Publication Number Publication Date
CN108648219A true CN108648219A (zh) 2018-10-12
CN108648219B CN108648219B (zh) 2022-02-22

Family

ID=63745857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810307418.5A Active CN108648219B (zh) 2018-04-08 2018-04-08 一种基于双目的障碍物与可行区域检测方法

Country Status (1)

Country Link
CN (1) CN108648219B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110864670A (zh) * 2019-11-27 2020-03-06 苏州智加科技有限公司 目标障碍物位置的获取方法和系统
CN111461981A (zh) * 2020-03-30 2020-07-28 北京百度网讯科技有限公司 点云拼接算法的误差估计方法和装置
CN113792583A (zh) * 2021-08-03 2021-12-14 北京中科慧眼科技有限公司 基于可行驶区域的障碍物检测方法、系统和智能终端

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253613A1 (en) * 2007-04-11 2008-10-16 Christopher Vernon Jones System and Method for Cooperative Remote Vehicle Behavior
CN101549683A (zh) * 2009-04-23 2009-10-07 上海交通大学 自动识别道路深坑与障碍物的车辆智能方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN105096386A (zh) * 2015-07-21 2015-11-25 中国民航大学 大范围复杂城市环境几何地图自动生成方法
CN106599108A (zh) * 2016-11-30 2017-04-26 浙江大学 一种三维环境中多模态环境地图构建方法
CN106650640A (zh) * 2016-12-05 2017-05-10 浙江大学 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN106802668A (zh) * 2017-02-16 2017-06-06 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
CN107169986A (zh) * 2017-05-23 2017-09-15 北京理工大学 一种障碍物检测方法及系统
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253613A1 (en) * 2007-04-11 2008-10-16 Christopher Vernon Jones System and Method for Cooperative Remote Vehicle Behavior
CN101549683A (zh) * 2009-04-23 2009-10-07 上海交通大学 自动识别道路深坑与障碍物的车辆智能方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN105096386A (zh) * 2015-07-21 2015-11-25 中国民航大学 大范围复杂城市环境几何地图自动生成方法
CN106599108A (zh) * 2016-11-30 2017-04-26 浙江大学 一种三维环境中多模态环境地图构建方法
CN106650640A (zh) * 2016-12-05 2017-05-10 浙江大学 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN106802668A (zh) * 2017-02-16 2017-06-06 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
CN107169986A (zh) * 2017-05-23 2017-09-15 北京理工大学 一种障碍物检测方法及系统
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KUNSOO HUH 等: "A stereo vision-based obstacle detection system in vehicles", 《OPTICS AND LASERS IN ENGINEERING》 *
姬长英 等: "基于点云图的农业导航中障碍物检测方法", 《农业工程学报》 *
张世辉 等: "融合多特征基于图割实现视频遮挡区域检测", 《光学学报》 *
王荣本 等: "基于双目视觉的智能车辆障碍物探测技术研究", 《中国图象图形学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110864670A (zh) * 2019-11-27 2020-03-06 苏州智加科技有限公司 目标障碍物位置的获取方法和系统
CN111461981A (zh) * 2020-03-30 2020-07-28 北京百度网讯科技有限公司 点云拼接算法的误差估计方法和装置
CN111461981B (zh) * 2020-03-30 2023-09-01 北京百度网讯科技有限公司 点云拼接算法的误差估计方法和装置
CN113792583A (zh) * 2021-08-03 2021-12-14 北京中科慧眼科技有限公司 基于可行驶区域的障碍物检测方法、系统和智能终端

Also Published As

Publication number Publication date
CN108648219B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
JP6852936B1 (ja) 深度点線特徴に基づくドローン視覚走行距離計方法
CN107958482B (zh) 一种三维场景模型构建方法及装置
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
JP6295645B2 (ja) 物体検出方法及び物体検出装置
CN109377513B (zh) 一种针对两视图的全局三维人体姿态可信估计方法
CN106873619B (zh) 一种无人机飞行路径的处理方法
CN106204443A (zh) 一种基于多目复用的全景无人机系统
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
CN108648219A (zh) 一种基于双目的障碍物与可行区域检测方法
Pirker et al. GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping.
CN112802096A (zh) 实时定位和建图的实现装置和方法
CN112950696A (zh) 导航地图的生成方法及生成装置、电子设备
JP2022089269A (ja) キャリブレーション装置およびキャリブレーション方法
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
CN112017259B (zh) 一种基于深度相机与热像仪的室内定位与建图方法
JP2005250994A (ja) ステレオ画像処理装置
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及系统
CN110570473A (zh) 一种基于点线融合的权重自适应位姿估计方法
CN116664621A (zh) 一种基于车载多目摄像头和深度神经网络的slam系统
CN115588133A (zh) 适用于动态环境的视觉slam方法
CN113723432A (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant