CN117148832A - 一种基于多深度相机的移动机器人避障方法 - Google Patents
一种基于多深度相机的移动机器人避障方法 Download PDFInfo
- Publication number
- CN117148832A CN117148832A CN202311056970.9A CN202311056970A CN117148832A CN 117148832 A CN117148832 A CN 117148832A CN 202311056970 A CN202311056970 A CN 202311056970A CN 117148832 A CN117148832 A CN 117148832A
- Authority
- CN
- China
- Prior art keywords
- depth
- depth camera
- point cloud
- obstacle
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000006399 behavior Effects 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及一种基于多深度相机的移动机器人避障方法,该方法包括以下步骤:步骤S1、在移动机器人上布设多深度相机组合,并进行相机外参在线标定;步骤S2、融合多个深度相机的三维点云数据后进行语义识别,区分出不同障碍物,并针对不同的障碍物确立对应的避障行为;步骤S3、将三维深度点云数据投影成二维障碍物信息,并与激光雷达输出的二维障碍物信息进行融合,采用融合后的障碍物信息进行移动机器人避障。与现有技术相比,本发明提升了对悬空及低矮障碍物的避障效果,避障流畅性更好,且部署更为简便。
Description
技术领域
本发明涉及机器人避障领域,尤其是涉及一种基于多深度相机的移动机器人避障方法。
背景技术
近年来,随着机器人行业的蓬勃发展,移动机器人开始广泛地应用在工业、农业、国防、服务等行业中。同时,这也对机器人提出了挑战,需要机器人能够在各种复杂的动态环境中自主执行导航的作用。机器人导航的一个关键方面是避障,它确保机器人在障碍物存在的情况下安全高效地移动。
目前机器人中,主要使用2D激光雷达传感器进行避障,对于悬空或者低矮等空间障碍物缺乏处理能力,导致相撞。即使对于一些使用深度相机避障的方案而言,存在着相机覆盖视角比较小,多相机部署麻烦等问题。另外,由于深度相机获取的是三维空间信息,无法直接与2D激光雷达的障碍物信息进行融合,如果直接使用三维信息去避障又会对处理性能的要求比较高,算法复杂度也会剧增。同时,对于一些采用深度相机3D避障的方法,丢失了很多语义的信息,对资源造成了一定的浪费。
因此,亟需设计一种可对悬空或者低矮等空间障碍物进行有效避障、部署便捷、兼具避障准确性和实时性的移动机器人避障方法。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供了一种可对悬空或者低矮等空间障碍物进行有效避障、部署便捷、兼具避障准确性和实时性的基于多深度相机的移动机器人避障方法。
本发明的目的可以通过以下技术方案来实现:
本发明提供了一种基于多深度相机的移动机器人避障方法,该方法包括以下步骤:
步骤S1、在移动机器人上布设多深度相机组合,并进行相机外参在线标定;
步骤S2、融合多个深度相机的三维点云数据后进行语义识别,区分出不同障碍物,并针对不同的障碍物确立对应的避障行为;
步骤S3、将三维深度点云数据投影成二维障碍物信息,并与激光雷达输出的二维障碍物信息进行融合,采用融合后的障碍物信息进行移动机器人避障。
优选地,所述相机外参为深度相机相对于移动机器人底盘坐标系的安装位置信息。
优选地,所述深度相机的数量至少为三。
优选地,所述相机外参在线标定,具体为:仅计算多深度相机组合中一个深度相机的位置,基于多深度相机间视野存在一定共识范围条件,进行剩余深度相机的外参标定。
优选地,所述仅计算多深度相机组合中一个深度相机的位置,基于多深度相机间视野存在一定共识范围条件,进行剩余深度相机的外参标定,具体包括以下子步骤:
1)选定任意一个深度相机作为基准深度相机,根据结构图测量出所述基准深度相机相对于移动机器人底盘坐标系的外参;
2)获取所有深度相机的三维点云数据;
3)使用特征提取算法从所有的三维点云数据中提取特征点,并对提取的特征点进行特征描述子计算;
4)对任一个剩余深度相机点云的特征点与基准深度相机点云的特征点进行特征匹配,找到匹配的特征点对,计算出两个点云之间的初始旋转矩阵;
5)采用迭代最近点ICP算法优化旋转矩阵,得到当前深度相机点云相对于基准深度相机点云的旋转变换矩阵;其中,ICP算法通过迭代最小化点云之间的距离度量来优化旋转矩阵的估计;
6)基于基准深度相机外参、以及当前深度相机点云相对于基准深度相机点云的旋转矩阵,计算出当前深度相机的外参;
7)重复步骤4)~6),遍历得到所有深度相机的外参数。
优选地,所述步骤S2包括以下子步骤:
步骤S21、根据深度相机当前观测的深度图像和深度相机内参,转化二维像素为深度点云,然后根据深度相机外参,将所有深度相机的三维点云数据统一至同一坐标系下;
步骤S22、通过高度阈值进行点云筛选,滤除地面点云;
步骤S23、对点云进行障碍物分割得到行人信息,根据不同语义信息做出不同的避障逻辑。
优选地,所述步骤S22中通过高度阈值进行点云筛选,滤除地面点云,具体为:
对筛选后的点云计算每个点的表面法向量,并设置阈值,将法向量接近垂直于竖直方向的点视为地面点,以滤除地面点云。
优选地,所述步骤S23中根据不同语义信息做出不同的避障逻辑,具体为:
对于行人类障碍物,机器人在避障时,优先等待一下并播报提醒语音,待行人离开或一定时间后再继续行驶,而其它的障碍物则快速重新规划路径绕开;
对于静态障碍物,在多次检测到后添加到路径规划记忆中。
优选地,所述步骤S3包括以下子步骤:
步骤S31、将步骤S2处理后的三维点云数据投影成二维代价地图;
步骤S32、将当前激光雷达观测形成的二维代价地图以及深度点云投影生成的二维代价地图进行融合,合并得到一张机器人避障使用的代价地图。
优选地,所述步骤S32中,还包括:判断深度障碍物点附近是否存在激光雷达的障碍物信息,如有选择激光雷达观测的信息。
与现有技术相比,本发明具有以下有益效果:
1)本发明通过多个深度相机组合,全方位覆盖机器人的移动视角,减少机器人的盲区,提升对悬空以及低矮障碍物的处理效果;对于多个相机组合,提出多相机外参的在线标定,简化深度相机的部署流程。
2)本发明通过融合多个相机的点云数据,进行语义的识别,区分出地面、行人等语义信息,针对不同的语义,做出不同的避障行为,让机器人变得更加智能。
3)本发明将三维深度点云数据进行投影,得到机器人使用的二维障碍物信息,降低算法的复杂度以及处理性能的要求;同时为了提升深度信息的精确性,将之与二维雷达障碍物信息进行有效融合,达到互补的作用,保证机器人行走的流畅度。
附图说明
图1为本发明的方法流程图;
图2为多深度相机组合位置布设示意图,图2a、2b分别为多角度示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
如图1所示,本实施例给出了一种基于多深度相机的移动机器人避障方法,该方法包括以下步骤:
步骤S1、在移动机器人上布设多深度相机组合,并进行相机外参(深度相机相对于移动机器人底盘坐标系的安装位置信息)在线标定;
进一步的,深度相机的数量至少为三,其视野满足覆盖悬空和低矮障碍物;
进一步的,本实施例中仅计算多深度相机组合中一个深度相机的位置,基于多深度相机间视野存在一定共识范围条件,进行剩余深度相机的外参标定,具体包括以下子步骤:
1)选定任意一个深度相机作为基准深度相机,根据结构图测量出所述基准深度相机相对于移动机器人底盘坐标系的外参;
2)获取所有深度相机的三维点云数据;
3)使用特征提取算法从所有的三维点云数据中提取特征点,并对提取的特征点进行特征描述子计算;
4)对任一个剩余深度相机点云的特征点与基准深度相机点云的特征点进行特征匹配,找到匹配的特征点对,计算出两个点云之间的初始旋转矩阵;
5)采用迭代最近点ICP算法优化旋转矩阵,得到当前深度相机点云相对于基准深度相机点云的旋转变换矩阵;其中,ICP算法通过迭代最小化点云之间的距离度量来优化旋转矩阵的估计;
6)基于基准深度相机外参、以及当前深度相机点云相对于基准深度相机点云的旋转矩阵,计算出当前深度相机的外参;
7)重复步骤4)~6),遍历得到所有深度相机的外参。
步骤S2、融合多个深度相机的三维点云数据后进行语义识别,区分出不同障碍物,并针对不同的障碍物确立对应的避障行为,包括以下子步骤:
步骤S21、根据深度相机当前观测的深度图像和深度相机内参,转化二维像素为深度点云,然后根据深度相机外参,将所有深度相机的三维点云数据统一至同一坐标系下;
步骤S22、通过高度阈值进行点云筛选,滤除地面点云:对筛选后的点云计算每个点的表面法向量,并设置阈值,将法向量接近垂直于竖直方向的点视为地面点,以滤除地面点云;
步骤S23、对点云进行障碍物分割得到行人信息,根据不同语义信息做出不同的避障逻辑:对于行人类障碍物,机器人在避障时,优先等待一下并播报提醒语音,待行人离开或一定时间后再继续行驶,而其它的障碍物则快速重新规划路径绕开;
对于静态障碍物,在多次检测到后添加到路径规划记忆中。
步骤S3、将三维深度点云数据投影成二维障碍物信息,并与激光雷达输出的二维障碍物信息进行融合,采用融合后的障碍物信息进行移动机器人避障,具体为:
步骤S31、将步骤S2处理后的三维点云数据投影成二维代价地图;
步骤S32、将当前激光雷达观测形成的二维代价地图以及深度点云投影生成的二维代价地图进行融合,合并得到一张机器人避障使用的代价地图;
其中,融合过程包括:判断深度障碍物点附近是否存在激光雷达的障碍物信息,如有选择激光雷达观测的信息。
接下来,结合附图2,以三个深度相机组合为例,进行具体阐述。
1、多相机组合:
本实施例中组合三个深度相机,安装在图2中所示的位置,充分利用三个相机的视野,观测到更多的障碍物信息,覆盖悬空以及低矮障碍物。同时,为了使机器人能够精确感知障碍物,需要对多个相机进行外参(对于多个传感器而言,他们之间的旋转变换称之为外参)标定,以便将深度点云数据正确变换到机器人坐标系中进行避障,下面着重讲述下三个相机外参的在线标定。正常而言,我们需要知道三个深度相机每一个相对于机器人base坐标系的安装位置即外参,所以每添加一个相机或者改变相机的位置,所有的外参都要重新计算。如此的过程过于繁琐,计算不慎便会造成感知偏差,从而导致避障效果差。本文只需计算其中一个相机的位置,并保证三个相机有一定共识范围,即可快捷地自动化完成其余相机的外参。具体步骤如下:
1)首先,先计算出其中一个深度相机的位置,根据结构图测量出其相对于机器人底盘坐标系的外参
2)获取三个深度相机的点云数据,并进行预处理,例如去噪、滤波等,点云为Pc1,Pc2,Pc3;
3)使用特征提取算法(如SIFT、ORB等)从三个点云中提取特征点,对提取的特征点进行特征描述子计算,以便进行匹配;
4)分别对点云Pc2,Pcs的特征点与点云Pc1的特征点进行特征匹配,找到匹配的特征点对,计算出两个点云之间的初始旋转矩阵;
5)采用迭代最近点(Iterative Closest Point,ICP)算法进一步优化旋转矩阵。ICP算法通过迭代最小化点云之间的距离度量来优化旋转矩阵的估计;
6)重复执行步骤5和步骤6,直到旋转矩阵收敛或达到最大迭代次数;
7)最终得到点云Pc2,Pc3相对于点云Pc1的旋转变换由于第一个相机的外参/>已知,根据公式:
可得第二个相机的外参,同理可得第三个相机的外参。
到此,完成了相机的外参标定。
2、点云分割:
融合多个相机的深度点云数据,进行语义识别,区分出地面、行人等语义信息,针对不同的语义,做出不同的避障行为。
首先,三个相机各自得到当前观测的深度图像。基于深度图像以及相机的内参,将二维像素转化为空间点,即深度的点云。同时,根据三个相机的外参,我们可以进一步对三个点云进行融合,统一到同一个坐标系下,至此将三个相机点云数据融合到了一起,方便后续的处理。由于点云数据中包含较多的噪点,我们对点云进行预处理,主要包括去噪以及滤波等操作,以及边界阈值的筛选,只保存一定范围的观测,这样可以加速算法的计算,丢掉无用的点云数据。
接下来,需要对处理后的点云数据进行地面的滤除,否则点云数据中一直包含障碍物信息,机器无法行走。由于我们已经将点云旋转到机器人坐标系下,所以可以通过高度阈值的筛选来加速地面点云的滤除。地面通常具有较平坦的法向量,因此使用法向量来识别地面点云是一种常见的方法。对筛选后的点云计算每个点的表面法向量,并设置一个阈值,可以将法向量接近垂直于竖直方向的点视为地面点。
然后对点云进行障碍物的分割,得到行人等信息。根据这些不同的语义,我们做出不同的避障逻辑。对于行人这类的障碍物,机器人在避障时,可以优先等待一下并播报提醒语音,等行人离开或一定时间后再继续行驶,而其它的障碍物则可以快速重新规划路径绕开。而对于一些其它障碍物,我们认为了现实场景发生了改变,增添了一些静态障碍物,会在多次检测到后添加到路径规划记忆中,防止路径搜索的振荡。
3、障碍物点云信息与激光雷达的障碍物信息融合:
在实际使用中,由于2D激光雷达传感器的低价格、高精度的特性,成为了机器人中进行建图与导航的主要传感器。所以有效地融合激光雷达与深度相机感知的障碍物信息,可以高效地提升机器人避障效果的性能。同时,由于平台计算性能的限制,无法使用多个相机的点云数据进行避障,以及3D深度避障信息无法直接与当前2D激光雷达的障碍物信息进行融合,我们需要将上述处理后的深度点云数据投影成2D的代价地图(2D激光雷达导航避障中使用的地图)信息。投影之前,需要定义代价地图的边界范围和分辨率,根据定义的范围和大小,初始化一个空的网格地图,然后将网格边界范围内的点云投影到2D平面。下一步,就可以开始两个代价地图的融合了。
在两个障碍物信息的代价地图融合过程中,由于深度相机内参与外参还是存在一定的误差,以及传感器本身的精度相比于雷达而言差一些,所以我们想要融合得到一个更优的障碍物信息,即相同位置的障碍物信息优先相信激光雷达的观测。具体来说,步骤如下:
获取当前激光雷达观测形成的2D代价地图以及上述深度点云投影成的2D代价地图,地图中包含了障碍物的具体位置信息;
判断深度障碍物点附近是否存在激光雷达的障碍物信息,如有选择激光雷达观测的信息;
合并两张代价地图为一张代价地图,作为机器人避障使用的代价地图。
这样融合后,可以降低深度相机带来的噪点,更加关注激光雷达观测不到的障碍物,提升机器人避障效果即行走流畅度。举个例子,如果只是简单两张地图的叠加,那么像窄道等一些地方,本身通行距离就不够,由于深度噪点存在,使得窄道通行效果更差。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于多深度相机的移动机器人避障方法,其特征在于,该方法包括以下步骤:
步骤S1、在移动机器人上布设多深度相机组合,并进行相机外参在线标定;
步骤S2、融合多个深度相机的三维点云数据后进行语义识别,区分出不同障碍物,并针对不同的障碍物确立对应的避障行为;
步骤S3、将三维深度点云数据投影成二维障碍物信息,并与激光雷达输出的二维障碍物信息进行融合,采用融合后的障碍物信息进行移动机器人避障。
2.根据权利要求1所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述相机外参为深度相机相对于移动机器人底盘坐标系的安装位置信息。
3.根据权利要求1所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述深度相机的数量至少为三。
4.根据权利要求1所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述相机外参在线标定,具体为:仅计算多深度相机组合中一个深度相机的位置,基于多深度相机间视野存在一定共识范围条件,进行剩余深度相机的外参标定。
5.根据权利要求4所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述仅计算多深度相机组合中一个深度相机的位置,基于多深度相机间视野存在一定共识范围条件,进行剩余深度相机的外参标定,具体包括以下子步骤:
1)选定任意一个深度相机作为基准深度相机,根据结构图测量出所述基准深度相机相对于移动机器人底盘坐标系的外参;
2)获取所有深度相机的三维点云数据;
3)使用特征提取算法从所有的三维点云数据中提取特征点,并对提取的特征点进行特征描述子计算;
4)对任一个剩余深度相机点云的特征点与基准深度相机点云的特征点进行特征匹配,找到匹配的特征点对,计算出两个点云之间的初始旋转矩阵;
5)采用迭代最近点ICP算法优化旋转矩阵,得到当前深度相机点云相对于基准深度相机点云的旋转变换矩阵;其中,ICP算法通过迭代最小化点云之间的距离度量来优化旋转矩阵的估计;
6)基于基准深度相机外参、以及当前深度相机点云相对于基准深度相机点云的旋转矩阵,计算出当前深度相机的外参;
7)重复步骤4)~6),遍历得到所有深度相机的外参数。
6.根据权利要求3所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述步骤S2包括以下子步骤:
步骤S21、根据深度相机当前观测的深度图像和深度相机内参,转化二维像素为深度点云,然后根据深度相机外参,将所有深度相机的三维点云数据统一至同一坐标系下;
步骤S22、通过高度阈值进行点云筛选,滤除地面点云;
步骤S23、对点云进行障碍物分割得到行人信息,根据不同语义信息做出不同的避障逻辑。
7.根据权利要求6所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述步骤S22中通过高度阈值进行点云筛选,滤除地面点云,具体为:
对筛选后的点云计算每个点的表面法向量,并设置阈值,将法向量接近垂直于竖直方向的点视为地面点,以滤除地面点云。
8.根据权利要求6所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述步骤S23中根据不同语义信息做出不同的避障逻辑,具体为:
对于行人类障碍物,机器人在避障时,优先等待一下并播报提醒语音,待行人离开或一定时间后再继续行驶,而其它的障碍物则快速重新规划路径绕开;
对于静态障碍物,在多次检测到后添加到路径规划记忆中。
9.根据权利要求1所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述步骤S3包括以下子步骤:
步骤S31、将步骤S2处理后的三维点云数据投影成二维代价地图;
步骤S32、将当前激光雷达观测形成的二维代价地图以及深度点云投影生成的二维代价地图进行融合,合并得到一张机器人避障使用的代价地图。
10.根据权利要求9所述的一种基于多深度相机的移动机器人避障方法,其特征在于,所述步骤S32中,还包括:判断深度障碍物点附近是否存在激光雷达的障碍物信息,如有选择激光雷达观测的信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311056970.9A CN117148832A (zh) | 2023-08-21 | 2023-08-21 | 一种基于多深度相机的移动机器人避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311056970.9A CN117148832A (zh) | 2023-08-21 | 2023-08-21 | 一种基于多深度相机的移动机器人避障方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117148832A true CN117148832A (zh) | 2023-12-01 |
Family
ID=88905339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311056970.9A Pending CN117148832A (zh) | 2023-08-21 | 2023-08-21 | 一种基于多深度相机的移动机器人避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117148832A (zh) |
-
2023
- 2023-08-21 CN CN202311056970.9A patent/CN117148832A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160302B (zh) | 基于自动驾驶环境的障碍物信息识别方法和装置 | |
US10430659B2 (en) | Method and apparatus for urban road recognition based on laser point cloud, storage medium, and device | |
WO2022188663A1 (zh) | 一种目标检测方法及装置 | |
Weon et al. | Object Recognition based interpolation with 3d lidar and vision for autonomous driving of an intelligent vehicle | |
CN110197173B (zh) | 一种基于双目视觉的路沿检测方法 | |
WO2017138245A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
EP3324359B1 (en) | Image processing device and image processing method | |
WO2022099530A1 (zh) | 点云数据运动分割方法、装置、计算机设备和存储介质 | |
JP2014175007A (ja) | 道路エッジ検出方法及び道路エッジ検出装置 | |
CN112753038B (zh) | 识别车辆变道趋势的方法和装置 | |
CN114051628B (zh) | 一种确定目标对象点云集的方法及装置 | |
US20150156471A1 (en) | Method and device for processing stereoscopic data | |
KR20210090384A (ko) | 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치 | |
CN111213153A (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
US11912310B2 (en) | Autonomous driving crash prevention | |
Goga et al. | Fusing semantic labeled camera images and 3D LiDAR data for the detection of urban curbs | |
Zhao et al. | Omni-Directional Obstacle Detection for Vehicles Based on Depth Camera | |
CN114120254A (zh) | 道路信息识别方法、装置及存储介质 | |
Panda | Road boundary detection using 3d-to-2d transformation of lidar data and conditional generative adversarial networks | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
US20230367319A1 (en) | Intelligent obstacle avoidance method and apparatus based on binocular vision, and non-transitory computer-readable storage medium | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN117148832A (zh) | 一种基于多深度相机的移动机器人避障方法 | |
CN112433193B (zh) | 一种基于多传感器的模位置定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |