CN117519168A - 一种基于视觉图像和激光雷达的机器人导航避障方法 - Google Patents
一种基于视觉图像和激光雷达的机器人导航避障方法 Download PDFInfo
- Publication number
- CN117519168A CN117519168A CN202311535734.5A CN202311535734A CN117519168A CN 117519168 A CN117519168 A CN 117519168A CN 202311535734 A CN202311535734 A CN 202311535734A CN 117519168 A CN117519168 A CN 117519168A
- Authority
- CN
- China
- Prior art keywords
- image
- robot
- area
- btm
- obs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 title claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 19
- 230000004888 barrier function Effects 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000006467 substitution reaction Methods 0.000 claims description 7
- 239000011295 pitch Substances 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及机器人技术领域,具体公开了一种基于视觉图像和激光雷达的机器人导航避障方法,包括:Z1:采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;Z2:根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;Z3:机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;Z4:机器人根据优化的行进速度和转向角进行移动,重复执行上一步骤,直到机器人移动到目标点;本发明对图像的分析处理更好地保留了道路的实际边缘信息,机器人在移动时实时跟进机器人和障碍物的位置关系,能够快速有效地绕开障碍物以完成导航避障移动。
Description
技术领域
本发明属于机器人技术领域,具体涉及一种基于视觉图像和激光雷达的机器人导航避障方法。
背景技术
随着科学技术的发展、机器人性能和智能性的不断提高,机器人已经广泛应用于生活服务、军事、工业生产和未知领域探索等各种领域。现今应用于机器人的外部环境感知传感器有超声、激光雷达、红外、摄像机等,根据信息的来源可以把环境感知传感器分为主动与被动两种。通过发射测量信号再接受外界环境对信号的反射信号的传感器称为主动传感器,如激光雷达、声呐、红外等;而CCD摄像机和红外摄像机等的工作原理则是通过感受物体对光线的反射或物体自身所发出的信息而得到环境图像信息,这种传感器称为被动传感器。
现如今在机器人领域,机器人运动过程中,会遇到障碍物出现在前进路线上或路线附近。在机器人运动过程中要考虑机器人目标点方向、机器人与路径的距离、机器人与障碍物的距离等因素。机器人与障碍物的位置相对移动时,障碍物的位置由于机器人移动而发生变化,机器人行进会受到影响,影响机器人运动流畅性。
发明内容
本发明的目的在于提供一种基于视觉图像和激光雷达的机器人导航避障方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于视觉图像和激光雷达的机器人导航避障方法,包括:
Z1:采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;
Z2:根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;
Z3:机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;
Z4:机器人根据优化的行进速度和转向角进行移动,重复执行上一步骤,直到机器人移动到目标点。
优选的,所述在Z2中通过BP神经网络对障碍物距离信息进行融合,所述BP神经网络采用三层前向神经网络结构,神经网络的输入数据d1(左侧)、d2(前方)和d3(右侧)以及障碍物距离d4,输出机器人到所测障碍物的距离Dk。
优选的,所述设BP神经网络输入向量为PK=(d1,d2,d3,d4),目标向量为TK=(y1),输入层节点i的输出为Yi 1,中间层节点j的输出为Yj 2,输出层节点k的输出为Yk 3,输入层与中间层间的连接权值为Wij,中间层与输出层间的连接权值为Wjk,中间层节点的阈值为θj,输出层节点的阈值为θk,选择Sigmoid函数作为神经元的转移函数,公式为:误差函数为:
优选的,所述在Z2中应用超像素分割算法对输入的道路视频图像进行预分割,将分割得到的超像素数目代替图像中的像素点数目,将得到的每个超像素看作是一个整体区域;然后进行超像素类别的二次分类,应用近邻传播聚类算法对得到的超像素反复多次融合成大的图像区域;最后根据相关判断准则,检测出道路区域。
优选的,所述近邻传播聚类算法为任意两个样本xi和xk之间建立相似度信息,设N个样本点的相似度信息被存储在N×N的相似度矩阵S中,其中S=[s(i,k)]N×N,对角线上的元素s(k,k)的值决定了聚类中心,s(k,k)称为偏向参数p,p的值能够控制最终选择的聚类类别数目:p的值越大,聚类类别数目越多;p的值越小,聚类类别数目越小,将p的值设置为S的均值,S中元素s(i,j)的计算公式如下:
优选的,所述判断准则如下:1)计算每个图像区域的质心,若某个区域质心纵坐标大于整幅图像高度的一半,则该区域是道路的可能性较大;2)计算每个图像区域的面积,若某个区域面积较大,则该区域是道路的可能性较大。
优选的,所述在Z3中提取相邻时刻两帧图像的Harris角点特征并采用绝对差准则进行特征匹配,计算出运动造成背景图像运动的模型参数,对两帧中的第一帧图像进行补偿,接着对补偿后的图像与第二帧图像使用帧间差分法,得到运动障碍物。
优选的,所述Harris角点特征提取步骤如下:
(1)计算点(x,y)在灰度图像I上沿x、y方向的梯度Ix(x,y)和Iy(x,y):
其中,表示卷积算子;
(2)计算自相关矩阵M:
其中,ω表示高斯窗平滑函数,ω=exp(-(x2+y2)/2δ2),表示卷积算子。
优选的,所述角点特征匹配的基本原理为:以参考帧中检测出的任一角点特征作为几何中心创建矩形图像块,将此作为基准特征窗;在当前帧中以参考帧中的对应角点特征作为几何中心构造一个大于基准特征窗的矩形区域作为搜索区域;在搜索区域内以一定的搜索策略寻找与基准特征窗匹配的区域,则该角点为匹配特征点,选择精度较高的双线性运动模型来对镜头的自运动引起的图像运动进行描述,双线性运动模型的坐标满足下式:
优选的,所述在Z3中障碍物测距的步骤如下:
1)获取机器人采集的前方道路图像;
2)对道路区域内的障碍物进行检测,并将识别出的障碍物区域用矩形包围框在图像中框定出来;
3)求矩形包围框底边中点在图像像素坐标系下的坐标(uobs,vobs);
4)求图像底边中点在图像像素坐标系下的坐标(ubtm,vbtm);
5)分别将图像像素坐标系下的坐标(uobs,vobs)和(ubtm,vbtm)代入公式求出对应的图像物理坐标系下的坐标(xobs,yobs)和(xbtm,ybtm);
6)分别将图像物理坐标(xobs,yobs)和(xbtm,ybtm)代入公式
,求出对应的机器人坐标系下的坐标(Xobs,Yobs)和(Xbtm,Ybtm);
7)通过欧式距离公式计算机器人距障碍物的距离d4,公式如下:
其中,在5)中(u0,v0)表示像素图像的中心点坐标,t和s分别表示单位像素间距在图像物理坐标系x轴和y轴方向的物理尺寸,s=W/M,t=H/L,W和H分别表示图像物理坐标系下的图像宽度和高度的毫米数,M和L分别表示图像像素坐标系下的图像宽度和高度的像素点数;在6)中γ0表示为俯仰角,β0表示为镜头水平市视场角的一半,α0表示为镜头的垂直视场角的一半,h为镜头的高度,点(xp,yp)表示图像物理坐标系的任意一点,点(XP,YP)表示机器人坐标系对应点。
优选的,所述在Z3中转向角设定包括:左大转、左稍转、直行、右稍转、右大转,所述在Z3中根据障碍物的大小、数量来确定行进速度的选取,行进速度设定包括:快速、中速、慢速,速度范围为[0m/s,2m/s],且障碍物越大(越多)行进速度则越慢。
与现有技术相比,本发明的有益效果是:
本发明采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;机器人根据优化的行进速度和转向角进行移动,重复执行前述步骤,直到机器人移动到目标点,本发明对图像的分析处理更好地保留了道路的实际边缘信息,机器人在移动时实时跟进机器人和障碍物的位置关系,沿道路线路行进,能够快速有效地绕开障碍物以完成导航避障移动。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
请参阅图1所示,一种基于视觉图像和激光雷达的机器人导航避障方法,包括:
Z1:采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;
Z2:根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;
Z3:机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;
Z4:机器人根据优化的行进速度和转向角进行移动,重复执行上一步骤,直到机器人移动到目标点。
在Z2中通过BP神经网络对障碍物距离信息进行融合,所述BP神经网络采用三层前向神经网络结构,神经网络的输入数据d1(左侧)、d2(前方)和d3(右侧)以及障碍物距离d4,输出机器人到所测障碍物的距离Dk。
在Z2中应用超像素分割算法对输入的道路视频图像进行预分割,将分割得到的超像素数目代替图像中的像素点数目,将得到的每个超像素看作是一个整体区域;然后进行超像素类别的二次分类,应用近邻传播聚类算法对得到的超像素反复多次融合成大的图像区域;最后根据相关判断准则,检测出道路区域。
超像素分割将图像转化为Lab颜色空间和x、y坐标下的5维特征向量空间[l,a,b,x,y]进行基于K-means的聚类操作,其中l代表亮度通道,a和b代表色彩通道,a的值为正数表示红色,负数表示绿色,b的值为正数表示黄色,负数表示蓝色,像素点k和i间的颜色距离dc,空间距离ds和准则函数D定义如下:
其中,D表示像素点k和i在Lab颜色空间的欧几里德距离和在二维空间加权欧几里德之和,s表示每个种子点之间的距离,m表示紧凑因子,用来调节颜色值和空间距离在相似性度量的比重,一般在[1,40]范围内取值。
假设图像有N个像素点,将其预分割为K个相同尺寸的超像素,令[li,ai,bi,xi,yi]T表示待分割的像素,其中i=1,2,…,N,Ck=[lk,ak,bk,xk,yk]T表示聚类中心,其中,k=1,2,…,K,则超像素分割算法的具体步骤如下:
①初始化聚类中心:按照输入的超像素个数,在图像内均匀分配聚类中心,则每个超像素的大小为N/K,相邻聚类中心间的距离近似为
②重新选择聚类中心:计算聚类中心n×n(n的值一般取3)邻域内所有像素的梯度值,将聚类中心移动到梯度值最小的位置,避免聚类中心落在图像的轮廓边界上对后续处理造成影响,然后为聚类中心n×n的领域内每个像素点重新分配一个独立的类别标签;
③迭代聚类过程:对于每一个像素点,利用式计算它和聚类中心的距离,将最近距离对应的聚类中心的标签分配给该像素点,根据分配后的标签,迭代计算聚类中心,定义残差为所有的聚类中心相邻两步迭代结果的距离差之和,当满足残差要求时,迭代停止,为加快计算速度,对所有的聚类中心进行聚类时,只在以每一个聚类中心为中心的2s×2s范围的领域内搜索相似像素点;
④去除小区域生成超像素:步骤③计算出的聚类结果可能存在超像素尺寸过小,多连通,以及单个超像素分裂为若干个间断的超像素等不利情况,利用像素间颜色相似性,将小区域合并到邻近的大区域,生成连通的大区域。
判断准则如下:1)计算每个图像区域的质心,若某个区域质心纵坐标大于整幅图像高度的一半,则该区域是道路的可能性较大;2)计算每个图像区域的面积,若某个区域面积较大,则该区域是道路的可能性较大。
在Z3中提取相邻时刻两帧图像的Harris角点特征并采用绝对差准则进行特征匹配,计算出运动造成背景图像运动的模型参数,对两帧中的第一帧图像进行补偿,接着对补偿后的图像与第二帧图像使用帧间差分法,得到运动障碍物。
在Z3中障碍物测距的步骤如下:
1)获取机器人采集的前方道路图像;
2)对道路区域内的障碍物进行检测,并将识别出的障碍物区域用矩形包围框在图像中框定出来;
3)求矩形包围框底边中点在图像像素坐标系下的坐标(uobs,vobs);
4)求图像底边中点在图像像素坐标系下的坐标(ubtm,vbtm);
5)分别将图像像素坐标系下的坐标(uobs,vobs)和(ubtm,vbtm)代入公式求出对应的图像物理坐标系下的坐标(xobs,yobs)和(xbtm,ybtm);
6)分别将图像物理坐标(xobs,yobs)和(xbtm,ybtm)代入公式
,求出对应的机器人坐标系下的坐标(Xobs,Yobs)和(Xbtm,Ybtm);
7)通过欧式距离公式计算机器人距障碍物的距离d4,公式如下:
其中,在5)中(u0,v0)表示像素图像的中心点坐标,t和s分别表示单位像素间距在图像物理坐标系x轴和y轴方向的物理尺寸,s=W/M,t=H/L,W和H分别表示图像物理坐标系下的图像宽度和高度的毫米数,M和L分别表示图像像素坐标系下的图像宽度和高度的像素点数;在6)中γ0表示为俯仰角,β0表示为镜头水平市视场角的一半,α0表示为镜头的垂直视场角的一半,h为镜头的高度,点(xp,yp)表示图像物理坐标系的任意一点,点(XP,YP)表示机器人坐标系对应点。
在Z3中转向角设定包括:左大转、左稍转、直行、右稍转、右大转,所述在Z3中根据障碍物的大小、数量来确定行进速度的选取,行进速度设定包括:快速、中速、慢速,速度范围为[0m/s,2m/s],且障碍物越大(越多)行进速度则越慢。
由上可知,本发明采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;机器人根据优化的行进速度和转向角进行移动,重复执行前述步骤,直到机器人移动到目标点,本发明对图像的分析处理更好地保留了道路的实际边缘信息,机器人在移动时实时跟进机器人和障碍物的位置关系,沿道路线路行进,能够快速有效地绕开障碍物以完成导航避障移动。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于,包括:
Z1:采用激光雷达数据生成机器人附近的图像并获取拍摄的道路视频信息;
Z2:根据收到的数据进行场景理解,规划从当前位置到达目标点的最优行进路径;
Z3:机器人根据路线前进,并实时获取道路视频信息和激光雷达的数据,分析道路情况及障碍物信息并进行计算,优化机器人行进速度并确定转向角;
Z4:机器人根据优化的行进速度和转向角进行移动,重复执行上一步骤,直到机器人移动到目标点。
2.根据权利要求1所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述在Z2中通过BP神经网络对障碍物距离信息进行融合,所述BP神经网络采用三层前向神经网络结构,神经网络的输入数据d1(左侧)、d2(前方)和d3(右侧)以及障碍物距离d4,输出机器人到所测障碍物的距离Dk。
3.根据权利要求1所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述在Z2中应用超像素分割算法对输入的道路视频图像进行预分割,将分割得到的超像素数目代替图像中的像素点数目,将得到的每个超像素看作是一个整体区域;然后进行超像素类别的二次分类,应用近邻传播聚类算法对得到的超像素反复多次融合成大的图像区域;最后根据相关判断准则,检测出道路区域。
4.根据权利要求1或3所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述判断准则如下:1)计算每个图像区域的质心,若某个区域质心纵坐标大于整幅图像高度的一半,则该区域是道路的可能性较大;2)计算每个图像区域的面积,若某个区域面积较大,则该区域是道路的可能性较大。
5.根据权利要求1所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述在Z3中提取相邻时刻两帧图像的Harris角点特征并采用绝对差准则进行特征匹配,计算出运动造成背景图像运动的模型参数,对两帧中的第一帧图像进行补偿,接着对补偿后的图像与第二帧图像使用帧间差分法,得到运动障碍物。
6.根据权利要求1或5所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述在Z3中障碍物测距的步骤如下:
1)获取机器人采集的前方道路图像;
2)对道路区域内的障碍物进行检测,并将识别出的障碍物区域用矩形包围框在图像中框定出来;
3)求矩形包围框底边中点在图像像素坐标系下的坐标(uobs,vobs);
4)求图像底边中点在图像像素坐标系下的坐标(ubtm,vbtm);
5)分别将图像像素坐标系下的坐标(uobs,vobs)和(ubtm,vbtm)代入公式求出对应的图像物理坐标系下的坐标(xobs,yobs)和(xbtm,ybtm);
6)分别将图像物理坐标(xobs,yobs)和(xbtm,ybtm)代入公式
求出对应的机器人坐标系下的坐标(Xobs,Yobs)和(Xbtm,Ybtm);
7)通过欧式距离公式计算机器人距障碍物的距离d4,公式如下:
其中,在5)中(u0,v0)表示像素图像的中心点坐标,t和s分别表示单位像素间距在图像物理坐标系x轴和y轴方向的物理尺寸,s=W/M,t=H/L,W和H分别表示图像物理坐标系下的图像宽度和高度的毫米数,M和L分别表示图像像素坐标系下的图像宽度和高度的像素点数;在6)中γ0表示为俯仰角,β0表示为镜头水平市视场角的一半,α0表示为镜头的垂直视场角的一半,h为镜头的高度,点(xp,yp)表示图像物理坐标系的任意一点,点(XP,YP)表示机器人坐标系对应点。
7.根据权利要求1所述的一种基于视觉图像和激光雷达的机器人导航避障方法,其特征在于:所述在Z3中转向角设定包括:左大转、左稍转、直行、右稍转、右大转,所述在Z3中根据障碍物的大小、数量来确定行进速度的选取,行进速度设定包括:快速、中速、慢速,速度范围为[0m/s,2m/s],且障碍物越大(越多)行进速度则越慢。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311535734.5A CN117519168A (zh) | 2023-11-17 | 2023-11-17 | 一种基于视觉图像和激光雷达的机器人导航避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311535734.5A CN117519168A (zh) | 2023-11-17 | 2023-11-17 | 一种基于视觉图像和激光雷达的机器人导航避障方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117519168A true CN117519168A (zh) | 2024-02-06 |
Family
ID=89765895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311535734.5A Pending CN117519168A (zh) | 2023-11-17 | 2023-11-17 | 一种基于视觉图像和激光雷达的机器人导航避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117519168A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784797A (zh) * | 2024-02-23 | 2024-03-29 | 广东电网有限责任公司阳江供电局 | 基于视觉图像和激光雷达的水下智能机器人导航避障方法 |
CN117786439A (zh) * | 2024-02-23 | 2024-03-29 | 艾信智慧医疗科技发展(苏州)有限公司 | 医用搬运机器人视觉智能导航系统 |
-
2023
- 2023-11-17 CN CN202311535734.5A patent/CN117519168A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784797A (zh) * | 2024-02-23 | 2024-03-29 | 广东电网有限责任公司阳江供电局 | 基于视觉图像和激光雷达的水下智能机器人导航避障方法 |
CN117786439A (zh) * | 2024-02-23 | 2024-03-29 | 艾信智慧医疗科技发展(苏州)有限公司 | 医用搬运机器人视觉智能导航系统 |
CN117786439B (zh) * | 2024-02-23 | 2024-05-03 | 艾信智慧医疗科技发展(苏州)有限公司 | 医用搬运机器人视觉智能导航系统 |
CN117784797B (zh) * | 2024-02-23 | 2024-05-24 | 广东电网有限责任公司阳江供电局 | 基于视觉图像和激光雷达的水下智能机器人导航避障方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111798475B (zh) | 一种基于点云深度学习的室内环境3d语义地图构建方法 | |
Luo et al. | Self-supervised pillar motion learning for autonomous driving | |
CN112258600A (zh) | 一种基于视觉与激光雷达的同时定位与地图构建方法 | |
CN110703747A (zh) | 一种基于简化广义Voronoi图的机器人自主探索方法 | |
CN117519168A (zh) | 一种基于视觉图像和激光雷达的机器人导航避障方法 | |
CN111929699A (zh) | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 | |
CN110569704A (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN110942449A (zh) | 一种基于激光与视觉融合的车辆检测方法 | |
CN110533720B (zh) | 基于联合约束的语义slam系统及方法 | |
Wulff et al. | Early fusion of camera and lidar for robust road detection based on U-Net FCN | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN111563415A (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN113468950A (zh) | 一种基于深度学习的无人驾驶场景下的多目标跟踪方法 | |
CN109917359B (zh) | 基于车载单目视觉的鲁棒车辆距离估计方法 | |
CN113516664A (zh) | 一种基于语义分割动态点的视觉slam方法 | |
CN110533716B (zh) | 一种基于3d约束的语义slam系统及方法 | |
CN113095154A (zh) | 基于毫米波雷达与单目相机的三维目标检测系统及方法 | |
CN114913206A (zh) | 一种基于多模态融合的多目标跟踪的方法和系统 | |
WO2024114119A1 (zh) | 一种基于双目相机引导的传感器融合方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN110176022B (zh) | 一种基于视频检测的隧道全景监控系统及方法 | |
CN112950786A (zh) | 一种基于神经网络的车辆三维重建方法 | |
Contreras et al. | A Stereo Visual Odometry Framework with Augmented Perception for Dynamic Urban Environments | |
Wirges et al. | Self-supervised flow estimation using geometric regularization with applications to camera image and grid map sequences | |
CN116758506A (zh) | 一种基于点云和图像融合的三维车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |