CN110824495B - 基于激光雷达的果蝇视觉启发的三维运动目标检测方法 - Google Patents
基于激光雷达的果蝇视觉启发的三维运动目标检测方法 Download PDFInfo
- Publication number
- CN110824495B CN110824495B CN201911143812.0A CN201911143812A CN110824495B CN 110824495 B CN110824495 B CN 110824495B CN 201911143812 A CN201911143812 A CN 201911143812A CN 110824495 B CN110824495 B CN 110824495B
- Authority
- CN
- China
- Prior art keywords
- grid
- motion
- local
- laser radar
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
Abstract
本发明属于运动目标检测领域,公开了基于激光雷达的果蝇视觉启发的三维运动目标检测方法。该方法包括:(1)获取激光雷达和IMU的数据;(2)雷达数据预处理,去除地面点;(3)雷达点云栅格化,形成柱状栅格地图;(4)构造水平和竖直两个方向的视觉神经通路,快速计算运动区域及运动物体的大致运动信息;(5)根据(4)的结果,利用更丰富的信息以及近似全连接的神经通路连接方式,精细计算运动信息,并形成运动候选区;(6)将候选区点云送入目标检测神经网络中,实现运动点云的目标分类,以及尺寸、位置的回归。该方法计算量小,通用性强,具有良好的鲁棒性,可根据特定任务更改神经通路连接方式,实现特定运动方向和速度的物体检测。
Description
技术领域
本发明属于运动目标检测领域,具体涉及一种动态环境下基于激光雷达的果蝇视觉启发的三维运动目标检测方法,旨在利用仿生类脑算法实现场景中的三维运动目标检测。
背景技术
动态场景理解是自动驾驶汽车的一项非常重要且极具挑战性的任务,其中运动目标检测是一项基本的子任务。当前深度神经网络的发展极大地促进了目标检测技术的进步,然而目标检测还不能够适应其动态场景的运行环境。因为静态的物体可以简单的建模为场景中的障碍物;而诸如运动的车辆、行人等运动的物体却不能简单的当作障碍物,它们会给无人车带来严重的威胁,直接影响路径规划和决策的结果。此外,运动目标检测对无人车的同时定位与建图技术(SLAM)也非常重要,现有的SLAM方法普遍将运动物体当作异常值,需要设计鲁棒的算法来削弱它们的影响。从另一个层面讲,运动物体蕴含丰富的隐藏信息,有助于交通态势的预测,尤其在拥挤交通环境,可以通过其他物体的运动信息预测未来的道路布局。
相比于二维检测,三维运动目标检测可以直接为无人车所用。立体相机和激光雷达是自动驾驶汽车的常见三维传感器。立体相机可以提供丰富的颜色、纹理和三维信息,但它们易受光照变化的干扰,不能提供高精度的三维信息。而激光雷达可以准确地获取场景的三维信息。因而本发明旨在提出一种简单有效的基于激光雷达的三维运动目标检测新型方法。
目前,运动目标检测方法大致可以分为两类:基于“检测-跟踪”的方法和基于“光流/场景流”的方法。
基于“检测-跟踪”的方法,首先检测出场景中的所有潜在运动目标,然后对它们进行跟踪,以判断是否运动,流程如图1所示。该方法将运动目标检测分解为“检测”和“跟踪”两个子任务,策略简单,容易部署使用。然而,这种多任务级联的结构也有弊端。目标检测过程中,如果存在场景中目标漏检情况,则直接会导致运动目标检测的失败;多目标跟踪又是计算机视觉中极具挑战性的工作,跟踪结果的稳定性差。只有当两个子任务都正确输出,才能确保运动目标检测的准确性。此外,多任务级联的策略无疑也增加了计算代价。
基于“光流/场景流”的方法,跳过了宏观层面的目标检测环节,直接计算每个像素或激光雷达点的运动,然后估计自身运动,最后计算出场景中的真实运动,流程如图2所示。该方法不需要对场景进行目标层面的语义理解,便可以自下而上地计算出场景中的运动信息,在一定程度上避免了“检测-跟踪”方法的缺点。但是光流/场景流计算量大,也容易受到光照、雨雾等天气条件的干扰,鲁棒性差,复杂的背景也会影响真实运动的检测。此外,该方法灵活性差,不能针对性的检测已知特定运动。
在自然界中,果蝇对运动非常敏感,神经生物学家研究的初级运动检测器(Elementary Motion Detector)理论模型初步解释了果蝇基本的运动检测机制。该模型由一对间距△d的相邻感受器A和B组成,如图3虚线框所示。假设一个光点从A运动到B,A接收到信号后,延迟一段时间,使其与B接收到的信号在时间轴上相遇,两信号相乘,信号达到峰值。如果不能相遇,则信号为0。通常情况下,模型还存在另一个对称镜像臂,这样从B到A的运动则输出大小相等符号相反的信号。该理论模型原理简单,这也导致其鲁棒性较差,实用性不高。目前有少数工作将其运用在简单的静态图像中。
针对传统方法存在的不足,本发明从果蝇视觉模型的初级运动检测器理论中获得启发,将其思想拓展到三维空间中,将果蝇视觉神经通路与人脑认知理论相结合,实现动态坏境下基于雷达点云的三维运动目标检测。该方法计算量较小,对运动反应敏感,鲁棒性好;通过改变神经通路的连接方式,可以实现对特定方向、特定速度的运动物体的检测。
发明内容
为了改善现有方法普遍存在的模型复杂、鲁棒性差、灵活性不足的短板,尤其是针对不具有运动方向检测特异性的缺点,本发明受果蝇视觉模型的启发,将初级运动检测器思想拓展到三维空间中,将果蝇视觉神经通路与人脑认知理论相结合,实现基于雷达点云的三维运动目标检测,流程框架如图4所示。通过改变神经通路的连接方式,可以实现对特定方向、特定速度的运动物体的检测。该方法可应用于自动驾驶汽车或机器人的环境感知系统,也可以用于空天监控系统,具有很强的实际应用价值。
为了达到上述发明目的,本发明采用的技术方案是:
基于激光雷达的果蝇视觉启发的三维运动目标检测方法,包含以下步骤:
步骤(1):获取场景表达数据。获取的场景表达数据包括连续多帧激光雷达点云数据,并同时记录相应的惯性测量单元(Inertial Measurement Uint,IMU)数据。
步骤(2):数据预处理。根据IMU数据,将多帧激光雷达点云转换到当前时刻t对应的局部雷达坐标系下(右手坐标系,右-前-天分别对应x-y-z轴),并通过滤波去除激光雷达点云中的地面点。
步骤(3):激光雷达点云栅格化。对多帧激光雷达点云进行栅格化处理,栅格分辨率为0.2×0.2×H,其中H由该帧点云垂直方向上最高点与最低点差值决定;栅格化处理后形成鸟瞰视角的栅格图,每个栅格作为果蝇复眼中的一个光感受器(小眼睛)。
步骤(4):运动区域的快速搜索。首先,构造水平和竖直两个方向上的视觉神经通路连接方式:针对每个栅格(i,j),只在水平方向和竖直方向上选择另一个感受器(例如(i-1,j),(i+1,j),(i,j-1),(i,j+1))与其组成视觉通路,即形成“十”字状的视觉神经连接通路,其构成搜索半径为R的“十”字状局部搜索区域,如图5所示,其中,五角星栅格只能与四角星栅格相连,而不与圆形栅格相连通;继而,快速计算每个栅格(i,j)在局部搜索区域内的运动置信度得分:
其中,(i,j)表示雷达栅格图的坐标值;(x,y)∈[-R,R]表示搜索区域中的局部坐标值;I(i,j)(t)表示t时刻雷达栅格占据图中栅格(i,j)的值;I(i,j)(t-1)表示t-1时刻雷达栅格占据图中栅格(i,j)的值;Sh(i,j)和Sv(i,j)表示栅格(i,j)在上述局部搜索区域内的运动得分;Sh(i,j)和Sv(i,j)的最大值对应的xsm和ysm值反映了物体运动大致方向,方向向量记为(xsm,ysm);并且,根据计算得分,运动区域与非运动区域即可准确分割出来。
步骤(5):运动信息的精细计算。根据步骤(4)的计算结果,基于一个局部范围内的精确匹配模板实现准确计算每个栅格的运动信息;针对运动区域,定义一个局部直角扇形搜索空间以每个栅格(i,j)为原点,以(xsm,ysm)为角平分线,半径为R,局部直角扇形搜索空间中每个栅格的局部坐标记为(u,v);充分利用栅格内点云的信息,输入信号包括三种模态:平均高度图Ih、栅格占据图I以及栅格占据高斯滤波图Ig;与步骤(4)感受器之间的简单连接不同,此阶段采用近似全连接的神经回路密集连接的方式,创造出更多更精细的速度模板,以精确计算运动信息;对于每个栅格(i,j),以m×m大小的patch为操作单位,构造一个能量函数来评价局部模板匹配:
E(u,v)=ω1(1-E′1(u,v))+ω2(1-E′2(u,v))+ω3E′3(u,v),
其中,(u,v)是局部直角扇形搜索空间中的坐标,表示每个栅格(i,j)所在patch的运动位移量;E′为归一化的不同模态信号对应的能量函数,E′1、E′2、E′3分别描述栅格占据高斯滤波图、栅格占据图和平均高度图三种模态信号输入下对应的运动得分;ω为权重参数,ω1、ω2、ω3分别对应E′1、E′2、E′3能量的权重,用来平衡不同模态能量的贡献率;E为总能量值,反映了每个patch在不同位移量时的置信度;vi,j为运动向量,每个栅格的运动向量vi,j由能量最小化计算得到,并且不同的模态信号对应的能量函数定义如下:
其中,m为patch尺寸大小;(a,b)表示区域块中每个栅格在区域块局部坐标系中的局部坐标值;Ia,b(t)、分别表示t时刻栅格(a,b)对应的栅格占据高斯滤波值、栅格占据属性和平均高度值;E1表示根据高斯滤波图计算得出的运动得分,匹配结果越好,得分越高;E2表示栅格占据属性的得分,两个patch越相似,得分越高;E3描述了patch间高度分布的相似性,越相似得分越低。
最后,根据几何信息和运动信息,将栅格聚类,形成物体候选区,并将候选区内的点云提取出来,传递给接下来的检测网络。
步骤(6):运动点云的认知计算。根据步骤(5)的聚类结果,将物体候选区内的点云送入目标检测网络中,依次经过点云语义分割网络去除地面、背景等噪声点;坐标转换网络,进行坐标变换;物体回归网络,进行物体的分类以及目标三维框的回归,以实现运动目标的认知,如图6所示。
本发明的有益效果在于:
通用性强:本发明对激光雷达点云进行环境感知的系统均切实有效,对于航空器拍摄的俯视视角图像,该方法亦实用;
计算量小:相比于现有的“检测-跟踪”和“光流/场景流”方法,本发明提出的方法模型简单,计算量小;
灵活性好:相比于现有的方法,本发明可以根据实际情况设计改变神经通路的连接方式,可以实现对特定方向、特定速度的运动物体的检测,如图7所示。
附图说明
图1是基于“检测-跟踪”的方法模型示意图;
图2是基于“光流/场景流”的方法模型示意图;
图3是“初级运动检测器”模型示意图;
图4是本发明框架流程结构图;
图5是本发明运动区域快速搜索阶段网络结构连接示意图;
图6是本发明运动目标检测结果图;
图7是本发明针对水平向右特定运动目标检测的结果图。
具体实施方式
下面对本发明进行详细说明,应当理解,此处所描述的内容仅用以解释本发明,并不局限于本发明。
本发明受果蝇视觉模型的启发,将初级运动检测器思想拓展到三维空间中,将果蝇视觉神经通路与人脑认知理论相结合,实现基于雷达点云的三维运动目标检测,流程框架如图4所示。通过改变神经通路的连接方式,可以实现对特定方向、特定速度的运动物体的检测。该方法可应用于自动驾驶汽车或机器人的环境感知系统,也可以用于空天监控系统,具有很强的实际应用价值。
为了达到上述发明目的,本发明采用的技术方案是:
基于激光雷达的果蝇视觉启发的三维运动目标检测方法,包含以下步骤:
步骤(1):获取场景表达数据。获取的场景表达数据包括连续多帧激光雷达点云数据,并同时记录相应的惯性测量单元(Inertial Measurement Uint,IMU)数据。
步骤(2):数据预处理。根据IMU数据,将多帧激光雷达点云转换到当前时刻t对应的局部雷达坐标系下(右手坐标系,右-前-天分别对应x-y-z轴),并通过滤波去除激光雷达点云中的地面点。
步骤(3):激光雷达点云栅格化。对多帧激光雷达点云进行栅格化处理,栅格分辨率为0.2×0.2×H,其中H由该帧点云垂直方向上最高点与最低点差值决定;栅格化处理后形成鸟瞰视角的栅格图,每个栅格作为果蝇复眼中的一个光感受器(小眼睛)。
步骤(4):运动区域的快速搜索。首先,构造水平和竖直两个方向上的视觉神经通路连接方式:针对每个栅格(i,j),只在水平方向和竖直方向上选择另一个感受器(例如(i-1,j),(i+1,j),(i,j-1),(i,j+1))与其组成视觉通路,即形成“十”字状的视觉神经连接通路,其构成搜索半径为R的“十”字状局部搜索区域,如图5所示,其中,五角星栅格只能与四角星栅格相连,而不与圆形栅格相连通;继而,快速计算每个栅格(i,j)在局部搜索区域内的运动置信度得分:
其中,(i,j)表示雷达栅格图的坐标值;(x,y)∈[-R,R]表示搜索区域中的局部坐标值;I(i,j)(t)表示t时刻雷达栅格占据图中栅格(i,j)的值;I(i,j)(t-1)表示t-1时刻雷达栅格占据图中栅格(i,j)的值;Sh(i,j)和Sv(i,j)表示栅格(i,j)在上述局部搜索区域内的运动得分;Sh(i,j)和Sv(i,j)的最大值对应的xsm和ysm值反映了物体运动大致方向,方向向量记为(xsm,ysm);并且,根据计算得分,运动区域与非运动区域即可准确分割出来。
步骤(5):运动信息的精细计算。根据步骤(4)的计算结果,基于一个局部范围内的精确匹配模板实现准确计算每个栅格的运动信息;针对运动区域,定义一个局部直角扇形搜索空间以每个栅格(i,j)为原点,以(xsm,ysm)为角平分线,半径为R,局部直角扇形搜索空间中每个栅格的局部坐标记为(u,v);充分利用栅格内点云的信息,输入信号包括三种模态:平均高度图Ih、栅格占据图I以及栅格占据高斯滤波图Ig;与步骤(4)感受器之间的简单连接不同,此阶段采用近似全连接的神经回路密集连接的方式,创造出更多更精细的速度模板,以精确计算运动信息;对于每个栅格(i,j),以m×m为大小的patch为操作单位,构造一个能量函数来评价局部模板匹配:
其中,(u,v)是局部直角扇形搜索空间中的坐标,表示每个栅格(i,j)所在patch的运动位移量;E′为归一化的不同模态信号对应的能量函数,E′1、E′2、E′3分别描述栅格占据高斯滤波图、栅格占据图和平均高度图三种模态信号输入下对应的运动得分;ω为权重参数,ω1、ω2、ω3分别对应E′1、E′2、E′3能量的权重,用来平衡不同模态能量的贡献率;E为总能量值,反映了每个patch在不同位移量时的置信度;vi,j为运动向量,每个栅格的运动向量vi,j由能量最小化计算得到,并且不同的模态信号对应的能量函数定义如下:
其中,m为patch尺寸大小;(a,b)表示区域块中每个栅格在区域块局部坐标系中的局部坐标值;Ia,b(t)、分别表示t时刻栅格(a,b)对应的栅格占据高斯滤波值、栅格占据属性和平均高度值;E1表示根据高斯滤波图计算得出的运动得分,匹配结果越好,得分越高;E2表示栅格占据属性的得分,两个patch越相似,得分越高;E3描述了patch间高度分布的相似性,越相似得分越低。
最后,根据几何信息和运动信息,将栅格聚类,形成物体候选区,并将候选区内的点云提取出来,传递给接下来的检测网络。
步骤(6):运动点云的认知计算。根据步骤(5)的聚类结果,将物体候选区内的点云送入目标检测网络中,依次经过点云语义分割网络去除地面、背景等噪声点;坐标转换网络,进行坐标变换;物体回归网络,进行物体的分类以及目标三维框的回归,以实现运动目标的认知,如图6所示。
尽管上面对本发明说明性的具体实施方式进行了描述,并给出算例以便于技术领域的技术人员能够理解本发明,但是本发明并不仅限于此范围,对本技术领域的普通技术人员而言,只要各种变化在本发明精神和范围内,一切利用本发明构思的发明创造均在保护之列。
Claims (1)
1.基于激光雷达的果蝇视觉启发的三维运动目标检测方法,其特征在于,包含以下步骤:
步骤(1):获取场景表达数据:获取的场景表达数据包括连续多帧激光雷达点云数据,并同时记录相应的惯性测量单元数据;
步骤(2):数据预处理:根据IMU数据,将多帧激光雷达点云转换到当前时刻t对应的局部雷达坐标系下,并通过滤波去除激光雷达点云中的地面点;
步骤(3):激光雷达点云栅格化:对多帧激光雷达点云进行栅格化处理,栅格分辨率为0.2×0.2×H,其中H由该帧点云垂直方向上最高点与最低点的差值决定;栅格化处理后形成鸟瞰视角的激光雷达栅格图,每个栅格作为果蝇复眼中的一个光感受器;
步骤(4):运动区域的快速搜索:首先,构造水平和竖直两个方向上的视觉神经通路连接方式:针对每个栅格(i,j),只在水平方向和竖直方向上选择另一个感受器与其组成视觉通路,即形成“十”字状的视觉神经连接通路,构建搜索半径为R的“十”字状局部搜索区域,其中,五角星栅格只能与四角星栅格相连,而不与圆形栅格相连通;继而,快速计算每个栅格(i,j)在局部搜索区域内的运动得分:
其中,(i,j)表示激光雷达栅格图中每个栅格的坐标值;(x,y)∈[-R,R]表示“十”字状局部搜索区域中的局部坐标值;I(i,j)(t)和I(i,j)(t-1)分别表示t时刻和t-1时刻激光雷达栅格占据图中栅格(i,j)的占据属性值;Sh(i,j)和Sv(i,j)表示栅格(i,j)在所述“十”字状局部搜索区域内的运动得分;Sh(i,j)最大值对应的局部坐标值x记为xsm,Sv(i,j)最大值对应的局部坐标值y记为ysm,xsm和ysm反映了物体运动大致方向,方向向量记为(xsm,ysm);并且,根据计算每个栅格(i,j)的运动得分,运动区域与非运动区域即可准确分割出来;
步骤(5):运动信息的精细计算:根据步骤(4)的计算结果,基于一个局部范围内的精确匹配模板实现准确计算每个栅格的运动信息;针对运动区域,定义一个局部直角扇形搜索空间以每个栅格(i,j)为原点,以(xsm,ysm)为角平分线,半径为R,局部直角扇形搜索空间中每个栅格的局部坐标记为(u,v);充分利用栅格内点云的信息,输入信号包括三种模态:平均高度图Ih、栅格占据图I以及栅格占据高斯滤波图Ig;与步骤(4)感受器之间的简单连接不同,此阶段采用近似全连接的神经回路密集连接的方式,创造出更多更精细的速度模板,以精确计算运动信息;对于每个栅格(i,j),以m×m大小的区域块作为操作单位,构造一个能量函数来评价局部模板匹配:
E(u,υ)=ω1(1-E′1(u,υ))+ω2(1-E′2(u,υ))+ω3E′3(u,υ),
其中,(u,v)是局部直角扇形搜索空间中的坐标,表示每个栅格(i,j)所在区域块的运动位移量;E′为归一化的不同模态信号对应的能量函数,E′1、E′2、E′3分别描述栅格占据高斯滤波图、栅格占据图和平均高度图三种模态信号输入下对应的能量函数;ω为权重参数,ω1、ω2、ω3分别对应E′1、E′2、E′3能量函数的权重,用来平衡不同模态能量函数的贡献率;E为总能量值,反映了每个区域块在不同位移量时的置信度;υi,j为运动向量,每个栅格的运动向量υi,j由能量最小化计算得到,并且不同的模态信号对应的能量函数定义如下:
其中,m为区域块尺寸大小;(a,b)表示区域块中每个栅格在区域块局部坐标系中的局部坐标值;分别表示t时刻栅格(a,b)对应的栅格占据高斯滤波值、栅格占据属性值和平均高度值;E1表示根据栅格占据高斯滤波图计算得出的运动得分,匹配结果越好,得分越高;E2表示栅格占据属性对应的得分,两个区域块越相似,得分越高;E3描述了区域块之间高度分布的相似性,越相似得分越低;最后,根据几何信息和运动信息,将栅格聚类,形成物体候选区,并将候选区内的点云提取出来,传递给接下来的检测网络;
步骤(6):运动点云的认知计算:根据步骤(5)的聚类结果,将物体候选区内的点云送入目标检测网络中,依次经过点云语义分割网络去除地面和背景噪声点;坐标转换网络,进行坐标变换;物体回归网络,进行物体的分类以及三维目标框的回归,以实现运动目标的认知。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911143812.0A CN110824495B (zh) | 2019-11-20 | 2019-11-20 | 基于激光雷达的果蝇视觉启发的三维运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911143812.0A CN110824495B (zh) | 2019-11-20 | 2019-11-20 | 基于激光雷达的果蝇视觉启发的三维运动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110824495A CN110824495A (zh) | 2020-02-21 |
CN110824495B true CN110824495B (zh) | 2021-08-31 |
Family
ID=69557592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911143812.0A Active CN110824495B (zh) | 2019-11-20 | 2019-11-20 | 基于激光雷达的果蝇视觉启发的三维运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110824495B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192295B (zh) * | 2020-04-14 | 2020-07-03 | 中智行科技有限公司 | 目标检测与跟踪方法、设备和计算机可读存储介质 |
CN112162297B (zh) * | 2020-09-24 | 2022-07-19 | 燕山大学 | 一种剔除激光点云地图中动态障碍伪迹的方法 |
CN112711034B (zh) * | 2020-12-22 | 2022-10-14 | 中国第一汽车股份有限公司 | 物体检测方法、装置及设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2532948B (en) * | 2014-12-02 | 2021-04-14 | Vivo Mobile Communication Co Ltd | Object Recognition in a 3D scene |
CN104484882B (zh) * | 2014-12-24 | 2017-09-29 | 哈尔滨工业大学 | 一种基于机载LiDAR数据的城市区域电力线检测方法 |
CN109597087B (zh) * | 2018-11-15 | 2022-07-01 | 天津大学 | 一种基于点云数据的3d目标检测方法 |
CN109740604B (zh) * | 2019-04-01 | 2019-07-05 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种行驶区域检测的方法和设备 |
CN109828592B (zh) * | 2019-04-22 | 2019-07-26 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种障碍物检测的方法及设备 |
CN110208819A (zh) * | 2019-05-14 | 2019-09-06 | 江苏大学 | 一种多个障碍物三维激光雷达数据的处理方法 |
-
2019
- 2019-11-20 CN CN201911143812.0A patent/CN110824495B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110824495A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3732657B1 (en) | Vehicle localization | |
US10445928B2 (en) | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types | |
CN111461023B (zh) | 基于三维激光雷达的四足机器人自主跟随领航员的方法 | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
EP3745158B1 (en) | Methods and systems for computer-based determining of presence of dynamic objects | |
TWI722355B (zh) | 用於基於障礙物檢測校正高清晰度地圖的系統和方法 | |
US8605947B2 (en) | Method for detecting a clear path of travel for a vehicle enhanced by object detection | |
CN110824495B (zh) | 基于激光雷达的果蝇视觉启发的三维运动目标检测方法 | |
JP2015522458A (ja) | 4dlidarに基づく許容ヘリコプター着陸地点のポイントクラウド可視化 | |
KR20210090572A (ko) | 접안 모니터링 장치 및 방법 | |
US11361484B1 (en) | Methods and systems for ground segmentation using graph-cuts | |
US20230260266A1 (en) | Camera-radar data fusion for efficient object detection | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN114359714A (zh) | 基于事件相机的无人体避障方法、装置及智能无人体 | |
Berriel et al. | A particle filter-based lane marker tracking approach using a cubic spline model | |
Gholami et al. | Real-time obstacle detection by stereo vision and ultrasonic data fusion | |
Kawamura et al. | Ground-Based Vision Tracker for Advanced Air Mobility and Urban Air Mobility | |
Pavelka et al. | Lidar based object detection near vehicle | |
US20230294687A1 (en) | End-to-end processing in automated driving systems | |
EP4145398A1 (en) | Systems and methods for vehicle camera obstruction detection | |
US11314974B2 (en) | Detecting debris in a vehicle path | |
CN116508071A (zh) | 用于注释汽车雷达数据的系统和方法 | |
JP2021026683A (ja) | 距離推定装置 | |
Effertz | Sensor architecture and data fusion for robotic perception in urban environments at the 2007 DARPA urban challenge | |
US20230249712A1 (en) | Infrared sensing data-assisted classification of vulnerable road users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |