CN106569225A - 一种基于测距传感器的无人车实时避障方法 - Google Patents

一种基于测距传感器的无人车实时避障方法 Download PDF

Info

Publication number
CN106569225A
CN106569225A CN201610968137.5A CN201610968137A CN106569225A CN 106569225 A CN106569225 A CN 106569225A CN 201610968137 A CN201610968137 A CN 201610968137A CN 106569225 A CN106569225 A CN 106569225A
Authority
CN
China
Prior art keywords
point
point cloud
unmanned vehicle
cloud
measuring sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610968137.5A
Other languages
English (en)
Other versions
CN106569225B (zh
Inventor
刘勇
张高明
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610968137.5A priority Critical patent/CN106569225B/zh
Publication of CN106569225A publication Critical patent/CN106569225A/zh
Application granted granted Critical
Publication of CN106569225B publication Critical patent/CN106569225B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only

Abstract

本发明公开了一种传感器无关的实时避障算法,以来自双目相机、激光雷达、超声波等距离传感器的点云数据为计算数据源,通过拟合无人车底盘参考平面信息而得到障碍信息。提出了一个称为虚拟力的概念,并以虚拟力为计算框架,计算出无人车的安全行驶方向。根据行驶方向改变的剧烈程度,动态自适应地设置无人车的线运动速度。

Description

一种基于测距传感器的无人车实时避障方法
技术领域
本发明属于人工智能领域,涉及传感器无关的实时避障方法。
背景技术
避障行为是移动机器人必要的功能,是其智能性的重要体现之一。即使是一个没有明确任务或目标的移动机器人,也需要可靠的避障行为来保证自身的安全性。对于实时避障问题,给定实时的传感器信息,避障意味着为避免碰撞调整机器人路径规划系统给出的运动轨迹。避障规划算法不同程度上依赖着全局地图的存在性和相对于地图的定位信息。
典型的避障算法有最简单的Bug算法,向量场直方图算法(VFH)及其改进VFH+算法和VFH*算法,气泡带算法,曲率速度算,动态窗口算法,Schlegel避障算法等。Bug算法其思想是在机器人路途中,跟踪障碍物的轮廓,从而绕开障碍物。它简单易用,但没有考虑机器人的动力学,同时因为只使用最近的传感器数据,因此在许多情况下不是鲁棒的。VFH算法通过创建围绕机器人环境的局部地图,克服了Bug算法只使用最近传感信息的限制,可以使机器人具有通过窄通道的能力。在VFH+改进中,机器人运动学的约束被纳入计算过程。气泡带算法的思想是对Khatib和Quinlan提出的弹性带概念中非完备无人车的一种扩展。气泡被定义为围绕一个给定的机器人方位,其自由空间的最大局部子集,允许以任意方向行走于此区域而无碰撞。其优点是允许考虑机器人的实际尺寸,适用性强。但是计算气泡带需要全局地图和全局路径规划器,同时,其只当环境方位事先已很好知道的情况下才最适合于应用。基本的曲率速度方法(CVM)由Simmons提出,其能在避障期间考虑机器人的运动学约束,甚至考虑到部分的动力学约束。其不足则在于将障碍物的形状简化成圆形,在一些环境中,这是不可接受的。此外,由于CVM方法不使用先验知识,所以可能遭受局部极小问题。后来提出的道路曲率方法(LCM)具有比CVM算法更好的性能。Fox,Burgard和Thrun的局部动态窗口法,通过搜索一个离线选择的速度空间,考虑了机器人的运动学。Brock和Khatib的全局动态窗口法在Fox等人的局部动态窗口法上加上了全局思考,其以高速保证实时、动态约束、全局思考和最小无避障。Schlegel避障方法考虑动力学以及机器人的实际形状的方法。其利用笛卡尔栅格表示环境中的障碍物,具有很好的实时性。上述算法多数依赖全局或半全局的环境地图,而未知环境下的路径规划和实时避障,是一项具有挑战性的任务,需要感知系统在线感知的支持,如何在信息不完全的情况下保证机器人系统安全运行,同时探索环境,迭代地优化行走路径,并规避非结构环境下的动态障碍物,是本专利试图解决的问题。
考虑到避障行为是一种反应式行为,因此,本发明的设计思路是采用原始的点云信息作为障碍分布模型,而不是像传统的做法一样建立局部的障碍分布图。
发明内容
本发明所要解决的技术问题是提供一种传感器无关的实时避障算法,以克服传统避障算法对先验环境信息的过度依赖问题。为此,本发明提供以下技术方案:
一种基于测距传感器的无人车实时避障方法,包括以下步骤:
步骤(1):由无人车搭载的测距传感器采集点云信息或采用双目相机采集点云信息;
若采用双目相机采集,需要计算才能得到点云信息,而后,将得到的点云信息缓存为点云向量,所有点云向量的坐标均参考以无人车中心为原点、前方为x轴的正方向、左方为y轴正方向的本体坐标系;
步骤(2):拟合所述无人车的底盘所在的参考平面信息,视该参考平面为可通行面,从而,高于这个参考平面的点云即为阻碍无人车通行的障碍物;从所获得的点云中拟合得到参考平面方程;
步骤(3):基于上述的障碍物,采取虚拟力方法计算最优行驶方向,虚拟力的含义是将每个距离点在无人车本体坐标系下的位置矢量虚拟化为一个力矢量,定义如下:
其中,|Fi|表示力矢量的模值,f(·)表示力矢量是位置矢量的函数,R为测距传感器测量得到的距离值;Rthresh为测距传感器最大感知半径;
若某个方向返回的位置矢量半径大于阈值半径Rthresh,那么,该方向的阈值半径更新为此力矢量模值;通过对所有位置矢量求和,可得到一个最优行驶方向,并作为角度控制量,角度控制量的计算步骤如下:
参考步骤(1)中所述的本体坐标系,分别计算x正方向和y正方向的力矢量的和,其中,力矢量的定义为(*)式所示:
其中,N为障碍点云序列的长度,ri为障碍点云的距离值,θi为障碍点云所在方向的角度;
归一化虚拟力:
计算最优行驶方向,并作为角度控制量:
步骤(4):根据角度控制量,计算当前的平移速度v,即采用如下计算方法:
其中,v_max是允许的最大行驶线速度,kp为比例系数;当方向偏角dir为零时,线速度达到这个值。
在上述技术方案的基础上,本发明还可以采用一下进一步的技术方案:
其中所述步骤(1)中,包括采用激光雷达作为测距传感器获取点云。
其中所述步骤(1)中,采用双目立体视觉获取点云:计算出双目图像中满足视差范围容许值的绝对差最小匹配点对,作为匹配点,根据双目相机的参数和三角形相似原理,即可计算出匹配点对应的空间点的三维坐标,从而获得点云。
由于采用本发明的技术方案,本发明的有益效果为:本发明计算过程针对的仅仅是点云信息,因此与传感器的种类无关,所以在实际的工程应用中,方法极易封装成为可复用模块,与能提供点云信息的传感器配合使用即可。
本发明提出了虚拟力这一概念,将点云的空间距离值或空间距离值的二次方作为力矢量,吸引无人车向更开阔的地带行驶,从而提供了性能稳定、实时性良好的避障功能,由于避障半径可调,因此,预警性强,适用于各种场景。
附图说明
图1是本发明中激光雷达坐标系统下的无人车系统传感器安装示意图;
OcXcYcZc:双目相机坐标系;
OlXlYl:激光雷达坐标系;
OrXrYrZr:无人车本体坐标系;
OwXwYwZw:世界坐标系。
图2是本发明中激光雷达坐标系统下的标准极坐标系统图;
图3是本发明中激光雷达数据范围示意图;
Deg:激光雷达扫描的角度范围,单位是度;
Step:激光雷达数据的步进范围,无量纲;
Index:激光雷达点云向量的索引范围,无量纲。
图4是本发明中双目相机立体成像过程示意图;
图5是本发明中外极限平面示意图;
x:空间点;
x1:空间点在左图像的投影点;
x2:空间点在右图像的投影点;
c1:左相机的光心;
c2:右相机的光心。
图6是本发明中地面拟合示意图;
图7是本发明中虚拟力算法原理图示意图。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图作进一步描述。
步骤(1):由无人车搭载的测距传感器采集点云信息或采用双目相机采集点云信息;
若采用双目相机采集,需要计算才能得到点云信息,计算包括图像校正计算、双目匹配计算、三角距离测量计算,而后,将得到的点云信息缓存为点云向量,所有点云的坐标均参考以无人车中心为原点、前方为x轴、左方为y轴的本体坐标系。
步骤(1)中:包括采用激光雷达获取点云:如图1所示,虚线部分为水平安装在无人车前部的平面激光雷达的参考坐标系OlXlYl。采用标准的如图2所示的标准极坐标系统,即正前方为x轴正方向,左侧为y轴正方向。激光雷达以某一固定角度步长每次扫描周围一定角度范围(如270°)、一定距离范围(如30米以内),当光线照射至物体时,即可返回该处的角度和距离信息。如此持续扫描,就可获得连续的二维点云信息。
这里,点云的步进范围为[-540,540],即每一帧距离-角度点云数据的容量是1080,对应的角度范围为[-135°,135°]。如图3所示。
步骤(1)中:双目立体视觉获取点云;双目立体视觉三维测量基于视差原理。如图4所示。基线长度B是左右相机投影中心连线的距离。双目相机的焦距为f。左右相机同一时刻拍摄空间物体同一点P(xp,yp,zp),并分别在左右图像上生成像点Pl(Xl,Yl)和Pr(Xr,Yr)。其中,xp、yp、zp是空间点在步骤(1)中所述本体坐标系下的三维坐标;Xl、Yl、Xr、Yr分别是空间点的左右图像坐标。
经过双目校正的两摄像机的图像可认为位于同一平面(外极线平面),如图5所示。从而,点P的图像坐标Y相同,即有Yl=Yr=Y。则由三角形相似原理有如下关系:
从而,可以计算视差Disp:
Disp=Xl-Xr
由此,可计算点P在相机坐标系下的三维坐标为:
因此,只要能得到左右相机图像平面上的匹配点,即可计算出匹配点对应的空间点的三维坐标。
为了保证实时控制系统的计算性能,图像对应点的匹配采用快速的绝对差相关算法(SSD)计算图相对的匹配点,计算公式如下:
其中,
dmax和dmin分别时最小和最大视差;
m是方形模板的尺寸,单位是像素;
Il和Ir分别是双目相机的左右图像。
从而,只要计算出满足视差范围容许值的绝对差最小的匹配对,就可以认为匹配成功。
步骤(2)拟合所述无人车底盘所在的参考平面信息,视该参考面为可通行面,从而,高于这个参考面的点云序列即为阻碍无人车通行的障碍物;采用基于随机采样的RANSAC算法,从所获得的点云向量中拟合得到地平面方程。
步骤如下:
(2.a)随机选取3个三维点;
(2.b)检测3点是否共线,若共线,则重新选取;
(2.c)估计出一个平面方程
(2.d)统计点云序列中有多少三维点符合这一平面方程,记这个数量为K;
(2.e)若K足够大,那么,接受这个平面方程作为地面模型,并退出本算法;
(2.f)重复执行以上步骤L次;
(2.g)若运行至此处,那么,当前点云序列中无法拟合出一个合适的平面模型Π。
利用上述的平面方程,判断每个点云是否属于可通行区域,即若一个点云距离地平面足够近,那么,认定这个点不属于障碍物体。计算点到平面的距离采用如下公式:
依次评估每个点云,即得到障碍物点云簇。
步骤(3):基于上述的障碍物,采取虚拟力方法计算最优行驶方向,虚拟力的含义是将每个距离点在无人车本体坐标系下的位置矢量虚拟化为一个力矢量,定义如下:
其中,|Fi|表示力矢量的模值,f(·)表示力矢量是位置矢量的函数,R为测距传感器测量得到的距离值;Rthresh为测距传感器最大感知半径;
若某个方向返回的位置矢量半径大于阈值半径Rthresh,那么,该方向的阈值半径更新为此力矢量模值;通过对所有位置矢量求和,可得到一个最优行驶方向,并作为角度控制量,角度控制量的计算步骤如下:
(3.a)计算x方向和y方向的虚拟力。
其中,L为障碍点云序列的长度。
(3.b)归一化虚拟力。
计算最优行驶方向,并作为角度控制量。
步骤(4):根据避障角度,计算当前的平移速度,转弯时慢转,直行时快速行驶,即采用如下计算方法:
其中,v_max是允许的最大行驶线速度,当方向偏角Δθ为零时,线速度达到这个值,为了保证无人车系统的安全,当障碍物的距离小于某一阈值d_min时,行驶线速度将为零。

Claims (3)

1.一种基于测距传感器的无人车实时避障方法,其特征在于,包括以下步骤:
步骤(1):由无人车搭载的测距传感器采集点云信息或采用双目相机采集点云信息;
若采用双目相机采集,需要计算才能得到点云信息,而后,将得到的点云信息缓存为点云向量,所有点云向量的坐标均参考以无人车中心为原点、前方为x轴的正方向、左方为y轴正方向的本体坐标系;
步骤(2):拟合所述无人车的底盘所在的参考平面信息,视该参考平面为可通行面,从而,高于这个参考平面的点云即为阻碍无人车通行的障碍物;从所获得的点云中拟合得到参考平面方程;
步骤(3):基于上述的障碍物,采取虚拟力方法计算最优行驶方向,虚拟力的含义是将每个距离点在无人车本体坐标系下的位置矢量虚拟化为一个力矢量,定义如下:
| F i | = f ( R ) , R ≤ R t h r e s h f ( R t h r e s h ) , R > R t h r e s h - - - ( * )
其中,|Fi|表示力矢量的模值,f(·)表示力矢量是位置矢量的函数,R为测距传感器测量得到的距离值;Rthresh为测距传感器最大感知半径;
若某个方向返回的位置矢量半径大于阈值半径Rthresh,那么,该方向的阈值半径更新为此力矢量模值;通过对所有位置矢量求和,可得到一个最优行驶方向,并作为角度控制量,角度控制量的计算步骤如下:
参考步骤(1)中所述的本体坐标系,分别计算x正方向和y正方向的力矢量的和,其中,力矢量的定义为(*)式所示:
F x = Σ i = 1 N r i 2 c o s ( θ i )
F y = Σ i = 1 N r i 2 s i n ( θ i )
其中,N为障碍点云序列的长度,ri为障碍点云的距离值,θi为障碍点云所在方向的角度;
归一化虚拟力:
F x n = F x F x 2 + F y 2
F y n = F y F x 2 + F y 2
计算最优行驶方向,并作为角度控制量:
d i r = tan - 1 ( F x n , F y n ) ;
步骤(4):根据角度控制量,计算当前的平移速度v,即采用如下计算方法:
v = v = v _ m a x | k P · d i r | + 1 , d > d m i n 0 , d ≤ d _ m i n ;
其中,v_max是允许的最大行驶线速度,kp为比例系数;当方向偏角dir为零时,线速度达到这个值。
2.如权利要求1所述的一种基于测距传感器的无人车实时避障方法,其特征在于,其中所述步骤(1)中,包括采用激光雷达作为测距传感器获取点云。
3.如权利要求1所述的一种基于测距传感器的无人车实时避障方法,其特征在于,其中所述步骤(1)中,采用双目立体视觉获取点云:计算出双目图像中满足视差范围容许值的绝对差最小匹配点对,作为匹配点,根据双目相机的参数和三角形相似原理,即可计算出匹配点对应的空间点的三维坐标,从而获得点云。
CN201610968137.5A 2016-10-31 2016-10-31 一种基于测距传感器的无人车实时避障方法 Active CN106569225B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610968137.5A CN106569225B (zh) 2016-10-31 2016-10-31 一种基于测距传感器的无人车实时避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610968137.5A CN106569225B (zh) 2016-10-31 2016-10-31 一种基于测距传感器的无人车实时避障方法

Publications (2)

Publication Number Publication Date
CN106569225A true CN106569225A (zh) 2017-04-19
CN106569225B CN106569225B (zh) 2023-11-24

Family

ID=58539862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610968137.5A Active CN106569225B (zh) 2016-10-31 2016-10-31 一种基于测距传感器的无人车实时避障方法

Country Status (1)

Country Link
CN (1) CN106569225B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480638A (zh) * 2017-08-16 2017-12-15 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
CN108445877A (zh) * 2018-02-06 2018-08-24 武汉理工大学 基于移动3g/4g网络环境下的仿生运动控制系统与控制方法
CN108828518A (zh) * 2018-03-29 2018-11-16 上海大学 一种货车车厢内部堆垛车定位方法
CN109813305A (zh) * 2018-12-29 2019-05-28 广州蓝海机器人系统有限公司 基于激光slam的无人叉车
CN110232707A (zh) * 2018-03-05 2019-09-13 华为技术有限公司 一种测距方法及装置
CN110244321A (zh) * 2019-04-22 2019-09-17 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法
CN110796128A (zh) * 2020-01-06 2020-02-14 中智行科技有限公司 一种地面点识别方法、装置及存储介质和终端设备
CN112904352A (zh) * 2021-01-18 2021-06-04 仲恺农业工程学院 基于拟合滤波的激光和超声波香蕉树测距方法
CN113654553A (zh) * 2021-08-12 2021-11-16 浙江大学 一种基于逆超短基线的圆柱阵定位系统及定位方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793028A (ja) * 1993-09-21 1995-04-07 Agency Of Ind Science & Technol 自律型移動ロボット群システムの制御方法
US6134502A (en) * 1998-11-30 2000-10-17 Caterpillar Inc. Energy-based approach for obstacle avoidance
CN103926925A (zh) * 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
CN104267728A (zh) * 2014-10-16 2015-01-07 哈尔滨工业大学 一种基于可达区域质心矢量的移动机器人避障方法
CN105955262A (zh) * 2016-05-09 2016-09-21 哈尔滨理工大学 一种基于栅格地图的移动机器人实时分层路径规划方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793028A (ja) * 1993-09-21 1995-04-07 Agency Of Ind Science & Technol 自律型移動ロボット群システムの制御方法
US6134502A (en) * 1998-11-30 2000-10-17 Caterpillar Inc. Energy-based approach for obstacle avoidance
CN103926925A (zh) * 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
CN104267728A (zh) * 2014-10-16 2015-01-07 哈尔滨工业大学 一种基于可达区域质心矢量的移动机器人避障方法
CN105955262A (zh) * 2016-05-09 2016-09-21 哈尔滨理工大学 一种基于栅格地图的移动机器人实时分层路径规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
师五喜;李福荣;常绍平;修春波;: "基于递阶模糊系统的人工势场法机器人路径规划", 天津工业大学学报, no. 06 *
金英连;王斌锐;吴善强;: "机器人二维环境下仿人虚拟力场避障研究", 计算机工程与应用, no. 34 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480638A (zh) * 2017-08-16 2017-12-15 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
CN107480638B (zh) * 2017-08-16 2020-06-30 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
CN108445877A (zh) * 2018-02-06 2018-08-24 武汉理工大学 基于移动3g/4g网络环境下的仿生运动控制系统与控制方法
CN110232707A (zh) * 2018-03-05 2019-09-13 华为技术有限公司 一种测距方法及装置
CN110232707B (zh) * 2018-03-05 2021-08-31 华为技术有限公司 一种测距方法及装置
CN108828518A (zh) * 2018-03-29 2018-11-16 上海大学 一种货车车厢内部堆垛车定位方法
CN109813305A (zh) * 2018-12-29 2019-05-28 广州蓝海机器人系统有限公司 基于激光slam的无人叉车
CN109813305B (zh) * 2018-12-29 2021-01-26 广州蓝海机器人系统有限公司 基于激光slam的无人叉车
CN110244321A (zh) * 2019-04-22 2019-09-17 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法
CN110244321B (zh) * 2019-04-22 2023-09-26 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法
CN110796128A (zh) * 2020-01-06 2020-02-14 中智行科技有限公司 一种地面点识别方法、装置及存储介质和终端设备
CN110796128B (zh) * 2020-01-06 2020-04-03 中智行科技有限公司 一种地面点识别方法、装置及存储介质和终端设备
CN112904352A (zh) * 2021-01-18 2021-06-04 仲恺农业工程学院 基于拟合滤波的激光和超声波香蕉树测距方法
CN112904352B (zh) * 2021-01-18 2021-08-24 仲恺农业工程学院 基于拟合滤波的激光和超声波香蕉树测距方法
CN113654553A (zh) * 2021-08-12 2021-11-16 浙江大学 一种基于逆超短基线的圆柱阵定位系统及定位方法
CN113654553B (zh) * 2021-08-12 2024-01-16 浙江大学 一种基于逆超短基线的圆柱阵定位系统及定位方法

Also Published As

Publication number Publication date
CN106569225B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN106569225A (zh) 一种基于测距传感器的无人车实时避障方法
CN108572663B (zh) 目标跟踪
De Silva et al. Fusion of LiDAR and camera sensor data for environment sensing in driverless vehicles
CN102650886B (zh) 基于主动全景视觉传感器的机器人视觉系统
US8233660B2 (en) System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
上條俊介 et al. Autonomous vehicle technologies: Localization and mapping
US10901417B2 (en) Autonomous vehicle operational management with visual saliency perception control
US11138465B2 (en) Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
WO2015024407A1 (zh) 基于电力机器人的双目视觉导航系统及方法
Barua et al. A self-driving car implementation using computer vision for detection and navigation
CN113110451A (zh) 一种深度相机与单线激光雷达融合的移动机器人避障方法
CN112753212A (zh) 图像扫描线时间戳
TWI680898B (zh) 近距離障礙物之光達偵測裝置及其方法
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
Su et al. A framework of cooperative UAV-UGV system for target tracking
Jensen et al. Laser range imaging using mobile robots: From pose estimation to 3D-models
Seo et al. A perception mechanism for supporting autonomous intersection handling in urban driving
Francis et al. Detection of obstacles in the path planning module using differential scene flow technique
Orlov et al. Machine vision system for autonomous agricultural vehicle
Cordes et al. Vehicle lane merge visual benchmark
Drage et al. Lidar road edge detection by heuristic evaluation of many linear regressions
Abe et al. CONSTRUCTION OF A HIGH-ACCURACY POINT CLOUD MAP FOR THE AUTOMATIC DRIVING OF AN ELECTRIC WHEELCHAIR
Dawson et al. Merits and Limitations of Automotive Radar for Land Vehicle Positioning in Challenging Environments
Gu et al. A Review on Different Methods of Dynamic Obstacles Detection
CN113610910B (zh) 一种移动机器人避障方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant