CN111240341B - 一种基于uwb和激光雷达传感器的车辆全方位跟随方法 - Google Patents
一种基于uwb和激光雷达传感器的车辆全方位跟随方法 Download PDFInfo
- Publication number
- CN111240341B CN111240341B CN202010092881.XA CN202010092881A CN111240341B CN 111240341 B CN111240341 B CN 111240341B CN 202010092881 A CN202010092881 A CN 202010092881A CN 111240341 B CN111240341 B CN 111240341B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- vehicle
- laser radar
- base station
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 13
- 230000002068 genetic effect Effects 0.000 claims abstract description 5
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims description 4
- 238000003379 elimination reaction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002567 autonomic effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于UWB和激光雷达传感器的车辆全方位跟随方法。该方法为:首先建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系,并建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射;然后车辆实时感知到其在以人为原点的世界坐标系中的位置和姿态;接着使用激光雷达传感器采集障碍物信息,将障碍物在激光雷达坐标系中的坐标转换为在车辆坐标系中的坐标,使用二值贝叶斯滤波算法构建占据栅格地图;最后车辆基于占据栅格地图,以及基于并行遗传算法的自动随行与避障算法,实现任意方位的实时随行。本发明算法简单、定位精度高,能够实现自主车辆在使用者周围全方位的实时跟随。
Description
技术领域
本发明属于电子信息技术领域,特别是一种基于UWB和激光雷达传感器的车辆全方位跟随方法。
背景技术
自主车辆是智能交通系统中的一个重要组成部分和信息化的汽车产品。自主车辆具有一定的人工智能,需要实现车载通信、信息加工处理、环境探测、辅助控制四项功能,其执行的功能包括:准确沿着规定道路行驶并保持正确的车道位置,保持车与车之间的安全距离;根据交通状况和路面特征状况调整车速,避免与其他车辆碰撞和追尾;自动实现换道超车;在道路上安全停车;车载辅助驾驶系统在智能交通网络环境下能够找到到达目的地的最佳路径,以及遇险报警和自我救助等。
在自主车辆技术的发展中,自动跟随前车行驶技术是智能交通系统走向实际应用的基础和关键。自动跟随综合运用了避障、跟随、定位、智能通信等多种技术,功能逐渐多样化,满足了多数人群的需要。目前,自动跟随技术得到了一定的发展,例如通过采集识别人体携带的二维码标签纸来定位、基于深度彩色相机的视觉跟踪系统和基于超声波定位的自动跟随技术等,但目前的产品在仪器的稳定性、准确性和效率上还有欠缺,主要体现在:
(1)避障功能并未与智能控速、方向控制等功能达到很高程度上的结合,导致避障功能并未得到完美的体现;
(2)在数据处理上未达到数据的高效率处理,不能够高效地进行路径规划,导致路径规划方面欠缺实用性;
(3)自主车辆的反应机制难以支撑密集的工作指令,无法保持工作完整性,并不能实现真正的360度自动跟随。
发明内容
本发明的目的在于提供一种算法简单、定位精度高的基于UWB和激光雷达传感器的车辆全方位跟随方法,实现自主车辆在使用者周围全方位的实时跟随。
实现本发明目的的技术解决方案为:一种基于UWB和激光雷达传感器的车辆全方位跟随方法,包括以下步骤:
步骤1、建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系;
步骤2、建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射;
步骤3、车辆实时感知自身在以使用者为原点的世界坐标系中的位置和姿态;
步骤4、使用激光雷达传感器采集障碍物信息,将障碍物在激光雷达坐标系中的坐标转换为在车辆坐标系中的坐标,使用二值贝叶斯滤波算法构建占据栅格地图;
步骤5、车辆基于占据栅格地图,以及基于并行遗传算法的自动随行与避障算法,实现任意方位的实时随行。
进一步地,步骤1所述的建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系,具体如下:
UWB传感器系统的基站1位于车辆平台的右后部;基站2位于车辆平台的左后部,与基站1关于车辆的中轴对称,且基站1与基站2的距离为m;基站3位于车辆平台的左前部,与基站1关于车辆的中心对称,且基站3与基站2的距离为n;UWB传感器坐标系X3O3Y3即以基站2为坐标原点,基站2到基站1的方向为x轴正方向,基站2到基站3的方向为y轴正方向的坐标系;
激光雷达传感器位于车辆平台的前部且在车辆的中轴上,激光雷达传感器与车辆中心的距离为ΔL;激光雷达坐标系X2O2Y2以激光雷达为原点,车辆中心到激光雷达为y轴正方向,车辆坐标系X1O1Y1以车辆中心为原点,车辆中心到激光雷达为y轴正方向,激光雷达坐标系X2O2Y2的x轴方向与车辆坐标系的方向相同。
进一步地,步骤2所述的建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射,具体如下:
步骤2.1、通过三点定位,计算出各个信标在车辆坐标系中的位置,即在车辆坐标系中的(x,y)坐标,并通过消元法消除信标和车辆自身局部坐标系的高度差h;
步骤2.2、以信标1,即手持设备一端作为世界坐标系中心,信标2,即手持设备另一端方向作为x轴正方向,根据右手螺旋定则确定世界坐标系y轴的方向,以此建立世界坐标系;
步骤2.3、计算信标1与信标2在车辆坐标系下的坐标(xu10,yu10)和(xu20,yu20),世界坐标系到车辆坐标系的位移Δx,Δy,根据向量夹角公式,计算坐标系之间的旋转角度α,然后根据世界坐标系与车辆坐标系之间的转换公式进行坐标映射:
x′=xcosα+xsinα-(Δxcosα+Δysinα)
y′=-xsinα+ycosα-(-Δxsinα+Δycosα)
其中,x′为世界坐标系中的横轴坐标,y′是世界坐标系中的纵轴坐标,Δx、Δy分别为位移的横、纵坐标,α为坐标系之间旋转角度。
进一步地,步骤4中所述的使用激光雷达传感器采集障碍物信息,具体如下:
激光雷达采集到的障碍物在X2O2Y2坐标系中的坐标为(xb,yb),根据几何关系将数据坐标统一至在以车辆中心为原点的X1O1Y1坐标系中:
xbo1=xb
ybo1=yb+Δd
其中,xbo1、ybo1为障碍物在车辆坐标系中的横、纵坐标,Δd为X1O1Y1和X2O2Y2两坐标原点的相对距离。
本发明与现有技术相比,其显著优点为:(1)将UWB与激光雷达结合起来,通过坐标系之间的映射实现机器人的定姿和定位,并通过激光雷达的数据建立周围环境的占据栅格地图,建图精度高,定位效果好,能满足实际操作需求;(2)使用UWB传感器,解决了前向随行的复杂路径规划问题;(3)减少了需要处理的数据量,降低了计算难度,提高了计算效率,可以实现自主车辆在使用者周围全方位的实时跟随。
附图说明
图1是本发明基于UWB和激光雷达传感器的车辆全方位跟随方法的流程示意图。
图2是本发明中车辆坐标系示意图。
图3是本发明中四点定位示意图。
图4是本发明中障碍物相对于激光雷达位置图。
具体实施方式
本发明基于UWB和激光雷达传感器的车辆全方位跟随方法,包括以下步骤:
步骤1、建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系;
步骤2、建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射;
步骤3、车辆实时感知自身在以使用者为原点的世界坐标系中的位置和姿态;
步骤4、使用激光雷达传感器采集障碍物信息,将障碍物在激光雷达坐标系中的坐标转换为在车辆坐标系中的坐标,使用二值贝叶斯滤波算法构建占据栅格地图;
步骤5、车辆基于占据栅格地图,以及基于并行遗传算法的自动随行与避障算法,实现任意方位的实时随行。
进一步地,步骤1所述的建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系,具体如下:
UWB传感器系统的基站1位于车辆平台的右后部;基站2位于车辆平台的左后部,与基站1关于车辆的中轴对称,且基站1与基站2的距离为m;基站3位于车辆平台的左前部,与基站1关于车辆的中心对称,且基站3与基站2的距离为n;UWB传感器坐标系X3O3Y3即以基站2为坐标原点,基站2到基站1的方向为x轴正方向,基站2到基站3的方向为y轴正方向的坐标系;
激光雷达传感器位于车辆平台的前部且在车辆的中轴上,激光雷达传感器与车辆中心的距离为ΔL;激光雷达坐标系X2O2Y2以激光雷达为原点,车辆中心到激光雷达为y轴正方向,车辆坐标系X1O1Y1以车辆中心为原点,车辆中心到激光雷达为y轴正方向,激光雷达坐标系X2O2Y2的x轴方向与车辆坐标系的方向相同。
进一步地,步骤2所述的建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射,具体如下:
步骤2.1、通过三点定位,计算出各个信标在车辆坐标系中的位置,即在车辆坐标系中的(x,y)坐标,并通过消元法消除信标和车辆自身局部坐标系的高度差h;
步骤2.2、以信标1,即手持设备一端作为世界坐标系中心,信标2,即手持设备另一端方向作为x轴正方向,根据右手螺旋定则确定世界坐标系y轴的方向,以此建立世界坐标系;
步骤2.3、计算信标1与信标2在车辆坐标系下的坐标(xu10,yu10)和(xu20,yu20),世界坐标系到车辆坐标系的位移Δx,Δy,根据向量夹角公式,计算坐标系之间的旋转角度α,然后根据世界坐标系与车辆坐标系之间的转换公式进行坐标映射:
x′=xcosα+xsinα-(Δxcosα+Δysinα)
y′=-xsinα+ycosα-(-Δxsinα+Δycosα)
其中,x′为世界坐标系中的横轴坐标,y′是世界坐标系中的纵轴坐标,Δx、Δy分别为位移的横、纵坐标,α为坐标系之间旋转角度。
进一步地,步骤4中所述的使用激光雷达传感器采集障碍物信息,具体如下:
激光雷达采集到的障碍物在X2O2Y2坐标系中的坐标为(xb,yb),根据几何关系将数据坐标统一至在以车辆中心为原点的X1O1Y1坐标系中:
xbo1=xb
ybo1=yb+Δd
其中,xbo1、ybo1为障碍物在车辆坐标系中的横、纵坐标,Δd为X1O1Y1和X2O2Y2两坐标原点的相对距离。
下面结合附图和具体实施例对本发明作进一步的详细说明。
实施例
结合图1,本发明基于UWB和激光雷达传感器的车辆全方位跟随方法,包括以下步骤:
步骤1、建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系;
结合图2,车辆的激光雷达坐标系与UWB传感器坐标系分别是X3O3Y3,X2O2Y2;
UWB传感器系统的基站1位于车辆平台的右后部;基站2位于车辆平台的左后部,与基站1关于车辆的中轴对称,且基站1与基站2的距离为m;基站3位于车辆平台的左前部,与基站1关于车辆的中心对称,且基站3与基站2的距离为n;UWB传感器系统坐标系X3O3Y3即以基站2为坐标原点,基站2到基站1的方向为x轴正方向,基站2到基站3的方向为y轴正方向的坐标系。
激光雷达传感器位于车辆平台的前部且在车辆的中轴上,其与车辆中心的距离为ΔL,激光雷达传感器系统坐标系X2O2Y2即以激光雷达(O2)为原点,车辆中心(O1)到激光雷达(O2)为y轴正方向,x轴方向与车辆坐标系的方向相同的坐标系。
步骤2、建立世界坐标系,进行坐标映射;
步骤2.1、结合图3,计算出各个信标在车辆坐标系中的位置,即在车辆坐标系中的(x,y)坐标,并通过消元法消除信标和车辆坐标系的高度差h;
设定信标相对于基站1,2,3所建立的三维坐标系的坐标点为(xu,yu,h),可以列出如下方程组:
x1 2=h2+xu 2+(yu-n)2
x3 2=h2+yu 2+(xu-m)2
x2 2=xu 2+yu 2+h2
相减可把h消去:
x2 2-x1 2=2yun-n2
x2 2-x3 2=2xum-m2
步骤2.2、以信标1,即手持设备一端作为世界坐标系中心,信标2,即手持设备另一端方向作为x轴正方向,根据右手螺旋定则确定世界坐标系y轴的方向,以此建立世界坐标系;
步骤2.3、计算信标1与信标2在车辆坐标系下的坐标(xu10,yu10)和(xu20,yu20),世界坐标系到车辆坐标系的位移Δx,Δy,根据向量夹角公式,计算坐标系之间的旋转角度α,然后根据世界坐标系与车辆坐标系之间的转换公式进行坐标映射:
x′=xcosα+xsinα-(Δxcosα+Δysinα)
y′=-xsinα+ycosα-(-Δxsinα+Δycosα)
其中,x′为世界坐标系中的横轴坐标,y′是世界坐标系中的纵轴坐标,Δx,Δy分别为位移的横、纵坐标,α为坐标系之间旋转角度;
最后可得信标相对于以基站为平面的车辆坐标系的坐标点:
步骤3、车辆实时感知到其在以人为原点的世界坐标系中的位置和姿态;
UWB传感器采集到数据后,将数据坐标统一至在以车辆中心为原点的车辆坐标系X1O1Y1中:
即:
步骤4、使用激光雷达传感器采集障碍物信息,将障碍物在激光雷达坐标系中的坐标转换为在车辆坐标系中的坐标,使用二值贝叶斯滤波算法构建占据栅格地图;
结合图4,以激光雷达为原点建立直角坐标系,检测到障碍物相对于激光雷达中心点的距离d和相对于x轴的角度θ;
激光雷达坐标系的极坐标为:
Xbo2=F(θ,d)
Ybo2=W(θ,d)
激光雷达坐标系的直角坐标系为:
Xbo2=d*cosθ
Ybo2=d*sinθ
车辆的直角坐标系为:
Xbo1=Xbo2
Ybo1=Ybo2+ΔL
在激光雷达坐标系中,把(Xbo2,Ybo2)的坐标由极坐标系表示转换成直角坐标系表示,然后将Ybo2加上激光雷达原点和车辆原点的距离差ΔL,即可得到障碍物在车辆坐标系X1O1Y1中的位置为(Xbo1,Ybo1)。
步骤5、车辆基于占据栅格地图,以及基于并行遗传算法的自动随行与避障算法,实现任意方位的实时随行。
Claims (3)
1.一种基于UWB和激光雷达传感器的车辆全方位跟随方法,其特征在于,包括以下步骤:
步骤1、建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系;
步骤2、建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射;
步骤3、车辆实时感知自身在以使用者为原点的世界坐标系中的位置和姿态;
步骤4、使用激光雷达传感器采集障碍物信息,将障碍物在激光雷达坐标系中的坐标转换为在车辆坐标系中的坐标,使用二值贝叶斯滤波算法构建占据栅格地图;
步骤5、车辆基于占据栅格地图,以及基于并行遗传算法的自动随行与避障算法,实现任意方位的实时随行;
步骤1所述的建立车辆坐标系、激光雷达坐标系和UWB传感器坐标系,具体如下:
UWB传感器系统的基站1位于车辆平台的右后部;基站2位于车辆平台的左后部,与基站1关于车辆的中轴对称,且基站1与基站2的距离为m;基站3位于车辆平台的左前部,与基站1关于车辆的中心对称,且基站3与基站2的距离为n;UWB传感器坐标系X3O3Y3即以基站2为坐标原点,基站2到基站1的方向为x轴正方向,基站2到基站3的方向为y轴正方向的坐标系;
激光雷达传感器位于车辆平台的前部且在车辆的中轴上,激光雷达传感器与车辆中心的距离为ΔL;激光雷达坐标系X2O2Y2以激光雷达为原点,车辆中心到激光雷达为y轴正方向,车辆坐标系X1O1Y1以车辆中心为原点,车辆中心到激光雷达为y轴正方向,激光雷达坐标系X2O2Y2的x轴方向与车辆坐标系的方向相同。
2.根据权利要求1所述的基于UWB和激光雷达传感器的车辆全方位跟随方法,其特征在于,步骤2所述的建立世界坐标系,将世界坐标系与车辆坐标系之间进行坐标映射,具体如下:
步骤2.1、通过三点定位,计算出各个信标在车辆坐标系中的位置,即在车辆坐标系中的(x,y)坐标,并通过消元法消除信标和车辆自身局部坐标系的高度差h;
步骤2.2、以信标1,即手持设备一端作为世界坐标系中心,信标2,即手持设备另一端方向作为x轴正方向,根据右手螺旋定则确定世界坐标系y轴的方向,以此建立世界坐标系;
步骤2.3、计算信标1与信标2在车辆坐标系下的坐标(xu10,yu10)和(xu20,yu20),世界坐标系到车辆坐标系的位移Δx,Δy,根据向量夹角公式,计算坐标系之间的旋转角度α,然后根据世界坐标系与车辆坐标系之间的转换公式进行坐标映射:
x′=xcosα+xsinα-(Δxcosα+Δysinα)
y′=-xsinα+ycosα-(-Δxsinα+Δycosα)
其中,x′为世界坐标系中的横轴坐标,y′是世界坐标系中的纵轴坐标,Δx、Δy分别为位移的横、纵坐标,α为坐标系之间旋转角度。
3.根据权利要求1所述的基于UWB和激光雷达传感器的车辆全方位跟随方法,其特征在于,步骤4中所述的使用激光雷达传感器采集障碍物信息,具体如下:
激光雷达采集到的障碍物在X2O2Y2坐标系中的坐标为(xb,yb),根据几何关系将数据坐标统一至在以车辆中心为原点的X1O1Y1坐标系中:
xbo1=xb
ybo1=yb+Δd
其中,xbo1、ybo1为障碍物在车辆坐标系中的横、纵坐标,Δd为X1O1Y1和X2O2Y2两坐标原点的相对距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010092881.XA CN111240341B (zh) | 2020-02-14 | 2020-02-14 | 一种基于uwb和激光雷达传感器的车辆全方位跟随方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010092881.XA CN111240341B (zh) | 2020-02-14 | 2020-02-14 | 一种基于uwb和激光雷达传感器的车辆全方位跟随方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111240341A CN111240341A (zh) | 2020-06-05 |
CN111240341B true CN111240341B (zh) | 2022-09-06 |
Family
ID=70874987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010092881.XA Active CN111240341B (zh) | 2020-02-14 | 2020-02-14 | 一种基于uwb和激光雷达传感器的车辆全方位跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111240341B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112040446B (zh) * | 2020-09-16 | 2023-08-22 | 上海振华重工(集团)股份有限公司 | 一种定位方法及定位系统 |
CN112702699B (zh) * | 2020-12-21 | 2021-12-03 | 南京大学 | 一种融合UWB和LiDAR的室内定位方法 |
CN112649013A (zh) * | 2020-12-29 | 2021-04-13 | 天津天瞳威势电子科技有限公司 | 一种可通行区域的确定方法、装置及电子设备 |
CN113176097B (zh) * | 2021-03-15 | 2023-03-14 | 北京汽车研究总院有限公司 | 感知模块的检测方法、计算机可读存储介质及车辆 |
CN113296119B (zh) * | 2021-05-24 | 2023-11-28 | 江苏盛海智能科技有限公司 | 一种基于激光雷达和uwb阵列的无人避障驾驶方法与终端 |
CN113744566B (zh) * | 2021-09-08 | 2023-12-05 | 京东鲲鹏(江苏)科技有限公司 | 一种预警方法和装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104714209B (zh) * | 2015-03-27 | 2017-04-26 | 中国矿业大学 | 一种基于uwb与激光测距组合的动态定位方法及装置 |
CN107515384A (zh) * | 2017-09-07 | 2017-12-26 | 南京理工大学 | 基于uwb与多传感器的室内机器人的定位与环境建模方法 |
CN108366343B (zh) * | 2018-03-20 | 2019-08-09 | 珠海市一微半导体有限公司 | 机器人智能监视宠物的方法 |
CN108773796B (zh) * | 2018-04-20 | 2019-11-08 | 华南农业大学 | 一种叉车上任意两点坐标系的标定方法 |
CN209230639U (zh) * | 2018-11-07 | 2019-08-09 | 成都方德尔科技有限公司 | 一种基于激光导航的坐标定位装置 |
CN110672093B (zh) * | 2019-08-23 | 2023-08-04 | 华清科盛(北京)信息技术有限公司 | 一种基于uwb与惯导融合的车载导航定位方法 |
-
2020
- 2020-02-14 CN CN202010092881.XA patent/CN111240341B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111240341A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111240341B (zh) | 一种基于uwb和激光雷达传感器的车辆全方位跟随方法 | |
CN109556615B (zh) | 基于自动驾驶的多传感器融合认知的驾驶地图生成方法 | |
Wang et al. | Automatic parking of vehicles: A review of literatures | |
CN109166140B (zh) | 一种基于多线激光雷达的车辆运动轨迹估计方法及系统 | |
Suhr et al. | Sensor fusion-based vacant parking slot detection and tracking | |
CN110745140B (zh) | 一种基于连续图像约束位姿估计的车辆换道预警方法 | |
Wang et al. | Online simultaneous localization and mapping with detection and tracking of moving objects: Theory and results from a ground vehicle in crowded urban areas | |
CN214151498U (zh) | 一种车辆控制系统及车辆 | |
Pink | Visual map matching and localization using a global feature map | |
CN110737271B (zh) | 一种水面机器人自主巡航系统及方法 | |
CN111338342B (zh) | 一种轮式工程机械自动循迹行驶控制系统及方法 | |
Kim et al. | Pedestrian/vehicle detection using a 2.5-D multi-layer laser scanner | |
CN113085896B (zh) | 一种现代有轨清洁车辅助自动驾驶系统及方法 | |
Liu et al. | Hercules: An autonomous logistic vehicle for contact-less goods transportation during the COVID-19 outbreak | |
CN113602265A (zh) | 基于车车通信的处理协同换道方法及系统 | |
CN113610910A (zh) | 一种移动机器人避障方法 | |
CN113870246A (zh) | 一种基于深度学习的障碍物探测和识别方法 | |
Khalilullah et al. | Road area detection method based on DBNN for robot navigation using single camera in outdoor environments | |
CN111311656A (zh) | 一种适用于车载鱼眼相机的运动目标检测方法和装置 | |
Aoki et al. | Error covariance estimation of 3d point cloud registration considering surrounding environment | |
Ohkawa et al. | Development of autonomous mobile robot using articulated steering vehicle and lateral guiding method | |
Muller et al. | A model-based object following system | |
CN113658240B (zh) | 一种主要障碍物检测方法、装置与自动驾驶系统 | |
CN113138594B (zh) | 自动驾驶方法及装置 | |
CN113282085A (zh) | 一种基于uwb的机器人跟随系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |