CN113884090A - 智能平台车环境感知系统及其数据融合方法 - Google Patents
智能平台车环境感知系统及其数据融合方法 Download PDFInfo
- Publication number
- CN113884090A CN113884090A CN202111144938.7A CN202111144938A CN113884090A CN 113884090 A CN113884090 A CN 113884090A CN 202111144938 A CN202111144938 A CN 202111144938A CN 113884090 A CN113884090 A CN 113884090A
- Authority
- CN
- China
- Prior art keywords
- radar
- camera
- vehicle
- laser radar
- data fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title claims abstract description 16
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000004888 barrier function Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000004806 packaging method and process Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims 1
- 238000011160 research Methods 0.000 description 8
- 239000002245 particle Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012826 global research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种智能平台车环境感知系统及其数据融合方法,包括设置在车辆本体上的相机、激光雷达、毫米波雷达、GPS定位系统、超声波雷达以及惯性导航系统,其中:相机用于车道线、交通标示牌、红绿灯以及车辆、行人检测;激光雷达用于与相机融合3D场景识别;毫米波雷达用于辅助场景识别;超声波雷达用于识别车辆四周近距离障碍物;GPS定位系统用于定位;惯性导航系统用于高精度地图建模。本发明解决了智能车感知能力不足与传感器价格昂贵的矛盾,使智能汽车可以利用更低的成本达到较好的感知能力。
Description
技术领域
本发明涉及,具体地,涉及一种智能平台车环境感知系统及其数据融合的方法。
背景技术
目前,随着智能汽车技术的飞速发展,各大型汽车厂商均大力研发无人驾驶汽车技术,无人驾驶已经掀起了全球研究的热潮。无人驾驶技术中,感知作为智能车的“智慧之眼”,是最为基础的技术,也是无人驾驶能够实现的前提。感知技术是指车辆通过传感器与外界环境进行交互,并对感知到的信息进行处理,得到识别结果。常用的传感器有相机、激光雷达、毫米波雷达、超声波雷达、惯导、卫星定位系统等,各传感器有各自的优缺点,一般需要多个传感器的共同工作,才能达到无人驾驶对于环境的感知要求,因此,传感器的数据融合也成为了感知的关键技术。
目前,对于智能汽车传感器数据融合已经有了一定的研究,例如“一种基于磁导航的多传感器融合智能车的自动驾驶系统”研究了怎样利用多种传感器分工检测提高汽车的感知能力,“一种面向智能车的毫米波雷达与单目相机信息融合方法”研究了如何利用毫米波雷达与相机进行数据融合,“一种用于车辆的环境感知系统及其控制方法”研究了如何利用多个摄像头与毫米波雷达对汽车四周进行感知,“一种融合多源车载传感器信息的智能车辆驾驶性自动化评价方法”研究了如何利用多个传感器感知到的信息对汽车驾驶性进行自动化评价。
虽然现状对于智能汽车传感器数据融合有了一定的研究,但是综上所述,大部分研究都在于摄像头与毫米波雷达的融合,而对于价格更高的激光雷达研究较少。然而,激光雷达有着更高的分辨率,能够实现更加精确的障碍物检测,在目前的感知算法下,毫米波雷达还不能满足无人驾驶所需的探测能力,因此有必要提出一种融合激光雷达的感知系统。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种智能平台车环境感知系统及其数据融合方法。
根据本发明提供的一种智能平台车环境感知系统,包括设置在车辆本体上的相机、激光雷达、毫米波雷达、GPS定位系统、超声波雷达以及惯性导航系统,其中:
相机用于车道线、交通标示牌、红绿灯以及车辆、行人检测;
激光雷达用于与相机融合3D场景识别;
毫米波雷达用于辅助场景识别;
超声波雷达用于识别车辆四周近距离障碍物;
GPS定位系统用于定位;
惯性导航系统用于高精度地图建模。
优选地,所述激光雷达采用16线激光雷达和32线激光雷达。
优选地,所述超声波雷达设置有多个,多个超声波雷达分布在车辆本体的四周。
根据本发明提供的一种基于上述的智能平台车环境感知系统的数据融合方法,包括如下步骤:
图像获取步骤:使用张正友标定法对相机的内参、外参和畸变系数进行标定,利用相机获取图像;
图像处理步骤:利用卷积神经网络对去畸变的图像进行处理,提取出障碍物信息和交通特征信息;
激光雷达探测步骤:对激光雷达的点云数据进行拟合匹配,通过激光雷达探测障碍物的位置信息;
修正步骤:利用毫米波雷达检测前方道路障碍物,对激光雷达的数据进行修正;
数据融合步骤:利用特征级融合对摄像头,激光雷达和毫米波雷达的数据进行融合,得到3D目标检测,识别道路上障碍物,并对目标物进行封装分类并添加标签;
数据跟踪步骤:对目标物进行跟踪。
优选地,还包括GPS识别步骤:将车辆本体所在位置驶时显示在地图中,对比识别出的障碍物与地图中的路况。
优选地,还包括惯性导航系统定位步骤:通过惯性导航系统对车辆本体进行定位。
优选地,还包括预警步骤:超声波雷达监测车辆本体和障碍物的距离小于设定值时,车辆本体发出预警。
优选地,利用卡尔曼滤波算法对目标物进行跟踪。
优选地,还包括判断躲避步骤:基于目标物的追踪、车辆本体的位置、超声波雷达监测的距离目标,判断躲避方案。
与现有技术相比,本发明具有如下的有益效果:
1、本发明解决了智能车感知能力不足与传感器价格昂贵的矛盾,使智能汽车可以利用更低的成本达到较好的感知能力。
2、本发明采用了两个线束较低的激光雷达进行融合,减少了因购买高线束激光雷达带来的高昂成本。
3、本发明采用高精度地图对智能汽车进行定位,有效解决了立交桥等复杂路况对识别带来的困难。
4、本发明采用了多种传感器进行数据融合,有足够的冗余性,能够保证智能汽车的安全性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为传感器在智能汽车上的排布;
图2为粒子群算法优化点云配准的流程图;
图3为障碍物识别封装流程图;
图4为整体环境感知识与追踪流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
如图1至图4所示,本发明提供的一种智能平台车环境感知系统,包括车辆本体以及设置在车辆本体上的相机、激光雷达、毫米波雷达、GPS定位系统、超声波雷达以及惯性导航系统,其中:相机用于车道线、交通标示牌、红绿灯以及车辆、行人检测;激光雷达用于与相机融合3D场景识别;毫米波雷达用于辅助场景识别;超声波雷达用于识别车辆四周近距离障碍物;GPS定位系统用于定位;惯性导航系统用于高精度地图建模。激光雷达采用16线激光雷达和32线激光雷达。超声波雷达设置有多个,多个超声波雷达分布在车辆本体的四周。
根据本发明提供的一种基于上述的智能平台车环境感知系统的数据融合方法,包括图像获取步骤:使用张正友标定法对相机的内参、外参和畸变系数进行标定,利用相机获取图像;图像处理步骤:利用卷积神经网络对去畸变的图像进行处理,提取出障碍物信息和交通特征信息;激光雷达探测步骤:对激光雷达的点云数据进行拟合匹配,通过激光雷达探测障碍物的位置信息;修正步骤:利用毫米波雷达检测前方道路障碍物,对激光雷达的数据进行修正;数据融合步骤:利用特征级融合对摄像头,激光雷达和毫米波雷达的数据进行融合,得到3D目标检测,识别道路上障碍物,并对目标物进行封装分类并添加标签;数据跟踪步骤:利用卡尔曼滤波算法对目标物进行跟踪。GPS识别步骤:将车辆本体所在位置驶时显示在地图中,对比识别出的障碍物与地图中的路况。惯性导航系统定位步骤:通过惯性导航系统对车辆本体进行定位。预警步骤:超声波雷达监测车辆本体和障碍物的距离小于设定值时,车辆本体发出预警。判断躲避步骤:基于目标物的追踪、车辆本体的位置、超声波雷达监测的距离目标,判断躲避方案。
更进一步的,本发明提供了一种智能平台车环境感知系统及其数据融合方法,本发明提出的数据融合系统包括:用于车道线、交通标示牌、红绿灯以及车辆、行人检测的单目相机一个;用于与相机融合3D场景识别的16线和32线激光雷达各一个;用于辅助场景识别的毫米波雷达一个;用于识别车辆四周近距离障碍物的超声波雷达四个;用于定位和高精度地图建模的GPS定位系统和惯性导航系统。
本发明采用的标定及融合方法包括张正友标定法、卷积神经网络、粒子群算法与卡尔曼滤波算法等。
由于激光雷达的价格十分昂贵,在2018年末的报价中,16线、32线、64线的车载激光雷达价格分别为4万元、40万元、80万元左右,虽然现在激光雷达的价格以及大幅下降,但高线束的激光雷达价格仍然十分高昂。因此,为了在能保证感知精度的基础上降低成本,采用16线+32线激光雷达联合感知的方式。
为了达到上述目的,所述智能车感知过程包括以下步骤:
首先利用单目摄像头获取图像,由于相机的镜头存在畸变现象,所以在使用相机之前需要使用张正友标定法对相机的内参、外参和畸变系数进行标定;
标定好后,利用卷积神经网络对去畸变的图像进行处理,提取出人、车等障碍物以及车道线、交通标志牌、红绿灯等的特征信息;
由于单目摄像头成像为2D图像,无法得知障碍物的距离信息,因此需要激光雷达探测障碍物的位置信息;
由于使用了两个激光雷达,它们的坐标系存在差异,因此首先要对两个激光雷达的点云数据进行拟合匹配,此处使用粒子群优化算法对点云进行配准;
两个激光雷达的配准可以看作为两组点云多次优化寻找最佳刚性变换的问题,采用粒子群优化算法可以方便地找到较好的刚性变换结果;
激光雷达容易受到天气状况的干扰,为了保证汽车行驶的安全性,感知必须要有一定的冗余性,因此利用毫米波雷达检测前方道路障碍物,对激光雷达的数据进行修正;
接下来利用特征级融合对摄像头,激光雷达和毫米波雷达的数据进行融合,得到更加精准的3D目标检测,识别道路上的行人、车辆等障碍物,并对目标进行封装分类并添加标签;
利用卡尔曼滤波算法对目标物进行跟踪;
在实际行驶过程中,经常出现难以识别的状况,例如在立交桥下行驶时,会出现识别到上方障碍物的情况,此时如果将上方障碍物全部忽略,便容易出现检测不完全的现象,实际上也出现过无人驾驶汽车将白色货车车厢当成白云以致发生事故的例子,若不将上方障碍物忽略,则无人驾驶汽车很难正常行驶;
为了解决立交桥等复杂的路况带来的识别困难,引入GPS和高精度地图,将车辆所在位置驶时显示在高精度地图中,对比识别出的障碍物与高精度地图中的路况,便可以有效解决这类复杂路况的识别问题;
由于GPS信号会受到高楼、随道等环境的影响,在某些特定环境定位效果较差,而惯性导航系统(INS)不受环境的干扰,但自身随着时间的延续会逐渐增大累计误差,因此可以采用GPS+INS融合定位的方式弥补单个传感器的缺陷。INS的计算频率一般大于GPS,因此可以采用INS定位,GPS修正的方式对汽车实现更加精准的定位。
在智能车辆行驶过程中,超声波雷达实时检测车辆四周的环境,当智能汽车离障碍物或离栏杆、路牙等较近时,便会发出预警,避免智能汽车与突然出现或识别遗漏的障碍物发生碰撞。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (9)
1.一种智能平台车环境感知系统,其特征在于,包括设置在车辆本体上的相机、激光雷达、毫米波雷达、GPS定位系统、超声波雷达以及惯性导航系统,其中:
相机用于车道线、交通标示牌、红绿灯以及车辆、行人检测;
激光雷达用于与相机融合3D场景识别;
毫米波雷达用于辅助场景识别;
超声波雷达用于识别车辆四周近距离障碍物;
GPS定位系统用于定位;
惯性导航系统用于高精度地图建模。
2.根据权利要求1所述的智能平台车环境感知系统,其特征在于,所述激光雷达采用16线激光雷达和32线激光雷达。
3.根据权利要求1所述的智能平台车环境感知系统,其特征在于,所述超声波雷达设置有多个,多个超声波雷达分布在车辆本体的四周。
4.一种基于权利要求1-3任一项所述的智能平台车环境感知系统的数据融合方法,其特征在于,包括如下步骤:
图像获取步骤:使用张正友标定法对相机的内参、外参和畸变系数进行标定,利用相机获取图像;
图像处理步骤:利用卷积神经网络对去畸变的图像进行处理,提取出障碍物信息和交通特征信息;
激光雷达探测步骤:对激光雷达的点云数据进行拟合匹配,通过激光雷达探测障碍物的位置信息;
修正步骤:利用毫米波雷达检测前方道路障碍物,对激光雷达的数据进行修正;
数据融合步骤:利用特征级融合对摄像头,激光雷达和毫米波雷达的数据进行融合,得到3D目标检测,识别道路上障碍物,并对目标物进行封装分类并添加标签;
数据跟踪步骤:对目标物进行跟踪。
5.根据权利要求4所述的数据融合方法,其特征在于,还包括GPS识别步骤:将车辆本体所在位置驶时显示在地图中,对比识别出的障碍物与地图中的路况。
6.根据权利要求4所述的数据融合方法,其特征在于,还包括惯性导航系统定位步骤:通过惯性导航系统对车辆本体进行定位。
7.根据权利要求4所述的数据融合方法,其特征在于,还包括预警步骤:超声波雷达监测车辆本体和障碍物的距离小于设定值时,车辆本体发出预警。
8.根据权利要求4所述的数据融合方法,其特征在于,利用卡尔曼滤波算法对目标物进行跟踪。
9.根据权利要求1所述的数据融合方法,其特征在于,还包括判断躲避步骤:基于目标物的追踪、车辆本体的位置、超声波雷达监测的距离目标,判断躲避方案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111144938.7A CN113884090A (zh) | 2021-09-28 | 2021-09-28 | 智能平台车环境感知系统及其数据融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111144938.7A CN113884090A (zh) | 2021-09-28 | 2021-09-28 | 智能平台车环境感知系统及其数据融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113884090A true CN113884090A (zh) | 2022-01-04 |
Family
ID=79007474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111144938.7A Pending CN113884090A (zh) | 2021-09-28 | 2021-09-28 | 智能平台车环境感知系统及其数据融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113884090A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114923523A (zh) * | 2022-05-27 | 2022-08-19 | 中国第一汽车股份有限公司 | 感知数据的采集方法、装置、存储介质及电子装置 |
CN115290069A (zh) * | 2022-07-22 | 2022-11-04 | 清华大学 | 多源异构传感器数据融合与协同感知手持移动平台 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109059942A (zh) * | 2018-08-22 | 2018-12-21 | 中国矿业大学 | 一种井下高精度导航地图构建系统及构建方法 |
CN109298415A (zh) * | 2018-11-20 | 2019-02-01 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN109596078A (zh) * | 2019-01-28 | 2019-04-09 | 吉林大学 | 多信息融合路面谱实时测试系统和测试方法 |
CN109612476A (zh) * | 2018-12-04 | 2019-04-12 | 广州辰创科技发展有限公司 | 基于惯性导航技术的地图重构方法、装置、惯性导航系统及计算机存储介质 |
CN110765922A (zh) * | 2019-10-18 | 2020-02-07 | 华南理工大学 | 一种agv用双目视觉物体检测障碍物系统 |
CN111413983A (zh) * | 2020-04-08 | 2020-07-14 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的环境感知方法及控制端 |
CN111559314A (zh) * | 2020-04-27 | 2020-08-21 | 长沙立中汽车设计开发股份有限公司 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
CN111582130A (zh) * | 2020-04-30 | 2020-08-25 | 长安大学 | 一种基于多源异构信息的交通行为感知融合系统及方法 |
CN211765500U (zh) * | 2019-11-27 | 2020-10-27 | 北京新能源汽车技术创新中心有限公司 | 一种用于封闭场景下的智能驾驶环境感知系统及汽车 |
CN112068574A (zh) * | 2020-10-19 | 2020-12-11 | 中国科学技术大学 | 一种无人车在动态复杂环境中的控制方法及系统 |
CN112284410A (zh) * | 2020-10-30 | 2021-01-29 | 东风汽车集团有限公司 | 一种基于高精度地图的车联网显示系统 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113192182A (zh) * | 2021-04-29 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的实景重建方法及系统 |
-
2021
- 2021-09-28 CN CN202111144938.7A patent/CN113884090A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109059942A (zh) * | 2018-08-22 | 2018-12-21 | 中国矿业大学 | 一种井下高精度导航地图构建系统及构建方法 |
CN109298415A (zh) * | 2018-11-20 | 2019-02-01 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN109612476A (zh) * | 2018-12-04 | 2019-04-12 | 广州辰创科技发展有限公司 | 基于惯性导航技术的地图重构方法、装置、惯性导航系统及计算机存储介质 |
CN109596078A (zh) * | 2019-01-28 | 2019-04-09 | 吉林大学 | 多信息融合路面谱实时测试系统和测试方法 |
CN110765922A (zh) * | 2019-10-18 | 2020-02-07 | 华南理工大学 | 一种agv用双目视觉物体检测障碍物系统 |
CN211765500U (zh) * | 2019-11-27 | 2020-10-27 | 北京新能源汽车技术创新中心有限公司 | 一种用于封闭场景下的智能驾驶环境感知系统及汽车 |
CN111413983A (zh) * | 2020-04-08 | 2020-07-14 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的环境感知方法及控制端 |
CN111559314A (zh) * | 2020-04-27 | 2020-08-21 | 长沙立中汽车设计开发股份有限公司 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
CN111582130A (zh) * | 2020-04-30 | 2020-08-25 | 长安大学 | 一种基于多源异构信息的交通行为感知融合系统及方法 |
CN112068574A (zh) * | 2020-10-19 | 2020-12-11 | 中国科学技术大学 | 一种无人车在动态复杂环境中的控制方法及系统 |
CN112284410A (zh) * | 2020-10-30 | 2021-01-29 | 东风汽车集团有限公司 | 一种基于高精度地图的车联网显示系统 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113192182A (zh) * | 2021-04-29 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的实景重建方法及系统 |
Non-Patent Citations (11)
Title |
---|
姜灏;: "一种自动驾驶车的环境感知系统", 电子制作, no. 15, pages 72 - 75 * |
常超伟;牛竹云;谈鹏;: "多雷达组网信息融合系统空间配准方法研究", 计算机与数字工程, no. 04, pages 44 - 46 * |
张体广等: "基于数据配准的零件精密装配最佳接触状态研究", 兵工学报, vol. 39, no. 1, pages 127 - 136 * |
戴燕玲;: "基于激光雷达的无人驾驶汽车道路、交通标志与障碍物识别方法", 无线互联科技, no. 17, pages 11 - 12 * |
李秀智;居鹤华;王欢;: "非结构化环境下月球车快速即时定位与制图方法", 宇航学报, no. 09, pages 90 - 94 * |
毕欣: "自主无人系统的智能环境感知技术", vol. 1, 华中科技大学出版社, pages: 45 * |
王蕾;林立文;: "基于梯度互信息的光学影像和LIDAR强度图配准", 地理空间信息, no. 03, pages 56 - 58 * |
谢德胜;徐友春;王任栋;苏致远;: "基于三维激光雷达的无人车障碍物检测与跟踪", 汽车工程, no. 08, pages 85 - 92 * |
贾志成等: "基于并行粒子群优化的三维点云配准算法", 电视技术, vol. 40, no. 1, pages 36 - 41 * |
阳钧;鲍泓;梁军;马楠;: "一种基于高精度地图的路径跟踪方法", 计算机工程, no. 07, pages 14 - 19 * |
陈斯祺等: "基于天牛须改进粒子群算法的点云配准方法", 激光技术, vol. 44, no. 6, pages 678 - 683 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114923523A (zh) * | 2022-05-27 | 2022-08-19 | 中国第一汽车股份有限公司 | 感知数据的采集方法、装置、存储介质及电子装置 |
CN115290069A (zh) * | 2022-07-22 | 2022-11-04 | 清华大学 | 多源异构传感器数据融合与协同感知手持移动平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107161141B (zh) | 无人驾驶汽车系统及汽车 | |
CN110077399B (zh) | 一种基于道路标线、车轮检测融合的车辆防碰撞方法 | |
CN110065494B (zh) | 一种基于车轮检测的车辆防碰撞方法 | |
EP2461305B1 (en) | Road shape recognition device | |
US10650253B2 (en) | Method for estimating traffic lanes | |
US10984557B2 (en) | Camera calibration using traffic sign recognition | |
US10553117B1 (en) | System and method for determining lane occupancy of surrounding vehicles | |
US20180281802A1 (en) | Traveling control system for vehicle | |
CN112132896B (zh) | 一种轨旁设备状态检测方法及系统 | |
CN109828571A (zh) | 基于v2x的自动驾驶车辆、方法和装置 | |
CN106324618B (zh) | 实现基于激光雷达检测车道线系统的方法 | |
CN109871787B (zh) | 一种障碍物检测方法及装置 | |
CN113885062A (zh) | 基于v2x的数据采集融合设备、方法和系统 | |
CN109583416B (zh) | 伪车道线识别方法及系统 | |
CN212220188U (zh) | 地下停车场融合定位系统 | |
CN111413983A (zh) | 一种无人驾驶车辆的环境感知方法及控制端 | |
Shunsuke et al. | GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon | |
US20230303113A1 (en) | Curb-based feature extraction for localization and lane detection using radar | |
CN112784679A (zh) | 车辆避障方法和装置 | |
CN113884090A (zh) | 智能平台车环境感知系统及其数据融合方法 | |
CN112562061B (zh) | 一种基于激光雷达图像的驾驶视觉增强的系统及方法 | |
CN110780287A (zh) | 基于单目相机的测距方法及测距系统 | |
Na et al. | RoadPlot-DATMO: Moving object tracking and track fusion system using multiple sensors | |
CN113988197B (zh) | 基于多相机、多激光雷达的联合标定及目标融合检测方法 | |
CN114084129A (zh) | 一种基于融合的车辆自动驾驶控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220104 |