CN117441113A - 一种面向车路协同的感知信息融合表征及目标检测方法 - Google Patents
一种面向车路协同的感知信息融合表征及目标检测方法 Download PDFInfo
- Publication number
- CN117441113A CN117441113A CN202280026658.2A CN202280026658A CN117441113A CN 117441113 A CN117441113 A CN 117441113A CN 202280026658 A CN202280026658 A CN 202280026658A CN 117441113 A CN117441113 A CN 117441113A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- point cloud
- vehicle
- road side
- voxel level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 128
- 230000008447 perception Effects 0.000 title claims abstract description 20
- 230000004927 fusion Effects 0.000 title claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000002776 aggregation Effects 0.000 claims abstract description 28
- 238000004220 aggregation Methods 0.000 claims abstract description 28
- 238000012512 characterization method Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 32
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 238000009434 installation Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 238000002360 preparation method Methods 0.000 claims description 6
- 239000006185 dispersion Substances 0.000 claims 1
- 239000013598 vector Substances 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 13
- 238000002310 reflectometry Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 239000013589 supplement Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241000282372 Panthera onca Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000237504 Crassostrea virginica Species 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 241000282373 Panthera pardus Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/048—Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Data Mining & Analysis (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了自动驾驶车路协同领域中一种面向车路协同的感知信息融合表征及目标检测方法,该方法包含以下步骤:布设路侧激光雷达,为路侧激光雷达配置相应的路侧计算设备;标定路侧激光雷达外参;路侧计算设备根据自动驾驶车辆定位数据和路侧激光雷达外参计算自动驾驶车辆相对于路侧激光雷达的相对位姿;路侧计算设备根据相对位姿将路侧激光雷达检测到的路侧激光雷达点云偏转至自动驾驶车辆坐标系中,得到偏转点云;路侧计算设备对偏转点云进行体素化处理,得到体素化偏转点云。自动驾驶车辆对车载激光雷达检测到的车载激光雷达点云进行体素化处理得到体素化车载激光雷达点云;路侧计算设备计算体素化偏转点云的体素级特征,得到偏转点云体素级特征。自动驾驶车辆计算体素化车载激光雷达点云体素级特征,得到车载激光雷达点云体素级特征;将各点云体素级特征压缩并传输至计算设备,传输设备可以是自动驾驶车辆、路侧计算设备或是云端。计算设备对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;计算设备将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果;当计算设备为路侧计算设备或是云端时,最后将目标检测结果发送至自动驾驶车辆。
Description
本发明属于自动驾驶车路协同技术领域,涉及运用感知信息融合表征的车路协同目标检测方法。
21世纪,随着城市道路和汽车产业的不断发展,汽车成为人们出行的必备交通工具之一,为人类的日常生产生活带来极大的方便。但是,汽车过度使用的同时也带来了环境污染、交通堵塞、交通事故等问题。为了缓解汽车过度使用问题,将人从交通系统中脱离出来,提高车辆驾驶能力的同时,解放了驾驶员的双手,自动驾驶汽车也渐渐成为未来汽车发展的重要方向。随着深度学习技术的崛起、人工智能的备受关注,自动驾驶,作为AI中备受关注的重要落脚点,也被炒的火热。
自动驾驶是一个完整的软硬件交互系统,自动驾驶核心技术包括硬件(汽车制造技术、自动驾驶芯片)、自动驾驶软件、高精度地图、传感器通信网络等。从软件方面来看,总体上可分为如下三个模块,即环境感知、行为决策和运动控制。
感知是自动驾驶的第一环,是车辆和环境交互的纽带。一个自动驾驶系统的整体上表现好坏,首先就取决于感知系统的性能。自动驾驶车辆的感知是通过传感器实现的,其中激光雷达利用激光来进行探测和测量。其原理是向周围发射脉冲激光,遇到物体后反射回来,通过来回的时间差,计算出距离,从而对周围环境建立起三维模型。激光雷达探测精度高、距离长;由于激光的波长短,所以可以探测到非常微小的目标,并且探测距离很长。激光雷达感知到的点云数据信息量大且精度更高,多用于自动驾驶感知环中的目标检测和分类。一方面,激光雷达颠覆传统了二维投影成像模式,可采集目标表面深度信息,得到目标相对完整的空间信息,经数据处理重构目标三维表面,获得更能反映目标几何外形的三维图形,同时还能获取目标表面反射特性、运动速度等丰富的特征信息,为目标探测、识别、跟踪等数据处理提供充分的信息支持、降低算法难度;另一方面,主动激光技术的应用,使得其具有测量分辨率高,抗干扰能力强、抗隐身能力强、穿透能力强和全天候工作的特点。
目前根据有无机械部件来分,激光雷达可分为机械激光雷达和固态激光雷达,虽然固态激光雷达被认为是未来的大势所趋,但在当前激光雷达战场,机械激光雷达仍占据主流地位。机械激光雷达带有控制激光发射角度的旋转部件,而固态激光雷达则无需机械旋转部件,主要依靠电子部件来控制激光发射角度。
在现有的自动驾驶方案中,激光雷达基本都是其环境感知模块中的最主要传感器,承担环境感知中的实时地图建立和定位与目标检测等大部分任务。例如,谷歌Waymo在其传感器配置方案中加入了五个激光雷达,四个侧方激光雷达分别分布在车辆的前后左右,为中短距离多线雷达,用于补充盲区视野;顶部则配置了高线数的激光雷达用于大范围的感知,其视野盲区由四个侧方激光雷达补充。
激光雷达传感器的扫描资料以点云的形式记录。点云数据是指在一个三维坐标系统中的一组向量的集合。这些向量通常以X,Y,Z三维坐标的形式表示。每一个点除了包含有三维坐标之外,有些可能含有颜色信息(RGB)或反射强度信息(Intensity)。
其中,X、Y、Z三列数据代表了点数据在传感器坐标系或是世界坐标系中的三维位置,一般以米为单位。Intensity列下则代表了每一个点处的激光反射强度,其值没有单位,一般被归一化到0~255之间。
由于车载激光雷达本身的安装高度受到车型大小的限制多仅为两米左右,其所能探测到的信息易受到车辆周围遮挡物的影响,例如在小型车前方行驶的载货卡车几乎可以完全遮挡住小型车上激光雷达的前方视野,使其环境感知能力严重减弱。另外雷达本身的性能也会受到车辆整体成本的限制,车辆端往往不会配置较为昂贵的高线数激光雷达。因此,车载激光雷达所能获得的点云数据常常存在出现盲区或是稀疏情况,仅依靠车辆的传感器来完成自动驾驶感知任务较为困难。相比车载激光雷达,安装在路侧设施端的激光雷达因为可以布设在较高的龙门架或是灯柱上,具有更加通透的视野不易被遮挡。另外,路侧激光雷达对于成本的容忍度更高,可以使用较高线数的激光雷达,同时可以配置算力较高的路侧计算单元,借以达到更高的探测性能和更快的检测速度。
目前,车路协同系统正处在研究和测试的热潮中,基于V2X技术实现的智能车路协同方案可以增强现阶段可实现的辅助驾驶功能,增强车辆驾驶安全及道路运行效率,在远期可以为自动驾驶提供数据服务与技术支持。
现有的激光雷达车路协同方案为车辆及路侧设施各自根据激光雷达点云数据进行目标检测,随后设施端将检测结果发送给车辆,大部分的学者的研究重点则放在了传输数据的可靠性分析或是车路两端之间的相对位姿计算上或是车路两端的数据传输时延处理上,均默认了车路协同过程直接发送目标检测的结果。此方案虽数据传输量较低,但仍然无法完全利用两端的检测数据。例如当车路两档均未探测到较完整的目标点云时,很容易发生漏检误检情况,导致协同之后的目标检测结果出现误差。对此,部分学者提议直接发送原点云数据来防止信息丢失,例如2019年提出的Cooper框架最早提出了原始点云数据级别的合作感知方案,通过融合不同来源的点云数据大幅提高感知性能。
但与此同时,单帧激光雷达点云数据大小常常在十余M甚至数十M,现有的车路协同通信条件难以支撑如此大量的实时点云数据传输。因此,自动驾驶技术迫切需要一种更好的利用两端激光雷达数据的协同检测方法,既满足目标检测精度的需求,又能尽可能减少数据传输量。
现有的基于激光雷达点云数据的目标识别和分类算法均基于深度神经网络技术。
现有技术
专利文件US9562971B2
专利文件US20150187216A1
专利文件CN110989620A
专利文件CN110781927A
专利文件CN111222441A
专利文件CN108010360A
发明内容
为了解决上述的问题,本发明提供一种面向车路协同的感知信息融合表征及目标检测方法,提供一种权衡传输数据大小和信息损失程度的基于激光雷达点云数据的车路协同方案,用于解决目前自动驾驶车辆单车感知能力不足同时车路协同通信带宽不足的问题。
具体要解决的技术问题包括确定路侧激光雷达布设方案、选择路侧激光雷达外参标定方法、依据自动驾驶车辆与路侧激光雷达相对位姿计算偏转参数的方法、确定合适的用于车路协同的信息表征形式。
本发明的目标是:保证车路协同感知能力的前提下减小信息传输量。
本发明专利解决其技术问题分为准备阶段和应用阶段,准备阶段的步骤如下:
A.布设路侧激光雷达,为路侧激光雷达配置相应的路侧计算设备;
B.标定路侧激光雷达外参。
应用阶段的步骤如下:
C.路侧计算设备根据自动驾驶车辆定位数据和路侧激光雷达外参计算自动驾驶车辆相对于路侧激光雷达的相对位姿;
D.路侧计算设备根据相对位姿将路侧激光雷达检测到的路侧激光雷达点云偏转至自动驾驶车辆坐标系中,得到偏转点云。
E.路侧计算设备对偏转点云进行体素化处理,得到体素化偏转点云。自动驾驶车辆对车载激光雷达检测到的车载激光雷达点云进行体素化处理得到体素化车载激光雷达点云;
F.路侧计算设备计算体素化偏转点云的体素级特征,得到偏转点云体素级特征。自动驾驶车辆计算体素化车载激光雷达点云体素级特征,得到车载激光雷达点云体素级特征;
后续步骤分为I、II、III三个子方案。子方案I在路侧计算设备完成步骤G
1、H
1、I
1;子方案II在自动驾驶车辆完成步骤G
2、H
2、I
2;子方案III在云端完成步骤G
3、H
3、I
3。
子方案I中:
G
1.自动驾驶车辆对车载激光雷达点云体素级特征进行压缩处理,得到压缩车载激光雷达点云体素级特征,并传输至路侧计算设备,路侧计算设备接收压缩车载激光雷达点云体素级特征,将压缩车载激光雷达点云体素级特征还原为车载激光雷达点云体素级特征;
H
1.路侧计算设备对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;
I
1.路侧计算设备将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果,并将目标检测结果传输至自动驾驶车辆;
子方案II中:
G
2.路侧计算设备对偏转点云体素级特征进行压缩处理,得到压缩偏转点云体素级特征,并传输至自动驾驶车辆;自动驾驶车辆接收压缩偏转点云体素级特征,将压缩偏转点云体素级特征还原为偏转点云体素级特征;
H
2.自动驾驶车辆对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;
I
2.自动驾驶车辆将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果;
子方案III中:
G
3.自动驾驶车辆对车载激光雷达点云体素级特征进行压缩处理,得到压缩车载激光雷达点云体素级特征,并传输至云端。路侧计算设备对偏转点云体素级特征进行压缩处理,得到压缩偏转点云体素级特征,并传输至云端。云端接收压缩偏转点云体素级特征和压缩车载激光雷达点云体素级特征,将压缩偏转点云体素级特征还原为偏转点云体素级特征,将压缩车载激光雷达点云体素级特征还原为车载激光雷达点云体素级特征;
H
3.云端对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;
I
3.云端将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果,并将目标检测结果传输至自动驾驶车辆。
本发明专利上述步骤中的具体技术方案如下:
A.布设激光雷达
所述的布设路侧激光雷达依据对车路协同场景中现有的路侧立柱设施及所安装的激光雷达类型决定。现有的路侧激光雷达安装形式用立杆或横杆方式,具体安装位置为路侧龙门架、路灯、信号灯柱等有电力支持的基础设施柱体上。
按内部有无旋转部件,激光雷达可分为机械旋转式激光雷达、混合式激光雷达和固态激光雷达,其中,机械旋转式激光雷达和固态激光雷达两种类型为路侧常用激光雷达类型。
对于交叉口等场景,布设一个检测范围大于等于场景范围或是包含场景内关键区域的路侧激光雷达即可。对于快速路,高速公路,园区等长距离大范围复杂场景,建议遵循以下路侧激光雷达布设导则,使路侧激光雷达覆盖范围满足场景全覆盖要求,即单一路侧激光雷达实现对场景内其他路侧激光雷达下方检测盲区的补充,以达到更好的车路协同目标检测效果。
路侧激光雷达布设导则按使用的路侧激光雷达种类不同分为路侧机械旋转式激光雷达布设导则和路侧全固态激光雷达布设导则。
A
1)路侧机械旋转式激光雷达、路侧混合固态激光雷达布设方案
机械旋转式激光雷达通过机械旋转实现激光扫描;激光发射部件在竖直方向上排布成激光光源线阵,并可通过透镜在竖直面内产生不同角度指向的光束;在电机的驱动下持续旋转即使竖直面内的光束由“线”变成“面”,经旋转扫描形成多个激光“面”,从而实现探测区域内的探测。混合固态激光雷达则指用半导体“微动”器件(如MEMS扫描镜)来代替宏观机械式扫描器,在微观尺度上实现雷达发射端的激光扫描方式。
路侧机械旋转式激光雷达、路侧混合固态激光雷达布设导则要求路侧安装机械旋转式激光雷达和路侧路侧混合固态激光雷达时使其水平安置,保证各个方向光束信息的充分利用。如图2,布设路侧机械旋转式激光雷达和路侧混合固态激光雷达应至少满足以下要求:
其中:
H
a表示路侧机械旋转式激光雷达或路侧混合固态激光雷达安装高度;
表示路侧机械旋转式激光雷达或路侧混合固态激光雷达最高仰角光束与水平方向的夹 角;
L
a表示相邻两个路侧机械旋转式激光雷达或路侧混合固态激光雷达安装杆位间的距离;
A
2)路侧全固态激光雷达布设方案
全固态激光雷达完全取消了机械扫描结构,其水平垂直两个方向的激光扫描均通过电子方式实现。相控激光发射器由若干发射接收单元组成的一个矩形阵列,通过改变阵列中不同单元发射光线的相位差,可以达到调节射出激光角度和方向的目的。激光光源经过光分束器后进入光波导阵列,在波导上通过外加控制的方式改变光波的相位,利用波导间的光波相位差来实现光束扫描。
如图3,路侧全固态激光雷达布设导则要求布设路侧全固态激光雷达应至少满足以下要求:
其中:
H
b表示路侧全固态激光雷达安装高度;
表示路侧全固态激光雷达在垂直方向上的视场角度;
表示路侧全固态激光雷达最高仰角光束与水平方向的夹角;
L
b表示相邻两个路侧全固态激光雷达安装杆位间的距离;
对于安装全固态激光雷达的场景,还可通同一杆安装两个反向激光雷达的方法弥补路侧感知盲区,减小对于路侧杆位数量的需求,此时应满足如图4所示的要求,即:
其中:
H
c表示路侧全固态激光雷达安装高度;
表示路侧全固态激光雷达最高仰角光束与水平方向的夹角;
L
c表示相邻两个路侧全固态激光雷达安装杆位间的距离;
对于可以满足上述条件的激光雷达车路协同场景,路侧机械旋转式激光雷达或全固态激光雷达按如上要求布设,并在条件有余裕时增大各激光雷达扫描区域。对于无法满足上述条件的激光雷达车路协同场景则通过布设新杆及路侧激光雷达数量的方法实现路侧激光雷达布设条件满足路侧激光雷达布设导则。
B.外参标定
为了计算路侧激光雷达与车载激光雷达的相对位姿,需要对路侧激光雷达的安装位置和角度进行标定,即外参标定,即得到激光雷达相对某一基准坐标系的坐标位置参数和角度姿态参数。激光雷达的外参可以用以下向量表示:
V
0=[x
0 y
0 z
0 a
0 β
0 γ
0] (4)
其中:
x
0表示路侧激光雷达在基准坐标系中的X坐标;
y
0表示路侧激光雷达在基准坐标系中的Y坐标;
z
0表示路侧激光雷达在基准坐标系中的Z坐标;
a
0表示路侧激光雷达在基准坐标系中绕X轴的旋转角度;
β
0表示路侧激光雷达在基准坐标系中绕Y轴的旋转角度;
γ
0表示路侧激光雷达在基准坐标系中绕Z轴的旋转角度;
上述的基准坐标系可以是以GCJ02、WGS84为代表的经纬度坐标系,也可以是以某一特定的地理点以基准的大地坐标系,例如北京54坐标系和西安80坐标系。对应的,在基准坐标系中一点的实际坐标,与被上述激光雷达检测到后得到的路侧激光雷达坐标系中的坐标关系为:
其中:
x
lidar为该点在路侧激光雷达坐标系中的X坐标;
y
lidar为该点在路侧激光雷达坐标系中的Y坐标;
z
lidar为该点在路侧激光雷达坐标系中的Z坐标;
x
real为该点在基准坐标系中的X坐标;
y
real为该点在基准坐标系中的Y坐标;
z
real为该点在基准坐标系中的Z坐标;
R
x(a
0)、R
y(β
0)、R
z(γ
0)为根据三个角度外参a
0、β
0和γ
0计算而得的子旋转矩阵;
路侧激光雷达的外参具体数值通过测量控制点在路侧激光雷达坐标系和基准坐标系中的坐标计算而得,其步骤如下:
①在路侧激光雷达检测范围内选取最少4个反射率特征点作为控制点。反射率特征点指反射率与周边物体有明显差别的点,例如交通标志牌、车牌等,选取反射率特征点作为控制点的目的在于便于在点云数据中依靠位置和反射强度与其他点的区别快速的找出相应的点,从而快速建立多对点云中的点与基准坐标系中的一个坐标之间的对应关系。 控制点应尽可能离散分布。在场景环境允许的条件下且控制点选择符合以下要求的条件下,控制点越多标定效果越好。控制点选择要求包括:应离散分布,且任意三个控制点间不可共线;在路侧激光雷达检测范围内,选取控制点应尽可能距离路侧激光雷达距离更远,通常这个距离应大于激光雷达最远检测距离的50%。对于因场景限制难以在激光雷达最远检测距离的50%选取控制点时,可在小于激光雷达最远检测距离的50%处选取控制点,但应增加控制点的数量。
②使用手持高精度RTK等高精度测量仪器测量控制点精确坐标,在路侧激光雷达点云中找到相应点坐标;当持有路侧激光雷达布设场景的高精度地图文件时,无需使用手持高精度RTK等高精度测量仪器测量,可直接与高精度地图中找到对应特征点的坐标。
③使用三维配准算法对计算激光雷达外参向量V
0的最优值,以其结果作为标定结果。常用的三维配准算法包括ICP算法、NDT算法等,其中应用于激光雷达外参标定问题时即主要使用ICP算法。ICP算法的基本原理是在匹配的目标点集P(控制点在路侧激光雷达坐标系中的坐标集合)和源点集Q(控制点在基准坐标系中的坐标集合)中,计算出最优匹配外参,使得误差函数最小。误差函数为:
R=R
x(a
0)R
y(β
0)R
z(γ
0) (10)
T=[x
0 y
0 z
0]
T (11)
其中:
E(R,T)为目标误差函数;
R为旋转变换矩阵;
T为平移变换矩阵;
n为点集中最临近点对的个数;
p
i为目标点集P中第i个的点的坐标;
q
i为源点集Q中与点p
i组成最临近点对的点;
C.计算相对位姿
根据自动驾驶车辆定位数据和前期准备工作中路侧激光雷达外参标定结果确定自动驾驶车辆与路侧激光雷达的相对位姿。其相对位姿按如下公式计算:
V′=[V′
xyz V′
aβγ] (12)
V′
aβγ=[a′ β′ γ′]
T=[a′
1 β′
1 γ′
1]
T-[a′
0 β′
0 γ′
0]
T (14)
V
1=[x
1 y
1 z
1 a
1 β
1 γ
1]
T (15)
其中:
V′为自动驾驶车辆相对于路侧激光雷达的位置与角度向量
V′
xyz为自动驾驶车辆相对于路侧激光雷达的位置向量
V′
aβγ为自动驾驶车辆相对于路侧激光雷达的角度向量
V
1为自动驾驶车辆在基准坐标系中的位置和角度向量
D.偏转
按如下公式将路侧激光雷达点云D
r偏转至自动驾驶车辆坐标系中:
R=R
x(a′)R
y(β′)R
z(γ′) (18)
T=[x′ y′ z′] (19)
其中:
H
rc为路侧激光雷达坐标系偏转至自动驾驶车辆坐标系的变换矩阵;
x
ego、y
ego、z
ego为路侧激光雷达点云中的一点偏转到自动驾驶车辆坐标系后的坐标,对应路侧激光雷达坐标系中的点坐标为[x
lidar y
lidar z
lidar]
T;
O为透视变换向量,由于此场景中无透视变换,O取[0 0 0];
E.体素化
体素是体积元素(Volume Pixel)的简称,是数字数据于三维空间分割上的最小单位。概念上类似二维空间的最小单位——像素。使用体素将点云数据进行分割后,可以对每个体素之内的点云数据分别先计算一次数据特征,每个体素内的点云数据组成的集合的特征称为体素级特征。现有的三维目标检测算法中一大类算法基于体素级特征处理激光雷达点云数据,通过体素化点云数据后提取体素级特征,并输入后续的基于体素级特征的三维目标检测网络模型得到目标检测结果。
点云数据体素化的步骤如下:
E
1)根据车载激光雷达点云D
c所在的空间维度大小[D W H],设计体素的大小为[D
V W
V H
V]。根据设计的体素大小对车载激光雷达进行体素划分。
E
2)对于偏转点云
使用与车载激光雷达点云D
c相同体素划分方式进行划分,保证划分偏转点云
的空间网格与车载激光雷达点云D
c完全重合。例如,车载激光雷达点云D
c的分布空 间在X轴方向为[-31m,33m],体素D
V为4m,此时若偏转点云
的分布空间在X轴方向为[-32m,34m],则应将其扩充至[-35m,37m],得到扩充后的偏转点云
以保证车载激光雷达点云D
c和扩充后的偏转点云
的体素划分网格一致。具体计算公式如下:
n
1,n
2∈N
其中:
S
ego为车载激光雷达点云D
c所在空间范围;
S
lidar′为扩充后的偏转点云
所在空间范围;
K
lidar_start′、K
lidar_end′为K维度上扩充后的偏转点云
的范围起始值和终止值;
K
lidar_start、K
lidar_end为K维度上偏转点云
的范围起始值和终止值;
K
ego_start、K
ego_end为K维度上车载激光雷达点云D
c的范围起始值和终止值;
V
K为体素在K维度上的大小;
E
3)根据车载激光雷达点云D
c和扩充后的偏转点云
中散点数据所在的体素进行分组,同一体素内的散点数据为同一组。由于点的不均匀性和稀疏性,每个体素中的散点数据的数量不一定相同,一部分体素中可能没有散点数据。
E
4)为了减小计算负担,同时消除因为密度不一致带来的判别问题,针对体素内散点数据量大于一定阈值的体素进行随机采样,阈值建议取值为35,当点云数据中散点数据较少时,可适当减小阈值。这种策略可以节省计算资源、降低体素之间的不平衡性。
通过步骤E
1~E
4,体素化车载激光雷达点云D
c得到体素化车载激光雷达点云
体素化扩充后的偏转点云
得到体素化偏转点云
F.计算体素级特征
根据自动驾驶车辆所使用的目标检测模型不同,计算点云体素级特征使用的方法也有所不同。以自动驾驶车辆使用VoxelNet模型进行目标检测为例,步骤如下:
①首先整理体素化点云,对于体素A内第i个点,其被采集到的原始数据为:
a
i=[x
i y
i z
i r
i] (23)
其中:
x
i、y
i、z
i分别为第i个点的X、Y、Z坐标;
r
i为第i个点的反射强度;
②随后计算该体素内所有点坐标的均值,记为[[v
x v
y v
z]]。
③之后对第i个点采用相对于中心的偏移量来补充其信息,即:
其中:
为补充后的第i个点的信息;
④将处理后的体素化点云输入级联的连续VFE层中,VFE层处理体素化点云的数据的示意图如图5。VFE层的处理逻辑为首先使每一个
通过一层全连接网络后得到各点的点级特征,随后将点级特征进行最大值池化处理得到体素级特征,最后将体素级特征与上一步得到的点级特征拼接得到点级拼接特征结果。
⑤经过级联的连续VFE层处理后,再通过全连接层整合和最大值池化得到最终的体素级特征,每个体素级特征为一个1×C维的向量。
对体素化车载激光雷达点云
和体素化偏转点云
使用以上方法可分别得到车载激光雷达点云体素级特征
和偏转点云体素级特征
G.点云体素级特征传输
由于点云在空间中稀疏存在,许多体素内无散点数据,因此也无对应的体素级特征。将点云体素级特征用特殊结构存储后可大幅压缩数据大小,减小发送至处理设备时的传输难度,即对点云体素级特征进行了压缩处理。可用特殊结构之一是哈希表,哈希表是根据关键码值而直接进行访问的数据结构。它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。其中,哈希表的哈希键是体素的空间坐标,对应值则为体素级特征。
使用子方案I时,后续处理在路侧计算设备进行。
G
1)自动驾驶车辆对车载激光雷达点云体素级特征
进行压缩处理,得到压缩车载激光雷达点云体素级特征
并传输至路侧计算设备,路侧计算设备接收压缩车载激光雷达点云体素级特征
将压缩车载激光雷达点云体素级特征
还原为车载激光雷达点云体素级特征
使用子方案II时,后续处理于自动驾驶车辆上进行。
G
2)路侧计算设备对偏转点云体素级特征
进行压缩处理,得到压缩偏转点云体素级特征
并传输至自动驾驶车辆;自动驾驶车辆接收压缩偏转点云体素级特征
将压缩偏转点云体素级特征
还原为偏转点云体素级特征
使用子方案III时,后续处理于云端进行。
G
3)自动驾驶车辆对车载激光雷达点云体素级特征
进行压缩处理,得到压缩车载激光雷达点云体素级特征
并传输至云端。路侧计算设备对偏转点云体素级特征
进行压缩处理,得到压缩偏转点云体素级特征
并传输至云端。云端接收压缩偏转点云体素级特征
和压缩车载激光雷达点云体素级特征
将压缩偏转点云体素级特征
还原为偏转点云体素级特征
将压缩车载激光雷达点云体素级特征
还原为车载激光雷达点云体素级特征
H.数据拼接和数据聚合
进行数据拼接操作,即将车载激光雷达点云体素级特征
和偏转点云体素级特征
依据其中体素在自动驾驶车辆坐标系中的位置进行对齐。
进行数据聚合操作,即对于车载激光雷达点云体素级特征
和偏转点云体素级特征
任意一方体素为空的位置,取不为空的一方的体素级特征作为聚合后的体素级特征。对与两方均不为空的体素,最后得到的聚合体素级特征按如下公式计算:
其中:
为聚合体素级特征;
f
k为聚合体素级特征
在位置k的值;
f
ego_k为车载激光雷达点云体素级特征
在位置k的值;
f
lidar_k为偏转点云体素级特征
在位置k的值;
即使用最大值池化的方法聚合相同坐标体素的特征。
使用子方案I时,后续处理在路侧计算设备进行。
H
1)路侧计算设备按如上方法对车载激光雷达点云体素级特征
和偏转点云体素级特征
进行数据拼接和数据聚合得到聚合体素级特征
使用子方案II时,后续处理于自动驾驶车辆上进行。
H
2)自动驾驶车辆按如上方法对车载激光雷达点云体素级特征
和偏转点云体素级特征
进行数据拼接和数据聚合得到聚合体素级特征
使用子方案III时,后续处理于云端进行。
H
3)云端按如上方法对车载激光雷达点云体素级特征
和偏转点云体素级特征
进行数据拼接和数据聚合得到聚合体素级特征
I.目标检测
将聚合体素级特征输入后续三维目标检测网络模型得到检测目标。仍以VoxelNet为例,在得到聚合体素级特征之后,将其输入到基于体素级特征的三维目标检测网络模型中得到目标检测结果。
目标检测结果可表示为U,具体为:
U=[u
1 ... u
n] (27)
其中:
u
i为目标检测结果中第i个目标的信息;
x
i为第i个检测目标在自动驾驶车辆坐标系中的x轴坐标;
y
i为第i个检测目标在自动驾驶车辆坐标系中的y轴坐标;
z
i为第i个检测目标在自动驾驶车辆坐标系中的z轴坐标;
C
i为第i个检测目标的置信度;
W
i为第i个检测目标对应的检测框的宽度;
D
i为第i个检测目标对应的检测框的长度;
H
i为第i个检测目标对应的检测框的高度;
为第i个检测目标对应的检测框的方向角;
v
xi为第i个检测目标运动速度在自动驾驶车辆坐标系中的x轴方向上的投影。
v
yi为第i个检测目标运动速度在自动驾驶车辆坐标系中的y轴方向上的投影。
v
zi为第i个检测目标运动速度在自动驾驶车辆坐标系中的z轴方向上的投影。
对于任意一种基于体素级特征的三维目标检测网络模型,其目标检测结果至少应包括目标的位置,即x
i、y
i、z
i。对于高性能的基于体素级特征的三维目标检测网络模型,其目标检测结果应包括检测目标的C
i、W
i、D
i、H
i、
v
xi、v
yi、v
zi属性的一部分或所有。其中,W
i、D
i、H
i三个属性只可同时存在于或同时不存在于目标检测结果中。v
xi、v
yi、v
zi三个属性只可同时存在于或同时不存在于目标检测结果中。
使用子方案I时,目标检测在路侧计算设备进行。
I
1)路侧计算设备将聚合体素级特征
输入基于体素级特征的三维目标检测网络模型得到目标检测结果U,并将目标检测结果传输至自动驾驶车辆。
使用子方案II时,目标检测于自动驾驶车辆上进行。
I
2)自动驾驶车辆将聚合体素级特征
输入基于体素级特征的三维目标检测网络模型得到目标检测结果U。
使用子方案III时,目标检测于云端进行。
I
3)云端将聚合体素级特征
输入基于体素级特征的三维目标检测网络模型得到目标检测结果,并将目标检测结果U传输至自动驾驶车辆。
本发明具有技术关键点和优势包括:
使用路侧激光雷达作为自动驾驶车辆感知的补充,提升了自动驾驶车辆对于周边物体识别的范围和准确性。同时,使用体素化特征作为车路间传输的数据,既保证了几乎不丢失原始数据信息,同时降低数据传输时对带宽的需求。
以上符号及其所表示含义归纳如下表:
以上名词及其所表示含义归纳如下表:
附图简要说明
图1为提出的一种面向车路协同的感知信息融合表征及目标检测方法;
图2为布设路侧机械旋转式激光雷达示意图
图3为布设路侧全固态激光雷达示意图
图4为布设路侧全固态激光雷达示意图(同杆安装两个反向激光雷达)
图5为VFE层处理点云数据示意图
图6为体素化特征提取及聚合示意图
图7为合并后体素点云目标检测示意图
图8为路侧激光雷达点云坐标转换示意图
图9为目标检测结果对比示意图(左图为本专利提出车路协同检测方法,右图为直接取各自高置信度目标检测结果)
下面结合附图和具体实施方式对本发明作详细说明。
本发明涉及一种面向车路协同的感知信息融合表征及目标检测方法。可以分为三个主要步骤:
第一步,路侧激光雷达传感器的安装以及前期标定工作。
布设路侧激光雷达依据对车路协同场景中现有的路侧立柱设施及所安装的激光雷达类型决定。现有的路侧激光雷达安装形式用立杆或横杆方式,具体安装位置为路侧龙门架、路灯、信号灯柱等有电力支持的基础设施柱体上。
对于交叉口等场景,布设一个检测范围大于等于场景范围或是包含场景内关键区域的路侧激光雷达即可。对于快速路,高速公路,园区等长距离大范围复杂场景,建议遵循发明内容中的路侧激光雷达布设导则,使路侧激光雷达覆盖范围满足场景全覆盖要求,即单一路侧激光雷达实现对场景内其他路侧激光雷达下方检测盲区的补充,以达到更好的车路协同目标检测效果。在车路协同方案中,使用路侧激光雷达提升自动驾驶车辆的感知能力,即获得车辆周围目标相对于自车位置及其类别、大小尺寸、行进方向等信息的能力。因此路侧激光雷达本身也应有尽可能强的感知能力,包括雷达线数和采样频率等参数应尽可能不低于车载激光雷达的相关参数。另外,为了弥补车载激光雷达易被遮挡的缺陷同时实现感知数据冗余,路侧激光雷达的感知范围应确保覆盖所有遮挡现象的常发区域,并控制路侧激光雷达探测视线通透无障碍物遮挡。
在完成路侧激光雷达传感器的安装后,为了计算路侧激光雷达与车载激光雷达的相对位姿,需要对路侧激光雷达的安装位置和角度进行标定,即外参标定,即得到激光雷达相对某一基准坐标系的坐标位置参数和角度姿态参数。首先在路侧激光雷达检测区域内选取最少4个反射率特征点作为控制点。反射率特征点指反射率与周边物体有明显差别的点,例如交通标志牌、车牌等,选取反射率特征点作为控制点的目的在于便于在点云数据中依靠位置和反射强度与其他点的区别快速的找出相应的点,从而快速建立多对点云中的点与基准坐标系中的一个坐标之间的对应关系。控制点应尽可能离散分布。在场景环境允许的条件下且控制点选择符合以下要求的条件下,控制点越多标定效果越好。控制点选择要求包括:应离散分布,且任意三个控制点间不可共线;在路侧激光雷达检测的范围内,选取控制点应尽可能距离路侧激光雷达距离更远,通常这个距离应大于激光雷达最远检测距离的50%。对于因场景限制难以在激光雷达最远检测距离的50%选取控制点时,可在小于激光雷达最远检测距离的50%处选取控制点,但应增加控制点的数量。随后使用手持高精度RTK等高精度测量仪器测量控制点精确坐标,在路侧激光雷达点云中找到相应点坐标;当持有路侧激光雷达布设场景的高精度地图文件时,无需使用手持高精度RTK等高精度测量仪器测量,可直接与高精度地图中找到对应特征点的坐标。最后使用三维配准算法对计算激光雷达外参向量的最优值,以其结果作为标定结果。常用的三维配准算法包括ICP算法、NDT算法等,其中应用于激光雷达外参标定问题时即主要使用ICP算法。ICP算法的基本原理是在匹配的目标点集P(控制点在路侧激光雷达坐标系中的坐标集合)和源点集Q(控制点在基准坐标系中的坐标集合)中,计算出最优匹配外参,使得误差函数最小。
这里不限定标定路侧激光雷达外参所使用的方法,但应确保标定结果包含传感器的三维世界坐标以及俯仰角、偏航角和翻滚角,以用于后续步骤中的点云偏转。
第二步,车端路端激光雷达点云数据的处理及特征提取。
在实际车路协同自动驾驶过程中,首先基于自动驾驶自带的定位模块等获得车辆实时的世界坐标及俯仰角、偏航角和翻滚角。基于车辆RTK定位结果与路侧激光雷达的外参标定结果,计算自动驾驶车辆相对于路侧激光雷达的相对位姿,将路侧激光雷达点云数据偏转至车辆坐标系内。
根据车载激光雷达点云所在的空间维度大小,设计体素的大小并对车载激光雷达进行体素划分。对于偏转点云,使用与车载激光雷达点云相同体素划分方式进行划分,保证划分偏转点云的空间网格与车载激光雷达点云完全重合。根据车载激光雷达点云和扩充后的偏转点云中散点数据所在的体素进行分组,同一体素内的散点数据为同一组。由于点的不均匀性和稀疏性,每个体素中的散点数据的数量不一定相同,一部分体素中可能没有散点数据。为了减小计算负担,同时消除因为密度不一致带来的判别问题,针对体素内散点数据量大于一定阈值的体素进行随机采样,阈值建议取值为35,当点云数据中散点数据较少时,可适当减小阈值。这种策略可以节省计算资源、降低体素之间的不平衡性。见图6,用固定尺寸的晶格将两组点云数据分成若干个离散的体素,扩充,使用上述的体素化方法分别计算每个体素的特征向量。以三维目标检测算法中较为经典的VoxelNet网络模型为例,使用若干个连续的VFE层对每个体素进行特征向量的提取。即使用体素内的每个散点数据相对于中心的偏移量来补充其系信息,并将处理后的体素化点云输入级联的连续VFE层中,VFE层处理体素化点云的数据的示意图如图5。VFE层的处理逻辑为首先使每一个扩充后的散点数据通过一层全连接网络后得到各点的点级特征,随后将点级特征进行最大值池化处理得到体素级特征,最后将体素级特征与上一步得到的点级特征拼接得到点级拼接特征结果。经过级联的连续VFE层处理后,再通过全连接层整合和最大值池化得到最终的体素级特征。
由于点云在空间中稀疏存在,许多体素内无散点数据,因此也无对应的体素级特征。将点云体素级特征用特殊结构存储后可大幅压缩数据大小,减小发送至处理设备时的传输难度。可用特殊结构之一是哈希表,哈希表是根据关键码值而直接进行访问的数据结构。它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。其中,哈希表的哈希键是体素的空间坐标,对应值则为体素级特征。
第三步,对对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征,并进行目标检测。
在进行数据聚合和数据拼接之前,首先需要将点云体素级特征压缩并传输至计算设备上。计算设备可以为路侧计算设备、自动驾驶车辆或是云端。使用子方案I时,数据聚合和数据拼接及后续处理在路侧计算设备进行;使用子方案II时,数据聚合和数据拼接及后续处理于自动驾驶车辆上进行。使用子方案III时,数据聚合和数据拼接及后续处理于云端进行。
数据拼接和数据聚合过程中,由于体素化不改变点云的空间相对位置,因此仍可依据上一步中偏转点云体素级特征对车载雷达点云体素级特征进行补充,进行数据拼接操作,即将车载激光雷达点云体素级特征和偏转点云体素级特征依据其中体素在自动驾驶车辆坐标系中的位置进行对齐。进行数据聚合操作,即对于车载激光雷达点云体素级特征和偏转点云体素级特征任意一方体素为空的位置,取不为空的一方的体素级特征作为聚合后的体素级特征。对于两组数据中相同空间坐标的体素级特征向量,使用最大值池化方法聚合特征向量,对于不重合的体素级特征向量则保持非空体素一方的特征向量值。
将聚合体素级特征输入后续三维目标检测网络模型得到检测目标。见图7,仍以VoxelNet网络模型为例,将拼接后的数据输入VoxelNet网络模型中的连续卷积层得到空间特征图,最后输入VoxelNet网络模型中的RPN(Region Proposal Network,区域生成网络)中得到最后的目标检测结果。
本发明具有以下技术关键点和优势:
使用路侧激光雷达作为自动驾驶车辆感知的补充,提升了车辆对于周边物体识别的范围和准确性。同时,使用点云体素化特征作为车路间传输的数据,既保证了几乎不丢失原始数据信息,同时降低了数据传输对带宽的要求。
在同济大学嘉定校区交通运输工程学院路口设置实验场景,场景中路段上每20m距离设有一个高为6.4m的立杆。以使用Innovusion捷豹阵列式300线激光雷达和Ouster 128线360°激光雷达作为路侧激光雷达为例。Innovusion捷豹阵列式300线激光雷达的垂直方向视场角为40°,最远检测距离为200m。Ouster 128线360°激光雷达的垂直视场角为45°,最远检测距离为140m。自动驾驶车辆使用Ouster 64线360°雷达作为车载激光雷达,安装高度为2m,水平安装。车载激光雷达与车体为刚性连接,两者间的相对姿态和位移保持不变,并已在出厂时完成标定,车辆运动时根据车载RTK测得车辆实时位移及偏转实时修正车载激光雷达位置与角度。
实施例1如下:
(1)路侧激光雷达传感器的布设以及标定
仅使用Ouster 128线360°激光雷达,考虑激光雷达本身的大小,Ouster 128线360°激光雷达的安装高度为6.5m,并每5根立杆间安装一个,此时符合路侧机械旋转式激光雷达、路侧混合固态激光雷达布设方案导则。
在激光雷达区域内选取六个反射率特征点作为控制点,六个控制点分别取距离激光雷达安装立柱80m、100m、120m处两侧立柱的柱脚。由于路段有一定曲率,任意三个控制点满足不共线条件。使用手持RTK测量控制点精确坐标,在激光雷达点云中匹配相应控制点坐标,使用ICP算法对激光雷达进行标定。
(2)点云数据的处理及特征提取。
经过(1)的标定工作可获取路侧激光雷达点云在自动驾驶车辆坐标系中的位置,如图8所示,将路侧激光雷达点云对齐到自动驾驶车辆坐标系中。按自动驾驶车辆坐标系和固定大小为[0.4m 0.4m 0.5m]的晶格将偏转点云划分为体素并扩充,得到体素化偏转点云。对体素化偏转点云内每个散点数据补充体素均值信息后,输入多层VFE中计算体素级特征,对于不包含散点数据的体素则不用计算,每一个体素最终用一个128维的特征向量表示。路侧计算设备将计算好的体素级特征存储于哈希表中,体素的空间位置作为哈希键,对应的内容则为相应体素的体素级特征,得到压缩偏转点云体素级特征。自动驾驶车辆对于车载激光雷达点云作相同处理,直到获取到车载激光雷达点云体素级特征,即不需要对车端激光雷达点云数据建立哈希表。此时,相比原始的点云数据,数据大小约减少到1/10。
(3)体素级特征的数据拼接、数据聚合及目标检测
自动驾驶车辆接收路侧计算设备发送的压缩偏转点云体素级特征,并将其解压恢复成偏转点云体素级特征。由于接收到的偏转点云体素级特征的坐标系已被偏转至自动驾驶车辆坐标系,偏转点云体素级特征可以直接与相同坐标系的车载激光雷达点云体素级特征数据拼接。使用最大值池化的方法对相同坐标体素级特征进行数据聚合操作,例如体素级特征[15,45,90,……,17]和体素级特征[8,17,110,……,43]的聚合结果为[15,45,110,……,43]。完成对所有体素级特征的数据拼接和数据聚合后将其输入后续的RPN中得到目标检测结果。分别将本专利提出的车路协同检测方法和直接融合基于车载激光雷达点云和路侧激光雷达点云的目标检测结果及置信度绘制 在点云俯视图上如图9。可见,通过共享神经网络特征的方法进行车路协同目标检测,可以大幅度提高目标检测精度,并降低数据传输带宽要求。
实施例2如下:
(1)路侧激光雷达传感器的布设以及标定
当仅使用Innovusion捷豹阵列式300线激光雷达且每杆只设置一个激光雷达时,激光雷达安装高度为6.5m,俯角7°,每8根立杆间安装一个,此时符合路侧全固态激光雷达布设方案。
在激光雷达区域内选取六个反射率特征点作为控制点,六个控制点分别取距离激光雷达安装立柱100m、120m、140m处两侧立柱的柱脚。由于路段有一定曲率,任意三个控制点满足不共线条件。使用手持RTK测量控制点精确坐标,在激光雷达点云中匹配相应控制点坐标,使用ICP算法对激光雷达进行标定。
(2)点云数据的处理及特征提取。
同实施例1中步骤(2)得到偏转点云体素级特征和车载激光雷达点云体素级特征。自动驾驶汽车将计算好的车载激光雷达点云体素级特征存储于哈希表中,体素的空间位置作为哈希键,对应的内容则为相应体素的体素级特征,得到压缩车载激光雷达点云体素级特征。
(3)体素级特征的数据拼接、数据聚合及目标检测
路侧计算设备接收自动驾驶车辆发送的压缩车载激光雷达点云体素级特征,并将其解压恢复成车载激光雷达点云体素级特征。后续数据拼接、数据聚合及目标检测步骤同实施例1中(3),直至得到目标检测结果后,路侧计算设备将目标检测结果发送至自动驾驶车辆。
实施例3如下:
(1)路侧激光雷达传感器的布设以及标定
当仅使用Innovusion捷豹阵列式300线激光雷达且每杆设置两个反向的激光雷达时,激光雷达安装高度为6.5m,俯角7°,每9根立杆间安装两个,符合路侧全固态激光雷达布设方案导则。
在激光雷达区域内选取六个反射率特征点作为控制点,六个控制点分别取距离激光雷达安装立柱100m、120m、140m处两侧立柱的柱脚。由于路段有一定曲率,任意三个控制点满足不共线条件。使用手持RTK测量控制点精确坐标,在激光雷达点云中匹配相应控制点坐标,使用ICP算法对激光雷达进行标定。
(2)点云数据的处理及特征提取。
同实施例1中步骤(2)得到压缩偏转点云体素级特征,同实施例2中步骤(2)得到压缩车载激光雷达点云体素级特征。
(3)体素级特征的数据拼接、数据聚合及目标检测
云端接收自动驾驶车辆发送的压缩车载激光雷达点云体素级特征,并将其解压恢复成车载激光雷达点云体素级特征;云端接收路侧计算设备发送的压缩偏转点云体素级特征,并将其解压恢复成偏转点云体素级特征。后续数据拼接、数据聚合及目标检测步骤同实施例1中(3),直至得到目标检测结果后,云端将目标检测结果发送至自动驾驶车辆。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权力要求的保护范围为准。
Claims (9)
- 一种面向车路协同的感知信息融合表征及目标检测方法,所述方法包括以下步骤:准备阶段:A.布设路侧激光雷达,为路侧激光雷达配置相应的路侧计算设备;B.标定路侧激光雷达外参;应用阶段:C.路侧计算设备根据自动驾驶车辆定位数据和路侧激光雷达外参计算自动驾驶车辆相对于路侧激光雷达的相对位姿;D.路侧计算设备根据相对位姿将路侧激光雷达检测到的路侧激光雷达点云偏转至自动驾驶车辆坐标系中,得到偏转点云;E.路侧计算设备对偏转点云进行体素化处理,得到体素化偏转点云。自动驾驶车辆对车载激光雷达检测到的车载激光雷达点云进行体素化处理得到体素化车载激光雷达点云;F.路侧计算设备计算体素化偏转点云的体素级特征,得到偏转点云体素级特征;自动驾驶车辆计算体素化车载激光雷达点云体素级特征,得到车载激光雷达点云体素级特征;G.自动驾驶车辆对车载激光雷达点云体素级特征进行压缩处理,得到压缩车载激光雷达点云体素级特征,并传输至路侧计算设备,路侧计算设备接收压缩车载激光雷达点云体素级特征,将压缩车载激光雷达点云体素级特征还原为车载激光雷达点云体素级特征;H.路侧计算设备对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;I.路侧计算设备将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果,并将目标检测结果传输至自动驾驶车辆。
- 一种面向车路协同的感知信息融合表征及目标检测方法,所述方法包括以下步骤:准备阶段:A.布设路侧激光雷达,为路侧激光雷达配置相应的路侧计算设备;B.标定路侧激光雷达外参;应用阶段:C.路侧计算设备根据自动驾驶车辆定位数据和路侧激光雷达外参计算自动驾驶车辆相对于路侧激光雷达的相对位姿;D.路侧计算设备根据相对位姿将路侧激光雷达检测到的路侧激光雷达点云偏转至自动驾驶车辆坐标系中,得到偏转点云;E.路侧计算设备对偏转点云进行体素化处理,得到体素化偏转点云。自动驾驶车辆对车载激光雷达检测到的车载激光雷达点云进行体素化处理得到体素化车载激光雷达点云;F.路侧计算设备计算体素化偏转点云的体素级特征,得到偏转点云体素级特征;自动驾驶车辆计算体素化车载激光雷达点云体素级特征,得到车载激光雷达点云体素级特征;G.路侧计算设备对偏转点云体素级特征进行压缩处理,得到压缩偏转点云体素级特征,并传输至自动驾驶车辆;自动驾驶车辆接收压缩偏转点云体素级特征,将压缩偏转点 云体素级特征还原为偏转点云体素级特征;H.自动驾驶车辆对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;I.自动驾驶车辆将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果。
- 一种面向车路协同的感知信息融合表征及目标检测方法,所述方法包括以下步骤:准备阶段:A.布设路侧激光雷达,为路侧激光雷达配置相应的路侧计算设备;B.标定路侧激光雷达外参;应用阶段:C.路侧计算设备根据自动驾驶车辆定位数据和路侧激光雷达外参计算自动驾驶车辆相对于路侧激光雷达的相对位姿;D.路侧计算设备根据相对位姿将路侧激光雷达检测到的路侧激光雷达点云偏转至自动驾驶车辆坐标系中,得到偏转点云;E.路侧计算设备对偏转点云进行体素化处理,得到体素化偏转点云。自动驾驶车辆对车载激光雷达检测到的车载激光雷达点云进行体素化处理得到体素化车载激光雷达点云;F.路侧计算设备计算体素化偏转点云的体素级特征,得到偏转点云体素级特征。自动驾驶车辆计算体素化车载激光雷达点云体素级特征,得到车载激光雷达点云体素级特征;G.自动驾驶车辆对车载激光雷达点云体素级特征进行压缩处理,得到压缩车载激光雷达点云体素级特征,并传输至云端;路侧计算设备对偏转点云体素级特征进行压缩处理,得到压缩偏转点云体素级特征,并传输至云端;云端接收压缩偏转点云体素级特征和压缩车载激光雷达点云体素级特征,将压缩偏转点云体素级特征还原为偏转点云体素级特征,将压缩车载激光雷达点云体素级特征还原为车载激光雷达点云体素级特征;H.云端对车载激光雷达点云体素级特征和偏转点云体素级特征进行数据拼接和数据聚合得到聚合体素级特征;I.云端将聚合体素级特征输入基于体素级特征的三维目标检测网络模型得到目标检测结果,并将目标检测结果传输至自动驾驶车辆。
- 如权利要求1至3之一所述的方法,其特征在于,路侧激光雷达的配置准则为:①对于路侧安装机械旋转式激光雷达和同杆安装两反向全固态激光雷达的情况,应至少满足:其中:H表示激光雷达安装高度;θ 2表示激光雷达最高仰角光束与水平方向的夹角;L表示相邻两个激光雷达安装杆位间的距离;②对于路侧安装路侧全固态激光雷达应至少满足以下要求:其中:H b表示路侧全固态激光雷达安装高度;表示路侧全固态激光雷达在垂直方向上的视场角度;表示路侧全固态激光雷达最高仰角光束与水平方向的夹角;L b表示相邻两个路侧全固态激光雷达安装杆位间的距离。
- 如权利要求1至3之一所述的方法,其特征在于,对所述路侧激光雷达的外参标定时,在路侧激光雷达扫描区域内选择特征点作为控制点时考虑控制点的数量、位置离散型和共线性。
- 如权利要求1至3之一所述的方法,其特征在于,所述路侧激光雷达的外参采用如下方法标定:将控制点在路侧激光雷达坐标系中的坐标和RTK测得的基准坐标系中的坐标分别作为目标点集P和源点集Q,使用ICP算法计算激光雷达外参。
- 如权利要求1至3之一所述的方法,其特征在于,所述的点云体素化过程中对偏转点云作扩充处理,保证车载激光雷达点云D c和扩充后的偏转点云 的体素划分网格一致,其计算公式为:其中:K lidar_start′、K lidar_end′为K维度上扩充后的偏转点云 的范围起始值和终止值;K lidar_start、K lidar_end为K维度上偏转点云 的范围起始值和终止值;V K为体素在K维度上的大小。
- 如权利要求1至3之一所述的方法,其特征在于,在提取点云体素级特征时对点采用对中心的偏移量来补充其信息,即:其中:为补充后的体素A中第i个点的信息;x i、y i、z i为体素A中第i个点的坐标;r i为体素A中第i个点的反射强度;v x、v y、v z为体素A内所有点坐标的均值。
- 如权利要求1至3之一所述的方法,其特征在于,所述的体素级特征数据聚合方法使用最大值池化方法聚合相同坐标的体素级特征,其公式如下:f k为聚合体素级特征 在位置k的值;f ego_k为车载激光雷达点云体素级特征 在位置k的值;f lidar_k为偏转点云体素级特征 在位置k的值;
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110000327 | 2021-01-01 | ||
CN202110228419 | 2021-03-01 | ||
CNPCT/CN2021/085148 | 2021-04-01 | ||
PCT/CN2021/085148 WO2022141912A1 (zh) | 2021-01-01 | 2021-04-01 | 一种面向车路协同的感知信息融合表征及目标检测方法 |
PCT/CN2022/084925 WO2022206977A1 (zh) | 2021-01-01 | 2022-04-01 | 一种面向车路协同的感知信息融合表征及目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117441113A true CN117441113A (zh) | 2024-01-23 |
Family
ID=82260124
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180011148.3A Pending CN116685873A (zh) | 2021-01-01 | 2021-04-01 | 一种面向车路协同的感知信息融合表征及目标检测方法 |
CN202280026657.8A Pending CN117441197A (zh) | 2021-01-01 | 2022-04-01 | 一种基于行车安全风险场的激光雷达点云动态分割及融合方法 |
CN202280026656.3A Pending CN117836667A (zh) | 2021-01-01 | 2022-04-01 | 一种基于路侧感知单元的静态和非静态物体点云识别方法 |
CN202280026658.2A Pending CN117441113A (zh) | 2021-01-01 | 2022-04-01 | 一种面向车路协同的感知信息融合表征及目标检测方法 |
CN202280026659.7A Pending CN117836653A (zh) | 2021-01-01 | 2022-04-01 | 一种基于车载定位装置的路侧毫米波雷达校准方法 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180011148.3A Pending CN116685873A (zh) | 2021-01-01 | 2021-04-01 | 一种面向车路协同的感知信息融合表征及目标检测方法 |
CN202280026657.8A Pending CN117441197A (zh) | 2021-01-01 | 2022-04-01 | 一种基于行车安全风险场的激光雷达点云动态分割及融合方法 |
CN202280026656.3A Pending CN117836667A (zh) | 2021-01-01 | 2022-04-01 | 一种基于路侧感知单元的静态和非静态物体点云识别方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280026659.7A Pending CN117836653A (zh) | 2021-01-01 | 2022-04-01 | 一种基于车载定位装置的路侧毫米波雷达校准方法 |
Country Status (3)
Country | Link |
---|---|
CN (5) | CN116685873A (zh) |
GB (2) | GB2618936A (zh) |
WO (9) | WO2022141913A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724362B (zh) * | 2022-03-23 | 2022-12-27 | 中交信息技术国家工程实验室有限公司 | 一种车辆轨迹数据处理方法 |
CN115236628B (zh) * | 2022-07-26 | 2024-05-31 | 中国矿业大学 | 一种基于激光雷达检测车厢残留货物的方法 |
CN115358530A (zh) * | 2022-07-26 | 2022-11-18 | 上海交通大学 | 一种车路协同感知路侧测试数据质量评价方法 |
CN115113157B (zh) * | 2022-08-29 | 2022-11-22 | 成都瑞达物联科技有限公司 | 一种基于车路协同雷达的波束指向校准方法 |
CN115480243B (zh) * | 2022-09-05 | 2024-02-09 | 江苏中科西北星信息科技有限公司 | 多毫米波雷达端边云融合计算集成及其使用方法 |
CN115166721B (zh) * | 2022-09-05 | 2023-04-07 | 湖南众天云科技有限公司 | 路侧感知设备中雷达与gnss信息标定融合方法及装置 |
CN115272493B (zh) * | 2022-09-20 | 2022-12-27 | 之江实验室 | 一种基于连续时序点云叠加的异常目标检测方法及装置 |
CN115235478B (zh) * | 2022-09-23 | 2023-04-07 | 武汉理工大学 | 基于视觉标签和激光slam的智能汽车定位方法及系统 |
CN115830860B (zh) * | 2022-11-17 | 2023-12-15 | 西部科学城智能网联汽车创新中心(重庆)有限公司 | 交通事故预测方法及装置 |
CN115966084B (zh) * | 2023-03-17 | 2023-06-09 | 江西昂然信息技术有限公司 | 全息路口毫米波雷达数据处理方法、装置及计算机设备 |
CN116189116B (zh) * | 2023-04-24 | 2024-02-23 | 江西方兴科技股份有限公司 | 一种交通状态感知方法及系统 |
CN117471461B (zh) * | 2023-12-26 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的路侧雷达服务装置和方法 |
CN117452392B (zh) * | 2023-12-26 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
CN117961915B (zh) * | 2024-03-28 | 2024-06-04 | 太原理工大学 | 煤矿掘进机器人的智能辅助决策方法 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6661370B2 (en) * | 2001-12-11 | 2003-12-09 | Fujitsu Ten Limited | Radar data processing apparatus and data processing method |
WO2014080330A2 (en) * | 2012-11-22 | 2014-05-30 | Geosim Systems Ltd. | Point-cloud fusion |
KR101655606B1 (ko) * | 2014-12-11 | 2016-09-07 | 현대자동차주식회사 | 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법 |
TWI597513B (zh) * | 2016-06-02 | 2017-09-01 | 財團法人工業技術研究院 | 定位系統、車載定位裝置及其定位方法 |
CN105892471B (zh) * | 2016-07-01 | 2019-01-29 | 北京智行者科技有限公司 | 汽车自动驾驶方法和装置 |
WO2018126248A1 (en) * | 2017-01-02 | 2018-07-05 | Okeeffe James | Micromirror array for feedback-based image resolution enhancement |
KR102056147B1 (ko) * | 2016-12-09 | 2019-12-17 | (주)엠아이테크 | 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치 |
CN106846494A (zh) * | 2017-01-16 | 2017-06-13 | 青岛海大新星软件咨询有限公司 | 倾斜摄影三维建筑物模型自动单体化算法 |
US10281920B2 (en) * | 2017-03-07 | 2019-05-07 | nuTonomy Inc. | Planning for unknown objects by an autonomous vehicle |
CN108629231B (zh) * | 2017-03-16 | 2021-01-22 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN107133966B (zh) * | 2017-03-30 | 2020-04-14 | 浙江大学 | 一种基于采样一致性算法的三维声纳图像背景分割方法 |
CN108932462B (zh) * | 2017-05-27 | 2021-07-16 | 华为技术有限公司 | 驾驶意图确定方法及装置 |
FR3067495B1 (fr) * | 2017-06-08 | 2019-07-05 | Renault S.A.S | Procede et systeme d'identification d'au moins un objet en deplacement |
CN109509260B (zh) * | 2017-09-14 | 2023-05-26 | 阿波罗智能技术(北京)有限公司 | 动态障碍物点云的标注方法、设备及可读介质 |
CN107609522B (zh) * | 2017-09-19 | 2021-04-13 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
CN108152831B (zh) * | 2017-12-06 | 2020-02-07 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN108010360A (zh) * | 2017-12-27 | 2018-05-08 | 中电海康集团有限公司 | 一种基于车路协同的自动驾驶环境感知系统 |
CN108639059B (zh) * | 2018-05-08 | 2019-02-19 | 清华大学 | 基于最小作用量原理的驾驶人操控行为量化方法及装置 |
CN109188379B (zh) * | 2018-06-11 | 2023-10-13 | 深圳市保途者科技有限公司 | 驾驶辅助雷达工作角度的自动校准方法 |
CN112368598A (zh) * | 2018-07-02 | 2021-02-12 | 索尼半导体解决方案公司 | 信息处理设备、信息处理方法、计算机程序和移动设备 |
US10839530B1 (en) * | 2018-09-04 | 2020-11-17 | Apple Inc. | Moving point detection |
CN109297510B (zh) * | 2018-09-27 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | 相对位姿标定方法、装置、设备及介质 |
CN111429739A (zh) * | 2018-12-20 | 2020-07-17 | 阿里巴巴集团控股有限公司 | 一种辅助驾驶方法和系统 |
JP7217577B2 (ja) * | 2019-03-20 | 2023-02-03 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置、キャリブレーション方法 |
CN110296713B (zh) * | 2019-06-17 | 2024-06-04 | 广州卡尔动力科技有限公司 | 路侧自动驾驶车辆定位导航系统及单个、多个车辆定位导航方法 |
CN110220529B (zh) * | 2019-06-17 | 2023-05-23 | 深圳数翔科技有限公司 | 一种路侧自动驾驶车辆的定位方法 |
CN110532896B (zh) * | 2019-08-06 | 2022-04-08 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN110443978B (zh) * | 2019-08-08 | 2021-06-18 | 南京联舜科技有限公司 | 一种摔倒报警设备及方法 |
CN110458112B (zh) * | 2019-08-14 | 2020-11-20 | 上海眼控科技股份有限公司 | 车辆检测方法、装置、计算机设备和可读存储介质 |
CN110850378B (zh) * | 2019-11-22 | 2021-11-19 | 深圳成谷科技有限公司 | 一种路侧雷达设备自动校准方法和装置 |
CN110850431A (zh) * | 2019-11-25 | 2020-02-28 | 盟识(上海)科技有限公司 | 一种拖车偏转角的测量系统和方法 |
CN110906939A (zh) * | 2019-11-28 | 2020-03-24 | 安徽江淮汽车集团股份有限公司 | 自动驾驶定位方法、装置、电子设备、存储介质及汽车 |
CN111121849B (zh) * | 2020-01-02 | 2021-08-20 | 大陆投资(中国)有限公司 | 传感器的方位参数的自动校准方法、边缘计算单元和路侧传感系统 |
CN111999741B (zh) * | 2020-01-17 | 2023-03-14 | 青岛慧拓智能机器有限公司 | 路侧激光雷达目标检测方法及装置 |
CN111157965B (zh) * | 2020-02-18 | 2021-11-23 | 北京理工大学重庆创新中心 | 车载毫米波雷达安装角度自校准方法、装置及存储介质 |
CN111476822B (zh) * | 2020-04-08 | 2023-04-18 | 浙江大学 | 一种基于场景流的激光雷达目标检测与运动跟踪方法 |
CN111554088B (zh) * | 2020-04-13 | 2022-03-22 | 重庆邮电大学 | 一种多功能v2x智能路侧基站系统 |
CN111192295B (zh) * | 2020-04-14 | 2020-07-03 | 中智行科技有限公司 | 目标检测与跟踪方法、设备和计算机可读存储介质 |
CN111537966B (zh) * | 2020-04-28 | 2022-06-10 | 东南大学 | 一种适用于毫米波车载雷达领域的阵列天线误差校正方法 |
CN111766608A (zh) * | 2020-06-12 | 2020-10-13 | 苏州泛像汽车技术有限公司 | 一种基于激光雷达的环境感知系统 |
CN111880191B (zh) * | 2020-06-16 | 2023-03-28 | 北京大学 | 基于多智能体激光雷达和视觉信息融合的地图生成方法 |
CN111880174A (zh) * | 2020-07-03 | 2020-11-03 | 芜湖雄狮汽车科技有限公司 | 一种用于支持自动驾驶控制决策的路侧服务系统及其控制方法 |
CN111914664A (zh) * | 2020-07-06 | 2020-11-10 | 同济大学 | 基于重识别的车辆多目标检测和轨迹跟踪方法 |
CN111985322B (zh) * | 2020-07-14 | 2024-02-06 | 西安理工大学 | 一种基于激光雷达的道路环境要素感知方法 |
CN111862157B (zh) * | 2020-07-20 | 2023-10-10 | 重庆大学 | 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法 |
CN112019997A (zh) * | 2020-08-05 | 2020-12-01 | 锐捷网络股份有限公司 | 一种车辆定位方法及装置 |
CN112509333A (zh) * | 2020-10-20 | 2021-03-16 | 智慧互通科技股份有限公司 | 一种基于多传感器感知的路侧停车车辆轨迹识别方法及系统 |
-
2021
- 2021-04-01 WO PCT/CN2021/085149 patent/WO2022141913A1/zh active Application Filing
- 2021-04-01 CN CN202180011148.3A patent/CN116685873A/zh active Pending
- 2021-04-01 WO PCT/CN2021/085148 patent/WO2022141912A1/zh active Application Filing
- 2021-04-01 WO PCT/CN2021/085150 patent/WO2022141914A1/zh unknown
- 2021-04-01 GB GB2313215.2A patent/GB2618936A/en active Pending
- 2021-04-01 WO PCT/CN2021/085147 patent/WO2022141911A1/zh unknown
- 2021-04-01 GB GB2316625.9A patent/GB2620877A/en active Pending
- 2021-04-01 WO PCT/CN2021/085146 patent/WO2022141910A1/zh unknown
-
2022
- 2022-04-01 CN CN202280026657.8A patent/CN117441197A/zh active Pending
- 2022-04-01 WO PCT/CN2022/084912 patent/WO2022206974A1/zh active Application Filing
- 2022-04-01 CN CN202280026656.3A patent/CN117836667A/zh active Pending
- 2022-04-01 WO PCT/CN2022/084925 patent/WO2022206977A1/zh active Application Filing
- 2022-04-01 CN CN202280026658.2A patent/CN117441113A/zh active Pending
- 2022-04-01 WO PCT/CN2022/084738 patent/WO2022206942A1/zh active Application Filing
- 2022-04-01 WO PCT/CN2022/084929 patent/WO2022206978A1/zh active Application Filing
- 2022-04-01 CN CN202280026659.7A patent/CN117836653A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
GB2620877A (en) | 2024-01-24 |
WO2022206974A1 (zh) | 2022-10-06 |
WO2022141912A1 (zh) | 2022-07-07 |
WO2022206978A1 (zh) | 2022-10-06 |
WO2022141914A1 (zh) | 2022-07-07 |
GB202316625D0 (en) | 2023-12-13 |
CN117836653A (zh) | 2024-04-05 |
WO2022141910A1 (zh) | 2022-07-07 |
WO2022141913A1 (zh) | 2022-07-07 |
CN117836667A (zh) | 2024-04-05 |
WO2022141911A1 (zh) | 2022-07-07 |
WO2022206942A1 (zh) | 2022-10-06 |
GB202313215D0 (en) | 2023-10-11 |
GB2618936A (en) | 2023-11-22 |
WO2022206977A1 (zh) | 2022-10-06 |
CN117441197A (zh) | 2024-01-23 |
CN116685873A (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117441113A (zh) | 一种面向车路协同的感知信息融合表征及目标检测方法 | |
CN111583337B (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
US11768293B2 (en) | Method and device for adjusting parameters of LiDAR, and LiDAR | |
Wang | Research on comparison of lidar and camera in autonomous driving | |
Duan et al. | V2I based environment perception for autonomous vehicles at intersections | |
CN112581612A (zh) | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统 | |
CN115273028B (zh) | 一种基于全域感知的智慧停车场语义地图构建方法及系统 | |
KR20200126141A (ko) | 다중 라이다를 이용한 다중 물체 인식 시스템 및 방법 | |
CN115876198A (zh) | 基于数据融合的目标检测及预警方法、设备、系统和介质 | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN114283394A (zh) | 一种车载传感器融合的交通目标检测系统 | |
CN114821526A (zh) | 基于4d毫米波雷达点云的障碍物三维边框检测方法 | |
CN117501311A (zh) | 利用一个或多个摄像机生成和/或使用三维信息的系统和方法 | |
CN117111055A (zh) | 一种基于雷视融合的车辆状态感知方法 | |
CN117237919A (zh) | 跨模态监督学习下多传感器融合检测的卡车智驾感知方法 | |
CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 | |
CN112562061A (zh) | 一种基于激光雷达图像的驾驶视觉增强的系统及方法 | |
CN117173399A (zh) | 一种跨模态交叉注意力机制的交通目标检测方法及系统 | |
CN208937705U (zh) | 一种多源异构传感器特征深度融合的装置 | |
CN116403186A (zh) | 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法 | |
CN116051818A (zh) | 自动驾驶系统的多传感器信息融合方法 | |
CN113611008B (zh) | 一种车辆行驶场景采集方法、装置、设备及介质 | |
CN116229224A (zh) | 融合感知方法、装置、电子设备及存储介质 | |
Zhang et al. | Research on Unmanned System Environment Perception System Methodology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |