CN112208529B - 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 - Google Patents
用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 Download PDFInfo
- Publication number
- CN112208529B CN112208529B CN201910616982.XA CN201910616982A CN112208529B CN 112208529 B CN112208529 B CN 112208529B CN 201910616982 A CN201910616982 A CN 201910616982A CN 112208529 B CN112208529 B CN 112208529B
- Authority
- CN
- China
- Prior art keywords
- target
- sensing
- detection
- information
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 114
- 230000008447 perception Effects 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims description 23
- 230000004927 fusion Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 16
- 238000007499 fusion processing Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- LIWAQLJGPBVORC-UHFFFAOYSA-N ethylmethylamine Chemical compound CCNC LIWAQLJGPBVORC-UHFFFAOYSA-N 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及目标3D立体成像及位姿检测技术领域,提供一种用于目标3D立体成像的传感器布置拓扑结构形式及检测方法。本发明所述的感知系统包括:感知部件拓扑结构阵列,该感知部件阵列布置在无人驾驶设备本体的任意一个平面上,且包括有多个布置于不同位置的感知部件,且每一感知部件用于进行目标检测;其中,各感知部件被配置为具有重叠探测区域,且各感知部件之间的位置关系被配置为,使得每一感知部件针对重叠探测区域中的相同目标具有不同观测角度的突出探测区域。本发明的感知系统通过具有重叠的探测区域的各个感知部件的布置,能使得无人驾驶设备最终构造出目标的3D形状信息和估计出目标的位姿信息。
Description
技术领域
本发明涉及目标检测技术领域,特别涉及一种用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备。
背景技术
目前,很多无人驾驶设备都涉及目标检测,例如自动驾驶车辆、无人机等,都需要实时检测障碍物等目标,而对于目标的检测通常又是利用传感器实现的。
以自动驾驶车辆为例,其配置有高级驾驶功能辅助系统(Advanced DrivingAssistant System),从而能够实现自适应巡航控制(Adaptive Cruise Control,ACC)、前向防撞报警(Forward Collision Warning,FCW)、自动紧急制动(Autonomous EmergencyBraking,AEB)、盲点检测(Blind Spot Detection,BD)、辅助停车(Parking Aid,PD)、辅助变道(Lane Change Assistant,LCA)等多种功能。但本领域技术人员所能知道的是,这些功能的实现都依赖于车载的各类传感器对车道线、障碍物等目标进行检测。如此,为了保证能全面地检测车辆四周的目标,自动驾驶车辆上通常需要布设多种或多个传感器来用于检测目标的速度、距离和方位。
但是,本申请发明人在实现本申请的过程中发现:类似于自动驾驶车辆领域,现有技术中的目标检测都仅限于检测出目标的速度、距离和方位,而无法获取目标的长、宽、高等形状信息以及位姿信息,更加不易实现目标的3D(三维)立体成像。在这种情况下,当应用目标检测的场景变得复杂时(例如对于车辆,发生路口并道、拥堵路况、窄路段的会车、紧急避让等车辆交会情况),无人驾驶设备容易因为目标属性的不完整而做出错误的控制决策,从而可能无法实现设备功能,甚至造成安全事故。
发明内容
有鉴于此,本发明旨在提出一种用于目标检测的感知系统,以至少部分地解决上述技术问题。
为达到上述目的,本发明的技术方案是这样实现的:
一种用于目标检测的感知系统,包括:感知部件阵列,该感知部件阵列布置在无人驾驶设备的本体的任意一个平面上,且包括有多个布置于不同位置的感知部件,且每一感知部件用于进行目标检测以获得目标坐标信息;以及信息融合单元,用于获取所述感知部件阵列中的各个感知部件针对同一目标进行目标检测得到的目标坐标信息,并对所获取的目标坐标信息进行信息融合处理,以估计出相应目标的3D形状信息和位姿信息;其中,各感知部件被配置为具有重叠探测区域,且各感知部件之间的位置关系被配置为使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域。
进一步的,所述感知部件包括用于目标检测的以下任意一者或多者:毫米波雷达、激光雷达、超声波雷达、图像采集装置以及所述毫米波雷达、所述激光雷达、所述超声波雷达和所述图像采集装置中的感知元件。
进一步的,所述各感知部件被配置为具有重叠探测区域包括:通过调整同一平面的各感知部件的平移位置、旋转角度和/或性能参数来使得各感知部件具有重叠探测区域。
进一步的,所述各感知部件之间的位置关系包括:同一平面的各感知部件分布在沿指定方向布置的多个层级中,且每个层级分别布置有至少一个所述感知部件;其中,各个层级间的距离在预设层级距离范围内,且不同层级上的各个感知部件之间的距离与预设部件距离范围内;其中,所述预设层级距离范围及所述预设部件距离范围使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域。
进一步的,所述预设层级距离范围为0.1米-1米,所述预设部件距离范围为0.1米-1米。
进一步的,所述信息融合单元包括:获取模块,用于获取所述感知部件阵列中的各个感知部件针对同一目标进行目标检测分别得到的各个目标坐标信息;空间同步模块,用于基于各个感知部件所在的坐标系与车体坐标系之间的转换关系,进行所述各个目标坐标信息的空间同步,以将所述各个目标坐标信息统一至所述车体坐标系下进行描述;时间同步模块,用于对所述各个目标坐标信息标记时间戳,并基于所标记的时间戳和预设的时间基准,进行所述各个目标坐标信息的时间同步,以将所述各个目标坐标信息统一至相同的时间点进行描述;以及数据处理模块,用于对经过所述空间同步和所述时间同步的所述各个目标坐标信息进行融合处理,以估计出相应目标的3D形状信息和位姿信息。
进一步的,所述数据处理模块包括:过滤子单元,用于过滤虚假目标;聚类子单元,用于对过滤后的目标进行聚类,将同一目标的检测点归为一类;计算子单元,用于对每一聚类后的目标求取最小凸包,并计算最小凸包内的目标主方向;以及拟合子单元,用于基于所计算的目标主方向,进行最小外界矩形拟合或3D边界框拟合,得到目标的形状信息及位姿信息。进一步的,所述无人驾驶设备为自动驾驶车辆、飞行车辆和无人机中的任意一者。
相对于现有技术,本发明所述的用于目标检测的感知系统具有以下优势:本发明的感知系统的各个感知部件之间均具有重叠的探测区域,且它们针对重叠探测区域中的相同目标的不同突出探测区域使得它们能够获取目标的多个“突出”位置,而将这些“突出”位置的坐标信息在统一的物理坐标空间中进行融合处理,就能估计出目标的3D形状信息和位姿信息。
本发明的另一目的在于提出一种无人驾驶设备的驾驶辅助方法,以至少部分地解决上述技术问题。
为达到上述目的,本发明的技术方案是这样实现的:
一种无人驾驶设备的驾驶辅助方法,包括:采用上述用于目标检测的感知系统获取目标属性信息,其中该目标属性信息包括目标的3D形状信息和位姿信息;以及基于所述目标属性信息进行驾驶辅助。
所述无人驾驶设备的驾驶辅助方法与上述用于目标检测的感知系统相对于现有技术所具有的优势相同,在此不再赘述。
本发明的另一目的在于提出一种无人驾驶设备,以至少部分地解决上述技术问题。
为达到上述目的,本发明的技术方案是这样实现的:
一种无人驾驶设备,包括:上述的用于目标检测的感知系统;以及驾驶辅助系统,用于基于所述感知系统进行目标检测的检测结果来进行驾驶辅助。
所述无人驾驶设备的驾驶辅助方法与上述用于目标检测的感知系统相对于现有技术所具有的优势相同,在此不再赘述。
本发明的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施方式及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明实施例的用于目标检测的感知系统的结构示意图;
图2是本发明实施例中部分感知部件110具有重叠探测区域的示意图。
图3是本发明示例中的雷达系统探测障碍物的示意图;
图4是本发明实施例的信息融合单元300的结构示意图;
图5是本发明实施例中感知部件的坐标系向车体坐标系转换的原理示意图;
图6是本发明实施例中利用ROS时间戳进行时间同步的流程示意图;
图7是本发明实施例中对经过时间同步和空间同步的目标坐标信息进行融合处理的流程示意图;
图8是本发明示例中与图3相对应的雷达系统在车辆平面布置的示意图;以及
图9A和图9B分别是其中的单层雷达阵列探测障碍物A和障碍物B的示意图。
附图标记说明:
100、感知部件阵列;200、目标;110、感知部件;300、信息融合单元;310、获取模块;320、空间同步模块;330、时间同步模块;340、数据处理模块。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施方式及实施方式中的特征可以相互组合。
下面将参考附图并结合实施方式来详细说明本发明。
图1是本发明实施例的用于目标检测的感知系统的结构示意图。如图1所示,该感知系统包括:感知部件阵列100,该感知部件阵列布置在无人驾驶设备的本体的任意一个平面上,且包括有多个布置于不同位置的感知部件110,且每一感知部件110用于检测目标200以获得目标坐标信息;信息融合单元300(图1未示出,可参见图4),用于获取所述感知部件阵列中的各个感知部件针对同一目标进行目标检测得到的目标坐标信息,并对所获取的目标坐标信息进行信息融合处理,以估计出相应目标的3D形状信息和位姿信息。在此,所述无人驾驶设备例如为自动驾驶车辆、飞行车辆和无人机中的任意一者,且对应的本体可为车体或机体,而感知部件阵列100所在的“平面”可以是车体或机体的前面、后面、侧面、上面和下面。需说明的是,下文主要以自动驾驶车辆为例。另外,所述目标包括所述无人驾驶设备的周边环境中的障碍物及标识,例如车辆前方的障碍物、车道线等。
其中,为保证各个感知部件能够检测到同一目标,本发明实施例的各感知部件被配置为具有重叠探测区域。对此,可参考图2理解,本发明实施例中,图2是部分感知部件110具有重叠探测区域的示意图。另外,在优选的实施例中,可以通过调整同一平面的各感知部件的平移位置、旋转角度和/或性能参数来使得各感知部件具有重叠探测区域。举例而言,可通过感知部件的旋转角度改变其探测区域以便尽量扩大整个阵列的检测范围。
进一步地,本发明实施例还要求将各感知部件之间的位置关系配置为使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域。其中,“突出探测区域”是指感知部件探测目标时所呈现的探测效果最好(例如分辨率最高)的区域。如此,同一目标将在重叠探测区域中表现出不同的“突出”位置。举例而言,两个感知部件针对目标的突出探测区域分别为A区域和B区域,而该目标的A点和B点作为两个“突出”位置分别落在A区域和B区域。
基于此,可知各个感知部件均具有重叠的探测区域,且它们针对重叠探测区域中的相同目标的不同突出探测区域使得它们能够获取目标的多个“突出”位置,而将这些“突出”位置的坐标信息在统一的物理坐标空间中进行信息融合,就能构造出目标的3D形状信息(例如长、宽、高),并进而估计出目标的位姿信息。其中,所述位姿信息是位置信息与姿态信息的结合,且关于对“突出”位置的坐标信息进行信息融合以估计出目标的位姿信息的实施细节将在下文详细描述,在此则不再赘述。
在优选的实施例中,所述感知部件110可以包括用于目标检测的以下任意一者或多者:毫米波雷达、激光雷达、超声波雷达、图像采集装置以及所述毫米波雷达、所述激光雷达、所述超声波雷达和所述图像采集装置中的感知元件。其中,所述感知元件例如是毫米波雷达、激光雷达、超声波雷达中主要进行目标检测的天线、收发机或芯片等,再例如是图像采集装置中的摄像头等。另外,所述图像采集装置本身也可以采用摄像头。另外,所述感知部件110也还可以包括其他同质传感器(能获得同一类型数据的传感器),在此不再一一进行列举。
在优选的实施例中,所述各感知部件之间的位置关系可以包括:同一平面的各感知部件分布在沿指定方向布置的多个层级中,且每个层级分别布置有至少一个所述感知部件。其中,所述指定方向例如是水平方向和垂直方向,据此可参考图1进行理解,例如图1中的阵列布置了N层,且每层有两个以上的感知元件。
另外,各个层级间的距离在预设层级距离范围内,且不同层级上的各个感知部件之间的距离在预设部件距离范围内;其中,所述预设层级距离范围及所述预设部件距离范围使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域。在此,所述预设层级距离范围及所述预设部件距离范围可根据实验数据来进行配置,一般地,同一层的相邻感知部件之间的距离不应过小,以避免这两个感知部件的突出探测区域针对目标的同一“突出”位置。举例而言,通过实验,在预设层级距离范围设置为0.1-1m,且每层中的预设部件距离范围也设置为0.1-1m,可使感知部件阵列达到最佳检测效果。
进一步地,在上述感知部件阵列获取目标坐标信息后,需要进一步对目标坐标系统进行信息融合处理才能估计出相应目标的3D形状信息和位姿信息。但是,由于各个感知部件探测目标相对于车体的基准不一样,从而探测到的目标相对于车体的基准也不一样,使得各个感知部件所获得的目标坐标信息的融合变得复杂。对此,本发明实施例提出了对信息融合单元300进行设计,使其将所有目标坐标信息进行空间同步和时间同步之后,再进行统一化的信息融合处理,以简化信息融合的复杂度,并提高信息融合的精度。
基于此,图4是本发明实施例的信息融合单元300的结构示意图。如图4所示,信息融合单元300可以包括:获取模块310,用于获取所述感知部件阵列中的各个感知部件针对同一目标进行目标检测得到的目标坐标信息;空间同步模块320,用于基于各个感知部件所在的坐标系与车体坐标系之间的转换关系,进行所述各个目标坐标信息的空间同步,以将所述各个目标坐标信息统一至所述车体坐标系下进行描述;时间同步模块330,用于对所述各个目标坐标信息标记时间戳,并基于所标记的时间戳和预设的时间基准,进行所述各个目标坐标信息的时间同步,以将所述各个目标坐标信息统一至相同的时间点进行描述;以及数据处理模块340,用于对经过所述空间同步和所述时间同步的所述各个目标坐标信息进行融合处理,以估计出相应目标的3D形状信息和位姿信息。
下面具体介绍信息融合单元300的四个功能模块。
一、获取模块310
所述获取模块310例如通过车辆CAN总线实时地获取各个感知部件所探测到的目标坐标信息。
二、空间同步模块320
其中,对于所述空间同步模块320,其进行所述各个目标坐标信息的空间同步具体可以包括以下步骤:
步骤S321,建立各个感知部件的坐标系与车体坐标系的转换关系。
在此,参考图1和图3,可知本发明实施例的感知系统所使用的多个感知部件中的每个感知部件安装的位置、方向都不一样(例如可以分别具有安装在车顶的激光雷达、安装在车头的毫米波雷达以及安装在车辆前面板上的摄像机等),从而同一个目标在各个感知部件视野中出现的位置也都不同。因此,为了将不同感知部件间彼此独立的目标探测结果关联起来以建立针对本车和目标的统一的环境模型,需要首先建立各个感知部件的坐标系与车体坐标系的关联关系,获得统一坐标系下的目标坐标信息,这是本发明实施例进行信息融合处理的最基本步骤。
其中,车体坐标系用来描述车辆周围的物体和本车之间的相对位置关系,目前学术界和工业界比较常用的车体坐标系定义方式分别是:ISO(InternationalStandardization Organization,国际标准化组织)定义、SAE(Society of AutomotiveEngineers,汽车工程师协会)定义以及基于IMU(Inertial Measurement Unit,惯性测量单元)的定义。其中,,ISO定义的车体坐标系在车辆动力学分析中较为常见,而SAE定义的车体坐标系则在航空航天领域中较为常见,其与航空航天领域使用的机体坐标系相一致,基于IMU定义的车体坐标系则在IMU的相关应用中较为常见。需说明的是,本发明实施例并不对使用的车体坐标系定义进行限制,且无论使用哪一种坐标系定义,只要使用正确,都可以完成描述车身位姿以及确定周围物体和本车间的相对位置关系,因此研发人员可以根据应用需求和使用习惯来选择车体坐标系。
进一步地,明确了各个感知部件的坐标系与车体坐标系的定义后,可通过坐标平移、坐标旋转等方式建立并调整相应坐标系之间的转换关系。
步骤S322,将各个目标坐标信息同步至车体坐标系。
具体地,感知部件在车体上的安装位置一旦确定,在运行中就会保持固定,所以可以采用离线标定的方法确定各感知部件相对车体的精确位置。其中,感知部件离线标定的方法有很多,其总体思想是通过调整各坐标系之间的转换关系,使多个感知部件探测同一个目标得到的独立结果,在车体坐标系下精确吻合,形成统一结果。
对于离线标定的方法,举例而言,目前的大多数车辆均以车辆后(轮)轴中心在地面上投影为三维原点,沿车身向前为X+,沿后轴轴线向左为Y+,向上为Z+,即形成了对应的车体坐标系XY。对于毫米波雷达传感器,一般是提供坐标为极坐标(R,theta)、笛卡尔坐标(x_r,y_r)的坐标系,在2D情况下,极坐标至笛卡尔坐标的坐标转换可表述为:
x_r=R*cos(theta)
y_r=R*sin(theta)
进一步地,笛卡尔坐标至车体坐标系的转换如图5所示,示出了车辆坐标原点O(XY轴)、雷达坐标原点P(x_r,y_r)、雷达坐标下检测到的一目标Q(x,y),则进行坐标统一可得到:
[X;Y]=[0 1;-1 0]*[x;y]+[a;b];
其中,雷达坐标系下的目标坐标为Q(L2,L1),车体坐标系下的雷达坐标P(a,b)。将雷达坐标原点P平移到车辆坐标原点O,得到新坐标P’下的雷达坐标为(-b,a),目标坐标为两向量和,即Q(L1+a,L2-b);坐标P’经旋转与坐标O一致,在车体坐标系下目标坐标变化为Q(L1+a,-L2+b)。
三、时间同步模块330
进一步地,本发明实施例所检测的目标信息是随时间变化的,而采用的多个感知元件彼此独立地对环境进行感知,从而会造成各感知元件收集的目标信息并不在同一个时间点。因此,即使空间坐标系已经建立了完美的转换关系,在时间上也无法将目标信息进行统一,所以除了空间坐标系需要进行精确标定外,各个设备之间的时间坐标系也需要进行精确标定。
对此,对于所述时间同步模块330,其进行所述各个目标坐标信息的时间同步具体可以包括以下步骤:
步骤S331,确定时间基准。
自动驾驶车辆包括多个主机、多个感知部件和和控制器,而这些部件一般都具有自己独立的时钟。因此,为了建立统一的时间坐标系统,需要使各个设备使用相同的时间基准。优选地,可采用GPS的时钟系统作为各个部件的时间基准。GPS时间系统规定1980年1月6日零时为时间坐标系的原点,时间向上累加,系统授时精度可以达到纳秒量级。同时,自动驾驶车辆中所使用的大部分设备都具备接受外部授时的功能,以Velodyne激光雷达为例,设备可以接收标准的PPS(Pulse per Second,秒脉冲)授时方法和NMEA报文(一种串口通讯格式)授时方法。
步骤S332,进行目标坐标系统的时间同步。
本发明实施例中,一些感知部件的数据采集可以通过外部触发的方式进行激活,从而可以使用同一个外部信号,同时激活多个感知部件,从而得到同一个时间点上的目标坐标信息。例如摄像机的曝光可以通过外部开关信号进行触发,于是自动驾驶车辆上的多个摄像机可以使用同一个开关信号进行曝光和采样的硬同步。进而,这一开关信号还可以与激光雷达等其他传感器进行协同,完成不同种类传感器间的同步触发操作。另外一些感知部件的采样则不支持外部触发,同时有些感知部件的工作频率也不一致,无法做到严格的硬时间同步,这就需要在软件中进行时间同步处理。
对于在软件中进行时间同步处理的方案,基于前面确定的时间基准,可通过标记时间戳的方案来实现时间同步,如此,通过不同感知部件获得的目标坐标系统即使不在同一个时间点上,也有着统一的时间戳标记。基于这些时间戳标记进行软件计算,对非同步采样结果进行差值或外推,就可以近似得到同一个时间点上的目标坐标信息,以供后续数据处理使用。
对于时间戳标记的方法,举例而言,以ROS(Robot Operating System,机器人操作系统)时间戳为例,图6示出了利用ROS时间戳进行时间同步的流程,具体可以包括以下步骤:
步骤S601,为各个感知部件探测的目标坐标信息打上实时的ROS时间戳。
步骤S602,采集ROS时间戳信息和对应的目标坐标信息。
举例而言,每间隔20微秒采集ROS时间戳信息和对应的目标坐标信息。
步骤S603,计算ROS时间戳与各个感知部件本身的时间戳的差值。
步骤S604,根据所述差值及目标的速度信息,更新目标的距离信息和时间戳信息。
其中,除距离信息之外的其他属性信息不在此更新,且更新的时间戳信息是结合步骤S603的差值确定的最新时间戳信息。
步骤S605,获得时间同步后的目标坐标信息。
四、数据处理模块240
本发明实施例中,对经过时间同步和空间同步的目标坐标信息统一进行数据处理,包括对空间同步后的信息进行叠加以及对时间同步后的信息进行融合等。据此,在优选的实施例中,所述数据处理模块240可以包括:过滤子单元,用于过滤虚假目标;聚类子单元,用于对过滤后的目标进行聚类,将同一目标的检测点归为一类;计算子单元,用于对每一聚类后的目标求取最小凸包,并计算最小凸包内的目标主方向;以及拟合子单元,用于基于所计算的目标主方向,进行最小外界矩形拟合或3D边界框拟合,得到目标的形状信息及位姿信息。
对于数据处理模块240,图7是本发明实施例中对经过时间同步和空间同步的目标坐标信息进行融合处理的流程示意图。如图7所示,可以包括以下的融合处理步骤:
步骤S701,过滤虚假目标。
具体地,因为多个感知部件对同一目标提供了多个不同位置的检测点,而多个感知部件对不同目标又有不同位置的检测点,因此极可能存在一些虚假的检测点。对此,该步骤S701通过目标的一些属性信息,例如速度、位置、类别等,判断检测点的真实性,过滤出虚假目标的干扰。
步骤S702,对过滤后的目标进行聚类,将同一目标的检测点归为一类。
步骤S703,对每一类的目标求取最小凸包,并计算最小凸包内的目标主方向。
步骤S704,基于所计算的目标主方向,进行最小外界矩形拟合或3D边界框拟合,得到目标的形状信息及位姿信息。
在得到目标的形状信息及位姿信息之后,可继续进行目标的关联、跟踪和预测。
需说明的是,只要是能够实现对各种感知部件给出的有用信息的采集、传输、综合、过滤、相关及合成的信息融合技术都适用于本发明实施例,并不局限于图7中的方法。
另外,本发明实施例的信息融合单元300采用单片机、DSP(Digital SignalProcessor,数据信号处理器)等进行配置,也可以直接采用例如车辆中的ECU(ElectricalControl Unit,电子控制单元)等无人驾驶设备自身具有的控制器来进行配置。
据此,本发明实施例通过层级设置、阵列式设置形成了分布式感知部件面阵,层与层之间以及每个层中的多个感知部件均有重叠的探测区域,从而可以实现对目标的多角度检测,并最终形成更为详细的3D形状信息和目标位姿信息,并利用获得的3D形状和目标位姿信息提高无人驾驶设备在复杂环境下的路径规划能力。在此,关于本发明实施例的感知系统给无人驾驶设备带来的更多效果,将在下文中结合自动驾驶车辆的示例来描述,在此则不再进行赘述。
本发明另一实施例还提供一种无人驾驶设备的驾驶辅助方法,该驾驶辅助方法包括:采用上述实施例所述的感知系统获取目标属性信息;以及基于所述目标属性信息进行驾驶辅助。
其中,所述目标属性信息包括目标的3D形状信息和位姿信息,其可从上述感知系统的处理器中直接得到,也可以通过该无人驾驶设备自身的控制器(例如ECU)来对感知部件阵列100进行目标检测的检测结果进行数据处理以得到相应的目标属性信息。
另外,所述基于目标属性信息进行驾驶辅助包括:提供更为详细的3D外形信息及目标位姿信息,以提升无人驾驶设备进行路径规划等的能力等。
本发明实施例的无人驾驶设备的驾驶辅助方法的其他实施细节及效果可参考上述关于用于目标检测的感知系统的实施例,在此则不再赘述。
本发明另一实施例还提供一种无人驾驶设备,该无人驾驶设备包括:上述实施例所述的用于目标检测的感知系统;以及驾驶辅助系统,用于基于所述感知系统进行目标检测的检测结果来进行驾驶辅助。
其中,所述驾驶辅助系统用于基于所述感知系统进行目标检测的检测结果来进行驾驶辅助包括:从上述感知系统的处理器中直接得到所述目标属性信息,或通过该无人驾驶设备自身的控制器(例如ECU)来对感知部件阵列进行目标检测的检测结果进行数据处理以得到相应的目标属性信息,再基于得到的目标属性信息提供更为详细的3D外形信息及目标位姿信息,以提升无人驾驶设备进行路径规划等的能力等。
在优选的实施例中,所述无人驾驶设备为自动驾驶车辆、飞行车辆和无人机中的任意一者。
本发明实施例的无人驾驶设备的其他实施细节及效果可参考上述关于用于目标检测的感知系统的实施例,在此则不再赘述。
下面将以自动驾驶车辆为示例,详细介绍本发明各个实施例的系统、方法或设备的具体实施过程及相对于现有技术的效果。另外,在该示例中,所述感知部件为毫米波雷达。
目前市面上的具有ADAS系统的车辆,一般需要“1长+4中短”的5个毫米波雷达才能完全实现ADAS的各项功能。其中“1长+4中短”的5个毫米波雷达的布置形式多为:车辆前方一个远中程的雷达,这种雷达有的会具备两种模式(模式1:远距离1~300m大于80m,窄方位视角,不超过60度;模式2:较近距离1~120m小于150m,宽方位视角大于80度),车辆的四个角上安装四个中近程(一般不大于120m)、宽视角大于100度的雷达。另外,也在车辆采用7个毫米波雷达(1长+6短),布置方式与“1长+4中短”的5个毫米波雷达类似。如背景技术中所言,这种雷达布置方式难以处理复杂的车辆交会情况,从而无法满足更高级别的驾驶辅助和无人驾驶。
基于此,本示例中采用上述各实施例中涉及的感知部件的布置方式来对车辆上的毫米波雷达进行重新布置,其中毫米波雷达的参数与现有技术中“1长+4中短”的5个毫米波雷达布置方式相同或相近。另外,本示例的毫米波雷达不局限于频段、输出的数据形式(反射能量、点云等)和雷达的2D、3D、4D功能等。
图3是本发明示例中的雷达系统探测障碍物的示意图。具体地,在本示例中,参考图3,可按照0.1-1m的间隔设置N个层级(N大于等于1,且每个层级依照雷达所在车的不同位置布置),每个层级中依照雷达所在车的不同位置,按照0.1-1m的间隔布置2个以上的雷达。
图8是本发明示例中与图3相对应的雷达系统在车辆平面布置的示意图,其以将雷达系统安装在车辆前方为例。
对于上述布置方式,图9A和图9B分别是其中的单层雷达阵列探测障碍物A和障碍物B的示意图。如图9A和9B所示,单一层级中有雷达1、雷达2、…、雷达n,对于其重叠探测区域存在的正方形障碍物A和六边形障碍物B,雷达1对两障碍物的突出感应区域分别集中在A1和B1,雷达2对两障碍物的突出感应区域分别集中在A2和B2,雷达n对两障碍物的突出感应区域分别集中在An和Bn。通过将雷达1、雷达2、…、雷达n探测的突出感应区域融合,可以获得障碍物贴近车检测方向的3D形状信息(即,障碍物为正方体或六边形)。
进一步参考图3与图8,选取车的前方面布置N个层级的雷达(N>=1),每个层级有n1、n2、n3、…、nn个雷达(n1、n2、n3、…、nn>=2个),组成雷达阵列。该雷达阵列探测到障碍物C时,对于每个层的雷达均有其突出的探测区域,如第一层的C1-1、C1-2、…、C1-n1、C2-1、C2-2、…、C2-n2、C3-1、C3-2、…、C3-n3、…Cn-nn,将各个层级获取的障碍物3D形状信息融合,以获得目标位姿信息(如人、车、单车的正面、侧面)。
在相同的实验环境中进行现有技术中“1长+4中短”的5个毫米波雷达布置方式与本示例中的毫米波雷达面阵的目标检测实验,可知本示例能获知障碍物的外形信息和位姿信息,而现有技术则不能。
进一步地,本示例中的雷达系统可以根据雷达输出信息的维度和安装角度,使雷达面阵从任意层级开始进行数据处理。
进一步地,本示例的雷达系统涉及的雷达可以根据雷达输出信息的维度、布置位置与需求在安装平面上进行位置平移及不同角度的旋转安装,以达到更好的探测效果。
进一步地,本示例的雷达系统涉及的雷达,对于输出数据统一到相同三维空间的情况,可以直接对所有雷达或其中任意几个进行融合处理。
进一步地,本示例的雷达系统涉及的雷达,如果具有极佳的性能,可以设置较小的重叠区域,尽量扩大检测区域。
进一步地,本示例的雷达系统可以依据需要布置在车辆的前面、后面,侧面和下面(针对飞行汽车、无人机等应用)。
综上,本示例可以通过多个层级、阵列式布置实现对障碍物的多角度观测,通过多信息融合获得更为详细的障碍物的3D形状信息(长、宽、高)和障碍物位姿信息,以便将预警辅助提升到复杂环境无人驾驶路径规划辅助(如:交叉行驶规划、交叉路口、紧急避让辅助、超车规划等),并且通过判断障碍物属性(大车、小车、行人、自行车等)提升车感知的态势估计和威胁估计能力。同时,可以提高车辆的系统冗余,降低误判和漏检。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本领域技术人员可以理解实现上述实施方式方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得单片机、芯片或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
此外,本发明实施方式的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明实施方式的思想,其同样应当视为本发明实施方式所公开的内容。
Claims (7)
1.一种用于目标检测的感知系统,其特征在于,所述感知系统包括:
感知部件阵列,该感知部件阵列布置在无人驾驶设备的本体的任意一个平面上,且包括有多个布置于不同位置的感知部件,且每一感知部件用于进行目标检测以获得目标坐标信息,其中各感知部件被配置为具有重叠探测区域,且各感知部件之间的位置关系被配置为使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域,其中所述突出探测区域是指具有最佳探测效果的区域;以及
信息融合单元,用于获取各个感知部件针对所述重叠探测区域中的相同目标的不同突出探测区域的坐标信息,并对该坐标信息进行信息融合处理,以估计出相应目标的3D形状信息和位姿信息;
其中,所述各感知部件之间的位置关系包括:同一平面的各感知部件分布在沿指定方向布置的多个层级中,且每个层级分别布置有至少一个所述感知部件;其中,各个层级间的距离在预设层级距离范围内,且不同层级上的各个感知部件之间的距离在预设部件距离范围内;其中,所述预设层级距离范围及所述预设部件距离范围使得每一感知部件针对重叠探测区域中的相同目标具有不同的突出探测区域;
其中,所述信息融合单元包括:获取模块,用于获取所述感知部件阵列中的各个感知部件针对同一目标进行目标检测分别得到的各个目标坐标信息,包括各个感知部件针对所述重叠探测区域中的相同目标的不同突出探测区域的坐标信息;空间同步模块,用于基于各个感知部件所在的坐标系与车体坐标系之间的转换关系,进行所述各个目标坐标信息的空间同步,以将所述各个目标坐标信息统一至所述车体坐标系下进行描述;时间同步模块,用于对所述各个目标坐标信息标记时间戳,并基于所标记的时间戳和预设的时间基准,进行所述各个目标坐标信息的时间同步,以将所述各个目标坐标信息统一至相同的时间点进行描述;以及数据处理模块,用于对经过所述空间同步和所述时间同步的所述各个目标坐标信息进行融合处理,以估计出相应目标的3D形状信息和位姿信息;
其中,所述数据处理模块包括:过滤子单元,用于过滤虚假目标;聚类子单元,用于对过滤后的目标进行聚类,将同一目标的检测点归为一类;计算子单元,用于对每一聚类后的目标求取最小凸包,并计算最小凸包内的目标主方向;以及拟合子单元,用于基于所计算的目标主方向,进行最小外界矩形拟合或3D边界框拟合,得到目标的形状信息及位姿信息。
2.根据权利要求1所述的用于目标检测的感知系统,其特征在于,所述感知部件包括用于目标检测的以下任意一者或多者:毫米波雷达、激光雷达、超声波雷达、图像采集装置以及所述毫米波雷达、所述激光雷达、所述超声波雷达和所述图像采集装置中的感知元件。
3.根据权利要求1所述的用于目标检测的感知系统,其特征在于,所述各感知部件被配置为具有重叠探测区域包括:
通过调整同一平面的各感知部件的平移位置、旋转角度和/或性能参数来使得各感知部件具有重叠探测区域。
4.根据权利要求1所述的用于目标检测的感知系统,其特征在于,所述预设层级距离范围为0.1米-1米,所述预设部件距离范围为0.1米-1米。
5.根据权利要求1至4中任意一项所述的用于目标检测的感知系统,其特征在于,所述无人驾驶设备为自动驾驶车辆、飞行汽车和无人机中的任意一者。
6.一种无人驾驶设备的驾驶辅助方法,其特征在于,该驾驶辅助方法包括:
采用权利要求1至5中任意一项所述的用于目标检测的感知系统获取目标属性信息,其中该目标属性信息包括目标的3D形状信息和位姿信息;以及
基于所述目标属性信息进行驾驶辅助。
7.一种无人驾驶设备,其特征在于,所述无人驾驶设备包括:
权利要求1至5中任意一项所述的用于目标检测的感知系统;以及
驾驶辅助系统,用于基于所述感知系统进行目标检测的检测结果来进行驾驶辅助。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910616982.XA CN112208529B (zh) | 2019-07-09 | 2019-07-09 | 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910616982.XA CN112208529B (zh) | 2019-07-09 | 2019-07-09 | 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112208529A CN112208529A (zh) | 2021-01-12 |
CN112208529B true CN112208529B (zh) | 2022-08-02 |
Family
ID=74047099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910616982.XA Active CN112208529B (zh) | 2019-07-09 | 2019-07-09 | 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112208529B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112900199A (zh) * | 2021-01-15 | 2021-06-04 | 同济大学 | 一种用于无人驾驶压路机的障碍物检测系统及检测方法 |
CN112904899B (zh) * | 2021-04-25 | 2023-03-21 | 成都华航职业技能培训学校 | 无人机飞行轨迹感知装置及无人机飞行训练系统 |
CN114136328B (zh) * | 2021-11-25 | 2024-03-12 | 北京经纬恒润科技股份有限公司 | 一种传感器信息融合方法及装置 |
CN113873189B (zh) * | 2021-12-06 | 2022-05-10 | 江铃汽车股份有限公司 | 一种数据处理方法、装置、存储介质及设备 |
CN114333321B (zh) * | 2021-12-31 | 2023-09-12 | 北京荣顺智行科技开发有限公司 | 路侧装置 |
CN115148023B (zh) * | 2022-06-23 | 2024-06-14 | 阿里云计算有限公司 | 路径融合方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
CN107918386A (zh) * | 2017-10-25 | 2018-04-17 | 北京汽车集团有限公司 | 用于车辆的多传感器数据融合方法、装置及车辆 |
CN109655825A (zh) * | 2018-03-29 | 2019-04-19 | 上海智瞳通科技有限公司 | 多传感器融合的数据处理方法、装置与多传感器融合方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9520040B2 (en) * | 2008-11-21 | 2016-12-13 | Raytheon Company | System and method for real-time 3-D object tracking and alerting via networked sensors |
DE102012109481A1 (de) * | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
CN104318604A (zh) * | 2014-10-21 | 2015-01-28 | 四川华雁信息产业股份有限公司 | 一种3d图像拼接方法及装置 |
US11006095B2 (en) * | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
CN108139475A (zh) * | 2015-09-30 | 2018-06-08 | 索尼公司 | 信号处理设备、信号处理方法和程序 |
DE102016220075A1 (de) * | 2016-10-14 | 2018-04-19 | Audi Ag | Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung |
EP3616159A4 (en) * | 2017-04-28 | 2020-05-13 | SZ DJI Technology Co., Ltd. | CALIBRATION OF LASER SENSORS |
CN108573270B (zh) * | 2017-12-15 | 2020-04-28 | 上海蔚来汽车有限公司 | 使多传感器目标信息融合与多传感器感测同步的方法及装置、计算机设备和记录介质 |
-
2019
- 2019-07-09 CN CN201910616982.XA patent/CN112208529B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
CN107918386A (zh) * | 2017-10-25 | 2018-04-17 | 北京汽车集团有限公司 | 用于车辆的多传感器数据融合方法、装置及车辆 |
CN109655825A (zh) * | 2018-03-29 | 2019-04-19 | 上海智瞳通科技有限公司 | 多传感器融合的数据处理方法、装置与多传感器融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112208529A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112208529B (zh) | 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备 | |
US11508122B2 (en) | Bounding box estimation and object detection | |
US11630197B2 (en) | Determining a motion state of a target object | |
US11393097B2 (en) | Using light detection and ranging (LIDAR) to train camera and imaging radar deep learning networks | |
CN113490863B (zh) | 雷达辅助的单个图像三维深度重建 | |
US11195028B2 (en) | Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries | |
US11475678B2 (en) | Lane marker detection and lane instance recognition | |
JP6834964B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US20180288320A1 (en) | Camera Fields of View for Object Detection | |
US11544940B2 (en) | Hybrid lane estimation using both deep learning and computer vision | |
EP3745376B1 (en) | Method and system for determining driving assisting data | |
CN109215083A (zh) | 车载传感器的外部参数标定的方法和设备 | |
GB2541274A (en) | Collision mitigation and avoidance | |
JP2020107324A (ja) | 車両隊列構成車両間で分配されたデータの収集と処理 | |
JP2021099793A (ja) | インテリジェント交通管制システム及びその制御方法 | |
CN112041767B (zh) | 用于同步车辆传感器和设备的系统和方法 | |
CN114518113A (zh) | 基于径向速度测量来过滤点云中的返回点 | |
CN113537287A (zh) | 多传感器信息融合方法与装置、存储介质、自动驾驶系统 | |
CN111412922A (zh) | 定位技术 | |
JP2019128350A (ja) | 画像処理方法、画像処理装置、車載装置、移動体、システム | |
EP3584607B1 (en) | Method and arrangement for improving global positioning performance of a road vehicle | |
EP3223188A1 (en) | A vehicle environment mapping system | |
CN113771845A (zh) | 预测车辆轨迹的方法、装置、车辆和存储介质 | |
Gogineni | Multi-sensor fusion and sensor calibration for autonomous vehicles | |
CN112881991A (zh) | 毫米波雷达的道路场景测试设备及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210520 Address after: 100055 1802, 18 / F, building 3, yard 9, Guang'an Road, Fengtai District, Beijing Applicant after: Momo Zhixing Technology Co.,Ltd. Address before: 071000 No. 2266 Chaoyang South Street, Hebei, Baoding Applicant before: Great Wall Motor Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |