CN111221334B - 一种用于自动驾驶汽车仿真的环境传感器模拟方法 - Google Patents
一种用于自动驾驶汽车仿真的环境传感器模拟方法 Download PDFInfo
- Publication number
- CN111221334B CN111221334B CN202010050822.6A CN202010050822A CN111221334B CN 111221334 B CN111221334 B CN 111221334B CN 202010050822 A CN202010050822 A CN 202010050822A CN 111221334 B CN111221334 B CN 111221334B
- Authority
- CN
- China
- Prior art keywords
- detection
- vehicle
- target
- self
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000007613 environmental effect Effects 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 189
- 238000005259 measurement Methods 0.000 claims abstract description 85
- 239000011159 matrix material Substances 0.000 claims description 50
- 230000014509 gene expression Effects 0.000 claims description 26
- 238000009434 installation Methods 0.000 claims description 25
- 230000003068 static effect Effects 0.000 claims description 24
- 238000005070 sampling Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 150000001875 compounds Chemical class 0.000 claims description 10
- 238000012546 transfer Methods 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 5
- 230000004888 barrier function Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 10
- 238000012216 screening Methods 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000012360 testing method Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,包括以下步骤:1)在自车的配置文挡中设置传感器配置信息并定义探测目标类型;2)引入测量误差,分别构建各传感器的测量量模型和探测类型模型;3)设定仿真环境下自车探测范围内所有探测目标的真实信息,并筛选自车探测范围内的可探测目标;4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值作为结果输出。本发明提供的环境传感器建模方法具有通用性好、仿真精度优化、计算效率高的特点。
Description
技术领域
本发明属于自动驾驶汽车仿真建模领域,特别涉及一种用于自动驾驶汽车仿真的环境传感器模拟方法,基于特征参数建模用以实现更高精度的仿真与较高的计算效率。
背景技术
随着自动驾驶技术的开发逐渐从低级别的辅助自动驾驶向高级别的无人自动驾驶技术迈进,算法在仿真环境下的测试与验证工作变得越来越重要。高级别自动驾驶技术在实际道路上的测试验证工作十分困难。为了减少测试成本,提高算法的开发效率,计算机仿真技术逐渐成为了自动驾驶测试技术中不可或缺的一部分。因此,国内外的研究人员都开始将目光投向自动驾驶仿真平台的开发工作上。目前,主流的自动驾驶仿真平台主要分为机器人仿真平台、3D游戏以及专业仿真平台三种。
机器人仿真平台多用于自动驾驶技术和机器人技术的交叉研究当中,但作为主要面向室内场景的仿真平台来说,其对室外交通场景的构建方面,存在着仿真物件建构的问题,例如车辆物件建构、行人物件建构、道路建构、交通流建构等问题。
包含交通场景的3D游戏对于自动驾驶开发人员来说是一种能够快速构建仿真测试实验的工具,这类工具的特点在于其游戏环境中存在有相当真实的虚拟交通场景,开发人员能够直接在这类场景下进行算法的测试工作。然而由于商业游戏的封闭性,开发人员难以获取到完整的仿真数据,也无法做到对仿真的完全控制。
专业仿真平台包括添加了自动驾驶测试功能的传统车辆仿真平台以及专为自动驾驶技术所开发的自动驾驶仿真平台。这类仿真平台为自动驾驶技术提供了更加专业的仿真测试功能,专门针对自动驾驶技术开发过程中所面临的环境、交通、传感器和车辆模型这四大难题进行开发设计。这类专业仿真平台随着自动驾驶技术的不断发展逐渐成为了开发人员的主流选择。但与此同时,随着业界和学界的研究重点逐渐从低级别的自动驾驶向高级别的自动驾驶迈进,开发人员对于仿真环境的真实性和仿真平台的仿真效率提出了更高的要求,现有专业软件在平衡二者的工作上仍留有极大的提升空间,以Autoware.AI为例。
Autoware.AI(https://www.autoware.ai/)是基于ROS的开源软件,使自动驾驶汽车能够在仿真环境下在城市道路和高速公路上进行测试。由摄像头和LiDAR设备结合3D高清地图数据实现目标探测。其使用方法为深度学习和传感器融合方法。目标跟踪和预测通过卡尔曼滤波算法实现,车道网络信息由3D高清晰度地图数据提供。目前这类方法采用图像、激光点云、3D高清地图,造成存储数据量庞大的问题,使用庞大网路的深度学习,虽仿真环境的真实性较高,但仿真平台的仿真效率较低,不利于短时间大规模的测试情景。
综上,亟需一种能够平衡仿真环境的真实性和仿真平台的仿真效率用于自动驾驶汽车仿真的环境传感器模拟方法。
发明内容
本发明的目的是提供一种平衡自动驾驶汽车仿真环境真实性和仿真平台效率的环境传感器模拟方法,针对智能车的仿真平台面临计算负荷随仿真真实度增长的问题,利用外部特性为传感器建模,从而提高仿真真实性,达到较好的计算效率。本发明具有通用性好、仿真精度优化、计算效率高的特点。
为实现上述目的,本发明采用如下技术方案:
本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,所述自动驾驶汽车上装载有多种传感器,包括激光雷达、毫米波雷达和摄像头,其特征在于,所述用于自动驾驶汽车仿真的环境传感器模拟方法包括以下步骤:
1)在自车的配置文挡中设置传感器配置信息并定义探测目标类型
1-1)设置传感器配置信息,包括传感器类型,以及自车坐标系下传感器的探测角度、探测半径、横向安装位置和纵向安装位置;
1-2)将传感器探测目标类型分为道路使用者与静态物体两类,分别进行如下定义:
1-2-1)道路使用者,包括若干车辆和行人
令各车辆分别由长方体目标框表征,令车辆的属性包括车辆类型和车辆的状态信息,该状态信息包括车辆目标框的长和宽,大地坐标系下车辆的位置、速度、加速度、横摆角和横摆角速度;令各行人分别由圆柱体目标框表征,令行人的状态信息包括行人目标框的半径,以及大地坐标系下行人的位置、速度和加速度;
1-2-2)静态物体,包括若干静态障碍物、车道线、交通号志和红绿灯
令各静态障碍物分别由长方体或圆柱体目标框表征;其中,由长方体目标框表征的静态物体的状态信息包括长方体目标框的长和宽,以及大地坐标系下静态物体的位置和朝向角;由圆柱体目标框表征的静态物体状态信息包括圆柱体目标框的半径和大地坐标系下静态物体的位置;
令各车道线分别由通过摄像头对相应车道线进行采样所确定的若干个采样点表征,令车道线的属性包括车道线相对自车的方位、车道线的类型、以及由车道线上各采样点在自车坐标系下相对自车的位置所构成的车道线状态信息;
所述交通号志由禁止交通标志和强制性标志组成,所述禁止交通标志包括限速标志和停止标志,所述强制性标志包括方向号志;令交通号志的属性包括交通号志的类型和交通号志的状态信息,令限速标志的状态信息为其限速大小,以正整数表示,令停止标志的状态信息为0,令强制性标志的状态信息为允许车辆行驶的方向;
令所述红绿灯的状态信息为各信号灯的颜色;
2)引入测量误差,对数值类测量量分别构建各传感器的测量量模型,对非数值类测量量即探测目标类型分别构建各传感器的探测类型模型,分别描述如下:
2-1)构建各传感器的测量量模型
2-1-1)对于用目标框表征的探测目标分别构建激光雷达和摄像头测量量模型,表达式如下:
式中,角标w取lidar时代表激光雷达、取camera时代表摄像头,角标m表示激光雷达或摄像头测量的一个探测目标的测量量总个数;为激光雷达或摄像头测量量模型的输出矩阵,作为仿真环境下激光雷达或摄像头各测量量的估计值;statew为仿真环境下与激光雷达或摄像头对应的各测量量的真实值statew_g构成的矩阵,作为激光雷达或摄像头测量量模型的输入矩阵;Ew为与各测量量的真实值statew_g对应的数值误差Ew_g构成的数值误差矩阵,令各数值误差分别均为零均值且彼此独立的高斯白噪声,为激光雷达或摄像头的各测量量的方差;
2-1-2)构建车道线曲线检测模型,表达式如下:
式中,为车道线曲线检测模型确定的车道线状态矩阵,通过在仿真环境下车道线的真实状态矩阵Linestate中引入车道线数值误差矩阵ELine得到;pointr为构成车道线真实状态矩阵Linestate的第r个采样点在自车坐标下相对自车的位置,即pointr=(xLinePoint,r,yLinePoint,r);Eline-r为与pointr相对应的车道线数值误差,各车道线数值误差均分别为零均值且彼此独立的高斯白噪声,为车道线各采样点测量值的方差;
2-1-3)构建毫米波雷达测量量模型
构建极坐标系下毫米波雷达测量量模型,表达式如下:
式中,为极坐标系下毫米波雷达测量量模型的输出矩阵,作为仿真环境下用极坐标表达的毫米波雷达各测量量的估计值,包括探测目标相对于毫米波雷达径向距离的估计值径向距离变化率的估计值和方位角的估计值stateO_Radar为仿真环境下用极坐标表达的毫米波雷达各测量量真实值构成的矩阵,作为极坐标系下毫米波雷达测量量模型的输入,包括探测目标相对于毫米波雷达径向距离的真实值R、径向距离变化率的真实值RangeRate和方位角的真实值φ;EO_Radar为与毫米波雷达各测量量真实值对应的数值误差构成的数值误差矩阵,由距离误差N(0,σR)、距离测量偏差N(0,σR,Bias)、径向速度误差N(0,σRangeRate)和方位角误差N(0,σφ)组成,σR,σR,Bias,σRangeRate,σφ分别对应个测量量的方差;
将极坐标系下毫米波雷达测量量模型转换为笛卡尔坐标系下毫米波雷达测量量模型,表达式如下:
式中,为笛卡尔坐标下毫米波雷达测量量模型的输出矩阵,由方位角估计值以及笛卡尔坐标下探测目标相对于毫米波雷达的横向距离估计值纵向距离估计值横向速度估计值和纵向速度估计值组成;为极坐标系下根据毫米波雷达速度估计方法得到的探测目标相对于毫米波雷达的切向速度;
2-2)构建探测目标类别模型
对类别判别过程构造一种随机转移过程,表达式如下:
式中,C为由与探测目标的真实类型type类似的若干类型构成的常返集,各类型分别代表一种状态,NC为常返集C内的状态总数;D为由与探测目标的真实类型type较相异的若干类型构成的非常返集,各类型分别代表一种状态,ND为非常返集D内的状态总数;Ptype(step)为step步转移概率矩阵,表示经过step步后探测目标类型模型识别的探测目标类型转移到各状态的概率;Ptype(step)中的元素pij(step)表示经过step步后由状态i转移到状态j的概率;a为某一传感器判定某探测目标类型正确的概率,b是在相异类中的所有状态保留在相异类的概率;设各传感器探测目标类型模型的初始分布均为均匀分布;
3)以能包络自车上装载的所有传感器的探测范围的区域作为自车的探测区域;设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态;其中,对于以目标框表征的探测目标,按照各探测目标与自车的欧氏距离由近至远进行排序,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,自车探测区域内的其余探测目标作为可探测目标;
4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值;将各测量量估计值作为所述环境传感器模拟方法的最终结果输出。
本发明的特点及有益效果:
本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,可实现对智能化汽车目标集多源信息数据加噪。本发明方法通过对传感器外部特性建模,考虑不同传感器的不同外部特性(包括视野遮挡、探测半径、探测角度、传感器噪声等),该模型使用仿真平台的真实值为输入,输出加噪后的目标信息。本方法基于外部特性模型实现了用于自动驾驶汽车仿真的环境传感器建模,且基于外部特性模型可增加仿真精度,同时本方法在较小的模型规模下可以达到较高的精度,从而达到较好的仿真效果。
本发明特点为建模时考虑各类传感器的外部特性,增加仿真真实性,为自动驾驶仿真平台提供较贴近真实的感知结果,提高仿真精度;此外本发明模型结构简单,实行步奏简明,有简单易用、计算效率高的特点,有效降低运算时间。由本发明所构建的测量量模型与目标类别模型较传统方法使用范围更广,因为不需要图像与点云数据输入,本发明通过引入测量误差能对本身不带感知模块的交通流仿真软件例如SUMO(http://sumo.sourceforge.net/)提供扩充功能,使其备有感知功能,输出类似真实传感器的效果,进而提升真实性;因本发明具有通用性好、仿真精度优化、计算效率高的特点,能同时部署多辆配有传感器的车,对自动驾驶仿真于决策验证提供有效条件。
附图说明
图1是本发明提供的环境传感器模拟方法的整体流程图。
图2是本发明方法涉及的传感器坐标定义示意图。
图3本发明实施例中涉及的车辆状态建模过程示意图。
图4本发明实施例中涉及的行人状态建模过程示意图。
图5是本发明中涉及的毫米波雷达测物坐标示意图。
图6是本发明中涉及的毫米波雷达测量的切向速度与径向速度的关系示意图。
图7是本发明中基于一种随机转移过程构建的探测目标类型模型示意图。
图8是本发明探测范围与视野遮挡示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了更好地理解本发明,以下详细阐述一个本发明一种用于自动驾驶汽车仿真的环境传感器模拟方法的应用实例。
参见图1,本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,在自动驾驶汽车上装载有多种传感器,包括激光雷达、毫米波雷达和摄像头,本方法包括以下步骤:
1)在自车的配置文挡中预先设置传感器配置信息并定义探测目标类型
1-1)设置传感器配置信息,包括传感器类型,以及自车坐标系下传感器的探测角度、探测半径、横向安装位置和纵向安装位置;
所述传感器类型(激光雷达、毫米波雷达、摄像头),以及自车坐标系下传感器的探测角度、探测半径、横向安装位置、纵向安装位置和安装角度共同组成传感器的外部特性,相关坐标定义如图2所示,分别以车辆的横轴和纵轴作为X轴、Y轴,车辆中心作为原点O,构建O-XY直角坐标系即自车坐标系,定义从Y轴正向代表0°、X轴正向代表-90°、X轴负向代表90°、Y轴负向代表180°,将传感器安装位置在X轴、Y轴上的投影作为该传感器的横向安装位置xinstall、纵向安装位置Yinstall,将传感器安装位置至其能探测的最远端之间的距离作为该传感器的探测半径D,令传感器的探测角度为β,将传感器探测区域的中轴线与Y轴间的夹角作为该传感器的安装角度αinstall为传感器安装角度偏差,以此构建传感器配置信息向量sensor,表达式如下:
其中,SensorType为传感器类型。
本实施例中自车上装载的传感器分别为激光雷达HDL-64、摄像头、中距离毫米波雷达,长距离毫米波雷达DELPHI,各传感器的配置信息均由厂商提供,各传感器的配置信息分别参见表1~4。
表1激光雷达HDL-64的配置信息表
参数 | 值 |
安装横向偏差(x<sub>install</sub>) | 0m |
安装纵向偏差(y<sub>install</sub>) | 0m |
安装角度偏差(α<sub>install</sub>) | 0deg |
探测角度(β) | 360deg |
探测半径(D) | 120m |
表2摄像头的配置信息表
参数 | 值 |
安装横向偏差(x<sub>install</sub>) | 0m |
安装纵向偏差(y<sub>install</sub>) | 1.65m |
安装角度偏差(α<sub>install</sub>) | 0deg |
探测角度(β) | 38deg |
探测半径(D) | 80m |
表3中距离毫米波雷达的配置信息表
参数 | 值 |
安装横向偏差(x<sub>install</sub>) | 0m |
安装纵向偏差(y<sub>install</sub>) | 1.65m |
安装角度偏差(α<sub>install</sub>) | 0deg |
探测角度(β) | 90deg |
探测半径(D) | 60m |
表4长距离毫米波雷达DELPHI的配置信息表
参数 | 值 |
安装横向偏差(x<sub>install</sub>) | 0m |
安装纵向偏差(y<sub>install</sub>) | 1.65m |
安装角度偏差(α<sub>install</sub>) | 0deg |
探测角度(β) | 20deg |
探测半径(D) | 174m |
1-2)将传感器探测目标类型分为道路使用者与静态物体两类,分别进行如下定义:
1-2-1)道路使用者包括若干车辆和行人
令各车辆分别由长方体目标框表征,令车辆的属性包括车辆类型和车辆的状态信息,该状态信息包括车辆目标框的长和宽,以及大地坐标系下车辆的位置、速度、加速度、横摆角和横摆角速度。车辆状态建模如图3表示,车辆的类型与状态信息的表达式分别如下:
式中,vehicletype表示由各车辆类型(包括重型卡车、轻型卡车、SUV、轿车、摩托车、骑行车等)构成的车辆类型集合。vehiclestate表示车辆的状态矩阵,其中,[xvehicle,yvehicle]T表示车辆在大地坐标系下的绝对坐标(本发明中大地坐标系下数值类测量量均为绝对坐标);[vx,vehicle,vy,vehicle]T表示车辆的速度;[ax,vehicle,ay,vehicle]T表示车辆的加速度;θvehicle表示在大地坐标系下车辆横摆角,代表车辆的朝向;ωwhicle表示车辆横摆角速度;[lvehicle,wvehicle]T表示车辆目标框的长和宽。
令各行人分别由圆柱体目标框表征,行人状态建模如图4表示,令行人的状态矩阵为pedestrianstate,表达式如下:
式中,rpedestrian为行人目标框的半径(m),xpedestrian,ypedestrian,vx,pedestrian,vy,pedestrian,ax,pedestrian,ay,pedestrian分别为大地坐标系下行人目标框的位置(m)、速度(m/s)和加速度(m/s2)。
1-2-2)静态物体,包括若干静态障碍物、车道线、交通号志和红绿灯
令各静态障碍物分别由长方体或圆柱体目标框表征。其中,由长方体目标框表征的静态物体状态信息包括长方体目标框的长度lstaticObject和宽度wStaticObject,以及大地坐标系下静态物体的位置(xStaticObject,yStaticObject)和朝向角θstaticObject。由圆柱体目标框表征的静态物体状态信息包括圆柱体目标框的半径rStaticObject),和大地坐标系下静态障碍物的位置,表达式如下:
令各车道线分别由通过摄像头对相应车道线进行采样(本实施例采用等间距采样)所确定的若干采样点表征,令车道线的属性包括车道线相对自车的方位Lineside、车道线的类型Linetype、以及由车道线上各采样点在自车坐标系下相对自车的位置所构成的车道线状态信息Linestate,表达式分别如下:状态是由从真实车道线采样的点集组成。
pointr=(xLanePoint,r,yLanePoint,r)
式中,left,right分别表示车道线位于自车的左侧和右侧;solidyellow表示黄色单实线,dashyellow表示黄色单虚线,doublesolidyellow表示黄色双实线,dash-solidyellow表示由左侧虚线和右侧实线组成的双黄线(其中左右方位按照车辆行驶方向定义,下同),solid-dashyellow表示由左侧实线和右侧虚线组成的双黄线,solidwhite表示白色单实线,dashwhite表示白色单虚线,doublesolidwhite表示白色双实线,dash-solidwhite表示由左侧虚线和右侧实线组成的双白线,solid-dashwhite表示由左侧实线和右侧虚线组成的双白线。pointr为车道线上的第r个采样点在自车坐标系下相对自车的位置xLanePoint,r,yLanePoint,r,n表示采样点总个数。
交通号志由禁止交通标志和强制性标志组成,其中,禁止交通标志在本发明中包含限速标志Speedlimit和停止标志Stop制,令交通号志的属性包括交通号志的类型Signtype和交通号志的状态信息Signstate,令限速标志的状态信息为其限速大小speedlimit,以正整数表示,单位为千米每小时;令停止标志的状态信息为0。强制性标志包含方向号志permitteddirction,以允许车辆的行驶方向(如向左Left,向右Right,直行Straight)作为强制性标志的状态信息。交通号志的表达式如下:
令红绿灯包含基本的三个灯,其状态为各信号灯的颜色,表达式如下:
2)引入测量误差,对数值类测量量分别构建各传感器的测量量模型,对非数值类测量量即探测目标类型分别构建各传感器的探测类型模型,分别描述如下:
2-1)构建各传感器的测量量模型
本发明构建之测量量模型皆由真实状态加上误差值表征,其B类误差和各个传感器特性与探测目标相关,接假设为零均值正态分布,本发明误差的数学通用表达式如下:
其中,state代表真实状态集,E带表对应真实状态集中每一元素所对应之误差集合,为输出之测量量估计值。本发明采用此数学表达式表征各个测量量,以下接依循此表达式,唯误差产生方式、方差、输出量不同。具体步骤如下:
2-1-1)对于用目标框表征的探测目标分别构建激光雷达和摄像头测量量模型,表达式如下:
式中,角标w取lidar时代表激光雷达、取camera时代表摄像头,角标m表示激光雷达或摄像头测量的一个探测目标的测量量总个数,激光雷达和摄像头对一个探测目标的测量量(数值类)一般包括探测目标的位置、速度(为自车坐标系下相对自车的量)和目标框尺寸;为激光雷达或摄像头测量量模型的输出矩阵,作为仿真环境下激光雷达或摄像头各测量量的估计值;statew为仿真环境下与激光雷达或摄像头对应的各测量量的真实值statew_g构成的矩阵,作为激光雷达或摄像头测量量模型的输入矩阵;Ew为与各测量量的真实值statew_g对应的数值误差Ew_g构成的数值误差矩阵,令各数值误差分别均为零均值且彼此独立的高斯白噪声,为激光雷达或摄像头的各测量量的方差。
引入激光雷达和摄像头各测量量的数值误差是通过环境感知算法将真实环境下激光雷达测量的点云和摄像头测量的图像转化为相应数值后所确定的零均值高斯白噪声。
2-1-2)构建车道线曲线检测模型,表达式如下:
式中,为车道线曲线检测模型确定的车道线状态矩阵,通过在仿真环境下车道线的真实状态矩阵Linestate中引入车道线数值误差矩阵ELine得到;Eline-r为与pointr相对应的车道线数值误差,各车道线数值误差均分别为零均值且彼此独立的高斯白噪声,为车道线各采样点测量值的方差;
2-1-3)构建毫米波雷达测量量模型
毫米波雷达可获取探测目标的位置及径向速度,构建极坐标系下毫米波雷达测量量模型,表达式如下:
式中,为极坐标系下毫米波雷达测量量模型的输出矩阵,作为仿真环境下用极坐标表达的毫米波雷达各测量量的估计值,包括探测目标相对于毫米波雷达径向距离的估计值径向距离变化率(即径向速度vtan)的估计值和方位角的估计值方位角φ为探测目标相对于毫米波雷达的径向距离在水平面内的投影与水平面横轴之间的夹角,参见图5;stateO_Radar为仿真环境下用极坐标表达的毫米波雷达各测量量真实值构成的矩阵,作为极坐标系下毫米波雷达测量量模型的输入,包括探测目标相对于毫米波雷达径向距离(即欧氏距离)的真实值R、径向距离变化率的真实值RangeRate和方位角的真实值φ;EO_Radar为与毫米波雷达各测量量真实值对应的数值误差构成的数值误差矩阵,由距离误差N(0,σR)、距离测量偏差N(0,σR,Bias)、径向速度误差N(0,σRangeRate)和方位角误差N(0,σφ)组成,σR,σR,Bias,σRangeRate,σφ分别对应个测量量的方差。
将极坐标系下毫米波雷达测量量模型转换为笛卡尔坐标系下毫米波雷达测量量模型,表达式如下:
式中,
为笛卡尔坐标下毫米波雷达测量量模型的输出矩阵,由方位角估计值以及笛卡尔坐标下探测目标相对于毫米波雷达的横向距离估计值纵向距离估计值横向速度估计值和纵向速度估计值组成;为极坐标系下根据毫米波雷达速度估计方法得到的探测目标相对于毫米波雷达的切向速度,具体过程如下:
本发明参照现有的毫米波雷达速度估计方法,对毫米波雷达建模,设毫米波雷达模型中卡尔曼滤波的状态转移方程及观测方程采用如下所示恒定速度模型:
式中,
[stan,kvtan,k]T为状态向量,包括tk时刻探测目标的切向位移stan,k和切向速度的真实值;[zs,kzv,k]T为观测向量,参见图6,包含tk时刻探测目标的切向位移观测值zs,k和切向速度观测值zv,k,切向位移观测值zs,k由探测目标当前时刻位置(xk,yk)和上一时刻位置(xk-1,yk-1)之间的距离dsk在切向方向的投影求得;切向速度观测值zv,k按照以下公式计算:
其中,Rk-1为探测目标上一时刻的径向距离,△φ为探测目标tk-1时刻至tk时刻的方位角变化,Δt为tk-1时刻与tk时刻的时间差;Vtan,k为观测噪声矩阵,设为零均值的高斯白噪声,Rtan,k为其协方差矩阵,Vtan,k~N(0,Rtan,k)。
对于数值误差,本发明实施例按照现有的nuScenes数据集目标检测排行榜(https://www.nuscenes.org/object-detection?extemalData=all&mapData=all&modalities=Any)的结果设定。除了平均精度,nuScences数据集还为与地面真值框匹配的每个预测测量一组真实的正指标TP(该指标如表5所示)。此外,还可透过测量实际智能网联汽车的感知误差或通过运用某种算法后的误差作为误差参数。
表5 nuScences数据集TP指标
名称 | 简写 | 描述 |
平移错误均值 | ATE | 欧几里得中心距离(二维)(m) |
尺寸错误均值 | ASE | 平移和对齐方向后的3D IOU(1-IOU) |
朝向误差均值 | AOE | 预测值与地面真实值之间的最小偏朝向差(弧度) |
速度误差均值 | AVE | 绝对速度误差作为2D速度差的L2范数(m/s) |
属性错误均值 | AAE | 定义为1减去属性分类精度(1-acc)。 |
上述误差用零均值高斯分布来表征,本发明实施例将平移误差、比例误差、方向误差和速度误差进行转换,得到各误差参数如表6所示。
表6本实施例设定的数值误差参数表
表中,MEGVII和MAIR分别为激光雷达和摄像头采用的智能感知算法(为现有技术)。
以探测目标的目标框尺寸为例对转换方法说明如下:
根据误差均值建立高斯分布。设误差分布为零均值高斯白噪声,误差均值averageerror的计算公式如下:
式中,Nsample为采样的样本数,为第q个采样点的测量值,sptq第q个采样的真实值,errorq定义为测量值和真实值的误差。由于本发明设Error~N(0,σError)为零均值高斯分布,因此概率密度函数是对称的,随机变量Y=|Error|服从半正态分布,由此得到概率密度函数fY(y;σ):
由上式,误差的标准差σError的计算如下:
假设目标框的长度、宽度和高度遵循相同大小的零均值高斯分布且互相独立。预测目标框和真实目标框能互相重叠(预测目标框对真实目标框可以是完全包络或部分包络,两者的中心尽量重合)。
对完成中心重合和朝向重合的3D交并比IOU,可由以下公式计算:
L=(l+error)~N(l,σlengt h)
W=(w+error)~N(w,σwidt h)
H=(h+error)~N(h,σheig ht)
通过迭代算法,可以获得上述方程的近似数值解。
例如,长度,宽度,高度分别为4.8m,1.8m,1.5m的车辆的标准偏差σerror的计算如下。
已知l=4.8,w=1.8,h=1.5
令Lq=(l+error)~N(l,σlengt h,q),Wq=(w+error)~N(w,σwidth,q),
Hq=(h+error)~N(h,σheig ht,q),其中q为某一类别。
使用随机采样,根据大数定理,均值近似如下:
MEGVII所估计出的标准差为:0.0700,ASE的误差为-4.5790e-04。
使用其他感知算法对尺寸误差的结果也可以由此方法估算。
遵循上述方法的所有误差可以在类中更详细地展开,如表7、8。
表7 MEGVII的误差
表8 MAIR的误差
AP | ATE(m) | ASE(1-IOU) | AOE(rad) | AVE(m/s) | |
car | 0.478 | 0.605 | 0.152 | 0.073 | 1.779 |
truck | 0.22 | 0.78 | 0.2 | 0.083 | 1.798 |
bus | 0.188 | 0.844 | 0.193 | 0.115 | 2.863 |
trailer | 0.176 | 1.027 | 0.201 | 0.783 | 0.64 |
construction_vehicle | 0.074 | 1.032 | 0.393 | 0.892 | 0.378 |
pedestrian | 0.37 | 0.697 | 0.307 | 1.266 | 0.885 |
motorcycle | 0.29 | 0.661 | 0.24 | 0.513 | 3.15 |
bicycle | 0.245 | 0.707 | 0.298 | 1.04 | 0.933 |
traffic_cone | 0.487 | 0.5 | 0.356 | n/a | n/a |
barrier | 0.511 | 0.531 | 0.286 | 0.149 | n/a |
2-2)构建探测目标类别模型
激光雷达、摄像头经过感知算法能够辨别物体类型,在此基础下本发明做了以下假设:在特征空间中,较相近的物体容易被分为一类(如重型卡车和轻型卡车),较相异的物体不容易被分为一类。在此假设下对类别判别过程构造一种随机转移过程,表达式如下:
式中,C为由与探测目标的真实类型type类似的若干类型构成的常返集,各类型分别代表一种状态,NC为常返集C内的状态总数;D为由与探测目标的真实类型type较相异的若干类型构成的非常返集,各类型分别代表一种状态,ND为非常返集D内的状态总数;Ptype(step)为step步转移概率矩阵,表示经过step步后探测目标类型模型识别的探测目标类型转移到各状态的概率;Ptype(step)中的元素pij(step)表示经过step步后由状态i转移到状态j的概率;a为某一传感器判定某探测目标类型正确的概率,b是在相异类中的所有状态保留在相异类的概率;设各传感器探测目标类型模型的初始分布均为均匀分布。
以下以车辆中的轻型卡车为实例进行说明:
如图7所示,假定某传感器判定某探测目标的类别正确率可达95%(正确率由传感器类别误差决定),则设正确率a为95%,错误率1-a则为5%。在相异类中的所有状态保留在相异类的概率为b,从相异类转移到相似类的概率为1-b,b可取任意合适的参数,本实施例取0.25。设定初始分布为均匀分布:
objecttype={Heavydutytruck,lighttruck,SUV,Sedan,Motorbike,Bike,Pedestrian}
令马尔科夫链一步转移概率矩阵为:
Nstate=NC+ND
式中,i为探测目标类别模型当前输出的探测目标类型,j为探测目标类别模型下一次输出的探测目标类型;pij(1)表示探测目标类别模型识别的探测目标类型经过一步后由一个状态转移到另一个状态的概率;
经设计step≥5时(5步)收敛至平稳分布即正确率达95%:
现有的目标类型检测主要由环境感知算法实现,因此其算法主要基于深度神经网络(DNN)。本发明拟建立一个简单的数学表达模型,即使用一种随机转移过程来模拟DNN模型的输出结果,较DNN模型更加简单、容易实现。在本发明中,所有非数值类误差皆由此方法构造,如交通号志类型,红绿灯类型、车道线类型等。
3)以能包络自车上装载的所有传感器的探测范围的区域作为自车的探测区域;设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态;其中,对于以目标框表征的探测目标,按照各探测目标与自车的欧氏距离由近至远进行排序,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,自车探测区域内的其余探测目标作为可探测目标。具体实现过程如下:
3-1)以自车形心为圆心、有效半径为半径构建一圆形区域作为自车的探测区域,其中,有效半径定义为至少超过自车上装载的所有传感器最大探测半径的距离。参见图8,图中,区域1~4分别为激光雷达、摄像头、中距离毫米波雷达和长距离毫米波雷达的探测半径,长距离毫米波雷达的探测半径最大,故有效半径取略大于该长距离毫米波雷达探测半径的距离。
3-2)设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态。
3-3)筛选自车探测区域内能够被自车各传感器探测的以目标框表征的探测目标,具体步骤如下:
按照各探测目标与自车的欧氏距离由近至远进行排序,确定长方体目标框各角点的坐标以及自车形心至圆柱形目标框的切点,判断各探测目标是否存在遮挡,遮挡的判断依据为自车形心相对于某一探测目标是否被其他探测目标遮挡。其中:
3-3-1)对于以长方体目标框表征的探测目标,确定大地坐标系下各长方体探测目标在水平面内投影的长方形的四个角点坐标,计算公式如下:
a1=((x+0.5l)cos(θ)+(y+0.5w)sin(θ),-(x+0.5l)sin(θ)+(y+0.5w)cos(θ))
a2=((x+0.5l)cos(θ)+(y-0.5w)sin(θ),-(x+0.5l)sin(θ)+(y-0.5w)cos(θ))
a3=((x-0.5l)Cos(θ)+(y+0.5w)sin(θ),-(x-0.5l)sin(θ)+(y+0.5w)cos(θ))
a4=((x-0.5l)cos(θ)+(y-0.5w)sin(θ),-(x-0.5l)sin(θ)+(y-0.5w)cos(θ))其中,x为长方体目标框在大地坐标系下的横向坐标,y为长方体目标框在大地坐标系下的纵向坐标,θ为长方体目标框在大地坐标系下的朝向角。
3-3-2)对于以圆柱体表征的探测目标,确定由自车形心到圆形轮廓的切点,并遍历每个圆柱体探测目标,具体过程如下:
设自车形心在大地坐标系下的坐标为(xego,yego),圆柱体探测目标的形心坐标为(xcircle,ycircle),半径为rcircle。
通过自车形心的直线方程式可由以下公式表示:
y-yego=m(x-xego)
圆柱体的圆形轮廓可由以下公式表示:
上面两式加上圆心到直线距离为半径的条件可以确定切线斜率m,即可推出切线方程,由切线方程和圆的公式解联立可求出切点(注意:当m只有一个值时,还有另一切线为铅直线x-xego=0)。
步骤3-3-3)将长方体目标框的四个顶点及圆柱体目标框的切点定义为遮挡边界点;对于自车探测区域内的任意两个探测目标,记靠近自车的探测目标为在前探测目标,记远离自车的探测目标为在后探测目标,将自车传感器安装位置与在前探测目标的各遮挡边界点相连并延伸至自车探测区域的边线形成一扇形区域,若在后探测目标的形心在该扇形区域内,则在前探测目标对当前探测目标存在遮挡,将在后探测目标视为无法探测目标;遍历自车探测区域内所有探测目标,确定其中所有无法探测目标。
按照上述步骤,即可筛选出自车探测区域内能够被各传感器探测到的所有可探测目标。
本发明通过有效半径筛选自车周围的探测目标,可降低数据运算量,再以欧氏距离排序,欧氏距离越小越先处理,进一步筛选能够被自车探测到的探测目标。
4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值,并将此测量量估计值作为本环境传感器模拟方法的最终输出。
以上示意性地对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性地设计出与该技术方案相似的方式及实施例,均应属于本发明的保护范围。
Claims (3)
1.一种用于自动驾驶汽车仿真的环境传感器模拟方法,所述自动驾驶汽车上装载有多种传感器,包括激光雷达、毫米波雷达和摄像头,其特征在于,所述环境传感器模拟方法包括以下步骤:
1)在自车的配置文档中设置传感器配置信息并定义探测目标类型
1-1)设置传感器配置信息,包括传感器类型,以及自车坐标系下传感器的探测角度、探测半径、横向安装位置和纵向安装位置;
1-2)将传感器探测目标类型分为道路使用者与静态物体两类,分别进行如下定义:
1-2-1)道路使用者,包括若干车辆和行人
令各车辆分别由长方体目标框表征,令车辆的属性包括车辆类型和车辆的状态信息,该状态信息包括车辆目标框的长和宽,大地坐标系下车辆的位置、速度、加速度、横摆角和横摆角速度;令各行人分别由圆柱体目标框表征,令行人的状态信息包括行人目标框的半径,以及大地坐标系下行人的位置、速度和加速度;
1-2-2)静态物体,包括若干静态障碍物、车道线、交通号志和红绿灯
令各静态障碍物分别由长方体或圆柱体目标框表征;其中,由长方体目标框表征的静态物体的状态信息包括长方体目标框的长和宽,以及大地坐标系下静态物体的位置和朝向角;由圆柱体目标框表征的静态物体状态信息包括圆柱体目标框的半径和大地坐标系下静态物体的位置;
令各车道线分别由通过摄像头对相应车道线进行采样所确定的若干个采样点表征,令车道线的属性包括车道线相对自车的方位、车道线的类型、以及由车道线上各采样点在自车坐标系下相对自车的位置所构成的车道线状态信息;
所述交通号志由禁止交通标志和强制性标志组成,所述禁止交通标志包括限速标志和停止标志,所述强制性标志包括方向号志;令交通号志的属性包括交通号志的类型和交通号志的状态信息,令限速标志的状态信息为其限速大小,以正整数表示,令停止标志的状态信息为0,令强制性标志的状态信息为允许车辆行驶的方向;
令所述红绿灯的状态信息为各信号灯的颜色;
2)引入测量误差,对数值类测量量分别构建各传感器的测量量模型,对非数值类测量量即探测目标类型分别构建各传感器的探测类型模型,分别描述如下:
2-1)构建各传感器的测量量模型
2-1-1)对于用目标框表征的探测目标分别构建激光雷达和摄像头测量量模型,表达式如下:
式中,角标w取lidar时代表激光雷达、取camera时代表摄像头,角标m表示激光雷达或摄像头测量的一个探测目标的测量量总个数;为激光雷达或摄像头测量量模型的输出矩阵,作为仿真环境下激光雷达或摄像头各测量量的估计值;statew为仿真环境下与激光雷达或摄像头对应的各测量量的真实值statew_g构成的矩阵,作为激光雷达或摄像头测量量模型的输入矩阵;Ew为与各测量量的真实值statew_g对应的数值误差Ew_g构成的数值误差矩阵,令各数值误差分别均为零均值且彼此独立的高斯白噪声,为激光雷达或摄像头的各测量量的方差;
2-1-2)构建车道线曲线检测模型,表达式如下:
式中,为车道线曲线检测模型确定的车道线状态矩阵,通过在仿真环境下车道线的真实状态矩阵Linestate中引入车道线数值误差矩阵ELine得到;pointr为构成车道线真实状态矩阵Linestate的第r个采样点在自车坐标下相对自车的位置,即pointr=(xLinePoint,r,yLinePoint,r);Eline_r为与pointr相对应的车道线数值误差,各车道线数值误差均分别为零均值且彼此独立的高斯白噪声,为车道线各采样点测量值的方差;
2-1-3)构建毫米波雷达测量量模型
构建极坐标系下毫米波雷达测量量模型,表达式如下:
式中,为极坐标系下毫米波雷达测量量模型的输出矩阵,作为仿真环境下用极坐标表达的毫米波雷达各测量量的估计值,包括探测目标相对于毫米波雷达径向距离的估计值径向距离变化率的估计值和方位角的估计值stateO_Radar为仿真环境下用极坐标表达的毫米波雷达各测量量真实值构成的矩阵,作为极坐标系下毫米波雷达测量量模型的输入,包括探测目标相对于毫米波雷达径向距离的真实值R、径向距离变化率的真实值RangeRate和方位角的真实值φ;EO_Radar为与毫米波雷达各测量量真实值对应的数值误差构成的数值误差矩阵,由距离误差N(0,σR)、距离测量偏差N(0,σR,Bias)、径向速度误差N(0,σRangeRate)和方位角误差N(0,σφ)组成,σR,σR,Bias,σRangeRate,σφ分别对应个测量量的方差;
将极坐标系下毫米波雷达测量量模型转换为笛卡尔坐标系下毫米波雷达测量量模型,表达式如下:
式中,为笛卡尔坐标下毫米波雷达测量量模型的输出矩阵,由方位角估计值以及笛卡尔坐标下探测目标相对于毫米波雷达的横向距离估计值纵向距离估计值横向速度估计值和纵向速度估计值组成;为极坐标系下根据毫米波雷达速度估计方法得到的探测目标相对于毫米波雷达的切向速度;
2-2)构建探测目标类别模型
对类别判别过程构造一种随机转移过程,表达式如下:
式中,C为由与探测目标的真实类型type类似的若干类型构成的常返集,各类型分别代表一种状态,NC为常返集C内的状态总数;D为由与探测目标的真实类型type较相异的若干类型构成的非常返集,各类型分别代表一种状态,ND为非常返集D内的状态总数;Ptype(step)为step步转移概率矩阵,表示经过step步后探测目标类型模型识别的探测目标类型转移到各状态的概率;Ptype(step)中的元素pij(step)表示经过step步后由状态i转移到状态j的概率;a为某一传感器判定某探测目标类型正确的概率,b是在相异类中的所有状态保留在相异类的概率;设各传感器探测目标类型模型的初始分布均为均匀分布;
3)以能包络自车上装载的所有传感器的探测范围的区域作为自车的探测区域;设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态;其中,对于以目标框表征的探测目标,按照各探测目标与自车的欧氏距离由近至远进行排序,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,自车探测区域内的其余探测目标作为可探测目标;
4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值;将各测量量估计值作为所述环境传感器模拟方法的最终结果输出。
设毫米波雷达模型中构建之一种滤波方法的状态转移方程及观测方程采用如下所示恒定速度模型:
式中,[stan,kvtan,k]T为状态向量,包括tk时刻探测目标的切向位移stan,k和切向速度的真实值;[zs,kzv,k]T为观测向量,包含tk时刻探测目标的切向位移观测值zs,k和切向速度观测值zv,k,切向位移观测值zs,k由探测目标当前时刻位置(xk,yk)和上一时刻位置(xk-1,yk-1)之间的距离dsk在切向方向的投影求得;切向速度观测值zv,k按照以下公式计算:
其中,Rk-1为探测目标上一时刻的径向距离,Δφ为探测目标tk-1时刻至tk时刻的方位角变化,Δt为tk-1时刻与tk时刻的时间差;Vtan,k为观测噪声矩阵,设为零均值的高斯白噪声,Rtan,k为其协方差矩阵,Vtan,k~N(0,Rtan,k);
3.根据权利要求1所述的环境传感器模拟方法,其特征在于,步骤3)中,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,包括以下步骤:
对于以长方体目标框表征的探测目标,确定大地坐标系下各长方体探测目标在水平面内投影的长方形的四个角点;
对于以圆柱体表征的探测目标,确定大地坐标系下各圆柱体探测目标的圆心、半径以及自车传感器安装位置与各圆柱体探测目标之间的切点;
将长方体目标框的四个顶点及圆柱体目标框的切点定义为遮挡边界点;对于自车探测区域内的任意两个探测目标,记靠近自车的探测目标为在前探测目标,记远离自车的探测目标为在后探测目标,将自车传感器安装位置与在前探测目标的各遮挡边界点相连并延伸至自车探测区域的边线形成一扇形区域,若在后探测目标的形心在该扇形区域内,则在前探测目标对当前探测目标存在遮挡,将在后探测目标视为无法探测目标;遍历自车探测区域内所有探测目标,确定其中所有无法探测目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010050822.6A CN111221334B (zh) | 2020-01-17 | 2020-01-17 | 一种用于自动驾驶汽车仿真的环境传感器模拟方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010050822.6A CN111221334B (zh) | 2020-01-17 | 2020-01-17 | 一种用于自动驾驶汽车仿真的环境传感器模拟方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111221334A CN111221334A (zh) | 2020-06-02 |
CN111221334B true CN111221334B (zh) | 2021-09-21 |
Family
ID=70806717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010050822.6A Active CN111221334B (zh) | 2020-01-17 | 2020-01-17 | 一种用于自动驾驶汽车仿真的环境传感器模拟方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111221334B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113049267A (zh) * | 2021-03-16 | 2021-06-29 | 同济大学 | 一种交通环境融合感知在环vthil传感器物理建模方法 |
CN112860575A (zh) * | 2021-03-16 | 2021-05-28 | 同济大学 | 一种交通环境融合感知在环的自动驾驶算法仿真测试方法 |
CN113033029A (zh) * | 2021-05-24 | 2021-06-25 | 湖北亿咖通科技有限公司 | 自动驾驶仿真方法、装置、电子设备及存储介质 |
CN113495562B (zh) * | 2021-06-07 | 2024-03-29 | 深圳市塞防科技有限公司 | 仿真路径生成方法、装置、设备以及计算机存储介质 |
CN113253219B (zh) * | 2021-07-05 | 2021-09-17 | 天津所托瑞安汽车科技有限公司 | 毫米波雷达的无参照物自标定方法、装置、设备和介质 |
CN116644616B (zh) * | 2023-07-25 | 2023-09-22 | 北京赛目科技股份有限公司 | 点云畸变效果还原方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101325010A (zh) * | 2008-07-25 | 2008-12-17 | 清华大学 | 基于快速控制原型的开发型汽车驾驶模拟方法 |
CN108279412A (zh) * | 2018-01-30 | 2018-07-13 | 哈尔滨工业大学 | 一种目的地约束下目标跟踪装置及方法 |
CN108681264A (zh) * | 2018-08-10 | 2018-10-19 | 成都合纵连横数字科技有限公司 | 一种智能车辆数字化仿真测试装置 |
CN109884916A (zh) * | 2019-02-26 | 2019-06-14 | 初速度(苏州)科技有限公司 | 一种自动驾驶仿真评估方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4830559B2 (ja) * | 2006-03-16 | 2011-12-07 | セイコーエプソン株式会社 | 測位装置及び測位方法 |
CN114643995A (zh) * | 2015-11-04 | 2022-06-21 | 祖克斯有限公司 | 用于自主车辆的模拟系统和方法 |
CN108958066A (zh) * | 2017-05-19 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 仿真测试方法和装置 |
CN107421566B (zh) * | 2017-08-25 | 2020-08-11 | 北京理工大学 | 一种无人车多源传感器信息仿真平台 |
KR102068473B1 (ko) * | 2018-03-30 | 2020-02-11 | (주)에스더블유엠 | 차량 시뮬레이션 방법 및 장치 |
CN108959813B (zh) * | 2018-07-26 | 2021-01-15 | 北京理工大学 | 一种智能车辆道路导航环境模型的仿真建模方法 |
-
2020
- 2020-01-17 CN CN202010050822.6A patent/CN111221334B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101325010A (zh) * | 2008-07-25 | 2008-12-17 | 清华大学 | 基于快速控制原型的开发型汽车驾驶模拟方法 |
CN108279412A (zh) * | 2018-01-30 | 2018-07-13 | 哈尔滨工业大学 | 一种目的地约束下目标跟踪装置及方法 |
CN108681264A (zh) * | 2018-08-10 | 2018-10-19 | 成都合纵连横数字科技有限公司 | 一种智能车辆数字化仿真测试装置 |
CN109884916A (zh) * | 2019-02-26 | 2019-06-14 | 初速度(苏州)科技有限公司 | 一种自动驾驶仿真评估方法及装置 |
Non-Patent Citations (1)
Title |
---|
Kalman filter-based tracking of moving objects using linear ultrasonic sensor array for road vehicles;Shengbo EbenLi 等;《Mechanical Systems and Signal Processing》;20180131;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111221334A (zh) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111221334B (zh) | 一种用于自动驾驶汽车仿真的环境传感器模拟方法 | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
CN102248947B (zh) | 使用3-d激光测距仪的目标和车辆检测及跟踪 | |
CN111626217A (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
Lee et al. | Moving object detection and tracking based on interaction of static obstacle map and geometric model-free approachfor urban autonomous driving | |
CN111797734A (zh) | 车辆点云数据处理方法、装置、设备和存储介质 | |
CN104833370A (zh) | 用于映射、定位和位姿校正的系统和方法 | |
Zhou et al. | Automatic construction of lane-level hd maps for urban scenes | |
US20220137227A1 (en) | Point cloud segmentation using a coherent lidar for autonomous vehicle applications | |
CN108106627A (zh) | 一种基于特征点在线动态标定的单目视觉车辆定位方法 | |
CN114485698B (zh) | 一种交叉路口引导线生成方法及系统 | |
WO2023065342A1 (zh) | 车辆及其定位方法、装置、设备、计算机可读存储介质 | |
WO2024012211A1 (zh) | 自动驾驶环境感知方法、介质及车辆 | |
CN111880191A (zh) | 基于多智能体激光雷达和视觉信息融合的地图生成方法 | |
US11270164B1 (en) | Vehicle neural network | |
CN114821526A (zh) | 基于4d毫米波雷达点云的障碍物三维边框检测方法 | |
CN114118247A (zh) | 一种基于多传感器融合的无锚框3d目标检测方法 | |
CN115808685A (zh) | 一种基于相机与毫米波雷达融合的3d目标检测方法 | |
CN114430843A (zh) | 语义辅助的多分辨率点云配准 | |
WO2023114037A1 (en) | Lidar point cloud alignment validator in hd mapping | |
US20230072966A1 (en) | Systems and methods for providing and using confidence estimations for semantic labeling | |
CN115496782A (zh) | Lidar对lidar对准和lidar对车辆对准的在线验证 | |
CN114924286A (zh) | 路面物体高度检测方法、装置、电子设备及介质 | |
CN113850915A (zh) | 一种基于Autoware的车辆循迹方法 | |
Lai et al. | Sensor fusion of camera and MMW radar based on machine learning for vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |