CN117508189A - 用于检测交通对象的系统和方法 - Google Patents
用于检测交通对象的系统和方法 Download PDFInfo
- Publication number
- CN117508189A CN117508189A CN202310114010.7A CN202310114010A CN117508189A CN 117508189 A CN117508189 A CN 117508189A CN 202310114010 A CN202310114010 A CN 202310114010A CN 117508189 A CN117508189 A CN 117508189A
- Authority
- CN
- China
- Prior art keywords
- static object
- vehicle
- static
- predicted
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000003068 static effect Effects 0.000 claims abstract description 154
- 238000005259 measurement Methods 0.000 claims abstract description 73
- 239000013598 vector Substances 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims description 76
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 17
- 230000000644 propagated effect Effects 0.000 claims description 7
- 230000001902 propagating effect Effects 0.000 claims description 6
- 230000001276 controlling effect Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000000357 thermal conductivity detection Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
提供了用于控制车辆的系统和方法。所述系统和方法从所述车辆的至少一个相机接收图像数据;使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;从所述车辆的传感器系统接收测量值的输入向量;使用合并了所述车辆的运动模型的无迹卡尔曼滤波器(UKF),并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;并且基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
Description
技术领域
本公开总体上涉及用于检测静态对象的车辆、系统和方法。
背景技术
自主和半自主车辆能够感测其环境并基于感测的环境进行导航。这种车辆使用诸如雷达、激光雷达、图像传感器等的感测设备来感测其环境。车辆系统还使用来自全球定位系统(GPS)技术、导航系统、车对车通信、车对基础设施技术和/或线控驱动系统的信息,来为车辆导航。
车辆自动化已被分为数字等级,范围从零(对应于完全人为控制的无自动化)到五(对应于没有人为控制的完全自动化)。各种自动驾驶员辅助系统(诸如巡航控制、自适应巡航控制和停车辅助系统)对应于较低的自动化等级,而真正的“无人驾驶”车辆对应于较高的自动化等级。
一些自动化车辆系统包括感知系统,该感知系统包括检测静态交通对象(如交通控制设备(TCD,Traffic Control Device))的能力。确定和预测静态交通对象的准确三维位置,改善了对静态对象的状态检测和跟踪。此外,处理高效、快速收敛且可基于相机模态操作的检测是期望的。
因此,期望提供在实现位置准确的检测的同时以提高的计算效率检测静态交通对象的系统和方法。还期望以收敛到静态交通对象的位置并且可使用光学相机检测进行操作的方式执行这种检测。此外,结合附图和前述技术领域和背景技术,根据随后的详细描述和所附的权利要求,本发明的其他期望的特征和特性将变得显而易见。
发明内容
在一个方面中,提供了一种控制车辆的方法。所述方法包括:经由至少一个处理器,从所述车辆的至少一个相机接收图像数据;经由所述至少一个处理器,使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;经由所述至少一个处理器,从所述车辆的传感器系统接收测量值的输入向量;经由所述至少一个处理器,使用合并了所述车辆的运动模型的无迹卡尔曼滤波器(UKF),并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;以及经由所述至少一个处理器,基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
在实施例中,基于一组西格玛点初始化所述UKF,所述一组西格玛点是使用所述静态对象在所述图像平面中的所述2D测量位置的第一检测、以及范围先验而生成的。
在实施例中,所述范围先验包括所述静态对象相对于所述车辆的第一3D位置的平均范围值。
在实施例中,所述范围先验是基于以下内容确定的:所述静态对象最初被检测到的平均范围、基于从对所述静态对象的所述2D测量位置的检测中提供的边界框的大小对所述静态对象的平均范围的估计、与相同种类的其他被跟踪静态对象和所述静态对象的所述2D测量位置的区域的关联、或使用3D感知模态对所述静态对象的检测。
在实施例中,所述方法包括:使用所述静态对象在所述图像平面中的所述2D测量位置的新的检测、以及使用所述UKF对所述静态对象的所述3D位置的先验预测,递归地更新所述静态对象的所述预测3D位置。
在实施例中,所述静态对象是交通控制设备(TCD)。
在实施例中,使用所述UKF预测所述静态对象的所述3D位置包括预测步骤和更新步骤,其中,所述预测步骤执行以下操作:构建预测西格玛点矩阵,通过所述运动模型传播所述预测西格玛点矩阵,以获得传播西格玛点,使用所述传播西格玛点确定所述静态对象的估计3D位置,使用所述传播西格玛点估计传播估计误差协方差,并且其中,所述更新步骤执行以下操作:使用所述静态对象的所述估计3D位置、以及所述传播估计误差协方差,来构建更新西格玛点矩阵,通过测量模型传播所述更新西格玛点矩阵,以获得代表所述静态对象在所述相机的所述图像平面中的预测2D测量位置的测量西格玛点矩阵,使用所述测量西格玛点矩阵与所述静态对象在所述相机的所述图像平面中的所述2D测量位置之间的差异,来确定所述静态对象的更新3D位置。
在实施例中,向所述TCD分配车道,并且当所述TCD被分配了与所述车辆的车道相同的车道时,控制所述至少一个车辆特征对所述TCD的状态做出响应。
在实施例中,所述输入向量包括所述车辆的角速度的值和所述车辆的线速度的值。
在实施例中,所述UKF使用所述运动模型和测量模型来预测所述静态对象在所述图像平面中的预测2D位置,并且基于所述静态对象的所述预测2D位置与所述静态对象的所述2D测量位置之间的差异,预测所述静态对象的所述预测3D位置。
在另一方面中,提供了一种用于控制车辆的系统。所述系统包括:至少一个相机;传感器系统;至少一个处理器,其与所述传感器系统和所述至少一个相机进行可操作的通信,其中,所述至少一个处理器被配置为执行程序指令,其中,所述程序指令被配置为使所述至少一个处理器进行以下操作:从所述车辆的所述至少一个相机接收图像数据;使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;从所述车辆的传感器系统接收测量值的输入向量;使用合并了所述车辆的运动模型的无迹卡尔曼滤波器(UKF),并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;以及基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
在实施例中,所述程序指令被配置为使所述至少一个处理器进行以下操作:基于一组西格玛点初始化所述UKF,所述一组西格玛点是使用所述静态对象在所述图像平面中的所述2D测量位置的第一检测、以及范围先验而生成的。
在实施例中,所述范围先验包括所述静态对象相对于所述车辆的第一3D位置的平均范围值。
在实施例中,所述范围先验是基于以下内容确定的:所述静态对象最初被检测到的平均范围、基于从对所述静态对象的所述2D测量位置的检测中提供的边界框的大小对所述静态对象的平均范围的估计、与相同种类的其他被跟踪静态对象和所述静态对象的所述2D测量位置的区域的关联、或使用3D感知模态对所述静态对象的检测。
在实施例中,所述程序指令被配置为使所述至少一个处理器进行以下操作:使用所述静态对象在所述图像平面中的所述2D测量位置的新的检测、以及使用所述UKF对所述静态对象的所述3D位置的先验预测,递归地更新所述静态对象的所述预测3D位置。
在实施例中,所述静态对象是交通控制设备(TCD)。
在实施例中,所述程序指令被配置为使所述至少一个处理器进行以下操作:使用所述UKF利用预测步骤和更新步骤,来预测所述静态对象的所述3D位置,其中,所述预测步骤执行以下操作:构建预测西格玛点矩阵,通过所述运动模型传播所述预测西格玛点矩阵,以获得传播西格玛点,使用所述传播西格玛点确定所述静态对象的估计3D位置,使用所述传播西格玛点估计传播估计误差协方差,并且其中,所述更新步骤执行以下操作:使用所述静态对象的所述估计3D位置、以及所述传播估计误差协方差,来构建更新西格玛点矩阵,通过测量模型传播所述更新西格玛点矩阵,以获得代表所述静态对象在所述相机的所述图像平面中的预测2D测量位置的测量西格玛点矩阵,以及使用所述测量西格玛点矩阵与所述静态对象在所述相机的所述图像平面中的所述2D测量位置之间的差异,来确定所述静态对象的更新3D位置。
在实施例中,所述程序指令被配置为使所述至少一个处理器进行以下操作:向所述TCD分配车道,其中,当所述TCD被分配了与所述车辆的车道相同的车道时,控制所述至少一个车辆特征对所述TCD的状态做出响应。
在另一方面中,提供了一种车辆。所述车辆包括:至少一个相机;传感器系统;至少一个处理器,其与所述传感器系统和所述至少一个相机进行可操作的通信,其中,所述至少一个处理器被配置为执行程序指令,其中,所述程序指令被配置为使所述至少一个处理器进行以下操作:从所述车辆的所述至少一个相机接收图像数据;使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;从所述车辆的传感器系统接收测量值的输入向量;使用合并了所述车辆的运动模型的无迹卡尔曼滤波器(UKF),并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;以及基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
在实施例中,所述程序指令被配置为使所述至少一个处理器进行以下操作:基于一组西格玛点初始化所述UKF,所述一组西格玛点是使用所述静态对象在所述图像平面中的所述2D测量位置的第一检测、以及范围先验而生成的。
在实施例中,所述范围先验包括所述静态对象相对于所述车辆的第一3D位置的平均范围值。
附图说明
在下文中将结合以下附图描述示例性实施例,其中相同的数字表示相同的元件,并且其中:
图1是示出根据各种实施例的利用静态对象检测系统的自主或半自主车辆系统的功能框图;
图2是示出根据各种实施例的包括静态对象检测系统的自主驾驶系统的数据流图;
图3是示出根据各种实施例的包括无迹卡尔曼滤波器(UKF,UnscentedKalmanFilter)和初始化模块的静态对象检测系统的功能块的系统图;
图4是示意性地表示根据各种实施例的图3的UKF的过程的数据流图;
图5是示意性地表示根据各种实施例的初始化模块的过程的数据流图;
图6是示出根据各种实施例的检测静态对象的算法过程的方法步骤的流程图。
具体实施方式
以下详细描述本质上仅是示例性的,而且并不旨在限制应用和使用。此外,并不旨在受到在前述技术领域、背景技术、发明内容或以下详细描述中提出的任何明示或暗示理论的约束。如本文所用,术语模块是指单独或任何组合方式的任何硬件、软件、固件、电子控制部件、处理逻辑和/或处理器设备,包括但不限于:专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或成组)和存储器、组合逻辑电路和/或提供所描述的功能的其他合适部件。
在本文中可以根据功能和/或逻辑块部件以及各种处理步骤来描述本公开的实施例。应当理解,可以通过被配置为执行指定功能的任意数量的硬件、软件和/或固件部件来实现这样的块部件。例如,本公开的实施例可以采用各种集成电路部件,例如,存储器元件、数字信号处理元件、逻辑元件、查找表等,这些集成电路部件可以在一个或多个微处理器或其他控制设备的控制下执行各种功能。另外,本领域技术人员将理解,可以结合任意数量的系统来实践本公开的实施例,并且在本文中描述的系统仅是本公开的示例性实施例。
为简洁起见,在本文中,可以不对与信号处理、数据传输、信令、控制和系统(以及系统的各个操作部件)的其他功能方面相关的常规技术进行详细描述。此外,在本文中包含的各种图中所示的连接线旨在表示各种元件之间的示例功能关系和/或物理联接。应当注意,在本公开的实施例中可以存在许多替代的或附加的功能关系或物理连接。
本文描述的系统和方法提供了使用从具有有界运动不确定性的车辆中获取的受扰2D检测值的对静态对象的稳健3D位置估计。所提出的系统和方法使用无迹卡尔曼滤波器(UKF),并随着时间融合来自多个传感器的测量值,来估计静态对象的3D位置。像素坐标中的受扰相机检测随着时间与受扰平台运动测量值相融合,以产生静态对象位置的3D估计。将测量值和对象状态二者视为2D和3D的空间高斯分布,能够在明确考虑到测量噪声的同时,对对象位置进行稳健估计。先验知识和稀疏范围测量值(来自激光雷达或雷达)也可以并入UKF架构,但不是必需的。
本文描述的系统和方法提供了使用UKF根据2D检测值和可选的3D检测值的高效的单3D点估计。数学公式支持来自多个相机和其他感测模态(雷达/激光雷达)的多传感器融合。算法过程明确地考虑了对象测量和自我平台运动测量输入二者中的噪声。本公开加强了严格考虑到目标参数和检测值二者中的不确定性的测量关联。系统和方法为估计的目标参数提供了不确定性界限。
参照图1,根据各种实施例,总体上以100所示的车辆系统与车辆10相关联。一般来说,车辆系统100包括静态对象检测系统200,静态对象检测系统200被配置为使用无迹卡尔曼滤波器202(图3)预测静态交通对象的位置,无迹卡尔曼滤波器202基于由UKF的测量模型提供的、对静态交通对象在相机图像平面的2D坐标中的位置的估计与静态交通对象在相机图像平面中的测量/检测位置之间的差异,递归地预测静态交通对象在相对于车辆的3D坐标中的位置。
如图1所描述的,车辆10一般包括底盘12、车身14、前轮16和后轮18。车身14被布置在底盘12上,并基本上包围车辆10的部件。车身14和底盘12可以共同形成框架。车轮16-18各自在车身14的相应角部附近可旋转地联接到底盘12。
在一些实施例中,车辆10是自主车辆,并且静态对象检测系统200被并入自主车辆10(以下称为自主车辆10)中。本描述集中于自主车辆应用中的示例性应用。然而,应该理解的是,本文描述的静态对象检测系统200被设想为在半自主机动车辆中使用。
自主车辆10例如是被自动控制以将乘客从一个地点运送到另一个地点的车辆。在所示的实施例中,车辆10被描绘为乘用车,但应该理解的是,也可以使用任何其他交通工具,包括摩托车、卡车、运动型多用途车(SUV)、休闲车(RV)、船舶、飞机等。在示例性实施例中,自主车辆10是所谓的四级或五级自动化系统。四级系统表示“高度自动化”,指的是即使人类驾驶员没有对干预请求作出适当的响应,也由自动驾驶系统对动态驾驶任务的所有方面的特定驾驶模式性能。五级系统表示“完全自动化”,指的是在人类驾驶员可以管理的所有道路和环境条件下,自动驾驶系统对动态驾驶任务的所有方面的全时性能。
如图所示,自主车辆10一般包括推进系统20、传动系统22、转向系统24、制动系统26、传感器系统28、致动器系统30、至少一个数据存储设备32、至少一个控制器34和通信系统36。在各种实施例中,推进系统20可以包括内燃机,诸如牵引电动机的电机和/或燃料电池推进系统。传动系统22被配置为根据可选择的速度比将动力从推进系统20传递到车轮16-18。根据各种实施例,传动系统22可以包括步进比自动变速器、无极变速器或其他适当的变速器。制动系统26被配置为向车轮16-18提供制动扭矩。在各种实施例中,制动系统26可以包括摩擦制动、线控制动、诸如电机的再生制动系统和/或其他适当的制动系统。转向系统24影响车轮16-18的位置。虽然出于说明的目的被描绘为包括方向盘,但在本公开范围内设想的一些实施例中,转向系统24可以不包括方向盘。
传感器系统28包括感测自主车辆10的外部环境和/或内部环境的可观测条件的一个或多个感测设备40a-40n。感测设备40a-40n可以包括但不限于雷达、激光雷达、全球定位系统、光学相机140a-140n、热成像相机、超声波传感器和/或其他传感器。光学相机140a-140n安装在车辆10上,并被布置用于捕获车辆10周围环境的图像(例如,视频形式的图像序列)。在所示的实施例中,布置有两个前置相机140a、140b,用于分别对广角近视场和窄角远视场进行成像。还示出了左侧相机140c、右侧相机140e和后置相机140d。各种相机140a-140n的数量和位置只是示例性的,并且可以设想其他布置。
传感器系统28包括以下传感器中的一个或多个,这些传感器提供由并入UKF 202的运动模型206使用的测量数据的输入向量204(图3)。传感器系统28可以包括转向角传感器(SAS)、轮速传感器(WSS)、惯性测量单元(IMU)、全球定位系统(GPS)、发动机传感器以及油门和/或制动传感器。传感器系统28提供输入向量204中的平移速度和角速度的测量。
致动器系统30包括控制一个或多个车辆特征(诸如但不限于,推进系统20、传动系统22、转向系统24和制动系统26)的一个或多个致动器设备42a-42n。在各种实施例中,车辆特征还可以包括内部和/或外部车辆特征,诸如但不限于门、后备箱、以及车厢特征(诸如空气、音乐、照明等)(未编号)。
数据存储设备32存储在自动控制自主车辆10时使用的数据。在各种实施例中,数据存储设备32存储可导航环境的定义地图。可以理解的是,数据存储设备32可以是控制器34的一部分、与控制器34分开、或者是控制器34的一部分和单独系统的一部分。
控制器34包括至少一个处理器44和计算机可读存储设备或介质46。处理器44可以是任何定制或市售的处理器、中央处理单元(CPU)、图形处理单元(GPU)、与控制器34相关联的几个处理器中的辅助处理器、基于半导体的微处理器(以微芯片或芯片组的形式)、宏处理器、其任何组合、或通常用于执行指令的任何设备。例如,计算机可读存储设备或介质46可以包括只读存储器(ROM)、随机存取存储器(RAM)和不失效存储器(KAM)中的易失性和非易失性存储。KAM是持久性或非易失性存储器,可用于在处理器44断电时存储各种操作变量。计算机可读存储设备或介质46可以使用许多已知的存储器设备中的任何一种来实现,诸如PROM(可编程只读存储器)、EPROM(电PROM)、EEPROM(电可擦除PROM)、闪存或能够存储数据的任何其他电、磁、光或组合存储器设备,其中一些数据表示由控制器34在控制自主车辆10时使用的可执行指令。
指令可以包括一个或多个单独的程序,其中每个程序包括用于实现逻辑功能的可执行指令的有序列表。指令在由处理器44执行时,接收和处理来自传感器系统28的信号,执行用于自动控制自主车辆10的部件的逻辑、计算、方法和/或算法,并且基于逻辑、计算、方法和/或算法生成用于致动器系统30自动控制自主车辆10的部件的控制信号。尽管在图1中仅示出了一个控制器34,但自主车辆10的实施例可以包括任何数量的控制器34,这些控制器34通过任何合适的通信介质或通信介质的组合进行通信,并协作以处理传感器信号,执行逻辑、计算、方法和/或算法,并生成用于自动控制自主车辆10的特征的控制信号。
在各种实施例中,控制器34的一个或多个指令体现在静态对象检测系统200中,并且在由处理器44执行时,被配置为实现本文中描述的用于使用静态交通对象的2D检测作为对UKF 202的输入来检测静态交通对象的3D位置的方法和系统。
通信系统36被配置为与其他实体48无线通信信息,诸如但不限于其他车辆(“V2V”通信)、基础设施(“V2I”通信)、远程系统和/或个人设备。在示例性实施例中,通信系统36是无线通信系统,其被配置为经由使用IEEE802.11标准的无线局域网(WLAN)或通过使用蜂窝数据通信来进行通信。然而,附加的或替代的通信方法,诸如专用短程通信(DSRC)信道也被考虑在本公开的范围内。DSRC信道是指专门为汽车使用而设计的单向或双向短程至中程无线通信信道,以及相应的一组协议和标准。
可以理解的是,本文公开的主题为可被视为标准或基线自主车辆10的事物提供了某些增强的特征和功能。为此,自主车辆可以被修改、增强或以其他方式补充,以提供下面更详细描述的附加特征。本文描述的关于静态对象检测系统200的主题不仅适用于自主驾驶应用,而且还适用于具有利用自动交通对象检测(特别是利用静态交通对象的位置来控制车辆10的自动化特征)的一个或多个自动化特征的其他驾驶系统。
根据示例性自主驾驶应用,如图2所示,控制器34实现自主驾驶系统(ADS)70。也就是说,控制器34的合适的软件和/或硬件部件(例如,处理器44和计算机可读存储设备46)被用来提供与车辆10结合使用的自主驾驶系统70。
在各种实施例中,自主驾驶系统70的指令可以按功能、模块或系统来组织。例如,如图2所示,自主驾驶系统70可以包括计算机视觉系统74、定位系统76、引导系统78、以及车辆控制系统80。可以理解的是,在各种实施例中,指令可以被组织成任何数量的系统(例如,组合、进一步划分等),因为本公开不限于本示例。
在各种实施例中,计算机视觉系统74合成和处理传感器数据,并预测车辆10的环境的对象和特征的存在、位置、分类和/或路径。在各种实施例中,计算机视觉系统74可以合并来自多个传感器的信息,包括但不限于相机、激光雷达、雷达和/或任何数量的其他类型的传感器。计算机视觉系统74包括对象检测模块210(图3)和静态对象检测系统200。
定位系统76处理传感器数据以及其他数据以确定车辆10相对于环境的位置(例如,相对于地图的本地位置、相对于道路的车道的确切位置、车辆航向、速度等)。引导系统78处理传感器数据和其他数据,以确定车辆10要遵循的路径。车辆控制系统80生成控制信号以根据确定的路径控制车辆10。定位系统76在确定车辆10的位置时可以处理各种类型的定位数据,包括惯性测量单元数据、全球定位系统(GPS)数据、实时运动学(RTK)校正数据、蜂窝和其他无线数据(例如,4G、5G、V2X等)等。
在各种实施例中,控制器34实现机器学习技术以协助控制器34的功能,诸如特征检测/分类、障碍物缓解、路线遍历、地图绘制(mapping)、传感器集成、地面实况确定等。一种这样的机器学习技术执行交通对象检测,从而识别、定位交通对象,并可选地确定状态,以便由引导系统78进一步处理。机器学习技术可以由DCNN实现。例如,TCD 208(图3),例如交通灯,可以被识别和定位,并确定灯的状态。二维(2D)的特征检测和分类可以由对象检测模块210(图3)执行。静态特征的3D位置可以由UKF 202根据对象检测模块210提供的2D位置检测和分类来推断。根据交通灯的状态(例如,红灯停或绿灯行),引导系统78和车辆控制系统80共同操作,以确定在交通灯下是停还是走。TCD和其他静态交通对象的3D位置支持定位系统76对车辆10的定位,诸如车辆10和TCD 208的车道对齐。
如以上简述,图1(以及图2和图3)的静态对象检测系统200包括在自主驾驶应用中的ADS 70内,例如与计算机视觉系统74、定位系统76、引导系统78和车辆控制系统80进行可操作的通信。静态对象检测系统200被配置为预测静态交通对象的3D位置,并且车辆控制系统80对此做出响应,以生成自动控制命令。车辆控制系统80与致动器系统30一起工作以遍历这样的轨迹。
参照图3,并继续参照图1和图2,根据示例性实施例进一步示出了静态对象检测系统200。静态对象检测系统200包括由前面描述的编程指令执行的功能模块。静态对象检测系统200包括相机140或多个这样的相机140、一个或多个其他感知模态212(例如,雷达、激光雷达和/或超声波)、对象检测模块210、初始化模块220和UKF 202。相机140提供多帧的图像数据214,图像数据214是2D的并且包括诸如TCD 208的静态交通对象的图像。对象检测模块210处理图像数据214,以检测和分类图像数据214中的对象。
对象检测模块210可以包括预测边界框和边界框的类别概率的卷积神经网络(或其他种类的机器学习算法)。可以在标记的图像上训练机器学习算法。边界框代表在图像数据214的每个图像中发现的对象的大小和位置。对象检测模块210还可以输出每个边界框的方差(或空间置信度分数),该方差反映了对边界框的预测被确定为具有的空间准确程度。在一个实施例中,每个边界框包括五个预测值:u、v、w、h和置信度/方差。(u,v)坐标代表相对于网格单元边界的框的中心。相对于整个图像预测宽度和高度。边界框还与条件类别概率相关联。对象检测模块210为被分类为静态交通对象的每个边界框提供2D位置测量218(u,v)。也就是说,例如通过与预定的目标列表进行对照(这些目标可与静态对象检测系统200的进一步处理一起工作),可以关于是静态还是移动而对分类进行分析,并针对被验证为列表中的静态对象的那些分类对象输出2D位置测量218。在下面的示例性实施例中,假设检测到单个TCD 208。然而,可以检测到其他静态交通对象(如道路标志),并且可以处理多个检测。静态交通对象可以是在2D位置(u,v)的中心周围的对称对象,诸如交通灯泡的圆圈。2D位置测量可以代表相机140的图像平面中的2D像素位置。
在示例性实施例中,2D位置测量218被提供给初始化模块220和UKF202。UKF 202接收2D位置测量和来自传感器系统28的输入向量。输入向量204包括车辆10的运动参数(例如,平移速度和角速度)的测量,这些参数被包括在UKF 202中的运动模型206使用。UKF 202包括预测阶段和更新阶段。在预测阶段,构建一组西格玛点,这些西格玛点是确定性地选择的、捕获了先前状态及其协方差的样本点。这种情况下的状态是静态交通对象的3D位置。西格玛点通过运动模型206传播,以产生通过由运动模型206定义的无迹变换而变换的西格玛点的预测集,运动模型206被输入了来自传感器系统28的输入向量204。西格玛点的预测集被重新组合以提供预测状态和相关协方差。在更新阶段,UKF 202根据预测状态和协方差构建另一组西格玛点,这些西格玛点通过测量模型418(图4)传播,测量模型418将静态交通对象的2D位置与静态交通对象的3D位置相关联,以产生西格玛点的预测2D状态测量集,这些西格玛点被重新组合以产生预测2D状态测量和相关协方差。基于预测2D状态测量与2D位置测量218之间的差异,产生更新3D状态。还计算更新协方差。更新状态和相关协方差被反馈到UKF 202的预测阶段的起点,使得基于新的(最近的)输入向量204和2D位置测量218执行递归预测和更新,以便收敛于静态交通对象的精确3D位置。更新状态对应于预测3D位置224。将参照图4进一步描述UKF 202。
预测3D位置224被提供给车辆控制系统80,以控制一个或多个自动车辆特征,这些特征使用静态交通对象的3D位置作为输入。例如,与TCD 208的车道对齐依赖于知道TCD208的3D位置。此外,通过3D位置信息来辅助对静态交通对象的跟踪,该跟踪对于路径规划是有用的。3D位置信息还可以支持对象检测模块210对图像数据214中的静态交通对象的更有效的定位。
为了开始UKF 202的循环过程,通过对初始静态交通对象检测的合理状态估计来初始化UKF 202。为此,用于初始检测的2D位置测量218被增加了范围信息。以此方式,从对象检测模块210的新的2D检测中初始化新的3D目标。为此,从以下来源中的一个或多个获得关于静态交通对象的范围的先验。
(i)静态交通对象最初被对象检测模块210以相对大(例如50米)的方差检测到的平均范围;
(ii)2D的边界框的大小和关于给定分类的交通对象的大小的已知信息,外加框尺寸估计误差,这使得能够估计出范围;
(iii)与检测区域中跟踪的交通对象的关联,其中,跟踪的交通对象与范围信息相关联,并且检测中的邻近的新交通对象被假设处于类似的范围;和
(iv)可从感知数据216(其为3D感知数据)获得的范围信息,当在感知数据216和图像数据214二者中检测到并关联交通对象时,由其他感知模态212提供感知数据216。
2D位置测量218被增加了静态交通对象的新检测的范围信息,并且该信息被转换为3D位置估计和协方差,其可以被转换为用于UKF 202的初始化的初始西格玛点,如将在下面关于图4进一步描述。
参照图4,将根据示例性实施例进一步详细描述UKF 202的算法过程400。算法过程400由包括预测子模块408、更新子模块416和第一西格玛点构建子模块412的模块实现。预测子模块408包括运动模型206。运动模型206可以由以下函数描述:
xk=f(xk-1,uk-1,wk-1) (1)
xk代表当前时间k的状态。运动模型的状态是静态交通对象在车辆10的3D笛卡尔自我坐标中的3D位置。xk-1代表先前时间步的状态,uk-1代表先前时间步的输入向量204,w代表先前时间步的过程噪声。状态x、输入u和过程噪声w具有如下的分布N。
过程噪声w是方差为Q的零平均高斯噪声。P和U也代表方差。示例性的运动模型可以是如下形式:
在等式3中,代表车辆10的角速度,/>代表车辆10的平移速度。输入向量204提供车辆10的角速度和平移速度的值。
继续参照图4,第一西格玛点构建子模块412生成被发送到预测子模块408以通过运动模型206传播的先验西格玛点402。对于初始检测,先验西格玛点是根据初始化过程基于静态交通对象的初始化3D位置和相关的初始化方差生成的,该初始化过程已在上文描述并将参照图5进一步描述。对于随后的检测,先验西格玛点402是通过预测阶段和更新阶段基于来自最近迭代的状态和协方差预测生成的,预测阶段和更新阶段分别由预测子模块408和更新子模块416进行。先验西格玛点402是由第一西格玛点构建子模块412根据以下等式构建的:
等式5代表增强的西格玛点矩阵,其体现在图4中的先验西格玛点402中。根据以下等式,增强的西格玛点矩阵通过运动模型206传播:
以便预测状态:
以及相关的估计误差协方差:
结合并参照图4,等式(7)和(8)分别提供了预测3D状态413和预测协方差414,它们共同形成了从预测子模块408输出的预测3D状态和预测协方差410。等式(6)和(7)基于填入运动模型206的输入向量204、以及当使用运动模型206估计车辆10相对于静态交通对象的运动时对静态交通对象的3D位置在下一时间步的演变的估计,对静态交通对象的3D位置进行预测。
在一些实施例中,第一西格玛点构建子模块412接收预测3D状态和预测协方差410,并使用预测状态和协方差生成一组西格玛点。在一个实施例中,根据以下等式生成测量西格玛点矩阵。
测量西格玛点通过测量模型418传播。测量模型418根据函数h将静态对象在图像平面中的2D位置(Z-图像坐标)和静态对象相对于车辆10的3D位置(X)相关联:
Z=h(X) (10)
更新子模块416根据以下等式预测测量统计和卡尔曼增益(K)。
K=PxzS-1 (14)
等式11代表测量西格玛点的加权组合,其对应于图4中的预测2D状态测量420。等式12代表(已通过测量模型418传播的)测量西格玛点的协方差,并且对应于图4中的测量协方差422。等式13代表3D状态与2D西格玛点之间的差异的互相关。等式14代表卡尔曼增益。使用上述计算值,更新子模块416如下确定更新状态和协方差:
Pk+1|k+1=Pk+1|k-KSKT (16)
等式15和16提供了对下一时间步中的状态和协方差的预测。如此计算的预测状态和协方差由更新子模块416输出,作为更新3D状态和更新协方差424。等式15代表基于来自对象检测模块310的2D状态测量218(z)与预测2D状态测量420之间的差异而调整的当前预测的3D状态。卡尔曼增益K代表预测相对于测量的可靠性。更新3D状态和更新协方差424被发送到第一西格玛点构建子模块412,以转换为一组西格玛点作为先验西格玛点402,用于UKF算法过程400的进一步迭代。
参照图5,示出了由初始化模块220执行的示例性初始化过程500。如前所述,初始化过程500将2D位置测量218与范围先验516组合。2D位置测量用于对象检测模块310对静态交通对象的第一检测。组合信息由生成一组初始西格玛点222的第二西格玛点构建子模块502接收。假设范围先验516被设置为平均值和方差/>初始化过程500使用西格玛点近似法将检测向量(包括2D位置测量218和范围先验516)传播到3D空间。第二西格玛点构建子模块502根据检测向量生成初始西格玛点222(Z),如下所示:
其中za是检测向量za=[u v r],并且
集合Z={zi}由变换子模块504通过以下等式传播,以获得变换的西格玛点514,这些西格玛点514代表集合Z在相机坐标中的3D位置。
其中K是针孔相机的固有参数矩阵:
而是从自我坐标变换到相机坐标的齐次变换矩阵:
由变换子模块504生成的变换的西格玛点514被提供给初始化状态和协方差计算子模块506。初始化状态和协方差计算子模块506提供传播的平均值和协方差的估计,并输出初始化3D状态和初始化协方差517,这些可以被第一西格玛点构建子模块412用于生成图4中的先验西格玛点402以开始UKF算法过程400。如下确定初始化3D状态和初始化协方差517:
其中L是的尺寸,/>并且λ=α2(L+k)-L。α参数确定初始化西格玛点在周围的扩散,并且通常被设置为小的正值。k通常被设置为0。/>和/>代表求和权重。等式22将变换的西格玛点组合,以提供静态交通对象的平均3D位置,并且等式23提供变换的西格玛点在平均值周围的分布方差的测量。
现在参照图6,并继续参照图1至图5,流程图示出了根据本公开的能够由图3的静态对象检测系统执行的静态交通对象检测的方法600。根据本公开可以理解,该方法内的操作顺序不限于如图6所示的顺序执行,而是可以在适用时并根据本公开以一个或多个不同的顺序执行。在各种实施例中,方法600可以被调度为基于一个或多个预定的事件运行,并且/或者可以在自主车辆10的操作期间连续运行。预定的事件可以是对象检测模块310对静态对象的第一检测。
在610,由对象检测模块310检测静态交通对象。对象检测模块310可以使用训练后的神经网络来对所提供的图像数据214中的特征进行分类和定位,并输出分类和2D位置测量218。UKF 202为被分类为静态交通对象(诸如TCD 208)的对象提供至少一个2D位置测量。在620,如果步骤610的静态交通对象是初始检测(例如,先前未关联/未跟踪的交通对象),则UKF 202被初始化。通过将2D位置测量218与范围先验相结合,并在此基础上产生一组初始化西格玛点,来初始化UKF。一组初始西格玛点222通过相机模型变换到3D空间。变换的西格玛点被重新组合,以提供静态交通对象的初始化3D状态(位置)和初始化协方差。
在步骤630,2D位置测量218和输入向量204被UKF 202接收。在预测阶段(步骤640),使用来自UKF先验迭代的预测3D状态和相关协方差或使用来自步骤620的初始化3D状态和相关协方差,来构建先验西格玛点402。先验西格玛点402通过运动模型206传播,该运动模型206由输入向量204填入,以产生预测3D状态和预测协方差410。在更新阶段(步骤650),基于预测3D状态和预测协方差410构建更新西格玛点和协方差,该预测3D状态和预测协方差410通过测量模型418传播,以提供预测2D状态测量420和测量协方差422。2D位置测量218与预测2D状态测量之间的差异被用来更新3D状态预测,使得提供更新3D状态和更新协方差424,这可以作为UKF202的进一步迭代的基础。UKF 202输出已经通过UKF 202的迭代而收敛的预测3D位置224。预测3D位置224在步骤660中被用来控制自动化车辆特征。该车辆特征可以是转向、推进和/或制动。也就是说,可以使用静态交通对象的预测3D位置作为用于引导车辆10的运动控制的参考位置,来确定车辆10的路径。
尽管在前述详细描述中已经提出了至少一个示例性实施例,但是应当理解,存在大量的变型。还应当理解,示例性实施例或多个示例性实施例仅是示例,并且不旨在以任何方式限制本公开的范围、适用性或配置。相反,前述详细描述将为本领域技术人员提供用于实现示例性实施例或多个示例性实施例的便利路线图。应当理解,在不脱离如所附权利要求及其合法等同物中阐述的本公开的范围的情况下,可以在元件的功能和布置中进行各种改变。
Claims (10)
1.一种控制车辆的方法,所述方法包括:
经由至少一个处理器,从所述车辆的至少一个相机接收图像数据;
经由所述至少一个处理器,使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;
经由所述至少一个处理器,从所述车辆的传感器系统接收测量值的输入向量;
经由所述至少一个处理器,使用合并了所述车辆的运动模型的无迹卡尔曼滤波器UKF,并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;
经由所述至少一个处理器,基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
2.根据权利要求1所述的方法,其中,基于一组西格玛点初始化所述UKF,所述一组西格玛点是使用所述静态对象在所述图像平面中的所述2D测量位置的第一检测、以及范围先验而生成的。
3.根据权利要求2所述的方法,其中,所述范围先验包括所述静态对象相对于所述车辆的第一3D位置的平均范围值。
4.根据权利要求2所述的方法,其中,所述范围先验是基于以下内容确定的:所述静态对象最初被检测到的平均范围、基于从对所述静态对象的所述2D测量位置的检测中提供的边界框的大小对所述静态对象的平均范围的估计、与相同种类的其他被跟踪静态对象和所述静态对象的所述2D测量位置的区域的关联、或使用3D感知模态对所述静态对象的检测。
5.根据权利要求1所述的方法,包括:使用所述静态对象在所述图像平面中的所述2D测量位置的新的检测、以及使用所述UKF对所述静态对象的所述3D位置的先验预测,递归地更新所述静态对象的所述预测3D位置。
6.根据权利要求1所述的方法,其中,所述静态对象是交通控制设备TCD。
7.根据权利要求1所述的方法,其中,使用所述UKF预测所述静态对象的所述3D位置包括预测步骤和更新步骤,
其中,所述预测步骤执行以下操作:
构建预测西格玛点矩阵,
通过所述运动模型传播所述预测西格玛点矩阵,以获得传播西格玛点,
使用所述传播西格玛点确定所述静态对象的估计3D位置,
使用所述传播西格玛点估计传播估计误差协方差,并且
其中,所述更新步骤执行以下操作:
使用所述静态对象的所述估计3D位置、以及所述传播估计误差协方差,来构建更新西格玛点矩阵,
通过测量模型传播所述更新西格玛点矩阵,以获得代表所述静态对象在所述相机的所述图像平面中的预测2D测量位置的测量西格玛点矩阵,
使用所述测量西格玛点矩阵与所述静态对象在所述相机的所述图像平面中的所述2D测量位置之间的差异,来确定所述静态对象的更新3D位置。
8.根据权利要求1所述的方法,包括:向所述TCD分配车道,并且当所述TCD被分配了与所述车辆的车道相同的车道时,控制所述至少一个车辆特征对所述TCD的状态做出响应。
9.根据权利要求1所述的方法,其中,所述输入向量包括所述车辆的角速度的值和所述车辆的线速度的值。
10.一种用于控制车辆的系统,所述系统包括:
至少一个相机;
传感器系统;
至少一个处理器,其与所述传感器系统和所述至少一个相机进行可操作的通信,其中,所述至少一个处理器被配置为执行程序指令,其中,所述程序指令被配置为使所述至少一个处理器进行以下操作:
从所述车辆的所述至少一个相机接收图像数据;
使用所述图像数据检测静态对象在所述相机的图像平面中的2D测量位置;
从所述车辆的传感器系统接收测量值的输入向量;
使用合并了所述车辆的运动模型的无迹卡尔曼滤波器UKF,并且还使用所述静态对象的所述2D测量位置、以及所述输入向量,来预测所述静态对象的预测3D位置;以及
基于所述静态对象的所述预测3D位置来控制至少一个车辆特征。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/817,495 | 2022-08-04 | ||
US17/817,495 US20240046656A1 (en) | 2022-08-04 | 2022-08-04 | Systems and methods for detecting traffic objects |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117508189A true CN117508189A (zh) | 2024-02-06 |
Family
ID=89744481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310114010.7A Pending CN117508189A (zh) | 2022-08-04 | 2023-02-01 | 用于检测交通对象的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240046656A1 (zh) |
CN (1) | CN117508189A (zh) |
DE (1) | DE102023100670A1 (zh) |
-
2022
- 2022-08-04 US US17/817,495 patent/US20240046656A1/en active Pending
-
2023
- 2023-01-12 DE DE102023100670.3A patent/DE102023100670A1/de active Pending
- 2023-02-01 CN CN202310114010.7A patent/CN117508189A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240046656A1 (en) | 2024-02-08 |
DE102023100670A1 (de) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11204607B2 (en) | Trajectory setting device and trajectory setting method | |
US10861176B2 (en) | Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data | |
US11155258B2 (en) | System and method for radar cross traffic tracking and maneuver risk estimation | |
CN108073170B (zh) | 用于自主车辆的自动化协同驾驶控制 | |
CN111458700B (zh) | 车辆映射和定位的方法和系统 | |
CN111144432B (zh) | 在传感器融合系统中消除模糊检测的方法 | |
CN110471064B (zh) | 广义三维逆传感器模型 | |
US11625038B2 (en) | Autonomous driving device | |
CN112539755B (zh) | 用于自主车辆的基于admm算法的更新点云配准管线 | |
CN109552212B (zh) | 用于自主车辆中的雷达定位的系统和方法 | |
US10935652B2 (en) | Systems and methods for using road understanding to constrain radar tracks | |
CN108466621B (zh) | 车辆和用于控制车辆的至少一个功能的系统 | |
CN112435460A (zh) | 交通灯状态监控和交通灯到车道的分配的方法和系统 | |
CN114063025A (zh) | 动态激光雷达与相机的对准 | |
CN115249066A (zh) | 分位数神经网络 | |
EP4160269A1 (en) | Systems and methods for onboard analysis of sensor data for sensor fusion | |
CN112069867B (zh) | 多目标跟踪与多感官数据和缺失模态的学习关联 | |
CN117508189A (zh) | 用于检测交通对象的系统和方法 | |
US11869250B2 (en) | Systems and methods for detecting traffic objects | |
US20240051549A1 (en) | Systems and methods for estimating lateral velocity of a vehicle | |
CN112098967B (zh) | 汽车雷达信号处理中的旁瓣减法 | |
CN114248795A (zh) | 路径内对象检测的可变阈值 | |
CN114581865A (zh) | 深度神经网络中的置信度测量 | |
CN117184123A (zh) | 基于顺应先验对具有不确定测量的道路行为体进行状态识别 | |
CN116817938A (zh) | 使用路杆进行摄像机到激光雷达对准的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |