CN104035071B - 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置 - Google Patents

融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置 Download PDF

Info

Publication number
CN104035071B
CN104035071B CN201310757121.6A CN201310757121A CN104035071B CN 104035071 B CN104035071 B CN 104035071B CN 201310757121 A CN201310757121 A CN 201310757121A CN 104035071 B CN104035071 B CN 104035071B
Authority
CN
China
Prior art keywords
object model
scanning
prediction
group
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310757121.6A
Other languages
English (en)
Other versions
CN104035071A (zh
Inventor
S·曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN104035071A publication Critical patent/CN104035071A/zh
Application granted granted Critical
Publication of CN104035071B publication Critical patent/CN104035071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

一种用于融合来自于车辆上的多个LiDAR传感器的输出的系统和方法,包括响应于雷达传感器和/或观察系统检测到物体而插入融合处理过程。所述方法包括提供先前采样时间时由LiDAR传感器检测到的物体的物体档案,其中所述物体档案标示了检测到的物体的位置、方向和速度。所述方法将物体档案中的物体模型从先前采样时间投影以提供预测物体模型。所述方法还包括接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回并从扫面返回中构造点云。然后该方法将点云中的扫描点分割为预测扫描群,其中,每个群标示由传感器检测到的物体。

Description

融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置
相关申请的交叉引用
本申请要求2012年3月15日提交的美国临时专利申请的优先权日期的权益,其申请号为61/611,492,题目为“Methods and Apparatus of Fusing Radar/Camera ObjectData and LiDAR Scan Points”(融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置)。
技术领域
本申请总体上涉及融合车辆中的多个传感器的输出的系统和方法,并且特别地,涉及融合车辆中多个LiDAR传感器的扫描点的系统和方法,其中响应于车辆中的雷达传感器或观察系统检测到—物体,插入融合LiDAR传感器扫描点的处理过程。
背景技术
许多新式车辆带有物体检测传感器,其被用于允许碰撞警告或防止碰撞和其他主动安全应用。所述物体检测传感器可以使用多种检测技术中的任一种,例如短程雷达、带有图像处理的摄像机、激光或LiDAR(激光雷达)、超声等。所述物体检测传感器检测主车辆路径中的车辆及其他物体,并且应用软件使用该物体检测信息以提供警告或采取适当的操作。在许多车辆中,所述物体检测传感器被直接集成在车辆的前端或其他饰板上。
为了使得应用软件最优地执行,所述物体检测传感器必须与车辆适当地对齐。例如,如果传感器检测到一实际上位于主车辆路径内的物体,但由于传感器未对准,传感器判断该物体稍微偏向主车辆路径的左侧,这可能对应用软件有显著影响。即使车辆上有多个前视物体检测传感器,将其适当地对齐也是非常重要的,以将不一致的传感器读数最小化或去除。
LiDAR传感器是一种类型的传感器,其有时用于车辆上以检测车辆周围的物体并提供距这些物体的距离。LiDAR传感器可以提供被追踪物体的航向,因此其是理想的,而其他类型的传感器,例如观察系统和雷达传感器,通常不 能够这样做。对于一种类型的LiDAR传感器,物体反射被作为点群距离图的一部分的扫描点被返回,其中在传感器的视野中每隔1/2°便提供一单独的扫描点。因此,如果在主车辆前方检测到一目标车辆,可存在返回的多个扫描点以确定目标车辆距离主车辆的距离。
车辆可以带有多个LiDAR传感器以提供车辆周围360°的视野。所述多个LiDAR传感器可以包括侧视传感器、后视传感器和前视传感器。每个传感器都独立于其他传感器在各自的视野里追踪物体。使用来自多个传感器的扫描点返回,生成距离图以追踪接近主车辆的物体。对于带有多个LiDAR传感器的车辆,将返回多个点群图,并且对于重叠的传感器视野,该传感器可追踪同一物体。有必要对传感器的扫描点图进行组合,使得被传感器追踪的同一物体作为单个物体处理。
2010年11月9日提交的申请号为12/942,456,标题为“Systems and Methods forTracking Objects”(追踪物体的系统和方法)的美国专利申请被转让给本申请的受让者,在.比通过参考被引入,其介绍了使用LiDAR传感器从主车辆监控目标物体的距离和航向的技术。该应用限于单个的LiDAR传感器,且没有介绍对多个LiDAR传感器的返回进行融合。
发明内容
依据本发明的教导,介绍了一种方法和系统,用于对车辆上多个LiDAR传感器的输出进行融合,其包括响应于雷达传感器和/或观察系统检测到一物体,插入融合处理过程。该方法包括提供LiDAR传感器在先前采样时间时检测到的物体的物体档案,其中该物体档案标示了所检测物体的位置、方向和速度。该方法将物体档案中的物体模型从先前采样时间投影(project,映射或预测)以提供预测物体模型。该方法还包括对当前采样时间时在传感器视野中检测到的物体的多个扫描返回进行接收并从扫描返回中构造点云。然后该方法将点云中的扫描点分割为预测扫描群,其中每个群标示了传感器检测的物体。所述方法将预测群与预测物体模型进行匹配。所述方法读取来自车辆上的雷达传感器或观察系统检测到的目标数据并将该目标数据配准在分配给LiDAR传感器扫描点的坐标系上。所述方法使用预测物体模型将目标数据与物体档案中的物体模型进行匹配。所述方法使用匹配后的预测扫描群和匹配后的目标数据合并在先前采样时间时被识别为独立扫描群而现在被识别为单个扫描群的预测物体 模型,并拆分在先前采样时间里被识别为单个扫描群而现在在当前扫描时间内被识别为独立扫描群的预测物体模型。所述方法还使用匹配后的预测扫描群和匹配后的目标数据创建新的物体模型并删除将要失效的物体模型。所述方法基于合并的物体模型、拆分的物体模型、新的物体模型和删除的物体模型提供物体模型更新,并使用更新后的物体模型更新当前采样时间的物体档案。
方案1.一种用于对来自于车辆上的多个LiDAR传感器的输出进行融合的方法,所述方法包括:
提供先前采样时间时由LiDAR传感器检测到的物体的物体档案,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
追踪由传感器检测到的物体的物体模型;
对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型;
接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回;
从扫描返回中构造扫描点云;
将扫描点云中的扫描点分割为预测扫描群,其中每个扫描群最初标示了传感器检测到的物体;
将预测扫描群与预测物体模型进行匹配;
读取来自雷达传感器或观察系统检测到的物体的物体数据;
将物体数据配准在分配给LiDAR传感器扫描点的坐标系上;
使用预测物体模型对物体数据与物体档案中的物体模型进行匹配;
使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型;
使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为独立扫描群的预测物体模型;
使用匹配后的预测扫描群和匹配后的物体数据为当前采样时间时检测到而在先前采样时间时不存在的物体创建新的物体模型;
使用匹配后的预测扫描群和匹配后的物体数据删除在预测扫描群中不再存在的物体模型;
基于合并的物体模型、拆分的物体模型、新的物体模型和删除的物体模型,提供物体模型更新;以及
使用物体模型更新对当前采样时间的物体档案进行更新。
方案2.根据方案1的方法,其中,分割点云中的扫描点包括分离点云中的扫描点群使得群标示出正被追踪的独立物体。
方案3.根据方案1的方法,其中,对预测扫描群和预测物体模型进行匹配包括生成使得扫描群与预测物体模型匹配的二部图。
方案4.根据方案3的方法,其中,生成二部图包括在图的顶点定位扫描点。
方案5.根据方案3的方法,其中,合并预测物体模型和拆分预测物体模型包括将所述二部图转换为导出的二部图,其显示出正被合并或拆分的物体模型。
方案6.根据方案5的方法,其中,将二部图转换为导出的二部图包括为导出的二部图计算权重和边的基数(cardinality),其中,每个权重标示了从至少一个传感器的一个扫描点至另一个传感器的扫描点定位的位置变化,且边定义了物体模型点和分割扫描点之间的匹配。
方案7.根据方案6的方法,其中,将二部图转换为导出的二部图包括将所述边的基数与一阈值进行比较,并且如果基数大于阈值则突出显示该边,且如果边没有被突出显示则移除该边。
方案8.根据方案7的方法,其中,删除在预测扫描群中不再存在的物体模型包括删除与被移除的边关联的物体模型。
方案9.根据方案1的方法,其中,提供物体模型更新包括在贝叶斯网络中针对先前时间帧至当前时间帧标示出物体数据、转换参数、物体模型和扫描图群。
方案10.一种用于对来自于车辆上多个LiDAR传感器的输出进行融合的方法,所述方法包括:
提供先前采样时间时由LiDAR传感器检测到的物体的物体档案,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
追踪由传感器检测到的物体的物体模型;
对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型;
接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回;
从扫描返回中构造扫描点云;
将扫描点云中的扫描点分割为预测扫描群,其中,每个扫描群最初标示了传感器检测到的物体;
将预测扫描群与预测物体模型进行匹配;
读取来自雷达传感器或观察系统检测到的物体的物体数据;
将物体数据配准在分配给LiDAR传感器扫描点的坐标系上;
使用预测物体模型对物体数据与物体档案中的物体模型进行匹配;
使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型;以及
使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为独立扫描群的预测物体模型。
方案11.根据方案10的方法,其中,分割点云中的扫描点包括分离点云中的扫描点群使得群标示出正被追踪的独立物体。
方案12.根据方案10的方法,其中,对预测扫描群和预测物体模型进行匹配包括生成使得扫描群与预测物体模型匹配的二部图。
方案13.根据方案12的方法,其中,生成二部图包括在图的顶点定位扫描点。
方案14.根据方案12的方法,其中,合并预测物体模型和拆分预测物体模型包括将所述二部图转换为导出的二部图,其显示出正被合并或拆分的物体模型。
方案15.根据方案14的方法,其中,将二部图转换为导出的二部图包括为导出的二部图计算权重和边的基数,其中,每个权重标示了从至少一个传感器的一个扫描点至另一个传感器的扫描点定位的位置变化,且边定义了物体模型点和分割扫描点之间的匹配。
方案16.根据方案15的方法,其中,将二部图转换为导出的二部图包括将所述边的基数与一阈值进行比较,并且如果基数大于阈值则突出显示该边,且如果边没有被突出显示则移除该边。
方案17.根据方案16的方法,其中,删除在预测扫描群中不再存在的物体模型包括删除与被移除的边关联的物体模型。
方案18.根据方案10的方法,其中,提供物体模型更新包括在贝叶斯网络中针对先前时间帧至当前时间帧标示出物体数据、转换参数、物体模型和扫描图群。
方案19.一种用于对来自于车辆上的多个LiDAR传感器的输出进行融合的系统,所述系统包括:
用于提供先前采样时间时由LiDAR传感器检测到的物体的物体档案的设备,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
用于追踪由传感器检测到的物体的物体模型的设备;
用于对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型的设备;
用于接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回的设备;
用于从扫描返回中构造扫描点云的设备;
用于将扫描点云中的扫描点分割为预测扫描群的设备,其中每个扫描群最初标示了传感器检测到的物体;
用于将预测扫描群与预测物体模型进行匹配的设备;
用于读取来自雷达传感器或观察系统检测到的物体的物体数据的设备;
用于将物体数据配准在分配给LiDAR传感器扫描点的坐标系上的设备;
用于使用预测物体模型对物体数据与物体档案中的物体模型进行匹配的设备;
用于使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型的设备;和
用于使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为独立扫描群的预测物体模型的设备。
方案20.根据方案19的系统,其中,用于分割点云中的扫描点的设备分离点云中的扫描点群使得群标示出正被追踪的独立物体。
通过下面的描述和所附的权利要求,并结合相应的附图,本发明的其他特征将显而易见。
附图说明
图1是跟在目标车辆后面的主车辆的示意图,并显示了主车辆上四个LiDAR传感器的视野;
图2是用于对车辆上多个LiDAR传感器的扫描点进行融合的融合系统的总体框图;
图3(A)和(B)示出了LiDAR传感器的扫描点;
图4是流程图,显示了用于配准多个LiDAR传感器的扫描点的方法;
图5为物体后方的轮廓概率密度函数;
图6是迭代界限最优化图;
图7是框图,显示了在新的LiDAR扫描点图可得时,估计物体运动和更新物体模型的两个交错处理过程。
图8是正在被追踪算法追踪的物体的动态贝叶斯网络;
图9是流程图,显示了多物体追踪算法在单个时间步骤中的处理过程;
图10是二部图,显示了在图9的图中将扫描群与预测物体模型进行匹配的步骤中的预测物体模型点和分割扫描图点;
图11是由图10所示的二部图生成的导出的二部图;
图12是来自LiDAR传感器、观察系统和雷达传感器的扫描点的示意图;
图13是跟在目标车辆后面的主车辆的示意图,并显示了主车辆上LiDAR传感器、雷达传感器和观察系统的视野;
图14是追踪算法的概要流程图,使得LiDAR传感器使用来自雷达传感器或观察系统的插入;
图15是流程图,示出了多物体追踪算法的处理过程,其使用来自雷达传感器或观察系统的插入;
图16是二部图,其示出了为所有的LiDAR扫描点、雷达传感器返回和观察系统图像,对目标数据和物体模型进行匹配;
图17是从图16中所示的二部图中生成的导出的二部图;
图18是二部图,示出了通过提供使用观察系统进行的匹配对两个投影的物体模型进行合并;
图19是导出的二部图,显示了图18中物体模型的匹配;
图20是二部图,示出了通过使用观察系统进行的匹配对投影物体模型进行拆分;
图21是导出的二部图,示出了图20中物体模型的匹配;
图22是二部图,示出了通过使用雷达传感器进行匹配的投影物体模型;
图23是导出的二部图,示出了图22中模型的匹配;和
图24是追踪算法和使用来自雷达传感器或观察系统的插入信息进行模型更新的动态贝叶斯网络。
具体实施方式
下面对本发明实施例的介绍是关于一种用于对来自于车辆上的多个LiDAR传感器的输出进行融合的系统和方法,其中通过雷达传感器或观察系统检测到的物体插入融合处理过程,本质上仅是示例性的,绝不旨在限制本发明及其应用或使用。例如,本发明将被描述为对车辆上LiDAR传感器的输出进行融合。然而,本领域技术人员应当理解,本发明的融合处理过程可以具有除了车辆应用之外的应用。
图1示出了车辆系统10的概况,其包括跟在正被追踪的目标车辆14后面的所示主车辆12。所述主车辆12包括4个LiDAR传感器,即,带有视野18的前视传感器16、带有视野22的后视传感器20、带有视野26的左视传感器24和带有视野30的右视传感器28。如图所示,所述传感器16、24和28被安装在车辆12的前方,并具有重叠的视野。如果一物体,例如目标车辆14,位于传感器16、20、24和30中特定一个的视野内,则该传感器返回标示该物体的多个扫描点。目标车辆14上的点32代表了来自传感器16、24和28中每一个的从目标车辆14返回的扫描点。所述点32使用坐标转换技术转换为主车辆12上的车辆坐标系统(x,y),然后在车辆坐标系统中使用点32执行物体检测。如下所述,所述点32可以被用于限定目标车辆14的尾部造型。
各传感器16、20、24和28将会为传感器检测到的每个单独物体提供一扫描点云。本发明提出了一种融合算法,其将来自每个传感器16、20、24和28的输出进行组合,使得当传感器16、20、24和28追踪相同的物体时,该物体作为单个目标处理,其中所述算法输出每个被追踪物体的位置、方向和速度。尽管该说明包括四个LiDAR传感器,所提出的融合算法可以应用于具有重叠视野的任意数量和位置的多个LiDAR传感器。
在该图中,目标车辆14的位置通过锚点34来表示,即为,扫描图的中心。下列值用于表示在时间步骤t时目标车辆14的物体模型M。特别地,物体模型M限定相对纵向速度Vx,相对横向速度Vy,横向位移y和目标车辆航向ξ或目标对地速度向量的方向。值M是一系列由参数平均值mj和方差σ2所表示的高斯组分。所述平均值以多个超参数vj,ηj,kj和标记(例如,被访问和到期)为特征。
图2是融合系统36的原理框图,该系统用于对来自多个LiDAR传感器(例如传感器16、20、24和28)的扫描点云返回进行融合。方块38代表左 LiDAR传感器24的扫描点云返回,方块40代表右视LiDAR传感器28的扫描点云返回,方块42代表前视LiDAR传感器16的扫描点云返回,且方块44代表后视LiDAR传感器20返回的扫描点云。在方块46,来自LiDAR传感器16、20、24和28的距离图被配准并且构造出一360°距离图(点云)。一旦配准了来自传感器16、20、24和28的点云并在车辆坐标内形成360°点云,则在方块48算法对来自多个目标的点云进行融合,这将在下面详细介绍。在车辆坐标系内对目标融合之后,在方块50,所述算法输出目标的位置、方向和速度。
在特别介绍对来自多个LiDAR传感器的扫描点进行组合的融合处理过程之前,将先介绍在方块46执行的扫描点配准算法,以在与所述物体相应的物体模型M和当前扫描图S可得时估计物体的运动。
在许多车辆中,所述物体检测传感器被直接集成在车辆的前饰板上。这种安装类型简单、有效并且美观,但有一个缺点,即没有切实可行的方法以对传感器的对准进行物理调节。因此,如果由于饰板的损坏或老化以及气候导致的变形使得传感器与车辆的实际航向没有对准,则按照惯例没有方法对该失准进行校正,除非更换包含传感器的整个饰板组件。
如下面将要介绍的,在方块46执行的坐标系配准对来自传感器20、24和28的距离扫描点进行匹配以适应传感器20、24和28的位置和方向上的可能漂移。当车辆12为新的时,传感器20、24和28是初始校准的。如前所述,多种因素导致这些方向随着时间而改变,因此,需要执行一种处理过程以重新校准传感器的方向,使得在视野26和30的重叠部分内检测到的物体更加准确。本发明提出了一种期望最大化(EM)匹配算法以寻找多个LiDAR传感器之间的变换式T,其定义了传感器的方位角和x,y位置。例如,该算法将对从左视LiDAR传感器24到右视LiDAR传感器28的变换式T进行匹配,并且当在后续计算中变换式T匹配时,传感器24和28将对齐。
所述EM算法开始于选择初始变换式值T0(其可以为0)、先前估计值、制造商提供的传感器24和28之间的方向等等。然后该算法使用变换式T将左传感器距离图投影到右视LiDAR传感器28的坐标系中。图3表示了扫描点图120,其中圆圈124代表左LiDAR传感器24的扫描点返回,且椭圆126代表了右视LiDAR传感器28的扫描点返回。图3(A)显示了所有的扫描点返回,且图3(B)显示了在圆圈122中为了少数的扫描点返回而放大的区域。图3(B) 显示了如何使用箭头128将左视LiDAR传感器扫描点返回124映射至右视LiDAR传感器扫描点返回126。通过使用当前可得的投影图箭头128的变换式T,左视LiDAR传感器扫描点返回124被相对于右视LiDAR传感器扫描点返回126进行移动以试图使得二者重合。
当前使用的变换式T对于当前的左视LiDAR传感器24至右视LiDAR传感器28的方向可能是不准确的,因此变换式T需要对于传感器24和28的当前位置进行更新。算法使用当前变换式T以更新左传感器扫描点sj和右传感器扫描点mk之间的权重ajk,如下:
其中内核函数K为:
K ( x ) = 1 σ 2 π e - x 2 2 σ 2 . - - - ( 2 )
然后可以使用修正后的权重ajk来确定新的变换式T′:
接着将新的变换式T′与先前计算的变换式T进行比较,并基于它们之间的差,使用新的变换式T′重新计算权重ajk直到新计算的变换式T′与先前计算出的变换式T匹配,其中传感器24和28已对齐。
在某些情况下,用于对准扫描数据点的变换式T将充分大,它可能有助于增强公式(3)中T′的解。对于该示例,变换式T被定义为x′=T·x,其中x′=Rx+t,并且其中R是旋转矩阵,和t是变换向量。在该分析中,假定:
S=[S1,S2,…,SL]T, (4)
M=[m1,m2,…,mN]T, (5)
A=[ajk], (6)
1=[1,1,…,1]T, (7)
μ S = 1 L S T A T 1 , - - - ( 8 )
μ m = 1 N M T A 1 , - - - ( 9 )
S ^ = S - 1 μ S T , - - - ( 10 )
M ^ = M - 1 μ m T . - - - ( 11 )
然后公式(3)中新变换式T′的解可以为:
T′=[R′,t′], (12)
其中:
R′=UCV, (13)
t′=μs-R′μm, (14)
并且其中U和V被定义为下式奇异值分解的因子:
USV = svd ( S ^ T A T M ^ ) , - - - ( 15 )
并且C为:
C = 1 0 0 det ( UV T ) . - - - ( 16 )
以上介绍的用于确定变换式T的EM算法可能只是局部最优的并且对初始变换式值敏感。可以使用粒子群优化算法(PSO)寻找初始变换式T0来对该算法进行增强。在该优化算法中,假设E为从左LiDAR传感器24至右LiDAR传感器28的合格变换式T的集合。所述算法根据合格变换式E的均匀分布随机地产生N个粒子{ti/t,∈E},且每个粒子ti与归一化的权重wi=1/N有关。对于每个粒子ti,所述EM算法被设置为最佳的变换式Ti,其中ti为初始值。假定权重wi为变换式Ti的两个扫描之间的匹配百分比。然后该算法输出带有最佳匹配百分比的变换式Tk,作为从左LiDAR传感器24至右LiDAR传感器28的变换式的标称值,其中wk=max(wi)。
在大多数的情况中,从一个采样时间至下一个采样时间变换式T的变化通常是很小的,因此,不需要使用上述的用于计算对于变换式T的大变化的新变换式T′的复杂计算处理。特别地,如果从上述的PSO算法中估计出了标称变换式Tn,则可以使用下列小计算量的EM匹配算法对变换式T的新估计值进行递归精炼。首先,将变换式Tn应用于右LiDAR传感器28的每个扫描点:
修正的变换式ΔT被确定为:
并被定义为:
x′=x-εy+tx, (19)
y′=εx+y+ty, (20)
其中变换式ΔT被模型化为(tx,ty,ε)并且其中先前的变换式ΔT0为(tx0,ty0,ε0)。
然后公式(3)被替换为:
并且其解为:
t x ′ = Σ j , k a jk ( x j ′ + ϵ y k - x k ) + λ t x 0 Σ j , k a jk + λ , - - - ( 22 )
其中:
sj=(x′j,y′j), (23)
mk=(xk,yk), (24)
T′=t′x,t′y,ε′, (25)
t y ′ = Σ j , k a jk ( y j ′ + ϵ x k - y k ) + λ t y 0 Σ j , k a jk + λ , - - - ( 26 )
ϵ ′ = Σ j , k a jk [ ( y j ′ - t y ′ - y k ) x k - ( x j ′ - t x ′ - x k ) y k ] + λ ϵ 0 Σ j , k a jk ( x k 2 + y k 2 ) + λ , - - - ( 27 )
并且其中λ为权重因子,其可以根据先前估计被使用的程度来调节。
图4为一流程图130,其显示了对齐LiDAR传感器的操作,例如,如上所述的LiDAR传感器24和28。在方块132,所述算法选择如制造商设置的初始变换式Tn。在方块134,所述算法采集来自LiDAR传感器24和28的扫描距离图数据,并在判决菱形136处确定来自LiDAR传感器24和28视野中的物体的扫描点的数量是否充分以足以执行计算。如果扫描点不够,则该算法返回方块134以采集更多的距离图数据。如果在判决菱形136处扫描点足够多,则在方块138该算法使用EM匹配算法以寻找修正后的变换式ΔT。然后在判决菱形140所述算法确定修正后的变换式ΔT是否大于预定阈值,并且如果是,则在方块142使用PSO算法采用该大的变换式估计值以寻找新的标称变换式Tn。如果在判决菱形140处匹配百分比不大于阈值,贝所述算法返回至方块134以采集接下来的扫描点。
返回至融合算法,下面的介绍首先介绍了一种提出的扫描点配准算法,其在给定相应于目标车辆14的物体模型M和当前扫描图S时,估计目标车辆14的运动。上述关于EM算法的介绍提供了空间匹配,所述EM算法用于确 定对齐所述LiDAR传感器之间的坐标系的变换式T,特别是,不同LiDAR传感器在同一时刻的两个坐标系之间的匹配。所述关于扫描点配准的介绍还使用一点集配准算法以寻找变换式T,其对当前扫描图S和从过去的扫描图中得出的物体模型M之间的两个坐标系在时间上匹配。
首先定义概率物体模型M,且然后提供提出的迭代算法以寻找一固定变换式,使得概率值为最大,给定后续帧的扫描图。为了表征物体的几何形状,定义采样空间R2中的轮廓概率分布函数(PDF)。图5显示了目标车辆14后部的示例PDF的瞬态图(快照)。不是使用某些参数,PDF直接表示为一系列粒子(圆点),标记为M=(m1,m2,…,mnM)T
表示PDF的该非参数方法可以记为:
p ( x ; M ) = 1 n M Σ j = 1 n M K σ ( x - m j ) , - - - ( 28 )
其中x∈R2为高斯内核函数,并且σ>0为一平滑参数,称为带宽或帕曾(Parzen)窗的尺寸。
假定y为变换式Ty的参数。运算符被定义为带有参数y的变换操作符Ty(·)以及相应的逆变换1(·)。不失一般性,所述物体模型M可以被认为在原点34对中。在后续帧中,位于y的物体可以通过PDF表征为:
p ( x ; y , M ) = 1 n M Σ j = 1 n M K σ ( T y - 1 ( x ) - m j ) . - - - ( 29 )
假定S=(s1,s2,…,sns)T为包含一系列扫描点sk的当前扫描图。概率函数可以表示为:
L ( S ; y , M ) = Π K = 1 n s ρ ( T y - 1 ( s k ) ; M ) , - - - ( 30 )
其中假设扫描点sk为物体模型M在位置y的独立且分布相同的样本。
此处的目的是要寻找相对于变换式参数y的L(S;y,M)最大值,其相当于寻找J(y;M)≡-LogL(S;y,M)最小值,如下:
y*argminyJ(y;M), (31)
其中:
J ( y ; M ) = Σ k = 1 n s - log ( 1 n m Σ j = 1 n M K σ ( T y - 1 ( s k ) - m j ) ) . - - - ( 32 )
该局部最小值指示出了在接下来的帧中出现物体,其具有类似在原点34
定义的p(x;M)的表示。
引入一辅助的矩阵A≥{akj},其中akj≥0,j=1,…,nM且k=1,…,ns,其中:对有所有的k
Σ j = 1 n m a kj = 1 , - - - ( 33 )
因此,公式(32)变为:
J ( y ; M ) = Σ k = 1 n s - log ( Σ j = 1 n M a kj K σ ( T y - 1 ( s k ) - m j ) a kj ) , - - - ( 34 )
≤ - Σ k , j a kj log K σ ( T y - 1 ( s k ) - m j ) a kj , - - - ( 35 )
≡J(A,y;M)。 (36)
在公式(32)中,归一化因子被并入一忽略的常数项。对公式(34)应用詹恩逊不等式(jensen′sinequality)得到公式(36)。
假设负对数函数为凸的,则可以通过对公式(36)求导和拉格朗日乘子(Lagrangemultiplier)约束得出公式(36)的最佳上限J*(y;M),见公式(33),相对于akj,并设置为0。最优辅助变量可以表示为:
a kj = K σ ( T y - 1 ( s k ) - m j ) Σ j ′ = 1 n M K σ ( T y - 1 ( s k ) - m j ′ ) , - - - ( 37 )
j=1,…,nM和k=1,…,ns
因此,公式(31)可以通过“边界最优化”来迭代计算出,其在相对于辅助矩阵A,变换式T的参数y,和内核函数σ的带宽的最优J*(y1;M)之间交替。
图6为图表,水平轴y显示了迭代的边界最优化关系,其中线52是一复杂曲线J(y;M),且虚线为在y0,y1和y2的连续上限,即分别地,图线54为J*(y2;M),图线56为J*(y1;M),且图线58为J*(y1;M)。
下方所示算法1的迭代过程被重复直至收敛,即,两个迭代所估计的y的差值小于预定的小值。经验结果显示2-3轮迭代就足以使所提出的算法收敛。
算法1:扫描点配准
输入:物体模型M,当前扫描图S,和初始变换参数y0
1)假设σ=σ0,其中σ0为正数。
2)计算A:给定变换参数yn的先验估计值,使用公式(37)对akj进行更新。
3)最小化J*(y;M):计算y*以最小化J*(y;M),即:
y * = arg min y - Σ k , j a kj log K σ ( T y - 1 ( s k ) - m j ) . - - - ( 38 )
4)计算σ:相对于σ的不同公式(36),将其导数设置为0,得出:
σ 2 = 1 n s Σ k , j a k j | | T y * - 1 ( s k ) - m j | | 2 . - - - ( 39 )
5)假设yn+1=y*。如果||yn+1-yn||>ε,则至步骤2。否则,输出y*作为变换式的估计参数。
下面的介绍描述了点集配准的特殊情况,其可以用于带有LiDAR扫描器的机器人技术中。可以写成固定变换式x′=Ty(x)和x′=Rx+t,其中参数向量y包括一旋转矩阵R和转换向量t。公式(38)可以被简化为:
y*argminyk,jakj||sk-Rmj-t||2, (40)
使得det(R)=1且RTR=I。
分别求公式(40)对t和R的偏导数,可以求解出公式(40)。为了表示该解,定义下列量:
μ s = 1 n s S T A T 1 , - - - ( 41 )
μ M = 1 n M M T A 1 , - - - ( 42 )
S ^ = S - 1 μ S T , - - - ( 43 )
M ^ = M - 1 μ m T , - - - ( 44 )
其中1=[1,1,…,1]T
公式(40)的解为:
R=UCVT, (45)
t=μs-Rμm, (46)
其中U和V被定义为奇异值分解的因子,即且C=diag(1,det(UVT))。
下面的介绍提出了一种基于贝叶斯原理的算法,其递归地估计物体模型M的运动和更新。假设S0,…,St和St+1为在时间步骤0,…,t和t+1分别从动态物体采样得到的扫描图。
图7显示了追踪可以被当作如下处理:i)估计物体运动的问题,和ii)当接收到新的帧的扫描图时,更新物体模型M的问题。特别地,图7显示了一处理过程60,用于在方块64估计物体位置,在方块62使用物体位置更新物体模型,并当新的扫描图可得时估计物体位置。
下面的介绍将要包括对二部图和贝叶斯图的参照。这两种类型的图包括代表不同事物的节点。贝叶斯图中的节点代表要被估计的变量,例如变换式T和物体模型M,其为随机的,且只可以通过PDF来表示。这些节点被设置在跨越不同时间帧的序列中,且每个序列只对一个物体建模。相反地,二部图中的节点为扫描图的分割点。每个扫描图可以在同一时间帧中包括多个物体。因此,其目标为寻找与物体相对应的各片段。沿着时间轴建立片段(s1,ss,…,sn)之间的联系,可以获得多个序列,每个对应于一个物体。这样,二部图可以用于使用贝叶斯方法来追踪各单独的物体。
图8描述了动态贝叶斯网络70,其表示了所提出的追踪算法的两个时间步骤。在网络70中,节点72代表变换参数yt和yt+1,即目标的物体位置和姿态,节点74代表物体模型Mt和Mt+1,且节点76代表扫描图St和St+1。在图8中,yt和yt+1分别为在时间步骤t和t+1的估计变换参数,且Mt和Mt+1分别为在时间步骤t和t+1的物体模型。为了适应贝叶斯网络70,p(y)被模型化为以为中心参数化的狄拉克增量分布,且物体模型M为高斯组份的联合PDF,其分别由均值{mj}和固定方差σ2参数化。每个均值mj通过带有超参数的高斯PDF来表示,即,均值和方差
下面详细介绍了参数和超参数{vj,ηj|j=1,…,nM}的更新规则。分别使用贝叶斯和链式法则,给定的至时间t+1的扫描图集合,后验PDF可以写为:
p(y,M|S(0:t+1))∝p(S|y,M)p(y,M|S(0:t))=p(S|y,M)p(y|S(0:t))p(M|S0:t), (47)
其中y和M为yt+1的简写,S(0:t+1)表示一直到时间步骤t+1的扫描图,S为时间点t+1的扫描图,p(S|y,M)为公式(30)中L(S;y,M)的等同表示,以及假定给定S(0:t)时的条件性独立得出最后的等式。
在公式(47)中,p(y|S(0:t))为在时间步骤t-1参数y的先验PDF,已知先验扫描图S(0 :t),其可以被计算为:
p(y|S(0:t))=∫p(y|yt)p(yt|S(0:t))dyt。 (48)
在公式(48)中,p(yt|S(0:t))表示了在时间t时变换参数的后验PDF, 且p(y|yt)为物体运动的后续发展模型的条件概率:
y=f(yt)+w, (49)
其中w为带有协方差矩阵Q的零均值高斯随机变量(即,p(w)=N)w|0,Q))。如果假设p(yt|S(0:t))为以为中心的狄拉克增量分布,则在时间步骤t=1时的先验PDF可以写作:
p ( y | S 0 : t ) = N ( y | y ~ , Q ) , - - - ( 50 )
其中为物体的后续发展模型的预测值。
表达式p(Mt-1|S(0:t))可以被模型化为公式(30)中L(S;y,M)的共轭分布族以得到可追踪的后验PDF。带有已知方差σ2的高斯密度的结果可以表示为:
p ( M t - 1 | S ( 0 : t ) ) = Π j N ( m j | v j , σ 2 η j ) , - - - ( 51 )
其中:
N ( m j | v j σ 2 η j ) = c ( η j ) exp - η j 2 σ 2 | | m j v j | | 2 , - - - ( 52 )
并且其中(ηj,vj)为Mt-1的第j个组分的先验PDF的超参数,并且c(ηj)为归一化因子。
如图8中所示,在时间步骤t处物体模型M的先验数据为:
p ( M | S ( 0 : t ) ) = p ( M | y t , M t - 1 ) = Π j N ( m j | T y ‾ t ( v j ) , σ 2 η j ) . - - - ( 53 )
现在考虑估计时间t+1时的后验p(y,M|S(0:t+1))的问题。因为y和M都为条件性独立的,即:
p(y,M|S(0:t+1))=p(y|S(0:t+1))p(m|S(0:t+1)), (54)
可以使用接下来的两个步骤估计后验相关y和M。
假设p(y|S(0:t+1))为以为中心的狄拉克增量PDF,其可以通过公式(47)相对于y最大化来估计。将公式(50)代入公式(47),对公式(47)应用负对数并且忽略与y不相关的项,得到:
y ‾ t + 1 = arg min y - Σ k , j a kj log K σ ( T y - 1 ( s k ) - m j ) + | | y - y ~ | | Q 2 , - - - ( 55 )
其中,且。因此,公式(38)可以被公式(55)代替以集成先前时间步骤中的先验信息,然后使用算法1以导出
忽略与物体模型M不相关的项,公式(47)的负对数可以写为:
J ( M ) = - log p ( S | y , M ) - log p ( M | S ( 0 ; t ) ) ≤ J * ( y ‾ t + 1 , M ) - Σ j N ( m j | T y ‾ t ( v j ) , σ 2 η j ) . - - - ( 56 )
注意对于y的所有可能值,公式(56)为J(M)的最佳上边界。
如在图6中,可以使用边界最优化通过寻找上述上边界函数的最小值来迭代地寻找最优物体模型M。将公式(56)相对于物体模型M的导数设置为0,则可以得到物体模型M的MAP估计:
m j * = ρ j T y ‾ t + 1 - 1 ( s ‾ j ) + η j T y ‾ t ( v j ) ρ j + η j , - - - ( 57 )
其中:
ρj=∑kakj, (58)
s ‾ j = Σ k a kj s k | ρ j . - - - ( 59 )
对于时间t+1的S之后,物体模型M的后验分布的新超参数(η′j,v′j)的更新规则可以写为:
η′j=ηjj, (60)
v j ′ = 1 η j + ρ j ( η j T y ‾ t ( v j ) ) + ρ j T y ‾ t + 1 - 1 ( s ‾ j ) . - - - ( 61 )
因此,在时间t目标的后验PDF为:
p ( M | S ( 0 : t + 1 ) ) = Π j N ( m j | v j ′ , σ 2 η j ′ ) . - - - ( 62 )
注意公式(57)中的为模式,且公式(61)中的vj为物体模型M的第j个组分(粒子)的均值。由于高斯假定,它们是相同的。
该递归追踪和模型更新方法被概括在下面的算法2中。步骤1准备当前时间帧的物体模型M,而步骤2估计物体模型M的运动。步骤3基于当前的扫描图更新物体模型M。步骤4向物体模型M中添加新的粒子,而步骤5从物体模型M中去除异常值。
算法2:追踪和物体模型更新
输入:当前扫描图St+1,物体模型Mt-1={vj,j},和变换式
输出:估计出的和更新的Mt
1)对于所有的j,计算公式(51)中p(Mt|S(0:t))的超参数。将所有的粒子设为未访问。
2)假设对于所有的j,。将公式(38)替换为公式(55)且然后运行算法1以获得和At+1
3)如果ρjkakj大于阈值,使用公式(60)和(61)计算超参数,将粒子设置为已访问,并将访问计数Kj加1。如果Kj>5,则将第j个粒子标记为成熟。
4)对所有的k计算Qk=Σjakj。如果Qk小于阈值,则增加一新的粒子sk,其带有下列值Kk=1,vk=sk,ηk=1,并被标记为已访问。
5)去除未被标记为已访问且未成熟的粒子。
图9为一流程图80,其显示了在每个时间步骤t所执行的提出的融合算法。方块78代表了在每个时间步骤生成的物体档案,并提供被检测和追踪的物体的位置、速度和航向以及被追踪的每个物体的物体模型M。当在方块82,来自传感器16、20、24和28的距离数据的新的帧到达主车辆12,所述算法首先在方块84用上述方法构造360°点云。一旦构造了点云,然后在方块86该算法将云中的扫描点分割为可标示特定物体的群。为了执行分割操作,假定R表示当前帧(t+1)的扫描图,且假定G=(R,E)为带有顶点集合R的不定向图。如果||p1-p2||小于预定的距离阈值,则边(p1,p2)∈E连接p1和p2。然后该连接的组分标记被用于将扫描图R分割为一系列群。将扫描点分割为群包括在返回的点云中分离扫描点群使得群代表正被追踪的单独物体。
一旦扫描点被分割为群,然后在方块88该算法将群与预测物体模型 进行匹配。特别地,在方块90所述算法使用物体档案78对先前时间步骤的追踪物体模型M投影。为了预测该投影的物体模型,假定为在时间步骤t处的一系列物体模型M。对于每个物体模型,高斯组分的均值表示为。如果 为在时间步骤t处变换式的估计值,则在时间步骤t+1处预测的变换式为 因此,对于所有的j,第n个物体的预测物体模型通过所述预测的物体点从时间步骤t被指示出。为
使用该投影的追踪物体模型,在方块88所述分割的群与预测物体模型进行匹配。在顶点集L至R之间构造二部图B=(L,R,EB),EB为边集。如果且仅如果,||p-q||<D,其中D为距离阈值,则在点p∈L和q∈R之间存在边。边(p,q)的权重被定义为w(p,q)=||p-q||。q∈R的邻域被定义为N(q)≡{p|(p,)∈EB}。
可以从二部图B中定义导出的二部图B′=(L′,R′EB′),其中边集EB代表在L′中的物体和分割群R′之间的可能的关联。如果且仅如果,在B中存在边(p,q)使得p′∈p且q′∈q,则在p′∈L′和q′∈R′之间存在边。
设E(p′,q′)为B中边集的子集,即E(p′,q′)≥{(p,q)|(p,q)∈EB∩p∈p′∩q′∈q}。权重(p′,q′)和边(p′,q′)的基数被分别定义为:
w ( p &prime; , q &prime; ) = &Sigma; q &Element; q &prime; min p &Element; N ( q ) &cap; p &Element; p &prime; w ( p , q ) | q &prime; | - - - ( 63 )
c ( p &prime; , q &prime; ) = | E ( p &prime; , q &prime; ) | | q &prime; | . - - - ( 64 )
一旦构造了导出的二部图B′,并计算出了边的权重和基数,则使用下面的算法3选出强边和切断的脆弱连接。
图10为二部图100,即图B,如上所述在当前时间步骤t有5个预测物体模型和五个群S的扫描点水平。在该二部图100中,点102代表预测物体模型点,且三角形104代表分割的扫描图点。点102和三角形104之间的连线106为图100的边。
然后在方块92所述算法对数据点群进行合并和拆分以组合相同的检测物体并拆分最初被检测为单个物体,但是已经形成多个物体的物体。为了对群进行合并和拆分,下面算法3提供了扫描关联。
图11示出了导出的二部图110,即为B′,其通过将点合并为群而从图B中导出。在所述导出的二部图110中,节点114代表物体模型点(M),节点112代表分割扫描点(M)构成的群,且线116代表限定物体模型点(M)和分割扫描点(S)之间匹配的边。如下面将要描述的,时间t处的与时间t+1处的S1匹配,被合并至时间t+1处的S2,时间t处的被拆分成时间t+1处的S3和S4,时间t处的正在衰减且从时间t+1处扫描图中移除,且S5在时间t+1处到达。在算法3的步骤3,边被突出显示。在步骤4,匹配,边被突出显示。因此,在步骤5,虚线被作为脆弱连接而切断。图11显示了直接匹配,然而,其他两种情况需要进行群的合并和拆分。
预测物体模型被拆分成两个匹配的群当前群的扫 描点将使用在先前帧中曾经存在物体的先前知识进行重新聚集。通常需要能够证明不同的有力证据来将现有追踪物体拆分成两个群。
在当前帧中,两个预测物体模型与群S2关联。群S2中的扫描点将进行重新聚集因为在扫描点之间需要更强的邻近以将两个追踪物体合并为一个物体。
算法3:扫描关联算法
输入:群和预测物体模型
输出:被切断的导出的二部图B′。
1)构造将扫描点作为顶点的二部图B。
2)构造将群和轮廓线作为顶点的导出的二部图B′,并使用公式(63)和(64)分别计算边的权重和基数。
3)对于每个q′∈R′,寻找p*′∈L′使得基数大于阈值(即c(p*′,q′)>C)且p*′=argminp′∈L′w(p′,q′),并突出显示边(p*′,q′)。
4)对于每个没有被突出显示的边覆盖的p″∈L′,寻找集合使得每个成分q″被且仅被一个突出显示的边覆盖。寻找p″使得(p″,q″)>C且q*″=argminq″∈R″w(p″,q″),并突出显示边(p″,q*″)。
5)切断B′中所有未突出显示的边。
如上所述,在方块94创建新的物体并删除正在衰减的物体。特别地,需要解决两种特殊的情况以创建新的物体并移除在物体档案中的现有物体,其中不存在与扫描群S5相关联的边。触发一追踪初始化步骤,并在物体档案中为扫描群S5添加一新的物体,且由于没有边与预测物体模型关联,使得预测物体模型衰减并将从物体档案中移除。
一旦在方块94创建了新的物体并删除了衰减的物体,然后在方块96该算法进行追踪和模型更新。对于每个由例如算法1的扫描配准操作提供的物体模型Mt和扫描群St+1的匹配对,使用算法2进行追踪和物体模型更新。
然后物体档案78在方块98被更新并被存储用于下一时间步骤的物体档案78。每个物体的新的变换式yt+1和更新后的物体模型Mt被存储回物体档案,且算法等待下一时间步骤中新的扫描图的到达。
如果两个连续扫描帧之间的旋转很小,则2D变换的参数可以近似为:
x′=x-εy+tx, (65)
y′=εx+y+ty, (66)
其中(x,y)和(x′,y′)分别为先前帧和当前帧中的两个点,ε为旋转角且(tx,ty)为变换式。
设mj=(xj,yj)和sk=(xk′,yk′)。将公式(65)和(66)代入公式(55),分另对tx,ty,和ε求部分导数并设为0。设表示公式(49)预测出的y。如果假定为固定模型,给出为时间步骤t和t-1之间的时间长度。
可以导出下列更新规则:
t x = &Sigma; k , j a kj ( x &prime; k + &epsiv;y j - x j ) + &lambda; x t ~ x &Sigma; k , j a kj + &lambda; x , - - - ( 67 )
t y = &Sigma; k , j a kj ( y &prime; k + &epsiv;x j - y j ) + &lambda; y t ~ y &Sigma; k , j a kj + &lambda; y , - - - ( 68 )
&epsiv; = &Sigma; j , k a kj [ ( y &prime; k - t y - y j ) x j - ( x &prime; k - t x - x j ) y j ] + &lambda; &epsiv; &epsiv; ~ &Sigma; k , j a kj ( x j 2 + y j 2 ) + &lambda; &epsiv; , - - - ( 69 )
其中λx,λy和λε为从公式(50)中的协方差矩阵Q中导出的权重。
将公式(38)替换成公式(67)-(69),使用算法1迭代地计算tx,ty和作为的ε。
设vH和ωH分别表示HV地速和偏航率。目标车辆14的地速可以计算为:
vgx=vx+vH-xcωH, (70)
vgy=vy+ycωH, (71)
且目标车辆14的航向为:
&xi; = tan - 1 ( v gy v gx ) . - - - ( 72 )
上述的用于检测和追踪多物体的方法和设备可以为主车辆12提供检测物体的360°视野方案。然而,还需要解决下列有关LiDAR传感器的问题。
第一个问题是局部观测,其由遮挡或激光测量故障导致,例如,低反射系数或镜面反射。例如,黑色车辆的检测距离大大小于白色车辆的检测距离。
接下来的问题是由低分辨率导致的稀疏测量,其导致了特征的显著度低,因此,对检测远场物体是不够的。
另一个问题是竖直视野受限,例如4°,其将导致漏检非平坦路面上的物体。
另一个问题是缺少可以将物体从混乱的背景中区分的环境信息。
本发明提出了增强的融合算法,以解决上述有关LiDAR传感器的缺陷。特别地,本发明使用来自车辆上的雷达传感器或观察系统的其中一个或两者的输出,作为插入信号以使得LiDAR传感器输出的融合系统识别目标。通常雷达传感器的距离较远,但视野较窄。而观察系统通常视野很短,但可以与检测目标接触。如上,所介绍的增强的融合系统被设计成估计每个检测物体的x,y,vx,vy和ξ。
图12为显示在道路152上的目标的图像150,该目标由主车辆上的LiDAR传感器、雷达传感器和观察系统检测到。特别地,该目标的距离足够远,或者被遮挡,使得LiDAR的扫描点很少,由点156表示。为了增强对目标的检测,观察系统图像154限定来自观察系统输出的相同目标和雷达数据点158代表了由雷达传感器检测到的相同目标。
图13为类似于上述系统10的车辆系统160的示意图,其用于尾随和追踪目标车辆164的主车辆162上。使用位置、速度、航向角等与图1中所示相同的变量。在该例子中,所述主车辆162包括具有视野168的LiDAR传感器166,具有视野172的雷达传感器170和具有视野176的观察系统174。LiDAR传感器166的返回显示为扫描点178,雷达传感器170的返回被标记为三角形180,和观察系统174的返回被表示为方块182。现有技术中己知,观察系统和雷达传感器给出来自于目标的四个输出,即为,至目标的距离,至目标的距离的变化(即,距离变化率),目标航向角以及目标方位角的变化(即,方位角变化率)。
图14为所提出的融合系统190的概观的框图。在每个时间步骤,雷达传感器170和/或观察系统174捕获的目标从方块192发送至插入内容方块194。如上所述,在方块196将LiDAR扫描群图提供给LiDAR追踪算法方块198。所述追踪算法接收来自方块194的插入内容目标数据,并且该目标数据与存储的物体模型进行匹配,其中值n0为检测到的目标的数量。每个目标oi=(x″i,y″i,v″iw″i)带有参数纵向位移(x″),横向位移(y″),径向速度(v″)和横向速度(w″)。带有每个扫描点sk的LiDAR扫描图R=(s1,s2,…,sN)T包括一 纵向偏置x″i和横向偏置y″i,其中N为扫描点的数量。所述追踪算法监测插入内容方块194的输入和LiDAR扫描图,并生成每个检测物体的输出参数x,y,vx,vy和ξ。应用方块200使用所估计的物体参数,并执行车辆主动安全应用,例如自适应巡航控制、碰撞缓解制动等。
图15为类似于上述的流程图80的流程图204,其中相同的操作使用相同的附图标记标示。流程图204包括从雷达传感器170或观察系统174读取目标数据的方块206。接着在方块208,所述算法将目标数据配准至LiDAR坐标系。为了完成该步骤,设yo为固定变换式T的参数(平移和旋转),该变换将目标从雷达传感器170或观察系统174映射至LiDAR坐标系,使得LiDAR坐标系中的映射目标为:
o i &prime; = T y o ( o i ) . - - - ( 73 )
该配准参数yo可以通过被追踪的LiDAR物体和来自雷达传感器170或观察系统174的目标之间的匹配对来自动估计。2011年8月7日公布的名为“Method and Apparatus forOn-vehicle Calibration and Orientation of Object-Tracking Systems(用于对车辆上的物体追踪系统进行校准和定位的方法和装置)”的美国专利7991550,被转让给本申请的受让人,在此通过参考被引入,介绍了—种适用于该目的的技术。
接着,在方块210所述算法将来自雷达传感器170或观察系统174的目标数据与物体模型M进行匹配。该处理过程显示为图16中的图像230,其包括主车辆232,其中点234为物体模型点,三角形236为雷达目标,以及菱形238为从观察系统174的图像数据中导出的虚拟扫描点。雷达目标Or被模型化为由三角形236表示的点。观察目标Ov被模型化为矩形,其可以表示为一系列在矩形边上采样得到的点,该矩形的边为从主车辆232入射的“虚拟”扫描线。值Ov={ol|l=1…,6}显示为菱形238。定义出物体模型的集合和所有物体模型的扫描点。设R=(oi)表示了所有的目标点,不论三角形或菱形,分别来自雷达传感器170或观察系统174。
上述过程被用于构造图17中的切断的二部图240。所述图240显示了位于节点246的物体运动242和位于节点248的物体模型244,其中 为创建新物体的候选,且预测物体模型被标记为正在衰减且可从物体文件中移除。
使用方块90得出的投影追踪物体模型方块88中与投影物体模型 匹配的群,和方块210中与物体模型匹配的目标数据,所述算法在方块212对物体模型M进行合并和拆分。考虑两种情况,即,观察目标和雷达目标。图18显示了如下情况的二部图,两个预测物体模型与观察目标O1匹配。该来自观察系统74的插入信息提供证据表明这两个物体模型需要合并为新的物体模型
图19为导出的二部图252,其显示了将节点256处的物体模型从节点254处的观察目标O1合并成单个的物体模型
图20为二部图260,其显示了另一种情况,其中物体模型与两个观察目标O1和O2匹配。来自观察系统174的插入信息提供证据表明物体模型需要被拆分成两个独立的物体模型
图21为导出的二部图262,其显示了节点264处的物体模型(其分别被节点266和268所表示的两个观察目标O1和O2检测到)拆分成分别由节点270和272表示的物体模型
图22为二部图270,其显示了如下情况,其中两个物体模型的点集R与三个雷达目标o1,o2和o3匹配。
图23为导出的二部图276,其显示了分配特别地,图276显示了节点278处的雷达目标o1与节点280处的物体模型匹配,并且节点282和284处的雷达目标o2和o3分别显示为合并成节点286处的单个物体模型
接下来,在方块214所述算法创建新的物体并删除正在衰减的物体。类似于上述流程图80的过程,需要处理两种特殊的情况以创建新物体并从物体档案中移除正在衰减的物体。对于未从LiDAR区段匹配的每个扫描群S和未从雷达传感器170或观察系统174匹配的每个目标,使用一追踪初始化过程以向物体档案中添加新物体。对于物体档案中的物体,如果来自于LiDAR传感器166的分割群S或来自雷达传感器170或观察系统174的目标不存在匹配,则该物体被标记为正在衰减。如果该物体在多个连续时间步骤中始终被标记为正在衰减,其将被从物体档案中移除。
接下来,在方块216所述算法提供追踪和模型更新。为了完成该步骤,设o0,…,ot和ot+1为雷达传感器170或观察系统174在时间步骤0,…,t和t+1分别 检测到的动态物体在LiDAR坐标系中的映射测量值。o0:t表示了从时间步骤0至时间步骤t的测量值。
图24显示了来自图8的修正的动态贝叶斯网络290,代表了带有插入信息的所提出的追踪算法的两个时间步骤。值yt和yt+1分别为在时间步骤t和t+1需要估计的变换式参数。模型Mt和Mt+1为在时间步骤t和t+1的物体模型。在网络290中,节点292为在时间步骤t和t+1的目标数据ot和ot+1,节点294为在时间步骤t和t+1的变换式参数y,节点296为在时间步骤t和t+1的物体模型M,以及节点298为在时间步骤t和t+1的扫描图。
与方程(47)中类似,贝叶斯和链式法则被分别用于导出后验PDF,给定来自于雷达传感器170或观察系统174LiDAR的至时间步骤t+1的扫描图和目标数据:
p(y,M|S(0:t+1),o(0:t+1))∝p(S|y,M)p(o|y,M)p(y,M|S(0:t),o(0:t)), (74)
=p(S|y,M)p(o|y)p(y,|S(0:t),o(0:t))p(M|S(0:t),o(0:t))
其中y和为M为简写的yt+1和Mt,S(0:t+1)代表了至时间步骤t+1的扫描图,S为在t+1处的扫描图,o=ot+1为时间步骤t+1处的测量目标的简写,以及假设给定S(0:t)和o(0:t)时的条件生独立得到最后的等式。
在公式(74)中,p(y,M|S(0:t),o(0:t))为给定先前扫描图S(0:t)和目标数据o(0:t)时时间步骤t+1处y的先验PDF,其可以通过下式计算:
p(y|S(0:t),o(0:t)=∫p(y|yt)p(yt|S(0:t),o(0:t))dyt (75)
其中p(yt|S(0:t),o(0:t)表示在t处变换工参数的后验PDF,且p(y|yt)表示了发展模型方程(49)。
如果假设p(yt|S(0:t),o(0:t))为以为中心的迪拉克增量分布,时间步骤t+1处的先验PDF可以写为:
p ( y | S ( 0 : t ) , o ( 0 : t ) ) = N ( y | y ~ , Q ) , - - - ( 76 )
其中是物体随后的发展模型的预测值
现在考虑物体模型M的后验概率,其中:
p ( M t - 1 | S 0 : t , o ( 0 : t ) ) = &Pi; j N ( m j | v j , &sigma; 2 &eta; j ) , - - - ( 77 )
并且其中在公式(51)中定义。如图24中所示,在时间步 骤t物体模型的先验网络可以写为:
p ( M | S ( 0 : t ) , o ( 0 : t ) ) = p ( M | y t , M t - 1 ) = &Pi; j N ( m j | T y &OverBar; t ( v j ) , &sigma; 2 &eta; j ) , - - - ( 78 )
现在考虑估计时间步骤t+1的后验概率的问题,其可以被分解为:
p(y,M|S(0:t+1),o(0:t+1))=p(y|S(0:t+1),o(0:t+1))p(M|S(0:t+1),o(0:t+1)), (79)
并且使用下面两个步骤独立地计算。
假设p(y|S(0:t+1),o(0:t+1))为以为中心的狄拉克增量PDF,其可以通过将等式(74)相对于y最大化来估计。
目标数据p(o|y)的测量模型被模型化为:
O=h(y)+v, (80)
其中v为带有协方差矩阵E的零均值高斯随机变量。因此,p(o|y)为高斯PDF,即:
p(o|y)=N(o|h(y),E), (81)
将公式(76)和(81)代入公式(74)中,对公式(74)取负对数,并忽略与y无关的项,可以得到下式:
y &OverBar; t + 1 = arg min y - &Sigma; kj a kj log K &sigma; ( T y - 1 ( s k ) - m j ) + , - - - ( 82 )
o-hyE2+y-yQ2
其中 m j = T y &OverBar; t ( v j ) | | a | | &Sigma; 2 = a T &Sigma; - 1 a
因此,算法1中的公式(38)可以替换成公式(55)以集成先前时间步骤的先验信息和来自雷达传感器170或观察系统174的插入信息,然后使用算法1导出
当计算p(M|S(0:t+1),o(0:t+1))时,应当注意公式(78)和公式(53)是等同的,并且因此,使用了上述相同的超参数更新规则。
然后在方块98按照上述方法更新物体档案78。
本领域技术人员应当理解,在此用于描述本发明的多种不同的步骤和处理过程可以表示由计算机、处理器或其他使用电子现象来操作和/或传输数据的电子计算设备来执行的操作。这些计算机和电子设备可以使用多种易失性和/或非易失性存储器,包括非暂态计算机可读介质,其上存储有可执行程序,包括能够被计算机或处理器执行的多种代码或可执行指令,其中存储器和/或计算机可读介质可以包括所有形式和类型的存储器和其他计算机可读介质。
上述介绍仅仅公开和描述本发明的示例性实施例。本领域技术人员在上述介绍的基础上并结合相应的附图和权利要求,可以在不脱离如在所附权利要求中限定的本发明的精神和范围的情况下,对本发明做出多种改变,修正和变型。

Claims (20)

1.一种用于对来自于车辆上的多个LiDAR传感器的输出进行融合的方法,所述方法包括:
提供先前采样时间时由LiDAR传感器检测到的物体的物体档案,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
追踪由传感器检测到的物体的物体模型;
对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型;
接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回;
从扫描返回中构造扫描点云;
将扫描点云中的扫描点分割为预测扫描群,其中每个扫描群最初标示了传感器检测到的物体;
将预测扫描群与预测物体模型进行匹配;
读取来自雷达传感器或观察系统检测到的物体的物体数据;
将物体数据配准在分配给LiDAR传感器扫描点的坐标系上;
使用预测物体模型对物体数据与物体档案中的物体模型进行匹配;
使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为多个独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型;
使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为多个独立扫描群的预测物体模型;
使用匹配后的预测扫描群和匹配后的物体数据为当前采样时间时检测到而在先前采样时间时不存在的物体创建新的物体模型;
使用匹配后的预测扫描群和匹配后的物体数据删除在预测扫描群中不再存在的物体模型;
基于合并的物体模型、拆分的物体模型、新的物体模型和删除的物体模型,提供物体模型更新;以及
使用物体模型更新对当前采样时间的物体档案进行更新。
2.根据权利要求1的方法,其中,分割点云中的扫描点包括分离点云中的扫描点群使得群标示出正被追踪的独立物体。
3.根据权利要求1 的方法,其中,对预测扫描群和预测物体模型进行匹配包括生成使得扫描群与预测物体模型匹配的二部图。
4.根据权利要求3的方法,其中,生成二部图包括在图的顶点定位扫描点。
5.根据权利要求3的方法,其中,合并预测物体模型和拆分预测物体模型包括将所述二部图转换为导出的二部图,其显示出正被合并或拆分的物体模型。
6.根据权利要求5的方法,其中,将二部图转换为导出的二部图包括为导出的二部图计算权重和边的基数,其中,每个权重标示了从至少一个传感器的一个扫描点至另一个传感器的扫描点定位的位置变化,且边定义了物体模型点和分割扫描点之间的匹配。
7.根据权利要求6的方法,其中,将二部图转换为导出的二部图包括将所述边的基数与一阈值进行比较,并且如果基数大于阈值则突出显示该边,且如果边没有被突出显示则移除该边。
8.根据权利要求7的方法,其中,删除在预测扫描群中不再存在的物体模型包括删除与被移除的边关联的物体模型。
9.根据权利要求1的方法,其中,提供物体模型更新包括在贝叶斯网络中针对先前时间帧至当前时间帧标示出物体数据、转换参数、物体模型和扫描图群。
10.一种用于对来自于车辆上多个LiDAR传感器的输出进行融合的方法,所述方法包括:
提供先前采样时间时由LiDAR传感器检测到的物体的物体档案,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
追踪由传感器检测到的物体的物体模型;
对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型;
接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回;
从扫描返回中构造扫描点云;
将扫描点云中的扫描点分割为预测扫描群,其中,每个扫描群最初标示了传感器检测到的物体;
将预测扫描群与预测物体模型进行匹配;
读取来自雷达传感器或观察系统检测到的物体的物体数据;
将物体数据配准在分配给LiDAR传感器扫描点的坐标系上;
使用预测物体模型对物体数据与物体档案中的物体模型进行匹配;
使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为多个独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型;以及
使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为多个独立扫描群的预测物体模型。
11.根据权利要求10 的方法,其中,分割点云中的扫描点包括分离点云中的扫描点群使得群标示出正被追踪的独立物体。
12.根据权利要求10 的方法,其中,对预测扫描群和预测物体模型进行匹配包括生成使得扫描群与预测物体模型匹配的二部图。
13.根据权利要求12 的方法,其中,生成二部图包括在图的顶点定位扫描点。
14.根据权利要求12 的方法,其中,合并预测物体模型和拆分预测物体模型包括将所述二部图转换为导出的二部图,其显示出正被合并或拆分的物体模型。
15.根据权利要求14 的方法,其中,将二部图转换为导出的二部图包括为导出的二部图计算权重和边的基数,其中,每个权重标示了从至少一个传感器的一个扫描点至另一个传感器的扫描点定位的位置变化,且边定义了物体模型点和分割扫描点之间的匹配。
16.根据权利要求15 的方法,其中,将二部图转换为导出的二部图包括将所述边的基数与一阈值进行比较,并且如果基数大于阈值则突出显示该边,且如果边没有被突出显示则移除该边。
17.根据权利要求16 的方法,其中,删除在预测扫描群中不再存在的物体模型包括删除与被移除的边关联的物体模型。
18.根据权利要求10 的方法,其中,提供物体模型更新包括在贝叶斯网络中针对先前时间帧至当前时间帧标示出物体数据、转换参数、物体模型和扫描图群。
19.一种用于对来自于车辆上的多个LiDAR传感器的输出进行融合的系统,所述系统包括:
用于提供先前采样时间时由LiDAR传感器检测到的物体的物体档案的设备,所述物体档案具有标示由传感器检测到的物体的位置、方向和速度的物体模型;
用于追踪由传感器检测到的物体的物体模型的设备;
用于对被追踪的物体档案中的物体模型从先前采样时间投影以提供预测物体模型的设备;
用于接收当前采样时间时在传感器的视野中检测到的物体的多个扫描返回的设备;
用于从扫描返回中构造扫描点云的设备;
用于将扫描点云中的扫描点分割为预测扫描群的设备,其中每个扫描群最初标示了传感器检测到的物体;
用于将预测扫描群与预测物体模型进行匹配的设备;
用于读取来自雷达传感器或观察系统检测到的物体的物体数据的设备;
用于将物体数据配准在分配给LiDAR传感器扫描点的坐标系上的设备;
用于使用预测物体模型对物体数据与物体档案中的物体模型进行匹配的设备;
用于使用匹配后的预测扫描群和匹配后的物体数据合并在先前采样时间时被识别为多个独立扫描群而现在在当前采样时间时被识别为单个扫描群的预测物体模型的设备;和
用于使用匹配后的预测扫描群和匹配后的物体数据拆分在先前采样时间时被识别为单个扫描群而现在在当前采样时间时被识别为多个独立扫描群的预测物体模型的设备。
20.根据权利要求19的系统,其中,用于分割点云中的扫描点的设备分离点云中的扫描点群使得群标示出正被追踪的独立物体。
CN201310757121.6A 2012-03-15 2013-12-09 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置 Active CN104035071B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261611492P 2012-03-15 2012-03-15
US13/789412 2013-03-07
US13/789,412 US9128185B2 (en) 2012-03-15 2013-03-07 Methods and apparatus of fusing radar/camera object data and LiDAR scan points

Publications (2)

Publication Number Publication Date
CN104035071A CN104035071A (zh) 2014-09-10
CN104035071B true CN104035071B (zh) 2016-11-23

Family

ID=49157315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310757121.6A Active CN104035071B (zh) 2012-03-15 2013-12-09 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置

Country Status (3)

Country Link
US (2) US9128185B2 (zh)
CN (1) CN104035071B (zh)
DE (1) DE102013113571A1 (zh)

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US10609335B2 (en) * 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
US9152526B2 (en) * 2012-11-16 2015-10-06 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
US9086481B1 (en) * 2013-01-18 2015-07-21 Google Inc. Methods and systems for estimating vehicle speed
CN104657968B (zh) * 2013-11-25 2017-05-24 武汉海达数云技术有限公司 车载三维激光点云立面分类及轮廓线提取自动化方法
NO336680B1 (no) * 2013-12-04 2015-10-19 Global Maritime As Fremgangsmåte for estimering av risiko for minst én utilsiktet sluppet last fra minst én kran på en plattform eller et fartøy på undersjøiske rørledninger og annet undersjøisk utstyr, samt anvendelser av fremgangsmåten
KR101583928B1 (ko) * 2014-05-12 2016-01-11 현대자동차주식회사 외장에어백 전개방법
DK2952993T3 (en) * 2014-06-05 2018-07-30 Softbank Robotics Europe PROCEDURE FOR MAKING A CARD OF LIKELIHOOD FOR ONE OF THE ABSENCE OR EXISTENCE OF BARRIERS FOR AN AUTONOMOUS ROBOT
CN106030431B (zh) * 2014-08-15 2017-11-03 深圳市大疆创新科技有限公司 传感器的自动标定系统及方法
JP6716857B2 (ja) * 2014-12-26 2020-07-01 株式会社リコー 移動体、測定システム、測定方法及びプログラム
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US10436904B2 (en) * 2015-04-15 2019-10-08 The Boeing Company Systems and methods for modular LADAR scanning
US10698111B2 (en) * 2015-05-15 2020-06-30 Sikorsky Aircraft Corporation Adaptive point cloud window selection
US10007852B2 (en) * 2015-05-29 2018-06-26 Bae Systems Information And Electronic Systems Integration Inc. Methods and apparatuses for performing object tracking using graphs
JP6539228B2 (ja) * 2015-06-16 2019-07-03 株式会社デンソー 車両制御装置、及び車両制御方法
US10795000B2 (en) 2015-07-10 2020-10-06 The Boeing Company Laser distance and ranging (LADAR) apparatus, array, and method of assembling thereof
US9616886B2 (en) 2015-07-16 2017-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Size adjustment of forward objects for autonomous vehicles
US10054678B2 (en) 2015-07-30 2018-08-21 Toyota Motor Engineering & Manufacturing North America, Inc. Minimizing incorrect sensor data associations for autonomous vehicles
US9886857B2 (en) * 2015-09-16 2018-02-06 Here Global B.V. Organized intelligent merging
KR101714233B1 (ko) * 2015-10-06 2017-03-08 현대자동차주식회사 도로상의 물체 검출 장치 및 그 방법
DE102015013271A1 (de) * 2015-10-13 2017-04-13 Daimler Ag Vorrichtung und Verfahren zur Steuerung eines Scheinwerfers
DE102015118874A1 (de) * 2015-11-04 2017-05-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Sensorsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und System zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs
US10605920B2 (en) * 2016-01-13 2020-03-31 Ams Sensors Singapore Pte. Ltd. Power savings through refresh control for distance sensing devices
US10565468B2 (en) * 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
KR101795432B1 (ko) * 2016-02-26 2017-11-10 현대자동차주식회사 차량 및 차량의 제어방법
US10317522B2 (en) * 2016-03-01 2019-06-11 GM Global Technology Operations LLC Detecting long objects by sensor fusion
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
CN107193011A (zh) * 2016-03-15 2017-09-22 山东理工大学 一种用于快速计算无人驾驶车感兴趣区域内车辆速度的方法
CN105891839B (zh) * 2016-04-02 2018-04-27 上海大学 一种具有彩色点云获取能力的全向激光雷达装置
US10380503B2 (en) 2016-04-08 2019-08-13 Here Global B.V. Distributed online learning for privacy-preserving personal predictive models
US10545229B2 (en) * 2016-04-22 2020-01-28 Huawei Technologies Co., Ltd. Systems and methods for unified mapping of an environment
CN105857182A (zh) * 2016-05-19 2016-08-17 奇瑞汽车股份有限公司 一种电动汽车
CN106056563A (zh) * 2016-05-20 2016-10-26 首都师范大学 一种机载激光点云数据与车载激光点云数据融合方法
KR101887436B1 (ko) * 2016-06-29 2018-09-06 현대오트론 주식회사 물체 탐지 장치 및 방법
KR102637515B1 (ko) * 2016-07-26 2024-02-19 현대자동차주식회사 차량 및 차량의 제어방법
FR3054672B1 (fr) * 2016-07-29 2019-09-13 Valeo Schalter Und Sensoren Gmbh Procede et systeme d'association de donnees de detection et de suivi d'objets mobile pour vehicule automobile
US11092690B1 (en) 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
JP2020502685A (ja) 2016-12-20 2020-01-23 トヨタ・モーター・ヨーロッパToyota Motor Europe パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法
US10782409B2 (en) * 2016-12-29 2020-09-22 Intel Corporation Technologies for LIDAR based moving object detection
CN108286976A (zh) * 2017-01-09 2018-07-17 北京四维图新科技股份有限公司 一种点云数据的融合方法和装置、以及混合导航系统
US10838067B2 (en) 2017-01-17 2020-11-17 Aptiv Technologies Limited Object detection system
JP7157054B2 (ja) 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
US10290158B2 (en) 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10473766B2 (en) 2017-03-13 2019-11-12 The Charles Stark Draper Laboratory, Inc. Light detection and ranging (LiDAR) system and method
US10509974B2 (en) 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
US11055605B2 (en) * 2017-04-25 2021-07-06 Nec Corporation Detecting dangerous driving situations by parsing a scene graph of radar detections
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
US10304165B2 (en) 2017-05-12 2019-05-28 Ford Global Technologies, Llc Vehicle stain and trash detection systems and methods
AU2017414401B2 (en) * 2017-05-17 2020-12-17 O-Net Technologies (Shenzhen) Group Co., Ltd Vehicle-mounted light detection and ranging (lidar) system
US10602242B2 (en) 2017-06-14 2020-03-24 GM Global Technology Operations LLC Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices
CN109212530B (zh) * 2017-07-04 2022-03-11 阿波罗智能技术(北京)有限公司 用于确定障碍物速度的方法和装置
US9950685B1 (en) * 2017-07-27 2018-04-24 Feniex Industries, Inc. 360 degree intrusion detection and warning system
CN107544095B (zh) * 2017-07-28 2019-03-08 河南工程学院 一种地面三维激光点云与探地雷达图像融合的方法
EP3438776B1 (en) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
US11455565B2 (en) 2017-08-31 2022-09-27 Ford Global Technologies, Llc Augmenting real sensor recordings with simulated sensor data
US11487988B2 (en) 2017-08-31 2022-11-01 Ford Global Technologies, Llc Augmenting real sensor recordings with simulated sensor data
US10962641B2 (en) * 2017-09-07 2021-03-30 Magna Electronics Inc. Vehicle radar sensing system with enhanced accuracy using interferometry techniques
US11714193B1 (en) * 2017-09-19 2023-08-01 Direct Current Capital LLC Method for registering distance scan data
US10436885B2 (en) * 2017-10-19 2019-10-08 DeepMap Inc. Calibrating sensors mounted on an autonomous vehicle
US10324189B2 (en) * 2017-10-24 2019-06-18 Harman International Industries, Incorporated Collaborative data processing
EP3477616A1 (en) 2017-10-27 2019-05-01 Sigra Technologies GmbH Method for controlling a vehicle using a machine learning system
CN109839645B (zh) * 2017-11-24 2021-05-25 北京京东乾石科技有限公司 速度检测方法、系统、电子设备和计算机可读介质
CN108318895B (zh) * 2017-12-19 2020-02-07 深圳市海梁科技有限公司 用于无人驾驶车辆的障碍物识别方法、装置及终端设备
US11585920B2 (en) 2017-12-28 2023-02-21 Intel Corporation Vehicle sensor fusion
CN108230379B (zh) * 2017-12-29 2020-12-04 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置
DE112018007048T5 (de) * 2018-02-09 2020-10-15 Sony Corporation Kalibrationsvorrichtung, kalibrationsverfahren und programm
DE102018202303B4 (de) * 2018-02-15 2022-06-15 Robert Bosch Gmbh Sensorsystem zum Anbringen einer Sensoranordnung an einem Fahrzeug
EP3527332A1 (de) * 2018-02-20 2019-08-21 Sick AG Sichere sensorvorrichtung und verfahren zur absicherung einer beweglichen maschine
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
JP6895911B2 (ja) * 2018-03-05 2021-06-30 株式会社デンソーアイティーラボラトリ 物体追跡装置、物体追跡方法及び物体追跡用コンピュータプログラム
FR3079034B1 (fr) 2018-03-14 2020-02-21 Renault S.A.S Procede robuste de detection d'obstacles, notamment pour vehicules autonomes
FR3079924B1 (fr) * 2018-04-10 2021-10-29 Genetec Inc Suivi par geolocalisation
KR20210005621A (ko) 2018-05-01 2021-01-14 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션 포인트 클라우드의 채색에 사용하기 위한 방법 및 시스템
DE102018110775A1 (de) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Ausrichtung eines optoelektronischen Sensors mittels Abtastpunkten eines Sensorbildes sowie optoelektronischer Sensor
US11035933B2 (en) 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
WO2019220503A1 (ja) * 2018-05-14 2019-11-21 三菱電機株式会社 物体検出装置及び物体検出方法
EP3572841B1 (en) * 2018-05-23 2024-02-14 Aptiv Technologies Limited Method of modelling a scanning distance sensor for prototyping parameters of such sensor and/or for prototyping software processing the output of such sensor
JP7244220B2 (ja) * 2018-06-13 2023-03-22 株式会社デンソーテン レーダ装置および物標データ出力方法
US11067693B2 (en) * 2018-07-12 2021-07-20 Toyota Research Institute, Inc. System and method for calibrating a LIDAR and a camera together using semantic segmentation
CN112368756B (zh) * 2018-07-16 2022-11-11 豪威芯仑传感器(上海)有限公司 计算对象和车辆碰撞时间的方法、计算设备及车辆
WO2020015748A1 (en) * 2018-07-20 2020-01-23 Suteng Innovation Technology Co., Ltd. Systems and methods for lidar detection
CN110378360B (zh) * 2018-08-01 2021-10-15 北京京东尚科信息技术有限公司 目标标定方法、装置、电子设备及可读存储介质
CN108717540B (zh) * 2018-08-03 2024-02-06 浙江梧斯源通信科技股份有限公司 基于2d激光雷达区分行人和车辆的方法及装置
US10551485B1 (en) * 2018-08-06 2020-02-04 Luminar Technologies, Inc. Fitting points to a surface
US11518382B2 (en) * 2018-09-26 2022-12-06 Nec Corporation Learning to simulate
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
US10878282B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Segmentation processing of image data for LiDAR-based vehicle tracking system and method
JP2022510198A (ja) * 2018-11-29 2022-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 移動プラットフォームの周囲の環境を検出するシステム及びその方法
CN110103810B (zh) * 2019-01-03 2024-02-27 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
US11048254B2 (en) * 2019-04-10 2021-06-29 Waymo Llc Generating simplified object models to reduce computational resource requirements for autonomous vehicles
US10928508B2 (en) 2019-04-12 2021-02-23 Ford Global Technologies, Llc Camera and radar fusion
US10887928B2 (en) * 2019-04-24 2021-01-05 Here Global B.V. Lane aware clusters for vehicle to vehicle communication
DE102019206503A1 (de) * 2019-05-07 2020-11-12 Zf Friedrichshafen Ag Verfahren und Steuereinheit zum Betreiben eines autonomen Fahrzeugs
RU2767955C1 (ru) 2019-05-27 2022-03-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для определения компьютером наличия динамических объектов
US11460581B2 (en) 2019-06-10 2022-10-04 Toyota Research Institute, Inc. Systems and methods for reducing LiDAR points
CN110286383B (zh) * 2019-06-27 2023-09-01 电子科技大学 一种应用于目标跟踪的雷达和红外传感器部署方法
US11372091B2 (en) 2019-06-28 2022-06-28 Toyota Research Institute, Inc. Systems and methods for correcting parallax
CN110275153B (zh) * 2019-07-05 2021-04-27 上海大学 一种基于激光雷达的水面目标检测与跟踪方法
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN110687532A (zh) * 2019-09-06 2020-01-14 中国人民解放军空军工程大学 多群目标跟踪系统及方法
CN110554407B (zh) * 2019-09-25 2023-05-09 哈尔滨工程大学 一种模拟船用激光雷达三维点云成像方法
EP3809311A1 (de) * 2019-10-15 2021-04-21 Elektrobit Automotive GmbH Verarbeitung von sensordaten in einem kraftfahrzeug
JP6999625B2 (ja) * 2019-11-06 2022-02-04 財団法人車輌研究測試中心 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム
US11536843B2 (en) 2020-02-08 2022-12-27 The Boeing Company De-jitter of point cloud data for target recognition
US11236990B2 (en) * 2020-02-08 2022-02-01 The Boeing Company De-jitter of point cloud data
US11879964B2 (en) * 2020-02-13 2024-01-23 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of moving object with model geometry learning
US11619494B2 (en) * 2020-02-13 2023-04-04 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of an object
US11598878B2 (en) 2020-04-07 2023-03-07 Teledyne Scientific & Imaging, Llc Vision-cued random-access lidar system and method for localization and navigation
CN111891124B (zh) * 2020-06-08 2021-08-24 福瑞泰克智能系统有限公司 目标信息融合的方法、系统、计算机设备和可读存储介质
CN111522020A (zh) * 2020-06-23 2020-08-11 山东亦贝数据技术有限公司 一种园区活动要素混合定位系统及方法
US11448748B2 (en) 2020-09-10 2022-09-20 Argo AI, LLC Systems and methods for simultaneous range-rate unwrapping and outlier removal for radar
US11662454B2 (en) * 2020-11-02 2023-05-30 Ford Global Technologies, Llc Systems and methods for range-rate dealiasing using position consistency
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
CN112693466A (zh) * 2021-01-29 2021-04-23 重庆长安汽车股份有限公司 一种车辆环境感知传感器性能测评系统及方法
WO2022169988A1 (en) * 2021-02-03 2022-08-11 Autonomous Solutions, Inc. Localization system for autonomous vehicles using sparse radar data
US11729521B2 (en) * 2021-03-08 2023-08-15 GM Global Technology Operations LLC Systems and methods for extended field of view and low light imaging
CN112801068B (zh) * 2021-04-14 2021-07-16 广东众聚人工智能科技有限公司 一种视频多目标跟踪与分割系统和方法
CN113484871B (zh) * 2021-06-16 2023-09-08 国能榆林能源有限责任公司 激光雷达融合探测方法和计算机存储介质
US11909950B1 (en) * 2021-09-21 2024-02-20 Amazon Technologies, Inc. Three-dimensional (3D) sensor performance evaluation
CN114049385A (zh) * 2021-10-15 2022-02-15 哈尔滨工业大学(威海) 基于自适应配准的多激光雷达自主建网系统、方法、终端
CN115063465B (zh) * 2022-06-15 2023-07-18 华南理工大学 一种基于激光雷达的无人车行驶路况建模方法
CN115331191B (zh) * 2022-10-13 2022-12-13 深圳市镭神智能系统有限公司 车型识别方法、装置、系统和存储介质
CN117148373B (zh) * 2023-10-30 2024-01-26 浙江华是科技股份有限公司 基于激光雷达和ais全局匹配的船舶识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102607459A (zh) * 2012-03-06 2012-07-25 中国矿业大学(北京) Lidar测量数据的拼接方法和装置
CN102915558A (zh) * 2011-08-01 2013-02-06 李慧盈 一种快速提取机载LiDAR数据中建筑物三维轮廓信息的方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480640B1 (en) * 2003-12-16 2009-01-20 Quantum Leap Research, Inc. Automated method and system for generating models from data
US7466797B2 (en) * 2004-03-22 2008-12-16 University Of Notre Dame Du Lac Error control in algorithmic approach to step-and-shoot intensity modulated radiation therapy
US7411196B2 (en) * 2005-08-18 2008-08-12 Itt Manufacturing Enterprises, Inc. Multi-sensors and differential absorption LIDAR data fusion
US7417717B2 (en) * 2005-10-05 2008-08-26 Utah State University System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
US20090018712A1 (en) * 2007-07-13 2009-01-15 Jerry Richard Duncan Method and system for remotely monitoring and controlling a vehicle via a virtual environment
US8599367B2 (en) * 2010-08-04 2013-12-03 Alliant Techsystems Inc. Apparatus and methods for obtaining multi-dimensional spatial and spectral data with LIDAR detection
US8818702B2 (en) 2010-11-09 2014-08-26 GM Global Technology Operations LLC System and method for tracking objects
US8775064B2 (en) 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102915558A (zh) * 2011-08-01 2013-02-06 李慧盈 一种快速提取机载LiDAR数据中建筑物三维轮廓信息的方法
CN102607459A (zh) * 2012-03-06 2012-07-25 中国矿业大学(北京) Lidar测量数据的拼接方法和装置

Also Published As

Publication number Publication date
CN104035071A (zh) 2014-09-10
US20130242284A1 (en) 2013-09-19
US9476983B2 (en) 2016-10-25
US9128185B2 (en) 2015-09-08
US20160018524A1 (en) 2016-01-21
DE102013113571A1 (de) 2014-09-11

Similar Documents

Publication Publication Date Title
CN104035071B (zh) 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置
CN104035439B (zh) 用多个激光雷达传感器利用扫描点追踪物体的贝叶斯网络
CN103308923B (zh) 来自多个激光雷达的距离图像配准方法
US9329269B2 (en) Method for registration of range images from multiple LiDARS
US11073601B2 (en) Vehicle positioning system using LiDAR
Siegemund et al. A temporal filter approach for detection and reconstruction of curbs and road surfaces based on conditional random fields
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US8704887B2 (en) Multi-object appearance-enhanced fusion of camera and range sensor data
JP3367170B2 (ja) 障害物検出装置
CN111222568B (zh) 一种车辆网联数据融合方法及装置
Postica et al. Robust moving objects detection in lidar data exploiting visual cues
CN112997187A (zh) 基于鸟瞰图点云的二维对象边界框信息估计
US11860315B2 (en) Methods and systems for processing LIDAR sensor data
US11860281B2 (en) Methods and systems for filtering data points when merging LIDAR sensor datasets
Daraei et al. Velocity and shape from tightly-coupled LiDAR and camera
JP2019191991A (ja) 点群から対象の向きを推定する対象情報推定装置、プログラム及び方法
Zeng An object-tracking algorithm for 3-D range data using motion and surface estimation
García-García et al. 3D visual odometry for road vehicles
US11138448B2 (en) Identifying a curb based on 3-D sensor data
US20210072392A1 (en) Method for processing surrounding information
Hernandez et al. Recognize moving objects around an autonomous vehicle considering a deep-learning detector model and dynamic bayesian occupancy
Wei et al. Plane-based scan registration with moving vehicles exclusion
Mattson et al. Reducing ego vehicle energy-use by LiDAR-based lane-level positioning
John et al. Sensor fusion and registration of lidar and stereo camera without calibration objects

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant