CN103308923A - 来自多个激光雷达的距离图像配准方法 - Google Patents

来自多个激光雷达的距离图像配准方法 Download PDF

Info

Publication number
CN103308923A
CN103308923A CN2013101154322A CN201310115432A CN103308923A CN 103308923 A CN103308923 A CN 103308923A CN 2013101154322 A CN2013101154322 A CN 2013101154322A CN 201310115432 A CN201310115432 A CN 201310115432A CN 103308923 A CN103308923 A CN 103308923A
Authority
CN
China
Prior art keywords
sensor
value
laser radar
current transform
radar sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101154322A
Other languages
English (en)
Other versions
CN103308923B (zh
Inventor
S·曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/777,469 external-priority patent/US9329269B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN103308923A publication Critical patent/CN103308923A/zh
Application granted granted Critical
Publication of CN103308923B publication Critical patent/CN103308923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

本发明涉及来自多个激光雷达的距离图像配准方法,具体地,一种用于配准从来自由车辆上的多个激光雷达传感器探测到的物体的距离图像的系统和方法。该方法包括在传感器信号融合操作中将来自具有交叠视场的至少两个激光雷达传感器的数据帧对准,以追踪由传感器探测到的物体。该方法定义识别传感器的方位角和位置的用于激光雷达传感器中至少一个的变换值,并且提供来自由传感器探测到的物体的目标扫描点,其中对每个传感器的目标扫描点提供独立的目标点图。该方法采用当前变换值将来自所述至少一个传感器的目标点图投射到激光雷达传感器中的另外一个以交叠来自传感器的目标扫描点。

Description

来自多个激光雷达的距离图像配准方法
相关申请的交叉引用
本申请要求2012年3月15日提交的题为“Method forRegistration of Range Images From Multiple LiDARS”的美国临时专利申请序号61/611465的优先权日期的权益。
技术领域
本发明总体涉及一种用于对来自多个激光雷达传感器的距离图像(range image)进行配准(register)的系统和方法,并且更具体地涉及一种对来自车辆上的多个激光雷达传感器的距离图像进行配准的系统和方法,其中该方法包括对同时来自多个激光雷达传感器的两个数据帧进行配准。
背景技术
许多现代的车辆包括物体探测传感器,其用于实现碰撞警报或者碰撞避免以及其他主动的安全应用。物体探测传感器可使用任意多种的探测技术,诸如短距离雷达、具有图像处理的照相机、激光或激光雷达(LiDAR)、超声波等。物体探测传感器探测车辆以及处于主车辆的路径中的其他物体,并且应用软件使用物体探测信息以提供警告或者采取适当的动作。在许多车辆中,物体探测传感器直接被集成到车辆的前缓冲器或者其他的仪表板中。
为了使得应用软件最优地执行,物体探测传感器必须与车辆适当地对准。例如,如果传感器探测处于主车辆的路径中的物体,但由于传感器没有对准,传感器确定物体稍微处于主车辆的路径的左边,则这会对应用软件具有重大后果。即使在车辆上具有多个前视物体探测传感器,它们被适当地对准也是重要的,以便最小化或者消除不一致的传感器读数。
激光雷达传感器是一种传感器的类型,其有时候用在车辆上以探测车辆周围的物体并提供至这些物体的距离。激光雷达传感器是期望的,因为它们能够提供被跟踪的物体的驶向,而其他类型的传感器,诸如视觉系统以及雷达传感器,一般不能做到。对于一种类型的激光雷达传感器,来自物体的反射返回为作为点集群(cluster)距离图的部分的扫描点,其中为穿过传感器视场每1/2°而提供单独的扫描点。因此,如果探测到目标车辆在主车辆的前面,则可具有被返回的多个扫描点,其辨别目标车辆和主车辆之间的距离。
车辆可具有多个激光雷达传感器以提供绕车辆的360°视场。这些多个激光雷达传感器可包括旁视传感器、后视传感器和前视传感器。所述传感器中的每个独立于其他传感器在其视场中追踪物体。使用来自多个传感器的扫描点返回,产生距离图形以追踪靠近主车辆的物体。对于具有多个激光雷达传感器的车辆,多个点集群图被返回,并且对于交叠的传感器视场,传感器可以追踪相同的物体。有必要组合所述传感器的扫描点图,以使传感器所追踪的相同物体被处理为单个的目标。
被转让给本申请的受让人并且这里通过参考的方式而引入的于2010年11月9日提交的题为“Systems and Methods for TrackingObjects(用于追踪物体的系统和方法)”的美国专利申请序号12/942456,公开了一种使用激光雷达传感器用于监控目标物体的驶向和与主车辆的距离。该申请限于单个激光雷达传感器,并且没有讨论融合从多个激光雷达传感器的返回。
发明内容
根据本发明的教导,公开一种用于配准从来自由车辆上的多个激光雷达传感器探测到的物体的距离图像的系统和方法的系统和方法。该方法包括在传感器信号融合操作中将来自具有交叠视场的至少两个激光雷达传感器的数据帧对准,以追踪由传感器探测到的物体。该方法定义识别传感器的方位角和位置的用于激光雷达传感器中至少一个的变换值,并且提供来自由传感器探测到的物体的目标扫描点,其中对每个传感器的目标扫描点提供独立的目标点图。该方法采用当前变换值将来自所述至少一个传感器的目标点图投射到激光雷达传感器中的另外一个以交叠来自传感器的目标扫描点,并且采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置。该方法采用所述权重值计算新的变换值,将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值,并且基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值,从而传感器被校准。
本发明还提供如下方案:
1.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述方法包括:
定义用于所述激光雷达传感器中至少一个的变换值,其识别所述传感器的方位角和位置;
提供来自由所述传感器探测到的物体的目标扫描点,其中对每个传感器的所述目标扫描点提供独立的目标点图;
采用当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置;
采用所述权重值计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值。
2.根据方案1所述的方法,其特征在于,所述激光雷达传感器位于车辆上。
3.根据方案1所述的方法,其特征在于,还包括为所述传感器中的所述至少一个传感器选择被初始地用作所述当前变换值的初始变换值。
4.根据方案3所述的方法,其特征在于,选择初始变换值包括从由制造商设定值、零以及估计的值构成的组中选择初始变换值:。
5.根据方案1所述的方法,其特征在于,确定多个权重值包括使用方程:
Figure BSA00000875074400031
其中ajk是用于具体扫描点的权重值,sj是来自所述激光雷达传感器中的所述至少一个激光雷达传感器的扫描点,mk是来自所述激光雷达传感器中的所述另外一个的扫描点,T是变换值,以及K是核函数,被定义为:
Figure BSA00000875074400032
其中σ是方差。
6.根据方案1所述的方法,其特征在于,还包括确定当前变换值是否大于预定阈值,其中如果所述当前变换值大于预定阈值,那么所述变换值基于旋转矩阵和平移矢量而被定义。
7.根据方案6所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
8.根据方案1所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
9.根据方案8所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
10.根据方案1所述的方法,其特征在于,定义变换值包括使用期望最大化算法。
11.根据方案1所述的方法,其特征在于,提供目标扫描点包括提供目标扫描点为双向图。
12.根据方案1所述的方法,其特征在于,还包括提供其他类型的传感器,操作以探测物体并提供提示信号以开始传感器融合操作。
13.根据方案12所述的方法,其特征在于,所述其他类型的传感器包括雷达传感器和视觉系统。
14.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述激光雷达传感器位于车辆上,所述方法包括:
定义用于所述激光雷达传感器中至少一个的当前变换值,其识别所述传感器在一个取样时间的方位角和位置;
提供由来自所述传感器探测到的物体的目标扫描点,其中对于每个传感器的所述目标扫描点提供独立的目标点图;
采用所述当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
在下一个取样时间计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述差值更新所述当前变换值。
15.根据方案14所述的方法,其特征在于,还包括确定所述当前变换值是否大于预定阈值,其中如果所述当前变换值大于所述预定阈值,那么所述变换值基于旋转矩阵和平移矢量来定义。
16.根据方案15所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
17.根据方案14所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
18.根据方案17所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
19.根据方案14所述的方法,其特征在于,定义变换值包括使用期望最大化算法。
通过结合附图所做的以下描述以及所附权利要求,本发明的其他特征将变得显而易见。
附图说明
图1是跟随目标车辆的主车辆的图示,并且示出了在主车辆上的四个激光雷达传感器的视场;
图2是用于融合来自车辆上的多个激光雷达传感器的扫描点的融合系统的总体框图;
图3(A)和(B)示出了来自激光雷达传感器的扫描点;
图4是流程图,示出了用于配准来自多个激光雷达传感器的扫描点的方法;
图5是物体后部的轮廓概率密度函数;
图6是迭代边界优化图;
图7是方框图,示出了估计物体移动和当新的激光雷达扫描点图可用时更新物体模型的两个交织过程;
图8是用于由追踪算法追踪的物体的动态贝叶斯网络;
图9是流程图,示出了在单个时间步处的多个物体追踪算法的过程;
图10是双向图,示出了用于图9的图示中将扫描集群与预测的物体模型进行匹配的步骤的预测的物体模型点和分段扫描图点;
图11是从图10中示出的双向图产生的诱导双向图;
图12是来自激光雷达传感器、视觉系统以及雷达传感器的扫描点的图示;
图13是跟随目标车辆的主车辆的图示,并示出了位于主车辆上的激光雷达传感器、雷达传感器以及视觉系统的视场;
图14是用于采用来自雷达传感器或者视觉系统提示的激光雷达传感器的追踪算法的总体流程图。
图15是流程图,示出了采用来自雷达传感器或者视觉系统提示的多个物体追踪算法的过程;
图16是双向图,示出了对所有的激光雷达扫描点、雷达传感器返回和视觉系统图像而将目标数据与物体模型进行匹配;
图17是产生自图16中示出的双向图的诱导双向图;
图18是双向图,示出了通过使用视觉系统提供匹配来将两个投射的物体模型合并;
图19是图18的诱导双向图,示出了来自图18的物体模型的匹配;
图20是双向图,示出了通过使用视觉系统进行匹配而分离所投射的物体模型;
图21是示出匹配来自图20的物体模型的诱导双向图;
图22是示出通过使用雷达传感器进行匹配的所投射的物体模型的双向图;
图23是示出匹配来自图22的模型的诱导双向图;以及
图24是通过来自雷达传感器或者视觉系统的提示信息的追踪算法和模型更新的动态贝叶斯网络。
具体实施方式
以下对用于来自位于车辆上的多个激光雷达传感器的距离图像进行配准的系统和方法的本发明的实施例的讨论,实质上仅是示例性的,并且不意在对本发明或者其应用或者使用进行限制。例如,将对位于车辆上的激光雷达传感器的距离图像的配准进行描述本发明。然而,如本领域技术人员将理解的,本发明的配准过程将具有车辆应用以外的应用。
图1示出包括主车辆12的车辆系统10的总览,主车辆12被示出追随其正追踪的目标车辆14。主车辆12包括四个激光雷达传感器,即:具有视场18的前视传感器16、具有视场22的后视传感器20、具有视场26的左视传感器24以及具有视场30的右视传感器28。传感器16、24和28都被安置于车辆12的前部处并具有交叠的视场,如图所示。如果物体诸如目标车辆14处于传感器16、20、24和30中的特定一个的视场中,则传感器返回识别该物体的多个扫描点。目标车辆14上的点32代表从每个传感器16、24和28而返自目标车辆14的扫描点。使用坐标变换技术而将点32变换成主车辆12上的车辆坐标系(x,y),然后使用点32在车辆坐标系中执行物体探测。可以使用点32限定目标车辆14的后部形状,如下讨论。
每个传感器16、20、24和28将为被传感器探测到的每个单独的物体提供扫描点云(point cloud)。本发明提出一种融合算法,其将每个传感器16、20、24和28的输出组合使得:在传感器16、20、24和28追踪相同的物体时,该物体被处理为单个目标,其中该算法输出每个被追踪物体的位置、方位以及速度。虽然该讨论包括四个激光雷达传感器,但所提出的融合算法将适用于任意数量和位置的具有交叠视场的多个激光雷达传感器。
目标车辆14的位置在该图中由定位点34即扫描图的中心来表示。以下值被用于表示在时间步t处目标车辆14的物体模型M。特别地,物体模型M定义相对的纵向速度Vx、相对的横向速度Vy、横向位移y、以及目标车辆的驶向ξ或者目标的对地速度矢量的方向。值M是由参数平均值mj和方差σ2表示的高斯分量的列表。该平均值由多个超参数vj,ηj,kj以及标记(即,访问过的以及到期的)来表征。
图2是用于融合来自多个激光雷达传感器诸如传感器16、20、24和28的扫描点云返回的融合系统36的示意方框图。框38表示来自左激光雷达传感器24的扫描点云返回,框40表示来自右视激光雷达传感器28的扫描点云返回,框42表示来自前视激光雷达传感器16的扫描点云返回,以及框44表示来自后视激光雷达传感器20的扫描点云返回。来自激光雷达传感器16、20、24和28的距离图被配准并且在框16中构建360°距离图(点云)。一旦来自激光雷达传感器16、20、24和28的点云被配准并且在车辆坐标系中形成360°点云,那么在框48中,算法融合来自多个目标的点云,以下进行详细描述。在目标在车辆坐标系框架中被融合之后,在框50中,算法输出目标的位置、方位以及速度。
在具体讨论用于组合来自多个激光雷达传感器的扫描点的融合过程之前,提供在框46中执行的扫描点配准算法的讨论以在对应于物体的物体模型M和当前扫描图S可获得时估计物体的移动。
在许多车辆中,物体探测传感器被直接集成到车辆的前部仪表板中。该类型的安装简单、有效且美观,但具有缺点:不能实际地去物理地调整传感器的对准。因此,如果由于仪表板的损坏或者老化以及与天气有关的变形引起传感器与车辆的实际驶向不对准,则除了替换包含传感器的整个仪表板组件之外,传统上没有办法校对该不对准。
如以下将讨论的,在框46中执行的帧配准匹配来自传感器20、24和28的距离扫描点,以适应传感器20、24和28的位置和方位的可能漂移。当车辆12是新的时,传感器20、24和28被初始地校准。如提到的,各种因素引起那些方位随着时间改变,因此需要实施方法来对传感器的方位进行再校准,使得在视场26和30的交叠部分中探测到的物体更精确。本发明提出期望最大化(EM)匹配算法来寻找限定传感器的方位角以及x和y位置的多个激光雷达传感器之间的变换T。例如,算法将匹配从左视激光雷达传感器24到右视激光雷达传感器28的变换T,然后当来自随后计算的变换T匹配时,传感器24和28将得到对准。
通过选择初始变换值T0(其可以是零、之前估计的值、由制造商提供的在传感器24和28之间的方位等),EM算法开始。然后该算法通过使用变换T将左传感器距离图投射到用于右视激光雷达传感器28的帧。图3是扫描点图120的表示,其中圆圈124表示来自左激光雷达传感器24的扫描点返回,而椭圆126表示来自右视激光雷达传感器28的扫描点返回。图3(A)示出了所有的扫描点返回,而图3(B)示出了对于几个扫描点返回的在圆圈122中的放大区域。图3(B)示出了左视激光雷达传感器扫描点返回124如何通过箭头128被映射到右视激光雷达传感器扫描点返回126。通过使用当前可获得的用于投射图箭头128的变换T,左视激光雷达传感器扫描点返回124相对于右视激光雷达传感器扫描点返回126移动以尝试使得它们交叠。
当前使用的变换T对于左视激光雷达传感器24到右视激光雷达传感器28的当前方位可能不准确,使得对于传感器24和28的当前位置来说变换T需要被更新。算法使用当前变换T以更新左传感器扫描点Sj和右传感器扫面点mk之间的权重ajk为:
Figure BSA00000875074400091
其中核函数K是:
K ( x ) = 1 σ 2 π e - x 2 2 σ 2 . - - - ( 2 )
然后使用修正的权重ajk来确定新的变化T’为:
然后将新的变换T’与之前计算的变换T对比,并且基于它们之间的差,使用新的变换T’重新计算权重ajk直到新计算的变换T’匹配之前计算的变换T,其中传感器24和28被对准。
在某些情况下,用于对准扫描数据点的变换T将足够大,其中会有益的是增强方程(3)中的T’的解。对于该示例,变换T被定义为x′=T·x,其中x′=Rx+t,并且其中R是旋转矩阵,而t是平移矢量。在该分析中,让:
S=[S1,S2,...,SL]T,    (4)
M=[m1,m2,...,mN]T,    (5)
A=[ajk],    (6)
1=[1,1,...,1]T,    (7)
μ s = 1 L S T A T 1 , - - - ( 8 )
μ m = 1 N M T A 1 , - - - ( 9 )
S ^ = S - 1 μ S T , - - - ( 10 )
M ^ = M - 1 μ m T . - - - ( 11 )
方程(3)中的新的变换T’的解然后由以下给出:
T′=[R′,t′],    (12)
其中:
R′=UCV,    (13)
t′=μs-R′μm,    (14)
并且其中U和V被定义为如下的奇异值分解的因子:
USV = svd ( S ^ T A T M ^ ) , - - - ( 15 )
并且C是:
C = 1 0 0 det ( UV T ) . - - - ( 16 )
如上所描述的确定变换T的EM算法可能仅仅局部地优化并且对初始变换值敏感。该算法可以通过使用粒子群优化(PSO)而得到增强从而找到初始变换T0。在该优化中,设E是从左激光雷达传感器24到右激光雷达传感器28的适格的变换T的集合。算法根据在适格的变换E中的均匀分布而随机产生N粒子{ti/t,∈E},并且每个粒子ti与规一化权重Wi=1/N相关联。对于每个粒子ti,EM算法被设定为最佳变换Ti,其中ti被赋予为初始值。假设权重Wi是用于变换Ti的两个扫描之间匹配的百分比。该算法然后输出具有最匹配百分比的变换Tk作为从左激光雷达传感器24到右激光雷达传感器28的变换的名义值,其中wk=max(wi)。
在大多数情况下,变换T从一个采样时间到下一个的变化一般为小,并且因此,不需要对于如上所述的变换T的巨大变化而使用计算密集型处理来计算新的变换T’。特别地,如果名义变换Tn由如上的PSO算法估算,那么变换T’的新的估算可以使用如下的少的计算EM匹配算法而递归改进。首先,变换Tn被应用于右激光雷达传感器28的每个扫描点如:
Sj←TnοSj.    (17)
修正的变换ΔT被确定为:
ΔT:x′=ΔTοx,    (18)
并且定义为:
x′=x-εy+tx,    (19)
y′=εx+y+ty,    (20)
其中变换ΔT被建模为(tx,ty,ε),并且其中之前的变换ΔT0是(txo,tyo,εo)。
方程(3)然后被替换为:
Figure BSA00000875074400102
并且该解是:
t x ' = Σ j , k a jk ( x j ' + ϵ y k - x k ) + λ t x 0 Σ j , k a jk + λ , - - - ( 22 )
其中:
sj=(x′j,y′j),    (23)
mk=(xk,yk),    (24)
T′=t′x,t′y,ε′,    (25)
t y ' = Σ j , k a jk ( y j ' - ϵx k - y k ) + λ t y 0 Σ j , k a jk + λ , - - - ( 26 )
ϵ ' = Σ j , k a jk [ ( y j ′ - t y ′ - y k ) x k - ( x j ′ - t x ′ - x k ) ] + λ ϵ 0 Σ j , k a jk ( x k 2 + y k 2 ) + λ , - - - ( 27 )
并且其中λ是对于之前的估算被使用多少来说可被调节的权重因子。
图4是流程图130,示出了对准激光雷达传感器例如如上所述的激光雷达传感器24和28的操作。在框132中,算法选择初始变换Tn诸如制造商设定。在框134中,算法收集来自激光雷达传感器24和28的扫描距离图数据,并且确定是否存在足够量的来自激光雷达传感器24和28的视场中的物体的扫描点以在判定菱形136处充分地执行计算。如果扫描点不足够,那么算法返回至框134以收集更多距离图数据。如果在判定菱形136处具有足够的扫描点,那么算法使用EM匹配算法以在框138处寻找修正的变换ΔT。然后该算法在判定菱形140处确定修正的变换ΔT是否大于预定阈值,并且如果是,那么在框142处,通过使用PSO算法而采用大变换估算以寻找新的名义变换Tn。如果在判定菱形140处匹配百分比不大于阈值,那么算法返回至框134以收集下一扫描点。
返回至融合算法,以下讨论首先呈现提出的扫描点配准算法,其在给定对应于目标车辆14的物体模型M和当前扫描图S时估算目标车辆14的移动。以上关于用于确定对准激光雷达传感器之间的帧的变换T的EM算法的讨论提供空间匹配,具体地在同一时间来自不同激光雷达传感器的两个帧之间的匹配。涉及扫描点配准的该讨论还使用点集合配准算法以寻找暂时匹配在当前扫描图S和源自过去的扫描图的物体模型M之间的两个帧的变换T。
首先定义概率性的物体模型M,然后提供建议的迭代算法以寻找严格(rigid)的变换使得似然性得到最大化,给定随后的帧的扫描图的情况下。为了表征物体的几何形状,在样本空间
Figure BSA00000875074400113
中定义轮廓概率密度函数(PDF)。图5示出了对于目标车辆14的后部的示例性PDF的快照。不是使用特定参数,PDF由粒子(点)列表来直接表示,标示为M=(m1,m2,...,mnM)T
表示PDF的该非参数方式可以写为:
p ( x ; M ) = 1 n M Σ j = 1 n M K σ ( x - m j ) , - - - ( 28 )
其中
Figure BSA00000875074400122
是高斯核函数,并且σ>0是被称作带宽的平滑参数,或者Parzen窗的尺寸。
假设y是变换Ty的参数。算子被定义为变换算子Ty(·),其具有参数y和相应的逆变换
Figure BSA00000875074400124
不失普遍性,物体模型M可被认为是原点34处的中心。在随后的帧中,位置y处的物体通过PDF来表征:
p ( x ; y , M ) = 1 n M Σ j = 1 n M K σ ( T y - 1 ( x ) - m j ) . - - - ( 29 )
假设S=(s1,s2,...,sns)T是由扫描点sk的列表组成的当前扫描图。似然函数可以由如下表达:
L ( S ; y , M ) = Π k = 1 n s p ( T y - 1 ( s k ) ; M ) , - - - ( 30 )
其中扫描点sk被假定是在位置y处的物体模型M的独立且同分布样本。
这里的目标是寻找L(S;y,M)相对于变换参数Y的最大值,其等价于寻找J(y;M)≡-LogL(S;y,M)的最小值如:
y*=argminyJ(y;M),    (31)
其中:
J ( y ; M ) = Σ k = 1 n s - log ( 1 n M Σ j = 1 n M K σ T y - 1 ( s k ) - m j ) . - - - ( 32 )
该局部最小值表明在随后的具有与在原点34处限定的p(x;M)相似的表达的帧中的物体的存在。
引入附加矩阵A≡{akj},其中,对于j=1,...,nM和k=1,...,n,来说,akj≥0,其中:对于所有的k, Σ j = 1 n m a kj = 1 - - - ( 33 ) .
因此,方程(32)成为:
J ( y ; M ) = Σ k = 1 n s - log ( Σ j = 1 n M a kj k σ ( T y - 1 ( s k ) - m j ) a kj ) , - - - ( 34 )
≤ - Σ k , j a kj log k σ ( T y - 1 ( s k ) - m j ) a kj , - - - ( 35 )
≡ J ( A , y ; M ) .     (36)
在方程(32)中,归一化因子
Figure BSA00000875074400133
被吸收到可以被忽略的常数项中。当将Jensen不等式应用到方程(34)时方程(36)遵循。
如果负对数函数是凸的,方程(36)的最佳上界
Figure BSA00000875074400134
可以通过取方程(36)的表达式和约束的拉格朗日乘子(见方程式(33))相对于akj的微分并且设定为0而导出。最优辅助变量可以由如下表示:
Figure BSA00000875074400135
      (37),对于j=1,...,nM和k=1,...,nS
因此,方程(31)可以通过“边界优化”而迭代求解,其在关于附加矩阵A、变换T的参数y以及核函数σ的带宽的优化
Figure BSA00000875074400136
之间交替。
图6是具有y在水平轴上的图形,示出了迭代的边界优化关系,其中线52是复杂曲线J(y;M),而虚曲线是在y0、y1和y2处的连续上边界,即,分别地,图线54是
Figure BSA00000875074400137
图线56是
Figure BSA00000875074400138
而图线58是
Figure BSA00000875074400139
如下算法1中示出的迭代程序被重复直到收敛,即,在两个迭代中估算的y的差小于一个预定的小数值。经验结果表明2-3次迭代已足够使提出的算法收敛。
算法1:扫描点配准
输入:物体模型M,当前扫描图S,以及初始的变换参数y0
1)设定σ=σ0,其中σ0是正数。
2)计算A:给定之前估算的变换参数yn,使用方程(37)更新akj
3)最小化
Figure BSA000008750744001310
计算y*以最小化
Figure BSA000008750744001311
即:
y * = arg min y - Σ k , j a kj log K σ ( T y - 1 ( s k ) - m j ) . - - - ( 38 )
4)计算σ:关于σ的不同方程(36),设置导数为0,得出:
σ 2 = 1 n s Σ k , j a kj | | T y * - 1 ( s k ) - m j | | 2 . - - - ( 39 )
5)设定yn+1=y*,如果||yn+1-yn||>∈,那么行进到步骤2。否则输出y*被用作对于变换的所估计的参数。
如下讨论描述可用在具有激光雷达扫描器的机器人的点集合配准的特殊情况。可以写出严格的变换x′=Ty(x)和x′=Rx+t,其中参数矢量y由旋转矩阵R和平移矢量t组成。方程(38)可以简化为:
y*=argminyk,jakj||sk-Rmj-t||2,    (40)
使得det(R)=1以及RTR=1。
取方程(40)分别关于t和R的偏微分,能求解方程(40)。为了示出解,定义如下量:
μ S = 1 n s S T A T 1 , - - - ( 41 )
μ m = 1 n M M T A 1 , - - - ( 42 )
S ^ = S - 1 μ S T , - - - ( 43 )
Figure BSA00000875074400144
其中1=[1,1,...,1]T
方程(40)的解是:
R=UCVT,    (45)
t=μs-Rμm,    (46)
其中U和V被定义为奇异值分解的因子,即和C=diag(1,det(UVT))。
如下讨论提出基于贝叶斯的算法,其递归地估算移动和物体模型M的更新。假设SO,...,St和St+1分别是取样自时间步0,...,t,和t+1处的动态物体的扫描图。
图7示出了追踪可以被处理为i)估计物体的移动的问题,以及ii)当收到新的帧扫描图时更新物体模型M的问题。尤其是,图7示出过程60,用于在框63中估计物体位置,使用物体位置以在框62中更新物体模型并且当获得新的扫描图时估计物体位置。
以下讨论将包括参照双向图和贝叶斯图。这两种类型的图形包括代表不同事情的节点。在贝叶斯图中的节点表示将被估计的变量,诸如变换T以及物体模型M,其是随机的,并且可仅由PDF表示。这些节点穿过不同时间帧而序列布置,并且仅每个序列建模物体。相反,在双向图中的节点是扫描图的分段。每个扫描图在相同时间帧可包含多个物体。因此,目的是寻找每个对应于物体的分段。通过建立分段(s1,s2,...,sn)沿时间轴的关联,可以获得多个序列,其中每个对应于物体。以这种方式,可以使用双向图以将贝叶斯方法应用到追踪每个单独物体。
图8描述了表示提出的追踪算法的两个时间步的动态贝叶斯网络70。在网络70中,节点72表示变换参数yt和yt+1,即,物体位置和目标的姿态(attitude),节点74表示物体模型Mt和Mt+1,而节点76表示扫描图St和St+1。在图8中,yt和yt+1分别是在时间步t和t+1处的变换的估计参数,而Mt和Mt+1分别是在时间步t和t+1处的物体模型。为了适于贝叶斯网络70,p(y)被建模为由其中心参数化的狄拉克δ分布(dirac delta distribution),而物体模型M建模为分别由其均值{mj}和固定的方差σ2参数化的高斯分量的联合PDF。每个均值mj由具有超参数即均值和方差
Figure BSA00000875074400152
的高斯PDF表示。
如下的讨论详细描述参数
Figure BSA00000875074400153
和超参数{vj,ηj/j=1,...,nM}的更新规则。分别使用贝叶斯和链式法则,给定至时间t+1的扫描图集合时,后验PDF被写为:
p(y,M|S(0:t+1))∝p(S|y,M)p(y,M|S(0:t))=p(S|y,M)p(y|S(0:t))p(M|S0:t),(47)其中y和M是yt+1的简化,S(0:t+1)表示达时间步t+1的扫描图,S是处于时间t+1处的扫描图,P(S/y,M)是方程(30)中的L(S;y,M)的等价表示,并且最后的相等性通过给定S(0:t)假设条件独立遵循。
在方程(47)中,p(y/S(0:t))是参数y在时间步t-1处的先验PDF,给定之前的扫描图S(0:t),其可以计算为:
p(y|S(0:t))=∫p(y|yt)p(yt|S(0:t))dyt.    (48)
在方程(48)中,p(yt/S(0:t)表示在时间t处的变换参数的后验PDF,并且p(y/yt)是接下来的物体移动的工厂模型的条件概率:
y=f(yt)+w,    (49)
其中w是具有协方差矩阵Q的零均值高斯随机变量(即,
Figure BSA00000875074400154
。如果p(yt/S(0:t))被假定为中心处在
Figure BSA00000875074400155
的狄拉克δ分布,则在时间步t=1处的先验PDF可以写为:
Figure BSA00000875074400156
其中
Figure BSA00000875074400157
是接下来的物体的工厂模型的预测值
Figure BSA00000875074400158
表达式p(Mt-1/S(0:t))可以建模为在方程(30)中的L(S;y,M)的共轭分布族,以产生可追踪的后验PDF。具有已知方差σ2的高斯密度的乘积被提出为:
Figure BSA00000875074400159
其中:
并且其中(ηj,vj)是Mt-1的第j分量的先验PDF的超参数,并且c(ηj)是归一化因子。
如图8所示,物体模型M在时间步t处的先验数据是:
Figure BSA00000875074400162
现在考虑估计后验p(y,M|S(0:t+1))在时间t+1处的问题。因为y和M是条件独立的,即:
p(y,M|S(0:t+1))=p(y|S(0:t+1))p(M|S(0:t+1)),   (54)
关于y和M的后验可以按如下两个步骤而单独地估算。
假设p(y|S(0:t+1))是中心处在
Figure BSA00000875074400163
的狄拉克δPDF,其可以通过将方程(47)关于y最大化来估算。将方程(50)插入方程(47)中,对方程(47)应用负对数并且忽略与y不相关的项得出:
y ‾ t + 1 = arg min y - Σ k , j a kj log K σ ( T y - 1 ( s k ) - m j ) + | | y - y ~ | | Q 2 , - - - ( 55 )
其中
Figure BSA00000875074400165
以及
Figure BSA00000875074400166
因此,方程(38)可以替换为方程(55)以便集成之前时间步的先验信息,然后应用算法1以得出
Figure BSA00000875074400167
忽略与物体模型M不相关的项,方程(47)的负对数可以写为:
Figure BSA00000875074400168
注意到方程(56)是对于所有可能的y值的J(M)的最佳上边界。
如图6所示,可以使用边界优化而通过寻找上述的上边界函数的最小值来迭代地寻找最优物体模型M。设定方程(56)关于物体模型M的导数为零,物体模型的MAP估算可以获得为:
m j * = ρ j T y ‾ t + 1 - 1 ( s ‾ j ) + η j T y ‾ t ( v j ) ρ j + η j , - - - ( 57 )
其中:
ρj=∑kakj,    (58)
s ‾ j = Σ k a kj s k / p j . - - - ( 59 )
在时间t+1处的S之后,用于物体模型M的后验分布的新的超参数(η′j,v′j)的更新规则可以写为:
η′j=ηjj,    (60)
v j ' = 1 η j + ρ j ( η j T y ‾ t ( v j ) + ρ j T y ‾ t + 1 - 1 ( s ‾ j ) ) . - - - ( 61 )
因此,在时间t处的目标的后验PDF是:
注意到方程(57)中的mj *是模式,而方程(61)中的v′j是物体模型M的第j分量(粒子)的平均值。它们由于高斯假定而相同。
在下面的算法2中将对递归追踪和模型更新方法进行归纳。步骤1准备用于当前时间帧的物体模型M,而步骤2估算物体模型M的移动。步骤3基于当前扫描图而更新物体模型M。步骤4将新的粒子加入物体模型M,而步骤5将异常值从目标模型M中去除。
算法2:追踪以及物体模型更新
输入:当前扫描图St+1,物体模型Mt-1={vj,ηj},以及变换
Figure BSA00000875074400173
输出:估算的
Figure BSA00000875074400174
和更新的Mt
1)对所有j,计算方程(51)中p(Mt|S(0:t))的超参数
Figure BSA00000875074400175
将所有粒子设为未被访问。
2)对所有j设定
Figure BSA00000875074400176
将方程(38)替换为方程(55),然后运行算法1以获得和At+1
3)如果
Figure BSA00000875074400178
大于阈值,则使用方程(60)和(61)计算超参数,设定粒子为已访问,并且将访问的量Kj增加1。如果Kj>5,则第j粒子被标记为到期的。
4)对所有k计算Qk=Σjakj。如果
Figure BSA000008750744001710
小于阈值,则增加新粒子sk其中如下值Kk=1,vk=sk,ηk=1,并且被标为已访问。
5)去除没有标记为已访问的和未到期的粒子。
图9是流程图80,示出了在每个时间步t执行的所提出的融合算法。框78表示在每个时间步产生的物体文件,并且提供被探测到和追踪到的物体的位置、速度和驶向以及用于被追踪的每个物体的物体模型M。当在框82中来自传感器16、20、24和28的距离数据的新的帧到达主车辆12时,算法首先在框84中以如上讨论的方式构建360°点云。一旦构造了点云,算法然后在框86中将云中的扫描点分割成可识别具体物体的集群。为了执行分割操作,设定
Figure BSA000008750744001713
表示当前帧(t+1)的扫描图,并设定
Figure BSA000008750744001714
是具有顶点集
Figure BSA000008750744001715
的无向图。如果||p1-p2||小于预定的距离阈值,则边缘(p1,p2)∈E链接p1和p2。然后使用连接的分量标签来将扫描图分割成集群列表
Figure BSA000008750744001717
将扫描点分割成集群包括在返回的点云中隔离扫描点的集群,以使集群识别被追踪的独立的物体。
一旦扫描点被分割成集群,算法然后在框88中将集群与预测的物体模型
Figure BSA00000875074400181
进行匹配。具体地,算法在框90中使用物体文件78投射在之前时间步处的所追踪的物体模型M。为了预测投射的物体模型,假定
Figure BSA00000875074400182
是在时间步t处的物体模型M的列表。对于每个物体模型
Figure BSA00000875074400183
高斯分量的平均值表示为
Figure BSA00000875074400184
如果
Figure BSA00000875074400185
是在时间步t的变换的估值,则在时间步t+1处的预测的变换为
Figure BSA00000875074400186
因此,第n个物体的预测的物体模型
Figure BSA00000875074400187
对于所有j来说是
Figure BSA00000875074400188
通过
Figure BSA00000875074400189
预测的物体点可以从时间步t来表示。
使用投射的所追踪的物体模型,在框88中,分割的集群与预测的物体模型
Figure BSA000008750744001811
进行匹配。在顶点集
Figure BSA000008750744001812
Figure BSA000008750744001813
之间构建双向图
Figure BSA000008750744001814
其中EB为边缘集。当且仅当||p-q||<D时,在点
Figure BSA000008750744001815
Figure BSA000008750744001816
之间存在边缘,其中D是距离阈值。边缘(p,q)的权重被定义为w(p,q)=||p-q||。
Figure BSA000008750744001817
的邻域被定义为N(q)≡{p|(p,)∈EB}。
诱导双向图可以从双向图B定义,其中边缘集EB表示在
Figure BSA000008750744001819
中的物体和分割的集群之中的可能的关联。当且仅当在B中存在边缘(p,q)使得
Figure BSA000008750744001821
和q′∈q时在
Figure BSA000008750744001822
之间存在边缘。
假设E(p′,q′)是B中的边缘集的子集,即,E(p′,q′)≡{(p,q)|(p,q)∈EB∩P∈p′∩q′∈q}。权重(p′,q′)和边缘(p′,q′)的基数(cardinality)分别被定义为:
Figure BSA000008750744001824
c ( p ' , q ' ) = | E ( p ' , q ' ) | | q ' | , - - - ( 64 )
一旦诱导双向图B’被构建,并且边缘的权重和基数被计算,使用以下的算法3来选择强的边缘和被修剪的弱链接。
图10是双向图100,即B,处于在如上讨论的当前的时间步t的五个预测的物体模型和五个集群S的扫描点水平。在双向图100中,点102表示预测的物体模型点,而三角形104表示分割的扫描图点。点102和三角形104之间的线106是图100的边缘。
算法然后在框92中合并和分离数据点集群以组合探测到的相同的物体并且分离最初探测为单个物体但是已经形成多个物体的物体。为了提供集群的合并和分离,以下的算法3提供扫描关联。
图11说明了诱导双向图110,即B’,从图B中通过将点合并成组得到。在诱导双向图110中,节点114表示物体模型点(M),节点112表示分割的扫描点(M)的集群,而线116表示定义物体模型点(M)和分割扫描点(S)之间的匹配的边缘。如接下来将讨论的,在时间t处的
Figure BSA00000875074400191
被匹配于在时间t+1处的S1
Figure BSA00000875074400192
Figure BSA00000875074400193
被合并入在时间t+1处的S2中,在时间t处的
Figure BSA00000875074400194
被分离成在时间t+1处的S3和S4,在时间t处的
Figure BSA00000875074400195
将要消失并且从在时间t+1处的扫描图中去除,而在时间t+1处S5达到。在算法3的步骤3中,边缘
Figure BSA00000875074400196
Figure BSA00000875074400197
被高亮显示。在步骤4中,
Figure BSA00000875074400198
与S2匹配,边缘
Figure BSA00000875074400199
被高亮显示。因此,在步骤5中,虚线
Figure BSA000008750744001910
被修剪为弱链接。图11说明了
Figure BSA000008750744001911
直接与S1匹配,然而,两个其他情况需要集群合并和分离。
预测的物体模型
Figure BSA000008750744001912
被分离成两个匹配的集群S3和S4。当前的集群S3和S4的扫描点,采用在之前的帧中被用于物体的现有知识而将被重新集群。常常,需要更强的差异性证据将存在的所追踪物体分离成两个集群。
两个预测的物体模型
Figure BSA000008750744001914
在当前的帧中与集群S2相关联。集群S2中的扫描点将被重新集群,因为为了将两个追踪的物体合并成一个物体需要在扫描点之间的更强近似性。
算法3:扫描关联算法
输入:集群
Figure BSA000008750744001915
和预测的物体模型
Figure BSA000008750744001916
输出:修剪的诱导双向图B’。
1)建立具有作为顶点的扫描点的双向图B。
2)建立具有作为顶点的集群和轮廓的诱导图B’,并且分别使用方程(63)和(64)计算边缘的权重和基数。
3)对于每个
Figure BSA000008750744001917
寻找
Figure BSA000008750744001918
以使基数大于阈值(即,c(p′*,q′)>C)以及
Figure BSA000008750744001919
并且高亮显示边缘(p′*,q′)。
4)对于没有被高亮边缘所覆盖的每个
Figure BSA000008750744001920
寻找集
Figure BSA000008750744001921
以使每个元素p″被一个且仅一个高亮边缘覆盖。寻找p″以使(p″,q″)>c和
Figure BSA000008750744001922
并且高亮显示边缘(p″,q″*)。
5)修剪在B’中没有被高亮显示的全部边缘。
如上所提到的,在框94中创造新的物体并且删除消失的物体。尤其是,两种特殊的情况需要处理以创造新的物体以及移除物体文件中的存在的物体,其中扫描集群S5不存在引入的边缘。将触发追踪初始化步骤,并且新的物体将被增加到物体文件中用于扫描集群S5,而预测的物体模型
Figure BSA00000875074400201
消失,因为没有从其引入的边缘,并且将从物体文件中移除。
一旦在框94中新的物体被创造并且消失的物体被删除,算法然后在框96中提供追踪和模型更新。对于每一个匹配的物体模型Mt和扫描集群St+1对,例如假定提供算法1的扫描配准过程,算法2用于追踪和物体模型更新。
在框98中,物体文件78然后被更新并为接下来的时间步存储为物体文件78。每个物体的新的变换yt+1和更新的物体模型Mt被存储回物体文件,并且算法等待下一个时间步处的新的扫描图的到来。
如果两个连续的扫描帧之间的旋转为小,则2D变换的参数可以近似为:
x′=x-∈y+tx,    (65)
y′=∈x+y+ty,    (66)
其中(x,y)和(x′,y′)分别是之前帧和当前帧的两个点,∈是旋转角而(tx,ty)是平移。
假设mj=(xj,yj)和Sk=(x′k,y′k)。将方程(65)和(66)插入方程(55)中,分别对tx,ty和∈进行偏微分并设为0。假设
Figure BSA00000875074400202
表示方程(49)预测的y。如果假设是常数模型,则提供
Figure BSA00000875074400204
以及
Figure BSA00000875074400205
其中δt为时间步t和t-1之间的持续。
以下更新法则可以导出:
t x = Σ k , j a kj ( x k ' + ∈ y j - x j ) + λ x t ~ x Σ k , j a kj + λ x , - - - ( 67 )
t y = Σ k , j a kj ( y k ' + ϵx j - y j ) + λ y t ~ y Σ k , j a kj + λ y , - - - ( 68 )
ϵ = Σ j , k a kj [ ( y k ' - t y - y j ) x j - ( x k ' - t x - x j ) y j ] + λ ϵ ϵ ~ Σ k , j a kj ( x j 2 + y j 2 ) + λ ϵ - - - ( 69 )
其中λx、λy和λε是来自方程(50)中的协方差矩阵Q的权重。
将方程(38)替换为方程(67)-(69),应用算法1以随着
Figure BSA00000875074400211
迭代地计算tx、ty和ε。
假定vH和ωH分别表示HV对地速度和偏航速率。目标车辆14的对地速度可以通过如下计算:
vgx=vx+vH-xcωH,    (70)
vgy=Vy+ycωH,    (71)
以及目标车辆14的驶向为:
ξ = tan - 1 ( v gy v gx ) . - - - ( 72 )
如上所述的用于探测并追踪多个物体的该方法和设备可以提供360°视场方案用于由主车辆12检测物体。然而,需要解决用于激光雷达传感器的接下来的问题。
第一个问题由遮挡或者激光测量失效所导致的部分观测,例如,低的反射或者镜面反射。例如,黑色车辆的探测范围要明显小于白色车辆的探测范围。
接下来的问题是由于导致低的特征显著性的低分辨率引起的稀疏测量,以及因此不足以探测远场物体。
另外一个问题是有限的垂直视场,比如4°,这会导致缺失检测非平整路面上的物体。
另外一个问题是缺少能将物体从混乱背景中区别的环境信息。
本发明提出一种增强的融合算法以解决对于激光雷达传感器来说的如上述的限制。具体地,本发明使用来自位于车辆上的雷达传感器或者视觉系统中的一个或者两者的输出以作为提示信号来操作以使用于激光雷达传感器输出的融合系统辨别目标。雷达传感器一般具有远范围,但是窄的视场。视觉系统一般具有短视场,但是提供与被探测目标的接触。如上,被讨论的增强的融合系统被设计为估算每个所探测物体的参数x、y、vx、vy和ξ。
图12是如由主车辆上的激光雷达传感器、雷达传感器和视觉系统探测到的在道路152中显示的目标的图像150。具体地,目标处于足够远的距离之外,或者被遮挡,这样激光雷达扫描点非常少,如点156所表示。为了提高目标的探测,视觉系统图像154从视觉系统输出定义相同的目标,而雷达数据点158表示由雷达传感器探测到相同目标。
图13是用于追随并跟踪目标车辆164的主车辆162的与以上讨论的系统10相似的车辆系统160的图示。如图1中所示的那样,使用用于位置、速度、驶向角等的相同的变量。在该示例中,主车辆162包括具有视场168的激光雷达传感器166、具有视场172的雷达传感器170以及具有视场176的视觉系统174。从激光雷达传感器166的返回被示出为扫描点178,从雷达传感器170的返回被指定为三角形180,而从视觉系统174的返回表示为框182。如本领域所公知的,视觉系统和雷达传感器从目标给出四个输出,即,与目标的距离、与目标的距离的变化即距离变化率、目标的驶向角以及目标的方位角的变化即方位角变化率。
图14是提出的融合系统190的总览的方框图。在每个时间步,从雷达传感器170和/或视觉系统174所捕获的目标
Figure BSA00000875074400221
被从框192发送至提示环境块194。如上讨论的,在框196处激光雷达扫描集群图提供至激光雷达追踪算法框198。追踪算法接收来自框194的提示环境目标数据,并且目标数据与存储的物体模型匹配,其中值n0是探测到的目标的数量。每个目标oi=(x″i,y″i,v″i,w″i)具有纵向位移(x″)、横向位移(y″)、径向速度(v″)、以及横向速度(w″)的参数。具有每个扫描点sk的激光雷达扫描图
Figure BSA00000875074400222
包括纵向偏移x″i和横向偏移y″i,其中N是扫描点的数量。追踪算法监视来自提示环境框194和激光雷达扫描图的输入,并为每个探测的目标产生输出参数x、y、vx、vy和ξ。应用块200使用物体的估算参数,并实施车辆的主动安全应用,诸如自适应巡航控制,碰撞减轻制动,等。
图15是与如上讨论的流程图80相似的流程图204,其中相同的操作以相同参考号标识。流程图204包括框206,其读取来自雷达传感器170或者视觉系统174的目标数据。接下来,算法在框208中将目标数据与激光雷达坐标系框进行配准。为了完成此,假设y0是严格的变换T的参数(平移和旋转),变换T将来自雷达传感器170或者视觉系统174的目标映射到激光雷达坐标系中,使得激光雷达系中的映射的目标为: o i ′ = T y o ( o i ) , - - - ( 73 )
配准参数y0可以通过在追踪的激光雷达物体和来自雷达传感器170或者视觉系统174的目标之间的匹配对来自动地估算。被转让给本申请的受让人并且通过参考并入这里的、于2011年8月7日授予的题为“Method and Apparatus for On-vehicle Calibration andOrientation of Object-Tracking Systems”的美国专利7991550公开用于此目的的合适的技术。
接下来,算法在框210中将来自雷达传感器170或者视觉系统174的目标数据匹配到物体模型M。该过程在图16中被示出为图像230,包括主车辆232,其中点234是物体模型点,三角形236是雷达目标,而菱形238是源自视觉系统174的图像数据的虚拟扫描点。雷达目标or通过由三角形236表示的点来建模。视觉目标ov被建模为矩形,其可以由通过从主车辆232引入的“虚拟”扫描线来由在矩形边缘上取样的点的列表表示。值Ov={ol|l=1,....,6}在菱形238中示出。物体模型集
Figure BSA00000875074400231
和所有物体模型
Figure BSA00000875074400232
的扫描点被定义。假设
Figure BSA00000875074400233
表示分别来自雷达传感器170或者视觉系统174的所有的目标点,是三角形或者菱形。
采用如上讨论的程序来构建如图17所示的修剪的双向图240。图240示出了在节点246处的物体运动242和在节点248处的物体模型244,其中
Figure BSA00000875074400234
Figure BSA00000875074400235
o3是用于创造新的物体的候选,而预测的物体模型被标记为将消失的,其可从物体文件中去除。
使用来自框90的投射的所追踪的物体模型
Figure BSA00000875074400237
来自框88的具有投射的物体模型
Figure BSA00000875074400238
的匹配的集群以及来自框210的具有物体模型的匹配的目标数据,算法在框212中提供物体模型M的合并和分离。考虑到两种情况,即,视觉目标和雷达目标。图18示出了对于两种预测的物体模型
Figure BSA00000875074400239
Figure BSA000008750744002310
被匹配到视觉目标O1的情况的双向图250。来自视觉系统74的该提示信息提供这两个物体模型
Figure BSA000008750744002311
Figure BSA000008750744002312
需要合并为新的物体模型
Figure BSA000008750744002313
的证据。
图19是诱导双向图252,示出了将在节点256处的物体模型
Figure BSA000008750744002314
Figure BSA000008750744002315
从节点254处的视觉目标O1合并到单个物体目标
Figure BSA000008750744002316
图20是双向图260,示出了另外一种情况,其中物体模型
Figure BSA000008750744002317
匹配两个视觉目标O1和O2。来自视觉系统174的提示信息提供物体模型
Figure BSA000008750744002318
需要被分离成两个单独的物体模型的证据。
图21是诱导双向图262,示出了在节点264处的物体模型
Figure BSA000008750744002321
如由节点266和268所表示的两个视觉目标O1和O2所探测到的,分离成分别由节点270和272表示的物体模型
Figure BSA000008750744002322
Figure BSA000008750744002323
图22是双向图270,示出了对于两个物体模型
Figure BSA000008750744002324
的点集
Figure BSA000008750744002326
与三个雷达目标o1、o2和o3匹配的情况。
图23是诱导双向图276,示出了赋值
Figure BSA00000875074400241
Figure BSA00000875074400242
Figure BSA00000875074400243
具体地,图276示出了节点278处的雷达目标o1被匹配到节点280处的物体模型
Figure BSA00000875074400244
以及分别在节点282和284处的雷达目标o2和o3被示出被合并成在节点286处的单个物体模型
接下来,算法在框214中创造新的物体并删除即将消失的物体。类似于如上讨论的用于流程图80的程序,两种特殊情况需要被处理以产生新的物体以及从物体文件中删除即将消失的物体。对于每一个来自激光雷达段的不匹配的扫描集群S和每一个来自雷达传感器170或者视觉系统174的不匹配的目标,使用追踪初始程序以向物体文件中增加新的物体。对于物体文件中的物体,如果没有与来自激光雷达传感器166的分段集群S或者来自雷达传感器170或视觉系统174的目标的匹配,那么该物体被标记为消失。如果该目标在几个连续的时间步被标记为消失,则其将从物体文件中移除。
接下来,算法在框216中提供追踪和模型更新。为了完成这,假定o0,...,ot和ot+1是在动态物体的激光雷达坐标系中分别由雷达传感器170或者视觉系统174在时间步0,...,t和t+1映射的测量值。通过
Figure BSA00000875074400246
从时间步0一直到时间步t的测量被标识。
图24说明了来自图8的修正的动态贝叶斯网络290,表示利用提示信息的所提出的追踪算法的两个时间步。值yt和yt+1分别是在时间步t和t+1将被估算的变换的参数。模型Mt和Mt+1是在时间步t和t+1处的物体模型。在网络290中,节点292是在时间步t和t+1处的目标数据ot和ot+1,节点294是在时间步t和t+1处的变换参数y,节点296是在时间步t和t+1处的物体模型M,以及节点298是在时间步t和t+1处的扫描图。
与在方程(47)中类似,贝叶斯和链式法则分别地用于获得后验PDF,给定激光雷达扫描图和直到时间步t+1的来自雷达传感器170或者视觉系统174的目标数据,为:
p(y,M|S(0:t+1),o(0:t+1))∝p(S|y,M)p(o|y,M)p(y,M|S(0:t),o(0:t))
=p(S|y,M)p(o|y)p(y,|S(0:t),o(0:t))p(M|S(0:t),o(0:t)),    (74)
其中y和M是yt+1和Mt的简写,S(0:t+1)表示到时间步t+1的扫描图,S是时间t+1处的扫描图,o=ot+1是在时间步t+1处测量的目标的简写,以及最后的等式通过假设条件独立给定S(0:t)和o(0:t)时遵循。
在方程(74)中,p(y,M|S(0:t),o(0:t))是给定之前的扫描图S(0:t)和目标数据o(0:t)时y在时间步t+1处的先验PDF,,其可以计算为:
p(y|S(0:t),o(0:t))=∫p(y|yt)p(yt|S(0:t),o(0:t))dyt,    (75)
其中p(yt|S(0:t),o(0:t))表示在时间t处的变换参数的后验PDF,而p(y|yt)表示工厂模型方程(49)。
如果p(yt|S(0:t),o(0:t))被假定为中心处在的狄拉克δ分布,则在时间步t+1处的先验PDF可以写为:
Figure BSA00000875074400252
其中
Figure BSA00000875074400253
是接下来的物体
Figure BSA00000875074400254
的工厂模型的预测值。
现在考虑物体模型M的后验,其中:
Figure BSA00000875074400255
并且其中
Figure BSA00000875074400256
在方程(51)中被定义。如图24所示,物体模型在时间步t处的先验网络可以写为:
Figure BSA00000875074400257
现在考虑估算在时间步t+1处后验的问题,其被因式分解为:
p(y,M|S(0:t+1),o(0:t+1))=p(y|S(0:t+1),o(0:t+1))p(M|S(0:t+1),o(0:t+1)),  (79)
并且单独地如下两个步骤计算。
假设p(y|S(0:t+1),o(0:t+1))是中心处在
Figure BSA00000875074400258
的狄拉克δ分布,其可以通过方程(74)关于y的最大化来估算。
目标数据p(o|y)的测量模型建模为:
o=h(y)+v,    (80)
其中v是具有协方差矩阵E的零均值高斯瑞吉随机变量。因此,p(o|y)是高斯PDF,即:
Figure BSA00000875074400259
将方程(76)和(81)插入到方程(74)中,对方程74应用负对数,并且略去与y不相关的项,得到如下:
y ‾ t + 1 = arg min y - Σ kj a kj log K σ ( T y - 1 ( s k ) - m j ) +
o - hyE 2 + y - yQ 2 . - - - ( 82 )
其中 m j = T y ‾ t ( v j ) , | | α | | Σ 2 = α T Σ - 1 α .
因此,算法1中的方程(38)可以替换为方程(55),以便集成先前时间步的先验信息和来自雷达传感器170或者视觉系统174的提示(cueing)信息,然后应用算法1以得到
当计算p(M/S(0:t+1),O(0:t+1))时,注意到方程(78)和方程(53)时是等价的,因此应用与如上描述相同的超参数的更新法则。
物体文件78然后以如上讨论的方式在框98中被更新。
如本领域技术人员所很好地理解的,这里讨论的用于描述本发明的若干和不同的步骤和程序可指由计算机、处理器或者使用电现象操作和/或转变数据的其他电子计算设备执行的操作。那些计算机和电子设备可采用各种易失性和/或非易失性的存储介质,包括具有存储在其中的可执行程序(包括可以通过计算机或者处理器执行的各种代码或者可执行指令)的非瞬时性计算机可读介质,其中存储器和/或计算机可读介质可包括所有形式和类型的存储器以及其他的计算机可读介质。
前面公开的讨论和描述仅仅是本发明的示例性实施例。本领域技术人员从该讨论以及从附图和权利要求容易意识到可对本发明做出各种改变、修改和变化,而不偏离由随附权利要求限定的本发明的精神和范围。

Claims (10)

1.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述方法包括:
定义用于所述激光雷达传感器中至少一个的变换值,其识别所述传感器的方位角和位置;
提供来自由所述传感器探测到的物体的目标扫描点,其中对每个传感器的所述目标扫描点提供独立的目标点图;
采用当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置;
采用所述权重值计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值。
2.根据权利要求1所述的方法,其特征在于,所述激光雷达传感器位于车辆上。
3.根据权利要求1所述的方法,其特征在于,还包括为所述传感器中的所述至少一个传感器选择被初始地用作所述当前变换值的初始变换值。
4.根据权利要求3所述的方法,其特征在于,选择初始变换值包括从由制造商设定值、零以及估计的值构成的组中选择初始变换值:。
5.根据权利要求1所述的方法,其特征在于,确定多个权重值包括使用方程:
Figure FSA00000875074300011
其中ajk是用于具体扫描点的权重值,Sj是来自所述激光雷达传感器中的所述至少一个激光雷达传感器的扫描点,mk是来自所述激光雷达传感器中的所述另外一个的扫描点,T是变换值,以及K是核函数,被定义为:
Figure FSA00000875074300012
其中σ是方差。
6.根据权利要求1所述的方法,其特征在于,还包括确定当前变换值是否大于预定阈值,其中如果所述当前变换值大于预定阈值,那么所述变换值基于旋转矩阵和平移矢量而被定义。
7.根据权利要求6所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
8.根据权利要求1所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
9.根据权利要求8所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
10.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述激光雷达传感器位于车辆上,所述方法包括:
定义用于所述激光雷达传感器中至少一个的当前变换值,其识别所述传感器在一个取样时间的方位角和位置;
提供由来自所述传感器探测到的物体的目标扫描点,其中对于每个传感器的所述目标扫描点提供独立的目标点图;
采用所述当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
在下一个取样时间计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述差值更新所述当前变换值。
CN201310115432.2A 2012-03-15 2013-03-15 来自多个激光雷达的距离图像配准方法 Active CN103308923B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201261611465P 2012-03-15 2012-03-15
US61/611,465 2012-03-15
US61/611465 2012-03-15
US13/777,469 US9329269B2 (en) 2012-03-15 2013-02-26 Method for registration of range images from multiple LiDARS
US13/777,469 2013-02-26
US13/777469 2013-02-26

Publications (2)

Publication Number Publication Date
CN103308923A true CN103308923A (zh) 2013-09-18
CN103308923B CN103308923B (zh) 2016-08-10

Family

ID=49044100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310115432.2A Active CN103308923B (zh) 2012-03-15 2013-03-15 来自多个激光雷达的距离图像配准方法

Country Status (2)

Country Link
CN (1) CN103308923B (zh)
DE (1) DE102013102153A1 (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104713560A (zh) * 2015-03-31 2015-06-17 西安交通大学 基于期望最大化的多源测距传感器空间配准方法
CN104793202A (zh) * 2014-01-16 2015-07-22 通用汽车环球科技运作有限责任公司 多雷达成像传感器的对象融合系统
CN105549586A (zh) * 2015-06-17 2016-05-04 电子科技大学 羽毛球机器人跟踪人移动控制方法及系统
CN105828029A (zh) * 2016-03-11 2016-08-03 乐卡汽车智能科技(北京)有限公司 车辆碰撞监测系统、方法及装置
CN106560725A (zh) * 2015-10-02 2017-04-12 德尔福技术有限公司 用于确定目标车辆的偏航速率的自动化车辆雷达系统
CN106919908A (zh) * 2017-02-10 2017-07-04 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN106934347A (zh) * 2017-02-10 2017-07-07 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN107209993A (zh) * 2014-07-03 2017-09-26 通用汽车环球科技运作有限责任公司 车辆认知雷达方法和系统
CN108062600A (zh) * 2017-12-18 2018-05-22 北京星云互联科技有限公司 一种基于矩形建模的车辆碰撞预警方法及装置
CN108120447A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 多激光设备数据融合方法
JPWO2017060977A1 (ja) * 2015-10-06 2018-07-26 パイオニア株式会社 情報処理装置、情報処理方法、及び、プログラム
CN108333562A (zh) * 2018-01-30 2018-07-27 西安电子科技大学 一种地形高程自适应的降维图像配准方法
CN108445456A (zh) * 2017-02-16 2018-08-24 通用汽车环球科技运作有限责任公司 光达-雷达相对位姿的校准
CN108445468A (zh) * 2018-04-03 2018-08-24 上海禾赛光电科技有限公司 一种分布式激光雷达
CN108710367A (zh) * 2018-05-23 2018-10-26 广州视源电子科技股份有限公司 激光数据识别方法、装置、机器人及存储介质
CN109765569A (zh) * 2017-11-09 2019-05-17 电子科技大学中山学院 一种基于激光雷达实现虚拟航迹推算传感器的方法
CN109991020A (zh) * 2017-08-11 2019-07-09 西华大学 汽车人机工程用快速视野校核的方法
CN110027018A (zh) * 2019-04-28 2019-07-19 森思泰克河北科技有限公司 全向探测系统及方法
CN110082753A (zh) * 2018-01-25 2019-08-02 Aptiv技术有限公司 确定车辆位置的方法
CN110103810A (zh) * 2019-01-03 2019-08-09 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
CN110186467A (zh) * 2018-02-23 2019-08-30 通用汽车环球科技运作有限责任公司 群感测点云地图
CN110235027A (zh) * 2017-04-28 2019-09-13 深圳市大疆创新科技有限公司 基于lidar点云的多物体跟踪
CN110532582A (zh) * 2018-05-23 2019-12-03 Aptiv技术有限公司 对扫描距离传感器进行建模的方法
CN110908006A (zh) * 2018-09-14 2020-03-24 欧姆龙株式会社 物体探测传感器以及物体探测系统
CN111045023A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
CN111801718A (zh) * 2018-03-07 2020-10-20 株式会社电装 物体探测装置、物体探测方法、以及记录介质
CN111983633A (zh) * 2020-08-26 2020-11-24 中国科学院半导体研究所 用于铁路监测的多线三维雷达及其扫描方法
WO2022022137A1 (zh) * 2020-07-30 2022-02-03 华为技术有限公司 成像方法、装置、雷达系统、电子设备和存储介质
US20220329715A1 (en) * 2017-10-19 2022-10-13 Nvidia Corporation Calibrating sensors mounted on an autonomous vehicle

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015205087A1 (de) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln der Dejustage eines Fahrersassistenzsensors
DE102016220075A1 (de) 2016-10-14 2018-04-19 Audi Ag Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung
US20190004160A1 (en) * 2017-06-30 2019-01-03 Delphi Technologies, Inc. Lidar sensor alignment system
DE102018201154A1 (de) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen
CN117485595B (zh) * 2023-11-21 2024-04-05 北京易动宇航科技有限公司 一种用于电推进系统的能量管理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
CN1940591A (zh) * 2005-09-26 2007-04-04 通用汽车环球科技运作公司 使用传感器融合进行目标跟踪的系统和方法
CN101013158A (zh) * 2006-02-03 2007-08-08 通用汽车环球科技运作公司 用于车载对象跟踪系统的校准和定向的方法和设备
CN101393264A (zh) * 2008-10-12 2009-03-25 北京大学 基于多激光扫描仪的移动目标跟踪方法及系统
CN101837782A (zh) * 2009-01-26 2010-09-22 通用汽车环球科技运作公司 用于碰撞预备系统的多目标融合模块

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
CN1940591A (zh) * 2005-09-26 2007-04-04 通用汽车环球科技运作公司 使用传感器融合进行目标跟踪的系统和方法
CN101013158A (zh) * 2006-02-03 2007-08-08 通用汽车环球科技运作公司 用于车载对象跟踪系统的校准和定向的方法和设备
CN101393264A (zh) * 2008-10-12 2009-03-25 北京大学 基于多激光扫描仪的移动目标跟踪方法及系统
CN101837782A (zh) * 2009-01-26 2010-09-22 通用汽车环球科技运作公司 用于碰撞预备系统的多目标融合模块

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104793202A (zh) * 2014-01-16 2015-07-22 通用汽车环球科技运作有限责任公司 多雷达成像传感器的对象融合系统
CN107209993A (zh) * 2014-07-03 2017-09-26 通用汽车环球科技运作有限责任公司 车辆认知雷达方法和系统
CN104713560A (zh) * 2015-03-31 2015-06-17 西安交通大学 基于期望最大化的多源测距传感器空间配准方法
CN104713560B (zh) * 2015-03-31 2017-10-20 西安交通大学 基于期望最大化的多源测距传感器空间配准方法
CN105549586B (zh) * 2015-06-17 2018-06-19 电子科技大学 羽毛球机器人跟踪人移动控制方法及系统
CN105549586A (zh) * 2015-06-17 2016-05-04 电子科技大学 羽毛球机器人跟踪人移动控制方法及系统
CN106560725A (zh) * 2015-10-02 2017-04-12 德尔福技术有限公司 用于确定目标车辆的偏航速率的自动化车辆雷达系统
CN106560725B (zh) * 2015-10-02 2022-02-22 安波福技术有限公司 用于确定目标车辆的偏航速率的自动化车辆雷达系统
JPWO2017060977A1 (ja) * 2015-10-06 2018-07-26 パイオニア株式会社 情報処理装置、情報処理方法、及び、プログラム
CN105828029A (zh) * 2016-03-11 2016-08-03 乐卡汽车智能科技(北京)有限公司 车辆碰撞监测系统、方法及装置
CN108120447A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 多激光设备数据融合方法
CN106934347A (zh) * 2017-02-10 2017-07-07 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN106934347B (zh) * 2017-02-10 2021-03-19 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN106919908A (zh) * 2017-02-10 2017-07-04 百度在线网络技术(北京)有限公司 障碍物识别方法及装置、计算机设备及可读介质
CN108445456A (zh) * 2017-02-16 2018-08-24 通用汽车环球科技运作有限责任公司 光达-雷达相对位姿的校准
CN108445456B (zh) * 2017-02-16 2022-06-21 通用汽车环球科技运作有限责任公司 光达-雷达相对位姿的校准
CN110235027A (zh) * 2017-04-28 2019-09-13 深圳市大疆创新科技有限公司 基于lidar点云的多物体跟踪
CN109991020A (zh) * 2017-08-11 2019-07-09 西华大学 汽车人机工程用快速视野校核的方法
US11747455B2 (en) * 2017-10-19 2023-09-05 Nvidia Corporation Calibrating sensors mounted on an autonomous vehicle
US20220329715A1 (en) * 2017-10-19 2022-10-13 Nvidia Corporation Calibrating sensors mounted on an autonomous vehicle
CN109765569A (zh) * 2017-11-09 2019-05-17 电子科技大学中山学院 一种基于激光雷达实现虚拟航迹推算传感器的方法
CN108062600A (zh) * 2017-12-18 2018-05-22 北京星云互联科技有限公司 一种基于矩形建模的车辆碰撞预警方法及装置
CN110082753A (zh) * 2018-01-25 2019-08-02 Aptiv技术有限公司 确定车辆位置的方法
CN108333562A (zh) * 2018-01-30 2018-07-27 西安电子科技大学 一种地形高程自适应的降维图像配准方法
CN110186467A (zh) * 2018-02-23 2019-08-30 通用汽车环球科技运作有限责任公司 群感测点云地图
CN111801718B (zh) * 2018-03-07 2022-08-02 株式会社电装 物体探测装置、物体探测方法、以及记录介质
CN111801718A (zh) * 2018-03-07 2020-10-20 株式会社电装 物体探测装置、物体探测方法、以及记录介质
CN108445468B (zh) * 2018-04-03 2019-11-05 上海禾赛光电科技有限公司 一种分布式激光雷达
CN108445468A (zh) * 2018-04-03 2018-08-24 上海禾赛光电科技有限公司 一种分布式激光雷达
US11002835B2 (en) 2018-04-03 2021-05-11 Hesai Photonics Technology Co., Ltd. Distributed laser radar
CN110532582A (zh) * 2018-05-23 2019-12-03 Aptiv技术有限公司 对扫描距离传感器进行建模的方法
CN108710367B (zh) * 2018-05-23 2022-02-11 广州视源电子科技股份有限公司 激光数据识别方法、装置、机器人及存储介质
CN108710367A (zh) * 2018-05-23 2018-10-26 广州视源电子科技股份有限公司 激光数据识别方法、装置、机器人及存储介质
CN110532582B (zh) * 2018-05-23 2023-06-27 Aptiv技术有限公司 对扫描距离传感器进行建模的方法
CN110908006B (zh) * 2018-09-14 2023-09-22 欧姆龙株式会社 物体探测传感器以及物体探测系统
CN110908006A (zh) * 2018-09-14 2020-03-24 欧姆龙株式会社 物体探测传感器以及物体探测系统
CN111045023A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
CN110103810B (zh) * 2019-01-03 2024-02-27 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
CN110103810A (zh) * 2019-01-03 2019-08-09 华域视觉科技(上海)有限公司 三维探测照明系统及汽车
CN110027018B (zh) * 2019-04-28 2020-12-01 森思泰克河北科技有限公司 全向探测系统及方法
CN110027018A (zh) * 2019-04-28 2019-07-19 森思泰克河北科技有限公司 全向探测系统及方法
WO2022022137A1 (zh) * 2020-07-30 2022-02-03 华为技术有限公司 成像方法、装置、雷达系统、电子设备和存储介质
CN111983633B (zh) * 2020-08-26 2023-12-05 中国科学院半导体研究所 用于铁路监测的多线三维雷达及其扫描方法
CN111983633A (zh) * 2020-08-26 2020-11-24 中国科学院半导体研究所 用于铁路监测的多线三维雷达及其扫描方法

Also Published As

Publication number Publication date
DE102013102153A1 (de) 2013-09-19
CN103308923B (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN103308923A (zh) 来自多个激光雷达的距离图像配准方法
US9378463B2 (en) System and method for fusing outputs from multiple LiDAR sensors
US9476983B2 (en) System and method for fusing radar/camera object data and LiDAR scan points
US9329269B2 (en) Method for registration of range images from multiple LiDARS
Scheel et al. Tracking multiple vehicles using a variational radar model
CN109212531B (zh) 确定目标车辆取向的方法
Rasmussen Grouping dominant orientations for ill-structured road following
WO2021012254A1 (zh) 目标检测方法、系统及可移动平台
US11435375B2 (en) Method of determining an uncertainty estimate of an estimated velocity
EP2575079A2 (en) Method and apparatus for processing images
GB2493249A (en) Context searching in images for target object
CN102176243A (zh) 一种基于可见光和红外摄像机的目标测距方法
RU2764708C1 (ru) Способы и системы для обработки данных лидарных датчиков
Daraei et al. Velocity and shape from tightly-coupled LiDAR and camera
US20210223373A1 (en) Methods and systems for processing lidar sensor data
Xia et al. Extended object tracking with automotive radar using learned structural measurement model
Zeng An object-tracking algorithm for 3-D range data using motion and surface estimation
Kohara et al. Obstacle detection based on occupancy grid maps using stereovision system
Huang et al. Probabilistic lane estimation for autonomous driving using basis curves
US11138448B2 (en) Identifying a curb based on 3-D sensor data
US20220196829A1 (en) Radar Reference Map Generation
Zhong et al. Dynamic obstacle detection and tracking based on 3D lidar
Vijay et al. Low Cost–FPGA based system for pothole detection on Indian Roads
Subash Automatic road extraction from satellite images using extended Kalman filtering and efficient particle filtering
RU2775822C1 (ru) Способы и системы для обработки данных лидарных датчиков

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant