CN103308923A - 来自多个激光雷达的距离图像配准方法 - Google Patents
来自多个激光雷达的距离图像配准方法 Download PDFInfo
- Publication number
- CN103308923A CN103308923A CN2013101154322A CN201310115432A CN103308923A CN 103308923 A CN103308923 A CN 103308923A CN 2013101154322 A CN2013101154322 A CN 2013101154322A CN 201310115432 A CN201310115432 A CN 201310115432A CN 103308923 A CN103308923 A CN 103308923A
- Authority
- CN
- China
- Prior art keywords
- sensor
- value
- laser radar
- current transform
- radar sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明涉及来自多个激光雷达的距离图像配准方法,具体地,一种用于配准从来自由车辆上的多个激光雷达传感器探测到的物体的距离图像的系统和方法。该方法包括在传感器信号融合操作中将来自具有交叠视场的至少两个激光雷达传感器的数据帧对准,以追踪由传感器探测到的物体。该方法定义识别传感器的方位角和位置的用于激光雷达传感器中至少一个的变换值,并且提供来自由传感器探测到的物体的目标扫描点,其中对每个传感器的目标扫描点提供独立的目标点图。该方法采用当前变换值将来自所述至少一个传感器的目标点图投射到激光雷达传感器中的另外一个以交叠来自传感器的目标扫描点。
Description
相关申请的交叉引用
本申请要求2012年3月15日提交的题为“Method forRegistration of Range Images From Multiple LiDARS”的美国临时专利申请序号61/611465的优先权日期的权益。
技术领域
本发明总体涉及一种用于对来自多个激光雷达传感器的距离图像(range image)进行配准(register)的系统和方法,并且更具体地涉及一种对来自车辆上的多个激光雷达传感器的距离图像进行配准的系统和方法,其中该方法包括对同时来自多个激光雷达传感器的两个数据帧进行配准。
背景技术
许多现代的车辆包括物体探测传感器,其用于实现碰撞警报或者碰撞避免以及其他主动的安全应用。物体探测传感器可使用任意多种的探测技术,诸如短距离雷达、具有图像处理的照相机、激光或激光雷达(LiDAR)、超声波等。物体探测传感器探测车辆以及处于主车辆的路径中的其他物体,并且应用软件使用物体探测信息以提供警告或者采取适当的动作。在许多车辆中,物体探测传感器直接被集成到车辆的前缓冲器或者其他的仪表板中。
为了使得应用软件最优地执行,物体探测传感器必须与车辆适当地对准。例如,如果传感器探测处于主车辆的路径中的物体,但由于传感器没有对准,传感器确定物体稍微处于主车辆的路径的左边,则这会对应用软件具有重大后果。即使在车辆上具有多个前视物体探测传感器,它们被适当地对准也是重要的,以便最小化或者消除不一致的传感器读数。
激光雷达传感器是一种传感器的类型,其有时候用在车辆上以探测车辆周围的物体并提供至这些物体的距离。激光雷达传感器是期望的,因为它们能够提供被跟踪的物体的驶向,而其他类型的传感器,诸如视觉系统以及雷达传感器,一般不能做到。对于一种类型的激光雷达传感器,来自物体的反射返回为作为点集群(cluster)距离图的部分的扫描点,其中为穿过传感器视场每1/2°而提供单独的扫描点。因此,如果探测到目标车辆在主车辆的前面,则可具有被返回的多个扫描点,其辨别目标车辆和主车辆之间的距离。
车辆可具有多个激光雷达传感器以提供绕车辆的360°视场。这些多个激光雷达传感器可包括旁视传感器、后视传感器和前视传感器。所述传感器中的每个独立于其他传感器在其视场中追踪物体。使用来自多个传感器的扫描点返回,产生距离图形以追踪靠近主车辆的物体。对于具有多个激光雷达传感器的车辆,多个点集群图被返回,并且对于交叠的传感器视场,传感器可以追踪相同的物体。有必要组合所述传感器的扫描点图,以使传感器所追踪的相同物体被处理为单个的目标。
被转让给本申请的受让人并且这里通过参考的方式而引入的于2010年11月9日提交的题为“Systems and Methods for TrackingObjects(用于追踪物体的系统和方法)”的美国专利申请序号12/942456,公开了一种使用激光雷达传感器用于监控目标物体的驶向和与主车辆的距离。该申请限于单个激光雷达传感器,并且没有讨论融合从多个激光雷达传感器的返回。
发明内容
根据本发明的教导,公开一种用于配准从来自由车辆上的多个激光雷达传感器探测到的物体的距离图像的系统和方法的系统和方法。该方法包括在传感器信号融合操作中将来自具有交叠视场的至少两个激光雷达传感器的数据帧对准,以追踪由传感器探测到的物体。该方法定义识别传感器的方位角和位置的用于激光雷达传感器中至少一个的变换值,并且提供来自由传感器探测到的物体的目标扫描点,其中对每个传感器的目标扫描点提供独立的目标点图。该方法采用当前变换值将来自所述至少一个传感器的目标点图投射到激光雷达传感器中的另外一个以交叠来自传感器的目标扫描点,并且采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置。该方法采用所述权重值计算新的变换值,将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值,并且基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值,从而传感器被校准。
本发明还提供如下方案:
1.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述方法包括:
定义用于所述激光雷达传感器中至少一个的变换值,其识别所述传感器的方位角和位置;
提供来自由所述传感器探测到的物体的目标扫描点,其中对每个传感器的所述目标扫描点提供独立的目标点图;
采用当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置;
采用所述权重值计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值。
2.根据方案1所述的方法,其特征在于,所述激光雷达传感器位于车辆上。
3.根据方案1所述的方法,其特征在于,还包括为所述传感器中的所述至少一个传感器选择被初始地用作所述当前变换值的初始变换值。
4.根据方案3所述的方法,其特征在于,选择初始变换值包括从由制造商设定值、零以及估计的值构成的组中选择初始变换值:。
5.根据方案1所述的方法,其特征在于,确定多个权重值包括使用方程:其中ajk是用于具体扫描点的权重值,sj是来自所述激光雷达传感器中的所述至少一个激光雷达传感器的扫描点,mk是来自所述激光雷达传感器中的所述另外一个的扫描点,T是变换值,以及K是核函数,被定义为:其中σ是方差。
6.根据方案1所述的方法,其特征在于,还包括确定当前变换值是否大于预定阈值,其中如果所述当前变换值大于预定阈值,那么所述变换值基于旋转矩阵和平移矢量而被定义。
7.根据方案6所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
8.根据方案1所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
9.根据方案8所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
10.根据方案1所述的方法,其特征在于,定义变换值包括使用期望最大化算法。
11.根据方案1所述的方法,其特征在于,提供目标扫描点包括提供目标扫描点为双向图。
12.根据方案1所述的方法,其特征在于,还包括提供其他类型的传感器,操作以探测物体并提供提示信号以开始传感器融合操作。
13.根据方案12所述的方法,其特征在于,所述其他类型的传感器包括雷达传感器和视觉系统。
14.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述激光雷达传感器位于车辆上,所述方法包括:
定义用于所述激光雷达传感器中至少一个的当前变换值,其识别所述传感器在一个取样时间的方位角和位置;
提供由来自所述传感器探测到的物体的目标扫描点,其中对于每个传感器的所述目标扫描点提供独立的目标点图;
采用所述当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
在下一个取样时间计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述差值更新所述当前变换值。
15.根据方案14所述的方法,其特征在于,还包括确定所述当前变换值是否大于预定阈值,其中如果所述当前变换值大于所述预定阈值,那么所述变换值基于旋转矩阵和平移矢量来定义。
16.根据方案15所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
17.根据方案14所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
18.根据方案17所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
19.根据方案14所述的方法,其特征在于,定义变换值包括使用期望最大化算法。
通过结合附图所做的以下描述以及所附权利要求,本发明的其他特征将变得显而易见。
附图说明
图1是跟随目标车辆的主车辆的图示,并且示出了在主车辆上的四个激光雷达传感器的视场;
图2是用于融合来自车辆上的多个激光雷达传感器的扫描点的融合系统的总体框图;
图3(A)和(B)示出了来自激光雷达传感器的扫描点;
图4是流程图,示出了用于配准来自多个激光雷达传感器的扫描点的方法;
图5是物体后部的轮廓概率密度函数;
图6是迭代边界优化图;
图7是方框图,示出了估计物体移动和当新的激光雷达扫描点图可用时更新物体模型的两个交织过程;
图8是用于由追踪算法追踪的物体的动态贝叶斯网络;
图9是流程图,示出了在单个时间步处的多个物体追踪算法的过程;
图10是双向图,示出了用于图9的图示中将扫描集群与预测的物体模型进行匹配的步骤的预测的物体模型点和分段扫描图点;
图11是从图10中示出的双向图产生的诱导双向图;
图12是来自激光雷达传感器、视觉系统以及雷达传感器的扫描点的图示;
图13是跟随目标车辆的主车辆的图示,并示出了位于主车辆上的激光雷达传感器、雷达传感器以及视觉系统的视场;
图14是用于采用来自雷达传感器或者视觉系统提示的激光雷达传感器的追踪算法的总体流程图。
图15是流程图,示出了采用来自雷达传感器或者视觉系统提示的多个物体追踪算法的过程;
图16是双向图,示出了对所有的激光雷达扫描点、雷达传感器返回和视觉系统图像而将目标数据与物体模型进行匹配;
图17是产生自图16中示出的双向图的诱导双向图;
图18是双向图,示出了通过使用视觉系统提供匹配来将两个投射的物体模型合并;
图19是图18的诱导双向图,示出了来自图18的物体模型的匹配;
图20是双向图,示出了通过使用视觉系统进行匹配而分离所投射的物体模型;
图21是示出匹配来自图20的物体模型的诱导双向图;
图22是示出通过使用雷达传感器进行匹配的所投射的物体模型的双向图;
图23是示出匹配来自图22的模型的诱导双向图;以及
图24是通过来自雷达传感器或者视觉系统的提示信息的追踪算法和模型更新的动态贝叶斯网络。
具体实施方式
以下对用于来自位于车辆上的多个激光雷达传感器的距离图像进行配准的系统和方法的本发明的实施例的讨论,实质上仅是示例性的,并且不意在对本发明或者其应用或者使用进行限制。例如,将对位于车辆上的激光雷达传感器的距离图像的配准进行描述本发明。然而,如本领域技术人员将理解的,本发明的配准过程将具有车辆应用以外的应用。
图1示出包括主车辆12的车辆系统10的总览,主车辆12被示出追随其正追踪的目标车辆14。主车辆12包括四个激光雷达传感器,即:具有视场18的前视传感器16、具有视场22的后视传感器20、具有视场26的左视传感器24以及具有视场30的右视传感器28。传感器16、24和28都被安置于车辆12的前部处并具有交叠的视场,如图所示。如果物体诸如目标车辆14处于传感器16、20、24和30中的特定一个的视场中,则传感器返回识别该物体的多个扫描点。目标车辆14上的点32代表从每个传感器16、24和28而返自目标车辆14的扫描点。使用坐标变换技术而将点32变换成主车辆12上的车辆坐标系(x,y),然后使用点32在车辆坐标系中执行物体探测。可以使用点32限定目标车辆14的后部形状,如下讨论。
每个传感器16、20、24和28将为被传感器探测到的每个单独的物体提供扫描点云(point cloud)。本发明提出一种融合算法,其将每个传感器16、20、24和28的输出组合使得:在传感器16、20、24和28追踪相同的物体时,该物体被处理为单个目标,其中该算法输出每个被追踪物体的位置、方位以及速度。虽然该讨论包括四个激光雷达传感器,但所提出的融合算法将适用于任意数量和位置的具有交叠视场的多个激光雷达传感器。
目标车辆14的位置在该图中由定位点34即扫描图的中心来表示。以下值被用于表示在时间步t处目标车辆14的物体模型M。特别地,物体模型M定义相对的纵向速度Vx、相对的横向速度Vy、横向位移y、以及目标车辆的驶向ξ或者目标的对地速度矢量的方向。值M是由参数平均值mj和方差σ2表示的高斯分量的列表。该平均值由多个超参数vj,ηj,kj以及标记(即,访问过的以及到期的)来表征。
图2是用于融合来自多个激光雷达传感器诸如传感器16、20、24和28的扫描点云返回的融合系统36的示意方框图。框38表示来自左激光雷达传感器24的扫描点云返回,框40表示来自右视激光雷达传感器28的扫描点云返回,框42表示来自前视激光雷达传感器16的扫描点云返回,以及框44表示来自后视激光雷达传感器20的扫描点云返回。来自激光雷达传感器16、20、24和28的距离图被配准并且在框16中构建360°距离图(点云)。一旦来自激光雷达传感器16、20、24和28的点云被配准并且在车辆坐标系中形成360°点云,那么在框48中,算法融合来自多个目标的点云,以下进行详细描述。在目标在车辆坐标系框架中被融合之后,在框50中,算法输出目标的位置、方位以及速度。
在具体讨论用于组合来自多个激光雷达传感器的扫描点的融合过程之前,提供在框46中执行的扫描点配准算法的讨论以在对应于物体的物体模型M和当前扫描图S可获得时估计物体的移动。
在许多车辆中,物体探测传感器被直接集成到车辆的前部仪表板中。该类型的安装简单、有效且美观,但具有缺点:不能实际地去物理地调整传感器的对准。因此,如果由于仪表板的损坏或者老化以及与天气有关的变形引起传感器与车辆的实际驶向不对准,则除了替换包含传感器的整个仪表板组件之外,传统上没有办法校对该不对准。
如以下将讨论的,在框46中执行的帧配准匹配来自传感器20、24和28的距离扫描点,以适应传感器20、24和28的位置和方位的可能漂移。当车辆12是新的时,传感器20、24和28被初始地校准。如提到的,各种因素引起那些方位随着时间改变,因此需要实施方法来对传感器的方位进行再校准,使得在视场26和30的交叠部分中探测到的物体更精确。本发明提出期望最大化(EM)匹配算法来寻找限定传感器的方位角以及x和y位置的多个激光雷达传感器之间的变换T。例如,算法将匹配从左视激光雷达传感器24到右视激光雷达传感器28的变换T,然后当来自随后计算的变换T匹配时,传感器24和28将得到对准。
通过选择初始变换值T0(其可以是零、之前估计的值、由制造商提供的在传感器24和28之间的方位等),EM算法开始。然后该算法通过使用变换T将左传感器距离图投射到用于右视激光雷达传感器28的帧。图3是扫描点图120的表示,其中圆圈124表示来自左激光雷达传感器24的扫描点返回,而椭圆126表示来自右视激光雷达传感器28的扫描点返回。图3(A)示出了所有的扫描点返回,而图3(B)示出了对于几个扫描点返回的在圆圈122中的放大区域。图3(B)示出了左视激光雷达传感器扫描点返回124如何通过箭头128被映射到右视激光雷达传感器扫描点返回126。通过使用当前可获得的用于投射图箭头128的变换T,左视激光雷达传感器扫描点返回124相对于右视激光雷达传感器扫描点返回126移动以尝试使得它们交叠。
当前使用的变换T对于左视激光雷达传感器24到右视激光雷达传感器28的当前方位可能不准确,使得对于传感器24和28的当前位置来说变换T需要被更新。算法使用当前变换T以更新左传感器扫描点Sj和右传感器扫面点mk之间的权重ajk为:
其中核函数K是:
然后使用修正的权重ajk来确定新的变化T’为:
然后将新的变换T’与之前计算的变换T对比,并且基于它们之间的差,使用新的变换T’重新计算权重ajk直到新计算的变换T’匹配之前计算的变换T,其中传感器24和28被对准。
在某些情况下,用于对准扫描数据点的变换T将足够大,其中会有益的是增强方程(3)中的T’的解。对于该示例,变换T被定义为x′=T·x,其中x′=Rx+t,并且其中R是旋转矩阵,而t是平移矢量。在该分析中,让:
S=[S1,S2,...,SL]T, (4)
M=[m1,m2,...,mN]T, (5)
A=[ajk], (6)
1=[1,1,...,1]T, (7)
方程(3)中的新的变换T’的解然后由以下给出:
T′=[R′,t′], (12)
其中:
R′=UCV, (13)
t′=μs-R′μm, (14)
并且其中U和V被定义为如下的奇异值分解的因子:
并且C是:
如上所描述的确定变换T的EM算法可能仅仅局部地优化并且对初始变换值敏感。该算法可以通过使用粒子群优化(PSO)而得到增强从而找到初始变换T0。在该优化中,设E是从左激光雷达传感器24到右激光雷达传感器28的适格的变换T的集合。算法根据在适格的变换E中的均匀分布而随机产生N粒子{ti/t,∈E},并且每个粒子ti与规一化权重Wi=1/N相关联。对于每个粒子ti,EM算法被设定为最佳变换Ti,其中ti被赋予为初始值。假设权重Wi是用于变换Ti的两个扫描之间匹配的百分比。该算法然后输出具有最匹配百分比的变换Tk作为从左激光雷达传感器24到右激光雷达传感器28的变换的名义值,其中wk=max(wi)。
在大多数情况下,变换T从一个采样时间到下一个的变化一般为小,并且因此,不需要对于如上所述的变换T的巨大变化而使用计算密集型处理来计算新的变换T’。特别地,如果名义变换Tn由如上的PSO算法估算,那么变换T’的新的估算可以使用如下的少的计算EM匹配算法而递归改进。首先,变换Tn被应用于右激光雷达传感器28的每个扫描点如:
Sj←TnοSj. (17)
修正的变换ΔT被确定为:
ΔT:x′=ΔTοx, (18)
并且定义为:
x′=x-εy+tx, (19)
y′=εx+y+ty, (20)
其中变换ΔT被建模为(tx,ty,ε),并且其中之前的变换ΔT0是(txo,tyo,εo)。
方程(3)然后被替换为:
并且该解是:
其中:
sj=(x′j,y′j), (23)
mk=(xk,yk), (24)
T′=t′x,t′y,ε′, (25)
并且其中λ是对于之前的估算被使用多少来说可被调节的权重因子。
图4是流程图130,示出了对准激光雷达传感器例如如上所述的激光雷达传感器24和28的操作。在框132中,算法选择初始变换Tn诸如制造商设定。在框134中,算法收集来自激光雷达传感器24和28的扫描距离图数据,并且确定是否存在足够量的来自激光雷达传感器24和28的视场中的物体的扫描点以在判定菱形136处充分地执行计算。如果扫描点不足够,那么算法返回至框134以收集更多距离图数据。如果在判定菱形136处具有足够的扫描点,那么算法使用EM匹配算法以在框138处寻找修正的变换ΔT。然后该算法在判定菱形140处确定修正的变换ΔT是否大于预定阈值,并且如果是,那么在框142处,通过使用PSO算法而采用大变换估算以寻找新的名义变换Tn。如果在判定菱形140处匹配百分比不大于阈值,那么算法返回至框134以收集下一扫描点。
返回至融合算法,以下讨论首先呈现提出的扫描点配准算法,其在给定对应于目标车辆14的物体模型M和当前扫描图S时估算目标车辆14的移动。以上关于用于确定对准激光雷达传感器之间的帧的变换T的EM算法的讨论提供空间匹配,具体地在同一时间来自不同激光雷达传感器的两个帧之间的匹配。涉及扫描点配准的该讨论还使用点集合配准算法以寻找暂时匹配在当前扫描图S和源自过去的扫描图的物体模型M之间的两个帧的变换T。
首先定义概率性的物体模型M,然后提供建议的迭代算法以寻找严格(rigid)的变换使得似然性得到最大化,给定随后的帧的扫描图的情况下。为了表征物体的几何形状,在样本空间中定义轮廓概率密度函数(PDF)。图5示出了对于目标车辆14的后部的示例性PDF的快照。不是使用特定参数,PDF由粒子(点)列表来直接表示,标示为M=(m1,m2,...,mnM)T。
表示PDF的该非参数方式可以写为:
假设S=(s1,s2,...,sns)T是由扫描点sk的列表组成的当前扫描图。似然函数可以由如下表达:
其中扫描点sk被假定是在位置y处的物体模型M的独立且同分布样本。
这里的目标是寻找L(S;y,M)相对于变换参数Y的最大值,其等价于寻找J(y;M)≡-LogL(S;y,M)的最小值如:
y*=argminyJ(y;M), (31)
其中:
该局部最小值表明在随后的具有与在原点34处限定的p(x;M)相似的表达的帧中的物体的存在。
引入附加矩阵A≡{akj},其中,对于j=1,...,nM和k=1,...,n,来说,akj≥0,其中:对于所有的k,
因此,方程(32)成为:
如果负对数函数是凸的,方程(36)的最佳上界可以通过取方程(36)的表达式和约束的拉格朗日乘子(见方程式(33))相对于akj的微分并且设定为0而导出。最优辅助变量可以由如下表示: (37),对于j=1,...,nM和k=1,...,nS。
如下算法1中示出的迭代程序被重复直到收敛,即,在两个迭代中估算的y的差小于一个预定的小数值。经验结果表明2-3次迭代已足够使提出的算法收敛。
算法1:扫描点配准
输入:物体模型M,当前扫描图S,以及初始的变换参数y0。
1)设定σ=σ0,其中σ0是正数。
2)计算A:给定之前估算的变换参数yn,使用方程(37)更新akj。
4)计算σ:关于σ的不同方程(36),设置导数为0,得出:
5)设定yn+1=y*,如果||yn+1-yn||>∈,那么行进到步骤2。否则输出y*被用作对于变换的所估计的参数。
如下讨论描述可用在具有激光雷达扫描器的机器人的点集合配准的特殊情况。可以写出严格的变换x′=Ty(x)和x′=Rx+t,其中参数矢量y由旋转矩阵R和平移矢量t组成。方程(38)可以简化为:
y*=argminy∑k,jakj||sk-Rmj-t||2, (40)
使得det(R)=1以及RTR=1。
取方程(40)分别关于t和R的偏微分,能求解方程(40)。为了示出解,定义如下量:
其中1=[1,1,...,1]T。
方程(40)的解是:
R=UCVT, (45)
t=μs-Rμm, (46)
其中U和V被定义为奇异值分解的因子,即和C=diag(1,det(UVT))。
如下讨论提出基于贝叶斯的算法,其递归地估算移动和物体模型M的更新。假设SO,...,St和St+1分别是取样自时间步0,...,t,和t+1处的动态物体的扫描图。
图7示出了追踪可以被处理为i)估计物体的移动的问题,以及ii)当收到新的帧扫描图时更新物体模型M的问题。尤其是,图7示出过程60,用于在框63中估计物体位置,使用物体位置以在框62中更新物体模型并且当获得新的扫描图时估计物体位置。
以下讨论将包括参照双向图和贝叶斯图。这两种类型的图形包括代表不同事情的节点。在贝叶斯图中的节点表示将被估计的变量,诸如变换T以及物体模型M,其是随机的,并且可仅由PDF表示。这些节点穿过不同时间帧而序列布置,并且仅每个序列建模物体。相反,在双向图中的节点是扫描图的分段。每个扫描图在相同时间帧可包含多个物体。因此,目的是寻找每个对应于物体的分段。通过建立分段(s1,s2,...,sn)沿时间轴的关联,可以获得多个序列,其中每个对应于物体。以这种方式,可以使用双向图以将贝叶斯方法应用到追踪每个单独物体。
图8描述了表示提出的追踪算法的两个时间步的动态贝叶斯网络70。在网络70中,节点72表示变换参数yt和yt+1,即,物体位置和目标的姿态(attitude),节点74表示物体模型Mt和Mt+1,而节点76表示扫描图St和St+1。在图8中,yt和yt+1分别是在时间步t和t+1处的变换的估计参数,而Mt和Mt+1分别是在时间步t和t+1处的物体模型。为了适于贝叶斯网络70,p(y)被建模为由其中心参数化的狄拉克δ分布(dirac delta distribution),而物体模型M建模为分别由其均值{mj}和固定的方差σ2参数化的高斯分量的联合PDF。每个均值mj由具有超参数即均值和方差的高斯PDF表示。
p(y,M|S(0:t+1))∝p(S|y,M)p(y,M|S(0:t))=p(S|y,M)p(y|S(0:t))p(M|S0:t),(47)其中y和M是yt+1的简化,S(0:t+1)表示达时间步t+1的扫描图,S是处于时间t+1处的扫描图,P(S/y,M)是方程(30)中的L(S;y,M)的等价表示,并且最后的相等性通过给定S(0:t)假设条件独立遵循。
在方程(47)中,p(y/S(0:t))是参数y在时间步t-1处的先验PDF,给定之前的扫描图S(0:t),其可以计算为:
p(y|S(0:t))=∫p(y|yt)p(yt|S(0:t))dyt. (48)
在方程(48)中,p(yt/S(0:t)表示在时间t处的变换参数的后验PDF,并且p(y/yt)是接下来的物体移动的工厂模型的条件概率:
y=f(yt)+w, (49)
表达式p(Mt-1/S(0:t))可以建模为在方程(30)中的L(S;y,M)的共轭分布族,以产生可追踪的后验PDF。具有已知方差σ2的高斯密度的乘积被提出为:
其中:
并且其中(ηj,vj)是Mt-1的第j分量的先验PDF的超参数,并且c(ηj)是归一化因子。
如图8所示,物体模型M在时间步t处的先验数据是:
现在考虑估计后验p(y,M|S(0:t+1))在时间t+1处的问题。因为y和M是条件独立的,即:
p(y,M|S(0:t+1))=p(y|S(0:t+1))p(M|S(0:t+1)), (54)
关于y和M的后验可以按如下两个步骤而单独地估算。
忽略与物体模型M不相关的项,方程(47)的负对数可以写为:
如图6所示,可以使用边界优化而通过寻找上述的上边界函数的最小值来迭代地寻找最优物体模型M。设定方程(56)关于物体模型M的导数为零,物体模型的MAP估算可以获得为:
其中:
ρj=∑kakj, (58)
在时间t+1处的S之后,用于物体模型M的后验分布的新的超参数(η′j,v′j)的更新规则可以写为:
η′j=ηj+ρj, (60)
因此,在时间t处的目标的后验PDF是:
注意到方程(57)中的mj *是模式,而方程(61)中的v′j是物体模型M的第j分量(粒子)的平均值。它们由于高斯假定而相同。
在下面的算法2中将对递归追踪和模型更新方法进行归纳。步骤1准备用于当前时间帧的物体模型M,而步骤2估算物体模型M的移动。步骤3基于当前扫描图而更新物体模型M。步骤4将新的粒子加入物体模型M,而步骤5将异常值从目标模型M中去除。
算法2:追踪以及物体模型更新
5)去除没有标记为已访问的和未到期的粒子。
图9是流程图80,示出了在每个时间步t执行的所提出的融合算法。框78表示在每个时间步产生的物体文件,并且提供被探测到和追踪到的物体的位置、速度和驶向以及用于被追踪的每个物体的物体模型M。当在框82中来自传感器16、20、24和28的距离数据的新的帧到达主车辆12时,算法首先在框84中以如上讨论的方式构建360°点云。一旦构造了点云,算法然后在框86中将云中的扫描点分割成可识别具体物体的集群。为了执行分割操作,设定表示当前帧(t+1)的扫描图,并设定是具有顶点集的无向图。如果||p1-p2||小于预定的距离阈值,则边缘(p1,p2)∈E链接p1和p2。然后使用连接的分量标签来将扫描图分割成集群列表将扫描点分割成集群包括在返回的点云中隔离扫描点的集群,以使集群识别被追踪的独立的物体。
一旦扫描点被分割成集群,算法然后在框88中将集群与预测的物体模型进行匹配。具体地,算法在框90中使用物体文件78投射在之前时间步处的所追踪的物体模型M。为了预测投射的物体模型,假定是在时间步t处的物体模型M的列表。对于每个物体模型高斯分量的平均值表示为如果是在时间步t的变换的估值,则在时间步t+1处的预测的变换为因此,第n个物体的预测的物体模型对于所有j来说是通过预测的物体点可以从时间步t来表示。
使用投射的所追踪的物体模型,在框88中,分割的集群与预测的物体模型进行匹配。在顶点集到之间构建双向图其中EB为边缘集。当且仅当||p-q||<D时,在点和之间存在边缘,其中D是距离阈值。边缘(p,q)的权重被定义为w(p,q)=||p-q||。的邻域被定义为N(q)≡{p|(p,)∈EB}。
假设E(p′,q′)是B中的边缘集的子集,即,E(p′,q′)≡{(p,q)|(p,q)∈EB∩P∈p′∩q′∈q}。权重(p′,q′)和边缘(p′,q′)的基数(cardinality)分别被定义为:
一旦诱导双向图B’被构建,并且边缘的权重和基数被计算,使用以下的算法3来选择强的边缘和被修剪的弱链接。
图10是双向图100,即B,处于在如上讨论的当前的时间步t的五个预测的物体模型和五个集群S的扫描点水平。在双向图100中,点102表示预测的物体模型点,而三角形104表示分割的扫描图点。点102和三角形104之间的线106是图100的边缘。
算法然后在框92中合并和分离数据点集群以组合探测到的相同的物体并且分离最初探测为单个物体但是已经形成多个物体的物体。为了提供集群的合并和分离,以下的算法3提供扫描关联。
图11说明了诱导双向图110,即B’,从图B中通过将点合并成组得到。在诱导双向图110中,节点114表示物体模型点(M),节点112表示分割的扫描点(M)的集群,而线116表示定义物体模型点(M)和分割扫描点(S)之间的匹配的边缘。如接下来将讨论的,在时间t处的被匹配于在时间t+1处的S1,和被合并入在时间t+1处的S2中,在时间t处的被分离成在时间t+1处的S3和S4,在时间t处的将要消失并且从在时间t+1处的扫描图中去除,而在时间t+1处S5达到。在算法3的步骤3中,边缘和被高亮显示。在步骤4中,与S2匹配,边缘被高亮显示。因此,在步骤5中,虚线被修剪为弱链接。图11说明了直接与S1匹配,然而,两个其他情况需要集群合并和分离。
算法3:扫描关联算法
输出:修剪的诱导双向图B’。
1)建立具有作为顶点的扫描点的双向图B。
2)建立具有作为顶点的集群和轮廓的诱导图B’,并且分别使用方程(63)和(64)计算边缘的权重和基数。
5)修剪在B’中没有被高亮显示的全部边缘。
如上所提到的,在框94中创造新的物体并且删除消失的物体。尤其是,两种特殊的情况需要处理以创造新的物体以及移除物体文件中的存在的物体,其中扫描集群S5不存在引入的边缘。将触发追踪初始化步骤,并且新的物体将被增加到物体文件中用于扫描集群S5,而预测的物体模型消失,因为没有从其引入的边缘,并且将从物体文件中移除。
一旦在框94中新的物体被创造并且消失的物体被删除,算法然后在框96中提供追踪和模型更新。对于每一个匹配的物体模型Mt和扫描集群St+1对,例如假定提供算法1的扫描配准过程,算法2用于追踪和物体模型更新。
在框98中,物体文件78然后被更新并为接下来的时间步存储为物体文件78。每个物体的新的变换yt+1和更新的物体模型Mt被存储回物体文件,并且算法等待下一个时间步处的新的扫描图的到来。
如果两个连续的扫描帧之间的旋转为小,则2D变换的参数可以近似为:
x′=x-∈y+tx, (65)
y′=∈x+y+ty, (66)
其中(x,y)和(x′,y′)分别是之前帧和当前帧的两个点,∈是旋转角而(tx,ty)是平移。
假设mj=(xj,yj)和Sk=(x′k,y′k)。将方程(65)和(66)插入方程(55)中,分别对tx,ty和∈进行偏微分并设为0。假设表示方程(49)预测的y。如果假设是常数模型,则提供 以及其中δt为时间步t和t-1之间的持续。
以下更新法则可以导出:
其中λx、λy和λε是来自方程(50)中的协方差矩阵Q的权重。
假定vH和ωH分别表示HV对地速度和偏航速率。目标车辆14的对地速度可以通过如下计算:
vgx=vx+vH-xcωH, (70)
vgy=Vy+ycωH, (71)
以及目标车辆14的驶向为:
如上所述的用于探测并追踪多个物体的该方法和设备可以提供360°视场方案用于由主车辆12检测物体。然而,需要解决用于激光雷达传感器的接下来的问题。
第一个问题由遮挡或者激光测量失效所导致的部分观测,例如,低的反射或者镜面反射。例如,黑色车辆的探测范围要明显小于白色车辆的探测范围。
接下来的问题是由于导致低的特征显著性的低分辨率引起的稀疏测量,以及因此不足以探测远场物体。
另外一个问题是有限的垂直视场,比如4°,这会导致缺失检测非平整路面上的物体。
另外一个问题是缺少能将物体从混乱背景中区别的环境信息。
本发明提出一种增强的融合算法以解决对于激光雷达传感器来说的如上述的限制。具体地,本发明使用来自位于车辆上的雷达传感器或者视觉系统中的一个或者两者的输出以作为提示信号来操作以使用于激光雷达传感器输出的融合系统辨别目标。雷达传感器一般具有远范围,但是窄的视场。视觉系统一般具有短视场,但是提供与被探测目标的接触。如上,被讨论的增强的融合系统被设计为估算每个所探测物体的参数x、y、vx、vy和ξ。
图12是如由主车辆上的激光雷达传感器、雷达传感器和视觉系统探测到的在道路152中显示的目标的图像150。具体地,目标处于足够远的距离之外,或者被遮挡,这样激光雷达扫描点非常少,如点156所表示。为了提高目标的探测,视觉系统图像154从视觉系统输出定义相同的目标,而雷达数据点158表示由雷达传感器探测到相同目标。
图13是用于追随并跟踪目标车辆164的主车辆162的与以上讨论的系统10相似的车辆系统160的图示。如图1中所示的那样,使用用于位置、速度、驶向角等的相同的变量。在该示例中,主车辆162包括具有视场168的激光雷达传感器166、具有视场172的雷达传感器170以及具有视场176的视觉系统174。从激光雷达传感器166的返回被示出为扫描点178,从雷达传感器170的返回被指定为三角形180,而从视觉系统174的返回表示为框182。如本领域所公知的,视觉系统和雷达传感器从目标给出四个输出,即,与目标的距离、与目标的距离的变化即距离变化率、目标的驶向角以及目标的方位角的变化即方位角变化率。
图14是提出的融合系统190的总览的方框图。在每个时间步,从雷达传感器170和/或视觉系统174所捕获的目标被从框192发送至提示环境块194。如上讨论的,在框196处激光雷达扫描集群图提供至激光雷达追踪算法框198。追踪算法接收来自框194的提示环境目标数据,并且目标数据与存储的物体模型匹配,其中值n0是探测到的目标的数量。每个目标oi=(x″i,y″i,v″i,w″i)具有纵向位移(x″)、横向位移(y″)、径向速度(v″)、以及横向速度(w″)的参数。具有每个扫描点sk的激光雷达扫描图包括纵向偏移x″i和横向偏移y″i,其中N是扫描点的数量。追踪算法监视来自提示环境框194和激光雷达扫描图的输入,并为每个探测的目标产生输出参数x、y、vx、vy和ξ。应用块200使用物体的估算参数,并实施车辆的主动安全应用,诸如自适应巡航控制,碰撞减轻制动,等。
图15是与如上讨论的流程图80相似的流程图204,其中相同的操作以相同参考号标识。流程图204包括框206,其读取来自雷达传感器170或者视觉系统174的目标数据。接下来,算法在框208中将目标数据与激光雷达坐标系框进行配准。为了完成此,假设y0是严格的变换T的参数(平移和旋转),变换T将来自雷达传感器170或者视觉系统174的目标映射到激光雷达坐标系中,使得激光雷达系中的映射的目标为:
配准参数y0可以通过在追踪的激光雷达物体和来自雷达传感器170或者视觉系统174的目标之间的匹配对来自动地估算。被转让给本申请的受让人并且通过参考并入这里的、于2011年8月7日授予的题为“Method and Apparatus for On-vehicle Calibration andOrientation of Object-Tracking Systems”的美国专利7991550公开用于此目的的合适的技术。
接下来,算法在框210中将来自雷达传感器170或者视觉系统174的目标数据匹配到物体模型M。该过程在图16中被示出为图像230,包括主车辆232,其中点234是物体模型点,三角形236是雷达目标,而菱形238是源自视觉系统174的图像数据的虚拟扫描点。雷达目标or通过由三角形236表示的点来建模。视觉目标ov被建模为矩形,其可以由通过从主车辆232引入的“虚拟”扫描线来由在矩形边缘上取样的点的列表表示。值Ov={ol|l=1,....,6}在菱形238中示出。物体模型集和所有物体模型的扫描点被定义。假设表示分别来自雷达传感器170或者视觉系统174的所有的目标点,是三角形或者菱形。
采用如上讨论的程序来构建如图17所示的修剪的双向图240。图240示出了在节点246处的物体运动242和在节点248处的物体模型244,其中 o3是用于创造新的物体的候选,而预测的物体模型被标记为将消失的,其可从物体文件中去除。
使用来自框90的投射的所追踪的物体模型来自框88的具有投射的物体模型的匹配的集群以及来自框210的具有物体模型的匹配的目标数据,算法在框212中提供物体模型M的合并和分离。考虑到两种情况,即,视觉目标和雷达目标。图18示出了对于两种预测的物体模型和被匹配到视觉目标O1的情况的双向图250。来自视觉系统74的该提示信息提供这两个物体模型和需要合并为新的物体模型的证据。
图23是诱导双向图276,示出了赋值 和具体地,图276示出了节点278处的雷达目标o1被匹配到节点280处的物体模型以及分别在节点282和284处的雷达目标o2和o3被示出被合并成在节点286处的单个物体模型
接下来,算法在框214中创造新的物体并删除即将消失的物体。类似于如上讨论的用于流程图80的程序,两种特殊情况需要被处理以产生新的物体以及从物体文件中删除即将消失的物体。对于每一个来自激光雷达段的不匹配的扫描集群S和每一个来自雷达传感器170或者视觉系统174的不匹配的目标,使用追踪初始程序以向物体文件中增加新的物体。对于物体文件中的物体,如果没有与来自激光雷达传感器166的分段集群S或者来自雷达传感器170或视觉系统174的目标的匹配,那么该物体被标记为消失。如果该目标在几个连续的时间步被标记为消失,则其将从物体文件中移除。
接下来,算法在框216中提供追踪和模型更新。为了完成这,假定o0,...,ot和ot+1是在动态物体的激光雷达坐标系中分别由雷达传感器170或者视觉系统174在时间步0,...,t和t+1映射的测量值。通过从时间步0一直到时间步t的测量被标识。
图24说明了来自图8的修正的动态贝叶斯网络290,表示利用提示信息的所提出的追踪算法的两个时间步。值yt和yt+1分别是在时间步t和t+1将被估算的变换的参数。模型Mt和Mt+1是在时间步t和t+1处的物体模型。在网络290中,节点292是在时间步t和t+1处的目标数据ot和ot+1,节点294是在时间步t和t+1处的变换参数y,节点296是在时间步t和t+1处的物体模型M,以及节点298是在时间步t和t+1处的扫描图。
与在方程(47)中类似,贝叶斯和链式法则分别地用于获得后验PDF,给定激光雷达扫描图和直到时间步t+1的来自雷达传感器170或者视觉系统174的目标数据,为:
p(y,M|S(0:t+1),o(0:t+1))∝p(S|y,M)p(o|y,M)p(y,M|S(0:t),o(0:t))
=p(S|y,M)p(o|y)p(y,|S(0:t),o(0:t))p(M|S(0:t),o(0:t)), (74)
其中y和M是yt+1和Mt的简写,S(0:t+1)表示到时间步t+1的扫描图,S是时间t+1处的扫描图,o=ot+1是在时间步t+1处测量的目标的简写,以及最后的等式通过假设条件独立给定S(0:t)和o(0:t)时遵循。
在方程(74)中,p(y,M|S(0:t),o(0:t))是给定之前的扫描图S(0:t)和目标数据o(0:t)时y在时间步t+1处的先验PDF,,其可以计算为:
p(y|S(0:t),o(0:t))=∫p(y|yt)p(yt|S(0:t),o(0:t))dyt, (75)
其中p(yt|S(0:t),o(0:t))表示在时间t处的变换参数的后验PDF,而p(y|yt)表示工厂模型方程(49)。
如果p(yt|S(0:t),o(0:t))被假定为中心处在的狄拉克δ分布,则在时间步t+1处的先验PDF可以写为:
现在考虑物体模型M的后验,其中:
现在考虑估算在时间步t+1处后验的问题,其被因式分解为:
p(y,M|S(0:t+1),o(0:t+1))=p(y|S(0:t+1),o(0:t+1))p(M|S(0:t+1),o(0:t+1)), (79)
并且单独地如下两个步骤计算。
目标数据p(o|y)的测量模型建模为:
o=h(y)+v, (80)
其中v是具有协方差矩阵E的零均值高斯瑞吉随机变量。因此,p(o|y)是高斯PDF,即:
将方程(76)和(81)插入到方程(74)中,对方程74应用负对数,并且略去与y不相关的项,得到如下:
其中 和
因此,算法1中的方程(38)可以替换为方程(55),以便集成先前时间步的先验信息和来自雷达传感器170或者视觉系统174的提示(cueing)信息,然后应用算法1以得到
当计算p(M/S(0:t+1),O(0:t+1))时,注意到方程(78)和方程(53)时是等价的,因此应用与如上描述相同的超参数的更新法则。
物体文件78然后以如上讨论的方式在框98中被更新。
如本领域技术人员所很好地理解的,这里讨论的用于描述本发明的若干和不同的步骤和程序可指由计算机、处理器或者使用电现象操作和/或转变数据的其他电子计算设备执行的操作。那些计算机和电子设备可采用各种易失性和/或非易失性的存储介质,包括具有存储在其中的可执行程序(包括可以通过计算机或者处理器执行的各种代码或者可执行指令)的非瞬时性计算机可读介质,其中存储器和/或计算机可读介质可包括所有形式和类型的存储器以及其他的计算机可读介质。
前面公开的讨论和描述仅仅是本发明的示例性实施例。本领域技术人员从该讨论以及从附图和权利要求容易意识到可对本发明做出各种改变、修改和变化,而不偏离由随附权利要求限定的本发明的精神和范围。
Claims (10)
1.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述方法包括:
定义用于所述激光雷达传感器中至少一个的变换值,其识别所述传感器的方位角和位置;
提供来自由所述传感器探测到的物体的目标扫描点,其中对每个传感器的所述目标扫描点提供独立的目标点图;
采用当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
采用当前变换值确定多个权重值,其中每个权重值将用于所述至少一个传感器的扫描点中之一的位置变化识别到所述传感器中的所述另外一个的扫描点的位置;
采用所述权重值计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述新的变换值与所述当前变换值之间的所述差值修正所述多个权重值,直到所述新的变换值匹配所述当前变换值。
2.根据权利要求1所述的方法,其特征在于,所述激光雷达传感器位于车辆上。
3.根据权利要求1所述的方法,其特征在于,还包括为所述传感器中的所述至少一个传感器选择被初始地用作所述当前变换值的初始变换值。
4.根据权利要求3所述的方法,其特征在于,选择初始变换值包括从由制造商设定值、零以及估计的值构成的组中选择初始变换值:。
6.根据权利要求1所述的方法,其特征在于,还包括确定当前变换值是否大于预定阈值,其中如果所述当前变换值大于预定阈值,那么所述变换值基于旋转矩阵和平移矢量而被定义。
7.根据权利要求6所述的方法,其特征在于,定义变换值包括采用粒子群优化方法,其包括:产生穿过预定数量的适格变换值的多个粒子;将归一的权重关联到每个粒子;为每个粒子设定最佳变换值;并且提供名义变换值,其具有从所述激光雷达传感器中的所述至少一个激光雷达传感器到所述激光雷达传感器中的所述另外一个的最佳匹配百分比。
8.根据权利要求1所述的方法,其特征在于,还包括确定从一个取样时间到下一个取样时间的变换值的变化是否低于预定阈值,并且如果是,则减小计算的复杂性以便确定当前变换值。
9.根据权利要求8所述的方法,其特征在于,确定当前变换值是否低于预定阈值包括将当前变换值建模为所述扫描点之间的变换。
10.一种用于融合来自具有交叠视场的至少两个激光雷达传感器的传感器信号以追踪由所述传感器探测到的物体的方法,所述激光雷达传感器位于车辆上,所述方法包括:
定义用于所述激光雷达传感器中至少一个的当前变换值,其识别所述传感器在一个取样时间的方位角和位置;
提供由来自所述传感器探测到的物体的目标扫描点,其中对于每个传感器的所述目标扫描点提供独立的目标点图;
采用所述当前变换值将来自所述至少一个传感器的目标点图投射到所述激光雷达传感器中的另外一个,以交叠来自所述传感器的目标扫描点;
在下一个取样时间计算新的变换值;
将所述新的变换值与所述当前变换值进行比较以确定它们之间的差值;以及
基于所述差值更新所述当前变换值。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261611465P | 2012-03-15 | 2012-03-15 | |
US61/611,465 | 2012-03-15 | ||
US61/611465 | 2012-03-15 | ||
US13/777,469 US9329269B2 (en) | 2012-03-15 | 2013-02-26 | Method for registration of range images from multiple LiDARS |
US13/777,469 | 2013-02-26 | ||
US13/777469 | 2013-02-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103308923A true CN103308923A (zh) | 2013-09-18 |
CN103308923B CN103308923B (zh) | 2016-08-10 |
Family
ID=49044100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310115432.2A Active CN103308923B (zh) | 2012-03-15 | 2013-03-15 | 来自多个激光雷达的距离图像配准方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN103308923B (zh) |
DE (1) | DE102013102153A1 (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104713560A (zh) * | 2015-03-31 | 2015-06-17 | 西安交通大学 | 基于期望最大化的多源测距传感器空间配准方法 |
CN104793202A (zh) * | 2014-01-16 | 2015-07-22 | 通用汽车环球科技运作有限责任公司 | 多雷达成像传感器的对象融合系统 |
CN105549586A (zh) * | 2015-06-17 | 2016-05-04 | 电子科技大学 | 羽毛球机器人跟踪人移动控制方法及系统 |
CN105828029A (zh) * | 2016-03-11 | 2016-08-03 | 乐卡汽车智能科技(北京)有限公司 | 车辆碰撞监测系统、方法及装置 |
CN106560725A (zh) * | 2015-10-02 | 2017-04-12 | 德尔福技术有限公司 | 用于确定目标车辆的偏航速率的自动化车辆雷达系统 |
CN106919908A (zh) * | 2017-02-10 | 2017-07-04 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106934347A (zh) * | 2017-02-10 | 2017-07-07 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN107209993A (zh) * | 2014-07-03 | 2017-09-26 | 通用汽车环球科技运作有限责任公司 | 车辆认知雷达方法和系统 |
CN108062600A (zh) * | 2017-12-18 | 2018-05-22 | 北京星云互联科技有限公司 | 一种基于矩形建模的车辆碰撞预警方法及装置 |
CN108120447A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 多激光设备数据融合方法 |
JPWO2017060977A1 (ja) * | 2015-10-06 | 2018-07-26 | パイオニア株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
CN108333562A (zh) * | 2018-01-30 | 2018-07-27 | 西安电子科技大学 | 一种地形高程自适应的降维图像配准方法 |
CN108445456A (zh) * | 2017-02-16 | 2018-08-24 | 通用汽车环球科技运作有限责任公司 | 光达-雷达相对位姿的校准 |
CN108445468A (zh) * | 2018-04-03 | 2018-08-24 | 上海禾赛光电科技有限公司 | 一种分布式激光雷达 |
CN108710367A (zh) * | 2018-05-23 | 2018-10-26 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN109765569A (zh) * | 2017-11-09 | 2019-05-17 | 电子科技大学中山学院 | 一种基于激光雷达实现虚拟航迹推算传感器的方法 |
CN109991020A (zh) * | 2017-08-11 | 2019-07-09 | 西华大学 | 汽车人机工程用快速视野校核的方法 |
CN110027018A (zh) * | 2019-04-28 | 2019-07-19 | 森思泰克河北科技有限公司 | 全向探测系统及方法 |
CN110082753A (zh) * | 2018-01-25 | 2019-08-02 | Aptiv技术有限公司 | 确定车辆位置的方法 |
CN110103810A (zh) * | 2019-01-03 | 2019-08-09 | 华域视觉科技(上海)有限公司 | 三维探测照明系统及汽车 |
CN110186467A (zh) * | 2018-02-23 | 2019-08-30 | 通用汽车环球科技运作有限责任公司 | 群感测点云地图 |
CN110235027A (zh) * | 2017-04-28 | 2019-09-13 | 深圳市大疆创新科技有限公司 | 基于lidar点云的多物体跟踪 |
CN110532582A (zh) * | 2018-05-23 | 2019-12-03 | Aptiv技术有限公司 | 对扫描距离传感器进行建模的方法 |
CN110908006A (zh) * | 2018-09-14 | 2020-03-24 | 欧姆龙株式会社 | 物体探测传感器以及物体探测系统 |
CN111045023A (zh) * | 2018-10-15 | 2020-04-21 | 图森有限公司 | 一种基于光检测和测距的车辆追踪方法和系统 |
CN111801718A (zh) * | 2018-03-07 | 2020-10-20 | 株式会社电装 | 物体探测装置、物体探测方法、以及记录介质 |
CN111983633A (zh) * | 2020-08-26 | 2020-11-24 | 中国科学院半导体研究所 | 用于铁路监测的多线三维雷达及其扫描方法 |
WO2022022137A1 (zh) * | 2020-07-30 | 2022-02-03 | 华为技术有限公司 | 成像方法、装置、雷达系统、电子设备和存储介质 |
US20220329715A1 (en) * | 2017-10-19 | 2022-10-13 | Nvidia Corporation | Calibrating sensors mounted on an autonomous vehicle |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015205087A1 (de) * | 2015-03-20 | 2016-09-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Ermitteln der Dejustage eines Fahrersassistenzsensors |
DE102016220075A1 (de) | 2016-10-14 | 2018-04-19 | Audi Ag | Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung |
US20190004160A1 (en) * | 2017-06-30 | 2019-01-03 | Delphi Technologies, Inc. | Lidar sensor alignment system |
DE102018201154A1 (de) * | 2018-01-25 | 2019-07-25 | HELLA GmbH & Co. KGaA | Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen |
CN117485595B (zh) * | 2023-11-21 | 2024-04-05 | 北京易动宇航科技有限公司 | 一种用于电推进系统的能量管理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020044048A1 (en) * | 2000-10-12 | 2002-04-18 | Nissan Motor Co., Tld. | Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle |
CN1940591A (zh) * | 2005-09-26 | 2007-04-04 | 通用汽车环球科技运作公司 | 使用传感器融合进行目标跟踪的系统和方法 |
CN101013158A (zh) * | 2006-02-03 | 2007-08-08 | 通用汽车环球科技运作公司 | 用于车载对象跟踪系统的校准和定向的方法和设备 |
CN101393264A (zh) * | 2008-10-12 | 2009-03-25 | 北京大学 | 基于多激光扫描仪的移动目标跟踪方法及系统 |
CN101837782A (zh) * | 2009-01-26 | 2010-09-22 | 通用汽车环球科技运作公司 | 用于碰撞预备系统的多目标融合模块 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7991550B2 (en) | 2006-02-03 | 2011-08-02 | GM Global Technology Operations LLC | Method and apparatus for on-vehicle calibration and orientation of object-tracking systems |
-
2013
- 2013-03-05 DE DE201310102153 patent/DE102013102153A1/de active Pending
- 2013-03-15 CN CN201310115432.2A patent/CN103308923B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020044048A1 (en) * | 2000-10-12 | 2002-04-18 | Nissan Motor Co., Tld. | Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle |
CN1940591A (zh) * | 2005-09-26 | 2007-04-04 | 通用汽车环球科技运作公司 | 使用传感器融合进行目标跟踪的系统和方法 |
CN101013158A (zh) * | 2006-02-03 | 2007-08-08 | 通用汽车环球科技运作公司 | 用于车载对象跟踪系统的校准和定向的方法和设备 |
CN101393264A (zh) * | 2008-10-12 | 2009-03-25 | 北京大学 | 基于多激光扫描仪的移动目标跟踪方法及系统 |
CN101837782A (zh) * | 2009-01-26 | 2010-09-22 | 通用汽车环球科技运作公司 | 用于碰撞预备系统的多目标融合模块 |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104793202A (zh) * | 2014-01-16 | 2015-07-22 | 通用汽车环球科技运作有限责任公司 | 多雷达成像传感器的对象融合系统 |
CN107209993A (zh) * | 2014-07-03 | 2017-09-26 | 通用汽车环球科技运作有限责任公司 | 车辆认知雷达方法和系统 |
CN104713560A (zh) * | 2015-03-31 | 2015-06-17 | 西安交通大学 | 基于期望最大化的多源测距传感器空间配准方法 |
CN104713560B (zh) * | 2015-03-31 | 2017-10-20 | 西安交通大学 | 基于期望最大化的多源测距传感器空间配准方法 |
CN105549586B (zh) * | 2015-06-17 | 2018-06-19 | 电子科技大学 | 羽毛球机器人跟踪人移动控制方法及系统 |
CN105549586A (zh) * | 2015-06-17 | 2016-05-04 | 电子科技大学 | 羽毛球机器人跟踪人移动控制方法及系统 |
CN106560725A (zh) * | 2015-10-02 | 2017-04-12 | 德尔福技术有限公司 | 用于确定目标车辆的偏航速率的自动化车辆雷达系统 |
CN106560725B (zh) * | 2015-10-02 | 2022-02-22 | 安波福技术有限公司 | 用于确定目标车辆的偏航速率的自动化车辆雷达系统 |
JPWO2017060977A1 (ja) * | 2015-10-06 | 2018-07-26 | パイオニア株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
CN105828029A (zh) * | 2016-03-11 | 2016-08-03 | 乐卡汽车智能科技(北京)有限公司 | 车辆碰撞监测系统、方法及装置 |
CN108120447A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 多激光设备数据融合方法 |
CN106934347A (zh) * | 2017-02-10 | 2017-07-07 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106934347B (zh) * | 2017-02-10 | 2021-03-19 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106919908A (zh) * | 2017-02-10 | 2017-07-04 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN108445456A (zh) * | 2017-02-16 | 2018-08-24 | 通用汽车环球科技运作有限责任公司 | 光达-雷达相对位姿的校准 |
CN108445456B (zh) * | 2017-02-16 | 2022-06-21 | 通用汽车环球科技运作有限责任公司 | 光达-雷达相对位姿的校准 |
CN110235027A (zh) * | 2017-04-28 | 2019-09-13 | 深圳市大疆创新科技有限公司 | 基于lidar点云的多物体跟踪 |
CN109991020A (zh) * | 2017-08-11 | 2019-07-09 | 西华大学 | 汽车人机工程用快速视野校核的方法 |
US11747455B2 (en) * | 2017-10-19 | 2023-09-05 | Nvidia Corporation | Calibrating sensors mounted on an autonomous vehicle |
US20220329715A1 (en) * | 2017-10-19 | 2022-10-13 | Nvidia Corporation | Calibrating sensors mounted on an autonomous vehicle |
CN109765569A (zh) * | 2017-11-09 | 2019-05-17 | 电子科技大学中山学院 | 一种基于激光雷达实现虚拟航迹推算传感器的方法 |
CN108062600A (zh) * | 2017-12-18 | 2018-05-22 | 北京星云互联科技有限公司 | 一种基于矩形建模的车辆碰撞预警方法及装置 |
CN110082753A (zh) * | 2018-01-25 | 2019-08-02 | Aptiv技术有限公司 | 确定车辆位置的方法 |
CN108333562A (zh) * | 2018-01-30 | 2018-07-27 | 西安电子科技大学 | 一种地形高程自适应的降维图像配准方法 |
CN110186467A (zh) * | 2018-02-23 | 2019-08-30 | 通用汽车环球科技运作有限责任公司 | 群感测点云地图 |
CN111801718B (zh) * | 2018-03-07 | 2022-08-02 | 株式会社电装 | 物体探测装置、物体探测方法、以及记录介质 |
CN111801718A (zh) * | 2018-03-07 | 2020-10-20 | 株式会社电装 | 物体探测装置、物体探测方法、以及记录介质 |
CN108445468B (zh) * | 2018-04-03 | 2019-11-05 | 上海禾赛光电科技有限公司 | 一种分布式激光雷达 |
CN108445468A (zh) * | 2018-04-03 | 2018-08-24 | 上海禾赛光电科技有限公司 | 一种分布式激光雷达 |
US11002835B2 (en) | 2018-04-03 | 2021-05-11 | Hesai Photonics Technology Co., Ltd. | Distributed laser radar |
CN110532582A (zh) * | 2018-05-23 | 2019-12-03 | Aptiv技术有限公司 | 对扫描距离传感器进行建模的方法 |
CN108710367B (zh) * | 2018-05-23 | 2022-02-11 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN108710367A (zh) * | 2018-05-23 | 2018-10-26 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN110532582B (zh) * | 2018-05-23 | 2023-06-27 | Aptiv技术有限公司 | 对扫描距离传感器进行建模的方法 |
CN110908006B (zh) * | 2018-09-14 | 2023-09-22 | 欧姆龙株式会社 | 物体探测传感器以及物体探测系统 |
CN110908006A (zh) * | 2018-09-14 | 2020-03-24 | 欧姆龙株式会社 | 物体探测传感器以及物体探测系统 |
CN111045023A (zh) * | 2018-10-15 | 2020-04-21 | 图森有限公司 | 一种基于光检测和测距的车辆追踪方法和系统 |
CN110103810B (zh) * | 2019-01-03 | 2024-02-27 | 华域视觉科技(上海)有限公司 | 三维探测照明系统及汽车 |
CN110103810A (zh) * | 2019-01-03 | 2019-08-09 | 华域视觉科技(上海)有限公司 | 三维探测照明系统及汽车 |
CN110027018B (zh) * | 2019-04-28 | 2020-12-01 | 森思泰克河北科技有限公司 | 全向探测系统及方法 |
CN110027018A (zh) * | 2019-04-28 | 2019-07-19 | 森思泰克河北科技有限公司 | 全向探测系统及方法 |
WO2022022137A1 (zh) * | 2020-07-30 | 2022-02-03 | 华为技术有限公司 | 成像方法、装置、雷达系统、电子设备和存储介质 |
CN111983633B (zh) * | 2020-08-26 | 2023-12-05 | 中国科学院半导体研究所 | 用于铁路监测的多线三维雷达及其扫描方法 |
CN111983633A (zh) * | 2020-08-26 | 2020-11-24 | 中国科学院半导体研究所 | 用于铁路监测的多线三维雷达及其扫描方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102013102153A1 (de) | 2013-09-19 |
CN103308923B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103308923A (zh) | 来自多个激光雷达的距离图像配准方法 | |
US9378463B2 (en) | System and method for fusing outputs from multiple LiDAR sensors | |
US9476983B2 (en) | System and method for fusing radar/camera object data and LiDAR scan points | |
US9329269B2 (en) | Method for registration of range images from multiple LiDARS | |
Scheel et al. | Tracking multiple vehicles using a variational radar model | |
CN109212531B (zh) | 确定目标车辆取向的方法 | |
Rasmussen | Grouping dominant orientations for ill-structured road following | |
WO2021012254A1 (zh) | 目标检测方法、系统及可移动平台 | |
US11435375B2 (en) | Method of determining an uncertainty estimate of an estimated velocity | |
EP2575079A2 (en) | Method and apparatus for processing images | |
GB2493249A (en) | Context searching in images for target object | |
CN102176243A (zh) | 一种基于可见光和红外摄像机的目标测距方法 | |
RU2764708C1 (ru) | Способы и системы для обработки данных лидарных датчиков | |
Daraei et al. | Velocity and shape from tightly-coupled LiDAR and camera | |
US20210223373A1 (en) | Methods and systems for processing lidar sensor data | |
Xia et al. | Extended object tracking with automotive radar using learned structural measurement model | |
Zeng | An object-tracking algorithm for 3-D range data using motion and surface estimation | |
Kohara et al. | Obstacle detection based on occupancy grid maps using stereovision system | |
Huang et al. | Probabilistic lane estimation for autonomous driving using basis curves | |
US11138448B2 (en) | Identifying a curb based on 3-D sensor data | |
US20220196829A1 (en) | Radar Reference Map Generation | |
Zhong et al. | Dynamic obstacle detection and tracking based on 3D lidar | |
Vijay et al. | Low Cost–FPGA based system for pothole detection on Indian Roads | |
Subash | Automatic road extraction from satellite images using extended Kalman filtering and efficient particle filtering | |
RU2775822C1 (ru) | Способы и системы для обработки данных лидарных датчиков |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |