CN117665796A - 目标关联方法、目标识别方法及对应介质和系统 - Google Patents

目标关联方法、目标识别方法及对应介质和系统 Download PDF

Info

Publication number
CN117665796A
CN117665796A CN202211043391.6A CN202211043391A CN117665796A CN 117665796 A CN117665796 A CN 117665796A CN 202211043391 A CN202211043391 A CN 202211043391A CN 117665796 A CN117665796 A CN 117665796A
Authority
CN
China
Prior art keywords
target
reference point
association
radar
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211043391.6A
Other languages
English (en)
Inventor
韩汝涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haomo Zhixing Technology Co Ltd
Original Assignee
Haomo Zhixing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haomo Zhixing Technology Co Ltd filed Critical Haomo Zhixing Technology Co Ltd
Priority to CN202211043391.6A priority Critical patent/CN117665796A/zh
Publication of CN117665796A publication Critical patent/CN117665796A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明实施例提供一种针对目标关联方法、目标识别方法及对应介质和系统,涉及自动驾驶技术领域。所述目标关联方法包括:基于摄像头探测的目标的基准点位置,确定该目标相对于所述基准点位置的多个参考点位置;以及基于预设的至少一级的关联门限,遍历所有参考点位置及雷达探测所述目标得到的多个雷达点位置,以选择出符合预设最优匹配规则的参考点位置和雷达点位置进行目标关联。本发明实施例解决了因为雷达点不准确导致雷达与摄像头的探测目标无法关联的问题,提高了目标融合中进行目标关联的鲁棒性。

Description

目标关联方法、目标识别方法及对应介质和系统
技术领域
本发明涉及自动驾驶技术领域,具体地涉及一种目标关联方法、目标识别方法及对应介质和系统。
背景技术
目标融合系统是自动驾驶系统的一部分,它的主要功能是处理多种车载感知设备探测的目标数据,并将具有相同属性的数据相互融合,得到优于单个传感器探测性能的一种方法。这种融合方式可以增强系统功能或增加系统安全特性,比如,毫米波雷达和激光雷达两种传感器同时工作以探测前方物体目标,目标融合系统则对两者探测的物体目标进行融合,而输出的融合后的物体目标不仅提高了测量精度,而且可以保证在某一传感器失效的情况下自动驾驶系统仍可以运行,达到失效可运行的功能安全需求。
目标融合系统中最关键的步骤就是目标关联,其含义是将不同传感器对同一目标的多个探测结果进行关联,以确定关联的目标来进行目标融合。但是,目标关联的基础是不同传感器探测到的目标的位置基准需要一致,比如传感器探测到的目标都是目标的后杠中点位置;如果不同传感器探测到的目标的基准不一致,那么不同传感器的目标将无法进行关联,进而导致自动驾驶功能受到一定的影响。而在这一过程中,雷达作为重要的车载传感器,其在探测前方目标时,存在无法准确探测横穿的目标、面对静止工况时出现较大的探测误差、易产生目标分裂(即出现伴随正确目标的错误目标)等问题,使得雷达点不准确,导致无法与摄像头传感器所探测的目标进行关联。
发明内容
本发明实施例的目的是提供一种针对目标关联方法、目标识别方法及对应介质和装置,用于至少部分地解决上述技术问题。
为了实现上述目的,本发明实施例提供一种自动驾驶车辆的目标关联方法。针对自车上的摄像头和雷达探测的同一目标,所述目标关联方法包括:基于所述摄像头探测的所述目标的基准点位置,确定该目标相对于所述基准点位置的多个参考点位置;以及基于预设的至少一级的关联门限,遍历所有参考点位置及所述雷达探测所述目标得到的多个雷达点位置,以选择出符合预设最优匹配规则的参考点位置和雷达点位置进行目标关联。
可选地,所述确定该目标相对于所述基准点位置的多个参考点位置包括:获取所述摄像头探测所述目标而得到的所述基准点位置、目标朝向信息以及目标相对于摄像头视角的目标外框信息,其中所述目标外框信息是指能够容纳目标轮廓的预设形状的外框的几何信息;以及根据所述基准点位置、所述目标朝向信息和所述目标外框信息,在所述外框的以下一个或两个面上选择多个点以对应作为所述多个参考点位置:i)所述基准点位置所在的一个面;以及ii)距离自车更近的一个面。
可选地,在所述目标为前车时,所述基准点位置是前车的后杠中点位置,而所述多个参考点位置包括前车的两个后角点位置以及该前车距离自车更近的侧面上的前角点位置及侧面中点位置。
可选地,所述至少一级的关联门限依次包括以下关联门限:第一级关联门限,包括在平面坐标系下关联于自车与目标的距离和速度的门限函数;第二级关联门限,包括在极坐标系下的关联于摄像头视角的角度门限;以及第三级关联门限,包括用于评估所述参考点位置与所述雷达点位置的属性相似度的综合门限。
可选地,所述角度门限被配置为:在所述摄像头视角范围内,所述多个参考点位置中相对于摄像头视角而呈现最大角度的两个参考点位置之间的角度值。
可选地,所述综合门限被配置为以下两者的乘积:所述参考点位置与所述雷达点分别相对于自车的径向距离的差值;以及所述参考点位置与所述雷达点分别相对于摄像头视角方向的角度的差值。
可选地,所述预设最优匹配规则被配置为是:从符合各级关联门限的多组参考点位置和雷达点位置中,选择对应于各级关联门限的维度参数的和值最小的一组参考点位置和雷达点位置。
另一方面,本发明还提供一种自动驾驶车辆的目标识别方法,所述目标识别方法包括:采用上述任意的目标关联方法,匹配出符合预设最优匹配规则的一组参考点位置和雷达点位置;调整该组参考点位置至其所匹配的雷达点位置;以及确定随调整后的参考点位置而适应性变化的所述目标的基准点位置,以基于该基准点位置识别所述目标的位置。
另一方面,本发明提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行上述任意的自动驾驶车辆的目标关联方法或者目标识别方法。
另一方面,本发明提供一种自动驾驶车辆的目标融合系统,所述目标融合系统包括:存储器,其存储有能够在处理器上运行的程序;以及所述处理器,其被配置为执行所述程序时实现上述任意的自动驾驶车辆的目标关联方法或者目标识别方法。
通过上述技术方案,本发明实施例解决了因为雷达点不准确导致雷达与摄像头的探测目标无法关联的问题,提高了目标融合中进行目标关联的鲁棒性,有助于提高目标识别的精确性。
本发明实施例的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明实施例,但并不构成对本发明实施例的限制。在附图中:
图1是本发明实施例方案结合参考点来进行摄像头与雷达的目标关联的原理示意图;
图2是本发明实施例的自动驾驶车辆的目标关联方法的流程示意图;
图3是本发明优选的实施例中确定参考点位置的流程示意图;
图4本发明另一实施例的自动驾驶车辆的目标识别方法的流程示意图;
图5是本发明实施例的示例中进行目标位置还原的流程示意图;以及
图6是本发明实施例的自动驾驶车辆的目标融合系统的结构示意图。
附图标记说明
100、摄像头;101、基准点;102-105、参考点;200、原始目标外框;300、雷达点;400、最终目标外框。
具体实施方式
以下结合附图对本发明实施例的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明实施例,并不用于限制本发明实施例。
需说明的是,本发明实施例中提到的“关联门限”可以理解为关联阈值,其例如作为判断两个传感器针对同一目标的探测结果是否可以相关联的阈值,若超出阈值,则表明两个传感器可能探测的不是同一目标,不应进行目标关联。但是,还需要说明的是,本发明实施例的关联门限不限于固定的某个数值,而是可以从多个维度进行描述,比如通过距离、速度、角度等多个维度共同描述关联门限,以得到正确的不同传感器探测的“目标与目标”之间的关联关系。
还需要说明的是,本发明实施例的提到的“基准点”、“参考点”及“雷达点”均用于描述目标位置,且“基准点”、“参考点”及“雷达点”与对应的“基准点位置”、“参考点位置”及“雷达点位置”可等同进行理解。其中,雷达点特指采用雷达(毫米波雷达和激光雷达)确定的目标位置,而雷达在探测目标时,本身创建有描述目标位置的track1,但其一旦关联不上track1,又会另外创建track2,进而造成目标分裂。即,针对同一目标,可能会存在多个雷达点。其中“基准点”和“参考点”均属于摄像头的探测结果,其中基准点是最能描述目标位置的点,例如前车的后杠中点,而参考点属于本发明实施例相对于基准点给出的定义,其可以与基准点一起描述目标的大致轮廓。
进一步地,摄像头具有较准确的角度信息(即明确的视角),且具有能够准确分辨前车的车头车尾的能力。即,摄像头可以获得能够直接输出基准点位置、目标(例如前车)朝向信息以及目标外框信息。其中,所述目标外框信息是指能够容纳目标轮廓的预设形状的外框的几何信息,其中预设形状的外框例如是长方形,而其几何信息即是长方形的长度和宽度等。
基于此,在描述本发明实施例的具体方案之前,先基于图1对本发明实施例的发明思路进行介绍。
图1是本发明实施例方案结合参考点来进行摄像头与雷达的目标关联的原理示意图。如上,在知道摄像头具有能够直接输出基准点位置、目标朝向信息以及目标外框信息的优势后,结合图1,本发明实施例的发明思路是:已知雷达在探测目标时,因上述提及的目标分裂的原因,可能存在多个不确定的雷达点,对此根据摄像头100所探测的目标的基准点101,在原始目标外框200上选择参考点102-105,再将这些参考点与不确定的雷达点进行多级关联门限的筛选,寻找雷达点与参考点之间的最优匹配,如雷达点300与参考点103属于最优匹配;最后基于该最优匹配进行目标关联和目标识别,即是将雷达点300与参考点103进行目标关联,以及修正摄像头的参考点103的位置,使其与雷达点300重合,并基于该修正进一步得到最终目标外框400以表明目标位置。
需要说明的是,图1给出了摄像头坐标系XY,其也是平面坐标系,而本发明实施例中所涉及的“位置”均是基于平面坐标系理解的。
图2是本发明实施例的自动驾驶车辆的目标关联方法的流程示意图,其中针对自车上的摄像头和雷达探测的同一目标,所述目标关联方法可以包括以下步骤S210和步骤S220:
步骤S210,基于所述摄像头探测的所述目标的基准点位置,确定该目标相对于所述基准点位置的多个参考点位置。
步骤S220,基于预设的至少一级的关联门限,遍历所有参考点位置及所述雷达探测所述目标得到的多个雷达点位置,以选择出符合预设最优匹配规则的参考点位置和雷达点位置进行目标关联。
针对步骤S210,图3是本发明优选的实施例中确定参考点位置的流程示意图。如图3所示,可以包括以下步骤:
步骤S211,获取所述摄像头探测所述目标而得到的所述基准点位置、目标朝向信息以及目标相对于摄像头视角的目标外框信息。
步骤S212,根据所述基准点位置、所述目标朝向信息和所述目标外框信息,在所述外框的任意面上选择多个点以对应作为所述多个参考点位置。
优选地,可以在以下一个或两个面上选择多个点以对应作为所述多个参考点位置:i)所述基准点位置所在的一个面;以及ii)距离自车更近的一个面。对此,在所述目标为前车的示例中,基准点位置是前车的后杠中点位置,而参考点位置包括前车的两个后角点位置以及该前车距离自车更近的侧面上的前角点位置及侧面中点位置。例如参考图1,先确定基准点101的位置,再在该基准点101所在的面确定两个后角点(即参考点102和参考点103)的位置,再在该前车距离自车更近的侧面上,确定前角点(即参考点104)的位置及侧面中点(即参考点105)的位置。
在示例中,针对步骤S211和步骤S212,参考图1,外框例如是能够容纳前车的长方形,记为box;而目标朝向信息即是box的朝向,可记为heading。由于摄像头能输出基准点位置、box的尺寸及heading,从而可以根据这三个维度的信息,计算得到其他的更多参考点信息。基于此,如图1所示,知道基准点位置101的坐标,以及此目标的box的长度和宽度,以及目标的heading角度,那么就可以计算出距离自车较近两个面的其他参考点的位置(即参考点102-105的位置),为后续进行目标关联做准备。需说明的,本发明实施例的外框为长方形是示例性的,在其他实施例中也还采用椭圆形等,具体可根据障碍物外形确定。
进一步地针对步骤S220,所述至少一级的关联门限为多级关联门限时,每一级关联门限适配于不同的维度参数而被预先配置。在优选的实施例中,所述至少一级的关联门限包括依次包括以下关联门限:第一级关联门限,包括在平面坐标系下关联于自车与目标的距离和速度的门限函数;第二级关联门限,包括在极坐标系下的关联于摄像头视角的角度门限;以及第三级关联门限,包括用于评估所述参考点位置与所述雷达点位置的属性相似度的综合门限。即,按顺序执行定义的三级关联门限。
下面分别介绍这三级关联门限。
1、第一级关联门限。
该第一级关联门限可以是与自车与目标的横纵向距离和速度有关的一个线性函数,该线性函数适应于两车的距离、速度的变化而适应性变化,从而可以提供分段的阈值门限,使其适应于不同距离、不同速度。举例而言,第一级关联门限关联于距离x和速度v设置,可以形成以x、v作为矩形的长和宽而建立矩形关联门限函数,而随着x、v的值不同,矩形面积不同,即门限不同。举例而言,针对当前距离和速度,利用第一级关联门限,将多个参考点和多个雷达点中与当前距离和速度相差较大的点剔除。
2、第二级关联门限。
基于极坐标系,该第二级关联门限是关联于摄像头视角的角度门限,例如可直接采用摄像头视角,而将未落入摄像头视角内的参考点和雷达点剔除。
但采用摄像头视角时的角度门限过大,因此在优选的实施例中,所述角度门限被配置为在所述摄像头视角范围内,所述多个参考点位置中相对于摄像头视角而呈现最大角度的两个参考点位置之间的角度值。
举例而言,参考图1,由于摄像头可以输出box的大小及朝向heading,依据步骤S210的预处理得到的5个点(即101-105),就可以计算出位于最左侧或者最右侧的参考点位置信息,然后根据位置信息的坐标,反算出最左侧和最右侧位置点对应的角度,此角度就是关联的角度阈值门限。如图1所示,即是将最左侧参考点105和最右侧参考点102之间的角度作为第二级关联门限。
3、第三级关联门限。
该第三级关联门限例如是用于评估所述参考点位置与所述雷达点位置的属性相似度的综合门限,其中所述属性又例如是平面坐标系下的纵向距离和极坐标系下的角度。基于此,综合门限中所述的“综合”表明其同时考虑了第一级关联门限中所考虑的距离(或速度)以及第三级关联门限中所考虑的角度,实现关于摄像头和雷达检测结果的属性相似性评估。举例而言,所述综合门限被配置为以下两者的乘积:所述参考点位置与所述雷达点分别相对于自车的径向距离的差值;以及所述参考点位置与所述雷达点分别相对于摄像头视角方向的角度的差值。即,可通过“径向距离差值*角度差值”来简单描述示例中的综合门限。
在此,通过上述三级关联门限,在“平面坐标系+极坐标系”下共同对目标关联门限进行限制,提高了门限的鲁棒性及可靠性,有助于实现更优的关联计算。
更进一步地针对步骤S220,其由于满足上述三级门限的摄像头参考点与雷达点存在多个,所以对摄像头计算出来的多个参考点及雷达分裂的多个雷达点分别进行遍历,获取最优的摄像头参考点与雷达点的匹配。在此,预设最优匹配规则为被配置为是:从符合各级关联门限的多组参考点位置和雷达点位置中,选择对应于各级关联门限的维度参数的和值最小的一组参考点位置和雷达点位置。举例而言,针对第一级的速度门限,选择符合该速度门限的参考点和雷达点;针对第二级的角度门限,选择符合该角度门限的参考点和雷达点;针对第三级的“径向距离差值*角度差值”,选择符合的参考点和雷达点;最后,根据确定的三级门限,选择对应的速度值、角度值和“径向距离差值*角度差值”的值相加之和最小一组参考点位置和雷达点位置为最优匹配。如此,针对其中一级门限中为最优,并不一定是最终的最优匹配,即本发明实施例是基于多个维度的门限进行“综合最优”匹配。
综上所述,本发明实施例的目标关联方法解决了因为雷达点不准确导致雷达与摄像头的探测目标无法关联的问题,提高了目标融合中进行目标关联的鲁棒性。
图4本发明另一实施例的自动驾驶车辆的目标识别方法的流程示意图。如图4所示,该目标识别方法可以包括以下步骤S410-S430:
步骤S410,采用上述任意实施例所述的目标关联方法,匹配出符合预设最优匹配规则的一组参考点位置和雷达点位置。
举例而言,结合图1,确定参考点103与雷达点300是最优匹配,而参考点103是后角点位置,从而可知该组最优匹配描述了雷达输出的目标位置点是前车的后角点位置而非后杠中点位置,即雷达与摄像头存在基准点不一致的问题。
步骤S420,调整该组参考点位置至其所匹配的雷达点位置。
举例而言,相比于摄像头,雷达测量纵向距离相对准确,故而将摄像头对应的参考点位置移动到对应的雷达点位置,如图1所示,使得参考点102与雷达点300完全相一致,从而使得摄像头测量的纵向距离更为准确。
步骤S430,确定随调整后的参考点位置而适应性变化的所述目标的基准点位置,以基于该基准点位置识别所述目标的位置。
举例而言,摄像头已经进行了纵向距离的校正,进而再根据摄像头测量的box的长度、宽度及角度heading信息,修正横向距离,再次计算出融合雷达点后的前车的后杠中点位置。如此,对前车位置进行了真实还原,实现了关于前车位置的识别。
综上所述,本发明实施例的目标识别方法所识别的目标位置更能反映真实障碍物(如前车)的位置信息,方便后续对融合目标进行应用。
下面结合示例来具体说明如何应用上述实施例的目标关联方法及目标识别方法来实现对目标位置的还原。
图5是本发明实施例的示例中进行目标位置还原的流程示意图。如图5所示,可以包括以下步骤:
步骤S510,进行Cam预处理。
其中,Cam代指摄像头,而进行Cam预处理包括:调整Cam,使其能得到角度、类型及运动状态符合的Cam目标,计算出如图1示出的一个基准点和四个参考点。
步骤S520,判断是否Cam目标是包括参考点的目标而雷达点是纯雷达目标,若是,则继续步骤S530,否则采用其他目标关联方法。
其中,纯雷达目标是指仅依靠雷达探测结果的目标,而非如摄像头,涵盖了探测结果以外的参考点。
步骤S530,判断上述目标在平面坐标系下的速度是否满足阈值,若是,则继续步骤S540,否则采用其他目标关联方法。
在此,以速度为例,也可判断距离是否符合阈值。另外,在此上述目标包括全部Cam目标和雷达点。
步骤S540,判断上述目标在极坐标系下的角度是否满足阈值,若是,则继续步骤S550,否则采用其他目标关联方法。
举例而言,判断雷达点的角度是否在摄像头的左右最大角度内部。另外,在此的上述目标是已经经过步骤S530筛选的目标。
步骤S550,计算满足上述条件的Cam参考点与雷达点之间的综合距离。
举例而言,综合距离例如是径向距离差*角度差。
步骤S560,判断计算的综合距离是否满足阈值要求,若是,则继续步骤S570,否则采用其他目标关联方法。
步骤S570,选取一组雷达点和参考点为最优匹配。
其中,在符合上述条件的基础上,选择对应速度、角度、综合距离最小的一组雷达点和参考点为最优匹配。
步骤S580,根据选取的最优匹配,修正Cam对应的参考点的纵向距离位置。
步骤S590,利用Cam探测的目标角度和尺寸,对整体匹配后的目标的横向距离再次进行修正,得到最优匹配目标属性。
即,通过步骤S580和步骤S590的两次距离修正,得到了相对精确的目标位置。
通过该示例,可知利用本发明实施例的目标关联方法可以解决雷达输出的雷达点不准确的问题,特别是应对目标横穿及静止工况,避免因雷达产生目标分裂而导致无关关联或错误关联,从而避免进一步的自动驾驶安全性问题。另外,本发明实施例的目标关联方法提高了目标关联的鲁棒性及准确性,实现了在大部分工况下各种姿态的目标(特别是前方障碍物)的关联,有助于进一步实现准确的目标位置识别,还原目标的正确姿态和位置。
图6是本发明实施例的自动驾驶车辆的目标融合系统的结构示意图,该目标融合系统包括:存储器,其存储有能够在处理器上运行的程序;以及所述处理器,其被配置为执行上述任意实施例所述的自动驾驶车辆的目标关联方法或者目标识别方法。其中,目标融合系统例如是利用自动驾驶车辆的整车控制器实现的系统。
本发明另一实施例还提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行如上所述的自动驾驶车辆的目标关联方法或者目标识别方法。
本领域内的技术人员应明白,本发明实施例可提供为方法、装置(设备或系统)、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、装置(设备或系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算机设备包括一个或多个处理器(CPU)、存储器、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本发明实施例可提供为方法、系统或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上结合附图详细描述了本发明实施例的可选实施方式,但是,本发明实施例并不限于上述实施方式中的具体细节,在本发明实施例的技术构思范围内,可以对本发明实施例的技术方案进行多种简单变型,例如改变步骤执行顺序,这些简单变型均属于本发明实施例的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本发明实施例对各种可能的组合方式不再另行说明。
此外,本发明实施例的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明实施例的思想,其同样应当视为本发明实施例所公开的内容。

Claims (10)

1.一种自动驾驶车辆的目标关联方法,其特征在于,针对自车上的摄像头和雷达探测的同一目标,所述目标关联方法包括:
基于所述摄像头探测的所述目标的基准点位置,确定该目标相对于所述基准点位置的多个参考点位置;以及
基于预设的至少一级的关联门限,遍历所有参考点位置及所述雷达探测所述目标得到的多个雷达点位置,以选择出符合预设最优匹配规则的参考点位置和雷达点位置进行目标关联。
2.根据权利要求1所述的目标关联方法,其特征在于,所述确定该目标相对于所述基准点位置的多个参考点位置包括:
获取所述摄像头探测所述目标而得到的所述基准点位置、目标朝向信息以及目标相对于摄像头视角的目标外框信息,其中所述目标外框信息是指能够容纳目标轮廓的预设形状的外框的几何信息;以及
根据所述基准点位置、所述目标朝向信息和所述目标外框信息,在所述外框的以下一个或两个面上选择多个点以对应作为所述多个参考点位置:
所述基准点位置所在的一个面;以及
距离自车更近的一个面。
3.根据权利要求2所述的目标关联方法,其特征在于,在所述目标为前车时,所述基准点位置是前车的后杠中点位置,而所述多个参考点位置包括前车的两个后角点位置以及该前车距离自车更近的侧面上的前角点位置及侧面中点位置。
4.根据权利要求1所述的目标关联方法,其特征在于,所述至少一级的关联门限依次包括以下关联门限:
第一级关联门限,包括在平面坐标系下关联于自车与目标的距离和速度的门限函数;
第二级关联门限,包括在极坐标系下的关联于摄像头视角的角度门限;以及
第三级关联门限,包括用于评估所述参考点位置与所述雷达点位置的属性相似度的综合门限。
5.根据权利要求4所述的目标关联方法,其特征在于,所述角度门限被配置为:在所述摄像头视角范围内,所述多个参考点位置中相对于摄像头视角而呈现最大角度的两个参考点位置之间的角度值。
6.根据权利要求4所述的目标关联方法,其特征在于,所述综合门限被配置为以下两者的乘积:
所述参考点位置与所述雷达点分别相对于自车的径向距离的差值;以及
所述参考点位置与所述雷达点分别相对于摄像头视角方向的角度的差值。
7.根据权利要求1所述的目标关联方法,其特征在于,每一级关联门限适配于不同的维度参数而被预先配置,且所述预设最优匹配规则被配置为是:从符合各级关联门限的多组参考点位置和雷达点位置中,选择对应于各级关联门限的维度参数的和值最小的一组参考点位置和雷达点位置。
8.一种自动驾驶车辆的目标识别方法,其特征在于,所述目标识别方法包括:
采用权利要求1至7中任意一项所述的目标关联方法,匹配出符合预设最优匹配规则的一组参考点位置和雷达点位置;
调整该组参考点位置至其所匹配的雷达点位置;以及
确定随调整后的参考点位置而适应性变化的所述目标的基准点位置,以基于该基准点位置识别所述目标的位置。
9.一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行权利要求1至7中任意一项所述的自动驾驶车辆的目标关联方法或者权利要求8所述的自动驾驶车辆的目标识别方法。
10.一种自动驾驶车辆的目标融合系统,其特征在于,所述目标融合系统包括:
存储器,其存储有能够在处理器上运行的程序;以及
所述处理器,其被配置为执行所述程序时实现权利要求1至7中任意一项所述的自动驾驶车辆的目标关联方法或者权利要求8所述的目标识别方法。
CN202211043391.6A 2022-08-29 2022-08-29 目标关联方法、目标识别方法及对应介质和系统 Pending CN117665796A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211043391.6A CN117665796A (zh) 2022-08-29 2022-08-29 目标关联方法、目标识别方法及对应介质和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211043391.6A CN117665796A (zh) 2022-08-29 2022-08-29 目标关联方法、目标识别方法及对应介质和系统

Publications (1)

Publication Number Publication Date
CN117665796A true CN117665796A (zh) 2024-03-08

Family

ID=90064828

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211043391.6A Pending CN117665796A (zh) 2022-08-29 2022-08-29 目标关联方法、目标识别方法及对应介质和系统

Country Status (1)

Country Link
CN (1) CN117665796A (zh)

Similar Documents

Publication Publication Date Title
US10460467B2 (en) Object recognition processing apparatus, object recognition processing method, and autonomous driving system
US7358889B2 (en) Object detection system and method of detecting object
US7417580B2 (en) Object detection system and object detection method
JP2017223680A (ja) 目標検出情報を生成する方法、装置、および、機器
KR102371616B1 (ko) 차량의 센서 데이터 연계 장치 및 방법
Kim et al. Sensor fusion for vehicle tracking with camera and radar sensor
CN113936198B (zh) 低线束激光雷达与相机融合方法、存储介质及装置
US11080544B1 (en) Method and device for calibrating pitch of camera on vehicle and method and device for continual learning of vanishing point estimation model to be used for calibrating the pitch
US20210326612A1 (en) Vehicle detection method and device
CN114705121B (zh) 车辆位姿测量方法、装置及电子设备、存储介质
CN111723724A (zh) 一种路面障碍物识别方法和相关装置
CN116299535A (zh) 基于几何信息的激光雷达slam退化检测方法及系统
CN111753901A (zh) 一种数据融合方法、装置、系统及计算机设备
CN117665796A (zh) 目标关联方法、目标识别方法及对应介质和系统
CN113203424B (zh) 多传感器的数据融合方法、装置及相关设备
CN114397671B (zh) 目标的航向角平滑方法、装置及计算机可读存储介质
CN116203579A (zh) 基于点云残差的激光雷达slam退化检测方法及系统
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
CN114529884A (zh) 基于双目相机的障碍物探测处理方法、装置、设备及系统
KR20200133919A (ko) 자율주행차량의 경로 보상 장치 및 그 방법
EP4060614A1 (en) Method for determining noise statistics of object sensors
US20230184946A1 (en) Vehicle Lidar System and Velocity Measuring Method Thereof
CN116228820B (zh) 一种障碍物检测方法、装置和电子设备、存储介质
US20230410489A1 (en) Method and system for sensor fusion in vehicle
CN116626630B (zh) 一种物体分类方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication