CN115588184A - 检测目标行驶装置的方法和装置 - Google Patents

检测目标行驶装置的方法和装置 Download PDF

Info

Publication number
CN115588184A
CN115588184A CN202211335907.4A CN202211335907A CN115588184A CN 115588184 A CN115588184 A CN 115588184A CN 202211335907 A CN202211335907 A CN 202211335907A CN 115588184 A CN115588184 A CN 115588184A
Authority
CN
China
Prior art keywords
target
speed
fusion
current time
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211335907.4A
Other languages
English (en)
Inventor
请求不公布姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Moore Threads Technology Co Ltd
Original Assignee
Moore Threads Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Moore Threads Technology Co Ltd filed Critical Moore Threads Technology Co Ltd
Priority to CN202211335907.4A priority Critical patent/CN115588184A/zh
Publication of CN115588184A publication Critical patent/CN115588184A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请提出了检测目标行驶装置的方法和装置。所述方法包括:获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,以及利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据;对当前时刻的图像数据以及当前时刻的感测数据进行数据融合,以得到当前时刻的融合位置和融合速度;基于当前时刻之前的预设数量的历史时刻处的状态组,预测目标行驶装置在当前时刻的估计位置和速度,在历史时刻处的状态组包括目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;基于目标行驶装置在当前时刻的融合位置和融合速度,以及估计位置和估计速度,检测目标行驶装置在当前时刻的真实位置和速度。

Description

检测目标行驶装置的方法和装置
技术领域
本公开涉及自动驾驶的技术领域,尤其涉及检测目标行驶装置的方法和装置、计算设备、存储介质以及计算机程序产品。
背景技术
近些年来,自动驾驶迎来了飞速发展。在自动驾驶领域,对目标行驶装置的跟踪(包括对速度和位置的检测)是一项非常关键的技术,因为对目标行驶装置的跟踪的准确性和稳定性直接关系着自动驾驶的准确度和安全性。通常,目标行驶装置装备有各种传感器来实现对目标行驶装置的位置和速度的检测。目前,根据装备传感器的不同,相关技术主要基于单传感器(例如,视觉、毫米波雷达、激光雷达)或者多传感器融合(视觉和毫米波雷达,视觉和激光雷达,视觉、激光雷达和毫米波雷达)来检测目标行驶装置的位置和速度。但是,由于传感器对目标行驶装置的检测存在各种检测误差,导致无法准确且稳定地检测目标行驶装置的位置和速度,进而对自动驾驶安全性构成挑战。
发明内容
有鉴于此,本公开提供了检测目标行驶装置的方法和装置、计算设备、存储介质以及计算机程序产品,期望克服上面提到的部分或全部缺陷以及其它可能的缺陷。
根据本公开的第一方面,提供了一种检测目标行驶装置的方法,包括:获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据;对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度;基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。
在一些实施例中,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度,包括:对所述当前时刻的图像数据以及所述当前时刻的感测数据进行同步,以得到同步的图像数据和感测数据;对同步的图像数据和感测数据进行融合,以确定所述目标行驶装置在当前时刻的融合位置和融合速度。
在一些实施例中,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行同步,以得到同步的图像数据和感测数据包括:将所述当前时刻的图像数据的坐标以及所述当前时刻的感测数据的坐标变换到同一坐标系,以得到同步的图像数据和感测数据。
在一些实施例中,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,包括:将目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组输入预训练的运动状态估计模型,以得到所述目标行驶装置在当前时刻的估计位置和估计速度。所述预训练的运动状态估计模型是通过如下方式训练得到的:获取第一训练集,所述第一训练集包括目标行驶装置的多个历史时刻处的状态组;针对所述多个历史时刻中的每个相应历史时刻,获取目标行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数;将目标行驶装置在n个时刻处的状态组,输入第一深度学习网络,以预测所述目标行驶装置在所述相应历史时刻的估计位置和估计速度;调整所述第一深度学习网络的参数,使得所述相应历史时刻的估计位置和估计速度构成的第一组与所述相应历史时刻的融合位置和融合速度构成的第二组之间的误差最小化。
在一些实施例中,所述第一深度学习网络是通过如下方式训练得到的:获取第二训练集,所述第二训练集包括多个行驶装置的多个历史时刻处的状态组;针对所述多个历史时刻中的每个相应历史时刻,获取所述多个行驶装置中各行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数;将各行驶装置在n个时刻处的状态组,输入第二深度学习网络,以预测对应行驶装置在所述相应历史时刻的估计位置和估计速度;调整所述第二深度学习网络的参数,使得所述对应行驶装置的相应历史时刻的估计位置和估计速度构成的第三组与所述相应历史时刻的融合位置和融合速度构成的第四组之间的误差最小化。
在一些实施例中,基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻真实位置和真实速度,包括:确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和,以分别作为所述目标行驶装置在当前时刻的真实位置和真实速度。
在一些实施例中,确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和,包括:利用卡尔曼滤波器来确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和;其中,在确定第一加权和和第二加权和时的权重取决于所述卡尔曼滤波器的增益。
在一些实施例中,所述目标行驶装置在所述历史时刻的融合位置和融合速度是通过如下方式获取的:获取利用第一传感器感测的包括所述历史时刻的历史时间段内的包括目标行驶装置的图像数据,以及利用第二传感器感测的所述历史时间段内的与目标行驶装置的位置和速度相关的感测数据;将所述历史时间段内的包括目标行驶装置的图像数据与历史时间段内的与目标行驶装置的位置和速度相关的感测数据进行时间同步,以得到时间同步后的图像数据和感测数据;基于时间同步后的图像数据和感测数据,获取目标行驶装置在所述历史时刻的融合位置和融合速度。
在一些实施例中,所述目标行驶装置在历史时刻处所在车道处的曲率通过如下方式被获取:获取利用第一传感器感测的在所述历史时刻处包括所述目标行驶装置所在车道的图像数据;确定所述所在车道的车道线的像素坐标;对所述像素坐标进行多项式拟合,以得到拟合曲线;基于所述拟合曲线,确定所述目标行驶装置在历史时刻处所在车道处的曲线的曲率。
在一些实施例中,所述第一深度学习网络和第二深度学习网络为长短期记忆神经网络。
根据本公开的第二方面,提供了一种检测目标行驶装置的装置,包括:获取模块,被配置成获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据;融合模块,被配置成对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度;预测模块,被配置成基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;检测模块,被配置成基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。
根据本公开的第三方面,提供了一种计算设备,包括处理器;以及存储器,配置为在其上存储有计算机可执行指令,当计算机可执行指令被处理器执行时执行如上面所述的任意方法。
根据本公开的第四方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,当所述计算机可执行指令被执行时,执行如上面所述的任意方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机可执行指令,计算机可执行指令在被执行时实现执行如上面所述的任意方法。
本公开要求保护的检测目标行驶装置的方法中,将利用第一传感器感测的图像数据和利用第二传感器感测的位置和速度相关的感测数据进行数据融合,可以得到所述目标行驶装置在当前时刻的融合位置和融合速度,其能较准确地反映当前时刻利用传感器感测的位置和速度。然后,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度。最后同时运用传感器感测的观测量(融合位置和融合速度)和估计量(估计位置和估计速度),可以避免单独使用感测的观测量和估计量时存在的观测误差和扰动误差,提高确定目标行驶装置在当前时刻的真实位置和真实速度的准确性和稳定性。而且,即便在跟踪行驶装置的过程中,即使在暂时无法检测到目标行驶装置情况下,也可以较准确地跟踪到目标行驶装置的真实位置和真实速度。
根据下文描述的实施例,本公开的这些和其它优点将变得清楚,并且参考下文描述的实施例来阐明本公开的这些和其它优点。
附图说明
现在将更详细并且参考附图来描述本公开的实施例,其中:
图1图示了根据本公开的实施例的技术方案可以实施在其中的示例性应用场景;
图2图示了根据本公开的一个实施例的检测目标行驶装置的方法的示意性流程图;
图3图示了根据本公开的一个实施例的获取运动状态估计模型的方法的示例性流程图;
图4图示了根据本公开的一个实施例获取本文所述的第一深度学习网络的方法的示例性流程图;
图5图示了根据本公开的实施例的利用插值法对所采集的图像数据和感测数据进行时间同步的示意;
图6图示了根据本公开的实施例的检测目标行驶装置的方法的示意性原理图;
图7图示了根据本公开的一个实施例的检测目标行驶装置的装置的示例性结构框图;
图8图示了一个示例系统,其包括代表可以实现本文描述的各种技术的一个或多个系统和/或设备的示例计算设备。
具体实施方式
下面的描述提供了本公开的各种实施例的特定细节,以便本领域的技术人员能够充分理解和实施本公开的各种实施例。应当理解,本公开的技术方案可以在没有这些细节中的一些细节的情况下被实施。在某些情况下,本公开并没有示出或详细描述一些熟知的结构或功能,以避免这些不必要的描述使对本公开的实施例的描述模糊不清。在本公开中使用的术语应当以其最宽泛的合理方式来理解,即使其是结合本公开的特定实施例被使用的。
图1图示了根据本公开的实施例的技术方案可以实施在其中的示例性应用场景100。如图1所示,所示应用场景包括一个或多个行驶装置110、服务器120,所述一个或多个行驶装置110通过网络130与服务器120通信地耦合在一起。
作为示例,可以利用第一传感器感测包括目标行驶装置的图像数据,以及利用第二传感器感测与目标行驶装置的位置和速度相关的感测数据,并将所感测的图像数据和感测数据通过网络130传送给服务器120。目标行驶装置可以是所述一个或多个行驶装置110中的指定的一个。所述第一传感器和第二传感器可以被安装在固定的位置或者安装在目标行驶装置之外的其他的行驶装置上。
作为示例,服务器120可以获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,以及利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据。然后,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度。接着,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率。最后,基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。可选地,服务器120还可以基于所述当前时刻的真实位置和真实速度,对所述目标行驶装置进行监测或者通过网络130向目标行驶装置发送指令,以指示所述目标行驶装置执行特定的操作,例如加速、减速或者刹车等等。
上面描述的场景仅仅是本公开的实施例可以被实施在其中的一个示例,并不是限制性的。例如,在一些实施例性场景中,也可能在任一行驶装置110上可以实现检测目标行驶装置的方法。
应当指出,所述行驶装置110可以包括但不限于各种汽车(例如、卡车、公交车、小轿车等等)、摩托车、自行车以及具有行驶或者移动功能的各种装置,但并不局限于此。服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、以及大数据和人工智能平台等基础云计算服务的云服务器。行驶装置以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。所述网络130例如可以是广域网(WAN)、局域网(LAN)、无线网络、公用电话网、内联网以及本领域的技术人员熟知的任何其它类型的网络。
图2图示了根据本公开的一个实施例的检测目标行驶装置的方法200的示意性流程图。如图2所示,所述方法200包括如下步骤。
在步骤210,获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据。所述当前时刻可以指绝对意义上的当前时间,也可以指所选的某一特定时刻。所述第一传感器例如可以是能够获取目标行驶装置的图像的视觉传感器(例如,相机等),第二传感器例如可以是能够感测目标行驶装置的位置和速度的传感器(例如,毫米波雷达、激光雷达等等)。作为示例,毫米波雷达可以基于多普勒频移来获取与目标行驶装置的位置和速度相关的感测数据。所述第一传感器和第二传感器可以被安装在固定的位置或者安装在目标行驶装置之外的其他的行驶装置上。
在一些实施例中,在利用第一传感器(例如,相机等)感测图像数据和利用第二传感器(例如,毫米波雷达、激光雷达等等)感测行驶装置的位置和速度前,需要对第一传感器和第二传感器执行联合外参标定(例如,安装位置的标定)以及第一传感器的内参标定(例如,图像与像素的变化关系)。
这里所述的位置可以指绝对位置或相对位置。绝对位置指在地球坐标系下的位置,相对位置可以指相对于基准点(例如,所述第一传感器和第二传感器被安装在的固定位置或者安装在的其他的行驶装置)的位置,其例如可以包括横向位置和纵向位置。这里所述的图像数据可以通过第一传感器对包括目标行驶装置的行驶环境进行拍摄得到。所述图像数据不仅包括目标行驶装置,还可以包括目标行驶装置的所在的车道线,并且可选地还包括目标行驶装置所在的位置(例如,地标等相对位置或绝对位置)。
在一些实施例中,可以利用第一传感器感测图像数据,然后对图像数据进行目标检测以识别其中的目标行驶装置(例如,采用基于YoLo(You Only Look Once,你只看一次)的目标检测模型识别其中的目标行驶装置)。可以利用第一传感器获取包括目标行驶装置的当前时刻的图像数据,以及利用第二传感器感测当前时刻目标行驶装置的位置和速度,当然这不是限制性的。
在一些实施例中,还可以分别利用第一传感器和第二传感器以各自采样频率来获取包括目标行驶装置的图像数据以及与目标行驶装置的位置和速度相关的感测数据。然后,对所采集的图像数据和感测数据进行时间同步(例如,基于各自的采样频率,采用插值法进行同步来获取所选的某一特定时刻的图像数据和感测数据,例如下文参照图5描述的)。
应当指出,这里所述的目标行驶装置可以是指定的一个行驶装置(例如,其可以通过从第一传感器感测的图像数据中检测例如行驶装置的号牌等唯一的标识符而被确定),也可以指代指定类型的行驶装置(例如,卡车、小汽车、公交车等等,其同样可以通过对从第一传感器感测的图像数据进行目标检测而被确定)。
在步骤220,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度。如上所述,图像数据可以包括目标行驶装置的信息并且也可能包括目标行驶装置的位置数据,由于感测数据与当前时刻目标行驶装置的位置和速度相关,因此可以对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,可以得到所述目标行驶装置在当前时刻的融合位置和融合速度,使得融合位置和融合速度具有较高的准确性。例如,这里的融合可以指,在遇到强光、雨雾天气等视觉传感器工作受限制的场景或位置,更多地采用第二传感器(例如,毫米波雷达)感测到的位置信息所表示的位置作为融合位置,而避免采用图像数据包括的目标行驶装置的位置数据所表示的位置。当然,也可以这里的融合可以指对采用第二传感器感测到的位置信息所表示的位置作为融合位置和图像数据包括的目标行驶装置的位置数据所表示的位置进行加权和处理,以得到融合位置。这里加权和处理中的权重可以根据需要确定。融合速度可以以类似的方式(例如,加权和的方式)被获取,这里图像数据中的速度一般地可以被确定为零。
在一些实施例中,在对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合时,可以对所述当前时刻的图像数据以及所述当前时刻的感测数据进行同步,以得到同步的图像数据和感测数据;然后,对同步的图像数据和感测数据进行融合,以确定所述目标行驶装置在当前时刻的融合位置和融合速度。这里的同步可以理解为空间上的同步。具体地,在同步时,可以将所述当前时刻的图像数据的坐标以及所述当前时刻的感测数据的坐标变换到同一坐标系,以得到同步的图像数据和感测数据。
由于第一传感器感测的图像数据可能采用的是相机坐标系,而第二传感器感测的感测数据可能采用的是雷达坐标系,因此,为了提高融合的准确性,在对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合时,可以将所述当前时刻的图像数据的坐标以及所述当前时刻的感测数据的坐标变换到同一坐标系,以得到同步的图像数据和感测数据;然后,对同步的图像数据和感测数据进行融合,以确定所述目标行驶装置在当前时刻的融合位置和融合速度。特别地,这里可以选定图像坐标系为基准坐标系,将雷达坐标系通过坐标转换变换到相机坐标系,从而实现空间同步。当然,也可以将相机坐标系通过坐标转换变换到雷达坐标系,这不是限制性的。
在步骤230,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率。换句话说,假设当前时刻是t时刻,则可以基于目标行驶装置[t-k,t-1]时刻区间内历史时刻处的状态组,预测所述目标行驶装置在t时刻的估计位置和估计速度,其中t和k均为正整数,且t大于或等于k。
由于行驶装置的位置和速度通常都呈现的一定的连续性或者规律性,因此基于目标行驶装置在历史时刻处的状态组,可以预测所述目标行驶装置在当前时刻的估计位置和估计速度。
在一些实施例中,所述目标行驶装置在所述历史时刻的融合位置、融合速度可以以与步骤220中描述的类似的方式在历史时刻处被确定的。作为示例,所述目标行驶装置在所述历史时刻的融合位置和融合速度是通过如下方式获取的:获取利用第一传感器感测的包括所述历史时刻的历史时间段内的包括目标行驶装置的图像数据,以及利用第二传感器感测的所述历史时间段内的与目标行驶装置的位置和速度相关的感测数据;将所述历史时间段内的包括目标行驶装置的图像数据与历史时间段内的与目标行驶装置的位置和速度相关的感测数据进行时间同步(例如,采用如上面所述的插值法),以得到时间同步后的图像数据和感测数据;基于时间同步后的图像数据和感测数据,获取目标行驶装置在所述历史时刻的融合位置和融合速度。
历史时间段是由多个连续的历史时刻构成的。应当指出,在基于时间同步后的图像数据和感测数据获取目标行驶装置在所述历史时刻的融合位置和融合速度时,也可以先对时间同步后的图像数据和感测数据进行空间同步,然后基于空间同步后的图像数据和感测数据,获取目标行驶装置在所述历史时刻的融合位置和融合速度。具体地,在空间同步时,可以将所述历史时刻的图像数据的坐标以及所述历史时刻的感测数据的坐标变换到同一坐标系,以得到空间同步的图像数据和感测数据。
在一些实施例中,在所述目标行驶装置在历史时刻处所在车道处的曲率时,可以首先获取利用第一传感器感测的在所述历史时刻处包括所述目标行驶装置所在车道的图像数据;然后,确定所述所在车道的车道线的像素坐标;接着,对所述像素坐标进行多项式拟合,以得到拟合曲线;最后,基于所述拟合曲线,确定所述目标行驶装置在历史时刻处所在车道处的曲线的曲率。这里可以采用任意合适的多项式拟合方法,例如可以采用最小二乘法。
在一些实施例中,在目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度时,可以利用预训练的运动状态估计模型来进行。即,将目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组输入所述预训练的运动状态估计模型,以得到所述目标行驶装置在当前时刻的估计位置和估计速度。预训练的运动状态估计模型可以经由各种合适方式被训练得到,这里不做限定。这里所述的运动状态估计模型可以是各种类型的深度学习模型,例如卷积神经网络、循环卷积神经网络、长短期记忆神经网络等等。
在步骤240,基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。通过这种方式,可以最大化利用融合位置和速度、以及估计位置和速度的信息,从而更为准确地得到所述目标行驶装置在当前时刻的真实位置和真实速度。
在一些实施例中,可以将所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和作为所述目标行驶装置在当前时刻的真实位置,以及将所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和作为所述目标行驶装置在当前时刻的真实速度。在计算第一加权和和第二加权和时,可以根据需要采用各种权重。例如,在第一传感器或第二传感器工作受限制的场景,提高估计位置和估计速度的权重等等。
在一些实施例中,可以利用卡尔曼滤波器来确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和。在确定第一加权和和第二加权和时的权重取决于所述卡尔曼滤波器的增益,即可以通过计算卡尔曼滤波器的增益来确定计算第一加权和和第二加权和时的权重。例如,可以使得卡尔曼滤波器的增益越小,估计位置和估计速度的权重越大;卡尔曼滤波器的增益越大,融合位置和融合速度的权重越大。通过利用卡尔曼滤波器,可以获得更稳定的检测结果(真实位置和真实速度),实现对目标行驶装置的稳定跟踪。
在本公开要求保护的检测目标行驶装置的方法中,将利用第一传感器感测的图像数据和利用第二传感器感测的位置和速度相关的感测数据进行数据融合,可以得到所述目标行驶装置在当前时刻的融合位置和融合速度,其能较准确地反映当前时刻利用传感器感测的位置和速度。然后,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度。最后同时运用传感器感测的观测量(融合位置和融合速度)和估计量(估计位置和估计速度),可以避免单独使用感测的观测量和估计量时存在的观测误差和扰动误差,提高确定目标行驶装置在当前时刻的真实位置和真实速度的准确性和稳定性。而且,即便在跟踪行驶装置的过程中,即使在暂时无法检测到目标行驶装置情况下,也可以较准确地跟踪到目标行驶装置的真实位置和真实速度。
特别地,本公开实施例的稳定性可以具体体现在适应不同的场景上。例如,在车道曲率较大时,例如毫米波雷达由于波束角的限制无法获取目标行驶装置的感测数据,这时可以主要使用图像数据中目标行驶装置的信息(例如,通过在融合时将感测数据中的位置信息和速度信息的权重调低或者降低到零)和对目标行驶装置预测得到的估计量来跟踪目标行驶装置的真实位置和真实速度。在遇到强光、雨雾天气等视觉传感器工作受限制的场景或者由于遮挡引起视觉传感器检测失效的情况下,这时可以主要使用例如毫米波雷达感测到感测数据(例如,通过在融合时将图像数据中的位置信息的权重调低或者降低到零)和对目标行驶装置预测得到的估计量来跟踪目标行驶装置的真实位置和真实速度。在视觉和毫米波雷达都失效的极端场景下,还可以仅采用对目标行驶装置预测得到的估计量(例如,通过将融合位置和融合速度的权重调低到零)来对目标行驶装置进行跟踪。
如上面所述,在本公开的一些实施例中,可以将目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组输入所述预训练的运动状态估计模型,以得到所述目标行驶装置在当前时刻的估计位置和估计速度。预训练的运动状态估计模型可以经由各种合适方式被训练得到。图3图示了根据本公开的一个实施例的获取运动状态估计模型的方法的示例性流程图。如图3所示,所述方法包括如下步骤。
在步骤310,获取第一训练集,所述第一训练集包括目标行驶装置的多个历史时刻处的状态组。与步骤230中描述的类似,这里所述的状态组同样包括所述目标行驶装置在所述多个历史时刻的融合位置、融合速度和所在车道处的曲率。所述目标行驶装置在所述多个历史时刻的融合位置、融合速度可以以与步骤220中描述的类似的方式在所述多个历史时刻处被确定的,这里不再重复。应当指出,这里所述的多个历史时刻与步骤230中所述的预设数量的历史时刻通常是不同的历史时刻,但可以部分相同。
在步骤320,针对所述多个历史时刻中的每个相应历史时刻,获取目标行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数。例如,针对历史时刻t1,获取目标行驶装置在所述t1时刻之前的n个历史时刻处的状态组。这里的n可以与之前的正整数k是相同的,但这不是限制性的。
在步骤330,将目标行驶装置在n个时刻处的状态组,输入第一深度学习网络,以预测所述目标行驶装置在所述相应历史时刻的估计位置和估计速度。例如,目标行驶装置在所述历史时刻t1之前的n个时刻处的状态组输入第一深度学习网络,以预测所述目标行驶装置在所述t1时刻的估计位置和估计速度。这里的第一深度学习网络例如可以是卷积神经网络、循环卷积神经网络、长短期记忆神经网络等等。特别地,长短期记忆(Long Short-Term Memory,LSTM)神经网络是一种时间递归神经网络,适合被用于处理和预测时间序列中间隔和延迟非常长的重要事件,因此在本发明的技术方案具有较好的处理效果。
在步骤340,调整所述第一深度学习网络的参数,使得所述相应历史时刻的估计位置和估计速度构成的第一组与所述相应历史时刻的融合位置和融合速度构成的第二组之间的误差最小化,从而得到所述预训练的运动状态估计模型。调整参数后的第一深度学习网络即为得到的所述预训练的运动状态估计模型。在这里,可以基于所述相应历史时刻的估计位置和估计速度构成的第一组与所述相应历史时刻的融合位置和融合速度构成的第二组之间的差异构建各种第一深度学习网络的损失函数。然后例如利用梯度下降的方式,调整所述第一深度学习网络的参数,使得所述损失函数最小化。这里的损失函数可以是各种合适的损失函数,例如,平方损失函数、交叉熵损失函数等等。
在该实施例中,通过利用第一深度学习网络并基于目标行驶装置的在每个相应历史时刻之前的n个历史时刻处的状态组来预测相应历史时刻的估计位置和估计速度,然后与相应的融合位置和融合速度进行比较,可以以高效且准确的方式训练所述第一深度学习网络,从而得到所述预训练的运动状态估计模型。
在一些实施例中,第一训练集中可能没有足够多的样本,即目标行驶装置的历史时刻处的状态组的数量不够,在刚开始对目标行驶装置进行跟踪的阶段尤其可能出现这样的情形,这会影响对目标行驶装置的跟踪,导致检测到的目标行驶装置的真实位置和速度不准确。在这种情况下,可以利用通用数据集来训练得到所述第一深度学习网络。通用数据集可以包括多个行驶装置的多个历史时刻处的状态组。所述多个行驶装置可以不包括所述目标行驶装置。
作为示例,图4图示了根据本公开的一个实施例获取上面所述的第一深度学习网络的方法的示例性流程图。如图4所示,所述方法包括如下步骤。
在步骤410,获取第二训练集,所述第二训练集包括多个行驶装置的多个历史时刻处的状态组。与步骤230和310中描述的类似,这里所述的状态组同样包括所述多个行驶装置中各个相应的行驶装置在所述多个历史时刻的融合位置、融合速度和所在车道处的曲率。所述各行驶装置在所述多个历史时刻的融合位置、融合速度可以以与步骤220中描述的类似的方式在所述多个历史时刻处被确定的,这里不再重复。应当指出,这里所述的多个历史时刻,可以与步骤310所述的多个历史时刻是相同的或不同的,这里不做限定。
在步骤420,针对所述多个历史时刻中的每个相应历史时刻,获取所述多个行驶装置中各行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数。例如,针对历史时刻t2,可以获取行驶装置1在所述t2时刻之前的n个历史时刻处的状态组。
在步骤430,将各行驶装置在n个时刻处的状态组,输入第二深度学习网络,以预测对应行驶装置在所述相应历史时刻的估计位置和估计速度。这里的第二深度学习网络同样例如可以是卷积神经网络、循环卷积神经网络、长短期记忆神经网络等等。特别地,长短期记忆(Long Short-Term Memory,LSTM)神经网络是一种时间递归神经网络,适合被用于处理和预测时间序列中间隔和延迟非常长的重要事件,因此在本发明的技术方案具有较好的处理效果。
在步骤440,调整所述第二深度学习网络的参数,使得所述对应行驶装置的相应历史时刻的估计位置和估计速度构成的第三组与所述相应历史时刻的融合位置和融合速度构成的第四组之间的误差最小化,从而得到所述第一深度学习网络。调整参数后的第二深度学习网络即为得到的所述第一深度学习网络。在这里,可以基于所述对应行驶装置的相应历史时刻的估计位置和估计速度构成的第三组与所述相应历史时刻的融合位置和融合速度构成的第四组的差异构建各种第二深度学习网络的损失函数。然后例如利用梯度下降的方式,调整所述第二深度学习网络的参数,使得所述损失函数最小化。这里的损失函数可以是各种合适的损失函数,例如,平方损失函数、交叉熵损失函数等等。
在该实施例中,通过利用第二深度学习网络和包括多个行驶装置的多个历史时刻处的状态组的第二训练集,可以以高效且准确的方式训练所述第二深度学习网络,从而得到上面所述的第一深度学习网络。
图5图示了根据本公开的实施例的利用插值法对所采集的图像数据和感测数据进行时间同步的示意图。如图5所示,第一传感器采用图像数据的频率和第二传感器采集感测数据的频率是不同的,其中圆圈表示第一传感器采集图像数据的时间点,方块表示第二传感器采集感测数据的时间点。可以选取特定时间点(例如三角形所表示的时间点100ms),基于圆圈55.6毫秒和圆圈111.2ms处的图像数据进行插值得到100ms处的图像数据,并基于方块80ms和方块120毫秒处的感测数据进行插值得到100ms处的感测数据,则可以得到特定时间点100ms处的图像数据和感测数据,从而实现对所采集的图像数据和感测数据进行时间同步。
图6图示了根据本公开的实施例的检测目标行驶装置的方法的示意性原理图。如图6所示,第一传感器为相机601,第二传感器为毫米波雷达602。相机可以通过对车辆道路环境进行采集,以得到包括行驶装置的图像并对所述图像进行目标检测来获取包括目标行驶装置的图像数据603。毫米波雷达可以感测车辆道路环境中目标行驶装置的位置和速度相关的感测数据604。
在步骤605,可以如前面实施例中描述的那样对图像数据以及感测数据进行时间和/或空间上的同步,然后在对同步后的图像数据以及感测数据进行数据融合,以得到所述目标行驶装置在各个时刻的融合位置和融合速度606。
然后,可以将目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组输入预训练的运动状态估计模型607,以得到所述目标行驶装置在当前时刻的估计位置和估计速度608。如上面所描述的,所述预训练的运动状态估计模型可以是基于第一训练集包括的目标行驶装置的多个历史时刻处的状态组,对第一深度学习网络609进行训练得到的。第一深度学习网络609可以是基于第二训练集包括的多个行驶装置的多个历史时刻处的状态组第二深度学习网络进行训练得到的。所述第一深度学习网络和第二深度学习网络为长短期记忆神经网络。
最后,可以将所述目标行驶装置在当前时刻的所述融合位置和融合速度(其可以与606处的融合位置和融合速度以类似的方式被确定,以虚线指示),以及在当前时刻的所述估计位置和估计速度608输入卡尔曼滤波器610,来得到所述目标行驶装置在当前时刻的真实位置和真实速度。可以利用卡尔曼滤波器来确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和,以分别作为所述目标行驶装置在当前时刻的真实位置和真实速度。
通过这种方式,可以最大化利用融合位置和速度、以及估计位置和速度,从而更为准确地得到所述目标行驶装置在当前时刻的真实位置和真实速度。在跟踪行驶装置的过程中,即使在暂时无法检测到目标行驶装置(目标丢失)的情况下,也可以较准确地跟踪到目标行驶装置的真实位置和真实速度。
图7图示了根据本公开的一个实施例的检测目标行驶装置的装置700的示例性结构框图。如图7所示,所述检测目标行驶装置的装置700包括获取模块710、融合模块720、预测模块730以及检测模块740。
获取模块710被配置成获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据。
融合模块720被配置成对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度。
预测模块730被配置成基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;
检测模块740被配置成基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。
图8图示了示例系统800,其包括代表可以实现本文描述的各种技术的一个或多个系统和/或设备的示例计算设备810。计算设备810可以是例如服务提供商的服务器、与服务器相关联的设备、片上系统、和/或任何其它合适的计算设备或计算系统。上面参照图7描述的检测目标行驶装置的装置700可以采取计算设备810的形式。替换地,检测目标行驶装置的装置700可以以应用816的形式被实现为计算机程序。
如图示的示例计算设备810包括彼此通信耦合的处理系统811、一个或多个计算机可读介质812以及一个或多个I/O接口813。尽管未示出,但是计算设备810还可以包括系统总线或其他数据和命令传送系统,其将各种组件彼此耦合。系统总线可以包括不同总线结构的任何一个或组合,所述总线结构诸如存储器总线或存储器控制器、外围总线、通用串行总线、和/或利用各种总线架构中的任何一种的处理器或局部总线。还构思了各种其他示例,诸如控制和数据线。
处理系统811代表使用硬件执行一个或多个操作的功能。因此,处理系统811被图示为包括可被配置为处理器、功能块等的硬件元件814。这可以包括在硬件中实现为专用集成电路或使用一个或多个半导体形成的其它逻辑器件。硬件元件814不受其形成的材料或其中采用的处理机构的限制。例如,处理器可以由(多个)半导体和/或晶体管(例如,电子集成电路(IC))组成。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读介质812被图示为包括存储器/存储装置815。存储器/存储装置815表示与一个或多个计算机可读介质相关联的存储器/存储容量。存储器/存储装置815可以包括易失性介质(诸如随机存取存储器(RAM))和/或非易失性介质(诸如只读存储器(ROM)、闪存、光盘、磁盘等)。存储器/存储装置815可以包括固定介质(例如,RAM、ROM、固定硬盘驱动器等)以及可移动介质(例如,闪存、可移动硬盘驱动器、光盘等)。计算机可读介质812可以以下面进一步描述的各种其他方式进行配置。
一个或多个I/O接口813代表允许用户使用各种输入设备向计算设备810输入命令和信息并且可选地还允许使用各种输出设备将信息呈现给用户和/或其他组件或设备的功能。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、麦克风(例如,用于语音输入)、扫描仪、触摸功能(例如,被配置为检测物理触摸的容性或其他传感器)、相机(例如,可以采用可见或不可见的波长(诸如红外频率)将不涉及触摸的运动检测为手势)等等。输出设备的示例包括显示设备(例如,监视器或投影仪)、扬声器、打印机、网卡、触觉响应设备等。因此,计算设备810可以以下面进一步描述的各种方式进行配置以支持用户交互。
计算设备810还包括应用816。应用816可以例如是检测目标行驶装置的装置700的软件实例,并且与计算设备810中的其他元件相组合地实现本文描述的技术。
本文可以在软件硬件元件或程序模块的一般上下文中描述各种技术。一般地,这些模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元素、组件、数据结构等。本文所使用的术语“模块”,“功能”和“组件”一般表示软件、固件、硬件或其组合。本文描述的技术的特征是与平台无关的,意味着这些技术可以在具有各种处理器的各种计算平台上实现。
所描述的模块和技术的实现可以存储在某种形式的计算机可读介质上或者跨某种形式的计算机可读介质传输。计算机可读介质可以包括可由计算设备810访问的各种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
与单纯的信号传输、载波或信号本身相反,“计算机可读存储介质”是指能够持久存储信息的介质和/或设备,和/或有形的存储装置。因此,计算机可读存储介质是指非信号承载介质。计算机可读存储介质包括诸如易失性和非易失性、可移动和不可移动介质和/或以适用于存储信息(诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路或其他数据)的方法或技术实现的存储设备之类的硬件。计算机可读存储介质的示例可以包括但不限于RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字通用盘(DVD)或其他光学存储装置、硬盘、盒式磁带、磁带,磁盘存储装置或其他磁存储设备,或其他存储设备、有形介质或适于存储期望信息并可以由计算机访问的制品。
“计算机可读信号介质”是指被配置为诸如经由网络将指令发送到计算设备810的硬件的信号承载介质。信号介质典型地可以将计算机可读指令、数据结构、程序模块或其他数据体现在诸如载波、数据信号或其它传输机制的调制数据信号中。信号介质还包括任何信息传递介质。术语“调制数据信号”是指这样的信号,该信号的特征中的一个或多个被设置或改变,从而将信息编码到该信号中。作为示例而非限制,通信介质包括诸如有线网络或直接连线的有线介质以及诸如声、RF、红外和其它无线介质的无线介质。
如前所述,硬件元件814和计算机可读介质812代表以硬件形式实现的指令、模块、可编程器件逻辑和/或固定器件逻辑,其在一些实施例中可以用于实现本文描述的技术的至少一些方面。硬件元件可以包括集成电路或片上系统、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅中的其它实现或其他硬件设备的组件。在这种上下文中,硬件元件可以作为执行由硬件元件所体现的指令、模块和/或逻辑所定义的程序任务的处理设备,以及用于存储用于执行的指令的硬件设备,例如,先前描述的计算机可读存储介质。
前述的组合也可以用于实现本文所述的各种技术和模块。因此,可以将软件、硬件或程序模块和其它程序模块实现为在某种形式的计算机可读存储介质上和/或由一个或多个硬件元件814体现的一个或多个指令和/或逻辑。计算设备810可以被配置为实现与软件和/或硬件模块相对应的特定指令和/或功能。因此,例如通过使用处理系统的计算机可读存储介质和/或硬件元件814,可以至少部分地以硬件来实现将模块实现为可由计算设备810作为软件执行的模块。指令和/或功能可以由一个或多个制品(例如,一个或多个计算设备810和/或处理系统811)可执行/可操作以实现本文所述的技术、模块和示例。
在各种实施方式中,计算设备810可以采用各种不同的配置。例如,计算设备810可以被实现为包括个人计算机、台式计算机、多屏幕计算机、膝上型计算机、上网本等的计算机类设备。计算设备810还可以被实现为包括诸如移动电话、便携式音乐播放器、便携式游戏设备、平板计算机、多屏幕计算机等移动设备的移动装置类设备。计算设备810还可以实现为电视类设备,其包括具有或连接到休闲观看环境中的一般地较大屏幕的设备。这些设备包括电视、机顶盒、游戏机等。
本文描述的技术可以由计算设备810的这些各种配置来支持,并且不限于本文所描述的技术的具体示例。功能还可以通过使用分布式系统、诸如通过如下所述的平台822而在“云”820上全部或部分地实现。
云820包括和/或代表用于资源824的平台822。平台822抽象云820的硬件(例如,服务器)和软件资源的底层功能。资源824可以包括在远离计算设备810的服务器上执行计算机处理时可以使用的应用和/或数据。资源824还可以包括通过因特网和/或通过诸如蜂窝或Wi-Fi网络的订户网络提供的服务。
平台822可以抽象资源和功能以将计算设备810与其他计算设备连接。平台822还可以用于抽象资源的分级以提供遇到的对于经由平台822实现的资源824的需求的相应水平的分级。因此,在互连设备实施例中,本文描述的功能的实现可以分布在整个系统800内。例如,功能可以部分地在计算设备810上以及通过抽象云820的功能的平台822来实现。
本公开提供了一种计算机可读存储介质,其上存储有计算机可读指令,计算机可读指令在被执行时实现上述的任一方法。
本公开提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算设备执行上述各种可选实现方式中提供的任一方法。
应当理解,为清楚起见,参考不同的功能单元对本公开的实施例进行了描述。然而,将明显的是,在不偏离本公开的情况下,每个功能单元的功能性可以被实施在单个单元中、实施在多个单元中或作为其它功能单元的一部分被实施。例如,被说明成由单个单元执行的功能性可以由多个不同的单元来执行。因此,对特定功能单元的参考仅被视为对用于提供所描述的功能性的适当单元的参考,而不是表明严格的逻辑或物理结构或组织。因此,本公开可以被实施在单个单元中,或者可以在物理上和功能上被分布在不同的单元和电路之间。
将理解的是,尽管第一、第二、第三等术语在本文中可以用来描述各种设备、元件、部件或部分,但是这些设备、元件、部件或部分不应当由这些术语限制。这些术语仅用来将一个设备、元件、部件或部分与另一个设备、元件、部件或部分相区分。
尽管已经结合一些实施例描述了本公开,但是其不旨在被限于在本文中所阐述的特定形式。相反,本公开的范围仅由所附权利要求来限制。附加地,尽管单独的特征可以被包括在不同的权利要求中,但是这些可以可能地被有利地组合,并且包括在不同权利要求中不暗示特征的组合不是可行的和/或有利的。特征在权利要求中的次序不暗示特征必须以其工作的任何特定次序。此外,在权利要求中,词“包括”不排除其它元件,并且术语“一”或“一个”不排除多个。权利要求中的附图标记仅作为明确的例子被提供,不应该被解释为以任何方式限制权利要求的范围。

Claims (14)

1.一种检测目标行驶装置的方法,其特征在于,所述方法包括:
获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据;
对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度;
基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;
基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。
2.根据权利要求1所述的方法,其特征在于,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度,包括:
对所述当前时刻的图像数据以及所述当前时刻的感测数据进行同步,以得到同步的图像数据和感测数据;
对同步的图像数据和感测数据进行融合,以确定所述目标行驶装置在当前时刻的融合位置和融合速度。
3.根据权利要求2所述的方法,其特征在于,对所述当前时刻的图像数据以及所述当前时刻的感测数据进行同步,以得到同步的图像数据和感测数据包括:
将所述当前时刻的图像数据的坐标以及所述当前时刻的感测数据的坐标变换到同一坐标系,以得到同步的图像数据和感测数据。
4.根据权利要求1所述的方法,其特征在于,基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,包括:
将目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组输入预训练的运动状态估计模型,以得到所述目标行驶装置在当前时刻的估计位置和估计速度;
其中,所述预训练的运动状态估计模型是通过如下方式训练得到的:
获取第一训练集,所述第一训练集包括目标行驶装置的多个历史时刻处的状态组;
针对所述多个历史时刻中的每个相应历史时刻,获取目标行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数;
将目标行驶装置在n个时刻处的状态组,输入第一深度学习网络,以预测所述目标行驶装置在所述相应历史时刻的估计位置和估计速度;
调整所述第一深度学习网络的参数,使得所述相应历史时刻的估计位置和估计速度构成的第一组与所述相应历史时刻的融合位置和融合速度构成的第二组之间的误差最小化。
5.根据权利要求4所述的方法,其特征在于,所述第一深度学习网络是通过如下方式训练得到的:
获取第二训练集,所述第二训练集包括多个行驶装置的多个历史时刻处的状态组;
针对所述多个历史时刻中的每个相应历史时刻,获取所述多个行驶装置中各行驶装置在所述相应历史时刻处之前的n个时刻处的状态组,其中n为正整数;
将各行驶装置在n个时刻处的状态组,输入第二深度学习网络,以预测对应行驶装置在所述相应历史时刻的估计位置和估计速度;
调整所述第二深度学习网络的参数,使得所述对应行驶装置的相应历史时刻的估计位置和估计速度构成的第三组与所述相应历史时刻的融合位置和融合速度构成的第四组之间的误差最小化。
6.根据权利要求1所述的方法,其特征在于,基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻真实位置和真实速度,包括:
确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和,以分别作为所述目标行驶装置在当前时刻的真实位置和真实速度。
7.根据权利要求6所述的方法,其特征在于,确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和,包括:
利用卡尔曼滤波器来确定所述目标行驶装置在当前时刻的所述融合位置和估计位置的第一加权和以及所述目标行驶装置在当前时刻的所述融合速度和估计速度的第二加权和;
其中,在确定第一加权和和第二加权和时的权重取决于所述卡尔曼滤波器的增益。
8.根据权利要求1所述的方法,其特征在于,所述目标行驶装置在所述历史时刻的融合位置和融合速度是通过如下方式获取的:
获取利用第一传感器感测的包括所述历史时刻的历史时间段内的包括目标行驶装置的图像数据,以及利用第二传感器感测的所述历史时间段内的与目标行驶装置的位置和速度相关的感测数据;
将所述历史时间段内的包括目标行驶装置的图像数据与历史时间段内的与目标行驶装置的位置和速度相关的感测数据进行时间同步,以得到时间同步后的图像数据和感测数据;
基于时间同步后的图像数据和感测数据,获取目标行驶装置在所述历史时刻的融合位置和融合速度。
9.根据权利要求1所述的方法,其特征在于,所述目标行驶装置在历史时刻处所在车道处的曲率通过如下方式被获取:
获取利用第一传感器感测的在所述历史时刻处包括所述目标行驶装置所在车道的图像数据;
确定所述所在车道的车道线的像素坐标;
对所述像素坐标进行多项式拟合,以得到拟合曲线;
基于所述拟合曲线,确定所述目标行驶装置在历史时刻处所在车道处的曲线的曲率。
10.根据权利要求5所述的方法,其特征在于,所述第一深度学习网络和第二深度学习网络为长短期记忆神经网络。
11.一种检测目标行驶装置的装置,其特征在于,所述装置包括:
获取模块,被配置成获取利用第一传感器感测的包括目标行驶装置的当前时刻的图像数据,并且获取利用第二传感器感测的与当前时刻目标行驶装置的位置和速度相关的感测数据;
融合模块,被配置成对所述当前时刻的图像数据以及所述当前时刻的感测数据进行数据融合,以得到所述目标行驶装置在当前时刻的融合位置和融合速度;
预测模块,被配置成基于目标行驶装置在当前时刻之前的预设数量的历史时刻处的状态组,预测所述目标行驶装置在当前时刻的估计位置和估计速度,所述目标行驶装置在历史时刻处的状态组包括所述目标行驶装置在所述历史时刻的融合位置、融合速度和所在车道处的曲率;
检测模块,被配置成基于所述目标行驶装置在当前时刻的所述融合位置和融合速度,以及在当前时刻的所述估计位置和估计速度,来检测所述目标行驶装置在当前时刻的真实位置和真实速度。
12.一种计算设备,其特征在于,所述计算设备包括:
存储器,其被配置成存储计算机可执行指令;
处理器,其被配置成当所述计算机可执行指令被处理器执行时执行如权利要求1-10中的任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被执行时,执行如权利要求1-10中的任一项所述的方法。
14.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机可执行指令,计算机可执行指令在被执行时实现根据权利要求1至10中任一项的方法的步骤。
CN202211335907.4A 2022-10-28 2022-10-28 检测目标行驶装置的方法和装置 Pending CN115588184A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211335907.4A CN115588184A (zh) 2022-10-28 2022-10-28 检测目标行驶装置的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211335907.4A CN115588184A (zh) 2022-10-28 2022-10-28 检测目标行驶装置的方法和装置

Publications (1)

Publication Number Publication Date
CN115588184A true CN115588184A (zh) 2023-01-10

Family

ID=84782600

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211335907.4A Pending CN115588184A (zh) 2022-10-28 2022-10-28 检测目标行驶装置的方法和装置

Country Status (1)

Country Link
CN (1) CN115588184A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756692A (zh) * 2023-06-26 2023-09-15 中国长江三峡集团有限公司 风电机组在线监测方法、装置、系统、计算机设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111267860A (zh) * 2018-12-05 2020-06-12 现代自动车株式会社 用于车辆的传感器融合目标预测装置和方法、以及车辆
CN111931368A (zh) * 2020-08-03 2020-11-13 哈尔滨工程大学 一种基于gru粒子滤波的uuv目标状态估计方法
CN112257542A (zh) * 2020-10-15 2021-01-22 东风汽车有限公司 障碍物感知方法、存储介质及电子设备
CN112650220A (zh) * 2020-12-04 2021-04-13 东风汽车集团有限公司 一种车辆自动驾驶方法、车载控制器及系统
CN113327430A (zh) * 2021-05-06 2021-08-31 天地(常州)自动化股份有限公司 基于lstm的井下无轨胶轮车车速预测方法及装置
CN114298163A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于多源信息融合的在线路况检测系统及方法
RU2021101214A (ru) * 2018-06-30 2022-08-01 Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. Способ и устройство для межкадрового предсказания на основе режима слияния
CN115144843A (zh) * 2022-06-28 2022-10-04 海信集团控股股份有限公司 一种物体位置的融合方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2021101214A (ru) * 2018-06-30 2022-08-01 Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. Способ и устройство для межкадрового предсказания на основе режима слияния
CN111267860A (zh) * 2018-12-05 2020-06-12 现代自动车株式会社 用于车辆的传感器融合目标预测装置和方法、以及车辆
CN111931368A (zh) * 2020-08-03 2020-11-13 哈尔滨工程大学 一种基于gru粒子滤波的uuv目标状态估计方法
CN112257542A (zh) * 2020-10-15 2021-01-22 东风汽车有限公司 障碍物感知方法、存储介质及电子设备
CN112650220A (zh) * 2020-12-04 2021-04-13 东风汽车集团有限公司 一种车辆自动驾驶方法、车载控制器及系统
CN113327430A (zh) * 2021-05-06 2021-08-31 天地(常州)自动化股份有限公司 基于lstm的井下无轨胶轮车车速预测方法及装置
CN114298163A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于多源信息融合的在线路况检测系统及方法
CN115144843A (zh) * 2022-06-28 2022-10-04 海信集团控股股份有限公司 一种物体位置的融合方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756692A (zh) * 2023-06-26 2023-09-15 中国长江三峡集团有限公司 风电机组在线监测方法、装置、系统、计算机设备及介质

Similar Documents

Publication Publication Date Title
US10602242B2 (en) Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices
US10671068B1 (en) Shared sensor data across sensor processing pipelines
CN113108791B (zh) 一种导航定位方法及导航定位设备
AU2020356082B2 (en) Vehicle and method for generating map corresponding to three-dimensional space
CN114179832B (zh) 用于自动驾驶车辆的变道方法
CN112455331B (zh) 车辆防撞预警方法、系统及车载计算机设备
JP2021140822A (ja) 車両制御方法、車両制御装置及び車両
CN112673277A (zh) 用于雷达应用的运动辅助泄漏去除
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
CN115588184A (zh) 检测目标行驶装置的方法和装置
CN111103584A (zh) 用于获知车辆的环境中的物体的高度信息的设备和方法
CN111192303B (zh) 一种点云数据处理方法及装置
Rieken et al. Sensor scan timing compensation in environment models for automated road vehicles
CN112815962A (zh) 联合应用传感器参数的标定方法及装置
CN114689074B (zh) 信息处理方法和导航方法
CN115556769A (zh) 障碍物状态量确定方法及装置、电子设备和介质
CN113312403B (zh) 地图获取方法、装置、电子设备及存储介质
CN113850909B (zh) 点云数据处理方法、装置、电子设备及自动驾驶设备
CN116045964A (zh) 高精地图更新方法及装置
US20220198714A1 (en) Camera to camera calibration
CN114817765A (zh) 基于地图的目标航向消歧
CN114281832A (zh) 基于定位结果的高精地图数据更新方法、装置和电子设备
CN114394111A (zh) 用于自动驾驶车辆的变道方法
CN110843792A (zh) 用于输出信息的方法和装置
CN114715155B (zh) 用于控制车辆的方法、装置及自动驾驶车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination