CN114516336A - 一种考虑道路约束条件的车辆轨迹预测方法 - Google Patents

一种考虑道路约束条件的车辆轨迹预测方法 Download PDF

Info

Publication number
CN114516336A
CN114516336A CN202210174098.7A CN202210174098A CN114516336A CN 114516336 A CN114516336 A CN 114516336A CN 202210174098 A CN202210174098 A CN 202210174098A CN 114516336 A CN114516336 A CN 114516336A
Authority
CN
China
Prior art keywords
track
vehicle
road
mask
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210174098.7A
Other languages
English (en)
Other versions
CN114516336B (zh
Inventor
肖友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Changan Automobile Co Ltd
Original Assignee
Chongqing Changan Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Changan Automobile Co Ltd filed Critical Chongqing Changan Automobile Co Ltd
Priority to CN202210174098.7A priority Critical patent/CN114516336B/zh
Publication of CN114516336A publication Critical patent/CN114516336A/zh
Application granted granted Critical
Publication of CN114516336B publication Critical patent/CN114516336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种考虑道路约束条件的车辆轨迹预测方法,包括如下步骤:1)获取车辆及路况原始数据;2)构建神经网络模型的输入特征;3)搭建神经网络模型;4)训练神经网络模型;5)利用训练完成的神经网络模型进行轨迹预测。本发明构建的神经网络模型的损失函数一方面考虑真实预测轨迹与预测结果的偏差损失,另一方面利用可行驶区域地图生成行驶区域概率分布,使得车辆在可行驶区域的预测结果概率高,在不可行驶区域的概率低,利用概率化的鸟瞰图与预测结果相结合形成损失ploss,从而将道路约束以损失函数的形式对模型施加影响,使得预测结果更加贴合真实场景。

Description

一种考虑道路约束条件的车辆轨迹预测方法
技术领域
本发明属于车辆自动驾驶的技术领域,具体涉及一种考虑道路约束条件的车辆轨迹预测方法。
背景技术
自动驾驶的汽车需具备预测周边环境车辆的未来行为和轨迹的能力,以便在动态的交通环境中进行合理的行驶决策和路径规划。但由于道路交通场景的复杂性和驾驶员风格的差异性,环境车辆的行为意图、交互关系以及环境约束难以直接进行观察并用于驾驶决策,因此车辆轨迹预测问题近年来持续成为相关领域研究的重点和难点。
现有的车辆轨迹预测方法主要分为两类:一类是基于模型和规则的传统预测方法,该方法考虑建立车辆的运动学和动力学模型,结合卡尔曼滤波、蒙特卡洛等算法来对车辆轨迹进行预测;另一类是基于数据驱动的预测方法,该方法考虑采用分类和回归的思路,通过对预测目标自身、周车、环境等大量数据的挖掘和机器学习建模,从而实现对车辆意图和轨迹的预测。传统预测方法在短时域(如1~2s)能取得不错的效果,但由于车辆轨迹的高度非线性,该方法难以胜任长时域预测要求;数据驱动的方法通过建立合理的机器学习模型对大量的车辆和环境数据进行训练,在长时域预测上也取得了良好的表现;但现有的预测方法并没有充分考虑道路约束的条件,导致存在预测结果偏离可行驶区域的情况。
中国专利CN201910654009.7,一种基于本车周围车辆轨迹预测安全行驶的方法,通过对预测目标车的行驶轨迹和周围30m车辆的行驶轨迹进行编码,并根据周围车辆的空间相对位置构建社交张量作为模型输入,利用卷积神经网络和GRU等网络架构搭建预测模型,最终解码生成预测轨迹的概率分布参数。该方法没有考虑车辆的运动物理约束和道路环境约束,并且在实际应用中,通过摄像头难以捕捉完整的预测目标周车信息,从而导致预测结果不准确。
中国专利CN202110030043.4,一种基于全局注意力和状态共享的车辆轨迹预测方法,使用具有全局注意力的编解码器LSTM模型的GAS-LED轨迹预测模型,以预测目标及周围车辆的车道号、相对纵向距离信息作为输入特征,采用两个并行计算的GAS-LED预测模型来并行输出车辆变道行为和纵向相对距离。该方法在输入特征上考虑不够全面,同时采用单模态的轨迹预测输出,在不确定性较大的场景下预测效果较差。
发明内容
针对现有技术的上述不足,本发明要解决的技术问题是提供一种考虑道路约束条件的车辆轨迹预测方法,解决现有预测方法未充分考虑道路约束而导致车辆轨迹预测结果偏离可行驶区域问题,取得提高预测精准性、自动驾驶安全性的效果。
为解决上述技术问题,本发明采用如下技术方案:
一种考虑道路约束条件的车辆轨迹预测方法,包括如下步骤:
1)获取车辆及路况原始数据;
2)构建神经网络模型的输入特征;
3)搭建神经网络模型;
4)训练神经网络模型;
5)利用训练完成的神经网络模型进行轨迹预测。
进一步地,步骤1)包括如下子步骤:
11)车载软件获取目标车辆和本车的状态数据,状态数据包括速度数据、加速度数据和地图数据;
12)车载摄像头、雷达和GPS获取目标车辆的位置、周围车辆的位置和道路环境信息,目标车辆的位置、周围车辆的位置和道路环境信息构成车辆行驶的场景信息。
进一步地,步骤2)包括如下子步骤:
21)根据目标车辆和周围车辆的位置及速度数据,构建对应车辆的行驶轨迹,行驶轨迹包括历史轨迹和未来轨迹;
22)根据道路环境信息通过感知融合算法生成鸟瞰图并区分可行驶区域,根据可行驶区域构建在鸟瞰图上的轨迹概率分布图。
进一步地,步骤3)所述神经网络模型包括编码器和解码器;
编码器包括轨迹编码模块和车-车注意力模块,编码器用于对目标车辆的行驶轨迹及目标车辆与周围车辆的交互关系进行编码;解码器包括场景信息提取模块、车-场景注意力模块和解码模块,解码器用于根据场景信息对编码器编码后的数据进行解码。
进一步地,步骤4)的详细操作为:根据基于真实轨迹和道路约束的损失函数,利用梯度下降法对神经网络模型进行训练。
进一步地,步骤6)之前还需要利用预先获取的测试数据对训练完成后的神经网络模型进行验证和测试。
进一步地,步骤22)中根据可行驶区域构建在鸟瞰图上的轨迹概率分布图的详细操作如下:
首先,根据鸟瞰图生成与鸟瞰图尺寸相同的可行驶区域图像掩膜mask;将可行驶区域的像素点对应的mask值设为1,不可行驶区域对应值设为0,并对mask进行取反操作得到inv_mask;定义mask和inv_mask中值为1的像素点为前景点,值为0的像素点为背景点;
然后,在mask和inv_mask上依次计算每个像素点与最近可行驶区域的像素点的距离dmin,得到BEV上的轨迹概率分布图。
进一步地,距离dmin的计算公式如下:
Figure BDA0003519717870000031
其中,ix、iy分别指待计算像素点的横、纵索引,bx、by分别指离待计算像素点最近的背景点的横、纵索引,当inv_mask中值为1时,dmin符号取负,b为inv_mask中的背景点,当inv_mask中值为0时,dmin符号取正,b为mask中的背景点。
进一步地,步骤4)中基于真实轨迹和道路约束的损失函数包括两部分,基于真实轨迹和道路约束的损失函数loss=ploss+αqloss;
其中,qloss为实预测轨迹与预测轨迹的偏差损失,ploss为轨迹点在轨迹概率分布图上对应位置的损耗,α为权重系数。
进一步地,ploss的值通过双线性插值法进行确定,计算公式如下:
ploss=q11(x2-x)(y2-y)+q21(x-x1)(y2-y)+q12(x2-x)(y-y1)+q22(x-x1)(y-y1)
其中,q11、q21、q12和q22为轨迹点在轨迹概率分布图上周围四个像素点上的概率值,x为轨迹点的横坐标,y为轨迹点的纵坐标,x1、x2、y1和y2为轨迹点周围四个像素点的坐标值;
采用平均位置误差作为qloss,计算公式如下:
Figure BDA0003519717870000032
其中,N为轨迹点的个数,si为真实轨迹点位置,s′i为对应预测轨迹点位置。
相比现有技术,本发明的有益效果如下:
1、本发明构建的神经网络模型的损失函数一方面考虑真实预测轨迹与预测结果的偏差损失,另一方面利用可行驶区域地图生成行驶区域概率分布,使得车辆在可行驶区域的预测结果概率高,在不可行驶区域的概率低,利用概率化的鸟瞰图与预测结果相结合形成损失ploss,从而将道路约束以损失函数的形式对模型施加影响,使得预测结果更加贴合真实场景。
2、本发明根据鸟瞰图、可行驶区域图像掩膜和相应计算公式构建轨迹概率分布图,使轨迹概率分布图中离可行驶区域越远的位置概率值越小,离不可行驶区域越远的位置概率越大,从而更好的表达道路约束对车辆可行驶区域的影响。
附图说明
图1为实施例的一种考虑道路约束条件的车辆轨迹预测方法的流程图;
图2为实施例所述轨迹概率分布图的示例图;
具体实施方式
下面结合附图对本发明的具体实施方式作进一步的详细说明。
实施例:
请参见图1,一种考虑道路约束条件的车辆轨迹预测方法,包括如下步骤:
1)获取车辆及路况原始数据;包括如下子步骤:
11)车载软件获取目标车辆和本车的状态数据,状态数据包括速度数据、加速度数据和地图数据;
12)车载摄像头、雷达和GPS获取目标车辆的位置、周围车辆的位置和道路环境信息,目标车辆的位置、周围车辆的位置和道路环境信息构成车辆行驶的场景信息。
2)构建神经网络模型的输入特征;包括如下子步骤:
21)根据目标车辆和周围车辆的位置及速度数据,构建对应车辆的行驶轨迹,行驶轨迹包括历史轨迹和未来轨迹;
22)根据道路环境信息通过感知融合算法生成鸟瞰图(BEV)并区分可行驶区域,根据可行驶区域构建在鸟瞰图上的轨迹概率分布图;所述输入特征包括鸟瞰图、车辆的行驶轨迹和可行驶区域;
轨迹概率分布图的示例可参见图2,颜色越浅代表轨迹概率越高,从图2中可以清晰的看出道路约束对轨迹概率的影响。
其中,根据可行驶区域构建在鸟瞰图上的轨迹概率分布图的详细操作如下:
首先,根据鸟瞰图生成与鸟瞰图尺寸相同的可行驶区域图像掩膜(mask);将可行驶区域的像素点对应的mask值设为1,不可行驶区域对应值设为0,并对mask进行取反操作得到inv_mask;定义mask和inv_mask中值为1的像素点为前景点,值为0的像素点为背景点;
然后,在mask和inv_mask上依次计算每个像素点与最近可行驶区域的像素点的距离dmin,得到BEV上的轨迹概率分布图;
其中,距离dmin的计算公式如下:
Figure BDA0003519717870000041
ix、iy分别指待计算像素点的横、纵索引,bx、by分别指离待计算像素点最近的背景点的横、纵索引,当inv_mask中值为1时,dmin符号取负,b为inv_mask中的背景点,当inv_mask中值为0时,dmin符号取正,b为mask中的背景点;
这样,通过上述手段构建的轨迹概率分布图使得离可行驶区域越远的位置概率值越小,离不可行驶区域越远的位置概率越大,可将道路约束显式的以矩阵的形式进行表达。
3)搭建神经网络模型;所述神经网络模型包括编码器和解码器;
其中,编码器包括轨迹编码模块和车-车注意力模块,编码器用于对目标车辆的行驶轨迹及目标车辆与周围车辆的交互关系进行编码;解码器包括场景信息提取模块、车-场景注意力模块和解码模块,解码器用于根据场景信息对编码器编码后的数据进行解码;本实施例中,编码器采用Cross-agent注意力机制来对目标车辆与周围车辆的交互关系进行编码,采用Agent-to-scene注意力机制来对目标车辆与场景信息的交互关系进行编码。
4)训练神经网络模型;具体地,根据基于真实轨迹和道路约束的损失函数,利用梯度下降法对神经网络模型进行训练;
其中,基于真实轨迹和道路约束的损失函数loss=ploss+αqloss;qloss为实预测轨迹与预测轨迹的偏差损失,ploss为轨迹点在步骤22)构建的轨迹概率分布图上对应位置的损耗,α为权重系数;
ploss的值通过双线性插值法进行确定,计算公式如下:
ploss=q11(x2-x)(y2-y)+q21(x-x1)(y2-y)+q12(x2-x)(y-y1)+q22(x-x1)(y-y1);
其中,q11、q21、q12和q22为轨迹点在轨迹概率分布图上周围四个像素点上的概率值,x为轨迹点的横坐标,y为轨迹点的纵坐标,x1、x2、y1和y2为轨迹点周围四个像素点的坐标值;
qloss采用平均位置误差,计算公式如下:
Figure BDA0003519717870000051
其中,N为轨迹点的个数,si为真实轨迹点位置,s′i为对应预测轨迹点位置;
这样,神经网络模型的损失函数一方面考虑真实预测轨迹与预测结果的偏差损失,另一方面利用可行驶区域地图生成行驶区域概率分布,使得车辆在可行驶区域的预测结果概率高,在不可行驶区域的概率低,利用概率化的鸟瞰图与预测结果相结合形成损失ploss,从而将道路约束以损失函数的形式对模型施加影响,使得预测结果更加贴合真实场景。
5)利用训练完成的神经网络模型进行轨迹预测,神经网络模型输出为多条可能的预测轨迹以及对应的概率参数;
实施时,在利用训练完成的神经网络模型进行轨迹预测之前,还需要先利用预先获取的测试数据对训练完成后的神经网络模型进行验证和测试。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:包括如下步骤:
1)获取车辆及路况原始数据;
2)构建神经网络模型的输入特征;
3)搭建神经网络模型;
4)训练神经网络模型;
5)利用训练完成的神经网络模型进行轨迹预测。
2.根据权利要求1所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤1)包括如下子步骤:
11)车载软件获取目标车辆和本车的状态数据,状态数据包括速度数据、加速度数据和地图数据;
12)车载摄像头、雷达和GPS获取目标车辆的位置、周围车辆的位置和道路环境信息,目标车辆的位置、周围车辆的位置和道路环境信息构成车辆行驶的场景信息。
3.根据权利要求2所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤2)包括如下子步骤:
21)根据目标车辆和周围车辆的位置及速度数据,构建对应车辆的行驶轨迹,行驶轨迹包括历史轨迹和未来轨迹;
22)根据道路环境信息通过感知融合算法生成鸟瞰图并区分可行驶区域,根据可行驶区域构建在鸟瞰图上的轨迹概率分布图。
4.根据权利要求3所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤3)所述神经网络模型包括编码器和解码器;
编码器包括轨迹编码模块和车-车注意力模块,编码器用于对目标车辆的行驶轨迹及目标车辆与周围车辆的交互关系进行编码;解码器包括场景信息提取模块、车-场景注意力模块和解码模块,解码器用于根据场景信息对编码器编码后的数据进行解码。
5.根据权利要求4所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤4)的详细操作为:根据基于真实轨迹和道路约束的损失函数,利用梯度下降法对神经网络模型进行训练。
6.根据权利要求5所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤6)之前还需要利用预先获取的测试数据对训练完成后的神经网络模型进行验证和测试。
7.根据权利要求6所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤22)中根据可行驶区域构建在鸟瞰图上的轨迹概率分布图的详细操作如下:
首先,根据鸟瞰图生成与鸟瞰图尺寸相同的可行驶区域图像掩膜mask;将可行驶区域的像素点对应的mask值设为1,不可行驶区域对应值设为0,并对mask进行取反操作得到inv_mask;定义mask和inv_mask中值为1的像素点为前景点,值为0的像素点为背景点;
然后,在mask和inv_mask上依次计算每个像素点与最近可行驶区域的像素点的距离dmin,得到BEV上的轨迹概率分布图。
8.根据权利要求7所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:距离dmin的计算公式如下:
Figure FDA0003519717860000021
其中,ix、iy分别指待计算像素点的横、纵索引,bx、by分别指离待计算像素点最近的背景点的横、纵索引,当inv_mask中值为1时,dmin符号取负,b为inv_mask中的背景点,当inv_mask中值为0时,dmin符号取正,b为mask中的背景点。
9.根据权利要求8所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:步骤4)中基于真实轨迹和道路约束的损失函数包括两部分,基于真实轨迹和道路约束的损失函数loss=ploss+αqloss;
其中,qloss为实预测轨迹与预测轨迹的偏差损失,ploss为轨迹点在轨迹概率分布图上对应位置的损耗,α为权重系数。
10.根据权利要求9所述一种考虑道路约束条件的车辆轨迹预测方法,其特征在于:ploss的值通过双线性插值法进行确定,计算公式如下:
ploss=q11(x2-x)(y2-y)+q21(x-x1)(y2-y)+q12(x2-x)(y-y1)+q22(x-x1)(y-y1)
其中,q11、q21、q12和q22为轨迹点在轨迹概率分布图上周围四个像素点上的概率值,x为轨迹点的横坐标,y为轨迹点的纵坐标,x1、x2、y1和y2为轨迹点周围四个像素点的坐标值;
采用平均位置误差作为qloss,计算公式如下:
Figure FDA0003519717860000022
其中,N为轨迹点的个数,si为真实轨迹点位置,si为对应预测轨迹点位置。
CN202210174098.7A 2022-02-24 2022-02-24 一种考虑道路约束条件的车辆轨迹预测方法 Active CN114516336B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210174098.7A CN114516336B (zh) 2022-02-24 2022-02-24 一种考虑道路约束条件的车辆轨迹预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210174098.7A CN114516336B (zh) 2022-02-24 2022-02-24 一种考虑道路约束条件的车辆轨迹预测方法

Publications (2)

Publication Number Publication Date
CN114516336A true CN114516336A (zh) 2022-05-20
CN114516336B CN114516336B (zh) 2023-09-26

Family

ID=81599741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210174098.7A Active CN114516336B (zh) 2022-02-24 2022-02-24 一种考虑道路约束条件的车辆轨迹预测方法

Country Status (1)

Country Link
CN (1) CN114516336B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114925069A (zh) * 2022-05-30 2022-08-19 重庆长安汽车股份有限公司 大数据gps离线解析方法
CN115171428A (zh) * 2022-06-24 2022-10-11 重庆长安汽车股份有限公司 一种基于视觉感知的车辆切入预警方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN207425119U (zh) * 2017-09-21 2018-05-29 宝沃汽车(中国)有限公司 确定跟随车辆的装置和车载终端以及车辆
CN111942407A (zh) * 2020-07-31 2020-11-17 商汤集团有限公司 轨迹预测方法、装置、设备及存储介质
US20210122364A1 (en) * 2019-10-29 2021-04-29 Lg Electronics Inc. Vehicle collision avoidance apparatus and method
CN112793564A (zh) * 2021-02-07 2021-05-14 杨东杰 一种基于全景鸟瞰图和深度学习的自主泊车辅助系统
US20210295171A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine applications
CN114022847A (zh) * 2021-11-23 2022-02-08 清华大学 一种智能体轨迹预测方法、系统、设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN207425119U (zh) * 2017-09-21 2018-05-29 宝沃汽车(中国)有限公司 确定跟随车辆的装置和车载终端以及车辆
US20210122364A1 (en) * 2019-10-29 2021-04-29 Lg Electronics Inc. Vehicle collision avoidance apparatus and method
US20210295171A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine applications
CN111942407A (zh) * 2020-07-31 2020-11-17 商汤集团有限公司 轨迹预测方法、装置、设备及存储介质
WO2022022721A1 (zh) * 2020-07-31 2022-02-03 商汤集团有限公司 轨迹预测方法、装置、设备、存储介质及程序
CN112793564A (zh) * 2021-02-07 2021-05-14 杨东杰 一种基于全景鸟瞰图和深度学习的自主泊车辅助系统
CN114022847A (zh) * 2021-11-23 2022-02-08 清华大学 一种智能体轨迹预测方法、系统、设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114925069A (zh) * 2022-05-30 2022-08-19 重庆长安汽车股份有限公司 大数据gps离线解析方法
CN115171428A (zh) * 2022-06-24 2022-10-11 重庆长安汽车股份有限公司 一种基于视觉感知的车辆切入预警方法
CN115171428B (zh) * 2022-06-24 2023-06-30 重庆长安汽车股份有限公司 一种基于视觉感知的车辆切入预警方法

Also Published As

Publication number Publication date
CN114516336B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
CN110796856B (zh) 车辆变道意图预测方法及变道意图预测网络的训练方法
EP4152204A1 (en) Lane line detection method, and related apparatus
US12037027B2 (en) Systems and methods for generating synthetic motion predictions
CN113954864A (zh) 一种融合周边车辆交互信息的智能汽车轨迹预测系统及方法
US20220261601A1 (en) Multiple Stage Image Based Object Detection and Recognition
CN113044064B (zh) 基于元强化学习的车辆自适应的自动驾驶决策方法及系统
CN114516336A (zh) 一种考虑道路约束条件的车辆轨迹预测方法
CN113076599A (zh) 一种基于长短时记忆网络的多模态车辆轨迹预测方法
Kim et al. Toward explainable and advisable model for self‐driving cars
KR20220136006A (ko) 자율 주행 차량의 성능을 평가하기 위한 테스트 시나리오의 선택
CN114283576B (zh) 一种车辆意图预测方法及相关装置
Khalil et al. Exploiting multi-modal fusion for urban autonomous driving using latent deep reinforcement learning
CN115146873A (zh) 一种车辆轨迹预测方法及系统
CN117521389A (zh) 一种基于车路协同感知仿真平台的车辆感知测试方法
Chen et al. Data-driven Traffic Simulation: A Comprehensive Review
CN111613052B (zh) 一种交通状况确定方法、装置、电子设备及存储介质
US20220196839A1 (en) Procedurally generated three-dimensional environment for use in autonomous vehicle simulations
CN114954498A (zh) 基于模仿学习初始化的强化学习换道行为规划方法及系统
Zhang et al. SAPI: Surroundings-Aware Vehicle Trajectory Prediction at Intersections
Zheng Development, Validation, and Integration of AI-Driven Computer Vision System and Digital-Twin System for Traffic Safety Dignostics
US20240166236A1 (en) Filtering autonomous driving simulation scenarios
US11790604B2 (en) Mapping data to generate simulation road paint geometry
CN115081186B (zh) 一种支持数据驱动的驾驶行为仿真系统及其仿真方法
US20240166222A1 (en) Measuring simulation realism
US20240168169A1 (en) Attributing sensor realism gaps to sensor modeling parameters

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant