CN116558540B - 模型训练方法和装置、轨迹生成方法和装置 - Google Patents

模型训练方法和装置、轨迹生成方法和装置 Download PDF

Info

Publication number
CN116558540B
CN116558540B CN202310842165.2A CN202310842165A CN116558540B CN 116558540 B CN116558540 B CN 116558540B CN 202310842165 A CN202310842165 A CN 202310842165A CN 116558540 B CN116558540 B CN 116558540B
Authority
CN
China
Prior art keywords
track
traffic participant
target
vehicle
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310842165.2A
Other languages
English (en)
Other versions
CN116558540A (zh
Inventor
陈昌浩
李勇强
吕强
苗乾坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neolix Technologies Co Ltd
Original Assignee
Neolix Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neolix Technologies Co Ltd filed Critical Neolix Technologies Co Ltd
Priority to CN202310842165.2A priority Critical patent/CN116558540B/zh
Publication of CN116558540A publication Critical patent/CN116558540A/zh
Application granted granted Critical
Publication of CN116558540B publication Critical patent/CN116558540B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Primary Health Care (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了模型训练方法和装置、轨迹生成方法和装置,涉及自动驾驶技术领域。该方法包括:分别将自车的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下;分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征;遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹;基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于损失函数的损失值,调整神经网络模型的参数。该实施方式能够提高轨迹生成效率。

Description

模型训练方法和装置、轨迹生成方法和装置
技术领域
本发明涉及自动驾驶技术领域,尤其涉及一种模型训练方法和装置、轨迹生成方法和装置。
背景技术
在轨迹生成过程中,需要考虑自车与环境中其他交通参与者的交互,当环境中的交通参与者数量较多时,需要从众多交互策略中求解最优轨迹。
现有方法通常对包含不同交互策略的搜索树进行搜索,以得到最优轨迹。但是,该方法耗时较长。
发明内容
有鉴于此,本发明实施例提供一种模型训练方法和装置、轨迹生成方法和装置,能够提高轨迹生成效率。
第一方面,本发明实施例提供了一种模型训练方法,包括:
获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;
分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
从多个所述交通参与者中选择目标交通参与者,遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;
基于所述损失函数的损失值,调整所述神经网络模型的参数。
第二方面,本发明实施例提供了一种轨迹生成方法,包括:
获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;
分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
从多个所述交通参与者中选择目标交通参与者,遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;
基于所述损失函数的损失值,调整所述神经网络模型的参数;
基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
第三方面,本发明实施例提供了一种模型训练装置,包括:
坐标转换模块,配置为获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
特征提取模块,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
遮挡模块,配置为从多个所述交通参与者中选择目标交通参与者,遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块,配置为将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于所述损失函数的损失值,调整所述神经网络模型的参数;
其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹。
第四方面,本发明实施例提供了一种轨迹生成装置,包括:
坐标转换模块,配置为获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
特征提取模块,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
遮挡模块,配置为从多个所述交通参与者中选择目标交通参与者,遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块,配置为将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于所述损失函数的损失值,调整所述神经网络模型的参数;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
预测模块,配置为基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
第五方面,本发明实施例提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述任一实施例所述的方法。
第六方面,本发明实施例提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述任一实施例所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:通过遮挡,得到目标轨迹特征,能够增强生成轨迹的鲁棒性。将自车的轨迹等物理世界中的点转换至相对坐标系下,使该方法能够在不同的场景下迁移使用,如在不同的路段使用。将目标轨迹特征以及其他交通参与者的轨迹特征等输入神经网络模型,训练神经网络模型通过编码和解码得到与真实轨迹相近的解码轨迹,与现有技术相比,简化了轨迹生成流程,提高轨迹生成效率。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是本发明的一个实施例提供的一种模型训练方法的流程图;
图2是本发明的一个实施例提供的一种神经网络模型的示意图;
图3是本发明的一个实施例提供的一种轨迹生成方法的流程图;
图4是本发明的另一个实施例提供的一种轨迹生成方法的流程图;
图5是本发明的一个实施例提供的一种模型训练装置的示意图;
图6是本发明的一个实施例提供的一种轨迹生成装置的示意图;
图7是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如图1所示,本发明实施例提供了一种模型训练方法,包括:
步骤101:获取自车的轨迹、自车所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征。
其中,自车指的是自动驾驶车辆。基于定位数据确定自车的轨迹;基于感知数据确定自车所在场景中交通参与者的真实轨迹;基于交通参与者当前的位姿和高精地图,确定与交通参与者相关的地图特征,地图特征可以为交通参与者所在的车道线信息等。
步骤102:分别将自车的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下。
其中,相对坐标系的原点位于自车的轨迹上。
为了使该方法在不同的场景中迁移使用,本发明实施例将自车的轨迹等物理世界的点的坐标转换至以自车的轨迹为原点的相对坐标系下。
步骤103:分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征。
自车的轨迹特征可以包括自车的位置、朝向等,类似地,交通参与者的轨迹特征可以包括交通参与者的位置、朝向等。
步骤104:从多个交通参与者中选择目标交通参与者,遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征。
本发明实施例采用动态mask技术,对目标交通参与者的轨迹特征进行遮挡。对同一个目标交通参与者可以进行多种策略的遮挡,以用于不同场景下的轨迹生成。例如,按照时间由远及近的顺序,遮挡前面一部分轨迹特征,适用于鬼探头场景下的轨迹生成,遮挡后面一部分轨迹特征,适用于轨迹预测,遮挡开始和结束部分轨迹特征,适用于轨迹规划,随机遮挡部分轨迹特征,适用于轨迹补全。本发明实施例可以对多个不同目标交通参与者的轨迹特征进行遮挡。
步骤105:将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹。
其中,神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对交互特征解码得到目标交通参与者的解码轨迹。
步骤106:基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值。
损失函数的损失值用于衡量解码轨迹和真实轨迹的差异程度。
步骤107:基于损失函数的损失值,调整神经网络模型的参数。
通过遮挡,得到目标轨迹特征,能够增强生成轨迹的鲁棒性。将自车的轨迹等物理世界中的点转换至相对坐标系下,使该方法能够在不同的场景下迁移使用,如在不同的路段使用。将目标轨迹特征以及其他交通参与者的轨迹特征等输入神经网络模型,训练神经网络模型通过编码和解码得到与真实轨迹相近的解码轨迹。基于训练好的神经网络模型进行轨迹生成,能够简化轨迹生成流程,提高轨迹生成效率。
在本发明的一个实施例中,相对坐标系的原点,为自车的轨迹中,按照时间由远及近的顺序,最后一帧轨迹点;
相对坐标系的X轴,为自车的轨迹中,按照时间由远及近的顺序,最后一帧轨迹点指向第一帧轨迹点的朝向;
相对坐标系的Y轴,为当左手食指指向自车的朝向时,左手拇指的朝向。
本发明实施例基于自车的轨迹建立相对坐标系,能够在不同路段场景中使用。
在本发明的一个实施例中,分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征,包括:
针对当前轨迹:计算相邻两帧轨迹数据的均值和差值,拼接均值和差值,得到当前轨迹的轨迹特征;其中,当前轨迹包括:自车的轨迹和交通参与者的真实轨迹。
本发明实施例通过相邻两帧轨迹数据的均值,提取自车或交通参与者的位置特征,基于相邻两帧轨迹数据的差值,提取自车或交通参与者的朝向特征,使得后续神经网络模型能够在还原轨迹时同时考虑位置特征和朝向特征,提高生成轨迹的准确性。拼接后的均值和差值可以作为轨迹特征的不同维度,轨迹数据可以包括轨迹点的坐标。在实际应用场景中,计算相邻两帧轨迹点的坐标中同一维度的均值和差值。当然,也可以仅计算相邻两帧轨迹数据的均值作为轨迹特征。对于自车的轨迹和交通参与者的真实轨迹的处理过程是相同的,本发明实施例不再赘述。
在本发明的一个实施例中,遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征包括:
对于目标数量的连续帧的轨迹特征,使80%的轨迹特征空缺、10%的轨迹特征替换为随机生成的特征、10%的轨迹特征保持不变,得到所述目标轨迹特征。
也就是说,该方式遮挡90%的帧,只有10%的帧为真实轨迹。
例如,100个连续帧的轨迹特征,其中,80帧中的轨迹特征为空缺状态,10帧中的轨迹特征替换为随机生成的特征,10帧中的轨迹特征为其真实轨迹。
本发明实施例提供的遮挡方式,能够提高模型预测的准确度。当然,在实际应用场景中,可以调整为其他遮挡方式,如,仅遮挡70%的帧。
如图2所示,在本发明的一个实施例中,神经网络模型包括:Embedding层201、多层感知器202、矢量网络203、自注意力模型204、最大池化层205和映射层206。
将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹,包括:
将目标轨迹特征输入Embedding层,得到目标轨迹特征向量;
将目标轨迹特征向量和目标轨迹特征的位置编码向量相加之后输入多层感知器,得到目标轨迹点特征向量;
将其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入矢量网络,得到场景特征向量;
将目标轨迹点特征向量和场景特征向量输入自注意力模型,得到目标交通参与者与场景的交互特征;
将交互特征输入最大池化层,得到解码轨迹特征向量;
将解码轨迹特征向量和位置编码向量相加之后输入映射层,得到目标交通参与者的解码轨迹。
本发明实施例通过多层感知器对目标轨迹特征向量进行编码,通过矢量网络对场景的相关特征进行编码,并利用自注意力机制得到目标交通参与者与场景的交互特征,通过最大池化层和映射层将交互特征解码为解码轨迹。交互特征能够表征目标交通参与者的特征与场景的特征的相关性。
本发明实施例基于编码和自注意力机制学习目标交通参与者的特征与场景的特征的相关性,基于解码对遮挡轨迹进行预测,无需查询交互策略,能够提高解码轨迹的生成效率。
在本发明的一个实施例中,基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值,包括:
基于目标交通参与者在各帧中的解码轨迹和真实轨迹,计算全局损失值;
基于目标交通参与者在被遮挡的帧中的解码轨迹和真实轨迹,计算遮挡损失值;
基于全局损失值和遮挡损失值,计算损失函数的损失值。
损失函数如式(1)所示。
其中,用于表征损失函数的损失值,/>用于表征总帧数,/>用于表征目标交通参与者的数量,/>用于表征目标交通参与者i在第j帧中的真实轨迹,/>表征目标交通参与者i在第j帧中的解码轨迹,/>用于表征被遮挡的帧数,/>用于表征被遮挡的帧的真实轨迹,/>用于表征被遮挡的帧的解码轨迹,/>用于表征被遮挡的帧。
全局损失值考虑各帧中解码轨迹与真实轨迹的差异,包括被遮挡的帧和没有被遮挡的帧,而遮挡损失值仅考虑被遮挡的帧中解码轨迹与真实轨迹的差异程度,本发明实施例将两部分损失值结合,不仅能够考虑各帧中的轨迹,还增加被遮挡的帧的权重,提高模型训练效果。当然,在实际应用场景中,可以仅考虑全局损失值或遮挡损失值。
在本发明的一个实施例中,还可以为全局损失值和遮挡损失值分别设置权重,损失函数如式(2)所示。
其中,用于表征全局损失权重,/>用于表征遮挡损失权重。
本发明实施例能够区分全局损失值和遮挡损失值的重要程度,满足不同场景的需求。
在本发明的一个实施例中,损失函数还可以为式(3)所示。
其中,用于表征与目标交通参与者i在第j帧中的真实轨迹对应的权重,由目标交通参与者i在第j帧中的真实轨迹与对应时刻自车的距离确定,与自车的距离越小,/>越大;/>用于表征被遮挡的帧的真实轨迹对应的权重,由被遮挡的帧的真实轨迹与对应时刻自车的距离确定,与自车的距离越小,/>越大。
通过本发明实施例,可以使距离自车越近的交通参与者具有更高的权重,提高距离自车更近的交通参与者的重要程度,提高模型训练的准确性。在实际应用场景中,还可以根据与自车的距离所在的距离区间,确定上述两种权重,例如,真实轨迹与自车的距离在小于10米、10-50米之间、50-200米之间、大于200米,分别设置不同的权重。
如图3所示,本发明实施例提供了一种轨迹生成方法,包括:
步骤301:获取自车的轨迹、自车所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征。
步骤302:分别将自车的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下。
其中,相对坐标系的原点位于自车的轨迹上。
步骤303:分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征。
步骤304:从多个交通参与者中选择目标交通参与者,遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征。
步骤305:将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹。
其中,神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对交互特征解码得到目标交通参与者的解码轨迹。
步骤306:基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值。
步骤307:基于损失函数的损失值,调整神经网络模型的参数。
步骤308:基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
模型训练过程同上述实施例,此处不再赘述。参考训练过程,可以通过坐标转换和特征提取,得到存在遮挡的当前交通参与者的的轨迹特征,将当前交通参与者的轨迹特征、当前交通参与者所在场景中其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入训练好的神经网络模型,得到无遮挡的当前交通参与者的轨迹。
本发明实施例通过遮挡,得到目标轨迹特征,能够增强生成轨迹的鲁棒性。将自车的轨迹等物理世界中的点转换至相对坐标系下,使该方法能够在不同的场景下迁移使用,如在不同的路段使用。将目标轨迹特征以及其他交通参与者的轨迹特征等输入神经网络模型,训练神经网络模型通过编码和解码得到与真实轨迹相近的解码轨迹,与现有技术相比,简化了轨迹生成流程,提高轨迹生成效率。
如图4所示,本发明实施例提供了一种轨迹生成方法,包括:
步骤401:获取自车1的轨迹、自车1所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征。
步骤402:分别将自车1的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下。
其中,相对坐标系的原点位于自车1的轨迹上。
步骤403:分别从经过转换的自车1的轨迹和交通参与者的真实轨迹中提取特征,得到自车1的轨迹特征和交通参与者的轨迹特征。
步骤404:从多个交通参与者中选择目标交通参与者,遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征。
步骤405:将目标轨迹特征、其他交通参与者的轨迹特征、自车1的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹。
步骤406:基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值。
步骤407:基于损失函数的损失值,调整神经网络模型的参数。
步骤408:获取自车2的轨迹、自车2所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征。
步骤409:分别将自车2的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下。
步骤410:分别从经过转换的自车2的轨迹和交通参与者的真实轨迹中提取特征,得到自车2的轨迹特征和交通参与者的轨迹特征。
步骤411:将交通参与者1的轨迹特征、其他交通参与者的轨迹特征、自车2的轨迹特征和经过转换的地图特征输入训练好的神经网络模型,得到交通参与者1的解码轨迹。
该步骤中其他交通参与者的轨迹特征以及地图特征,指的是自车2所在场景中。
交通参与者1的真实轨迹为存在遮挡的轨迹,其解码轨迹为还原得到的无遮挡的轨迹。
本发明实施例基于神经网络模型学习目标交通参与者的轨迹特征与场景特征的相关性,还原被遮挡的轨迹,能够提高轨迹生成效率,适用于轨迹预测、轨迹规划等场景中。
如图5所示,本发明实施例提供了一种模型训练装置,包括:
坐标转换模块501,配置为获取自车的轨迹、自车所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征;分别将自车的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下;其中,相对坐标系的原点位于自车的轨迹上;
特征提取模块502,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征;
遮挡模块503,配置为从多个交通参与者中选择目标交通参与者,遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块504,配置为将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹;基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于损失函数的损失值,调整神经网络模型的参数;
其中,神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对交互特征解码得到目标交通参与者的解码轨迹。
在本发明的一个实施例中,相对坐标系的原点,为自车的轨迹中,按照时间由远及近的顺序,最后一帧轨迹点;
相对坐标系的X轴,为自车的轨迹中,按照时间由远及近的顺序,最后一帧轨迹点指向第一帧轨迹点的朝向;
相对坐标系的Y轴,为当左手食指指向自车的朝向时,左手拇指的朝向。
在本发明的一个实施例中,特征提取模块502,配置为针对当前轨迹:计算相邻两帧轨迹数据的均值和差值,拼接均值和差值,得到当前轨迹的轨迹特征;其中,当前轨迹包括:自车的轨迹和交通参与者的真实轨迹。
在本发明的一个实施例中,神经网络模型包括:Embedding层、多层感知器、矢量网络、自注意力模型、最大池化层和映射层;
训练模块504,配置为将目标轨迹特征输入Embedding层,得到目标轨迹特征向量;将目标轨迹特征向量和目标轨迹特征的位置编码向量相加之后输入多层感知器,得到目标轨迹点特征向量;将其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入矢量网络,得到场景特征向量;将目标轨迹点特征向量和场景特征向量输入自注意力模型,得到目标交通参与者与场景的交互特征;将交互特征输入最大池化层,得到解码轨迹特征向量;将解码轨迹特征向量和位置编码向量相加之后输入映射层,得到目标交通参与者的解码轨迹。
在本发明的一个实施例中,训练模块504,配置为基于目标交通参与者在各帧中的解码轨迹和真实轨迹,计算全局损失值;基于目标交通参与者在被遮挡的帧中的解码轨迹和真实轨迹,计算遮挡损失值;基于全局损失值和遮挡损失值,计算损失函数的损失值。
如图6所示,本发明实施例提供了一种轨迹生成装置,包括:
坐标转换模块601,配置为获取自车的轨迹、自车所在场景中交通参与者的真实轨迹和与交通参与者相关的地图特征;分别将自车的轨迹、交通参与者的真实轨迹和地图特征转换至相对坐标系下;其中,相对坐标系的原点位于自车的轨迹上;
特征提取模块602,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到自车的轨迹特征和交通参与者的轨迹特征;
遮挡模块603,配置为从多个交通参与者中选择目标交通参与者,遮挡目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块604,配置为将目标轨迹特征、其他交通参与者的轨迹特征、自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到目标交通参与者的解码轨迹;基于目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于损失函数的损失值,调整神经网络模型的参数;其中,神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对交互特征解码得到目标交通参与者的解码轨迹;
预测模块605,配置为基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
本发明实施例提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例的方法。
本发明实施例提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如上述任一实施例所述的方法。
下面参考图7,其示出了适于用来实现本发明实施例的终端设备的计算机系统700的结构示意图。图7示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括发送模块、获取模块、确定模块和第一处理模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,发送模块还可以被描述为“向所连接的服务端发送图片获取请求的模块”。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (12)

1.一种模型训练方法,其特征在于,包括:
获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;
分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
从多个所述交通参与者中选择目标交通参与者,基于动态mask遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;
基于所述损失函数的损失值,调整所述神经网络模型的参数。
2.如权利要求1所述的方法,其特征在于,
基于动态mask遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征包括:
对于目标数量的连续帧的轨迹特征,使80%的轨迹特征空缺、10%的轨迹特征替换为随机生成的特征、10%的轨迹特征保持不变,得到所述目标轨迹特征。
3.如权利要求1所述的方法,其特征在于,
分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征,包括:
针对当前轨迹:计算相邻两帧轨迹数据的均值和差值,拼接所述均值和差值,得到所述当前轨迹的轨迹特征;其中,所述当前轨迹包括:所述自车的轨迹和所述交通参与者的真实轨迹。
4.如权利要求1所述的方法,其特征在于,
所述神经网络模型包括:Embedding层、多层感知器、矢量网络、自注意力模型、最大池化层和映射层;
将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹,包括:
将所述目标轨迹特征输入Embedding层,得到目标轨迹特征向量;
将所述目标轨迹特征向量和所述目标轨迹特征的位置编码向量相加之后输入多层感知器,得到目标轨迹点特征向量;
将所述其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入矢量网络,得到场景特征向量;
将所述目标轨迹点特征向量和所述场景特征向量输入自注意力模型,得到目标交通参与者与场景的交互特征;
将所述交互特征输入最大池化层,得到解码轨迹特征向量;
将所述解码轨迹特征向量和所述位置编码向量相加之后输入映射层,得到所述目标交通参与者的解码轨迹。
5.如权利要求1所述的方法,其特征在于,
基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值,包括:
基于所述目标交通参与者在各帧中的解码轨迹和真实轨迹,计算全局损失值;
基于所述目标交通参与者在被遮挡的帧中的解码轨迹和真实轨迹,计算遮挡损失值;
基于所述全局损失值和所述遮挡损失值,计算所述损失函数的损失值。
6.如权利要求1所述的方法,其特征在于,
损失函数包括:
其中,LOSS用于表征损失函数的损失值,m用于表征总帧数,n用于表征目标交通参与者的数量,用于表征目标交通参与者i在第j帧中的真实轨迹,/>表征目标交通参与者i在第j帧中的解码轨迹,/>用于表征被遮挡的帧数,x用于表征被遮挡的帧的真实轨迹,用于表征被遮挡的帧的解码轨迹,/>用于表征被遮挡的帧,/>用于表征全局损失权重,/>用于表征遮挡损失权重。
7.如权利要求6所述的方法,其特征在于,
损失函数包括:
其中,用于表征与目标交通参与者i在第j帧中的真实轨迹对应的权重,由目标交通参与者i在第j帧中的真实轨迹与对应时刻自车的距离确定,与自车的距离越小,/>越大;/>用于表征被遮挡的帧的真实轨迹对应的权重,由被遮挡的帧的真实轨迹与对应时刻自车的距离确定,与自车的距离越小,/>越大。
8.一种轨迹生成方法,其特征在于,包括:
获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;
分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
从多个所述交通参与者中选择目标交通参与者,基于动态mask遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;
基于所述损失函数的损失值,调整所述神经网络模型的参数;
基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
9.一种模型训练装置,其特征在于,包括:
坐标转换模块,配置为获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
特征提取模块,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
遮挡模块,配置为从多个所述交通参与者中选择目标交通参与者,基于动态mask遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块,配置为将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于所述损失函数的损失值,调整所述神经网络模型的参数;
其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹。
10.一种轨迹生成装置,其特征在于,包括:
坐标转换模块,配置为获取自车的轨迹、所述自车所在场景中交通参与者的真实轨迹和与所述交通参与者相关的地图特征;分别将所述自车的轨迹、所述交通参与者的真实轨迹和所述地图特征转换至相对坐标系下;其中,所述相对坐标系的原点位于所述自车的轨迹上;
特征提取模块,配置为分别从经过转换的自车的轨迹和交通参与者的真实轨迹中提取特征,得到所述自车的轨迹特征和所述交通参与者的轨迹特征;
遮挡模块,配置为从多个所述交通参与者中选择目标交通参与者,基于动态mask遮挡所述目标交通参与者的多个连续帧的轨迹特征,得到目标轨迹特征;
训练模块,配置为将所述目标轨迹特征、其他交通参与者的轨迹特征、所述自车的轨迹特征和经过转换的地图特征输入神经网络模型,得到所述目标交通参与者的解码轨迹;基于所述目标交通参与者的解码轨迹和真实轨迹,计算损失函数的损失值;基于所述损失函数的损失值,调整所述神经网络模型的参数;其中,所述神经网络模型通过编码获得目标交通参与者与场景的交互特征,通过对所述交互特征解码得到所述目标交通参与者的解码轨迹;
预测模块,配置为基于训练好的神经网络模型,将存在遮挡的当前交通参与者的轨迹还原为无遮挡的轨迹。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN202310842165.2A 2023-07-11 2023-07-11 模型训练方法和装置、轨迹生成方法和装置 Active CN116558540B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310842165.2A CN116558540B (zh) 2023-07-11 2023-07-11 模型训练方法和装置、轨迹生成方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310842165.2A CN116558540B (zh) 2023-07-11 2023-07-11 模型训练方法和装置、轨迹生成方法和装置

Publications (2)

Publication Number Publication Date
CN116558540A CN116558540A (zh) 2023-08-08
CN116558540B true CN116558540B (zh) 2023-10-03

Family

ID=87503937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310842165.2A Active CN116558540B (zh) 2023-07-11 2023-07-11 模型训练方法和装置、轨迹生成方法和装置

Country Status (1)

Country Link
CN (1) CN116558540B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805730A (zh) * 2019-12-30 2021-05-14 华为技术有限公司 一种轨迹预测方法及相关设备
CN114987546A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 轨迹预测模型的训练方法、装置、设备及存储介质
CN115042798A (zh) * 2021-03-08 2022-09-13 广州汽车集团股份有限公司 一种交通参与者未来轨迹预测方法及系统、存储介质
CN115147790A (zh) * 2022-06-28 2022-10-04 重庆长安汽车股份有限公司 一种基于图神经网络的车辆未来轨迹预测方法
CN115719547A (zh) * 2022-10-12 2023-02-28 清华大学 基于多重交互行为的交通参与者轨迹预测方法及系统
CN115917559A (zh) * 2021-04-22 2023-04-04 深圳元戎启行科技有限公司 轨迹预测方法、装置、计算机设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3748455B1 (en) * 2019-06-07 2022-03-16 Tata Consultancy Services Limited A method and a system for hierarchical network based diverse trajectory proposal
US20220144256A1 (en) * 2020-11-10 2022-05-12 Nec Laboratories America, Inc. Divide-and-conquer for lane-aware diverse trajectory prediction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805730A (zh) * 2019-12-30 2021-05-14 华为技术有限公司 一种轨迹预测方法及相关设备
CN115042798A (zh) * 2021-03-08 2022-09-13 广州汽车集团股份有限公司 一种交通参与者未来轨迹预测方法及系统、存储介质
CN115917559A (zh) * 2021-04-22 2023-04-04 深圳元戎启行科技有限公司 轨迹预测方法、装置、计算机设备和存储介质
CN114987546A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 轨迹预测模型的训练方法、装置、设备及存储介质
CN115147790A (zh) * 2022-06-28 2022-10-04 重庆长安汽车股份有限公司 一种基于图神经网络的车辆未来轨迹预测方法
CN115719547A (zh) * 2022-10-12 2023-02-28 清华大学 基于多重交互行为的交通参与者轨迹预测方法及系统

Also Published As

Publication number Publication date
CN116558540A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
EP3605394A1 (en) Method and apparatus for recognizing body movement
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
CN113901909B (zh) 基于视频的目标检测方法、装置、电子设备和存储介质
CN113392794B (zh) 车辆跨线识别方法、装置、电子设备和存储介质
CN115965657B (zh) 目标跟踪方法、电子设备、存储介质及车辆
CN113298910A (zh) 生成交通标志线地图的方法、设备和存储介质
CN113378605B (zh) 多源信息融合方法及装置、电子设备和存储介质
CN113392793A (zh) 用于识别车道线的方法、装置、设备、存储介质以及无人车
CN115905622A (zh) 视频标注方法、装置、设备、介质及产品
CN113297958A (zh) 一种自动化标注方法、装置、电子设备和存储介质
CN110827341A (zh) 一种图片深度估计方法、装置和存储介质
CN115249266A (zh) 航路点位置预测方法、系统、设备及存储介质
CN113409340A (zh) 语义分割模型训练方法、语义分割方法、装置及电子设备
CN116558540B (zh) 模型训练方法和装置、轨迹生成方法和装置
CN116258756B (zh) 一种自监督单目深度估计方法及系统
CN114067371B (zh) 一种跨模态行人轨迹生成式预测框架、方法和装置
CN115866229A (zh) 多视角图像的视角转换方法、装置、设备和介质
CN115761702A (zh) 车辆轨迹生成方法、装置、电子设备和计算机可读介质
CN113763468B (zh) 一种定位方法、装置、系统及存储介质
CN114119973A (zh) 一种基于图像语义分割网络的空间距离预测方法及系统
CN114972465A (zh) 图像目标深度的检测方法、装置、电子设备和存储介质
CN114842066A (zh) 图像深度识别模型训练方法、图像深度识别方法及装置
CN114494574A (zh) 一种多损失函数约束的深度学习单目三维重建方法及系统
CN116558541B (zh) 模型训练方法和装置、轨迹预测方法和装置
CN115100360B (zh) 图像生成方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant