CN116989818B - 一种轨迹生成方法、装置、电子设备及可读存储介质 - Google Patents
一种轨迹生成方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN116989818B CN116989818B CN202311251085.6A CN202311251085A CN116989818B CN 116989818 B CN116989818 B CN 116989818B CN 202311251085 A CN202311251085 A CN 202311251085A CN 116989818 B CN116989818 B CN 116989818B
- Authority
- CN
- China
- Prior art keywords
- information
- model
- intention
- neural network
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims description 94
- 238000003062 neural network model Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 230000015654 memory Effects 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000000386 athletic effect Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008846 dynamic interplay Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明实施例提供了一种轨迹生成方法、装置、电子设备及可读存储介质,涉及车辆技术领域,包括:获取模型输入信息;其中,模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,交通参与对象包括第一参与对象和第二参与对象;将模型输入信息输入第一模型,得到第一模型输出的第一参与对象的运动意图信息;将运动意图信息和模型输入信息输入第二模型,得到第二模型输出的第一参与对象的未来行驶轨迹。可以结合预测出的运动意图、状态信息和元素信息进一步对第一参与对象的未来行驶轨迹进行预测,从而有助于提升对交通参与对象进行轨迹预测的准确性。
Description
技术领域
本发明涉及车辆技术领域,特别涉及一种轨迹生成方法、装置、电子设备及可读存储介质。
背景技术
随着自动驾驶技术的发展,交通参与对象运动轨迹预测成为了一项重要的功能,它可以帮助自动驾驶系统规划最优的路径,避免与周围交通参与对象发生碰撞,提高行车安全性和效率。
现有的交通参与对象运动轨迹预测技术主要分为两类:基于规则的方法和基于深度学习的预测方法。基于规则的预测方法根据交通参与对象的历史轨迹和道路信息,使用数学模型来生成未来行驶轨迹。基于深度学习的预测方法则利用神经网络来从大量数据中学习交通参与对象的运动模式和交互信息,从而提高预测的准确性。
然而,上述轨迹预测方法通常存在准确性较低的问题,难以满足日新月异的自动驾驶需求。
发明内容
有鉴于此,本发明旨在提出一种轨迹生成方法、装置、电子设备及可读存储介质,以解决现有技术中轨迹预测方法准确性较低的问题。
为达到上述目的,本发明的技术方案是这样实现的:
第一方面,本发明提供了一种轨迹生成方法,所述方法包括:
获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象;
将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息;
将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一模型包括第一子图神经网络、第二子图神经网络、全局图神经网络和意图预测网络,所述将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息,包括:
基于所述第一状态信息和所述第二状态信息得到第一特征;
将所述第一特征输入所述第一子图神经网络,得到所述第一子图神经网络模型输出的第二特征;
将所述元素信息输入所述第二子图神经网络,得到所述第二子图神经网络模型输出的第三特征;
将所述第二特征和所述第三特征输入所述全局图神经网络,将所述全局图神经网络输出的第五特征输入所述意图预测网络,得到所述意图预测网络输出的所述运动意图信息。
可选地,所述基于所述第一状态信息和所述第二状态信息得到第一特征,包括:
对所述第一状态信息进行特征提取,得到自车特征;
对所述第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,对所述第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征;
连接所述自车特征、所述第一参与对象特征和所述第二参与对象特征,得到所述第一特征。
可选地,所述第一子图神经网络和所述第二子图神经网络均包括多个子图神经网络层,所述全局图神经网络包括多个图注意力层,所述意图预测网络包括多层感知器和归一化层。
可选地,所述第二模型包括预测器选择模块和多个轨迹预测器,所述将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹,包括:
将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器;
将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一状态信息包括所述自车的历史轨迹信息和所述自车的尺寸特征,所述第二状态信息包括所述交通参与对象的历史轨迹信息和所述交通参与对象的尺寸特征,所述元素信息包括所述自车预设范围内的车道线采样点与车道线类别。
可选地,所述运动意图信息包括所述第一参与对象与其他参与对象之间的交互意图信息,和/或,所述第一参与对象与所述道路元素之间的道路意图信息;其中,所述其他参与对象包括所述自车和所述第二参与对象。
可选地,所述将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息,包括:
将所述模型输入信息输入第一模型,得到多种意图类别分别对应的概率;
在多个所述概率中的最大概率对应的意图类别为第一意图类别的情况下,将所述第一意图类别作为所述运动意图信息;
在多个所述概率中的最大概率对应的意图类别为第二意图类别,且所述第二意图类别对应的概率大于或等于预设概率的情况下,将所述第二意图类别作为所述运动意图信息;
在多个所述概率中的最大概率对应的意图类别为所述第二意图类别,且所述第二意图类别对应的概率小于所述预设概率的情况下,将所述第一意图类别作为所述运动意图信息。
第二方面,本发明提供了一种轨迹生成装置,所述装置包括:
获取模块,用于获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象;
意图模块,用于将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息;
轨迹模块,用于将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一模型包括第一子图神经网络、第二子图神经网络、全局图神经网络和意图预测网络,所述意图模块包括:
第一特征子模块,用于基于所述第一状态信息和所述第二状态信息得到第一特征;
第二特征子模块,用于将所述第一特征输入所述第一子图神经网络,得到所述第一子图神经网络模型输出的第二特征;
第三特征子模块,用于将所述元素信息输入所述第二子图神经网络,得到所述第二子图神经网络模型输出的第三特征;
意图信息子模块,用于将所述第二特征和所述第三特征输入所述全局图神经网络,将所述全局图神经网络输出的第五特征输入所述意图预测网络,得到所述意图预测网络输出的所述运动意图信息。
可选地,所述第一特征子模块包括:
自车特征单元,用于对所述第一状态信息进行特征提取,得到自车特征;
第二参与对象特征单元,用于对所述第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,对所述第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征;
第一特征单元,用于连接所述自车特征、所述第一参与对象特征和所述第二参与对象特征,得到所述第一特征。
可选地,所述第一子图神经网络和所述第二子图神经网络均包括多个子图神经网络层,所述全局图神经网络包括多个图注意力层,所述意图预测网络包括多层感知器和归一化层。
可选地,所述第二模型包括预测器选择模块和多个轨迹预测器,所述轨迹模块包括:
选择子模块,用于将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器;
行驶轨迹子模块,用于将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一状态信息包括所述自车的历史轨迹信息和所述自车的尺寸特征,所述第二状态信息包括所述交通参与对象的历史轨迹信息和所述交通参与对象的尺寸特征,所述元素信息包括所述自车预设范围内的车道线采样点与车道线类别。
可选地,所述运动意图信息包括所述第一参与对象与其他参与对象之间的交互意图信息,和/或,所述第一参与对象与所述道路元素之间的道路意图信息;其中,所述其他参与对象包括所述自车和所述第二参与对象。
可选地,所述意图模块包括:
概率子模块,用于将所述模型输入信息输入第一模型,得到多种意图类别分别对应的概率;
第一运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为第一意图类别的情况下,将所述第一意图类别作为所述运动意图信息;
第二运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为第二意图类别,且所述第二意图类别对应的概率大于或等于预设概率的情况下,将所述第二意图类别作为所述运动意图信息;
第三运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为所述第二意图类别,且所述第二意图类别对应的概率小于所述预设概率的情况下,将所述第一意图类别作为所述运动意图信息。
第三方面,本发明提供了一种整车控制器,所述整车控制器包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述轨迹生成方法。
第四方面,本发明提供了一种可读存储介质,当所述可读存储介质中的指令由整车控制器的处理器执行时,使得所述整车控制器能够执行上述轨迹生成方法。
第五方面,本发明实施例提供了一种电子设备,该电子设备包括处理器和存储器,该存储器存储可在该处理器上运行的程序或指令,该程序或指令被该处理器执行时实现如第一方面的方法的步骤。
第六方面,本发明提供了一种车辆,包括上述整车控制器。
相对于现有技术,本发明所述的一种轨迹生成方法、装置、电子设备及可读存储介质具有以下优势:
综上,本发明实施例提供了一种轨迹生成方法,包括:获取模型输入信息;其中,模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,交通参与对象包括第一参与对象和第二参与对象;将模型输入信息输入第一模型,得到第一模型输出的第一参与对象的运动意图信息;将运动意图信息和模型输入信息输入第二模型,得到第二模型输出的第一参与对象的未来行驶轨迹。可以根据道路上所有参与对象的状态信息以及道路元素的元素信息,对某个第一参与对象的运动意图进行预测,并结合预测出的运动意图、状态信息和元素信息进一步对第一参与对象的未来行驶轨迹进行预测,从而有助于提升对交通参与对象进行轨迹预测的准确性。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例提供的一种轨迹生成方法步骤流程图;
图2为本发明实施例提供的另一种轨迹生成方法步骤流程图;
图3为本发明实施例提供的一种第一模型示意图;
图4为本发明实施例提供的一种轨迹生成装置的结构框图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面将参考附图并结合实施例来详细说明本发明。
参照图1,示出了本发明实施例提供的一种轨迹生成方法步骤流程图。
步骤101,获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象。
在本发明实施例中,可以预先训练用于对交通参与对象进行运动意图预测的第一模型,其中,第一模型可以接收模型输入信息,模型输入信息可以包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息。
具体地,自车表示采用本发明实施例进行轨迹预测的车辆,交通参与对象可以包括自车周围一定范围内的机动车辆、行人、非机动车辆等参与交通的对象,自车的第一状态信息可以包括能够描述自车的运动状态信息、形态状态信息等与自车相关的信息,第二状态信息可以包括能够描述交通参与对象的运动状态信息、形态状态信息等与交通参与对象相关的信息,运动状态信息可以包括当前运动状态信息、历史运动状态信息,形态状态信息可以包括当前形态状态信息、历史形态状态信息,其中,运动状态信息可以包含但不限于位置信息、速度信息、运动方向信息、加速度信息、减速度信息等,形态状态信息可以包括但不限于尺寸信息、形状信息、类别信息(例如厢式货车、轿车、自行车)等。
可选地,状态信息还可以包括基于运动状态信息和/或形态状态信息加工后得到的信息,所述第一状态信息包括所述自车的历史轨迹信息和所述自车的尺寸特征,所述第二状态信息包括所述交通参与对象的历史轨迹信息和所述交通参与对象的尺寸特征。
例如,运动状态信息可以包括车辆在多个历史时刻对应的位置信息,对这些位置信息进行拟合后可以得到历史轨迹信息,则状态信息可以包括上述历史轨迹信息。
道路元素可以包括但不限于车道线、路沿线、道路标识、隔离带、绿化带、红绿灯等道路上的元素或与道路相关的元素。道路元素的元素信息可以包括但不限于元素位置信息、元素形状信息、元素尺寸信息、元素指示信息等信息中的至少一项,其中,元素形状信息可以用于描述道路元素在道路上的分布情况,例如车道线的元素形状信息可以包括对车道线上的多个点进行拟合得到的车道线描述方程。元素指示信息可以表示元素表达的交通信息,例如红绿灯的元素指示信息可以包括红灯、绿灯、黄灯、剩余秒数等,道路标识的元素指示信息可以包括最高限速值、最低限速值等。
在本发明实施例中,可以通过安装在自车上的传感器,如激光雷达、毫米波雷达、摄像头等,对车辆周围的环境进行目标检测,根据目标检测结果实时确定周围交通参与对象的位置、速度、加速度、尺寸等信息,然后对这些信息进行整合、计算等操作,得到交通参与对象的第二状态信息。
可选地,自车还可以建立与周围交通参与对象之间的通信网络,如蓝牙、WiFi等,实时从周围的交通参与对象获取其自身确定出的第二状态信息。需要说明的是,上述通讯网络可以包括自车与交通参与对象直接通讯的网络,也可以包括自车通过服务器从交通参与对象获取第二状态信息的网络。技术人员还可以根据实际情况选择其他获取第二状态信息的方式,本发明实施例不做具体限定。
可选地,所述元素信息包括所述自车预设范围内的车道线采样点与车道线类别。
本发明实施例中,可以通过预先获取周围道路的高精地图信息,基于高精地图信息中提取周围道路元素的元素信息,例如,针对车道线,可以从高精度地图中获取车道线的等距离采样点与车道线类别,其中,车道线采样可以用于 进行拟合得到车道线描述方程。还可以通过安装在自车上的摄像头,实时采集周围道路的图像信息,然后通过图像处理和机器学习算法,识别出图像中的车道线,并对车道线进行采样,得到车道线采样点,并基于识别出的车道线位置、车道线形态、车道线颜色等信息判断车道线的车道线类别。
交通参与对象可以包括第一参与对象和第二参与对象,其中,第一参与对象表示需要对其进行意图预测和轨迹预测的对象,第二参与对象表示能够与第一参与对象发生互动的对象,即上述交通参与对象中除第一参与对象之外的对象,例如,第一参与对象可以是自车正前方的一辆货车,第二参与对象可以是自车周围除上述货车之外的其他交通参与对象。因此,根据选取的第一参与对象不同,交通参与对象中的每个对象均可以作为第一参与方对象,也可以作为第二参与对象。
步骤102,将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息。
在本发明实施例中,可以将模型输入信息输入第一模型,第一模型可以综合各个交通参与对象(包括自车、第一参与对象和第二参与对象)的状态信息,以及附近道路元素的元素信息,对第一参与对象的运动意图进行预测,输出第一参与对象对应的运动意图信息。其中,第一参与对象对应的运动意图信息可以为第一模型输出的意图概率分布中,概率最高的运动意图;第一参与对象对应的运动意图信息可以为第一模型输出的多种不同意图类别对应的概率构成的意图概率分布。
可选地,第一模型可以包括采用基于卷积神经网络(CNN)的意图预测模型,这种模型能够利用卷积神经网络来提取自车和交通参与对象的特征信息,然后通过全连接层或Softmax层输出意图概率分布。卷积神经网络模型可以有效地处理图像或网格数据,捕捉局部特征和空间关系。第一模型还可以包括基于循环神经网络(RNN)的意图预测模型,这种模型能够利用循环神经网络或其变体,例如长短期记忆网络(LSTM)、门控循环单元(GRU)等,处理自车和交通参与对象的状态信息和元素信息,然后通过全连接层或Softmax层输出意图概率分布。循环神经网络可以有效地处理序列数据,捕捉时间依赖和动态变化,从而有效提高预测准确性。第一模型还可以包括采用基于Transformer的意图预测模型,这种模型利用Transformer结构来编码车辆的自车和交通参与对象的状态信息和元素信息,然后通过全连接层或Softmax层输出意图概率分布。Transformer模型可以有效地处理长序列数据,捕捉全局特征和交互关系,并且可以实现并行计算,不仅具有较高的预测准确性,还能在一定程度上提升处理速度。此外,第一模型还可以采用基于图卷积神经网络和注意力机制设计的意图预测网络模型,该模型通过图卷积神经网络,可以有效地提取目标车辆与周围车辆的动态交互信息,从而提高意图预测的准确性和鲁棒性,该模型通过注意力机制,可以根据目标车辆的历史轨迹和环境信息,自适应地选择最相关的特征,从而提高意图预测的灵敏度,并可以通过注意力机制自适应地选择最相关的特征,从而提高意图预测的灵敏度。
在本发明实施例中,运动意图信息可以包括意图类别和对应的意图概率,其中,意图类别用于表征意图的种类,例如针对车辆类型的第一参与对象,意图类别可以包括向左变道、向右变道、超车、急加速、急减速等,意图概率用于表征第一参与对象执行意图的概率。
可选地,在本发明实施例中,运动意图信息的还可以进一步分为两个大类,交互意图类和道路意图类,即运动意图信息可以同时包含交互意图信息和道路意图信息,从而,运动意图信息可以包括第一参与对象与其他参与对象之间的交互意图信息,和/或,第一参与对象与道路元素之间的道路意图信息;其中,其他参与对象包括自车和第二参与对象。其中,交互意图信息可以包括但不限于切入,横穿和无交互等,例如,一个可能的交互意图信息可以为第一参与对象切入自车前方的概率为60%,一个可能的交互意图信息可以为第一参与对象与其他参与对象无交互。道路意图信息可以包括但不限于直行、压线行驶、向左变道、向右变道、左转弯和右转弯等。
可选地,步骤102可以包括:
子步骤1021,将所述模型输入信息输入第一模型,得到多种意图类别分别对应的概率。
在本发明实施例中,由于某些意图类别出现的频率较高而另一些意图类别出现的频率较低。因此,可以针对不同的意图类别采用不同的标准进行判定。具体地,可以首先将模型输入信息输入第一模型,得到意图概率分布信息,意图概率分布信息可以由多种意图类别分别对应的概率构成。
子步骤1022,在多个所述概率中的最大概率对应的意图类别为第一意图类别的情况下,将所述第一意图类别作为所述运动意图信息。
在本发明实施例中,在多个概率中的最大概率对应的意图类别为第一意图类别的情况下,将第一意图类别作为运动意图信息。需要说明的是,此方法可以分别针对交互意图信息和道路意图信息起效,也就是说,交互意图类和道路意图类均可以有对应的第一意图类别,例如,交互意图类中的无交互可以作为其第一意图类别,道路意图类中的直行可以作为其第一意图类别。
子步骤1023,在多个所述概率中的最大概率对应的意图类别为第二意图类别,且所述第二意图类别对应的概率大于或等于预设概率的情况下,将所述第二意图类别作为所述运动意图信息。
在本发明实施例中,在多个概率中的最大概率对应的意图类别为第二意图类别,且第二意图类别对应的概率大于或等于预设概率(例如0.8)的情况下,将第二意图类别作为运动意图信息。其中,第二意图类别可以为意图类别中除第一意图类别之外的意图类别,预设概率可以由技术人与灵活设置,本发明实施例不作具体限定。
子步骤1024,在多个所述概率中的最大概率对应的意图类别为所述第二意图类别,且所述第二意图类别对应的概率小于所述预设概率的情况下,将所述第一意图类别作为所述运动意图信息。
在本发明实施例中,在多个概率中的最大概率对应的意图类别为第二意图类别,且第二意图类别对应的概率小于预设概率的情况下,将第一意图类别作为运动意图信息。
示例性地,在道路意图类中,第一意图类别包括直行,第二意图类别包括压线,左变道和右变道,若第一模型预测的最大概率为压线时,会判断该概率是否高于设定的预设概率,若高于,则输出的运动意图信息为压线,否则输出的运动意图信息为直行。
通过上述子步骤1021至1024,可以在最高概率为第二意图类别的情况下,对第二意图类别的概率进行阈值判定,从而提高最终判定出的运动意图信息的准确性。
步骤103,将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹。
在本发明实施例中,得到运动意图信息之后,可以将运动意图信息和上述模型输入信息共同输入第二模型,通过第二模型可以综合运动意图信息和模型输入信息,对第一参与对象的轨迹进行预测,并输出未来一定时间内的未来行驶轨迹。在一种实施方式中,第二模型可以根据运动意图信息初步判定第一参与对象未来可能的行驶方向范围和/或行驶速度范围,再基于行驶方向范围和/或行驶速度范围,以及上述模型输入信息对第一参与对象的未来行驶轨迹进行精确估计,从而减少需要预测的方向范围和速度范围,提升轨迹预测的效率和速度。
在本发明实施例中,第二模型可以包括轨迹预测器,可以将行驶方向范围和/或行驶速度范围,以及模型输入信息输入轨迹预测器,使轨迹预测器在划定的行驶方向范围和/或行驶速度范围内基于模型输入信息进行轨迹预测,输出第一参与对象的未来行驶轨迹。轨迹预测器是一种用于预测车辆或其他交通参与者未来运动轨迹的技术,轨迹预测器可以根据不同的建模方法、输入信息和输出类型进行分类,上述建模方法可以包括基于数学模型的方法、基于机器学习的方法、基于深度学习的方法和基于强化学习的方法等。
可选地,第二模型可以包括基于趋近律的轨迹预测器,这种方法基于人类社会心理学中的趋近律理论,认为人类在驾驶交通工具时会与道路上的其他对象保持一定的距离,从而基于该原理对第一参与对象的未来行驶轨迹进行预测。第二模型还可以包括基于卡尔曼滤波(Kalman Filter)的轨迹预测器,以及基于循环神经网络(Recurrent NeuralNetwork)的轨迹预测器。技术人员可以根据实际业务需求灵活选取所需的轨迹预测器,本发明实施例不做具体限定。
在另一种实施方式中,可以构建包括样本运动意图信息、样本模型输入信息和样本参考轨迹的训练集,基于训练集对基础神经网络模型进行训练,从而得到能够基于运动意图信息、模型输入信息直接输出对应未来行驶轨迹的第二模型。其中,上述基础神经网络模型可以包括卷积神经网络模型、循环神经网络模型、对抗神经网络模型、transformer模型等,本发明实施例不作具体限定,技术人员可以根据实际业务需求灵活选择。
综上,本发明实施例提供了一种轨迹生成方法,包括:获取模型输入信息;其中,模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,交通参与对象包括第一参与对象和第二参与对象;将模型输入信息输入第一模型,得到第一模型输出的第一参与对象的运动意图信息;将运动意图信息和模型输入信息输入第二模型,得到第二模型输出的第一参与对象的未来行驶轨迹。可以根据道路上所有参与对象的状态信息以及道路元素的元素信息,对某个第一参与对象的运动意图进行预测,并结合预测出的运动意图、状态信息和元素信息进一步对第一参与对象的未来行驶轨迹进行预测,从而有助于提升对交通参与对象进行轨迹预测的准确性。
参照图2,图2示出了本发明实施例提供的另一种轨迹生成方法步骤流程图。
步骤201,获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象。
此步骤可参见步骤101,本发明实施例不再赘述。
步骤202,基于所述第一状态信息和所述第二状态信息得到第一特征。
在本发明实施例中,第一模型可以基于图神经网络(Graph Neural Networks,GNN)构建,图神经网络是一种深度学习技术,用于处理图形数据,即由节点和边组成的数据。在本方案中,第一参与对象、自车和第二参与对象都可以看作是图神经网络的节点,它们之间的相对位置、速度等关系可以作为图神经网络的边,通过图神经网络,可以提取目标车辆与周围车辆的动态交互信息,从而提高意图预测的准确性和鲁棒性。
参照图3,图3示出了本发明实施例提供的一种第一模型示意图,如图3所示,所述第一模型包括第一子图神经网络、第二子图神经网络、全局图神经网络和意图预测网络。其中,第一子图神经网络也可称为轨迹子图神经网络(traj subgraph net),第一子图神经网络可以基于Subgraph Neural Networks(SubGNN)的框架,第二子图神经网络也可称为轨迹子图神经网络(traj subgraph net),其同样可以基于Subgraph Neural Networks(SubGNN)的框架。全局图神经网络(global graph net)可以对上述第一特征和第二特征进行进一步特征提取。上述第一子图神经网络、第二子图神经网络和全局图神经网络可以构成编码器(Encoder),整体用于对第一状态信息、第二状态信息和元素信息进行特征编码,得到第五特征。第五特征可以进一步输入后续的意图预测网络,意图神经网络可以基于第五特征输出最终的运动意图信息,意图神经网络可以由多层感知器(Multi-LayerPerceptron)和归一化层(softmax)构成,多层感知器是一种由多个全连接层堆叠而成的神经网络结构,可以用于分类或回归任务。上述意图神经网络可以构成解码器(Decoder)。
可选地,为了提升第一模型的处理速度,上述图神经网络还可以选用图卷积神经网络(Graph Convolutional Network,GCN)或快速图卷积神经网络(Fast GraphConvolutional Network,FastGCN),从而上述编码器和解码器可以共同组成一个快速矢量网络(FastVectorNet),快速矢量网络通过在矢量网络(VectorNet)中使用快速图卷积神经网络,可以提高整个网络的运行效率,从而能够在运算能力较低的设备上应用本方案,有助于提高方案的适用性。
可选地,步骤202可以包括:
子步骤2021,对所述第一状态信息进行特征提取,得到自车特征。
在本发明实施例中,可以对第一状态信息进行特征提取,得到自车特征,其中,可以采用的特征提取方式包括但不限于主成分分析(Principal components analysis,PCA)、线性鉴别分析(Linear Discriminant Analysis,LDA)等,技术人员还可以根据实际需要选取其他特征提取方式,本发明实施例不做具体限定,其中,主成分分析能够将高维数据映射到低维空间,保留最重要的特征,线性鉴别分析能够将数据投影到低维空间,使得不同类别之间的距离最大化。
子步骤2022,对所述第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,对所述第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征。
在本发明实施例中,还可以对第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,并对第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征,特征提取的具体方式可参见上述子步骤2021。
子步骤2023,连接所述自车特征、所述第一参与对象特征和所述第二参与对象特征,得到所述第一特征。
在本发明实施例中,可以对自车特征、第一参与对象特征和第二参与对象特征进行特征连接,得到所述第一特征,特征连接可以在第二模型外部进行也可以在第二模型内部进行。
如图3所示,可以将自车特征、第一参与对象特征和第二参与对象特征输入第二模型的第一特征连接层,由第一特征连接层输出第一特征。其中,第一特征连接层可以基于concat函数建立。
步骤203,将所述第一特征输入所述第一子图神经网络,得到所述第一子图神经网络模型输出的第二特征。
在本发明实施例中,第一子图神经网络可以接收基于第一状态信息和第二状态信息得到第一特征,并从第一特征中捕捉各个对象的轨迹的动态特征输出第二特征。
可选地,所述第一子图神经网络和所述第二子图神经网络均包括多个子图神经网络层(subgraph layer),所述全局图神经网络包括多个图注意力层(graph attentionlayer),所述意图预测网络包括多层感知器和归一化层。
步骤204,将所述元素信息输入所述第二子图神经网络,得到所述第二子图神经网络模型输出的第三特征。
如图3所示,第二子图神经网络可以接收元素信息或基于元素信息提取的元素特征,并进行进一步特征提取,输出第三特征。
步骤205,将所述第二特征和所述第三特征输入所述全局图神经网络,将所述全局图神经网络输出的第五特征输入所述意图预测网络,得到所述意图预测网络输出的所述运动意图信息。
如图3所示,可以将第二特征和第三特征输入第二模型的第二特征连接层,由第二特征连接层对第二特征和第三特征进行特征连接,并将连接后得到的特征继续输入后续的全局图神经网络,得到全局图神经网络输出的第五特征,再将第五特征输入后续的意图预测网络,得到意图预测网络输出的运动意图信息。其中,第二特征连接层可以基于concat函数建立。
通过基于第一状态信息和第二状态信息得到第一特征;将第一特征输入第一子图神经网络,得到第一子图神经网络模型输出的第二特征;将元素信息输入第二子图神经网络,得到第二子图神经网络模型输出的第三特征;将第二特征和第三特征输入全局图神经网络,将全局图神经网络输出的第五特征输入意图预测网络,得到意图预测网络输出的运动意图信息,能够通过图神经网络对第一参与对象进行意图预测,并在预测过程中考虑第一参与对象与其他参与对象以及道路元素之间互动情况,不仅能够提高意图预测的准确性,还有助于提高意图预测的效率。
步骤206,将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器。
在本发明实施例中,所述第二模型包括预测器选择模块和多个轨迹预测器。其中,预测器选择模块可以根据运动意图信息,从多个轨迹预测器中选取针对该运动意图信息效果较好的目标轨迹预测器。
轨迹预测器与意图类别之间可以存在对应关系,第二模型可以根据运动意图信息选择对应的目标轨迹预测器,由于不同结构、参数的轨迹预测器对于不同行为的轨迹预测准确性存在区别,可以预先通过测试、模拟等方式从多种轨迹预测器中确定出各个意图类别对应的准确率最高的轨迹预测器,并建立意图类别与轨迹预测器的对应关系,第二模型可以通过该对应关系确定并选取合适的轨迹预测器对不同意图类别对应的模型输入信息进行预测,从而提高轨迹预测的准确性。
步骤207,将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹。
在本发明实施例中,确定出目标轨迹预测器之后,可以将模型输入信息输入目标轨迹预测器,对第一参与对象的轨迹进行预测,得到由目标轨迹预测器输出的第一参与对象的未来行驶轨迹。
可选地,目标轨迹预测器的输入除了包含模型输入信息之外,还可以同时包含基于运动意图信息确定出的行驶方向范围和/或行驶速度范围。具体地,第二模型还可以包括范围确定模块,范围确定模块可以根据运动意图信息初步判定第一参与对象未来可能的行驶方向范围和/或行驶速度范围,再将行驶方向范围和/或行驶速度范围,以及模型输入信息输入共同输入目标轨迹预测器,目标轨迹预测器基于行驶方向范围和/或行驶速度范围,以及上述模型输入信息对第一参与对象的未来行驶轨迹进行精确估计,从而减少需要预测的方向范围和速度范围,进一步提升轨迹预测的效率和速度。
综上,本发明实施例提供了另一种轨迹生成方法,包括:获取模型输入信息;其中,模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,交通参与对象包括第一参与对象和第二参与对象;将模型输入信息输入第一模型,得到第一模型输出的第一参与对象的运动意图信息;将运动意图信息和模型输入信息输入第二模型,得到第二模型输出的第一参与对象的未来行驶轨迹。可以根据道路上所有参与对象的状态信息以及道路元素的元素信息,对某个第一参与对象的运动意图进行预测,并结合预测出的运动意图、状态信息和元素信息进一步对第一参与对象的未来行驶轨迹进行预测,从而有助于提升对交通参与对象进行轨迹预测的准确性。
在上述实施例的基础上,本发明实施例还提供了一种轨迹生成装置。
参考图4,图4示出了本发明实施例提供的一种轨迹生成装置的结构框图:
获取模块401,用于获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象;
意图模块402,用于将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息;
轨迹模块403,用于将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一模型包括第一子图神经网络、第二子图神经网络、全局图神经网络和意图预测网络,所述意图模块包括:
第一特征子模块,用于基于所述第一状态信息和所述第二状态信息得到第一特征;
第二特征子模块,用于将所述第一特征输入所述第一子图神经网络,得到所述第一子图神经网络模型输出的第二特征;
第三特征子模块,用于将所述元素信息输入所述第二子图神经网络,得到所述第二子图神经网络模型输出的第三特征;
意图信息子模块,用于将所述第二特征和所述第三特征输入所述全局图神经网络,将所述全局图神经网络输出的第五特征输入所述意图预测网络,得到所述意图预测网络输出的所述运动意图信息。
可选地,所述第一特征子模块包括:
自车特征单元,用于对所述第一状态信息进行特征提取,得到自车特征;
第二参与对象特征单元,用于对所述第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,对所述第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征;
第一特征单元,用于连接所述自车特征、所述第一参与对象特征和所述第二参与对象特征,得到所述第一特征。
可选地,所述第一子图神经网络和所述第二子图神经网络均包括多个子图神经网络层,所述全局图神经网络包括多个图注意力层,所述意图预测网络包括多层感知器和归一化层。
可选地,所述第二模型包括预测器选择模块和多个轨迹预测器,所述轨迹模块包括:
选择子模块,用于将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器;
行驶轨迹子模块,用于将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹。
可选地,所述第一状态信息包括所述自车的历史轨迹信息和所述自车的尺寸特征,所述第二状态信息包括所述交通参与对象的历史轨迹信息和所述交通参与对象的尺寸特征,所述元素信息包括所述自车预设范围内的车道线采样点与车道线类别。
可选地,所述运动意图信息包括所述第一参与对象与其他参与对象之间的交互意图信息,和/或,所述第一参与对象与所述道路元素之间的道路意图信息;其中,所述其他参与对象包括所述自车和所述第二参与对象。
可选地,所述意图模块包括:
概率子模块,用于将所述模型输入信息输入第一模型,得到多种意图类别分别对应的概率;
第一运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为第一意图类别的情况下,将所述第一意图类别作为所述运动意图信息;
第二运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为第二意图类别,且所述第二意图类别对应的概率大于或等于预设概率的情况下,将所述第二意图类别作为所述运动意图信息;
第三运动意图信息子模块,用于在多个所述概率中的最大概率对应的意图类别为所述第二意图类别,且所述第二意图类别对应的概率小于所述预设概率的情况下,将所述第一意图类别作为所述运动意图信息。
综上,本发明实施例提供了一种轨迹生成装置,包括:获取模块,用于获取模型输入信息;其中,模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,交通参与对象包括第一参与对象和第二参与对象;意图模块,用于将模型输入信息输入第一模型,得到第一模型输出的第一参与对象的运动意图信息;轨迹模块,用于将运动意图信息和模型输入信息输入第二模型,得到第二模型输出的第一参与对象的未来行驶轨迹。可以根据道路上所有参与对象的状态信息以及道路元素的元素信息,对某个第一参与对象的运动意图进行预测,并结合预测出的运动意图、状态信息和元素信息进一步对第一参与对象的未来行驶轨迹进行预测,从而有助于提升对交通参与对象进行轨迹预测的准确性。
本发明实施例还提供一种整车控制器,整车控制器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述轨迹生成方法。
本发明实施例还提供一种可读存储介质,当所述可读存储介质中的指令由整车控制器的处理器执行时,使得所述整车控制器能够执行上述轨迹生成方法。
本发明实施例还提供一种电子设备,所述电子设备包括处理器和存储器,所述存储器存储在所述处理器上运行的程序或指令,所述程序或所述指令被所述处理器执行时实现上述轨迹生成方法。
本发明实施例还提供一种车辆,包括上述整车控制器。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述装置实施例中的对应过程,在此不再赘述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种轨迹生成方法,其特征在于,所述方法包括:
获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象;
将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息;
将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹;
其中,所述运动意图信息包括所述第一模型输出的多种不同意图类别对应的概率构成的意图概率分布,或,所述第一模型输出的多种不同意图类别对应的概率构成的意图概率分布中,概率最高的意图类别;
所述第二模型包括预测器选择模块和多个轨迹预测器,所述将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹,包括:
将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器;
将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹;
其中,所述第一模型包括基于卷积神经网络的意图预测模型、基于循环神经网络的意图预测模型或者基于Transformer的意图预测模型。
2.根据权利要求1所述的方法,其特征在于,所述第一模型包括第一子图神经网络、第二子图神经网络、全局图神经网络和意图预测网络,所述将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息,包括:
基于所述第一状态信息和所述第二状态信息得到第一特征;
将所述第一特征输入所述第一子图神经网络,得到所述第一子图神经网络模型输出的第二特征;
将所述元素信息输入所述第二子图神经网络,得到所述第二子图神经网络模型输出的第三特征;
将所述第二特征和所述第三特征输入所述全局图神经网络,将所述全局图神经网络输出的第五特征输入所述意图预测网络,得到所述意图预测网络输出的所述运动意图信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一状态信息和所述第二状态信息得到第一特征,包括:
对所述第一状态信息进行特征提取,得到自车特征;
对所述第一参与对象的第一状态信息进行特征提取,得到第一参与对象特征,对所述第二参与对象的第二状态信息进行特征连接,得到第二参与对象特征;
连接所述自车特征、所述第一参与对象特征和所述第二参与对象特征,得到所述第一特征。
4.根据权利要求2所述的方法,其特征在于,所述第一子图神经网络和所述第二子图神经网络均包括多个子图神经网络层,所述全局图神经网络包括多个图注意力层,所述意图预测网络包括多层感知器和归一化层。
5.根据权利要求1所述的方法,其特征在于,所述第一状态信息包括所述自车的历史轨迹信息和所述自车的尺寸特征,所述第二状态信息包括所述交通参与对象的历史轨迹信息和所述交通参与对象的尺寸特征,所述元素信息包括所述自车预设范围内的车道线采样点与车道线类别。
6.根据权利要求1所述的方法,其特征在于,所述运动意图信息包括所述第一参与对象与其他参与对象之间的交互意图信息,和/或,所述第一参与对象与所述道路元素之间的道路意图信息;其中,所述其他参与对象包括所述自车和所述第二参与对象。
7.根据权利要求1所述的方法,其特征在于,所述将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息,包括:
将所述模型输入信息输入第一模型,得到多种意图类别分别对应的概率;
在多个所述概率中的最大概率对应的意图类别为第一意图类别的情况下,将所述第一意图类别作为所述运动意图信息;
在多个所述概率中的最大概率对应的意图类别为第二意图类别,且所述第二意图类别对应的概率大于或等于预设概率的情况下,将所述第二意图类别作为所述运动意图信息;
在多个所述概率中的最大概率对应的意图类别为所述第二意图类别,且所述第二意图类别对应的概率小于所述预设概率的情况下,将所述第一意图类别作为所述运动意图信息。
8.一种轨迹生成装置,其特征在于,所述装置包括:
获取模块,用于获取模型输入信息;其中,所述模型输入信息包括自车的第一状态信息、交通参与对象的第二状态信息以及道路元素的元素信息;其中,所述交通参与对象包括第一参与对象和第二参与对象;
意图模块,用于将所述模型输入信息输入第一模型,得到所述第一模型输出的所述第一参与对象的运动意图信息;
轨迹模块,用于将所述运动意图信息和所述模型输入信息输入第二模型,得到所述第二模型输出的所述第一参与对象的未来行驶轨迹;
其中,所述运动意图信息包括所述第一模型输出的多种不同意图类别对应的概率构成的意图概率分布,或,所述第一模型输出的多种不同意图类别对应的概率构成的意图概率分布中,概率最高的意图类别;
所述第二模型包括预测器选择模块和多个轨迹预测器,所述轨迹模块包括:
选择子模块,用于将所述运动意图信息输入所述预测器选择模块,由所述预测器选择模块确定所述运动意图信息对应的目标轨迹预测器;
行驶轨迹子模块,用于将所述模型输入信息输入所述目标轨迹预测器,得到所述目标轨迹预测器输出的所述第一参与对象的未来行驶轨迹;
其中,所述第一模型包括基于卷积神经网络的意图预测模型、基于循环神经网络的意图预测模型或者基于Transformer的意图预测模型。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器存储在所述处理器上运行的程序或指令,所述程序或所述指令被所述处理器执行时实现如权利要求1至7中任一项所述的轨迹生成方法。
10.一种可读存储介质,其特征在于,当所述可读存储介质中的指令由整车控制器的处理器执行时,使得所述整车控制器能够执行如权利要求1至7中任一项所述的轨迹生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311251085.6A CN116989818B (zh) | 2023-09-26 | 2023-09-26 | 一种轨迹生成方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311251085.6A CN116989818B (zh) | 2023-09-26 | 2023-09-26 | 一种轨迹生成方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116989818A CN116989818A (zh) | 2023-11-03 |
CN116989818B true CN116989818B (zh) | 2024-01-19 |
Family
ID=88525226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311251085.6A Active CN116989818B (zh) | 2023-09-26 | 2023-09-26 | 一种轨迹生成方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116989818B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
CN112805730A (zh) * | 2019-12-30 | 2021-05-14 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
WO2021134172A1 (zh) * | 2019-12-30 | 2021-07-08 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
CN113537445A (zh) * | 2020-04-14 | 2021-10-22 | 北京京东乾石科技有限公司 | 一种轨迹预测方法、装置、设备和存储介质 |
CN114792148A (zh) * | 2021-01-25 | 2022-07-26 | 魔门塔(苏州)科技有限公司 | 一种运动轨迹的预测方法及装置 |
CN115909749A (zh) * | 2023-01-09 | 2023-04-04 | 广州通达汽车电气股份有限公司 | 车辆运行道路风险预警方法、装置、设备及存储介质 |
WO2023083347A1 (zh) * | 2021-11-15 | 2023-05-19 | 清华大学 | 预测型智能汽车决策控制方法、装置、车辆及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230142676A1 (en) * | 2020-07-31 | 2023-05-11 | Sensetime Group Limited | Trajectory prediction method and apparatus, device, storage medium and program |
JP2022155828A (ja) * | 2021-03-31 | 2022-10-14 | トヨタ自動車株式会社 | 軌道生成システム、軌道生成方法及びプログラム |
-
2023
- 2023-09-26 CN CN202311251085.6A patent/CN116989818B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
CN112805730A (zh) * | 2019-12-30 | 2021-05-14 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
WO2021134172A1 (zh) * | 2019-12-30 | 2021-07-08 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
CN113537445A (zh) * | 2020-04-14 | 2021-10-22 | 北京京东乾石科技有限公司 | 一种轨迹预测方法、装置、设备和存储介质 |
CN114792148A (zh) * | 2021-01-25 | 2022-07-26 | 魔门塔(苏州)科技有限公司 | 一种运动轨迹的预测方法及装置 |
WO2023083347A1 (zh) * | 2021-11-15 | 2023-05-19 | 清华大学 | 预测型智能汽车决策控制方法、装置、车辆及存储介质 |
CN115909749A (zh) * | 2023-01-09 | 2023-04-04 | 广州通达汽车电气股份有限公司 | 车辆运行道路风险预警方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
自动驾驶场景下的轨迹预测技术综述;李雪松;计算机工程;第49卷(第5期);1-9 * |
车联网背景下的机动车辆轨迹预测模型;吴翊恺;东南大学学报( 自然科学版);第52卷(第6期);1199-1208 * |
Also Published As
Publication number | Publication date |
---|---|
CN116989818A (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11475770B2 (en) | Electronic device, warning message providing method therefor, and non-transitory computer-readable recording medium | |
US11501449B2 (en) | Method for the assessment of possible trajectories | |
CN111316286A (zh) | 轨迹预测方法及装置、存储介质、驾驶系统与车辆 | |
He et al. | Rail transit obstacle detection based on improved CNN | |
CN112078592B (zh) | 一种车辆行为和/或车辆轨迹的预测方法及装置 | |
CN114446049B (zh) | 基于社会价值取向的交通流预测方法、系统、终端及介质 | |
WO2021021355A1 (en) | Trajectory prediction | |
Li et al. | DBUS: Human driving behavior understanding system | |
CN115690153A (zh) | 一种智能体轨迹预测方法及系统 | |
CN114792148A (zh) | 一种运动轨迹的预测方法及装置 | |
Mukherjee et al. | Interacting vehicle trajectory prediction with convolutional recurrent neural networks | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
Kawasaki et al. | Multimodal trajectory predictions for autonomous driving without a detailed prior map | |
CN104915628A (zh) | 基于车载相机的场景建模进行运动行人预测的方法和装置 | |
Kanchana et al. | Computer vision for autonomous driving | |
Swain et al. | Evolution of machine learning algorithms for enhancement of self-driving vehicles security | |
Srinivasan et al. | Beyond RMSE: Do machine-learned models of road user interaction produce human-like behavior? | |
Nejad et al. | Vehicle trajectory prediction in top-view image sequences based on deep learning method | |
CN116501820A (zh) | 车辆轨迹预测方法、装置、设备及存储介质 | |
Miani et al. | Young drivers’ pedestrian anti-collision braking operation data modelling for ADAS development | |
Ni et al. | Pedestrians crossing intention anticipation based on dual‐channel action recognition and hierarchical environmental context | |
CN116989818B (zh) | 一种轨迹生成方法、装置、电子设备及可读存储介质 | |
Ye et al. | Neural network‐based semantic segmentation model for robot perception of driverless vision | |
CN115984634A (zh) | 图像检测方法、装置、设备、存储介质和程序产品 | |
CN115564800A (zh) | 行动轨迹预测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |