CN117541998B - 一种基于贝叶斯神经网络的行人轨迹融合预测方法 - Google Patents
一种基于贝叶斯神经网络的行人轨迹融合预测方法 Download PDFInfo
- Publication number
- CN117541998B CN117541998B CN202410032130.7A CN202410032130A CN117541998B CN 117541998 B CN117541998 B CN 117541998B CN 202410032130 A CN202410032130 A CN 202410032130A CN 117541998 B CN117541998 B CN 117541998B
- Authority
- CN
- China
- Prior art keywords
- track
- missing
- pedestrian
- real
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013531 bayesian neural network Methods 0.000 title claims abstract description 29
- 230000004927 fusion Effects 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000002372 labelling Methods 0.000 claims description 10
- 210000002569 neuron Anatomy 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 241000135164 Timea Species 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000012098 association analyses Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于贝叶斯神经网络的行人轨迹融合预测方法,属于行人轨迹预测技术领域。本发明的方法利用贝叶斯神经网络模型随机分布的权值和阈值参数,为神经网络引入不确定性进行正则化、引入先验分布和后验分布来描述模型参数的不确定性。在训练过程时,通过最大化后验概率来更新模型参数,从而得到后验分布;通过后验分布,网络可以获取参数的不确定性信息,进而对结果的误差进行有效预测。还能够有效避免数据量较少时容易导致过拟合的问题,提高预测的稳定性和泛化能力,同时还能对目标跟踪过程中行人轨迹缺失或中断的情况进行继续预测。
Description
技术领域
本发明属于行人轨迹预测技术领域,具体涉及一种基于贝叶斯神经网络的行人轨迹融合预测方法。
背景技术
行人轨迹预测任务旨在基于行人历史轨迹信息的分析并结合环境信息,来预测行人在未来时刻的位置坐标。行人轨迹预测已经成为众多领域的研究热点,包括自动驾驶、机器人导航和视频监控等。例如,在自动驾驶领域中,行人轨迹的精准预测有利于提升驾驶车辆的安全性;在机器人导航任务中,行人轨迹预测可以帮助机器人避免碰撞以实现机器人在人群中穿梭的导航任务;在视频监控中,预测行人轨迹有助于人群密度控制,避免踩踏事故发生。因此,实现行人轨迹的准确预测具有重要意义。现已有大量的关于行人轨迹预测的研究,如公开号为CN113888638A和CN111161322A的专利申请。
由于行人轨迹的图像数据采集中存在传输不确定性、定位系统被关闭或视频监控盲区、数据采样率低等问题,会导致数据丢失或数据异常情况发生,从而使行人轨迹数据缺失或中断,对目标追踪等造成影响。因此,我们考虑采用行人轨迹预测方法对缺失轨迹段进行预测,并对预测轨迹进行轨迹融合,解决行人轨迹缺失问题。
发明内容
鉴于上述问题,本发明提供了一种基于贝叶斯神经网络的行人轨迹融合预测方法,解决了现有技术中的当数据量较少时容易导致过拟合,无法对缺失或中断行人轨迹进行准确预测的问题。
本发明提供了一种基于贝叶斯神经网络的行人轨迹融合预测方法,包括以下步骤:
步骤1,获取两条真实行人原始轨迹的初始化信息;
步骤2,获取两条真实行人原始轨迹的初始化信息中因缺失生成的缺失真实行人轨迹历史信息;基于缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型;
步骤3,使用预测模型获得两条真实行人原始轨迹的预测缺失轨迹段;
步骤4,获取预测缺失轨迹段之间的马氏距离;基于马氏距离获得各段预测缺失轨迹段的相似性;根据各段预测缺失轨迹段的相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的预测缺失轨迹段进行轨迹关联融合获得融合轨迹段;
步骤5,比较获得的融合轨迹段与两条真实行人原始轨迹的匹配度,如果匹配,获得最终预测模型,进入步骤6;如果不匹配,调整贝叶斯神经网络,返回步骤2;
步骤6,使用最终预测模型预测完整行人轨迹。
可选地,步骤1包括以下步骤:
步骤11,获得两条真实行人原始轨迹的标注坐标;
步骤12,获取标注坐标的世界坐标;将世界坐标转换为像素坐标;
步骤13,将标注坐标的像素坐标向量作为真实行人原始轨迹的初始化信息。
可选地,步骤2包括以下步骤:
步骤21,获取步骤1的真实行人原始轨迹的初始化信息中因缺失生成的四条缺失真实行人轨迹历史信息;
步骤22,向四条缺失真实行人轨迹历史信息中加入高斯噪声,获得四条增强缺失真实行人轨迹历史信息;
步骤23,基于四条增强缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型。
可选地,步骤23包括以下步骤:
步骤231,设置基于设定隐藏神经元数的贝叶斯神经网络的正态分布,从正态分布中采样第k条增强缺失真实行人轨迹在贝叶斯神经网络中的当前次网络权重,i=1,2,…,I,I表示网络权重更新最大次数,k=1,2,3,4;
步骤232,基于四条增强缺失真实行人轨迹历史信息分别获取四条增强缺失真实行人轨迹当前次的近似分布、先验分布/>和似然/>;
其中,表示第j个时刻第k条增强缺失真实行人轨迹在y方向上的位置坐标,j=1,2,…,J,J表示当前次的总时刻数;/>表示第j个时刻第k条增强缺失真实行人轨迹在x方向上的位置坐标;
步骤233,基于当前次的近似分布、先验分布/>和似然分别获得四条增强缺失真实行人轨迹变分下界/>,表达式为:
;
步骤234,利用KL散度度量近似分布与后验分布的距离优化四条增强缺失真实行人轨迹当前次模型参数,表达式为:
其中,表示第k条增强缺失真实行人轨迹当前次给定正态分布的参数后权重参数的分布;/>表示第k条增强缺失真实行人轨迹当前次给定网络参数后观测数据的似然;/>表示第k条增强缺失真实行人轨迹当前次的观测数据;
步骤235,采用梯度下降法获得四条增强缺失真实行人轨迹的更新模型参数,表达式为:
;
其中,表示第k条增强缺失真实行人轨迹的更新模型参数;/>表示学习率;表示第k条增强缺失真实行人轨迹当前次模型参数/>的梯度;
步骤236,判断i是否大于迭代轮次,如果i大于等于迭代轮次,使用第k条增强缺失真实行人轨迹的更新模型参数获得预测模型;如果i小于迭代轮次,令i=i+1,返回步骤231。
可选地,基于每两段预测缺失轨迹段之间的马氏距离获取相似性;根据各两段预测缺失轨迹段的相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的两段预测缺失轨迹段进行轨迹关联融合。
可选地,将两段预测缺失轨迹段置之间的马氏距离最小的两段预测缺失轨迹段确定为最佳相似性;将该两段预测缺失轨迹段确定为来自同一目标的预测缺失轨迹段;将剩下两段预测缺失轨迹段确定为来自另一个同一目标。
与现有技术相比,本发明至少具有现如下有益效果:
(1)本发明的方法利用贝叶斯神经网络模型随机分布的权值和阈值参数,为神经网络引入不确定性进行正则化、引入先验分布和后验分布来描述模型参数的不确定性。在训练过程时,通过最大化后验概率来更新模型参数,从而得到后验分布;通过后验分布,网络可以获取参数的不确定性信息,进而对结果的误差进行有效预测。能够有效避免数据量较少时容易导致过拟合的问题(如单个行人历史轨迹数据信息),提高模型的稳定性和泛化能力。
(2)本发明的方法提出了基于轨迹预测与轨迹关联的融合方法,即对缺失轨迹段进行预测,并对预测后的轨迹进行关联分析,确定是否属于同一目标,对来自同一目标的轨迹进行融合获得完整的行人轨迹,解决了目标跟踪过程中行人轨迹缺失或中断的问题。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制。
图1为本发明基于贝叶斯神经网络的行人轨迹融合预测方法的流程图;
图2为本发明获得预测模型的流程图;
图3为真实行人原始轨迹的示意图;
图4为缺失的行人轨迹的示意图;
图5为预测行人轨迹的示意图;
图6为融合后的行人轨迹的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。另外,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明的一个具体实施例,如图1-图6,提供了一种基于贝叶斯神经网络的行人轨迹融合预测方法,包括以下步骤:
步骤1,获取图像数据中两条真实行人原始轨迹的初始化信息;
步骤11,如图3所述,采集ETH数据集中两条真实行人原始轨迹;获得两条真实行人原始轨迹的标注坐标;
可以理解的是,采集相机拍摄的图像数据中的ETH数据集中的视频数据,获取视频数据中两个行人的真实行人原始轨迹;对获得的两条真实行人原始轨迹的行人坐标进行标注,获得标注坐标。
进一步地,相机采用鸟瞰视角采集ETH数据集中两条真实行人原始轨迹,包含多个场景下行人多种运动与交互模式。
步骤12,获取标注坐标的世界坐标;将世界坐标转换为像素坐标;
本发明将世界坐标转换为像素坐标,实现了轨迹预测与融合的可视化。
获取标注坐标的世界坐标向量,表达式为:
其中,wpx为x方向上的世界坐标;wpy为y方向上的世界坐标;1为z方向上的世界坐标。
根据坐标转换公式将世界坐标转换为像素坐标,坐标转换公式为:
其中,H为相机的单应性矩阵;
示例性地,相机的单应性矩阵H为:
,e表示科学计数。
标注坐标的像素坐标向量的表达式为:
。
其中,px为x方向上的像素坐标;py为方向上的像素坐标;pz为z方向上的像素坐标,pz=1。
步骤13,将标注坐标的像素坐标向量作为真实行人原始轨迹的初始化信息。
步骤2,获取两条真实行人原始轨迹的初始化信息中因缺失生成的缺失真实行人轨迹历史信息;基于缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型;
步骤21,如图4,获取步骤1的真实行人原始轨迹的初始化信息中因缺失生成的四条缺失真实行人轨迹历史信息,其中,/>表示第1段缺失真实行人历史轨迹段;/>表示第2段缺失真实行人历史轨迹段;/>表示第3段缺失真实行人历史轨迹段;/>表示第4段缺失真实行人历史轨迹段。
步骤22,向四条缺失真实行人轨迹历史信息中加入高斯噪声,获得四条增强缺失真实行人轨迹历史信息;
具体地,四条增强缺失真实行人轨迹历史信息为组成四条增强缺失真实行人轨迹的节点在第j个时刻在x方向和y方向上的位置坐标。
进一步地,高斯噪音为均值为0、方差为标准差的高斯噪声,有效实现了数据扩充。
本发明向四条缺失真实行人轨迹历史信息中加入高斯噪声,使模型学习对输入中的微小变化具有鲁棒性的特征,提高了模型的鲁棒性和泛化能力。通过对输入轨迹数据添加均值为0、方差为标准差的高斯噪声,有效实现数据扩充。
步骤23,基于四条增强缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型;
步骤231,设置基于设定隐藏神经元数的贝叶斯神经网络的正态分布,从正态分布中采样第k条增强缺失真实行人轨迹在贝叶斯神经网络中的当前次网络权重,i=1,2,…,I,I表示网络权重更新最大次数,k=1,2,3,4;
步骤232,基于四条增强缺失真实行人轨迹历史信息分别获取四条增强缺失真实行人轨迹当前次的近似分布、先验分布/>和似然/>;
其中,表示第j个时刻第k条增强缺失真实行人轨迹在y方向上的位置坐标,j=1,2,…,J,J表示当前次的总时刻数;/>表示第j个时刻第k条增强缺失真实行人轨迹在x方向上的位置坐标;
步骤233,基于当前次的近似分布、先验分布/>和似然分别获得四条增强缺失真实行人轨迹变分下界/>,表达式为:
步骤234,利用KL散度度量近似分布与后验分布的距离优化四条增强缺失真实行人轨迹当前次模型参数,表达式为:
其中,表示第k条增强缺失真实行人轨迹当前次给定正态分布的参数后权重参数的分布;/>表示第k条增强缺失真实行人轨迹当前次给定网络参数后观测数据的似然;/>表示第k条增强缺失真实行人轨迹当前次的观测数据。
具体地,第k条增强缺失真实行人轨迹当前次的观测数据为第k条增强缺失真实行人轨迹当前次的在x方向和y方向上的观测位置坐标。
步骤235,采用梯度下降法获得四条增强缺失真实行人轨迹的更新模型参数,表达式为:
;
其中,表示第k条增强缺失真实行人轨迹的更新模型参数;/>表示学习率;表示第k条增强缺失真实行人轨迹当前次模型参数/>的梯度;
步骤236,判断i是否大于迭代轮次,如果i大于等于迭代轮次,使用第k条增强缺失真实行人轨迹的更新模型参数获得预测模型;如果i小于迭代轮次,令i=i+1,返回步骤231。
示例性地,如图5所示,使用预测模型对四条缺失轨迹进行预测。
步骤3,使用步骤2的预测模型获得两条真实行人原始轨迹的预测缺失轨迹段;
步骤4,获取预测缺失轨迹段之间的马氏距离;基于马氏距离获得各段预测缺失轨迹段的相似性;根据各段预测缺失轨迹段的相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的预测缺失轨迹段进行轨迹关联融合获得融合轨迹段;
具体地,获取预测缺失轨迹段的位置,表达式为:
,
其中,为第k段预测缺失轨迹段的位置;n为预测缺失轨迹段的总段数。
获取各段预测缺失轨迹段的位置之间的马氏距离,表达式为:
,
其中,S为协方差矩阵;为第j段预测缺失轨迹段的位置,k≠j,k,j/>。
示例性地,预测缺失轨迹段的位置之间的马氏距离下:
。
基于两段预测缺失轨迹段的之间的马氏距离获取相似性;根据两段相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的两段预测缺失轨迹段进行轨迹关联融合。
两段预测缺失轨迹段的位置之间的马氏距离越小,该两段预测缺失轨迹段的相似性越好,该两段预测缺失轨迹段来自同一目标的可能性越大。
具体地,将两段预测缺失轨迹段之间的马氏距离最小的两段预测缺失轨迹段确定为最佳相似性;将该两段预测缺失轨迹段确定为来自同一目标的预测缺失轨迹段;将剩下两段预测缺失轨迹段确定为来自同一目标。
两段预测缺失轨迹段的位置之间的马氏距离大于预设距离时,认定为该两段预测缺失轨迹段不匹配;优选地,预设距离为2.5。
示例性地,如图6所示,根据计算的马氏距离,认为轨迹段与/>相似度较高,来自于行人目标1;轨迹段/>与/>相似度较高,来自行人目标2,将轨迹段/>与/>进行轨迹关联,将轨迹段/>与/>进行轨迹关联。
步骤5,比较步骤4获得的融合轨迹段与步骤1获得的两条真实行人原始轨迹的匹配度,如果匹配,获得最终预测模型,进入步骤6;如果不匹配,调整贝叶斯神经网络的隐藏神经元数与网络权重更新最大次数,返回步骤2;
步骤6,使用最终预测模型预测完整行人轨迹。
本发明的方法针对目标跟踪过程中行人轨迹缺失或中断的问题,提供了一种基于贝叶斯神经网络的行人轨迹预测与融合方法,该方法通过轨迹预测与轨迹关联对缺失或中断的行人轨迹进行融合,实现完整的轨迹恢复。该方法在面对行人历史轨迹信息较少的情况下能够实现准确的预测,对缺失或中断轨迹能够实现完整准确的融合与恢复。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (4)
1.一种基于贝叶斯神经网络的行人轨迹融合预测方法,其特征在于,包括以下步骤:
步骤1,获取图像数据中两条真实行人原始轨迹的初始化信息;
步骤2,获取两条真实行人原始轨迹的初始化信息中因缺失生成的缺失真实行人轨迹历史信息;基于缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型;
步骤2的具体步骤包括:
步骤21,获取步骤1的真实行人原始轨迹的初始化信息中因缺失生成的四条缺失真实行人轨迹历史信息;
步骤22,向四条缺失真实行人轨迹历史信息中加入高斯噪声,获得四条增强缺失真实行人轨迹历史信息;
步骤23,基于四条增强缺失真实行人轨迹历史信息训练贝叶斯神经网络获得预测模型;
步骤23的具体步骤包括:
步骤231,设置基于设定隐藏神经元数的贝叶斯神经网络的正态分布,从正态分布中采样第k条增强缺失真实行人轨迹在贝叶斯神经网络中的当前次网络权重,i=1,2,…,I,I表示网络权重更新最大次数,k=1,2,3,4;
步骤232,基于四条增强缺失真实行人轨迹历史信息分别获取四条增强缺失真实行人轨迹当前次的近似分布、先验分布/>和似然/>;
其中,表示第j个时刻第k条增强缺失真实行人轨迹在y方向上的位置坐标,j=1,2,…,J,J表示当前次的总时刻数;/>表示第j个时刻第k条增强缺失真实行人轨迹在x方向上的位置坐标;
步骤233,基于当前次的近似分布、先验分布/>和似然分别获得四条增强缺失真实行人轨迹变分下界/>,表达式为:
;
步骤234,利用KL散度度量近似分布与后验分布的距离优化四条增强缺失真实行人轨迹当前次模型参数,表达式为:
其中,表示第k条增强缺失真实行人轨迹当前次给定正态分布的参数后权重参数的分布;/>表示第k条增强缺失真实行人轨迹当前次给定网络参数后观测数据的似然;/>表示第k条增强缺失真实行人轨迹当前次的观测数据;
步骤235,采用梯度下降法获得四条增强缺失真实行人轨迹的更新模型参数,表达式为:
;
其中,表示第k条增强缺失真实行人轨迹的更新模型参数;/>表示学习率;/>表示第k条增强缺失真实行人轨迹当前次模型参数/>的梯度;
步骤236,判断i是否大于迭代轮次,如果i大于等于迭代轮次,使用第k条增强缺失真实行人轨迹的更新模型参数获得预测模型;如果i小于迭代轮次,令i=i+1,返回步骤231;
步骤3,使用预测模型获得两条真实行人原始轨迹的预测缺失轨迹段;
步骤4,获取预测缺失轨迹段之间的马氏距离;基于马氏距离获得各段预测缺失轨迹段的相似性;根据各段预测缺失轨迹段的相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的预测缺失轨迹段进行轨迹关联融合获得融合轨迹段;
步骤5,比较获得的融合轨迹段与两条真实行人原始轨迹的匹配度,如果匹配,获得最终预测模型,进入步骤6;如果不匹配,调整贝叶斯神经网络,返回步骤2;
步骤6,使用最终预测模型预测完整行人轨迹。
2.根据权利要求1所述的行人轨迹融合预测方法,其特征在于,步骤1包括以下步骤:
步骤11,获得两条真实行人原始轨迹的标注坐标;
步骤12,获取标注坐标的世界坐标;将世界坐标转换为像素坐标;
步骤13,将标注坐标的像素坐标向量作为真实行人原始轨迹的初始化信息。
3.根据权利要求1所述的行人轨迹融合预测方法,其特征在于,基于每两段预测缺失轨迹段之间的马氏距离获取相似性;根据各两段预测缺失轨迹段的相似性确定来自同一目标的预测缺失轨迹段;将来自同一目标的两段预测缺失轨迹段进行轨迹关联融合。
4.根据权利要求3所述的行人轨迹融合预测方法,其特征在于,将两段预测缺失轨迹段置之间的马氏距离最小的两段预测缺失轨迹段确定为最佳相似性;将该两段预测缺失轨迹段确定为来自同一目标的预测缺失轨迹段;将剩下两段预测缺失轨迹段确定为来自另一个同一目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410032130.7A CN117541998B (zh) | 2024-01-10 | 2024-01-10 | 一种基于贝叶斯神经网络的行人轨迹融合预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410032130.7A CN117541998B (zh) | 2024-01-10 | 2024-01-10 | 一种基于贝叶斯神经网络的行人轨迹融合预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117541998A CN117541998A (zh) | 2024-02-09 |
CN117541998B true CN117541998B (zh) | 2024-03-29 |
Family
ID=89782691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410032130.7A Active CN117541998B (zh) | 2024-01-10 | 2024-01-10 | 一种基于贝叶斯神经网络的行人轨迹融合预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117541998B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2904551A2 (en) * | 2012-10-08 | 2015-08-12 | Microsoft Technology Licensing, LLC | Modeling data generating process |
CN115861383A (zh) * | 2023-02-17 | 2023-03-28 | 山西清众科技股份有限公司 | 一种拥挤空间下多信息融合的行人轨迹预测装置及方法 |
CN116842340A (zh) * | 2023-06-21 | 2023-10-03 | 上海智能网联汽车技术中心有限公司 | 一种基于att-gru模型的行人轨迹预测方法和设备 |
CN117077727A (zh) * | 2023-09-18 | 2023-11-17 | 华东师范大学 | 基于时空注意力机制和神经常微分方程的轨迹预测方法 |
-
2024
- 2024-01-10 CN CN202410032130.7A patent/CN117541998B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2904551A2 (en) * | 2012-10-08 | 2015-08-12 | Microsoft Technology Licensing, LLC | Modeling data generating process |
CN115861383A (zh) * | 2023-02-17 | 2023-03-28 | 山西清众科技股份有限公司 | 一种拥挤空间下多信息融合的行人轨迹预测装置及方法 |
CN116842340A (zh) * | 2023-06-21 | 2023-10-03 | 上海智能网联汽车技术中心有限公司 | 一种基于att-gru模型的行人轨迹预测方法和设备 |
CN117077727A (zh) * | 2023-09-18 | 2023-11-17 | 华东师范大学 | 基于时空注意力机制和神经常微分方程的轨迹预测方法 |
Non-Patent Citations (1)
Title |
---|
余力 ; 李慧媛 ; 焦晨璐 ; 冷友方 ; 徐冠宇.《 基于多头注意力对抗机制的复杂场景行人轨迹预测》.《计算机学报》.2022,第1-14页. * |
Also Published As
Publication number | Publication date |
---|---|
CN117541998A (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Manh et al. | Scene-lstm: A model for human trajectory prediction | |
CN110660082B (zh) | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 | |
CN110569793B (zh) | 一种无监督相似性判别学习的目标跟踪方法 | |
CN107545582B (zh) | 基于模糊逻辑的视频多目标跟踪方法及装置 | |
CN113269098A (zh) | 一种基于无人机的多目标跟踪定位与运动状态估计方法 | |
CN111626194B (zh) | 一种使用深度关联度量的行人多目标跟踪方法 | |
CN114049382B (zh) | 一种智能网联环境下目标融合跟踪方法、系统和介质 | |
CN114820702A (zh) | 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN109993770B (zh) | 一种自适应时空学习与状态识别的目标跟踪方法 | |
CN113362368B (zh) | 一种基于多层次时空图神经网络的人群轨迹预测方法 | |
CN112381132A (zh) | 一种基于多个摄像头融合的目标物跟踪方法和系统 | |
CN111666860A (zh) | 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法 | |
CN115861383A (zh) | 一种拥挤空间下多信息融合的行人轨迹预测装置及方法 | |
CN115147790A (zh) | 一种基于图神经网络的车辆未来轨迹预测方法 | |
Wang et al. | Multi-agent trajectory prediction with spatio-temporal sequence fusion | |
Jung et al. | Sequential Monte Carlo filtering with long short-term memory prediction | |
CN108280408B (zh) | 一种基于混合跟踪和广义线性模型的人群异常事件检测方法 | |
CN117541998B (zh) | 一种基于贝叶斯神经网络的行人轨迹融合预测方法 | |
CN117314956A (zh) | 一种基于图神经网络的交互行人轨迹预测方法 | |
CN115100565B (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 | |
Ye et al. | GSAN: Graph self-attention network for interaction measurement in autonomous driving | |
US20210319315A1 (en) | Device and method for training a classifier and assessing the robustness of a classifier | |
Baiget et al. | Finding prototypes to estimate trajectory development in outdoor scenarios | |
Banijamali et al. | Prediction by anticipation: An action-conditional prediction method based on interaction learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |