CN114638408A - 一种基于时空信息的行人轨迹预测方法 - Google Patents
一种基于时空信息的行人轨迹预测方法 Download PDFInfo
- Publication number
- CN114638408A CN114638408A CN202210203214.3A CN202210203214A CN114638408A CN 114638408 A CN114638408 A CN 114638408A CN 202210203214 A CN202210203214 A CN 202210203214A CN 114638408 A CN114638408 A CN 114638408A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- matrix
- information
- input
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims abstract description 60
- 230000003993 interaction Effects 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 239000004606 Fillers/Extenders Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 244000290333 Vanilla fragrans Species 0.000 description 2
- 235000009499 Vanilla fragrans Nutrition 0.000 description 2
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于时空信息的行人轨迹预测方法,该方法从行人的多种特征中选取了场景信息、行人交互信息和行人历史轨迹信息这三个会对行人轨迹产生明显影响的因素作为神经网络的输入,从而得到精确度更高的行人轨迹预测方法,具体包括:将行人历史轨迹信息转换为顶点矩阵形式,并设计核函数从历史轨迹信息中提取行人交互信息并生成邻接矩阵,将输入的场景图片中的行人信息消除得到纯净的背景信息。结果表明该网络结构可以根据行人交互特点及行人运动状态正确生成预测轨迹,在多个数据集上取得了较好的预测结果。
Description
技术领域
本发明涉及行人轨迹预测技术领域,特别是涉及一种基于时空信息的行人轨迹预测方法。
背景技术
行人行为的数据分析大量使用于许多应用程序,这些应用程序通过对行人行为数据进行分析来了解行人的未来行为并做出最终决策,例如自动驾驶、道路规划、城市安全等。。然而,在某些情况下,人们需要走得更远,以不间断方式了解行人的举动,并推断他们的短期或中期意图。然而有许多因素与单个行人的轨迹变化密切相关,例如行人附近障碍物的性质及其空间分布、地面的状态、行人的目的地、行人的年龄、行人的状态等。在一个公共空间里的一整组行人之间会通过互动相互影响彼此的行为,这使得行人轨迹预测变得更加困难。为了解决行人轨迹预测的问题,在过去的几年中,相关文献中提出了几种基于深度学习的方法。
一种名为Vanilla RNN的递归神经网络是两层全连接神经网络的扩展,其中隐藏层具有反馈循环。这个小小的更改能更有效地对顺序数据进行建模。Vanilla RNN不仅处理属于当前步骤的输入数据,还处理存储在隐藏神经元中的过去步骤的数据。RNN在序列相关预测中起着重要作用,使用长短期记忆(LSTM)结构已成功解决了应对长期信息保存的困难。LSTM通过对潜在数据特征进行建模,在自然语言处理(NLP)域中展示了良好的结果,后来用于行人轨迹预测。例如,Sun等人使用LSTM模型从长期观察(即几天到几周)中学习目标环境中的环境和人员活动模式。
生成对抗网络(GAN)依赖于生成器(G)鉴别器(D)架构。它们相互竞争:G网络试图欺骗鉴别器网络,而D网络则适应新的虚假数据。因此,在GAN框架中,生成器模型和鉴别器模型是同时训练的。在跟踪方面,GAN减少了许多传统轨迹预测模型中通常出现的碎片化,并减轻了计算昂贵外观特征的必要性。候选观测值由生成组件生成和更新,为了处理和分类候选序列,同时使用带有生成判别模型的LSTM组件。这种方法可以构成人类行为预测的高精度模型,特别是群体行为。与以前已知的基于CNN的解决方案相比,它要轻巧得多。
S.Hoermann等人提出了一种结合两个网络的方法:一个用于长期运动的CNN和一个作为输入的当前动态环境的贝叶斯估计。场景分析基于单个神经网络中的360°预测区域,除了执行静态和动态区域分割的网络。使用罕见的动态单元,作者创建了一个基于抵消来自不同类别的不平衡像素的损失函数。他们证明了网络能够预测高度复杂的场景,包括各种类型的不同道路使用者(即行人),最长可达3秒。此外,网络可以识别不同的机动等级,例如,左转或右转,以及道路使用者之间的交互。
发明内容
有鉴于此,本发明的目的在于提供一种基于时空信息的行人轨迹预测方法,该方法构建以场景信息、行人交互信息和行人历史轨迹信息为输入的行人轨迹预测网络模型,以达到完成更高精度的行人轨迹预测目标。模型在ETH和UCY数据集进行训练,选用ADE和FDE作为评估指标。
为了实现上述目的,本发明采用如下技术方案:
一种基于时空信息的行人轨迹预测方法,所述行人轨迹预测方法包括如下步骤:
步骤S1、获取数据集,并对该数据集进行处理,其包括:首先提取数据集中的行人坐标,并进行坐标转换,获得行人于像素坐标系下的坐标,再基于该像素坐标系的行人坐标构建各个时刻的行人轨迹顶点矩阵;
步骤S2、针对步骤S1中得到的行人轨迹顶点矩阵,将其转化为图信息,其包括:提取若干时刻的行人轨迹矩阵,计算出行人间的交互作用,得到邻接矩阵;
步骤S3、将步骤S2中得到的图信息输入至空间特征编码器中进行处理,其中,该图信息包括有行人轨迹交互信息及场景信息;
步骤S4、采用时序特征编码器,对步骤S3中的空间特征编码器的输出进行时序维度的特征提取,得到时空特征向量;
步骤S5、针对步骤S4中得到的时空特征向量,变换其向量的维度;
步骤S6、根据步骤S5中经过维度变换后的时空特征向量,对行人未来轨迹进行预测。
进一步的,在所述步骤S1中,基于公式(1)进行坐标转换,该公式(1)的表达式为:
在公式(1)中,u、v表示像素坐标系中的x、y轴,xw、yw表示世界坐标系中的x、y轴,其中,矩阵H表示为:
在公式(2)中,[r1 r2 t]为相机外参,[r1 r2]为旋转参数,t为平移参数,M为相机内参,s为尺度因子。
进一步的,所述步骤S2具体包括:
步骤S201、所述行人轨迹顶点矩阵,其表示为:
V'={vij|i∈{1,2,...,N},j∈{1,2}} (3)
在公式(3)中,该矩阵V'共N行,每行代表一个行人,共2列,分别代表x、y轴;
步骤S202、提取多个时刻的顶点矩阵,且设为一组,其表示为:
步骤S203、根据步骤S202中得到的行人坐标数据计算出行人间交互作用的大小,核函数为:
步骤S204、生成的邻接矩阵为:
进一步的,所述步骤S3具体包括:
步骤S301、针对步骤S2中得到的行人坐标信息的顶点矩阵与行人交互信息的邻接矩阵,将其截取一帧作为网络输入,则输入表示为:V'={vij|i∈{1,2,...,N},j∈{1,2}以及,A'={aij|i∈{1,2,...,N},j∈{1,2,...,N}};
步骤S305、对于整体网络,当其输入为顶点矩阵V时,则其最终输出为:
vtraj=GCN(V)=GCNlayer(GCNlayer(...GCNlayer(V))) (8)
在公式(8)中,vtraj表示为最终得到的行人轨迹交互信息的编码特征向量;
步骤S306、按时间顺序重复步骤S301-步骤S305,得到不同时刻的vtraj,再按时序排列成为最终的行人轨迹交互编码向量:
步骤S307、采用ResNet18提取网络输入中的场景特征,再叠加全连接与非线性激活层于最终输出层,生成场景特征向量:
Vscene=LeakyRelu(FC(ResNet(picture))) (10)
步骤S308、将步骤S306中得到的行人轨迹交互编码向量与步骤S307中得到的场景特征向量拼接成空间特征编码器最终输出,其表示为:
Vspatio=concat(Vtraj,Vscene) (11)。
进一步的,所述步骤S4具体包括:
步骤S401、将空间特征向量为Vspatio按时序分为Tobs个向量:
步骤S404、设每次输入时序段长度为Tseg,则每次的输入为:
步骤S405、每次时序特征的计算过程,其表示为:
步骤S406、将不同序列段的时序编码向量拼接,得到时空特征向量:
进一步的,在所述步骤S5中,采用维度扩展器变换时空特征向量的维度,当,输入的三维矩阵为Hi×Wi×Ci时,则输出矩阵为Ho×Wo×Co,其中,Co仅与卷积核数量有关,Ci为时间维度,保持其他维度不变,计算公式:
在公式(14)中,No为输出维度,Ni为输入维度,F为卷积核尺寸,P为填充像素数,S为卷积步长。
进一步的,在所述步骤S5中,所述维度扩展器采用层叠结构,当每层输入为X时,则每层表达式为:
layerExp(X)=PReLu(Conv(X));
在所述步骤S5中,所述维度扩展器整体表示为:
VExp=ExpNN(Vst)=layerExp(layerExp(...layerExp(Vst))),其中,Vst为时
序特征编码器输出,VExp是维度扩展器的输出。
进一步的,在在所述步骤S5中,F=3、P=1、S=1。
进一步的,所述数据集包括:UCY数据集和ETH数据集。
进一步的,在所述步骤S6中,通过将时空特征向量输入轨迹生成器中,来对行人未来轨迹进行预测。
本发明的有益效果是:
在行人轨迹预测中影响行人轨迹特征变化的因素众多,因而轨迹预测的精度往往无法保证,也基于此,本发明从行人的多种特种中选取了场景信息、行人交互信息和行人历史轨迹信息这三个会对行人轨迹产生明显影响的因素作为神经网络的输入,来训练模型,用以实现精确度更高的行人轨迹预测。
附图说明
图1为实施例1中一种基于时空信息的行人轨迹预测方法的流程示意图;
图2为实施例1中提供的时序特征编码器的模型示意图;
图3为实施例1中提供的维度扩展器结构示意图;
图4为实施例1中提供的轨迹生成器网络的模型示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参见图1-图4,本实施例提供一种基于时空信息的行人轨迹预测方法,包括:
步骤S1、获取训练用数据集,并对该数据集进行处理,其具体包括:首先提取数据集中的行人坐标,并进行坐标转换,获得行人于像素坐标系下的坐标,再基于该像素坐标系的行人坐标构建各个时刻的行人轨迹顶点矩阵,其中,数据集采用人类轨道数据集UCY和ETH。选取评估指标平均位移误差(ADE)和最终位移误差(FDE)。
具体的说,在本实施例中,该步骤S1具体包括:
将数据从文本文件中读取,将读取后的数据放入矩阵中,并将行人坐标转化到像素坐标系下。将世界坐标系转换到像素坐标系的矩阵为:
在公式(1)中,[r1 r2 t]为相机外参,[r1 r2]为旋转参数,t为平移参数;M为相机内参,其具体数值取决于镜头畸变、镜头焦距等因素;s为尺度因子,控像素坐标系与世界坐标系间的尺度关系。也可写成:
因此坐标系间转换的公式为:
在公式(2)中,u、v表示像素坐标系中的x、y轴,xw、yw表示世界坐标系中的x、y轴。
步骤S2、针对步骤S1中得到的行人轨迹顶点矩阵,将其转化为图信息,其包括:
提取若干时刻的行人轨迹矩阵,计算出行人间的交互作用,得到邻接矩阵;
具体的说,在本实施例中,所述步骤S2具体包括:
步骤S201、所述行人轨迹顶点矩阵,其表示为:
V'={vij|i∈{1,2,...,N},j∈{1,2}} (3)
在公式(3)中,该矩阵V'共N行,每行代表一个行人,共2列,分别代表x、y轴;
步骤S202、提取多个时刻的顶点矩阵,且设为一组,其表示为:
更具体的说,在本实施例中,可以选择8个顶点矩阵,设为一组。
步骤S203、根据步骤S202中得到的行人坐标数据计算出行人间交互作用的大小,核函数为:
步骤S204、生成的邻接矩阵为:
步骤S3、将步骤S2中得到的图信息输入至空间特征编码器中进行处理,其中,该图信息包括有行人轨迹交互信息及场景信息;
具体的说,在本实施例中,所述步骤S3具体包括:
步骤S301、针对步骤S2中得到的行人坐标信息的顶点矩阵与行人交互信息的邻接矩阵,将其截取一帧作为网络输入,则输入表示为:V'={vij|i∈{1,2,...,N},j∈{1,2}以及,A'={aij|i∈{1,2,...,N},j∈{1,2,...,N}};
步骤S305、对于整体网络,当其输入为顶点矩阵V时,则其最终输出为:
vtraj=GCN(V)=GCNlayer(GCNlayer(...GCNlayer(V))) (8)
在公式(8)中,vtraj表示为最终得到的行人轨迹交互信息的编码特征向量;
步骤S306、按时间顺序重复步骤S301-步骤S305,得到不同时刻的vtraj,再按时序排列成为最终的行人轨迹交互编码向量:
步骤S307、采用ResNet18提取网络输入中的场景特征,再叠加全连接与非线性激活层于最终输出层,生成场景特征向量:
Vscene=LeakyRelu(FC(ResNet(picture))) (10)
步骤S308、将步骤S306中得到的行人轨迹交互编码向量与步骤S307中得到的场景特征向量拼接成空间特征编码器最终输出,其表示为:
Vspatio=concat(Vtraj,Vscene) (11)。
步骤S4、采用时序特征编码器,对步骤S3中的空间特征编码器的输出进行时序维度的特征提取,得到时空特征向量,其中,时序特征的提取本实施例采用Transformer结构,其具体结构示意图如图2所示。
具体的说,在本实施例中,所述步骤S4具体包括:
步骤S401、将空间特征向量为Vspatio按时序分为Tobs个向量:
步骤S404、设每次输入时序段长度为Tseg,则每次的输入为:
步骤S405、每次时序特征的计算过程,其表示为:
步骤S406、将不同序列段的时序编码向量拼接,得到时空特征向量:
步骤S5、针对步骤S4中得到的时空特征向量,变换其向量的维度;
在所述步骤S5中,采用维度扩展器变换时空特征向量的维度,当,输入的三维矩阵为Hi×Wi×Ci时,则输出矩阵为Ho×Wo×Co,其中,Co仅与卷积核数量有关,Ci为时间维度,保持其他维度不变,计算公式:
在公式(14)中,No为输出维度,Ni为输入维度,F为卷积核尺寸,P为填充像素数,S为卷积步长。
更具体的说,在本实施例中,设定F=3、P=1、S=1。
更具体的说,在本实施例中,在所述步骤S5中,所述维度扩展器采用层叠结构,其具体结构示意图如图3所示。当每层输入为X时,则每层表达式为:
layerExp(X)=PReLu(Conv(X));
更具体的说,在本实施例中,在所述步骤S5中,所述维度扩展器整体表示为:
VExp=ExpNN(Vst)=layerExp(layerExp(...layerExp(Vst))),其中,Vst为时序特征编码器输出,VExp是维度扩展器的输出。
步骤S6、步骤S5中经过维度变换后的时空特征向量,对行人未来轨迹进行预测。
具体的说,将将处理得到的时空信息输入轨迹生成器,预测未来12帧的行人轨迹,其中,在本实施例中,该轨迹生成器,其具体结构如图4所示。
本发明未详述之处,均为本领域技术人员的公知技术。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于时空信息的行人轨迹预测方法,其特征在于,所述行人轨迹预测方法包括如下步骤:
步骤S1、获取数据集,并对该数据集进行处理,其包括:首先提取数据集中的行人坐标,并进行坐标转换,获得行人于像素坐标系下的坐标,再基于该像素坐标系的行人坐标构建各个时刻的行人轨迹顶点矩阵;
步骤S2、针对步骤S1中得到的行人轨迹顶点矩阵,将其转化为图信息,其包括:提取若干时刻的行人轨迹矩阵,计算出行人间的交互作用,得到邻接矩阵;
步骤S3、将步骤S2中得到的图信息输入至空间特征编码器中进行处理,其中,该图信息包括有行人轨迹交互信息及场景信息;
步骤S4、采用时序特征编码器,对步骤S3中的空间特征编码器的输出进行时序维度的特征提取,得到时空特征向量;
步骤S5、针对步骤S4中得到的时空特征向量,变换其向量的维度;
步骤S6、根据步骤S5中经过维度变换后的时空特征向量,对行人未来轨迹进行预测。
4.根据权利要求3所述的一种基于时空信息的行人轨迹预测方法,其特征在于,所述步骤S3具体包括:
步骤S301、针对步骤S2中得到的行人坐标信息的顶点矩阵与行人交互信息的邻接矩阵,将其截取一帧作为网络输入,则输入表示为:V'={vij|i∈{1,2,...,N},j∈{1,2}以及,A'={aij|i∈{1,2,...,N},j∈{1,2,...,N}};
步骤S305、对于整体网络,当其输入为顶点矩阵V时,则其最终输出为:
vtraj=GCN(V)=GCNlayer(GCNlayer(...GCNlayer(V))) (8)
在公式(8)中,vtraj表示为最终得到的行人轨迹交互信息的编码特征向量;
步骤S306、按时间顺序重复步骤S301-步骤S305,得到不同时刻的vtraj,再按时序排列成为最终的行人轨迹交互编码向量:
步骤S307、采用ResNet18提取网络输入中的场景特征,再叠加全连接与非线性激活层于最终输出层,生成场景特征向量:
Vscene=LeakyRelu(FC(ResNet(picture))) (10)
步骤S308、将步骤S306中得到的行人轨迹交互编码向量与步骤S307中得到的场景特征向量拼接成空间特征编码器最终输出,其表示为:
Vspatio=concat(Vtraj,Vscene) (11)。
7.根据权利要求6所述的一种基于时空信息的行人轨迹预测方法,其特征在于,在所述步骤S5中,所述维度扩展器采用层叠结构,当每层输入为X时,则每层表达式为:
layerExp(X)=PReLu(Conv(X));
在所述步骤S5中,所述维度扩展器整体表示为:
VExp=ExpNN(Vst)=layerExp(layerExp(...layerExp(Vst))),其中,Vst为时序特征编码器输出,VExp是维度扩展器的输出。
8.根据权利要求7所述的一种基于时空信息的行人轨迹预测方法,其特征在于,在在所述步骤S5中,F=3、P=1、S=1。
9.根据权利要求7所述的一种基于时空信息的行人轨迹预测方法,其特征在于,所述数据集包括:UCY数据集和ETH数据集。
10.根据权利要求7所述的一种基于时空信息的行人轨迹预测方法,其特征在于,在所述步骤S6中,通过将时空特征向量输入轨迹生成器中,来对行人未来轨迹进行预测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210203214.3A CN114638408B (zh) | 2022-03-03 | 2022-03-03 | 一种基于时空信息的行人轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210203214.3A CN114638408B (zh) | 2022-03-03 | 2022-03-03 | 一种基于时空信息的行人轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114638408A true CN114638408A (zh) | 2022-06-17 |
CN114638408B CN114638408B (zh) | 2024-10-15 |
Family
ID=81948123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210203214.3A Active CN114638408B (zh) | 2022-03-03 | 2022-03-03 | 一种基于时空信息的行人轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114638408B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997067A (zh) * | 2022-06-30 | 2022-09-02 | 南京航空航天大学 | 一种基于时空图与空域聚合Transformer网络的轨迹预测方法 |
CN115071762A (zh) * | 2022-08-22 | 2022-09-20 | 北京理工大学前沿技术研究院 | 面向城市场景下行人轨迹预测方法、模型及存储介质 |
CN117332033A (zh) * | 2023-09-27 | 2024-01-02 | 中国科学院深圳先进技术研究院 | 一种时空轨迹生成方法、装置、计算机设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112505666A (zh) * | 2020-11-19 | 2021-03-16 | 哈尔滨工程大学 | 一种二维多波束合成孔径声呐目标回波仿真方法 |
CN113052401A (zh) * | 2021-04-26 | 2021-06-29 | 青岛大学 | 盲人行走轨迹预测方法、电子设备及存储介质 |
CN113256681A (zh) * | 2021-05-26 | 2021-08-13 | 北京易航远智科技有限公司 | 基于时空注意力机制的行人轨迹预测方法 |
CN113538506A (zh) * | 2021-07-23 | 2021-10-22 | 陕西师范大学 | 基于全局动态场景信息深度建模的行人轨迹预测方法 |
US20220017122A1 (en) * | 2020-07-17 | 2022-01-20 | Honda Motor Co., Ltd. | System and method for providing social-stage spatio-temporal multi-modal future forecasting |
-
2022
- 2022-03-03 CN CN202210203214.3A patent/CN114638408B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220017122A1 (en) * | 2020-07-17 | 2022-01-20 | Honda Motor Co., Ltd. | System and method for providing social-stage spatio-temporal multi-modal future forecasting |
CN112505666A (zh) * | 2020-11-19 | 2021-03-16 | 哈尔滨工程大学 | 一种二维多波束合成孔径声呐目标回波仿真方法 |
CN113052401A (zh) * | 2021-04-26 | 2021-06-29 | 青岛大学 | 盲人行走轨迹预测方法、电子设备及存储介质 |
CN113792930A (zh) * | 2021-04-26 | 2021-12-14 | 青岛大学 | 盲人行走轨迹预测方法、电子设备及存储介质 |
CN113256681A (zh) * | 2021-05-26 | 2021-08-13 | 北京易航远智科技有限公司 | 基于时空注意力机制的行人轨迹预测方法 |
CN113538506A (zh) * | 2021-07-23 | 2021-10-22 | 陕西师范大学 | 基于全局动态场景信息深度建模的行人轨迹预测方法 |
Non-Patent Citations (1)
Title |
---|
XIN YANG 等: "IST‑PTEPN: an improved pedestrian trajectory and endpoint prediction network based on spatio‑temporal information", 《INTERNATIONAL JOURNAL OF MACHINE LEARNING AND CYBERNETICS》, 5 June 2023 (2023-06-05), pages 4193 - 4206 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997067A (zh) * | 2022-06-30 | 2022-09-02 | 南京航空航天大学 | 一种基于时空图与空域聚合Transformer网络的轨迹预测方法 |
CN115071762A (zh) * | 2022-08-22 | 2022-09-20 | 北京理工大学前沿技术研究院 | 面向城市场景下行人轨迹预测方法、模型及存储介质 |
CN115071762B (zh) * | 2022-08-22 | 2022-12-16 | 北京理工大学前沿技术研究院 | 面向城市场景下行人轨迹预测方法、模型及存储介质 |
CN117332033A (zh) * | 2023-09-27 | 2024-01-02 | 中国科学院深圳先进技术研究院 | 一种时空轨迹生成方法、装置、计算机设备及存储介质 |
CN117332033B (zh) * | 2023-09-27 | 2024-08-16 | 中国科学院深圳先进技术研究院 | 一种时空轨迹生成方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114638408B (zh) | 2024-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119703B (zh) | 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN110263912B (zh) | 一种基于多目标关联深度推理的图像问答方法 | |
Teow | Understanding convolutional neural networks using a minimal model for handwritten digit recognition | |
CN114638408B (zh) | 一种基于时空信息的行人轨迹预测方法 | |
CN113469356A (zh) | 一种基于迁移学习的改进vgg16网络猪的身份识别方法 | |
CN112052886A (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN111080513B (zh) | 一种基于注意力机制的人脸图像超分辨率方法 | |
CN111666919B (zh) | 一种对象识别方法、装置、计算机设备和存储介质 | |
CN112307982A (zh) | 基于交错增强注意力网络的人体行为识别方法 | |
CN112766062B (zh) | 一种基于双流深度神经网络的人体行为识别方法 | |
CN114529984B (zh) | 一种基于可学习pl-gcn和eclstm的骨骼动作识别方法 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN111681178A (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN113869170B (zh) | 一种基于图划分卷积神经网络的行人轨迹预测方法 | |
EP4024343A1 (en) | Viewpoint image processing method and related device | |
CN114694261A (zh) | 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统 | |
CN113763417A (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN116453025A (zh) | 一种缺帧环境下融合时空信息的排球比赛群体行为识别方法 | |
Du et al. | Adaptive visual interaction based multi-target future state prediction for autonomous driving vehicles | |
CN117576724A (zh) | 一种无人机飞鸟检测方法、系统、设备和介质 | |
CN117351542A (zh) | 一种面部表情识别方法及系统 | |
CN113132737A (zh) | 基于泰勒解耦和记忆单元校正的视频预测方法 | |
CN117115911A (zh) | 一种基于注意力机制的超图学习动作识别系统 | |
CN110110651B (zh) | 基于时空重要性和3d cnn的视频中行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |