CN115272395A - 一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法 - Google Patents
一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法 Download PDFInfo
- Publication number
- CN115272395A CN115272395A CN202210810760.3A CN202210810760A CN115272395A CN 115272395 A CN115272395 A CN 115272395A CN 202210810760 A CN202210810760 A CN 202210810760A CN 115272395 A CN115272395 A CN 115272395A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- track
- historical
- domain
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000008569 process Effects 0.000 claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000012512 characterization method Methods 0.000 claims description 21
- 239000000126 substance Substances 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000001364 causal effect Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法。针对跨域的行人轨迹预测问题,本发明提出了一种基于深度图卷积网络的可迁移行人轨迹预测方法,该方法能够通过在一个行人轨迹数据集上进行深度预测模型的训练,在训练过程中考虑与其它行人轨迹域进行对齐,从而训练得到的模型不仅能够在训练域(源域)上进行很好的轨迹预测,同时能够直接迁移到其它行人轨迹域(目标域)的预测,而不会造成较大偏差。
Description
技术领域
本发明属于行人轨迹预测技术领域,特别是涉及一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法。
背景技术
行人轨迹预测在诸如自动驾驶、服务机器人导航、视频监控等人工智能应用场景中扮演着非常重要的角色。机器人主体(自动驾驶车、服务机器人等智能体)需要能够较为准确的预测周围环境中行人的轨迹,从而在此基于上做出合理的自身决策、规划和控制。长期以来,行人轨迹预测都是非常具有挑战性的难题,主要是因为行人与行人之间、行人与环境之间存在着复杂而精细的交互作用,而对这种复杂精细的交互作用进行建模是非常困难的。以往基于深度学习的预测方法,主要包括:循环类神经网络和对抗生成类神经网络。但不管是哪一种方法,普遍都忽视了不同场景下行人轨迹分布样式的“域差异性”。所谓域差异性主要是指,在不同环境下,行人出行轨迹的模式是完全不同的,例如在商场逛街的行人轨迹分布与在某条城市道路行人通道上的轨迹分布就很不一致,前者更为自由随意,而后者必须服从人行通道的道路线形等条件约束。因此,在一个数据集上训练得到的深度行人轨迹预测模型,直接应用到另外一个域差异性较大的行人轨迹数据预测问题上,会导致预测误差非常大,以致无法用于实践。
发明内容
本发明目的是为了解决跨域联合的行人轨迹预测问题,提出了一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法。
本发明是通过以下技术方案实现的,本发明提出一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法,所述方法中存在两个行人轨迹域,分别称为源域和目标域;通过在源域的轨迹数据集上训练得到深度预测模型,从而对源域未来行人轨迹进行精准预测,同时在源域预测模型训练过程中,考虑源域与目标域在历史轨迹时空特征表征上的对齐,从而使得源域预测模型训练完成后,能够直接迁移到目标域进行轨迹预测。
进一步地,在源域预测模型中,输入为一个历史时段内的多行人轨迹集合;所述源域预测模型训练过程具体为:
步骤(1)、将该输入转化为行人轨迹拓扑图,从而描述历史时段内每个离散时刻上多行人之间的相互作用关系;
步骤(2)、采用深度拓扑图卷积网络,抽取源域行人轨迹的时空特征表征;
步骤(3)、基于所获取的时空特征表征预测源域行人未来时段的轨迹;
步骤(4)、根据所预测的未来时段轨迹与真实标注的未来时段轨迹进行比对,计算预测误差;
步骤(5)、选取与源域相等历史时长的一段目标域历史行人轨迹,将所述轨迹转化为行人轨迹拓扑图;
步骤(6)、采用深度拓扑图卷积网络,抽取目标域行人轨迹的时空特征表征;
步骤(7)、将步骤(2)和步骤(6)所获得的源域和目标域行人轨迹时空特征表征进行对齐操作,获取对齐误差;
步骤(8)、基于步骤(4)和步骤(7)所获得的预测误差和对齐误差,采用反向传播算法,调整模型中的所有待定权重参数,直到误差小于某个事先指定的阈值。
进一步地,在步骤(1)中,
建立源域历史时段内行人与行人之间的拓扑邻接关系;假定在历史时段[T1,Tobs]中,任意时刻的场景下均有N个行人,任意时刻Tm∈[T1,Tobs]构建的行人拓扑图表示为其中表示Tm时刻行人拓扑图的顶点集合,其中每个顶点表示一个行人,因此 表示Tm时刻行人拓扑图的邻接矩阵,任意一对行人i,j之间Tm时刻的连接权重表示为二者之间的欧式距离,具体为其中,为行人i,j在Tm时刻的位置坐标;||.||2为向量的2次范数,即欧式距离,因此 表示Tm时刻行人拓扑图的顶点特征矩阵,其中,表示任意顶点在Tm时刻的特征向量,其维度为Df,其计算公式为:
其中,σ(.)表示sigmoid函数;W1,b1为待学习的权重参数;
基于上述过程,针对所有处于历史时段[T1,Tobs]中的每一时刻构建行人拓扑图,分别表示为其对应的每一时刻顶点特征矩阵表示为进一步压缩表示:源域的历史轨迹拓扑图集合和源域的历史轨迹拓扑图顶点特征矩阵集合
进一步地,在步骤(2)中,
基于步骤(1)所获得的源域历史轨迹拓扑图顶点特征矩阵集合采用深度拓扑图卷积模型,提取用于表征源域历史行人轨迹特征的综合表征,记为其中,是任意Tm∈[T1,Tobs]时刻历史行人轨迹拓扑图所抽取出的时空表征;是以为输入,经由3层的拓扑图卷积深度神经网络而得到。
进一步地,在步骤(3)中,
对于任意行人i,步骤(2)所提取到的其历史轨迹综合表征为 其中表示Tj时刻行人i所处位置的特征表征;该步骤对于特定行人i在未来时段[Tobs+1,Tobs+τ]内的位置轨迹,是以为输入,以时间因果卷积神经网络为模型,预测得到;所述时间因果卷积模型,一共有3层,每一层的卷积核大小为3,激活函数采用Relu;任意第l(1≤l≤3)层的计算公式为:
其中,是第l(1≤l≤3)层时间因果卷积的输出,当l=3时,即输出行人i未来时段的轨迹预测结果,当l=0时,即输入为步骤(2)提取到的行人i历史时段位置轨迹综合表征;b(l)为第l(1≤l≤3)层时间因果卷积模型待学习的参数;表示一维卷积操作;
进一步地,在步骤(4)中,
进一步地,在步骤(5)中,
建立目标域历史时段内行人与行人之间的拓扑邻接关系;目标域中,选择与源域相同数量时刻的场景,每个时刻场景中的行人总数可以与源域不同;其构建拓扑图的过程与步骤(1)中源域行人轨迹关系拓扑图构建流程相同;最终建立的目标域拓扑图集合表示为Gt,目标域拓扑图特征矩阵记为Ft。
进一步地,在步骤(6)和步骤(7)中,
基于步骤(5)建立的目标域历史时段内行人轨迹关系拓扑图Gt和拓扑图特征矩阵Ft,提取到目标域历史时段内轨迹特征表征综合表征,记为Ht;
建立源域和目标域之间的跨域特征对齐,具体的对齐方式是计算源域历史行人轨迹综合表征Hs与目标域历史行人轨迹综合表征Ht之间的对齐误差,进一步最小化该误差;对齐误差的计算公式为:
进一步地,在步骤(8)中,
最小化步骤(4)和步骤(7)所得到的两个误差,依据梯度下降方法,调整模型中所有待学习的参数;最小化目标函数为:
进一步地,所述预测方法还包括预测模型推理过程,所述预测模型推理过程具体为:
步骤1:收集当前时刻的前序|Tobs-T1|个历史行人观测位置场景,获取到全部行人的历史位置轨迹;
步骤2:依据步骤(1)建立历史时段[T1,Tobs]内的一系列拓扑关系图;
步骤3:将步骤2得到的拓扑关系图输入到训练得到的预测模型,直接输出未来时段[Tobs+1,Tobs+τ]的预测轨迹。
本发明重点针对跨域的行人轨迹预测问题,提出了一种基于深度图卷积网络的可迁移行人轨迹预测方法,该方法能够通过在一个行人轨迹数据集上进行深度预测模型的训练,在训练过程中考虑与其它行人轨迹域进行对齐,从而训练得到的模型不仅能够在训练域(源域)上进行很好的轨迹预测,同时能够直接迁移到其它行人轨迹域(目标域)的预测,而不会造成较大偏差。
附图说明
图1为行人轨迹预测问题示意图;
图2为预测模型整体架构示意图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明主要是为了解决跨域联合的行人轨迹预测问题。问题中存在两个行人轨迹域(例如商场行人轨迹数据集和城市人行道上的轨迹数据集),分别称为源域和目标域。发明的目标是通过在源域的轨迹数据集上训练得到深度预测模型,从而对源域未来行人轨迹进行精准预测,同时在源域预测模型训练过程中,考虑源域与目标域在历史轨迹时空特征表征上的对齐,从而使得源域预测模型训练完成后,不仅能够在源域上做出精准的轨迹预测,同时能够很好的直接迁移到目标域轨迹预测问题上,得到精确的预测结果。
基本符号定义:
任意行人i在历史时间段[T1,Tobs]之间被观测到的出行轨迹(一系列时间位置点)表示为其中表示Tj时刻,行人i的位置坐标,表示为其中分别为Tj时刻,行人i所处位置的横坐标和纵坐标。假定每个时刻的场景中都有N个行人(参照图1,每个带颜色的原点表示一个行人,每个矩形框代表一个时刻的观测场景),那么N个行人的历史被观测轨迹集合表示为Γ={Γ1,Γ2,...,ΓN}。在这样的定义下,多行人轨迹预测问题,即基于多行人历史时间段[T1,Tobs]内观测轨迹数据集合Γ={Γ1,Γ2,...,ΓN},预测其未来时间段[Tobs+1,Tobs+τ]内的轨迹数据集合表示为其中任意表示行人i的未来时段[Tobs+1,Tobs+τ]内的待预测轨迹。行人轨迹预测的示意图如图1所示。
本发明所建立的行人轨迹预测模型为深度学习模型,因此其实现整体上分为训练和推理两大步过程。
本发明提出的跨域可迁移行人轨迹预测深度学习模型整体架构如图2所示。架构整体上分为两个部分:上面红色矩形框部分中为源域行人轨迹预测模型,下面部分为源域与目标域行人轨迹特征表征对齐模型。
结合图1-图2,本发明提出一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法,所述方法中存在两个行人轨迹域,分别称为源域和目标域;通过在源域的轨迹数据集上训练得到深度预测模型,从而对源域未来行人轨迹进行精准预测,同时在源域预测模型训练过程中,考虑源域与目标域在历史轨迹时空特征表征上的对齐,从而使得源域预测模型训练完成后,能够直接迁移到目标域进行轨迹预测。
在源域预测模型中,输入为一个历史时段内的多行人轨迹集合;所述源域预测模型训练过程具体为:
步骤(1)、将该输入转化为行人轨迹拓扑图,从而描述历史时段内每个离散时刻上多行人之间的相互作用关系;
步骤(2)、采用深度拓扑图卷积网络,抽取源域行人轨迹的时空特征表征;
步骤(3)、基于所获取的时空特征表征预测源域行人未来时段的轨迹;
步骤(4)、根据所预测的未来时段轨迹与真实标注的未来时段轨迹进行比对,计算预测误差;
步骤(5)、选取与源域相等历史时长的一段目标域历史行人轨迹,将所述轨迹转化为行人轨迹拓扑图;
步骤(6)、采用深度拓扑图卷积网络,抽取目标域行人轨迹的时空特征表征;
步骤(7)、将步骤(2)和步骤(6)所获得的源域和目标域行人轨迹时空特征表征进行对齐操作,获取对齐误差;
步骤(8)、基于步骤(4)和步骤(7)所获得的预测误差和对齐误差,采用反向传播算法,调整模型中的所有待定权重参数,直到误差小于某个事先指定的阈值。
在步骤(1)中,
建立源域历史时段内行人与行人之间的拓扑邻接关系;假定在历史时段[T1,Tobs]中,任意时刻的场景下均有N个行人,任意时刻Tm∈[T1,Tobs]构建的行人拓扑图表示为其中表示Tm时刻行人拓扑图的顶点集合,其中每个顶点表示一个行人,因此 表示Tm时刻行人拓扑图的邻接矩阵,任意一对行人i,j之间Tm时刻的连接权重表示为二者之间的欧式距离,具体为其中,为行人i,j在Tm时刻的位置坐标;||.||2为向量的2次范数,即欧式距离,因此 表示Tm时刻行人拓扑图的顶点特征矩阵,其中,表示任意顶点在Tm时刻的特征向量,其维度为Df,其计算公式为:
其中,σ(.)表示sigmoid函数;W1,b1为待学习的权重参数;
基于上述过程,针对所有处于历史时段[T1,Tobs]中的每一时刻构建行人拓扑图,分别表示为其对应的每一时刻顶点特征矩阵表示为进一步压缩表示:源域的历史轨迹拓扑图集合和源域的历史轨迹拓扑图顶点特征矩阵集合
在步骤(2)中,
基于步骤(1)所获得的源域历史轨迹拓扑图顶点特征矩阵集合采用深度拓扑图卷积模型,提取用于表征源域历史行人轨迹特征的综合表征,记为其中,是任意Tm∈[T1,Yobs]时刻历史行人轨迹拓扑图所抽取出的时空表征;是以为输入,经由3层的拓扑图卷积深度神经网络而得到。
①计算Tm时刻行人轨迹拓扑图带有自连接的邻接矩阵:
②第l层深度拓扑图卷积计算公式为:
在步骤(3)中,
本步骤采用时间因果卷积深度学习模型,基于综合表征对未来行人轨迹进行预测。其工作方式是针对多个行人的轨迹预测采用同一个因果卷积神经网络(不同行人之间参数共享),并行的进行同步预测。具体而言,对于任意行人i,步骤(2)所提取到的其历史轨迹综合表征为其中表示Tj时刻行人i所处位置的特征表征;该步骤对于特定行人i在未来时段[Tobs+1,Tobs+τ]内的位置轨迹,是以为输入,以时间因果卷积神经网络为模型,预测得到;所述时间因果卷积模型,一共有3层,每一层的卷积核大小为3,激活函数采用Relu;任意第l(1≤l≤3)层的计算公式为:
其中,是第l(1≤l≤3)层时间因果卷积的输出,当l=3时,即输出行人i未来时段的轨迹预测结果,当l=0时,即输入为步骤(2)提取到的行人i历史时段位置轨迹综合表征;b(l)为第l(1≤l≤3)层时间因果卷积模型待学习的参数;表示一维卷积操作;
在步骤(4)中,
在步骤(5)中,
建立目标域历史时段内行人与行人之间的拓扑邻接关系;目标域中,选择与源域相同数量时刻的场景,每个时刻场景中的行人总数可以与源域不同;其构建拓扑图的过程与步骤(1)中源域行人轨迹关系拓扑图构建流程相同;最终建立的目标域拓扑图集合表示为Gt,目标域拓扑图特征矩阵记为Ft。
在步骤(6)和步骤(7)中,
基于步骤(5)建立的目标域历史时段内行人轨迹关系拓扑图Gt和拓扑图特征矩阵Ft,采用与步骤(2)相同的方法,提取到目标域历史时段内轨迹特征表征综合表征,记为Ht;
建立源域和目标域之间的跨域特征对齐,具体的对齐方式是计算源域历史行人轨迹综合表征Hs与目标域历史行人轨迹综合表征Ht之间的对齐误差,进一步最小化该误差;对齐误差的计算公式为:
在步骤(8)中,
最小化步骤(4)和步骤(7)所得到的两个误差,依据梯度下降方法,调整模型中所有待学习的参数;最小化目标函数为:
所述预测方法还包括预测模型推理过程,训练得到的行人轨迹预测模型,可以直接在源域和目标域之上进行跨域预测。其推理过程如图2所示。红色矩形框中的模型。所述预测模型推理过程具体为:
步骤1:收集当前时刻的前序|Tobs-T1|个历史行人观测位置场景,获取到全部行人的历史位置轨迹;
步骤2:依据步骤(1)建立历史时段[T1,Tobs]内的一系列拓扑关系图;
步骤3:将步骤2得到的拓扑关系图输入到训练得到的预测模型,直接输出未来时段[Tobs+1,Tobs+τ]的预测轨迹。这里τ的取值(也就是预测的时段数)一般建议比obs(也就是输入的观测时段数)小。
以上对本发明所提出的一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法,其特征在于,所述方法中存在两个行人轨迹域,分别称为源域和目标域;通过在源域的轨迹数据集上训练得到深度预测模型,从而对源域未来行人轨迹进行精准预测,同时在源域预测模型训练过程中,考虑源域与目标域在历史轨迹时空特征表征上的对齐,从而使得源域预测模型训练完成后,能够直接迁移到目标域进行轨迹预测。
2.根据权利要求1所述的方法,其特征在于,在源域预测模型中,输入为一个历史时段内的多行人轨迹集合;所述源域预测模型训练过程具体为:
步骤(1)、将该输入转化为行人轨迹拓扑图,从而描述历史时段内每个离散时刻上多行人之间的相互作用关系;
步骤(2)、采用深度拓扑图卷积网络,抽取源域行人轨迹的时空特征表征;
步骤(3)、基于所获取的时空特征表征预测源域行人未来时段的轨迹;
步骤(4)、根据所预测的未来时段轨迹与真实标注的未来时段轨迹进行比对,计算预测误差;
步骤(5)、选取与源域相等历史时长的一段目标域历史行人轨迹,将所述轨迹转化为行人轨迹拓扑图;
步骤(6)、采用深度拓扑图卷积网络,抽取目标域行人轨迹的时空特征表征;
步骤(7)、将步骤(2)和步骤(6)所获得的源域和目标域行人轨迹时空特征表征进行对齐操作,获取对齐误差;
步骤(8)、基于步骤(4)和步骤(7)所获得的预测误差和对齐误差,采用反向传播算法,调整模型中的所有待定权重参数,直到误差小于某个事先指定的阈值。
3.根据权利要求2所述的方法,其特征在于,在步骤(1)中,
建立源域历史时段内行人与行人之间的拓扑邻接关系;假定在历史时段[T1,Tobs]中,任意时刻的场景下均有N个行人,任意时刻Tm∈[T1,Tobs]构建的行人拓扑图表示为其中表示Tm时刻行人拓扑图的顶点集合,其中每个顶点表示一个行人,因此 表示Tm时刻行人拓扑图的邻接矩阵,任意一对行人i,j之间Tm时刻的连接权重表示为二者之间的欧式距离,具体为其中,为行人i,j在Tm时刻的位置坐标;||·||2为向量的2次范数,即欧式距离,因此表示Tm时刻行人拓扑图的顶点特征矩阵,其中,表示任意顶点在Tm时刻的特征向量,其维度为Df,其计算公式为:
其中,σ(.)表示sigmoid函数;W1,b1为待学习的权重参数;
5.根据权利要求4所述的方法,其特征在于,在步骤(3)中,
对于任意行人i,步骤(2)所提取到的其历史轨迹综合表征为 其中表示Tj时刻行人i所处位置的特征表征;该步骤对于特定行人i在未来时段[Tobs+1,Tobs+τ]内的位置轨迹,是以为输入,以时间因果卷积神经网络为模型,预测得到;所述时间因果卷积模型,一共有3层,每一层的卷积核大小为3,激活函数采用Relu;任意第l(1≤l≤3)层的计算公式为:
其中,是第l(1≤l≤3)层时间因果卷积的输出,当l=3时,即输出行人i未来时段的轨迹预测结果,当l=0时,即输入为步骤(2)提取到的行人i历史时段位置轨迹综合表征;b(l)为第l(1≤l≤3)层时间因果卷积模型待学习的参数;表示一维卷积操作;
7.根据权利要求6所述的方法,其特征在于,在步骤(5)中,
建立目标域历史时段内行人与行人之间的拓扑邻接关系;目标域中,选择与源域相同数量时刻的场景,每个时刻场景中的行人总数可以与源域不同;其构建拓扑图的过程与步骤(1)中源域行人轨迹关系拓扑图构建流程相同;最终建立的目标域拓扑图集合表示为Gt,目标域拓扑图特征矩阵记为Ft。
10.根据权利要求9所述的方法,其特征在于,所述预测方法还包括预测模型推理过程,所述预测模型推理过程具体为:
步骤1:收集当前时刻的前序|Tobs-T1|个历史行人观测位置场景,获取到全部行人的历史位置轨迹;
步骤2:依据步骤(1)建立历史时段[T1,Tobs]内的一系列拓扑关系图;
步骤3:将步骤2得到的拓扑关系图输入到训练得到的预测模型,直接输出未来时段[Tobs+1,Tobs+τ]的预测轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210810760.3A CN115272395A (zh) | 2022-07-11 | 2022-07-11 | 一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210810760.3A CN115272395A (zh) | 2022-07-11 | 2022-07-11 | 一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272395A true CN115272395A (zh) | 2022-11-01 |
Family
ID=83765424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210810760.3A Pending CN115272395A (zh) | 2022-07-11 | 2022-07-11 | 一种基于深度图卷积网络的跨域可迁移行人轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272395A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223126A (zh) * | 2020-01-06 | 2020-06-02 | 西安理工大学 | 一种基于迁移学习的跨视角轨迹模型构建方法 |
WO2021134169A1 (zh) * | 2019-12-30 | 2021-07-08 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
CN113326974A (zh) * | 2021-05-01 | 2021-08-31 | 北京工业大学 | 一种基于多任务超图卷积网络的多源交通流预测方法 |
CN113362367A (zh) * | 2021-07-26 | 2021-09-07 | 北京邮电大学 | 一种基于多精度交互的人群轨迹预测方法 |
US20210406760A1 (en) * | 2020-06-25 | 2021-12-30 | International Business Machines Corporation | Model transfer learning across evolving processes |
CN114723784A (zh) * | 2022-04-08 | 2022-07-08 | 重庆大学 | 一种基于域适应技术的行人运动轨迹预测方法 |
-
2022
- 2022-07-11 CN CN202210810760.3A patent/CN115272395A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021134169A1 (zh) * | 2019-12-30 | 2021-07-08 | 华为技术有限公司 | 一种轨迹预测方法及相关设备 |
CN111223126A (zh) * | 2020-01-06 | 2020-06-02 | 西安理工大学 | 一种基于迁移学习的跨视角轨迹模型构建方法 |
US20210406760A1 (en) * | 2020-06-25 | 2021-12-30 | International Business Machines Corporation | Model transfer learning across evolving processes |
CN113326974A (zh) * | 2021-05-01 | 2021-08-31 | 北京工业大学 | 一种基于多任务超图卷积网络的多源交通流预测方法 |
CN113362367A (zh) * | 2021-07-26 | 2021-09-07 | 北京邮电大学 | 一种基于多精度交互的人群轨迹预测方法 |
CN114723784A (zh) * | 2022-04-08 | 2022-07-08 | 重庆大学 | 一种基于域适应技术的行人运动轨迹预测方法 |
Non-Patent Citations (2)
Title |
---|
YI XU 等: "Adaptive Trajectory Prediction via Transferable GNN" * |
殷浩腾;刘洋;: "基于社交属性的时空轨迹语义分析" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rehder et al. | Pedestrian prediction by planning using deep neural networks | |
CN108399745B (zh) | 一种基于无人机的分时段城市路网状态预测方法 | |
KR102021992B1 (ko) | 교통신호 제어 장치, 교통신호 제어 방법 및 교통신호 제어 프로그램을 저장하는 저장매체 | |
CN113313947B (zh) | 短期交通预测图卷积网络的路况评估方法 | |
CN109636049B (zh) | 一种结合道路网络拓扑结构与语义关联的拥堵指数预测方法 | |
Chen et al. | Autonomous exploration under uncertainty via deep reinforcement learning on graphs | |
CN110737968B (zh) | 基于深层次卷积长短记忆网络的人群轨迹预测方法及系统 | |
US11562490B2 (en) | Systems and methods for video object segmentation | |
CN114519932B (zh) | 一种基于时空关系抽取的区域交通状况集成预测方法 | |
Saroya et al. | Online exploration of tunnel networks leveraging topological CNN-based world predictions | |
Sarkar et al. | Trajectory prediction of traffic agents at urban intersections through learned interactions | |
CN114863699B (zh) | 一种基于数字孪生的城市车路协同交通流预测方法 | |
CN113705636A (zh) | 一种自动驾驶车辆轨迹预测方法、装置及电子设备 | |
Chu et al. | Traffic signal control using end-to-end off-policy deep reinforcement learning | |
CN113568410B (zh) | 一种异构智能体轨迹预测方法、系统、设备及介质 | |
CN110281949B (zh) | 一种自动驾驶统一分层决策方法 | |
CN112071062A (zh) | 一种基于图卷积网络和图注意力网络的行车时间估计方法 | |
CN114117259A (zh) | 一种基于双重注意力机制的轨迹预测方法及装置 | |
CN112541449A (zh) | 一种基于无人机航拍视角的行人轨迹预测方法 | |
Saksena et al. | Towards behavioural cloning for autonomous driving | |
Ye et al. | Fedlight: Federated reinforcement learning for autonomous multi-intersection traffic signal control | |
Mun et al. | Occlusion-aware crowd navigation using people as sensors | |
CN117516581A (zh) | 融合BEVFormer和邻域注意力Transformer端到端自动驾驶轨迹规划系统、方法及训练方法 | |
CN117116048A (zh) | 基于知识表示模型和图神经网络的知识驱动交通预测方法 | |
CN115331460B (zh) | 一种基于深度强化学习的大规模交通信号控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221101 |
|
RJ01 | Rejection of invention patent application after publication |