CN114495492B - 一种基于图神经网络的交通流预测方法 - Google Patents

一种基于图神经网络的交通流预测方法 Download PDF

Info

Publication number
CN114495492B
CN114495492B CN202111678495.XA CN202111678495A CN114495492B CN 114495492 B CN114495492 B CN 114495492B CN 202111678495 A CN202111678495 A CN 202111678495A CN 114495492 B CN114495492 B CN 114495492B
Authority
CN
China
Prior art keywords
time
graph
output
sequence
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111678495.XA
Other languages
English (en)
Other versions
CN114495492A (zh
Inventor
闫碧莹
陈�峰
曹娅琪
张思卿
许晶航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guiyang Information Technology Research Institute
Institute of Software of CAS
Original Assignee
Guiyang Information Technology Research Institute
Institute of Software of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guiyang Information Technology Research Institute, Institute of Software of CAS filed Critical Guiyang Information Technology Research Institute
Priority to CN202111678495.XA priority Critical patent/CN114495492B/zh
Publication of CN114495492A publication Critical patent/CN114495492A/zh
Application granted granted Critical
Publication of CN114495492B publication Critical patent/CN114495492B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于图神经网络的交通流预测方法,在空间依赖性建模时强调相隔较远的空间两点间的依赖关系,并加入时间因素和时序因素;基于轨迹频繁序列和时间顺序相似度构造交通路网的图邻接矩阵,将图定义为加入时间因素的无向图Graph=(V,E,A);利用时间维度和空间维度计算注意力系数,同时关注空间序号和时序变化趋势提出时空融合网络STGFN的交通预测模型,提高了大范围的城市交通流预测的整体预测准确度,尤其是突发交通状况时的预测准确度。

Description

一种基于图神经网络的交通流预测方法
技术领域
本发明涉及交通流预测技术领域,具体涉及一种基于图神经网络的交通流预测方法。
背景技术
如今生活水平的提高和汽车制造工艺的进步导致汽车的拥有量显著提高,在汽车给我们的生活带来便利的同时也不可避免地因为道路流动车辆体量的增加造成了城市道路拥堵问题。缓解拥堵问题首先需要合理分配城市道路资源,而交通流状态预测能够在很大程度上帮助城市空间的合理分配。传统的数据挖掘方法已经不能满足现在的要求。随着深度学习技术的发展,利用深度神经网络模型进行交通流预测已经变得越来越重要,深度学习模型在空间和时间域中都表现强大的学习能力。
当前基于深度学习的交通流预测方法将交通路网建模为非规则网格空间的图(Graph)结构,从而采用图神经网络来聚合空间特征。其中,在构造交通路网时,大多只考虑空间拓扑结构,例如主要依据道路连通性、节点间的欧拉距离或旅行时间来构造空间邻接矩阵,这样就忽略了具有较频繁的旅行次数而相距较远的两点之间的空间相关性。
而事实上,相隔较远的空间两点间也可能存在较强的依赖关系,这种依赖关系表现为两个方面:
1.区域功能相似的空间点往往具有相似的时序特征,例如在上学和放学时段,学校周边的道路车流量都会明显增加,周末时各类休闲娱乐场所车流量都明显增加;
2.区域功能不相似但是有关联的空间点间往往具有明显的时序相关性,例如早高峰时期人流迁徙表现为从住宅区聚集的区域移动到办公区聚集的区域,晚高峰时期人流迁徙表现为从办公区聚集的区域移动到住宅区聚集的区域。
中国专利CN110942637A中公开了一种基于空域图卷积神经网络的SCATS系统道路交通流预测方法。此专利首先根据车道邻接矩阵得到与被预测车道有连接的车道,通过对每条车道的相关性进行排序,选取被预测车道含有阈值K个节点的邻域从而构建目标节点邻域;随后将每条被预测车道及其邻域车道的交通流状态构成时间序列上的高阶邻域交通状态向量,由交通状态向量得到时间序列上的高阶邻域交通状态矩阵,并将其作为CNN模型的输入,基于CNN构建道路交通流状态预测模型,实现交通流状态预测。虽然这种方法能够提高交通流状态的预测精度和抗随机干扰的能力,但卷积过程缺乏空间可达性因素和忽略了内嵌于其空域图卷积内的时间信号的相似性,导致其能够预测短时交通流预测但在更大的城市空间维度和时间序列中没有运算预测能力。
中国专利CN113673769A公开了一种基于多元时间序列插补的图神经网络交通流预测方法。此专利首先用加权图来描述交通网络中节点之间的拓扑,将交通的流入和流出作为节点节点本身的特征,根据各节点流入流出情况,构建交通流图;其次,利用图神经网络对缺失值进行插补,通过图注意力网络得到空间特征序列;最后,时间关注捕获不同时间之间的动态相关性,再利用长短期记忆网络捕获时间特征,得到交通流特征作为预测结果。该专利虽然能够消除交通流预测中时空关系数据缺失带来的影响,克服实际应用中可能出现的数据缺失,实现对交通量进行长期预测,但是该专利设计的时空预测网络直接地结合了图注意力网格和时间序列的交通流,没有关注时间维度和空间维度上的信息聚合以及空间信号的时序变化趋势和计算注意力系数,导致该专利存在对原始数据的信息量要求过高,矩阵之间的关联性弱,运算储量低和依然没有跳脱出基于道路连通性构建图结构造成预测准确度不稳定的缺点。
中国专利CN110517482A中公开了一种基于3D卷积神经网络的短时交通流预测方法。该方法通过将某城市区域划分为32×32个区域,采集每个区域的交通流数据。随后基于采集到的交通流数据,训练3D卷积神经网络模型并对短期交通流进行预测,3D卷积神经网络在传统卷积神经网络的基础上解决了无法有效处理时间特征的缺点,使预测性能得到有效提升。但是,该方法仍然存在的不足之处是,虽然按照经纬度划分的区域划分方式减少了交通流数据量,但是该方法将具有类型功能属性的区域人为分割,弱化了相隔较远的空间两点间存在的较强的依赖关系,同时对区域功能不相似但有关联的时序相关性的区域进行原始信息收集是困难的。
由以上方法可见,目前交通流预测的方法在进行图神经网络的模型建构时仅针对具有高关联性和相似性的节点进行设计,在空间依赖性建模中忽略和缺乏了对时间因素和时序因素的考虑而只是着重与利用拓扑结构的空间邻接矩阵,同时由于节点分布不均匀(例如市中心节点设置密集,环城区域节点设置稀疏)带来的建模尺度的不统一,造成了原始数据收集信息的繁杂和碎片化,使大范围的城市交通流预测存在信息缺失和序列存储量的不足的隐患。因此,有必要在空间依赖性建模时强调相隔较远的空间两点间也可能存在较强的依赖关系,并加入时间因素和时序因素。
发明内容
为了解决以上问题,本发明在建模空间相关性时,显式地加入时间信息,即表示空间相关性的图邻接矩阵是由一组邻接矩阵构成,每个邻接矩阵表示具有相应时间步的空间邻接关系。另外,空间相关关系的建立不仅考虑空间可达性因素,还考虑内嵌于空间的时间序列信号的相似性,空间中相隔很远但具有相似时间序列信号的两个点间仍具有相关性。
在此基础上,本发明充分利用车辆轨迹数据,以数据驱动的方式构造静态图邻接矩阵;设计了基于所构造的图的图卷积和图注意力方法,同时聚合时间维和空间维的信息,通过注意力机制学习动态图结构,实现了时空相关性的深入融合建模。
本发明解决其技术问题所采用的技术方案是:
一种基于图神经网络的交通流预测方法,其特征在于,所述方法包括:
步骤一,交通路网各个节点的交通流数据收集;
步骤二,将交通路网数据图定义为包含时间因素的无向图,基于轨迹频繁序列和时间序列相似度构造交通路网的图邻接矩阵;
步骤三,提出时空图融合网络STGFN作为交通流预测模型,将步骤二得到的数据输入模型进行训练,所述的时空图融合网络STGFN的数据导入和处理顺序包括,时间卷积层–混合时空图卷积层–时间卷积层–卷积层–全连接层,其中STGFN迭代地对未来的数据进行预测;
步骤四,将交通数据输入训练好的模型进行未来交通流预测。
其中,步骤二所述的基于轨迹频繁序列和时间序列相似度构造的路网数据定义无向图为Graph=(V,E,A),其中V为节点集合,与道路上的信号采集传感器相对应,|V|为节点个数,E为节点之间的边集合,E={(u,v,t)|u,v∈V,t∈[0,τ]},τ表示最大时间步阈值,对于E中的任意元素e=(u,v,t),表示节点u是节点v的t步邻居,A={a1,a2,...,aτ},为无向图Graph的多个邻接矩阵的集合,
Figure GDA0004120954730000051
为图的i步邻接矩阵。
进一步地,步骤二所述的基于轨迹频繁序列构造交通路网的图邻接矩阵包括以下步骤:
步骤2.1.1,给定初始的基于时间序列相似度的图邻接矩阵集Atraj={a1,a2,...,aK},且矩阵中所有元素初始化为0;
步骤2.1.2,采用ColSP算法从车辆轨迹数据集中挖掘闭合频繁序列模式
Figure GDA0004120954730000064
步骤2.1.3,假设图信号采样间隔为τ,计算
Figure GDA0004120954730000061
则u是v的t步邻居,图的t步邻接矩阵at中at[u,v]=at[v,u]=Frequv
步骤2.1.4,对于图中任意两点u和v,从闭合频繁序列模式集
Figure GDA0004120954730000065
中搜索包含u和v的所有闭合频繁序列,得到集合
Figure GDA0004120954730000066
则计算u和v间旅行的频繁度Frequv如公式所示:
Figure GDA0004120954730000062
其中,SUP(seq)为闭合频繁序列seq的支持度。
进一步地步骤二所述的基于时间序列相似度构造的交通路网图邻接矩阵包括以下步骤:
步骤2.2.1,给定初始的基于时间序列相似度的图邻接矩阵集Asim={a1,a2,...,aJ},且矩阵中所有元素初始化为0;
步骤2.2.2,取10天的交通流量或交通指数数据后,对每个节点按照时间戳将不同天同一时间的数据求平均值;
步骤2.2.3,假设每10分钟采集一次道路信号,那么对于每个节点得到一个时间序列
Figure GDA0004120954730000063
步骤2.2.4,设置最大平移步数为J,对道路中任意两个节点u和v,设相应的时间序列为Su和Sv,将Sv延时间轴平移-J~J个单位长度,分别求Su和Sv的时间重叠部分的两个子序列S′u和S′v间的欧拉距离;
步骤2.2.5,取距离最小时的平移步数t和距离值disu,v,设置最小相似度阈值为threshdis,若其相似度距离disu,v≤threshdis,则点u是点v的t步邻居,为邻接矩阵赋值at[u,v]=at[v,u]=1;
其中,对所述的时间序列
Figure GDA0004120954730000071
进行平滑处理,设置滑动窗口为3,对每个窗口内的值求平均值得到平滑后的时间序列S∈
Figure GDA0004120954730000072
进一步地,将步骤二得到的数据输入步骤三所述的时空图融合网络STGFN的运算步骤包括:
步骤3.1,将前L个时刻的观测值输入到时间卷积层,其中时间卷积层由一个卷积核大小为Kt×1的1-D卷积和一个门线性单元组成;
步骤3.2,将每个节点上的长度为L的时间序列输入进1-D卷积以Kt为时间窗对序列进行扫描抽取特征,得到一个长度为L-Kt+1的序列,则该模块接收一个图上的时空序列信号X={x1,x2,...,xi,...,xN},
Figure GDA0004120954730000073
随后使用卷积核
Figure GDA0004120954730000076
Figure GDA0004120954730000074
进行卷积操作;
步骤3.3,将步骤3.2通过卷积核卷积后的卷积输出从通道维平均分为两部分P和Q,最终通过如下所示公式得到时间特征抽取模块的输出:
Figure GDA0004120954730000075
其中,Ci是输入通道数,Co是最终输出通道数,⊙代表元素相乘的哈达玛积,门结构σ(Q)用来挑选表示当前状态的P中与空间结构和动态变化性相关的信息;
步骤3.4,将步骤3.3所述的时空图卷积层的输出输入到混合时空图卷积层,其中混合时空图卷积层包括基于静态图结构的Multi-3D-GCN和用于动态随机性建模的STGAT两部分;
进一步地,将步骤3.3得到的输出输入到静态图结构的Multi-3D-GCN得到多图卷积输出的过程包括以下步骤:
步骤3.4.1.1,对基于步骤二所定义的无向图Graph=(V,E,A),V为节点集合,|V|=N;E为节点之间的边集合,E={(u,v,t)|u,v∈V,t∈[0,τ]},τ表示最大时间步阈值,
Figure GDA0004120954730000081
Figure GDA0004120954730000082
表示i步邻接矩阵,
Figure GDA0004120954730000083
为图上的信号,定义3D-GCN为图Graph上的卷积*stg定义,如下公示图所示:
Figure GDA0004120954730000084
步骤3.4.1.2,设基于频繁轨迹构造的图邻接矩阵集为Atraj,基于时间序列信号的相似性构造的图邻接矩阵集为Asim,则Multi-3D-GCN分别对两种图计算图卷积,并将结果进行聚合,最终得到多图卷积结果
Figure GDA0004120954730000091
如公式所示:
Figure GDA0004120954730000092
其中L表示输入序列长度,C为输入信号通道数,Di表示i步度矩阵,
Figure GDA0004120954730000093
是需要学习的参数,Co为输出信号通道数,Multi-3D-GCN表示将多个3D-GCN的结果进行融合,
Figure GDA0004120954730000094
Figure GDA0004120954730000095
分别表示网络第l层和第l+1层的输出特征向量,σ是激活函数,
Figure GDA00041209547300000912
表示聚合方法。
进一步地,将步骤3.3得到的输出输入到用于动态随机性建模的STGAT得到输出的过程包括以下步骤:
步骤3.4.2.1,将步骤3.3所述的时间卷积层的输出输入到动态建模模块STGAT中;
步骤3.4.2.2,计算每个节点的特征序列的差分信号,得到
Figure GDA0004120954730000096
Figure GDA0004120954730000097
Figure GDA0004120954730000098
表示序列
Figure GDA0004120954730000099
在t-τ∶t的子序列;
步骤3.4.2.3,定义STGAT输出一个新的节点特征集合
Figure GDA00041209547300000910
Figure GDA00041209547300000911
得到点j在t′时刻对节点i在t时刻的注意力系数eijtt′计算公式,如下公式所示:
Figure GDA0004120954730000101
aijtt′=tanh(eijtt′),
步骤3.4.2.4,通过步骤3.2.3的输出得到点j在t′时刻对节点i在t时刻的注意力系数eijtt′,则节点i在t时刻的输出特征公式如下公式所示:
Figure GDA0004120954730000102
其中,N是节点个数,T代表序列长度,Ci是每个节点的输入特征数,
Figure GDA0004120954730000103
Figure GDA0004120954730000104
的差分序列,Co是每个节点的输出特征数,Ni是节点i的所有邻居节点集合,τ和δ是超参数,分别表示参与计算的差分序列长度和参与计算时间注意力的最大时间步;
所述的时空融合网络STGFN的数据运算步骤包括以下步骤:
步骤3.5,将步骤3.4.1.3和步骤3.4.2.4得到的Multi-3D-GCN和STGAT的输出分别表示为
Figure GDA0004120954730000105
Figure GDA0004120954730000106
其通过门机制自适应地进行融合,则Hs和Hd的融合算法如下公式所示:
H=z⊙Hs+(1-z)⊙Hd
z=σ(HsWz,1+HdWz,2+bz)
其中,所述的
Figure GDA0004120954730000111
是需要学习的参数,C是通道数,⊙代表元素相乘的哈达玛积,σ(·)代表sigmoid激活函数,z是混合门,这种混合门机制允许静态建模和动态随机性建模的结果自适应地进行选择性融合;
步骤3.6,将步骤3.5的输出结果再一次输入到一个时间卷积层中得到输出结果;
步骤3.7,将步骤3.6的输出结果输入到卷积联合层中,按照比例融合时间步长,使得输出数据的时间维度为1的前提下得到输出结果;
步骤3.8,将步骤3.7的输出结果输入到全连接层对通道数进行转换。
所述的时空图融合网络STGFN迭代地对未来的数据进行预测,每次迭代,将当前时刻前L个时刻的观测值,或预测值,作为输入,预测下一时刻的值,每次预测的结果将作为下一步迭代的输入。
步骤三所述的预测训练模型采用L2损失函数训练模型,其训练过程包括以下步骤:
步骤S1:给定训练数据集
Figure GDA0004120954730000112
步骤S2:模型利用
Figure GDA0004120954730000113
来预测得到
Figure GDA0004120954730000114
步骤S3:模型通过最小化以下损失函数进行训练,如下公式所示:
Figure GDA0004120954730000121
本发明的有益效果:
本发明采用平均绝对误差,平均绝对误差百分比和均方根误差这三项指标对模型效果进行评估,基于轨迹频繁序列模式和时间序列相似性构建图邻接矩阵,比基于道路连通性构建图结构的方法在预测准确度上有稳定提升;基于差分序列的注意力机制在发生突发交通状况时预测效果较好。
附图说明
图中1-为时间维度和空间维度图卷积之间相关性的邻居关系图,2-为图神经网络的交通流预测方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
步骤1:如图1所示,本发明将收集的初始路网数据定义为如下无向图Graph=(V,E,A)。
其中,所述的V为节点集合,与道路上的信号采集传感器相对应;|V|为节点个数;E为节点之间的边集合;E={(u,v,t)|u,v∈V,t∈[0,τ]};τ表示最大时间步阈值;所述E中的任意元素e=(u,v,t),表示节点u是节点v的t步邻居;所述的A={a1,a2,...,aτ}为图Graph的多个邻接矩阵的集合;所述的
Figure GDA0004120954730000131
为无向图的i步邻接矩阵。
步骤2:基于轨迹频繁序列构造交通路网的图邻接矩阵:给定初始的基于时间序列相似度的图邻接矩阵集Atraj={a1,a2,...,aK},矩阵中所有元素初始化为0;采用ColSP算法从轨迹数据集中挖掘闭合频繁序列模式
Figure GDA0004120954730000132
对于图中任意两点u和v,从闭合频繁序列模式集
Figure GDA0004120954730000133
中搜索包含u和v的所有闭合频繁序列,得到集合
Figure GDA0004120954730000134
具体地,所述的计算u和v间旅行的频繁度Frequv如公式所示:
Figure GDA0004120954730000135
其中,SUP(seq)为闭合频繁序列seq的支持度;利用轨迹数据集计算点u和点v间的平均旅行时间Tuv=Travel(u,v);
其中,所述的Frequv运算步骤为:假设图信号采样间隔为τ,计算
Figure GDA0004120954730000136
则u是v的t步邻居,图的t步邻接矩阵at中at[u,v]=at[v,u]=Frequv
步骤3:基于时间序列相似度构造交通路网的图邻接矩阵:
给定初始的基于时间序列相似度的图邻接矩阵集Asim={a1,a2,...,aJ},矩阵中所有元素初始化为0。取10天的交通流量或交通指数数据后,对每个节点按照时间戳将不同天同一时间的数据求平均值;假设每10分钟采集一次道路信号,那么对于每个节点得到一个时间序列
Figure GDA0004120954730000141
设置最大平移步数为J,对道路中任意两个节点u和v,设相应的时间序列为Su和Sv,将Sv沿着时间轴平移-J~J个单位长度,分别求Su和Sv的时间重叠部分的两个子序列S′u和S′v间的欧拉距离;取距离最小时的平移步数t和距离值disu,v,设置最小相似度阈值为threshdis,若其相似度距离disu,v≤threshdis,则点u是点v的t步邻居,为邻接矩阵赋值at[u,v]=at[v,u]=1。
其中,对所述的时间序列
Figure GDA0004120954730000142
进行平滑处理,设置滑动窗口为3,对每个窗口内的值求平均值得到平滑后的时间序列
Figure GDA0004120954730000143
步骤4:如附图2所示,针对上述图结构的交通预测模型即时空图融合网络STGFN,由时间卷积层Temporal Gated Conv–若干个混合时空图卷积层FusionST-graph Conv–时间卷积层Temporal Gated Conv–卷积层–全连接层组成;
所述的STGFN迭代地对未来的数据进行预测;每次迭代,将当前时刻前L个时刻的观测值或预测值作为输入,预测下一时刻的值,每次预测的结果将作为下一步迭代的输入。
步骤4.1:将前L个时刻的观测值输入到时间卷积层Temporal Gated Conv中。
所述的时间卷积层包含一个卷积核大小为Kt×1的1-D卷积和一个门线性单元Gated Linear Units;每个节点上的长度为L的时间序列。
所述的1-D卷积以Kt为时间窗对序列进行扫描抽取特征,得到一个长度为L-Kt+1的序列;
所述的时间卷积层接收一个图上的时空序列信号X={x1,x2,...,xi,...,xN},得到
Figure GDA0004120954730000151
通过卷积核
Figure GDA0004120954730000155
Figure GDA0004120954730000152
进行卷积操作;
其中,Ci是输入通道数,Co是最终输出通道数。
所述的1-D卷积的输出从通道维被平均分为两部分P和Q,最终得到时间特征抽取模块的输出,如公式所示:
Figure GDA0004120954730000153
其中,⊙代表元素相乘的哈达玛积;门结构σ(Q)用来挑选表示当前状态的P中与空间结构和动态变化性相关的信息。
步骤4.2:将所述的前L个时刻的观测值输入到时间卷积层后的结果输入到混合时空图卷积层FusionST-graph Conv中。混合时空图卷积层包括基于静态图结构的Multi-3D-GCN和用于动态随机性建模的STGAT两部分。
步骤4.2.1:将所述的前L个时刻的观测值输入到时间卷积层后的结果输入到基于静态图结构的Multi-3D-GCN模块,得到3D-GCN在图Graph上的卷积*stg定义如下公示图:
Figure GDA0004120954730000154
所述的Multi-3D-GCN表示将多个3D-GCN的结果进行融合;
所述的图Graph定义为图Graph=(V,E,A);
所述的V为节点集合;E为节点之间的边集合X无向图上的信号;τ表示最大时间步阈值;
Figure GDA0004120954730000161
表示i步邻接矩阵;
其中,E={(u,v,t)|u,v∈V,t∈[0,τ]};
Figure GDA0004120954730000162
Figure GDA0004120954730000163
L表示输入序列长度;
C为输入信号通道数;
Di表示i步度矩阵;
Figure GDA0004120954730000164
是需要学习的参数;
Co为输出信号通道数。
所述的3D-GCN同时沿着时间维度和空间维度对图上的信息进行聚合。设基于频繁轨迹构造的图邻接矩阵集为Atraj,基于时间序列信号的相似性构造的图邻接矩阵集为Asim,则Multi-3D-GCN分别对两种图计算图卷积,并将结果进行聚合,最终得到多图卷积结果
Figure GDA0004120954730000165
如下:
Figure GDA0004120954730000171
其中,
Figure GDA0004120954730000172
Figure GDA0004120954730000173
分别表示网络第l层和第l+1层的输出特征向量;σ是激活函数;
Figure GDA0004120954730000179
表示聚合方法,可以为求和、求最大值或求平均值等。
步骤4.2.2:将所述的前L个时刻的观测值输入到时间卷积层后的结果输入到动态建模模块STGAT中。
不同于已有的图注意力方法,本发明提出一种新的图注意力机制STGAT,主要关注空间信号的时序变化趋势,并同时从时间维度和空间维度计算注意力系数。
所述的STGAT运算步骤为:首先计算每个节点的特征序列的差分信号,得到
Figure GDA0004120954730000174
Figure GDA0004120954730000175
表示序列
Figure GDA0004120954730000176
在t-τ∶t的子序列;随后定义STGAT输出一个新的节点特征集合
Figure GDA0004120954730000177
Figure GDA0004120954730000178
得到点j在t′时刻对节点i在t时刻的注意力系数eijtt′计算公式,如下图所示:
Figure GDA0004120954730000181
aijtt′=tanh(eijtt′),
则节点i在t时刻的输出特征公式如下图:
Figure GDA0004120954730000182
其中,N是节点个数;Ci是每个节点的输入特征数;
Figure GDA0004120954730000183
Figure GDA0004120954730000184
的差分序列;Co是每个节点的输出特征数;
所述的Ni是节点i的所有邻居节点集合;
所述的τ和δ是超参数,分别表示参与计算的差分序列长度和参与计算时间注意力的最大时间步。
步骤4.2.3:将步骤4.2.1和步骤4.2.2的输出结果通过门机制自适应地进行融合:将Multi-3D-GCN和STGAT的输出分别表示为
Figure GDA0004120954730000185
Figure GDA0004120954730000186
则Hs和Hd进行融合如下公式所示:
H=z⊙HS+(1-z)⊙Hd
其中,z的定义如下公式所示:
z=σ(HsWz,1+HdWz,2+bz),
其中,所述的
Figure GDA0004120954730000187
是需要学习的参数;C是通道数;⊙代表元素相乘的哈达玛积;σ(·)代表sigmoid激活函数;z是混合门,这种混合门机制允许静态建模和动态随机性建模的结果自适应地进行选择性融合。
步骤4.3:将上述步骤4.2.3的输出结果再一次输入到一个时间卷积层TemporalConvolutionLayer中。
步骤4.4:将步骤4.3的输出结果输入到卷积联合层Convolution UnifiedLayer按比例融合时间步长,使得输出数据的时间维度为1。
步骤4.5:将步骤4.4的输出结果输入到全连接层Fully-Connected Layer对通道数进行转换。
步骤4.6:深度学习损失模型采用L2损失函数训练模型,通过其自主训练不断对转换后的通道数进行定义,最后通过反复训练多个通过以上步骤获得的图神经网络得到交通流预测的结果,即给定训练数据集
Figure GDA0004120954730000191
模型利用
Figure GDA0004120954730000192
来预测得到
Figure GDA0004120954730000193
模型通过最小化以下损失函数进行训练,定义公式如下图:
Figure GDA0004120954730000194

Claims (9)

1.一种基于图神经网络的交通流预测方法,其特征在于,所述方法包括:
步骤一,交通路网各个节点的交通流数据收集;
步骤二,将交通路网数据图定义为包含时间因素的无向图,基于轨迹频繁序列和时间序列相似度构造交通路网的图邻接矩阵;
步骤三,提出时空图融合网络STGFN作为交通流预测模型,将步骤二得到的数据输入模型进行训练,所述的时空图融合网络STGFN的数据导入和处理顺序包括,时间卷积层-混合时空图卷积层-时间卷积层-卷积层-全连接层,其中STGFN迭代地对未来的数据进行预测;
步骤二所述的基于轨迹频繁序列和时间序列相似度构造的路网数据定义无向图为Graph=(V,E,A),其中V为节点集合,与道路上的信号采集传感器相对应,|V|为节点个数,E为节点之间的边集合,E={(u,v,t)|u,v∈V,t∈[0,τ]},v表示最大时间步阈值,对于E中的任意元素e=(u,v,t),表示节点u是节点v的t步邻居,A={a1,a2,...,aτ},为无向图Graph的多个邻接矩阵的集合,
Figure QLYQS_1
为图的i步邻接矩阵。
2.根据权利要求1所述的一种基于图神经网络的交通流预测方法,其特征在于,步骤二所述的基于轨迹频繁序列构造交通路网的图邻接矩阵包括以下步骤:
步骤2.1.1,给定初始的基于时间序列相似度的图邻接矩阵集Atraj={a1,a2,...,aK},且矩阵中所有元素初始化为0;
步骤2.1.2,采用ColSP算法从车辆轨迹数据集中挖掘闭合频繁序列模式
Figure QLYQS_2
步骤2.1.3,假设图信号采样间隔为τ,计算
Figure QLYQS_3
则u是v的t步邻居,图的t步邻接矩阵at中at[u,v]=at[v,u]=Frequv
步骤2.1.4,对于图中任意两点u和v,从闭合频繁序列模式集
Figure QLYQS_4
中搜索包含u和v的所有闭合频繁序列,得到集合
Figure QLYQS_5
则计算u和v间旅行的频繁度Frequv如公式(1)所示:
Figure QLYQS_6
其中,SUP(seq)为闭合频繁序列seq的支持度。
3.根据权利要求1所述的一种基于图神经网络的交通流预测方法,其特征在于,步骤二所述的基于时间序列相似度构造的交通路网图邻接矩阵包括以下步骤:
步骤2.2.1,给定初始的基于时间序列相似度的图邻接矩阵集Asim={a1,a2,...,aJ},且矩阵中所有元素初始化为0;
步骤2.2.2,取10天的交通流量或交通指数数据后,对每个按照时间戳将不同天同一时间的数据求平均值;
步骤2.2.3,假设每10分钟采集一次道路信号,那么对于每个节点得到一个时间序列
Figure QLYQS_7
步骤2.2.4,设置最大平移步数为J,对道路中任意两个节点u和v,设相应的时间序列为Su和Sv,将Sv延时间轴平移-J~J个单位长度,分别求Su和Sv的时间重叠部分的两个子序列S′u和S′v间的欧拉距离;
步骤2.2.5,取距离最小时的平移步数t和距离值disu,v,设置最小相似度阈值为threshdis,若其相似度距离disu,v≤threshdis,则点u是点v的t步邻居,为邻接矩阵赋值at[u,v]=at[v,u]=1;
其中,对所述的时间序列
Figure QLYQS_8
进行平滑处理,设置滑动窗口为3,对每个窗口内的值求平均值得到平滑后的时间序列
Figure QLYQS_9
Figure QLYQS_10
4.根据权利要求1所述的一种基于图神经网络的交通流预测方法,其特征在于,将步骤二得到的数据输入步骤三所述的时空图融合网络STGFN的运算步骤包括:
步骤3.1,将前L个时刻的观测值输入到时间卷积层,其中时间卷积层由一个卷积核大小为Kt×1的1-D卷积和一个门线性单元组成;
步骤3.2,将每个节点上的长度为L的时间序列输入进1-D卷积以Kt为时间窗对序列进行扫描抽取特征,得到一个长度为L-Kt+1的序列,则该模块接收一个图上的时空序列信号X={x1,x2,...,xi,...,xN},
Figure QLYQS_11
随后使用卷积核
Figure QLYQS_12
进行卷积操作;
步骤3.3,将步骤3.2通过卷积核Θ卷积后的输出特征图从通道维平均分为两部分P和Q,最终通过公式(2)得到时间特征抽取模块的输出:
Figure QLYQS_13
Figure QLYQS_14
其中,Ci是输入通道数,Co是最终输出通道数,⊙代表元素相乘的哈达玛积,门结构σ(Q)用来挑选表示当前状态的P中与空间结构和动态变化性相关的信息;
步骤3.4,将步骤3.3所述的时间卷积层的输出输入到混合时空图卷积层,其中混合时空图卷积层包括基于静态图结构的Multi-3D-GCN和用于动态随机性建模的STGAT两部分。
5.根据权利要求4所述的一种基于图神经网络的交通流预测方法,其特征在于,将步骤3.3得到的输出输入到静态图结构的Multi-3D-GCN得到多图卷积输出的过程包括以下步骤:
步骤3.4.1.1,对基于步骤二所定义的无向图Graph=(V,E,A),V为节点集合,|V|=N;E为节点之间的边集合,E={(u,v,t)|u,v∈V,t∈[0,τ]},τ表示最大时间步阈值,
Figure QLYQS_15
Figure QLYQS_16
Figure QLYQS_17
表示i步邻接矩阵,X
Figure QLYQS_18
为图上的信号,定义3D-GCN为图Graph上的卷积*stg定义,如下公式(3)所示:
Figure QLYQS_19
步骤3.4.1.2,设基于频繁轨迹构造的图邻接矩阵集为Atraj,基于时间序列信号的相似性构造的图邻接矩阵集为Asim,则Multi-3D-GCN分别对两种图计算图卷积,并将结果进行聚合,最终得到多图卷积结果
Figure QLYQS_20
如公式(4)所示:
Figure QLYQS_21
其中L表示输入序列长度,C为输入信号通道数,Di表示i步度矩阵,
Figure QLYQS_22
是需要学习的参数,Co为输出信号通道数,Multi-3D-GCN表示将多个3D-GCN的结果进行融合,
Figure QLYQS_23
Figure QLYQS_24
分别表示网络第l层和第l+1层的输出特征向量,σ是激活函数,
Figure QLYQS_25
表示聚合方法。
6.根据权利要求5所述的一种基于图神经网络的交通流预测方法,其特征在于,将步骤3.3所述的时间卷积层的输出输入到用于动态随机性建模的STGAT得到输出的过程包括以下步骤:
步骤3.4.2.1,将步骤3.3得到的输出输入到动态建模模块STGAT中;
步骤3.4.2.2,计算每个节点的特征序列的差分信号,得到
Figure QLYQS_26
Figure QLYQS_27
Figure QLYQS_28
表示序列
Figure QLYQS_29
在t-τ:t的子序列;
步骤3.4.2.3,定义STGAT输出一个新的节点特征集合
Figure QLYQS_30
Figure QLYQS_31
得到点j在t′时刻对节点i在t时刻的注意力系数eijtt′计算公式,如下公式(5)所示:
Figure QLYQS_32
aijtt′=tanh(eijtt′), (5)
步骤3.4.2.4,通过步骤3.4.2.3的输出得到点j在t′时刻对节点i在t时刻的注意力系数eijtt′,则节点i在t时刻的输出特征公式如下公式(6)所示:
Figure QLYQS_33
其中,N是节点个数,Ci是每个节点的输入特征数,
Figure QLYQS_34
Figure QLYQS_35
的差分序列,Co是每个节点的输出特征数,Ni是节点i的所有邻居节点集合,τ和δ是超参数,分别表示参与计算的差分序列长度和参与计算时间注意力的最大时间步。
7.根据权利要求6所述的一种基于图神经网络的交通流预测方法,其特征在于,所述的时空融合网络STGFN的数据运算步骤包括以下步骤:
步骤3.5,将步骤3.4.1.2和步骤3.4.2.4得到的Multi-3D-GCN和STGAT的输出分别表示为
Figure QLYQS_36
Figure QLYQS_37
其通过门机制自适应地进行融合,则Hs和Hd的融合算法如下公式(7)和公式(8)所示:
H=z⊙Hs+(1-z)⊙Hd (7)
z=σ(HsWz,1+HdWz,2+bz), (8)
其中,所述的
Figure QLYQS_38
是需要学习的参数,C是通道数,⊙代表元素相乘的哈达玛积,σ(·)代表sigmoid激活函数,z是混合门,这种混合门机制允许静态建模和动态随机性建模的结果自适应地进行选择性融合;
步骤3.6,将步骤3.5的输出结果再一次输入到一个时间卷积层中得到输出结果;
步骤3.7,将步骤3.6的输出结果输入到卷积联合层中,按照比例融合时间步长,使得输出数据的时间维度为1的前提下得到输出结果;
步骤3.8,将步骤3.7的输出结果输入到全连接层对通道数进行转换。
8.根据权利要求1所述的一种基于图神经网络的交通流预测方法,其特征在于,时空融合网络STGFN迭代地对未来的数据进行预测,每次迭代,将当前时刻前L个时刻的观测值或预测值,作为输入,预测下一时刻的值,每次预测的结果将作为下一步迭代的输入。
9.根据权利要求1-8任一项所述的一种基于图神经网络的交通流预测方法,其特征在于,步骤三所述的迭代预测模型采用L2损失函数训练模型,其训练过程包括以下步骤:
步骤S1:给定训练数据集
Figure QLYQS_39
步骤S2:模型利用
Figure QLYQS_40
来预测得到
Figure QLYQS_41
步骤S3:模型通过最小化以下损失函数进行训练,如公式(9)所示:
Figure QLYQS_42
CN202111678495.XA 2021-12-31 2021-12-31 一种基于图神经网络的交通流预测方法 Active CN114495492B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111678495.XA CN114495492B (zh) 2021-12-31 2021-12-31 一种基于图神经网络的交通流预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111678495.XA CN114495492B (zh) 2021-12-31 2021-12-31 一种基于图神经网络的交通流预测方法

Publications (2)

Publication Number Publication Date
CN114495492A CN114495492A (zh) 2022-05-13
CN114495492B true CN114495492B (zh) 2023-05-23

Family

ID=81509538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111678495.XA Active CN114495492B (zh) 2021-12-31 2021-12-31 一种基于图神经网络的交通流预测方法

Country Status (1)

Country Link
CN (1) CN114495492B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114758311B (zh) * 2022-06-14 2022-09-02 北京航空航天大学 一种基于异质特征融合的交通流量预测方法及系统
CN114925836B (zh) * 2022-07-20 2022-11-29 中国海洋大学 基于动态多视图图神经网络的城市交通车流量推理方法
CN115407277A (zh) * 2022-08-19 2022-11-29 电子科技大学 一种基于图时空网络的雷达目标检测方法
CN115376317B (zh) * 2022-08-22 2023-08-11 重庆邮电大学 一种基于动态图卷积和时序卷积网络的交通流预测方法
CN115985104A (zh) * 2023-02-10 2023-04-18 长三角信息智能创新研究院 一种交通流量预测装置、预测方法及预测模型构建方法
CN117435676B (zh) * 2023-07-13 2024-06-07 南京电力设计研究院有限公司 基于子序列挖掘与有向加权图聚类的建筑能源管理方法
CN118379882B (zh) * 2024-06-24 2024-09-27 西华大学 基于时空元图学习的交通流量预测方法
CN118506580A (zh) * 2024-07-11 2024-08-16 长春大学 一种基于多因素图神经网络与差分分解的交通流预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020104133A4 (en) * 2020-12-16 2021-03-04 Anjanamma, Chappidi MRS Expected conditional clustered regressive deep multilayer precepted neural learning for iot based cellular network traffic prediction with big data
CN112801404A (zh) * 2021-02-14 2021-05-14 北京工业大学 一种基于自适应空间自注意力图卷积的交通预测方法
WO2021109318A1 (zh) * 2019-12-03 2021-06-10 东南大学 一种城市路网短期交通运行状态估计与预测方法
CN113450568A (zh) * 2021-06-30 2021-09-28 兰州理工大学 一种基于时空注意力机制的卷积网络交通流预测方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9240124B2 (en) * 2012-08-08 2016-01-19 Hitachi, Ltd. Traffic-volume prediction device and method
CN104462190B (zh) * 2014-10-24 2018-01-05 中国电子科技集团公司第二十八研究所 一种基于海量空间轨迹挖掘的在线的位置预测方法
CN108346284A (zh) * 2018-01-29 2018-07-31 河海大学 一种基于马尔科夫模型的不确定性路网车辆轨迹预测方法
US11915583B2 (en) * 2019-02-11 2024-02-27 Here Global B.V. Traffic predictions at lane level
US11748596B2 (en) * 2019-05-23 2023-09-05 International Business Machines Corporation Context based vehicular traffic prediction
US11636307B2 (en) * 2019-07-08 2023-04-25 Uatc, Llc Systems and methods for generating motion forecast data for actors with respect to an autonomous vehicle and training a machine learned model for the same
CN110969854A (zh) * 2019-12-13 2020-04-07 深圳先进技术研究院 一种交通流量的预测方法、系统及终端设备
CN112529311B (zh) * 2020-12-16 2024-05-24 南京中兴力维软件有限公司 一种基于图卷积分析的道路流量预测方法和装置
CN113487088B (zh) * 2021-07-06 2024-09-13 哈尔滨工业大学(深圳) 基于动态时空图卷积注意力模型的交通预测方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021109318A1 (zh) * 2019-12-03 2021-06-10 东南大学 一种城市路网短期交通运行状态估计与预测方法
AU2020104133A4 (en) * 2020-12-16 2021-03-04 Anjanamma, Chappidi MRS Expected conditional clustered regressive deep multilayer precepted neural learning for iot based cellular network traffic prediction with big data
CN112801404A (zh) * 2021-02-14 2021-05-14 北京工业大学 一种基于自适应空间自注意力图卷积的交通预测方法
CN113450568A (zh) * 2021-06-30 2021-09-28 兰州理工大学 一种基于时空注意力机制的卷积网络交通流预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
单时序特征图卷积网络融合预测方法;李昊天;盛益强;;计算机与现代化(第09期);全文 *

Also Published As

Publication number Publication date
CN114495492A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN114495492B (zh) 一种基于图神经网络的交通流预测方法
Long et al. Unified spatial-temporal neighbor attention network for dynamic traffic prediction
CN109636049B (zh) 一种结合道路网络拓扑结构与语义关联的拥堵指数预测方法
CN110969854A (zh) 一种交通流量的预测方法、系统及终端设备
CN110827544A (zh) 一种基于图卷积循环神经网络的短时交通流控制方法
CN110543543A (zh) 一种基于多粒度神经网络的用户移动行为预测方法及装置
Wang et al. Traffic accident risk prediction via multi-view multi-task spatio-temporal networks
CN115691137B (zh) 一种基于因果马尔科夫模型的多模态数据预测方法
CN110570035B (zh) 同时建模时空依赖性和每日流量相关性的人流量预测系统
CN115762147B (zh) 一种基于自适应图注意神经网络的交通流量预测方法
CN108337685B (zh) 基于分簇dgm的无线传感器网络数据融合方法
Gu et al. Exploiting interpretable patterns for flow prediction in dockless bike sharing systems
AU2021105525A4 (en) Mobile user trajectory prediction system with extreme machine learning algorithm
CN116108984A (zh) 基于流量-poi因果关系推理的城市流量预测方法
CN115660135A (zh) 基于贝叶斯方法和图卷积的交通流预测方法及系统
CN117195976A (zh) 一种基于分层注意力的交通流量预测方法及系统
CN116504075A (zh) 注意力与多元图卷积融合的时空交通速度预测方法及系统
CN114039871A (zh) 一种蜂窝流量预测的方法、系统、装置及介质
CN115730519A (zh) 一种基于时空势能场的城市人群流动预测系统及其方法
CN112907056B (zh) 一种基于图神经网络的城市管理投诉事件预测方法及系统
Hu et al. Boosting Urban Prediction via Addressing Spatial-Temporal Distribution Shift
CN113409576A (zh) 一种基于贝叶斯网络的交通路网动态预测方法及系统
Hussain et al. A Novel Graph Convolutional Gated Recurrent Unit Framework for Network-Based Traffic Prediction
CN117392846A (zh) 一种时空自适应图学习融合动态图卷积的交通流预测方法
CN116665448A (zh) 一种基于图卷积网络的交通速度实时预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant