CN113487061A - 一种基于图卷积-Informer模型的长时序交通流量预测方法 - Google Patents

一种基于图卷积-Informer模型的长时序交通流量预测方法 Download PDF

Info

Publication number
CN113487061A
CN113487061A CN202110592309.4A CN202110592309A CN113487061A CN 113487061 A CN113487061 A CN 113487061A CN 202110592309 A CN202110592309 A CN 202110592309A CN 113487061 A CN113487061 A CN 113487061A
Authority
CN
China
Prior art keywords
time
traffic flow
sequence
model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110592309.4A
Other languages
English (en)
Inventor
郭自强
程保喜
杨晓磊
薛时伦
张挺
张刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi Yunshidai Smart City Technology Development Co ltd
Original Assignee
Shanxi Yunshidai Smart City Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi Yunshidai Smart City Technology Development Co ltd filed Critical Shanxi Yunshidai Smart City Technology Development Co ltd
Priority to CN202110592309.4A priority Critical patent/CN113487061A/zh
Publication of CN113487061A publication Critical patent/CN113487061A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/215Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2474Sequence data queries, e.g. querying versioned data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Remote Sensing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Fuzzy Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明一种基于图卷积‑Informer模型的长时序交通流量预测方法,属于长时序交通流量预测技术领域;所要解决的技术问题为:提供一种基于图卷积‑Informer模型的长时序交通流量预测方法的改进;解决上述技术问题采用的技术方案为:包括如下步骤:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集;根据高速公路站点和省干线公路交调站点的相对地理位置信息建立站点网络结构拓扑图;构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;将图卷积得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息;本发明应用于交通流量预测。

Description

一种基于图卷积-Informer模型的长时序交通流量预测方法
技术领域
本发明一种基于图卷积-Informer模型的长时序交通流量预测方法,属于基于图卷积-Informer模型的长时序交通流量预测方法技术领域。
背景技术
随着经济迅速发展以及机动车保有量迅速增长,交通基础建设逐渐难以跟上日益增长的交通需求,交通道路拥挤,交通事故多发,交通违章,违法现象层次不穷,人民生活的出行不便已经成为了道路交通相关管理部门急需解决的重要问题。
另一方面,随着科学技术的飞速发展,尤其是大数据处理,云计算,数据通信,数据挖掘,物联网,人工智能等先进技术的突破性进展,智慧交通系统已经成为了一种高效精确的解决方案以应对上述挑战。智慧交通系统(Intelligent Traffic System,简称ITS)基于海量多源融合交通数据对交通行业宏观决策方面的支撑能力,将上述多种复杂先进的科学技术灵活应用于交通运输管理体系,以降低相关部门交通管控作业复杂度,提高交通调度决策效率。
交通流量预测能够对路网适应性评价,路网建设适应性分析以及旅行信息分析等智慧交通子系统产生重要影响,是智慧交通系统的核心组成部分。该技术主要通过对一段时间被调查地区或路线的交通调查数据进行分析从而预测该地区未来一段时间内的交通流量变化趋势,从而为交通管控提供实时,高效,精确的支撑力量。
易得,交通流量预测模型方法是基于时间序列的预测分析方法,期望利用长期或短期的历史时间序列信息特征进行分析推理从而预测下一段时间内的目标特征信息分布。经典时间序列预测分析方法,例如差分整合移动平均自回归(ARIMA)模型方法以及支持向量回归(SVR)模型方法也曾成功应用于交通流量预测模型,该类方法具有模型结构清晰,计算复杂度低等特点。但在此基础上,统计类模型的缺点也显而易见,随着数据处理相关技术的发展,该类模型无法有效地应对日益复杂的大规模交通流量相关高维非线性特征信息。
与此同时,深度学习相关模型算法在近年来受到了越来越多的关注,究其原因正是该类模型具有强大的高维非线性特征拟合能力,这也使得该类模型能够在交通流量预测领域取得更令人满意的结果。例如深度置信网络能够独立地将交通流量时序信息转换成非结构化的时序信息并在每一个时间节点上较为独立地处理该节点特征信息,LSTMs(Longshort-term memory network)基于循环神经网络结构,允许信息顺序持续存在,实现处理时间序列的特征信息。然而在交通领域,道路节点或各条道路之间的空间信息,例如路网结构,区域空间结构以及实体分布特征等,也能够对流量变化趋势产生较大影响,上述方法的缺点正在于忽略了交通流量预测领域相关数据的重要空间特征。
为了解决空间特征信息缺失的问题,卷积神经网络与长短期记忆人工神经网络的组合能够很好的捕捉基于欧氏距离的空间特征与时序特征信息,近年来兴起的图卷积神经网络(GCN)则能更好地解决基于图结构的非欧氏距离空间特征,这一提升能够更好地应用于交通流量预测模型的非欧氏距离拓扑结构中,并结合基于注意力机制的循环神经网络模型,或直接结合transformer框架,可以在一定程度上解决在时间序列信息处理过程中,早期时序信息被遗忘的问题,从而在牺牲了时间复杂度的情况下,能够在一定程度上提升对流量预测的准确性。
但现存大多数模型方法主要以实现对未来短时序内的交通流量变化预测为主,具体地讲,此类方法在实现过程中,以15分钟时间间隔为例,仅利用前一小时至三小时(4至12个时间节点)的时序信息对未来15分钟至一小时(1至3个时间节点)交通流量进行模型参数的训练,从而导致这些方法对流量特征的高维时序信息分析欠缺,对较长时间序列交通流量周期性分布变化不敏感,对交通流量峰值不敏感等问题。
发明内容
本发明为了克服现有技术中存在的不足,所要解决的技术问题为:提供一种基于图卷积-Informer模型的长时序交通流量预测方法的改进。
为了解决上述技术问题,本发明采用的技术方案为:一种基于图卷积-Informer模型的长时序交通流量预测方法,包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤二:建立站点网络结构拓扑图:根据高速公路站点和省干线公路交调站点的相对地理位置信息建立站点网络结构拓扑图,具体为建立所有站点的邻接矩阵A,并计算站点空间信息的对称归一化拉普拉斯矩阵
Figure BDA0003090021510000021
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
所述步骤二具体为:
步骤2.1:建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
Figure BDA0003090021510000031
步骤2.2:根据站点邻接矩阵A,计算站点空间信息的对称归一化拉普拉斯矩阵,具体为:计算拉普拉斯矩阵:
Figure BDA0003090021510000032
其中为IN单位矩阵;
计算度矩阵:
Figure BDA0003090021510000033
得到对称归一化拉普拉斯矩阵:
Figure BDA0003090021510000034
所述步骤三中构建的两层图卷积神经网络模型为:
Figure BDA0003090021510000035
上式中:W0、W1分别为第一层与第二层图卷积神经网络的权重参数集合,σ为每一层图卷积神经网络的激活函数。
所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,概率稀疏自注意力的计算公式如下:
Figure BDA0003090021510000036
上式中:Q、K、V分别为三种输入:query,key,value;
Figure BDA0003090021510000037
为稀疏矩阵;d为比例因子,具体取值为Q的维度;
步骤4.2:采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
Figure BDA0003090021510000038
上式中:
Figure BDA0003090021510000039
为本层的多头概率稀疏自注意力层输出;
Figure BDA00030900215100000310
为上一层多头概率稀疏自注意力层的计算结果;Conv1d为在时间维度上的一维卷积,ELU为在时间维度上的一维卷积的激活函数;
步骤4.3:采用最大值池化下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
Figure BDA0003090021510000041
上式中:
Figure BDA0003090021510000045
为起始符号,
Figure BDA0003090021510000046
为预测序列的占位符;Ltoken为起始符序列长度;Ly为预测序列长度;dmodel为模型维度;
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
还包括步骤五:采用三种评价方法对模型误差测试,分别为均方根误差、平均绝对误差与准确率;
均方根误差计算公式为:
Figure BDA0003090021510000042
平均绝对误差计算公式为:
Figure BDA0003090021510000043
准确率计算公式为:
Figure BDA0003090021510000044
上式中:Yt为真实值,
Figure BDA0003090021510000047
为预测值。
本发明相对于现有技术具备的有益效果为:本发明提供的图卷积-Informer的长时序交通流量预测模型方法,通过图卷积神经网络学习交通路网的网络拓扑结构并结合Informer框架对长时序流量特征进行捕捉从而实现高效高性能预测道路交通信息变化趋势;以15分钟时间间隔为例,本发明可实现利用前24小时至48小时的时序信息对未来15分钟至24小时交通流量进行实时精确训练预测,大大提高了模型算法效率。
附图说明
下面结合附图对本发明做进一步说明:
图1为本发明的图卷积-Informer模型框架图;
图2为本发明的Informer结构框架图。
具体实施方式
如图1和图2所示,本发明一种基于图卷积-Informer模型的长时序交通流量预测方法,包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤二:建立站点网络结构拓扑图:根据高速公路站点和省干线公路交调站点的相对地理位置信息建立站点网络结构拓扑图,具体为建立所有站点的邻接矩阵A,并计算站点空间信息的对称归一化拉普拉斯矩阵
Figure BDA0003090021510000051
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
所述步骤二具体为:
步骤2.1:建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
Figure BDA0003090021510000052
步骤2.2:根据站点邻接矩阵A,计算站点空间信息的对称归一化拉普拉斯矩阵,具体为:计算拉普拉斯矩阵:
Figure BDA0003090021510000053
其中为IN单位矩阵;
计算度矩阵:
Figure BDA0003090021510000054
得到对称归一化拉普拉斯矩阵:
Figure BDA0003090021510000055
所述步骤三中构建的两层图卷积神经网络模型为:
Figure BDA0003090021510000061
上式中:W0、W1分别为第一层与第二层图卷积神经网络的权重参数集合,σ为每一层图卷积神经网络的激活函数。
所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力(ProbSparse Self-attention)机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,ProbSparse Self-attention计算公式如下:
Figure BDA0003090021510000062
上式中:Q、K、V分别为三种输入:query,key,value;
Figure BDA0003090021510000063
为稀疏矩阵;d为比例因子,具体取值为Q的维度;
步骤4.2:采用自注意力(Self-attention)蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
Figure BDA0003090021510000064
上式中:
Figure BDA0003090021510000066
为本层多头概率稀疏自注意力层的输出;
Figure BDA0003090021510000067
为上一层多头概率稀疏自注意力层的计算结果;Conv1d为在时间维度上的一维卷积,ELU为在时间维度上的一维卷积的激活函数;
步骤4.3:采用最大值池化(MaxPool)下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
Figure BDA0003090021510000065
上式中:
Figure BDA0003090021510000068
为起始符号,
Figure BDA0003090021510000069
为预测序列的占位符;Ltokon为输入序列长度;Ly为预测序列长度;dmodel为模型维度;
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
还包括步骤五:采用三种评价方法对模型误差测试,分别为均方根误差、平均绝对误差与准确率;
均方根误差计算公式为:
Figure BDA0003090021510000071
平均绝对误差计算公式为:
Figure BDA0003090021510000072
准确率计算公式为:
Figure BDA0003090021510000073
上式中:Yt为真实值,
Figure BDA0003090021510000074
为预测值。
本发明提供的图卷积-Informer的长时序交通流量预测模型方法,通过图卷积神经网络学习交通路网的网络拓扑结构并结合Informer框架对长时序流量特征进行捕捉从而实现高效高性能预测道路交通信息变化趋势。本发明解决了现有多种技术中无法捕捉交通路网结构空间特征信息,另外,Informer框架结构不仅解决了循环神经网络的长序列依赖问题,而且大幅改善了transformer在计算复杂度,内存使用等方面存在的问题,换言之,Informer框架可实现高效利用长时序特征信息进行长时序流量预测的问题,具体来讲,以15分钟时间间隔为例,该方法可实现利用前24小时至48小时(96至192个时间节点)的时序信息对未来15分钟至24小时(1至96个时间节点)交通流量进行实时精确训练预测,解决了前文提到的方法无法利用长时序特征学习交通流量周期性变化趋势等问题,且大大提高了模型算法效率。
本发明的图卷积-Informer的交通流量预测模型方法,以山西省公路站点为例,包括如下步骤:
(1)利用山西省国省干线公路237个交调站点,48个高速公路站点,对单位时间内,例如15分钟为时间间隔,采集所有通过车辆的速度信息并在数据预处理后建立交通流量时序信息数据集X。
(2)利用上述站点的相对地理位置信息建立站点网络结构拓扑图,具体实现方法为建立所有站点的邻接矩阵A,并计算站点空间信息的对称归一化拉普拉斯矩阵
Figure BDA0003090021510000075
(3)设计两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息。
(4)在图神经网络结构后设计Informer层,将上述编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,最终实现对未来交通流量的预测。
本发明针对现有短时序交通流量预测模型的缺点与不足,提出的基于图卷积-Informer模型的时序交通流量预测方法,模型整体结构如附图1所示,具体的实施方案如下:
(1)在山西省国省干线公路237个交调站点,48个高速公路站点,架设微波测速雷达与激光传感器,利用站点设置的上述设备采集所有通过车辆的速度信息。
(2)对采集到的完整通过车辆的速度信息数据进行数据预处理后建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。以每15分钟为单位时间间隔,数据预处理主要采用数据清洗的相关方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,以此类推,对总体目标时间长度分段标注从而建立交通流量时序信息数据集X。
(3)利用上述所有站点的相对地理位置信息以及相对联通情况建立站点网络结构拓扑图,具体实现方法为建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
Figure BDA0003090021510000081
(4)根据站点邻接矩阵A,计算站点空间信息的对称归一化拉普拉斯矩阵。具体计算过程如下:
Figure BDA0003090021510000082
其中IN为单位矩阵,此自连接结构保证邻接矩阵与特征X进行计算时,每个站点不会忽略该站点自己的特征信息。随后计算度矩阵,
Figure BDA0003090021510000083
最后可以得到对称归一化拉普拉斯矩阵
Figure BDA0003090021510000084
这一步的目的是使邻接矩阵归一化从而保证邻接矩阵与特征矩阵相乘时不改变特征原本分布。该对称归一化拉普拉斯矩阵能够进行特征分解(谱分解),特征向量能够作为傅里叶变换的基,应用于图的傅里叶变换与卷积过程。图卷积神经网络实现了基于图的傅里叶变换从而进行卷积计算,对图中所有节点与其一阶相邻节点空间特征的提取。
(5)设计两层卷积神经网络模型结构,对路网拓扑结构与流量信息进行编码并学习数据的空间依赖特征信息,该神经网络模型为:
Figure BDA0003090021510000085
其中W0、W1分别为第一层与第二层的权重参数集合,σ为每一层的激活函数。
(6)突破性地采用Informer结构对图卷积神经网络输出的已编码空间时序信息长程依赖关系进行训练学习,最终得出预测序列结果。Informer结构本质上是对Transformer结构进行了改进提升,使该框架更适合应用于长序列时序预测问题。要理解Informer的部署原理,首先简单介绍Transformer的基础结构,特性与存在的问题。
Transformer基于多头自注意力(multi-head self-attention)机制,避免了传统RNN类模型的循环结构从而大大降低了信号传播的最大路径长度,使模型具有了一定的长程依赖关系理解能力。
其基础结构依旧采用了Seq2seq模型的编解码器(Encoder-Decoder)结构,编码器结构由N=6个相同的层结构组成,每层又由多头自注意力(Multi-head Self-attention)机制与全连接前馈网络构成,并增加了标准化(Normalisation)与残差连接(Residualconnection)。解码器结构与编码器类似,同样由N=6个相同的层结构组成,仅每层较编码器多加一个注意力(Attention)部分,这一部分利用Masking机制防止使用将要输出的内容训练模型参数。
注意力机制采用缩放点积(Scaled dot-product)求解,过程如下:
Figure BDA0003090021510000091
其中Q,K,V分别为三种输入:query,key,value,dk为比例因子。利用Q,K计算权重,利用SoftMax方法对权重归一化,最终乘以V得到注意力计算结果。
多头注意力(Multi-head Attention)机制是通过对Q,K,V进行h个不同的线性变换投影,并将注意力计算结果拼接起来,该过程实现将原高维空间的计算投影至不同的子空间进行,从不同角度侧重点寻找序列之间的关联关系再进行汇总,计算公式如下:
MultiHead(Q,K,V)=Concat(head1,...,headh)WO
Figure BDA0003090021510000092
自注意力(Self-Attention)机制则是取Q,K,V值相同,计算当前序列对自己的关联权重,使模型在处理长序列时更好更全面地理解上下文信息。
Informer则根据Transformer架构应用于长序列时序预测问题所存在的缺陷,进行针对性提升。
首先,自注意力机制的点积操作在处理长序列问题时每层的时间复杂度与内存使用情况都达到了O(L2)。Informer则采用概率稀疏自注意力(ProbSparse Self-attention)机制替换原有自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度。其主要实现方法利用Self-attention机制分布的稀疏性,即少数权重对主要注意力计算结果做出绝大部份贡献,其他权重则可忽略。ProbSparse Self-attention过程如下:
Figure BDA0003090021510000101
其与自注意力机制区别在于
Figure BDA0003090021510000104
为稀疏矩阵,仅包含稀疏评估下Top-u的queries,令u=c·lnLQ,其中c为采样因子,即挑选出贡献排名前u个权值进行点积计算,且稀疏评估在实际操作中也仅需采样U=LK·LnLQ个点积操作,所以多头概率稀疏自注意力机制的时间复杂度与内存使用量为O(LlogL)。
其次,Transformer的层堆叠结构导致输入长序列时内存使用量达O(JL2),J为堆叠层数。Informer则采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,减少沉余从而减少输入的时间维度。过程如下:
Figure BDA0003090021510000102
其中
Figure BDA0003090021510000105
为上一层多头概率稀疏自注意力层(Multi-head ProbSparse self-attention)计算结果,Conv1d与ELU是在时间维度上的一维卷积与其激活函数,随后采用最大值池化(MaxPool)下采样使输入长度减半,从而实现内存使用量减少至O((2-e)LlogL)。
最后,Informer具备生成型解码器(Generative Style Decoder)以改善Transformer中传统编解码器的架构缺陷。具体来说,Transformer的解码器解码在训练和预测过程中不同,训练过程中,解码器利用输入的正确标注值(Ground Truth)进行解码,而预测过程中解码器因为没有正确标注值的支持,只能按序列顺序一步一步动态解码,即利用前一时刻与其他必要历史时刻隐状态计算当前隐状态并预测当前时刻输出。该过程直接导致在预测长序列时序问题时预测速度急剧下降,实际效果甚至可能与一般循环神经网络模型相当。
Informer的生成型解码器采用了标准解码器结构,但使用生成式推理过程成功实现一次前向过程即可解码得到整个输出序列的功能。其解码器输入为:
Figure BDA0003090021510000103
其中,
Figure BDA0003090021510000106
为起始符号(Start token),
Figure BDA0003090021510000107
为预测序列的占位符,Lloken为输入序列长度;Ly为预测序列长度;dmodel为模型维度,传统解码器中起始符号常设为特殊标记,但Informer中起始符号为一个编码器输入中截取序列,将改起始符号与占位符输入生成式解码器从而避免动态解码过程。
综上,本方法采用Informer架构成功增强了该类模型对长时序交通流量预测问题的预测容量,并提升其捕获长序列流量输入与长序列预测流量输出之间的依赖关系。
(7)本发明采用三种评价方法对模型性能进行模型误差测试,分别为均方根误差(RMSE),平均绝对误差(MAE),与准确率(Accuracy),公式如下,其中Yt为真实值,
Figure BDA0003090021510000114
为预测值:
均方根误差:
Figure BDA0003090021510000111
平均绝对误差:
Figure BDA0003090021510000112
准确率:
Figure BDA0003090021510000113
关于本发明具体结构需要说明的是,本发明采用的各部件模块相互之间的连接关系是确定的、可实现的,除实施例中特殊说明的以外,其特定的连接关系可以带来相应的技术效果,并基于不依赖相应软件程序执行的前提下,解决本发明提出的技术问题,本发明中出现的部件、模块、具体元器件的型号、连接方式除具体说明的以外,均属于本领域技术人员在申请日前可以获取到的已公开专利、已公开的期刊论文、或公知常识等现有技术,无需赘述,使得本案提供的技术方案是清楚、完整、可实现的,并能根据该技术手段重现或获得相应的实体产品。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (6)

1.一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤二:建立站点网络结构拓扑图:根据高速公路站点和省干线公路交调站点的相对地理位置信息建立站点网络结构拓扑图,具体为建立所有站点的邻接矩阵A,并计算站点空间信息的对称归一化拉普拉斯矩阵
Figure FDA0003090021500000011
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
2.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
3.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤二具体为:
步骤2.1:建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
Figure FDA0003090021500000012
步骤2.2:根据站点邻接矩阵A,计算站点空间信息的对称归一化拉普拉斯矩阵,具体为:计算拉普拉斯矩阵:
Figure FDA0003090021500000013
其中为IN单位矩阵;
计算度矩阵:
Figure FDA0003090021500000021
得到对称归一化拉普拉斯矩阵:
Figure FDA0003090021500000022
4.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤三中构建的两层图卷积神经网络模型为:
Figure FDA0003090021500000023
上式中:W0、W1分别为第一层与第二层图卷积神经网络的权重参数集合,σ为每一层图卷积神经网络的激活函数。
5.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,概率稀疏自注意力的计算公式如下:
Figure FDA0003090021500000024
上式中:Q、K、V分别为三种输入:query,key,value;
Figure FDA0003090021500000025
为稀疏矩阵;d为比例因子,具体取值为Q的维度;
步骤4.2:采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
Figure FDA0003090021500000026
上式中:
Figure FDA0003090021500000027
为本层的多头概率稀疏自注意力层输出;
Figure FDA0003090021500000028
为上一层多头概率稀疏自注意力层的计算结果;Conv1d为在时间维度上的一维卷积,ELU为在时间维度上的一维卷积的激活函数;
步骤4.3:采用最大值池化下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
Figure FDA0003090021500000029
上式中:
Figure FDA00030900215000000210
为起始符号,
Figure FDA00030900215000000211
为预测序列的占位符;Ltoken为起始符序列长度;Ly为预测序列长度;dmodel为模型维度;
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
6.根据权利要求1-5任一项所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:还包括步骤五:采用三种评价方法对模型误差测试,分别为均方根误差、平均绝对误差与准确率;
均方根误差计算公式为:
Figure FDA0003090021500000031
平均绝对误差计算公式为:
Figure FDA0003090021500000032
准确率计算公式为:
Figure FDA0003090021500000033
上式中:Yt为真实值,
Figure FDA0003090021500000034
为预测值。
CN202110592309.4A 2021-05-28 2021-05-28 一种基于图卷积-Informer模型的长时序交通流量预测方法 Pending CN113487061A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110592309.4A CN113487061A (zh) 2021-05-28 2021-05-28 一种基于图卷积-Informer模型的长时序交通流量预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110592309.4A CN113487061A (zh) 2021-05-28 2021-05-28 一种基于图卷积-Informer模型的长时序交通流量预测方法

Publications (1)

Publication Number Publication Date
CN113487061A true CN113487061A (zh) 2021-10-08

Family

ID=77933634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110592309.4A Pending CN113487061A (zh) 2021-05-28 2021-05-28 一种基于图卷积-Informer模型的长时序交通流量预测方法

Country Status (1)

Country Link
CN (1) CN113487061A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113935534A (zh) * 2021-10-20 2022-01-14 华能大理风力发电有限公司洱源分公司 一种基于卷积transformer架构的光伏日前预测方法、系统及设备
CN114124734A (zh) * 2021-11-20 2022-03-01 四川大学 一种基于GCN-Transformer集成模型的网络流量预测方法
CN114422381A (zh) * 2021-12-14 2022-04-29 西安电子科技大学 通信网络流量预测方法、系统、存储介质及计算机设备
CN114463977A (zh) * 2022-02-10 2022-05-10 北京工业大学 一种基于车路协同多源数据融合交通流预测的路径规划方法
CN114492992A (zh) * 2022-01-25 2022-05-13 重庆邮电大学 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统
CN114519469A (zh) * 2022-02-22 2022-05-20 重庆大学 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法
CN114613004A (zh) * 2022-02-28 2022-06-10 电子科技大学 一种人体动作的轻量化在线检测方法
CN114640695A (zh) * 2022-04-24 2022-06-17 上海交通大学 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法
CN114648880A (zh) * 2022-05-24 2022-06-21 阿里巴巴达摩院(杭州)科技有限公司 预测交通流量的方法、车辆和可读存储介质
CN114764858A (zh) * 2022-06-15 2022-07-19 深圳大学 复制粘贴图像识别方法、装置、计算机设备及存储介质
CN114971093A (zh) * 2022-08-01 2022-08-30 中南大学 城市道路交通流属性预测方法、系统、设备及介质
CN115002790A (zh) * 2022-05-31 2022-09-02 中电信数智科技有限公司 一种基于6g空中基站信号增强及智能按需覆盖优化方法
CN115081752A (zh) * 2022-08-11 2022-09-20 浙江君同智能科技有限责任公司 黑灰产众包流量预测装置及方法
CN115440032A (zh) * 2022-08-09 2022-12-06 浙江工业大学 一种长短期公共交通流量预测方法
CN115619052A (zh) * 2022-12-20 2023-01-17 安徽农业大学 一种城市交通流量预测方法
CN117093873A (zh) * 2023-10-19 2023-11-21 国网浙江省电力有限公司丽水供电公司 基于天然来水量预测的水电站库容能力评估方法和系统
CN117116051A (zh) * 2023-10-25 2023-11-24 深圳市交投科技有限公司 基于人工智能的智慧交通管理系统及其方法
CN117290706A (zh) * 2023-10-31 2023-12-26 兰州理工大学 一种时空卷积融合概率稀疏注意力机制的交通流预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887282A (zh) * 2019-03-05 2019-06-14 中南大学 一种基于层级时序图卷积网络的路网交通流预测方法
CN110889546A (zh) * 2019-11-20 2020-03-17 浙江省交通规划设计研究院有限公司 一种基于注意力机制的交通流量模型训练方法
CN111259672A (zh) * 2020-02-12 2020-06-09 新疆大学 基于图卷积神经网络的中文旅游领域命名实体识别方法
CN112418547A (zh) * 2020-12-03 2021-02-26 北京工业大学 一种基于gcn-lstm组合模型的公交车站点客流量预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887282A (zh) * 2019-03-05 2019-06-14 中南大学 一种基于层级时序图卷积网络的路网交通流预测方法
CN110889546A (zh) * 2019-11-20 2020-03-17 浙江省交通规划设计研究院有限公司 一种基于注意力机制的交通流量模型训练方法
CN111259672A (zh) * 2020-02-12 2020-06-09 新疆大学 基于图卷积神经网络的中文旅游领域命名实体识别方法
CN112418547A (zh) * 2020-12-03 2021-02-26 北京工业大学 一种基于gcn-lstm组合模型的公交车站点客流量预测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
BAOXIN ZHAO; XITONG GAO; JIANQI LIU: "Spatiotemporal Data Fusion in Graph Convolutional Networks for Traffic Prediction", 《IEEE ACCESS》 *
GABRIEL SPADON; SHENDA HONG; BRUNO BRANDOLI: "Pay Attention to Evolution: Time Series Forecasting with Deep Graph-Evolution Learning", 《 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
HAOYANG YAN, XIAOLEI MA: "Learning Dynamic and Hierarchical Traffic Spatiotemporal Features with Transformer", 《TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 *
HAOYI ZHOU,SHANGHANG ZHANG,JIEQI PENG: "Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting", 《2021 AAAI BEST PAPER》 *
JIYU CHEN, HEQING HUANG, HAO CHEN: "Informer: Irregular Traffic Detection for Containerized Microservices RPC in the Real World", 《SEC ’19: ACM/IEEE SYMPOSIUM ON EDGE COMPUTING》 *
MINGXING XU, WENRUI DAI: "Spatial-Temporal Transformer Networks for Traffic Flow Forecasting", 《ARXIV E-PRINTS》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113935534A (zh) * 2021-10-20 2022-01-14 华能大理风力发电有限公司洱源分公司 一种基于卷积transformer架构的光伏日前预测方法、系统及设备
CN114124734B (zh) * 2021-11-20 2023-04-07 四川大学 一种基于GCN-Transformer集成模型的网络流量预测方法
CN114124734A (zh) * 2021-11-20 2022-03-01 四川大学 一种基于GCN-Transformer集成模型的网络流量预测方法
CN114422381A (zh) * 2021-12-14 2022-04-29 西安电子科技大学 通信网络流量预测方法、系统、存储介质及计算机设备
CN114422381B (zh) * 2021-12-14 2023-05-26 西安电子科技大学 通信网络流量预测方法、系统、存储介质及计算机设备
CN114492992A (zh) * 2022-01-25 2022-05-13 重庆邮电大学 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统
CN114463977A (zh) * 2022-02-10 2022-05-10 北京工业大学 一种基于车路协同多源数据融合交通流预测的路径规划方法
CN114463977B (zh) * 2022-02-10 2023-06-23 北京工业大学 一种基于车路协同多源数据融合交通流预测的路径规划方法
CN114519469A (zh) * 2022-02-22 2022-05-20 重庆大学 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法
CN114519469B (zh) * 2022-02-22 2024-05-31 重庆大学 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法
CN114613004A (zh) * 2022-02-28 2022-06-10 电子科技大学 一种人体动作的轻量化在线检测方法
CN114640695A (zh) * 2022-04-24 2022-06-17 上海交通大学 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法
CN114640695B (zh) * 2022-04-24 2023-04-07 上海交通大学 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法
CN114648880A (zh) * 2022-05-24 2022-06-21 阿里巴巴达摩院(杭州)科技有限公司 预测交通流量的方法、车辆和可读存储介质
CN114648880B (zh) * 2022-05-24 2022-09-06 阿里巴巴达摩院(杭州)科技有限公司 预测交通流量的方法、车辆和可读存储介质
CN115002790B (zh) * 2022-05-31 2023-11-17 中电信数智科技有限公司 一种基于6g空中基站信号增强及智能按需覆盖优化方法
CN115002790A (zh) * 2022-05-31 2022-09-02 中电信数智科技有限公司 一种基于6g空中基站信号增强及智能按需覆盖优化方法
CN114764858B (zh) * 2022-06-15 2022-11-01 深圳大学 一种复制粘贴图像识别方法、装置、计算机设备及存储介质
CN114764858A (zh) * 2022-06-15 2022-07-19 深圳大学 复制粘贴图像识别方法、装置、计算机设备及存储介质
CN114971093A (zh) * 2022-08-01 2022-08-30 中南大学 城市道路交通流属性预测方法、系统、设备及介质
CN115440032A (zh) * 2022-08-09 2022-12-06 浙江工业大学 一种长短期公共交通流量预测方法
CN115440032B (zh) * 2022-08-09 2024-05-03 浙江工业大学 一种长短期公共交通流量预测方法
CN115081752B (zh) * 2022-08-11 2022-11-22 浙江君同智能科技有限责任公司 黑灰产众包流量预测装置及方法
CN115081752A (zh) * 2022-08-11 2022-09-20 浙江君同智能科技有限责任公司 黑灰产众包流量预测装置及方法
CN115619052A (zh) * 2022-12-20 2023-01-17 安徽农业大学 一种城市交通流量预测方法
CN117093873A (zh) * 2023-10-19 2023-11-21 国网浙江省电力有限公司丽水供电公司 基于天然来水量预测的水电站库容能力评估方法和系统
CN117093873B (zh) * 2023-10-19 2024-01-30 国网浙江省电力有限公司丽水供电公司 基于天然来水量预测的水电站库容能力评估方法和系统
CN117116051A (zh) * 2023-10-25 2023-11-24 深圳市交投科技有限公司 基于人工智能的智慧交通管理系统及其方法
CN117116051B (zh) * 2023-10-25 2023-12-22 深圳市交投科技有限公司 基于人工智能的智慧交通管理系统及其方法
CN117290706A (zh) * 2023-10-31 2023-12-26 兰州理工大学 一种时空卷积融合概率稀疏注意力机制的交通流预测方法

Similar Documents

Publication Publication Date Title
CN113487061A (zh) 一种基于图卷积-Informer模型的长时序交通流量预测方法
CN110889546B (zh) 一种基于注意力机制的交通流量模型训练方法
Chen et al. Traffic flow prediction based on deep learning in internet of vehicles
An et al. A novel fuzzy-based convolutional neural network method to traffic flow prediction with uncertain traffic accident information
CN113487066B (zh) 基于多属性增强图卷积-Informer模型的长时序货运量预测方法
Yan et al. Spatial-temporal chebyshev graph neural network for traffic flow prediction in iot-based its
Han et al. Short‐term traffic flow prediction of road network based on deep learning
Ye et al. Attention-based spatio-temporal graph convolutional network considering external factors for multi-step traffic flow prediction
CN110163449B (zh) 一种基于主动时空图卷积的机动车排污监测节点部署方法
CN109086926B (zh) 一种基于组合神经网络结构的短时轨道交通客流预测方法
CN116721537A (zh) 基于gcn-ipso-lstm组合模型的城市短时交通流预测方法
CN115148019A (zh) 一种基于节假日拥堵预测算法的预警方法及系统
Shao et al. The Traffic Flow Prediction Method Using the Incremental Learning‐Based CNN‐LTSM Model: The Solution of Mobile Application
Zhang et al. Passenger flow forecast of rail station based on multi-source data and long short term memory network
CN111141879B (zh) 一种深度学习的空气质量监测方法以及装置、设备
CN115206092A (zh) 一种基于注意力机制的BiLSTM和LightGBM模型的交通预测方法
CN116311921A (zh) 一种基于多空间尺度时空Transformer的交通速度预测方法
Luo et al. Stgin: A spatial temporal graph-informer network for long sequence traffic speed forecasting
WO2024068527A1 (en) A computer-implemented method for forecasting traffic indicators in a road network
Gao et al. An Improved CEEMDAN‐FE‐TCN Model for Highway Traffic Flow Prediction
Hu et al. Vehicle travel destination prediction method based on multi-source data
Guo et al. Multi‐step traffic speed prediction model with auxiliary features on urban road networks and its understanding
Liao et al. Traj2Traj: A road network constrained spatiotemporal interpolation model for traffic trajectory restoration
Li et al. TSDCN: Traffic safety state deep clustering network for real‐time traffic crash‐prediction
Mead Hybrid CNN and LSTM Model (HCLM) for Short-Term Traffic Volume Prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211008