CN113487061A - 一种基于图卷积-Informer模型的长时序交通流量预测方法 - Google Patents
一种基于图卷积-Informer模型的长时序交通流量预测方法 Download PDFInfo
- Publication number
- CN113487061A CN113487061A CN202110592309.4A CN202110592309A CN113487061A CN 113487061 A CN113487061 A CN 113487061A CN 202110592309 A CN202110592309 A CN 202110592309A CN 113487061 A CN113487061 A CN 113487061A
- Authority
- CN
- China
- Prior art keywords
- time
- traffic flow
- sequence
- model
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 10
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 5
- HTIQEAQVCYTUBX-UHFFFAOYSA-N amlodipine Chemical compound CCOC(=O)C1=C(COCCN)NC(C)=C(C(=O)OC)C1C1=CC=CC=C1Cl HTIQEAQVCYTUBX-UHFFFAOYSA-N 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 4
- 238000004821 distillation Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 abstract description 5
- 238000004458 analytical method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/215—Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2474—Sequence data queries, e.g. querying versioned data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/065—Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Biomedical Technology (AREA)
- Development Economics (AREA)
- Probability & Statistics with Applications (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Remote Sensing (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Fuzzy Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明一种基于图卷积‑Informer模型的长时序交通流量预测方法,属于长时序交通流量预测技术领域;所要解决的技术问题为:提供一种基于图卷积‑Informer模型的长时序交通流量预测方法的改进;解决上述技术问题采用的技术方案为:包括如下步骤:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集;根据高速公路站点和省干线公路交调站点的相对地理位置信息建立站点网络结构拓扑图;构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;将图卷积得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息;本发明应用于交通流量预测。
Description
技术领域
本发明一种基于图卷积-Informer模型的长时序交通流量预测方法,属于基于图卷积-Informer模型的长时序交通流量预测方法技术领域。
背景技术
随着经济迅速发展以及机动车保有量迅速增长,交通基础建设逐渐难以跟上日益增长的交通需求,交通道路拥挤,交通事故多发,交通违章,违法现象层次不穷,人民生活的出行不便已经成为了道路交通相关管理部门急需解决的重要问题。
另一方面,随着科学技术的飞速发展,尤其是大数据处理,云计算,数据通信,数据挖掘,物联网,人工智能等先进技术的突破性进展,智慧交通系统已经成为了一种高效精确的解决方案以应对上述挑战。智慧交通系统(Intelligent Traffic System,简称ITS)基于海量多源融合交通数据对交通行业宏观决策方面的支撑能力,将上述多种复杂先进的科学技术灵活应用于交通运输管理体系,以降低相关部门交通管控作业复杂度,提高交通调度决策效率。
交通流量预测能够对路网适应性评价,路网建设适应性分析以及旅行信息分析等智慧交通子系统产生重要影响,是智慧交通系统的核心组成部分。该技术主要通过对一段时间被调查地区或路线的交通调查数据进行分析从而预测该地区未来一段时间内的交通流量变化趋势,从而为交通管控提供实时,高效,精确的支撑力量。
易得,交通流量预测模型方法是基于时间序列的预测分析方法,期望利用长期或短期的历史时间序列信息特征进行分析推理从而预测下一段时间内的目标特征信息分布。经典时间序列预测分析方法,例如差分整合移动平均自回归(ARIMA)模型方法以及支持向量回归(SVR)模型方法也曾成功应用于交通流量预测模型,该类方法具有模型结构清晰,计算复杂度低等特点。但在此基础上,统计类模型的缺点也显而易见,随着数据处理相关技术的发展,该类模型无法有效地应对日益复杂的大规模交通流量相关高维非线性特征信息。
与此同时,深度学习相关模型算法在近年来受到了越来越多的关注,究其原因正是该类模型具有强大的高维非线性特征拟合能力,这也使得该类模型能够在交通流量预测领域取得更令人满意的结果。例如深度置信网络能够独立地将交通流量时序信息转换成非结构化的时序信息并在每一个时间节点上较为独立地处理该节点特征信息,LSTMs(Longshort-term memory network)基于循环神经网络结构,允许信息顺序持续存在,实现处理时间序列的特征信息。然而在交通领域,道路节点或各条道路之间的空间信息,例如路网结构,区域空间结构以及实体分布特征等,也能够对流量变化趋势产生较大影响,上述方法的缺点正在于忽略了交通流量预测领域相关数据的重要空间特征。
为了解决空间特征信息缺失的问题,卷积神经网络与长短期记忆人工神经网络的组合能够很好的捕捉基于欧氏距离的空间特征与时序特征信息,近年来兴起的图卷积神经网络(GCN)则能更好地解决基于图结构的非欧氏距离空间特征,这一提升能够更好地应用于交通流量预测模型的非欧氏距离拓扑结构中,并结合基于注意力机制的循环神经网络模型,或直接结合transformer框架,可以在一定程度上解决在时间序列信息处理过程中,早期时序信息被遗忘的问题,从而在牺牲了时间复杂度的情况下,能够在一定程度上提升对流量预测的准确性。
但现存大多数模型方法主要以实现对未来短时序内的交通流量变化预测为主,具体地讲,此类方法在实现过程中,以15分钟时间间隔为例,仅利用前一小时至三小时(4至12个时间节点)的时序信息对未来15分钟至一小时(1至3个时间节点)交通流量进行模型参数的训练,从而导致这些方法对流量特征的高维时序信息分析欠缺,对较长时间序列交通流量周期性分布变化不敏感,对交通流量峰值不敏感等问题。
发明内容
本发明为了克服现有技术中存在的不足,所要解决的技术问题为:提供一种基于图卷积-Informer模型的长时序交通流量预测方法的改进。
为了解决上述技术问题,本发明采用的技术方案为:一种基于图卷积-Informer模型的长时序交通流量预测方法,包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
所述步骤二具体为:
步骤2.1:建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
所述步骤三中构建的两层图卷积神经网络模型为:
上式中:W0、W1分别为第一层与第二层图卷积神经网络的权重参数集合,σ为每一层图卷积神经网络的激活函数。
所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,概率稀疏自注意力的计算公式如下:
步骤4.2:采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
步骤4.3:采用最大值池化下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
还包括步骤五:采用三种评价方法对模型误差测试,分别为均方根误差、平均绝对误差与准确率;
本发明相对于现有技术具备的有益效果为:本发明提供的图卷积-Informer的长时序交通流量预测模型方法,通过图卷积神经网络学习交通路网的网络拓扑结构并结合Informer框架对长时序流量特征进行捕捉从而实现高效高性能预测道路交通信息变化趋势;以15分钟时间间隔为例,本发明可实现利用前24小时至48小时的时序信息对未来15分钟至24小时交通流量进行实时精确训练预测,大大提高了模型算法效率。
附图说明
下面结合附图对本发明做进一步说明:
图1为本发明的图卷积-Informer模型框架图;
图2为本发明的Informer结构框架图。
具体实施方式
如图1和图2所示,本发明一种基于图卷积-Informer模型的长时序交通流量预测方法,包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
所述步骤二具体为:
步骤2.1:建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
所述步骤三中构建的两层图卷积神经网络模型为:
上式中:W0、W1分别为第一层与第二层图卷积神经网络的权重参数集合,σ为每一层图卷积神经网络的激活函数。
所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力(ProbSparse Self-attention)机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,ProbSparse Self-attention计算公式如下:
步骤4.2:采用自注意力(Self-attention)蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
步骤4.3:采用最大值池化(MaxPool)下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
还包括步骤五:采用三种评价方法对模型误差测试,分别为均方根误差、平均绝对误差与准确率;
本发明提供的图卷积-Informer的长时序交通流量预测模型方法,通过图卷积神经网络学习交通路网的网络拓扑结构并结合Informer框架对长时序流量特征进行捕捉从而实现高效高性能预测道路交通信息变化趋势。本发明解决了现有多种技术中无法捕捉交通路网结构空间特征信息,另外,Informer框架结构不仅解决了循环神经网络的长序列依赖问题,而且大幅改善了transformer在计算复杂度,内存使用等方面存在的问题,换言之,Informer框架可实现高效利用长时序特征信息进行长时序流量预测的问题,具体来讲,以15分钟时间间隔为例,该方法可实现利用前24小时至48小时(96至192个时间节点)的时序信息对未来15分钟至24小时(1至96个时间节点)交通流量进行实时精确训练预测,解决了前文提到的方法无法利用长时序特征学习交通流量周期性变化趋势等问题,且大大提高了模型算法效率。
本发明的图卷积-Informer的交通流量预测模型方法,以山西省公路站点为例,包括如下步骤:
(1)利用山西省国省干线公路237个交调站点,48个高速公路站点,对单位时间内,例如15分钟为时间间隔,采集所有通过车辆的速度信息并在数据预处理后建立交通流量时序信息数据集X。
(3)设计两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息。
(4)在图神经网络结构后设计Informer层,将上述编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,最终实现对未来交通流量的预测。
本发明针对现有短时序交通流量预测模型的缺点与不足,提出的基于图卷积-Informer模型的时序交通流量预测方法,模型整体结构如附图1所示,具体的实施方案如下:
(1)在山西省国省干线公路237个交调站点,48个高速公路站点,架设微波测速雷达与激光传感器,利用站点设置的上述设备采集所有通过车辆的速度信息。
(2)对采集到的完整通过车辆的速度信息数据进行数据预处理后建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。以每15分钟为单位时间间隔,数据预处理主要采用数据清洗的相关方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,以此类推,对总体目标时间长度分段标注从而建立交通流量时序信息数据集X。
(3)利用上述所有站点的相对地理位置信息以及相对联通情况建立站点网络结构拓扑图,具体实现方法为建立所有站点的邻接矩阵A∈RN*N,其中N为交调站点编号维度,邻接矩阵A的计算公式为:
(4)根据站点邻接矩阵A,计算站点空间信息的对称归一化拉普拉斯矩阵。具体计算过程如下:
其中IN为单位矩阵,此自连接结构保证邻接矩阵与特征X进行计算时,每个站点不会忽略该站点自己的特征信息。随后计算度矩阵,最后可以得到对称归一化拉普拉斯矩阵这一步的目的是使邻接矩阵归一化从而保证邻接矩阵与特征矩阵相乘时不改变特征原本分布。该对称归一化拉普拉斯矩阵能够进行特征分解(谱分解),特征向量能够作为傅里叶变换的基,应用于图的傅里叶变换与卷积过程。图卷积神经网络实现了基于图的傅里叶变换从而进行卷积计算,对图中所有节点与其一阶相邻节点空间特征的提取。
(5)设计两层卷积神经网络模型结构,对路网拓扑结构与流量信息进行编码并学习数据的空间依赖特征信息,该神经网络模型为:
其中W0、W1分别为第一层与第二层的权重参数集合,σ为每一层的激活函数。
(6)突破性地采用Informer结构对图卷积神经网络输出的已编码空间时序信息长程依赖关系进行训练学习,最终得出预测序列结果。Informer结构本质上是对Transformer结构进行了改进提升,使该框架更适合应用于长序列时序预测问题。要理解Informer的部署原理,首先简单介绍Transformer的基础结构,特性与存在的问题。
Transformer基于多头自注意力(multi-head self-attention)机制,避免了传统RNN类模型的循环结构从而大大降低了信号传播的最大路径长度,使模型具有了一定的长程依赖关系理解能力。
其基础结构依旧采用了Seq2seq模型的编解码器(Encoder-Decoder)结构,编码器结构由N=6个相同的层结构组成,每层又由多头自注意力(Multi-head Self-attention)机制与全连接前馈网络构成,并增加了标准化(Normalisation)与残差连接(Residualconnection)。解码器结构与编码器类似,同样由N=6个相同的层结构组成,仅每层较编码器多加一个注意力(Attention)部分,这一部分利用Masking机制防止使用将要输出的内容训练模型参数。
注意力机制采用缩放点积(Scaled dot-product)求解,过程如下:
其中Q,K,V分别为三种输入:query,key,value,dk为比例因子。利用Q,K计算权重,利用SoftMax方法对权重归一化,最终乘以V得到注意力计算结果。
多头注意力(Multi-head Attention)机制是通过对Q,K,V进行h个不同的线性变换投影,并将注意力计算结果拼接起来,该过程实现将原高维空间的计算投影至不同的子空间进行,从不同角度侧重点寻找序列之间的关联关系再进行汇总,计算公式如下:
MultiHead(Q,K,V)=Concat(head1,...,headh)WO
自注意力(Self-Attention)机制则是取Q,K,V值相同,计算当前序列对自己的关联权重,使模型在处理长序列时更好更全面地理解上下文信息。
Informer则根据Transformer架构应用于长序列时序预测问题所存在的缺陷,进行针对性提升。
首先,自注意力机制的点积操作在处理长序列问题时每层的时间复杂度与内存使用情况都达到了O(L2)。Informer则采用概率稀疏自注意力(ProbSparse Self-attention)机制替换原有自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度。其主要实现方法利用Self-attention机制分布的稀疏性,即少数权重对主要注意力计算结果做出绝大部份贡献,其他权重则可忽略。ProbSparse Self-attention过程如下:
其与自注意力机制区别在于为稀疏矩阵,仅包含稀疏评估下Top-u的queries,令u=c·lnLQ,其中c为采样因子,即挑选出贡献排名前u个权值进行点积计算,且稀疏评估在实际操作中也仅需采样U=LK·LnLQ个点积操作,所以多头概率稀疏自注意力机制的时间复杂度与内存使用量为O(LlogL)。
其次,Transformer的层堆叠结构导致输入长序列时内存使用量达O(JL2),J为堆叠层数。Informer则采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,减少沉余从而减少输入的时间维度。过程如下:
其中为上一层多头概率稀疏自注意力层(Multi-head ProbSparse self-attention)计算结果,Conv1d与ELU是在时间维度上的一维卷积与其激活函数,随后采用最大值池化(MaxPool)下采样使输入长度减半,从而实现内存使用量减少至O((2-e)LlogL)。
最后,Informer具备生成型解码器(Generative Style Decoder)以改善Transformer中传统编解码器的架构缺陷。具体来说,Transformer的解码器解码在训练和预测过程中不同,训练过程中,解码器利用输入的正确标注值(Ground Truth)进行解码,而预测过程中解码器因为没有正确标注值的支持,只能按序列顺序一步一步动态解码,即利用前一时刻与其他必要历史时刻隐状态计算当前隐状态并预测当前时刻输出。该过程直接导致在预测长序列时序问题时预测速度急剧下降,实际效果甚至可能与一般循环神经网络模型相当。
Informer的生成型解码器采用了标准解码器结构,但使用生成式推理过程成功实现一次前向过程即可解码得到整个输出序列的功能。其解码器输入为:
其中,为起始符号(Start token),为预测序列的占位符,Lloken为输入序列长度;Ly为预测序列长度;dmodel为模型维度,传统解码器中起始符号常设为特殊标记,但Informer中起始符号为一个编码器输入中截取序列,将改起始符号与占位符输入生成式解码器从而避免动态解码过程。
综上,本方法采用Informer架构成功增强了该类模型对长时序交通流量预测问题的预测容量,并提升其捕获长序列流量输入与长序列预测流量输出之间的依赖关系。
关于本发明具体结构需要说明的是,本发明采用的各部件模块相互之间的连接关系是确定的、可实现的,除实施例中特殊说明的以外,其特定的连接关系可以带来相应的技术效果,并基于不依赖相应软件程序执行的前提下,解决本发明提出的技术问题,本发明中出现的部件、模块、具体元器件的型号、连接方式除具体说明的以外,均属于本领域技术人员在申请日前可以获取到的已公开专利、已公开的期刊论文、或公知常识等现有技术,无需赘述,使得本案提供的技术方案是清楚、完整、可实现的,并能根据该技术手段重现或获得相应的实体产品。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (6)
1.一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:包括如下步骤:
步骤一:构建数据集:采集单位时间内高速公路站点和省干线公路交调站点的所有通过车辆的速度信息,并在数据预处理后建立交通流量时序信息数据集X;
步骤三:构建图卷积神经网络模型:构建两层图卷积神经网络模型结构,对路网拓扑结构与交通流量时序信息进行编码并学习数据的空间依赖特征信息;
步骤四:在图神经网络结构后构建Informer层:将步骤三得到的编码信息输入Informer层进行训练并学习数据长时序依赖特征信息,实现对未来交通流量的预测。
2.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤一具体为:
步骤1.1:在高速公路站点和省干线公路交调站点上架设微波测速雷达与激光传感器,通过站点设置的微波测速雷达与激光传感器采集所有通过车辆的速度信息;
步骤1.2:对采集到的完整通过车辆的速度信息数据进行数据预处理,数据预处理采用数据清洗方法对单位时间间隔内的所有数据进行一致性检查删除数据集中的离群值,并选取排序后的数据序列中位数作为当前时间间隔所代表的时间序列节点交通流量指标,对总体目标时间长度分段标注;
步骤1.3:建立交通流量时序信息数据集X∈RN*P,其中N为交调站点编号维度,P为时间序列节点编号维度。
5.根据权利要求1所述的一种基于图卷积-Informer模型的长时序交通流量预测方法,其特征在于:所述步骤四具体为:
步骤4.1:采用概率稀疏自注意力机制,使时间复杂度与内存使用量降至O(LlogL),L为输入序列向量维度,概率稀疏自注意力的计算公式如下:
步骤4.2:采用自注意力蒸馏操作来提炼具有主导性特征的特征图谱,计算公式如下:
步骤4.3:采用最大值池化下采样使输入长度减半;
步骤4.4:利用生成型解码器使用生成式推理过程实现一次前向过程即可解码得到整个输出序列的功能,其解码器输入为:
所述起始符号为一个编码器输入中截取序列,将该起始符号与占位符输入生成式解码器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110592309.4A CN113487061A (zh) | 2021-05-28 | 2021-05-28 | 一种基于图卷积-Informer模型的长时序交通流量预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110592309.4A CN113487061A (zh) | 2021-05-28 | 2021-05-28 | 一种基于图卷积-Informer模型的长时序交通流量预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113487061A true CN113487061A (zh) | 2021-10-08 |
Family
ID=77933634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110592309.4A Pending CN113487061A (zh) | 2021-05-28 | 2021-05-28 | 一种基于图卷积-Informer模型的长时序交通流量预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487061A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935534A (zh) * | 2021-10-20 | 2022-01-14 | 华能大理风力发电有限公司洱源分公司 | 一种基于卷积transformer架构的光伏日前预测方法、系统及设备 |
CN114124734A (zh) * | 2021-11-20 | 2022-03-01 | 四川大学 | 一种基于GCN-Transformer集成模型的网络流量预测方法 |
CN114422381A (zh) * | 2021-12-14 | 2022-04-29 | 西安电子科技大学 | 通信网络流量预测方法、系统、存储介质及计算机设备 |
CN114463977A (zh) * | 2022-02-10 | 2022-05-10 | 北京工业大学 | 一种基于车路协同多源数据融合交通流预测的路径规划方法 |
CN114492992A (zh) * | 2022-01-25 | 2022-05-13 | 重庆邮电大学 | 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统 |
CN114519469A (zh) * | 2022-02-22 | 2022-05-20 | 重庆大学 | 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法 |
CN114613004A (zh) * | 2022-02-28 | 2022-06-10 | 电子科技大学 | 一种人体动作的轻量化在线检测方法 |
CN114640695A (zh) * | 2022-04-24 | 2022-06-17 | 上海交通大学 | 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法 |
CN114648880A (zh) * | 2022-05-24 | 2022-06-21 | 阿里巴巴达摩院(杭州)科技有限公司 | 预测交通流量的方法、车辆和可读存储介质 |
CN114764858A (zh) * | 2022-06-15 | 2022-07-19 | 深圳大学 | 复制粘贴图像识别方法、装置、计算机设备及存储介质 |
CN114971093A (zh) * | 2022-08-01 | 2022-08-30 | 中南大学 | 城市道路交通流属性预测方法、系统、设备及介质 |
CN115002790A (zh) * | 2022-05-31 | 2022-09-02 | 中电信数智科技有限公司 | 一种基于6g空中基站信号增强及智能按需覆盖优化方法 |
CN115081752A (zh) * | 2022-08-11 | 2022-09-20 | 浙江君同智能科技有限责任公司 | 黑灰产众包流量预测装置及方法 |
CN115440032A (zh) * | 2022-08-09 | 2022-12-06 | 浙江工业大学 | 一种长短期公共交通流量预测方法 |
CN115619052A (zh) * | 2022-12-20 | 2023-01-17 | 安徽农业大学 | 一种城市交通流量预测方法 |
CN117093873A (zh) * | 2023-10-19 | 2023-11-21 | 国网浙江省电力有限公司丽水供电公司 | 基于天然来水量预测的水电站库容能力评估方法和系统 |
CN117116051A (zh) * | 2023-10-25 | 2023-11-24 | 深圳市交投科技有限公司 | 基于人工智能的智慧交通管理系统及其方法 |
CN117290706A (zh) * | 2023-10-31 | 2023-12-26 | 兰州理工大学 | 一种时空卷积融合概率稀疏注意力机制的交通流预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887282A (zh) * | 2019-03-05 | 2019-06-14 | 中南大学 | 一种基于层级时序图卷积网络的路网交通流预测方法 |
CN110889546A (zh) * | 2019-11-20 | 2020-03-17 | 浙江省交通规划设计研究院有限公司 | 一种基于注意力机制的交通流量模型训练方法 |
CN111259672A (zh) * | 2020-02-12 | 2020-06-09 | 新疆大学 | 基于图卷积神经网络的中文旅游领域命名实体识别方法 |
CN112418547A (zh) * | 2020-12-03 | 2021-02-26 | 北京工业大学 | 一种基于gcn-lstm组合模型的公交车站点客流量预测方法 |
-
2021
- 2021-05-28 CN CN202110592309.4A patent/CN113487061A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887282A (zh) * | 2019-03-05 | 2019-06-14 | 中南大学 | 一种基于层级时序图卷积网络的路网交通流预测方法 |
CN110889546A (zh) * | 2019-11-20 | 2020-03-17 | 浙江省交通规划设计研究院有限公司 | 一种基于注意力机制的交通流量模型训练方法 |
CN111259672A (zh) * | 2020-02-12 | 2020-06-09 | 新疆大学 | 基于图卷积神经网络的中文旅游领域命名实体识别方法 |
CN112418547A (zh) * | 2020-12-03 | 2021-02-26 | 北京工业大学 | 一种基于gcn-lstm组合模型的公交车站点客流量预测方法 |
Non-Patent Citations (6)
Title |
---|
BAOXIN ZHAO; XITONG GAO; JIANQI LIU: "Spatiotemporal Data Fusion in Graph Convolutional Networks for Traffic Prediction", 《IEEE ACCESS》 * |
GABRIEL SPADON; SHENDA HONG; BRUNO BRANDOLI: "Pay Attention to Evolution: Time Series Forecasting with Deep Graph-Evolution Learning", 《 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
HAOYANG YAN, XIAOLEI MA: "Learning Dynamic and Hierarchical Traffic Spatiotemporal Features with Transformer", 《TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
HAOYI ZHOU,SHANGHANG ZHANG,JIEQI PENG: "Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting", 《2021 AAAI BEST PAPER》 * |
JIYU CHEN, HEQING HUANG, HAO CHEN: "Informer: Irregular Traffic Detection for Containerized Microservices RPC in the Real World", 《SEC ’19: ACM/IEEE SYMPOSIUM ON EDGE COMPUTING》 * |
MINGXING XU, WENRUI DAI: "Spatial-Temporal Transformer Networks for Traffic Flow Forecasting", 《ARXIV E-PRINTS》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935534A (zh) * | 2021-10-20 | 2022-01-14 | 华能大理风力发电有限公司洱源分公司 | 一种基于卷积transformer架构的光伏日前预测方法、系统及设备 |
CN114124734B (zh) * | 2021-11-20 | 2023-04-07 | 四川大学 | 一种基于GCN-Transformer集成模型的网络流量预测方法 |
CN114124734A (zh) * | 2021-11-20 | 2022-03-01 | 四川大学 | 一种基于GCN-Transformer集成模型的网络流量预测方法 |
CN114422381A (zh) * | 2021-12-14 | 2022-04-29 | 西安电子科技大学 | 通信网络流量预测方法、系统、存储介质及计算机设备 |
CN114422381B (zh) * | 2021-12-14 | 2023-05-26 | 西安电子科技大学 | 通信网络流量预测方法、系统、存储介质及计算机设备 |
CN114492992A (zh) * | 2022-01-25 | 2022-05-13 | 重庆邮电大学 | 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统 |
CN114463977A (zh) * | 2022-02-10 | 2022-05-10 | 北京工业大学 | 一种基于车路协同多源数据融合交通流预测的路径规划方法 |
CN114463977B (zh) * | 2022-02-10 | 2023-06-23 | 北京工业大学 | 一种基于车路协同多源数据融合交通流预测的路径规划方法 |
CN114519469A (zh) * | 2022-02-22 | 2022-05-20 | 重庆大学 | 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法 |
CN114519469B (zh) * | 2022-02-22 | 2024-05-31 | 重庆大学 | 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法 |
CN114613004A (zh) * | 2022-02-28 | 2022-06-10 | 电子科技大学 | 一种人体动作的轻量化在线检测方法 |
CN114640695A (zh) * | 2022-04-24 | 2022-06-17 | 上海交通大学 | 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法 |
CN114640695B (zh) * | 2022-04-24 | 2023-04-07 | 上海交通大学 | 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法 |
CN114648880A (zh) * | 2022-05-24 | 2022-06-21 | 阿里巴巴达摩院(杭州)科技有限公司 | 预测交通流量的方法、车辆和可读存储介质 |
CN114648880B (zh) * | 2022-05-24 | 2022-09-06 | 阿里巴巴达摩院(杭州)科技有限公司 | 预测交通流量的方法、车辆和可读存储介质 |
CN115002790B (zh) * | 2022-05-31 | 2023-11-17 | 中电信数智科技有限公司 | 一种基于6g空中基站信号增强及智能按需覆盖优化方法 |
CN115002790A (zh) * | 2022-05-31 | 2022-09-02 | 中电信数智科技有限公司 | 一种基于6g空中基站信号增强及智能按需覆盖优化方法 |
CN114764858B (zh) * | 2022-06-15 | 2022-11-01 | 深圳大学 | 一种复制粘贴图像识别方法、装置、计算机设备及存储介质 |
CN114764858A (zh) * | 2022-06-15 | 2022-07-19 | 深圳大学 | 复制粘贴图像识别方法、装置、计算机设备及存储介质 |
CN114971093A (zh) * | 2022-08-01 | 2022-08-30 | 中南大学 | 城市道路交通流属性预测方法、系统、设备及介质 |
CN115440032A (zh) * | 2022-08-09 | 2022-12-06 | 浙江工业大学 | 一种长短期公共交通流量预测方法 |
CN115440032B (zh) * | 2022-08-09 | 2024-05-03 | 浙江工业大学 | 一种长短期公共交通流量预测方法 |
CN115081752B (zh) * | 2022-08-11 | 2022-11-22 | 浙江君同智能科技有限责任公司 | 黑灰产众包流量预测装置及方法 |
CN115081752A (zh) * | 2022-08-11 | 2022-09-20 | 浙江君同智能科技有限责任公司 | 黑灰产众包流量预测装置及方法 |
CN115619052A (zh) * | 2022-12-20 | 2023-01-17 | 安徽农业大学 | 一种城市交通流量预测方法 |
CN117093873A (zh) * | 2023-10-19 | 2023-11-21 | 国网浙江省电力有限公司丽水供电公司 | 基于天然来水量预测的水电站库容能力评估方法和系统 |
CN117093873B (zh) * | 2023-10-19 | 2024-01-30 | 国网浙江省电力有限公司丽水供电公司 | 基于天然来水量预测的水电站库容能力评估方法和系统 |
CN117116051A (zh) * | 2023-10-25 | 2023-11-24 | 深圳市交投科技有限公司 | 基于人工智能的智慧交通管理系统及其方法 |
CN117116051B (zh) * | 2023-10-25 | 2023-12-22 | 深圳市交投科技有限公司 | 基于人工智能的智慧交通管理系统及其方法 |
CN117290706A (zh) * | 2023-10-31 | 2023-12-26 | 兰州理工大学 | 一种时空卷积融合概率稀疏注意力机制的交通流预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113487061A (zh) | 一种基于图卷积-Informer模型的长时序交通流量预测方法 | |
CN110889546B (zh) | 一种基于注意力机制的交通流量模型训练方法 | |
Chen et al. | Traffic flow prediction based on deep learning in internet of vehicles | |
An et al. | A novel fuzzy-based convolutional neural network method to traffic flow prediction with uncertain traffic accident information | |
CN113487066B (zh) | 基于多属性增强图卷积-Informer模型的长时序货运量预测方法 | |
Yan et al. | Spatial-temporal chebyshev graph neural network for traffic flow prediction in iot-based its | |
Han et al. | Short‐term traffic flow prediction of road network based on deep learning | |
Ye et al. | Attention-based spatio-temporal graph convolutional network considering external factors for multi-step traffic flow prediction | |
CN110163449B (zh) | 一种基于主动时空图卷积的机动车排污监测节点部署方法 | |
CN109086926B (zh) | 一种基于组合神经网络结构的短时轨道交通客流预测方法 | |
CN116721537A (zh) | 基于gcn-ipso-lstm组合模型的城市短时交通流预测方法 | |
CN115148019A (zh) | 一种基于节假日拥堵预测算法的预警方法及系统 | |
Shao et al. | The Traffic Flow Prediction Method Using the Incremental Learning‐Based CNN‐LTSM Model: The Solution of Mobile Application | |
Zhang et al. | Passenger flow forecast of rail station based on multi-source data and long short term memory network | |
CN111141879B (zh) | 一种深度学习的空气质量监测方法以及装置、设备 | |
CN115206092A (zh) | 一种基于注意力机制的BiLSTM和LightGBM模型的交通预测方法 | |
CN116311921A (zh) | 一种基于多空间尺度时空Transformer的交通速度预测方法 | |
Luo et al. | Stgin: A spatial temporal graph-informer network for long sequence traffic speed forecasting | |
WO2024068527A1 (en) | A computer-implemented method for forecasting traffic indicators in a road network | |
Gao et al. | An Improved CEEMDAN‐FE‐TCN Model for Highway Traffic Flow Prediction | |
Hu et al. | Vehicle travel destination prediction method based on multi-source data | |
Guo et al. | Multi‐step traffic speed prediction model with auxiliary features on urban road networks and its understanding | |
Liao et al. | Traj2Traj: A road network constrained spatiotemporal interpolation model for traffic trajectory restoration | |
Li et al. | TSDCN: Traffic safety state deep clustering network for real‐time traffic crash‐prediction | |
Mead | Hybrid CNN and LSTM Model (HCLM) for Short-Term Traffic Volume Prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211008 |