CN115034496A - 基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 - Google Patents
基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 Download PDFInfo
- Publication number
- CN115034496A CN115034496A CN202210733762.7A CN202210733762A CN115034496A CN 115034496 A CN115034496 A CN 115034496A CN 202210733762 A CN202210733762 A CN 202210733762A CN 115034496 A CN115034496 A CN 115034496A
- Authority
- CN
- China
- Prior art keywords
- passenger flow
- matrix
- data
- network
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 80
- 238000013136 deep learning model Methods 0.000 claims abstract description 15
- 230000000694 effects Effects 0.000 claims description 29
- 238000010586 diagram Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000009193 crawling Effects 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 18
- 238000011156 evaluation Methods 0.000 description 15
- 238000002679 ablation Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 235000019580 granularity Nutrition 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 235000015700 Artemisia abrotanum Nutrition 0.000 description 1
- 244000249062 Artemisia abrotanum Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Game Theory and Decision Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Entrepreneurship & Innovation (AREA)
- Biomedical Technology (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于GCN‑Transformer的城市轨道交通节假日短时客流预测方法。该方法包括:将交通网络视为图结构,构建用于表征各站点之间拓扑关系的线网图;获取历史客流矩阵和社交媒体数据矩阵,其中所述历史客流数据矩阵利用自动售检票系统获得,所述社交媒体数据矩阵利用互联网社交媒体获得;将所述线网图、所述历史客流矩阵和所述社交媒体数据矩阵输入到经训练的深度学习模型,预测出后续时刻的客流数据。本发明将假期客流数据、假期相关社交媒体数据量以及交通线网拓扑结构有机地整合至一起,能够充分捕捉客流的时空特征和假期特性,在满足短时客流预测“实时性”要求的同时,提高了假期客流的预测精度。
Description
技术领域
本发明涉及轨道交通客流预测技术领域,更具体地,涉及一种基于GCN-Transformer的城市轨道交通节假日短时客流预测方法。
背景技术
城市轨道交通凭借其运量大、速度快、准时性高、污染小、安全性高等优势,近几年迎来了爆发式发展,已成为大中型城市中不可或缺的公共交通工具。同时轨道交通短期客流预测作为智能轨道交通系统运营管理的重要组成部分,受到广泛关注。短期客流预测是一项重要且具有挑战性的任务,一方面有助于运营商采取相关措施提高服务水平,另一方面,客流具有复杂的时空特征,尤其是在特定场景下波动较大。然而现有的大部分模型主要针对常规工作日或周末客流展开预测,仅有少部分针对假期客流的研究。由于假期客流具有突发性和无规律性,预测假期客流对交通管理而言极具挑战。因此,有必要进行准确的短期客流预测,尤其是节假日客流预测。
目前,一些学者对节假日客流预测展开研究。例如,采用机器学习模型,将支持向量机(SVR)与自适应遗传算法相结合以预测节假日客流。又如,分析假期客流的时空特性,然后基于改进的反向传播算法提出假期客流预测模型。再如,采用一种基于分解迁移学习的预测方法,这有利于提高假期客流预测的准确性。
虽然上述模型很好地填补了假期客流预测的空缺,但仍存在以下缺陷:假期客流数据的样本数量往往有限,模型无法从有限的样本中充分学习到客流特征,导致预测精度降低;大多数模型在预测客流时仅使用客流数据,忽视了其他因素(如天气、事件等)对客流的潜在影响,使模型无法全面捕捉客流特征。
发明内容
本发明的目的是克服上述现有技术的缺陷,提供一种基于GCN-Transformer的城市轨道交通节假日短时客流预测方法。该方法包括:
将交通网络视为图结构,构建用于表征各站点之间拓扑关系的线网图;
获取历史客流矩阵和社交媒体数据矩阵,其中所述历史客流数据矩阵利用自动售检票系统获得,所述社交媒体数据矩阵利用互联网社交媒体获得;
将所述线网图、所述历史客流矩阵和所述社交媒体数据矩阵输入到经训练的深度学习模型,预测出后续时刻的客流数据,表示为:
Yt=f(Pt-1,G,St-1)
其中,f是深度学习模型的映射函数,Pt-1表示在时间步t-1到t内交通网络各个车站的进站客流矩阵,St-1表示在时间步t-1到t内与假期相关社交媒体数据矩阵,G表示线网图,Yt表示预测出的时刻t的客流数据。
在一个实施例中,所述深度学习模型包括图卷积神经网络层、优化的Transformer层、二维单位卷积网络、第一全连接网络和第二全连接网络,其中:
图卷积神经网络层基于所述线网图和所述历史客流矩阵提取目标站点的邻接站点,并将邻接站点和目标站点的特征数据聚合,获得包含空间拓扑关系的特征矩阵;
优化后的Transformer层以图卷积神经网络层的输出作为输入,提取客流的时间特征;二维单位卷积网络针对优化的Transformer层的输出结果聚合深度时空特征,并且二维单位卷积网络的输出经由残差连接与所述历史客流数据矩阵相融合,获得融合特征;
所述第一全连接网络针对该融合特征捕捉客流数据的非线性关系,并将输出维度降低至期望水平,获得第一特征提取结果;
所述第二全连接网络从所述社交媒体数据矩阵提取出客流在假期的非线性特征,获得第二特征提取结果;
将第一特征提取结果和第二特征提取结果进行加权融合,获得后续时刻的客流预测数据。
与现有技术相比,本发明的优点在于,借助图卷积神经网络(GCN)以及经过优化后的Transformer结构,构建切实有效的深度学习框架(或称为GCN-Transformer),同时将假期客流数据、假期相关社交媒体数据量以及地铁线网拓扑结构有机地整合至一起,以充分捕捉节日客流的时空特征和假期特性,在满足短时客流预测“实时性”要求的同时,提高了假期客流的预测精度。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本发明一个实施例的GCN-Transformer框架示意图;
图2是根据本发明一个实施例的GCN的计算过程示意图;
图3是根据本发明一个实施例的改进后的多头注意力机制计算流程示意图;
图4是根据本发明一个实施例的元旦假期客流与相关社交媒体数据量比较示意图;
图5是根据本发明一个实施例的不同模型在两个南宁市元旦地铁客流数据集上的模型评估结果示意图;
图6是根据本发明一个实施例的南宁地铁站点级模型评估结果示意图;
图7是根据本发明一个实施例的南宁地铁日内各时刻的模型评估结果示意图;
图8是根据本发明一个实施例的消融实验模型性能评估结果示意图;
附图中,Inflow data-输入数据;Adjacent Matrix-邻接矩阵;Input-输入;FirstLayer-第一层;Second Layer-第二层;GCN Layer-图卷积网络层;Modified Transformerlayer-优化的转换器层;Spatial and Topological correlation-空间和拓扑相关性;Multi-Head Attention-多头注意力机制;Feed forward-前馈;Conv1d-一维卷积层;Microblogs Data Matrix-微博数据矩阵;Linear-线性化;Microblogs Volumes-微博数据量。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
简言之,本发明的技术方案主要包括:首先,定义所要解决的科学问题。然后,构建深度学习框架GCN-Transformer,对该框架所使用的图卷积神经网络(GCN)以及优化后的Transformer进行详细介绍。最后,在南宁元旦地铁数据集上验证模型的预测效果,对所提出的模型的预测性能与常见短时客流预测模型的预测性能进行比较,验证模型预测的准确性和模型结构的合理性。下文对这几部分内容进行详细介绍。
第一、问题定义
本发明旨在利用历史AFC(自动售检票系统)数据预测下一时段的客流。对AFC数据按时间段进行统计,整合形成不同时间粒度下(如10分钟、30分钟等)的客流矩阵。例如,客流统计时间粒度设置为10分钟。
定义一(客流矩阵):AFC数据主要包括以下信息:乘客ID卡卡号、乘客到达时间、乘客到达站点、乘客离开时间、乘客离开站点。已知车站n在时刻t-1到时刻t的所有乘客出行信息,共包含q个时间段(时间步),pn(t)表示车站n在第t个时间段内统计的客流量,定义如下的客流矩阵:
其中,Pt-1∈Rs×q表示在时段t-1到时段t内城市轨道交通网络各个车站的进站客流矩阵,n表示城市轨道交通网络站点个数,q表示t-1到t这一时段内包含的时间步。例如,以历史12个时间步的客流数据预测下一时间步的客流Yt。
定义二(社交媒体数据矩阵):为捕捉假期客流的潜在趋势,定义如下的社交媒体数据矩阵St-1:
其中,St-1∈Rs×q表示在时刻t-1到时刻t内与假期相关社交媒体数据的统计量,其他参数的含义与客流矩阵一致。
社交媒体数据矩阵反映目标区域内,包含设定关键词的社交媒体数据量,例如,以关键词“元旦”搜索出的北京区域内所发布的微博条数。目标区域是指待预测客流的轨道交通网络所位于的区域,可以是市、县或设定范围区域。
定义三(轨道站点图网络):为表示轨道交通各站点间的拓扑关系,定义图结构G=(S,E,A)。其中,S={s1,s2,…sn}表示车站的集合,n为城市轨道交通网络站点个数,E表示相邻站点间的边。通过连接地铁线网上两个相邻的站点构造图结构表示空间信息。例如,邻接矩阵的表达式如下:
问题定义:在时刻t-1,给定AFC数据,地铁线网图以及特定假期的相关微博数据提取历史客流矩阵Pt-1、社交媒体数据矩阵St-1以及地铁站点图网络G,预测下一时间步t的客流数据Yt。因此,问题可以表示为如下:
Yt=f(Pt-1,G,St-1)(4)
其中,f表示训练过程中要学习的模型。
第二、模型结构
图1是GCN-Transformer模型的框架,包括GCN layer,堆叠形成的Transformerlayer,一个二维单位卷积层,一个残差连接结构以及多个全连接层(标记为Linear)。图1的框架主要包括两个部分。部分Ⅰ(Part1),进站客流和站点邻接矩阵经过GCN处理,以提取客流的空间拓扑信息。得到GCN的输出后,输入至优化的Transformer进一步提取客流的时间特征。接着,将Transformer层的处理结果输入至2D单位卷积网络以聚合深度时空特征。该过程中,采用残差连接将输出与初始客流数据相结合,防止过拟合和梯度消失,便于模型优化。随后,应用全连接网络(如Linear1、Linear2和Linear3)捕捉客流数据的非线性关系,并将输出维度降低至期望水平。部分Ⅱ(part2),使用多层次全连接网络处理社交媒体数据矩阵,以捕捉客流在假期的非线性特征。最后,部分Ⅰ的结果与部分Ⅱ的结果通过加权求和得到时刻t的客流预测数据Yt。
综上,GCN-Transformer模型主要包括网络图卷积神经网络和优化后的Transformer,在下文分别具体介绍。
1)网络图卷积神经网络GCN
图卷积网络对图结构的空间相关性和拓扑信息具有强大的挖掘能力,其计算过程如图2所示,整体包括提取目标站点的邻接站点(Sampling neighbor,邻接点采样)、特征聚合(Aggregator features,或者权重聚合)和预测(Prediction)。
现有的交通预测模型通常将交通网络视为网格矩阵而非图结构,因此无法使用GCN提取客流的拓扑信息。为更好的挖掘地铁网络相邻站点的内在拓扑依赖关系,本发明将地铁网络视为图结构,使用GCN处理客流矩阵和地铁站点邻接矩阵。目前GCN的计算公式具有多种形式,考虑到由Kipf(Kipf,T.N.&Welling,M.(2016),"Semi-supervisedclassification with graph convolutional networks",arXiv preprint arXiv:1609.02907)等人提出的基于一阶滤波器的GCN的表现性能良好,因此,在一个实施例中,使用该版本的GCN进行计算,其公式如下所示:
其中,A∈Rn×n表示邻接矩阵,I∈Rn×n表示单位矩阵,表示的对角节点度矩阵,Pl表示第l层的特征矩阵,其初始输入为客流矩阵Pt-1∈Rn×q,Wl表示第l层的权值矩阵,bl表示第l层的偏置矩阵,σ(·)则为激活函数。
GCN的主要计算过程是:给定地铁网络图结构G=(S,E,A)以及客流矩阵Pt-1。首先,根据站点邻接信息提取目标站点的邻接站点;接着,基于一阶滤波运算,将邻接站点和目标站点的特征数据进行聚合,形成包含空间拓扑关系的特征矩阵。最后,基于特征矩阵进行预测。
2)优化后的Transformer
Transformer最初用于自然语言处理(NLP),模型中的多头注意力机制可以扩展用于捕捉时间序列数据不同位置间的相关性,因此本发明尝试将Transformer应用于城市轨道交通假期客流预测。原始的Transformer主要由encoder-decoder框架组成。由于本发明针对短时客流预测,所以模型仅采用Transformer中的encoder结构并对其进行优化改进,使用1D卷积神经网络单元替代全连接网络单元。改进后的encoder结构有利于捕捉客流的长短时趋势,更适合处理时间序列,是本发明的创新点之一。
注意力机制可以视为一个函数。与预测任务相关的查询向量关键向量以及值向量均由客流矩阵Pt-1∈Rs×q经过1D卷积操作得到,s表示车站数量,dq、dk和dv分别表示矩阵Q、K、V的列数,Q、K、V保持一致,均有客流矩阵Pt-1经过1D单位卷积得到。在该模型中,Q、K和V保持一致。Q、K和V的计算公式分别如下:
Q=Conv1D(Wq·Pt-1)(6)
K=Conv1D(Wk·Pt-1) (7)
V=Conv1D(Wv·Pt-1) (8)
式中,Conv1D表示1D卷积操作,Wq,Wk,Wv分别表示Q、K和V的权重矩阵。在计算得到Q、K和V之后,通过点乘操作(scaleddot-product)计算时间依赖性Z:
式中,Softmax(·)表示激活函数,对输入进行非线性转换,使得时间依赖性Z的取值为0~1,dk表示矩阵Q、K的列数,用于避免模型权值更新时因为梯度过小而无法反向传播。
在一个实例中,使用多头注意力机制捕捉客流的多重时间特征以提高预测精度。多头注意力机制的计算过程如图3所示,首先是Q、K、V的计算,接着使用点乘求得多个特征权重系数,最终通过全连接将多重特征系数进行融合,得到特征权重矩阵。具体地,将客流矩阵(Passenger Flow Matrix)分别输入至h个自注意力机制中计算h个时间特征矩阵。接着,对h个时间特征矩阵进行拼接并输入到全连接层,最终获得时间特征矩阵Zh,图3中,H表示多头数,即H个自注意力机制。
第三、模型评价
为了验证本发明的效果,在两个真实数据集上验证GCN-Transformer的预测性能。以下首先介绍使用的数据集,然后介绍模型的参数设置和评估指标。接着介绍选取的几个常规客流预测基准模型,最后从多个角度对实验结果进行分析。
1)数据集
在实验中,基于南宁市城市轨道交通AFC数据集开展,该数据集主要包括2019年到2021年元旦前后五周地铁早上6点到晚上11点的AFC数据,原始数据形式参见表1。为符合模型的输入,将AFC数据按照十分钟粒度进行整合得到客流矩阵,同时对所有车站进行编号,最终获得客流数据表,参见表2。为更好的捕捉假期客流数据的特征以提高预测精度,使用连续两年的客流数据进行训练和学习。以2019年和2020年客流数据为例,共包含10个星期的客流数据。取前九个星期的客流数据(包含了2019年元旦期间客流数据)对模型进行训练和验证。剩余一个星期的客流数据(2020年元旦期间客流数据)用于测试模型的预测效果。为保证模型预测效果的稳定性,实验仅考虑不同年份中一致的车站。实验中使用的两个数据集参见表3。
表1原始AFC数据
表2客流进站数据统计
表3数据集描述
在实验研究中,从微博上爬取了与AFC数据相同统计时段内带有关键词“元旦假期”以及“南宁市”的微博。由于爬取的微博数量不足,对微博数据进行扩样处理,最终得到与客流矩阵一致的社交媒体数据矩阵St-1。
进一步地,对客流数据和微博数据的相关性进行简单分析。图4展示南宁地铁鹏飞路站2021年元旦期间的客流数据与社交媒体数量数据变化情况。由图4可知,城市轨道交通客流在工作日存在明显的早晚高峰特征,元旦假期期间,客流量明显增多,但没有明显早晚高峰特征。随着元旦假期到来,社交媒体数据量逐渐增多,这与客流在元旦期间的变化趋势相似,表明城市轨道交通客流与相关社交媒体数据可能存在某种潜在的相关性。
2)模型配置
超参数:为准确评估模型的预测性能,GCN-Transformer在两个数据集上的参数保持一致。上述提到该模型由两部分组成,部分Ⅰ,GCN的输入和输出数据的维度保持一致,均为batch_size(批处理大小),numberofstations(站点数量)和timesteps(时间步)。优化后的Transformer结构由8个encoder单位组成,每个encoder单位主要由3个自注意力机制单元构成。2D单位卷积神经网络的参数分别为:in_channels=out_channels=1,kernel_size=3,stride=1,padding=1。全连接层由两个隐藏层和一个输出层构成,神经元单位的数量分别是[2048,1024,number of stations*1],激活函数为ReLU函数。部分Ⅱ,全连接网络由一个隐藏层和输出层组成,其神经元单位数量分别是[2048,number of stations*1]。模型的batch_size为64,模型的优化器选择Adam,学习率为0.0001。
预处理:训练前,需要对所有数据进行归一化。得到预测结果后,将其逆归一化至原标度范围,便于对结果进行评价。
3)评价指标
例如,使用均方误差Mean Square Error(MSE)作为损失函数,使用均方根误差Root Mean Square Error(RMSE)、平均绝对误差Mean Absolute Error(MAE)和加权平均绝对百分比误差weighted Mean Absolute Percentage Error(WMAPE)作为模型预测效果的评价指标。
4)基准模型
将在南宁地铁元旦客流数据集上比较GCN-Transformer与基准模型的预测效果。基准模型的细节描述如下:
Autoregressive Integrated Moving Average(ARIMA):ARIMA是一种常见的时间序列处理模型。实验中ARIMA的三个参数:滞后阶数、差度以及移动平均阶数经过调整后分别设定为2、1和0。
Back Propagation Neural Network(BPNN):BPNN作为最基本的神经网络模型之一,可用于交通预测领域。实验中搭建的BPNN由两层全连接层组成,每层有512个神经单元。模型的优化器是Adgrad,学习率为0.0001,输入为最近12个时间步的进站客流,输出是下一个时间步的进站客流。
Convolutional Neural Network(CNN):CNN捕捉数据空间相关性的性能良好。实验中搭建了一个常规的2D卷积神经网络,由一个CNN层和两个全连接层组成。CNN层的参数分别为:out_channels=8,in_channels=1,kernel_size=3,stride=1,padding=1。模型优化器为Adam,学习率为0.0001。全连接层的的神经元单位数量分别为[2048,number ofstations*1]。模型的输入输出与BPNN模型一致。
Long Short-Term Memory Neural Network(LSTM):LSTM是一种处理时间序列数据的深度学习模型。实验中搭建了一个常规的LSTM模型,由两个隐藏层和两个全连接层组成。每个隐藏层包含128个神经单元,而全连接层的神经元单位数量分别为[2048,numberof stations*1]。模型的优化器为Adam,学习率为0.0001。LSTM模型的输入与输出与BPNN模型一致。
ST-GCN:该模型能够充分学习客流的时空特征。研究采用三个ST-GCN的分支搭建模型,参数设置与原文保持一致。
GCN-CNN:该模型主要由图卷积神经网络和2D的卷积神经网络组成,参数的设置与原文保持一致。
ST-ResNet:该模型在城市交通拥堵预测中的性能效果良好。实验中使用三个残差卷积单位搭建模型。
ConvLSTM:该模型可以充分捕捉客流的时空特性。实验中搭建一个包含三层隐藏层和两层全连接层的ConvLSTM模型。
第四、结果分析
1)线网级预测性能研究
首先,从线网级比较GCN-Transformer和其他基准模型的预测性能。参见表4和图5,由于ARIMA只能捕捉有限的时间特性,因此其预测性能明显不如深度学习模型。在所有深度学习基准模型中,复杂的深度学习模型,例如ST-GCN、GCN-CNN、ST-ResNet以及ConvLSTM等考虑了客流的时空特性,因此预测精度得到提升。然而,上述模型大多针对常规工作日或周末的客流预测,不适用于假期客流预测。
考虑到GCN具有较强的捕捉客流空间相关性和拓扑信息的能力,同时优化后的Transformer在捕捉客流时间特性方面具有较大潜力,因此本发明基于GCN和优化后的Transformer提出GCN-Transformer预测假期客流。另外,考虑到事件下的轨道交通客流与相关社交媒体数据量之间存在正相关关系,因此本发明考虑了相关社交媒体数据量对客流的影响以便捕捉节假日客流的假期特征。所提出的模型取得精确的预测效果,在两个数据集上的评估指标均为最优,其中RMSE分别为26.860和29.882,MAE分别为16.232和15.850,WMAPE分别为0.124和0.158。
表4不同模型预测性能比较
2)站点级预测性能研究
节假日期间,并非所有地铁车站客流有明显的假期特征。毗邻商业区的车站客流可能具有明显的假日特征,而承担日常通勤或换乘的站点则不具有明显的假期特征。实验中,选择三个具有不同客流模式的车站研究GCN-Transformer的预测性能。第一个车站是亭洪路站,该车站毗邻主要商业区,居民会在假期期间前往商业区游玩;第二个车站是广西大学站,该车站是一个典型的通勤站点,许多乘客居住在附近以便通勤;最后一个站点是南宁火车站,该站点是一个大型的换乘枢纽。三个站点元旦期间假期客流预测效果如图6所示。
亭洪路站的预测结果如图6的(a)所示。可以看出,元旦假期间的客流量呈现出明显的节假日特征,即客流高峰比平时更高更明显。本发明提出的模型能够充分捕捉客流的假日特征,尤其是局部峰值,因此预测效果良好。广西大学站的预测结果如图6的(b)所示,该站点的客流具有显著的通勤特征,包含明显的早晚高峰特征。元旦期间,乘客通勤需求减小。本发明提出的模型可以捕捉工作日通勤客流的早晚高峰特性,因此无论是在节假日还是工作日,模型预测效果良好。南宁火车站的预测结果如图6的(c)所示。作为换乘枢纽,客流高峰时段的分布与其他车站不一致。上午不存在明显的高峰时段,在下午和晚上存在两个高峰时段。从图中可以看出,模型的预测值与实际值接近,说明GCN-Transformer能够捕捉不同类型客流的时空特征。
3)不同时刻测性能研究
为进一步研究GCN-Transformer在一天不同时刻的预测性能,本实验分析研究了车站由早上6点到晚上11点每个时刻的平均误差。图7为GCN-Transformer和其他基准模型在不同时刻的预测性能指标变化。
首先,讨论模型在不同时刻的预测性能与总体预测性能的相关性。如图7所示,模型的整体预测性能与不同时段的预测性能具有相似性。无论从单一时刻角度还是总体角度来看,ARIMA的预测效果最差。与其他模型相比,ARIMA的预测指标随时间的波动最为明显,这表明数理统计模型不适合用于大规模城市轨道交通线网站点客流预测。本发明提出的GCN-Transformer(对应最靠近横坐标轴的曲线)在一天各个时刻的预测效果以及总体预测效果都优于其他基准模型,评估指标最优,说明模型适合于线网级别的预测。
接着,分析同一个模型在一天不同时刻的预测效果。如图7所示,模型评价指标的变化趋势与客流变化趋势相符,均存在明显的早晚高峰,当客流突然增多时评价指标会相应增大。ARIMA的评价指标的峰值特征最明显,表明该模型预测性能受客流早晚高峰影响较大;而GCN-Transformer的评价指标变化最平缓,受客流早晚高峰影响较小,表明GCN-Transformer具有良好的稳定性和鲁棒性。
最后,对模型在不同数据集上的预测效果进行讨论。无论是2020年元旦数据集或者2021年元旦数据集,模型的预测效果大体保持一致,其中GCN-Transformer的预测效果均为最优,再一次证明本发明提出的模型在不同数据集上具有良好的鲁棒性。
4)消融实验研究
为进一步探讨模型结构和数据结构对预测精度的影响,进行了详细的消融实验。首先,对模型结构进行消融实验,实验采用控制变量法,保持模型部分结构不变,研究不同结构对预测性能的影响。接着,研究数据结构对模型预测性能的影响,如使用当年或连续两年的客流数据进行训练,使用微博数据或不使用微博数据进行训练。实验设置如下:
移除ResNet结构(without ResNet):从GCN-Transformer中移除ResNet结构;
移除CNN结构(without CNN):从GCN-Transformer中移除CNN结构;
移除transformer结构(without transformer):从GCN-Transformer中移除Transformer结构;
移除GCN结构(without GCN):从GCN-Transformer中移除GCN结构;
不使用微博数据(without Microblog):仅使用客流数据,不使用微博数据;
使用当年数据(using one year):仅使用当年数据,不使用连续两年数据;
表5和图8表示消融实验的实验结果。加入微博数据后,GCN-Transformer在两个数据集上的预测性能优于其他情况,评价指标达到最优。移除ResNet结构后,GCN-Transformer的预测性能显著下降,这是因为模型中的ResNet结构可以避免模型训练时梯度爆炸或梯度消失,移除后模型的训练稳定性下降,导致预测精度大幅降低。当模型移除优化后的Transformer结构后,模型的预测精度下降,这是由于改进的Transformer结构增强了模型捕捉长短期时间特征的能力,移除后模型捕捉时间特性的能力下降,导致预测精度降低。此外,由表4和图8可知,仅使用当年数据预测时,其预测精度在所有情况中是第二差;与之相反,使用连续两年的数据进行预测时,模型预测效果得到显著提升,这表明使用连续两年客流数据训练模型时可以更好捕捉节假日客流的假期特性,克服了由于假期客流训练数据有限导致预测精度不足的问题。比较加入微博数据和没有加入微博数据时模型的预测精度,结果显示加入与假期相关的微博数据量信息后,模型的预测精度得到提升,表明与假期相关的微博数据量信息能够在一定程度上反映客流的假期趋势特征,加入到模型后可以有效提升预测效果。
上述提到的消融实验的实验结果表明GCN-Transformer可以充分捕捉假期客流的时空特征,加入相关假期社交媒体数据可以帮助模型更好学习假期客流的节假日属性,提高假期客流预测精度。
表5消融实验预测性能比较
从上述结果讨论部分可以看出,结合了相关社交媒体数据的GCN-Transformer对假期客流的预测精度提升效果明显,无论是在数据集实验研究还是在消融实验研究中,本发明提出的模型预测效果都是最好,下面依据表4和表5,对三个评价指标分别加以说明。
对于RMSE,在2020年南宁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从28.247下降到26.606;在2021年南宁地铁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从30.968下降到28.912,效果分别提升5.81%,6.64%。
对于MAE,在2020年南宁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从17.155下降到16.306;在2021年南宁地铁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从16.872下降到15.826,效果分别提升4.95%,6.20%。
对于WMAPE,在2020年南宁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从0.131下降到0.124;在2021年南宁地铁元旦客流数据集上,预测指标相比较目前预测效果最优模型,从0.169下降到0.158,效果分别提升5.34%,6.51%.
结合预测结果可知,GCN-Transformer有效提升了假期客流预测的准确性,可用以指导工程实践。
综上所述,本发明提出了深度学习模型GCN-Transformer预测假期客流,该模型包含图卷积神经网络(GCN)和优化后的Transformer结构,其中GCN用于提取客流的空间特性,优化后的Transformer用于提取客流的时间特征。除常规历史客流数据之外,社交媒体数据同样能够有效反映事件下客流波动,因此也被应用于客流预测。进一步地,本发明使用南宁市地铁元旦客流数据集对GCN-Transformer的预测性能进行了检验,结果表明所提出的模型具有良好的预测性能和鲁棒性,可为节假日客流预测的实际应用提供有力支持。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++、Python等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于GCN-Transformer的城市轨道交通节假日短时客流预测方法,包括以下步骤:
将交通网络视为图结构,构建用于表征各站点之间拓扑关系的线网图;
获取历史客流矩阵和社交媒体数据矩阵,其中所述历史客流数据矩阵反映交通网络内各车站的客流数据量,所述社交媒体数据矩阵反映交通网络所在区域内,符合设定节假日关键词的媒体数据量;
将所述线网图、所述历史客流矩阵和所述社交媒体数据矩阵输入到经训练的深度学习模型,预测出后续时刻的客流数据,表示为:
Yt=f(Pt-1,G,St-1)
其中,f是深度学习模型的映射函数,Pt-1表示在时间步t-1到t内交通网络各个车站的进站客流矩阵,St-1表示在时间步t-1到t内与假期相关社交媒体数据矩阵,G表示线网图,Yt表示预测出的时刻t的客流数据。
2.根据权利要求1所述的方法,其特征在于,所述深度学习模型包括图卷积神经网络层、优化的Transformer层、二维单位卷积网络、第一全连接网络和第二全连接网络,其中:
图卷积神经网络层基于所述线网图和所述历史客流矩阵提取目标站点的邻接站点,并将邻接站点和目标站点的特征数据聚合,获得包含空间拓扑关系的特征矩阵;
优化的Transformer层以图卷积神经网络层的输出作为输入,提取客流的时间特征;二维单位卷积网络针对优化的Transformer层的输出结果聚合深度时空特征,并且二维单位卷积网络的输出经由残差连接与所述历史客流数据矩阵相融合,获得融合特征;
所述第一全连接网络针对该融合特征捕捉客流数据的非线性关系,并将输出维度降低至期望水平,获得第一特征提取结果;
所述第二全连接网络从所述社交媒体数据矩阵提取出客流在假期的非线性特征,获得第二特征提取结果;
将第一特征提取结果和第二特征提取结果进行加权融合,获得后续时刻的客流预测数据。
4.根据权利要求2所述的方法,其特征在于,所述优化的Transformer层包含多个编码器结构,每个编码器结构包括一维卷积神经网络、多头注意力机制和前馈网络。
7.根据权利要求4所述的方法,其特征在于,所述多头注意力机制的计算过程包括:
将历史客流矩阵分别输入至h个自注意力机制中计算h个时间特征矩阵;
对h个时间特征矩阵进行拼接并输入到全连接层,最终获得时间特征矩阵Zh。
8.根据权利要求1所述的方法,其特征在于,训练所述深度学习模型的数据集利用以下步骤获得:
采集连续两年的历史客流数据,共包含10个星期的客流数据,取前九个星期的客流数据对深度学习模型进行训练和验证,剩余一个星期的历史客流数据用于测试深度学习模型的预测效果,并且采集的数据仅考虑不同年份中一致的车站;
以目标节假日作为关键词,从微博上爬取目标区域内与历史客流数据相同统计时段内的微博数据,并对微博数据进行扩样处理,得到与历史客流数据对应的社交媒体数据;
利用归一化后的数据构建训练集和测试集,以训练并验证所述深度学习模型。
9.一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现根据权利要求1至8中任一项所述方法的步骤。
10.一种计算机设备,包括存储器和处理器,在所述存储器上存储有能够在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210733762.7A CN115034496A (zh) | 2022-06-27 | 2022-06-27 | 基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210733762.7A CN115034496A (zh) | 2022-06-27 | 2022-06-27 | 基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115034496A true CN115034496A (zh) | 2022-09-09 |
Family
ID=83127077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210733762.7A Pending CN115034496A (zh) | 2022-06-27 | 2022-06-27 | 基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115034496A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830402A (zh) * | 2023-02-21 | 2023-03-21 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
CN116109234A (zh) * | 2022-12-01 | 2023-05-12 | 北京交通大学 | 一种基于预测与决策一体化的快递系统智能订单分配方法 |
CN116402237A (zh) * | 2023-06-07 | 2023-07-07 | 交控科技股份有限公司 | 客流预测方法、装置、电子设备及介质 |
CN118025203A (zh) * | 2023-07-12 | 2024-05-14 | 江苏大学 | 一种融合复杂网络和图Transformer的自动驾驶车辆行为预测方法及系统 |
CN118297419A (zh) * | 2024-04-02 | 2024-07-05 | 北京交通大学 | 考虑事故状态的城市轨道交通短时od客流预测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114330671A (zh) * | 2022-01-06 | 2022-04-12 | 重庆大学 | 一种基于Transformer时空图卷积网络的交通流预测方法 |
CN114330868A (zh) * | 2021-12-27 | 2022-04-12 | 西北工业大学 | 基于自注意力的个性化增强图卷积网络的客流预测方法 |
CN114492992A (zh) * | 2022-01-25 | 2022-05-13 | 重庆邮电大学 | 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统 |
WO2022129421A1 (en) * | 2020-12-18 | 2022-06-23 | Imec Vzw | Traffic prediction |
-
2022
- 2022-06-27 CN CN202210733762.7A patent/CN115034496A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022129421A1 (en) * | 2020-12-18 | 2022-06-23 | Imec Vzw | Traffic prediction |
CN114330868A (zh) * | 2021-12-27 | 2022-04-12 | 西北工业大学 | 基于自注意力的个性化增强图卷积网络的客流预测方法 |
CN114330671A (zh) * | 2022-01-06 | 2022-04-12 | 重庆大学 | 一种基于Transformer时空图卷积网络的交通流预测方法 |
CN114492992A (zh) * | 2022-01-25 | 2022-05-13 | 重庆邮电大学 | 一种基于Transformer的自适应时空图神经网络交通流预测方法及系统 |
Non-Patent Citations (3)
Title |
---|
SHUXIN ZHANG ET.: "GCN-Transformer for short-term passenger flow prediction on holidays in urban rail transit system", HTTPS://ARXIV.ORG/ABS/2203.00007V2, pages 1 - 10 * |
李岩著: "《过饱和状态下交叉口群交通运行分析与信号控制》", 东南大学出版社, pages: 172 - 173 * |
麻蕊: "基于图卷积网络交通流预测的研究与应用", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, no. 2, pages 5 - 38 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109234A (zh) * | 2022-12-01 | 2023-05-12 | 北京交通大学 | 一种基于预测与决策一体化的快递系统智能订单分配方法 |
CN116109234B (zh) * | 2022-12-01 | 2023-08-08 | 北京交通大学 | 一种基于预测与决策一体化的快递系统智能订单分配方法 |
CN115830402A (zh) * | 2023-02-21 | 2023-03-21 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
CN115830402B (zh) * | 2023-02-21 | 2023-09-12 | 华东交通大学 | 一种细粒度图像识别分类模型训练方法、装置及设备 |
CN116402237A (zh) * | 2023-06-07 | 2023-07-07 | 交控科技股份有限公司 | 客流预测方法、装置、电子设备及介质 |
CN116402237B (zh) * | 2023-06-07 | 2023-09-01 | 交控科技股份有限公司 | 客流预测方法、装置、电子设备及介质 |
CN118025203A (zh) * | 2023-07-12 | 2024-05-14 | 江苏大学 | 一种融合复杂网络和图Transformer的自动驾驶车辆行为预测方法及系统 |
CN118297419A (zh) * | 2024-04-02 | 2024-07-05 | 北京交通大学 | 考虑事故状态的城市轨道交通短时od客流预测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115034496A (zh) | 基于GCN-Transformer的城市轨道交通节假日短时客流预测方法 | |
CN111667092B (zh) | 基于图卷积神经网络的轨道交通短时客流预测方法和系统 | |
CN111161535A (zh) | 基于注意力机制的图神经网络交通流量预测方法及系统 | |
CN110570651A (zh) | 一种基于深度学习的路网交通态势预测方法及系统 | |
Zhang et al. | A Traffic Prediction Method of Bicycle-sharing based on Long and Short term Memory Network. | |
Esquivel et al. | Spatio-temporal prediction of Baltimore crime events using CLSTM neural networks | |
CN111242395B (zh) | 用于od数据的预测模型构建方法及装置 | |
CN114626585B (zh) | 一种基于生成对抗网络的城市轨道交通短时客流预测方法 | |
Wang | A stock price prediction method based on BiLSTM and improved transformer | |
Xu et al. | Short‐term traffic flow prediction based on whale optimization algorithm optimized BiLSTM_Attention | |
Brahimi et al. | Modelling on Car‐Sharing Serial Prediction Based on Machine Learning and Deep Learning | |
Soares et al. | BiGRU-CNN neural network applied to short-term electric load forecasting | |
Li | Prediction of tourism demand in liuzhou region based on machine learning | |
Chang et al. | Enhanced road information representation in graph recurrent network for traffic speed prediction | |
CN115938112B (zh) | 交通需求预测方法、系统、电子设备及计算机存储介质 | |
CN117593878A (zh) | 一种突发事件下的城市轨道交通短时od需求预测方法 | |
CN116432808A (zh) | 一种基于深度学习的网络级多模式交通短时客流预测方法 | |
CN116934380A (zh) | 一种异常事件下的电商物资供需联合预测方法 | |
Rathnayaka et al. | Specialist vs generalist: A transformer architecture for global forecasting energy time series | |
ABBAS | A survey of research into artificial neural networks for crime prediction | |
Zhang et al. | Spatial-temporal load forecasting of electric vehicle charging stations based on graph neural network | |
CN115965163A (zh) | 基于时空图生成对抗损失的轨道交通短时客流预测方法 | |
CN116956994A (zh) | 业务平台扩容预测方法及装置 | |
Xu et al. | Road Travel Time Prediction Based on Improved Graph Convolutional Network | |
Liu et al. | Time series forecasting fusion network model based on prophet and improved LSTM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220909 |