CN112071062B - 一种基于图卷积网络和图注意力网络的行车时间估计方法 - Google Patents

一种基于图卷积网络和图注意力网络的行车时间估计方法 Download PDF

Info

Publication number
CN112071062B
CN112071062B CN202010960611.6A CN202010960611A CN112071062B CN 112071062 B CN112071062 B CN 112071062B CN 202010960611 A CN202010960611 A CN 202010960611A CN 112071062 B CN112071062 B CN 112071062B
Authority
CN
China
Prior art keywords
driving
unit
speed
time
road section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202010960611.6A
Other languages
English (en)
Other versions
CN112071062A (zh
Inventor
郑凯
李云川
孙福振
方春
刘聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Technology
Original Assignee
Shandong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Technology filed Critical Shandong University of Technology
Priority to CN202010960611.6A priority Critical patent/CN112071062B/zh
Publication of CN112071062A publication Critical patent/CN112071062A/zh
Application granted granted Critical
Publication of CN112071062B publication Critical patent/CN112071062B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种基于图卷积网络和图注意力网络的行车时间估计方法,属于交通信息处理技术领域。其特征在于:包括如下步骤:步骤1,建模交通情况单元;步骤2,建模驾驶习惯单元;步骤3,建模驾驶速度单元;步骤4,建模行车时间单元;步骤5,得到最终的行车时间估计结果。在本申请的基于图卷积网络和图注意力网络的行车时间估计方法中,通过元学习来对每个驾驶员的驾驶习惯进行编码,并根据该道路及其连接路段的历史交通状况来估计该路段的未来交通状况。每个路段的行程时间不是孤立的,即依赖于相邻路段之间的速度,因此采用GAT的注意力机制去模拟不同路段之间的相互关系。最后通过多任务学习可以得到各路段和整个路径的行车时间。

Description

一种基于图卷积网络和图注意力网络的行车时间估计方法
技术领域
一种基于图卷积网络和图注意力网络的行车时间估计方法,属于交通信息处理技术领域。
背景技术
近年来,行车时间估计(TTE)广泛的被应用在行车调度、用户打车和路径导航等问题中。通过对驾驶员的行车时间进行合理的估计,能够很好的方便车辆行驶和提升用户体验。影响驾驶员行车时间的因素有很多,包括行车距离、道路类型、行车习惯、交通情况等;行车时间估计即通过研究上述因素的作用,来进行合理的行车时间估计。
现存的主流方法有DeepTTE、TEMP、ConLSTM和类似ARIMA的传统数据统计方法。其中TEMP和类似ARIMA的传统数据统计方法并不能很好的为多种因素相互影响下的行车时间估计(TTE)建立合适的模型,同时也不能保证复杂条件下的行车时间估计精确度;采用了CNN和LSTM相结合的ConLSTM方法,只研究了单个路段的行车时间;ConLSTM方法考虑了多个路段的行驶时间,却又忽略了路段等辅助信息的相关性。深度生成模型DeepGTT使用CNN来学习各段路径的行车时间分布以获得一个实时的道路情况,然而该模型的行车时间估计结果依赖于所有司机的驾驶情况而非特定的某个司机的驾驶情况,因此当模型应用于某个司机的行车时间估计时,可能并不会有很高的准确性。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种结合了驾驶员的驾驶习惯、交通状况以及临近路段的空间相关性,实现了对行车时间进行精确估计的基于图卷积网络和图注意力网络的行车时间估计方法。
本发明解决其技术问题所采用的技术方案是:该基于图卷积网络和图注意力网络的行车时间估计方法,其特征在于:包括如下步骤:
步骤1,建模交通情况单元;
步骤2,建模驾驶习惯单元;
步骤3,建模驾驶速度单元;
步骤4,建模行车时间单元;
执行步骤1~步骤4后得到行车时间估计模型,在行车时间估计模型中,驾驶习惯单元与交通情况单元分别与驾驶速度单元相连,驾驶速度单元与行车时间单元相连,由行车时间单元得出最终的结果;
步骤5,通过行车时间估计模型,得到最终的行车时间估计结果。
优选的,在所述的步骤1中,执行建模交通情况单元时,具体包括如下步骤:
步骤1-1,进行空间特征捕捉,在进行空间特征捕捉时,通过构建路段交通组件来学习每个路段的交通条件C,使用图卷积网络,通过与周围路段卷积后的直线变换学习目标路段的空间特征表示;
步骤1-2,进行时空特征预测,如图2所示,通过图卷积网络GCN和GRU单元,建立了GCN-GRU模型,使用图卷积网络从空间视图中捕获路段中的时空特征st,并使用GRU模型从目标道路段中的时空视图中捕获seq2seq来捕获路段中的时空特征;
步骤1-3,进行交通情况描述。
优选的,在所述的驾驶习惯单元中,设置有两层结构:元知识嵌入层以及元知识学习层,在元知识嵌入层中,设置有与元知识一一对应的学习嵌入单元,元知识分别送入各自对应的学习嵌入单元中,然后将所有学习嵌入单元进行合并连接;在元知识学习层中,设置有LSTM模型,所有学习嵌入单元合并连接后利用LSTM模型学习驾驶习惯。
优选的,所述的元知识包括驾驶员ID、驾驶时间、驾驶日期、驾驶速度以及加载状态。
优选的,在所述步骤3建模驾驶速度单元时,首先,获取利用t时刻的速度特征、t+1时刻的驾驶习惯、交通条件获取t+1时刻单个路段驾驶员的速度特征;
其次利用注意力网络GAT获取相邻路段的权重系数,再将相邻路段vj在ts时刻的表示速度与其相应权值相乘求和得到目标路段在ts时刻的速度,具体两个步骤:第一步是获取与目标路段及其邻居路段的相关性,第二步是更新下一个时刻目标道路的速度。
与现有技术相比,本发明所具有的有益效果是:
1、在本基于图卷积网络和图注意力网络的行车时间估计方法中,结合了驾驶员的驾驶习惯、交通状况以及临近路段的空间相关性,实现了对行车时间的精确估计。
2、在本申请的基于图卷积网络和图注意力网络的行车时间估计方法中,通过元学习来对每个驾驶员的驾驶习惯进行编码,并根据该道路及其连接路段的历史交通状况来估计该路段的未来交通状况。每个路段的行程时间不是孤立的,即依赖于相邻路段之间的速度,因此采用GAT的注意力机制去模拟不同路段之间的相互关系。最后通过多任务学习可以得到各路段和整个路径的行车时间。
3、利用图卷积网络来利用空间信息,以及邻近路段的空间相关性。
4、提出利用图卷积网络与邻近路段的空间相关性,以及利用递归神经网络与历史交通状况的时间相关性来学习路段交通状况。
5、设计了具有时间操作的图注意力网络,以找出具有道路属性的路段之间的依赖性。
6、对于所分配的驾驶员的行驶时间估计考虑了驾驶习惯的影响。这些创新有助于保留交通的时空特性和指定驾驶员的驾驶习惯。
7、提出为每个驾驶员学习嵌入,并通过元学习动态调整嵌入,以反映驾驶员的驾驶习惯。
8、采用GAT注意机制去更新驾驶员的行驶速度以确保更精确的行车时间估计。
附图说明
图1为基于图卷积网络和图注意力网络的行车时间估计方法流程图。
图2为基于图卷积网络和图注意力网络的行车时间估计模型交通情况单元结构示意图。
图3为基于图卷积网络和图注意力网络的行车时间估计模型驾驶习惯单元结构示意图。
图4为基于图卷积网络和图注意力网络的行车时间估计模型驾驶速度单元及行车时间单元结构示意图。
图5为基于图卷积网络和图注意力网络的行车时间估计模型结构示意图。
具体实施方式
图1~5是本发明的最佳实施例,下面结合附图1~5对本发明做进一步说明。
如图1所示,一种基于图卷积网络和图注意力网络的行车时间估计方法(以下简称估计方法),包括如下步骤:
步骤1,建模交通情况单元;
在建模交通情况单元时,包括如下步骤:
步骤1-1,进行空间特征捕捉,在进行空间特征捕捉时,通过构建路段交通组件来学习每个路段的交通条件C,使用图卷积网络(GCN),通过与周围路段卷积后的直线变换学习目标路段的空间特征表示;使用图形卷积滤波器,可以在卷积期间通过道路网络拓扑将输入的随机权值“传播”到相邻相关的边。总的来说,使用GCN模型从路段的静态地理特征矩阵Fs中去学习静态空间特征Ss,同时从路段的特征矩阵Ft中学习具有时间特征的空间特征St
步骤1-2,进行时空特征预测,如图2所示,在建模交通情况单元中,通过图卷积网络(GCN)和GRU单元,建立了GCN-GRU模型,使用图卷积网络从空间视图中捕获路段中的时空特征st,并使用GRU模型从目标道路段中的时空视图中捕获seq2seq来捕获路段中的时空特征。采用GRU单元,通过将时间片K处的时空相关隐藏状态st和当前动态空间特征矢量st作为输入,获得目标路段在时间t+K处的时空特征st。
步骤1-3,进行交通情况描述,交通的复杂性揭示了时空相关性和辅助数据的依赖性;因此,通过连接操作将这两个特征融合在一起以形成交通特征。不同的日期的行驶速度有相同的趋势,根据这一观察事实,速度具有周期性。因此,历史数据可以用来修正和补充实时交通状况,可以利用历史交通情况和实时的交通情况推导出未来的交通情况。
步骤2,建模驾驶习惯单元;
如图3所示,在驾驶习惯单元中,设置有两层结构:元知识嵌入层以及元知识学习层,在本估计方法中,根据驾驶员驾驶习惯的不同,设置了驾驶员ID、驾驶时间、驾驶日期、驾驶速度以及加载状态作为元知识。在元知识嵌入层中,设置有与元知识一一对应的学习嵌入单元,元知识分别送入各自对应的学习嵌入单元中,然后将所有学习嵌入单元进行合并连接;在元知识学习层中,设置有LSTM模型,所有学习嵌入单元合并连接后利用LSTM模型学习驾驶习惯,称为动态元知识,最后将驾驶员的驾驶特征和驾驶习惯形式化。
步骤3,建模驾驶速度单元;
指定驾驶员的速度特征受三个因素的影响:交通条件C、驾驶员的驾驶习惯dr(u)以及静态空间特征Ss。在驾驶速度单元中学习K步路段的速度。整条路段具有时间依赖性,可以获取利用t时刻的速度特征、t+1时刻的驾驶习惯、交通条件等因素获取t+1时刻单个路段驾驶员的速度特征。
结合图4,相邻路段之间的速度还是相互影响的,可以利用注意力网络GAT获取相邻路段的权重系数,然后再将相邻路段vj在ts时刻的表示速度与其相应权值相乘求和便可以得到目标路段在ts时刻的速度。主要有两个步骤:第一步是获取与目标路段及其邻居路段的相关性,第二步是更新下一个时刻目标道路的速度。
步骤4,建模行车时间单元;
路段的行车时间和驾驶速度speed和路段长度有关。如图4所示,在本估计方法中,设计了一个多任务学习框架用
Figure BDA0002680404810000041
去估计给定路径的行车时间,两层LSTM模型可以提高预测能力。现在,得到了给定路径的速度序列
Figure BDA0002680404810000042
每个
Figure BDA0002680404810000043
对应于路段vi的速度特征向量,每个
Figure BDA0002680404810000044
可以通过全连通层映射为标量speed,其中speed为第i个路段的预测速度。对于整个路径的出行时间,需要考虑如何将每个路段的行车时间结合起来,采用的是注意力机制,它本质上是序列
Figure BDA0002680404810000045
的加权和,其中权值是模型获得的参数。最后利用单个神经元获取整个路径估计结果。
通过上述步骤1~4后,得到如图5所示的行车时间估计模型,驾驶习惯单元与交通情况单元分别与驾驶速度单元相连,驾驶速度单元与行车时间单元相连,由行车时间单元得出最终的结果。
步骤5,得到行车时间;
将数据输入后由图5所示的行车时间估计模型得到行车时间。
行车时间估计模型的验证:
为了更好的比较本申请行车时间估计模型的优越性,进行了实验,在城市A和城市B两个真实的出租车轨迹数据集上评估的模型。这两个数据集具有相同的格式,包括轨迹数据、路网和辅助数据,如天气。为了便于计算,将连续的路网分割成离散的路段。通过地图匹配算法将经度、维数组成的二维GPS数据转换为由路段ID组成的一维路段数据。城市B数据集是2014年8月由14864辆出租车生成的公共数据集。城市A数据集是由中国哈尔滨从2017年1月2日到2017年1月26日的16852辆出租车生成的。路段总长4650.55公里,路段数量28964条。
采用的评价指标包括平均绝对百分比误差(MAPE)、均方根误差(RMSE)和平均绝对误差(MAE)。平均绝对百分比误差(MAPE)将估计值与真实值的百分比进行比较;均方根误差(RMSE)和平均绝对误差(MAE)是估计值和真实值之间的差值,并将本申请得到的时间估计模型命名为DRTTE。
Figure BDA0002680404810000051
表1 DRTTE与其他模型的实验比较
从表1,可以观察得出ARIMA的表现结果最差,因为该方法主要依赖于时空历史的数据来预测未来的行车时间,该方法没有考虑到一些空间属性(例如道路种类、道路长度、道路的网络拓扑结构等)和其它相关延伸特征(如天气等),这一结果表明,传统的时间序列预测方法无法捕捉复杂的时空关系。TEMP方法表现了介于静态方法ARIMA和深度学习方法DeepTTE之间的中等性能。这是因为TEMP是一种近似方法,更适合于不发生交通变化的高速公路或城市快速路,因此这并不能解决复杂交通环境上的情况。TEMP和DeepTTE的结果都优于ARIMA,说明深度学习方法比非深度学习模型更能处理大规模复杂数据。对于DeepTTE来说,由于采用卷积操作对离散的位置进行处理以获取空间特征,因此它的效果优于TEMP。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (2)

1.一种基于图卷积网络和图注意力网络的行车时间估计方法,其特征在于:包括如下步骤:
步骤1,建模交通情况单元;
步骤2,建模驾驶习惯单元;
步骤3,建模驾驶速度单元;
步骤4,建模行车时间单元;
执行步骤1~步骤4后得到行车时间估计模型,在行车时间估计模型中,驾驶习惯单元与交通情况单元分别与驾驶速度单元相连,驾驶速度单元与行车时间单元相连,由行车时间单元得出最终的结果;
步骤5,通过行车时间估计模型,得到最终的行车时间估计结果;
在所述步骤3建模驾驶速度单元时,首先,获取利用t时刻的速度特征、t+1时刻的驾驶习惯、交通条件获取t+1时刻单个路段驾驶员的速度特征;
其次利用注意力网络GAT获取相邻路段的权重系数,再将相邻路段vj在ts时刻的表示速度与其相应权值相乘求和得到目标路段在ts时刻的速度,具体两个步骤:第一步是获取与目标路段及其邻居路段的相关性,第二步是更新下一个时刻目标道路的速度;
在所述的步骤1中,执行建模交通情况单元时,具体包括如下步骤:
步骤1-1,进行空间特征捕捉,在进行空间特征捕捉时,通过构建路段交通组件来学习每个路段的交通条件C,使用图卷积网络,通过与周围路段卷积后的直线变换学习目标路段的空间特征表示;
步骤1-2,进行时空特征预测,通过图卷积网络GCN和GRU单元,建立了GCN-GRU模型,使用图卷积网络从空间视图中捕获路段中的时空特征st,并使用GRU模型从目标道路段中的时空视图中捕获seq2seq来捕获路段中的时空特征;
步骤1-3,进行交通情况描述;
在所述的驾驶习惯单元中,设置有两层结构:元知识嵌入层以及元知识学习层,在元知识嵌入层中,设置有与元知识一一对应的学习嵌入单元,元知识分别送入各自对应的学习嵌入单元中,然后将所有学习嵌入单元进行合并连接;在元知识学习层中,设置有LSTM模型,所有学习嵌入单元合并连接后利用LSTM模型学习驾驶习惯
在步骤4中,设计多任务学习框架用
Figure FDA0003688234980000011
去估计给定路径的行车时间,得到了给定路径的速度序列
Figure FDA0003688234980000012
每个
Figure FDA0003688234980000013
对应于路段vi的速度特征向量,每个
Figure FDA0003688234980000014
通过全连通层映射为标量speed,其中speed为第i个路段的预测速度,对于整个路径的出行时间,采用注意力机制将每个路段的行车时间结合起来,本质上是序列
Figure FDA0003688234980000021
的加权和,其中权值是模型获得的参数,最后利用单个神经元获取整个路径估计结果。
2.根据权利要求1所述的基于图卷积网络和图注意力网络的行车时间估计方法,其特征在于:所述的元知识包括驾驶员ID、驾驶时间、驾驶日期、驾驶速度以及加载状态。
CN202010960611.6A 2020-09-14 2020-09-14 一种基于图卷积网络和图注意力网络的行车时间估计方法 Expired - Fee Related CN112071062B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010960611.6A CN112071062B (zh) 2020-09-14 2020-09-14 一种基于图卷积网络和图注意力网络的行车时间估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010960611.6A CN112071062B (zh) 2020-09-14 2020-09-14 一种基于图卷积网络和图注意力网络的行车时间估计方法

Publications (2)

Publication Number Publication Date
CN112071062A CN112071062A (zh) 2020-12-11
CN112071062B true CN112071062B (zh) 2022-09-23

Family

ID=73695546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010960611.6A Expired - Fee Related CN112071062B (zh) 2020-09-14 2020-09-14 一种基于图卷积网络和图注意力网络的行车时间估计方法

Country Status (1)

Country Link
CN (1) CN112071062B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408629B (zh) * 2021-06-22 2022-09-06 中国科学技术大学 基于时空卷积网络的机动车尾气遥测数据的多重补全方法
CN113470365B (zh) * 2021-09-01 2022-01-14 北京航空航天大学杭州创新研究院 一种面向有缺失数据的公交车到站时间预测方法
CN113837268B (zh) * 2021-09-18 2024-03-12 北京百度网讯科技有限公司 确定轨迹点状态的方法、装置、设备和介质
CN114582128B (zh) * 2022-03-10 2023-08-04 浙江大学 基于图离散注意力网络的交通流预测方法、介质及设备
CN115410368A (zh) * 2022-08-24 2022-11-29 吉林化工学院 基于dgcn的行程时间预测方法
CN115394088B (zh) * 2022-10-31 2023-04-07 江苏博宇鑫信息科技股份有限公司 基于时空注意力机制的路口通行时间预测方法
CN116246457B (zh) * 2022-12-16 2024-10-08 北京交通大学 基于路口联合建模的对偶图卷积网络的行程时间估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821080A (zh) * 2015-03-02 2015-08-05 北京理工大学 基于宏观城市交通流的智能车辆行驶速度及时间预测方法
CN105865472A (zh) * 2016-04-06 2016-08-17 重庆邮电大学 一种基于最佳油耗的车载导航方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317686B1 (en) * 2000-07-21 2001-11-13 Bin Ran Method of providing travel time
US8103435B2 (en) * 2007-07-27 2012-01-24 George Mason Intellectual Properties, Inc. Near real-time traffic routing
KR101231515B1 (ko) * 2010-06-30 2013-02-07 기아자동차주식회사 주행경로의 연료량 계산 시스템 및 그 방법
CN108896064A (zh) * 2018-07-05 2018-11-27 晁保锁 基于信息共享的应用于gps导航系统的到达时间预估系统
CN109166317B (zh) * 2018-10-29 2020-07-24 东北林业大学 基于状态特征的城市交通路径通过时间确定方法
CN109754605B (zh) * 2019-02-27 2021-12-07 中南大学 一种基于注意力时态图卷积网络的交通预测方法
CN110648527B (zh) * 2019-08-20 2021-05-11 浙江工业大学 一种基于深度学习模型的交通速度预测方法
CN111223301B (zh) * 2020-03-11 2021-01-26 北京理工大学 一种基于图注意力卷积网络的交通流量预测方法
CN111540199B (zh) * 2020-04-21 2021-04-06 浙江省交通规划设计研究院有限公司 基于多模态融合和图注意力机制的高速交通流预测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821080A (zh) * 2015-03-02 2015-08-05 北京理工大学 基于宏观城市交通流的智能车辆行驶速度及时间预测方法
CN105865472A (zh) * 2016-04-06 2016-08-17 重庆邮电大学 一种基于最佳油耗的车载导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于高斯过程回归的城市道路行程时间预测算法研究;吴亚鸽;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》;20180715;全文 *

Also Published As

Publication number Publication date
CN112071062A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN112071062B (zh) 一种基于图卷积网络和图注意力网络的行车时间估计方法
CN113313947B (zh) 短期交通预测图卷积网络的路况评估方法
Chu et al. Deep multi-scale convolutional LSTM network for travel demand and origin-destination predictions
CN110991713B (zh) 基于多图卷积和gru的不规则区域流量预测方法
CN111696355A (zh) 动态图卷积交通速度预测方法
Long et al. Unified spatial-temporal neighbor attention network for dynamic traffic prediction
CN110766942B (zh) 一种基于卷积长短期记忆网络的交通路网拥堵预测方法
CN114299723B (zh) 一种交通流量预测方法
US20240054321A1 (en) Traffic prediction
CN111223301A (zh) 一种基于图注意力卷积网络的交通流量预测方法
CN115440032B (zh) 一种长短期公共交通流量预测方法
CN112150207A (zh) 基于时空上下文注意力网络的网约车订单需求预测方法
CN112863182B (zh) 基于迁移学习的跨模态数据预测方法
Venkatesh et al. Rainfall prediction using generative adversarial networks with convolution neural network
CN112489426A (zh) 一种基于图卷积神经网络的城市交通流量时空预测方案
CN113435658B (zh) 一种基于时空融合相关性和注意力机制的交通流预测方法
CN112633602B (zh) 一种基于gis地图信息的交通拥堵指数预测方法及装置
CN113591380A (zh) 基于图高斯过程的交通流预测方法、介质及设备
CN111242292A (zh) 基于深度时空网络的od数据预测方法及系统
CN115311860B (zh) 一种交通流量预测模型的在线联邦学习方法
CN112488185A (zh) 包含时空特性的车辆运行参数预测方法,系统,电子设备及可读存储介质
CN111341109A (zh) 一种基于时空相似性的城市级信号推荐系统
CN116307152A (zh) 时空交互式动态图注意力网络的交通预测方法
CN113408786B (zh) 一种交通特征预测方法及系统
CN112613630B (zh) 一种融合多尺度时空统计信息的短时交通需求预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220923