CN112633591A - 一种基于深度强化学习的空间搜索方法及设备 - Google Patents
一种基于深度强化学习的空间搜索方法及设备 Download PDFInfo
- Publication number
- CN112633591A CN112633591A CN202011616392.6A CN202011616392A CN112633591A CN 112633591 A CN112633591 A CN 112633591A CN 202011616392 A CN202011616392 A CN 202011616392A CN 112633591 A CN112633591 A CN 112633591A
- Authority
- CN
- China
- Prior art keywords
- space
- neural network
- model
- space search
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000002787 reinforcement Effects 0.000 title claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000011156 evaluation Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 230000009471 action Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 238000005065 mining Methods 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
Abstract
本发明提供了一种基于深度强化学习的空间搜索方法及设备,方法包括获取空间数据信息,建立实际空间搜索模型;制定空间搜索路径规划结果的评价函数;根据所述空间搜索模型对路径规划进行网络模型的构建;采用强化学习方法迭代训练神经网络获取损失函数;通过反向传播训练神经网络并作为空间搜索路径规划决策模型输出。本发明通过根据实际需求构建空间搜索模型,进而建立评价函数作为机器学习目标,通过强化学习迭代训练使网络模型收敛至实际收益,适用于决策大规模的空间搜索路径规划问题。
Description
技术领域
本发明涉及机器学习和空间搜索技术领域,特别涉及一种基于深度强化学习的空间搜索方法及设备。
背景技术
基于路径优化的组合优化问题是运筹学中的经典问题,更有着广泛的实际应用场景,如旅行商问题、邮差问题、车辆路径问题等。针对此类NP-hard问题,主要有三种传统方法求解:精确算法,近似算法及启发式算法。常见的精确算法主要有分支限界法、动态规划法,然而精确解法受限于时间复杂度,只适用于小规模问题;近似算法包括贪婪算法、局部搜索算法、松弛算法等,提供了在多项式时间内的近似解。然而近似算法不能保证所得解的质量,最坏情况往往不尽人意;启发式算法包括遗传算法、粒子群算法等,能够相对快速得到解,然而启发式方法缺少理论支持,同时这类算法的设计需要掌握大量专业知识和反复试验,更依赖于研究者的专业水与经验。
随着大数据时代的到来以及计算能力的不断提高,基于大数据驱动的深度学习技术得到了飞速发展。深度学习的方法由于具有自动学习能力和在大数据集上较好的拟合特性,近年来越来越受到人们的青睐。深度学习在很多应用领域如图像分类、目标检测(典型应用如人脸识别、行人识别、车辆识别等)、图像分割等都有着广泛的应用。同时深度学习在解决组合优化问题上的能力也越来越受到人们重视,如AlphaGo已经远远超越人类棋手。然而这些研究均关注在一些经典模拟问题的求解,对于基于现实状态及需求的空间搜索路径优化的实际问题缺乏相关的解决方案。
发明内容
为解决上述技术问题,本发明提供了一种基于深度强化学习的空间搜索方法及设备,该方法从实际问题出发,建立空间搜索路径规划收益评价函数作为机器学习目标,通过强化学习迭代训练提升模型预测预期收益的能力,最终得到基于预期收益最大的空间搜索路径规划策略。该方法能够适用于大规模的空间搜索路径规划问题,并且能够保证结果质量。
本发明提供了一种基于深度强化学习的空间搜索方法,具体技术方案如下:
S1:获取空间数据信息,建立实际空间搜索模型;
S2:根据建立的空间搜索模型中的参数制定空间搜索路径规划结果的评价函数;
S3:根据所述空间搜索模型,对路径规划的收益或对决策或对收益和决策共同建模;
获取当前时刻的空间搜索状态特征,并输入深度神经网络中,根据神经网络输出的决策或预期收益最高的行动进行下一步空间搜索更新轨迹;
S4:根据评价函数计算实际收益,采用强化学习方法迭代训练神经网络获取损失函数;
S5:通过反向传播训练神经网络,经过多次迭代,将训练收敛的神经网络作为空间搜索路径规划决策模型输出。
进一步的,在步骤S1模型的构建中,对于欧式空间可通过多种神经网络模型对空间搜索路径优化收益或决策建模,例如通过卷积神经网络对欧式空间结构化信息进行收集挖掘或者利用循环神经网络对时间上前后状态之间的相互影响进行建模;
进一步的,所述评价函数根据现实需求进行制定,通过实际的空间参数计算时空覆盖效率,得到各时间段的空间搜索收益。
进一步的,在所述评价函数的制定过程中,根据实际空间参数的重要性,构建该参数的重要性权重并进行时空覆盖率的计算,得到结合空间参数重要性的评价函数。
进一步的,步骤S3中当前状态的输入特征向量的获取包括根据不同区域时间的自由特征利用加权求和或平均的方式获取代表当前状态的空间搜索状态特征向量或根据特征类别通过OneHot向量的方式表示。
进一步的,所述损失函数的构建根据实际收益的分布类型采用不同的计算方式,包括绝对值损失函数、平方差损失函数、SmoothL1Loss、交叉熵损失函数或能够求取导数的损失函数。
进一步的,在步骤S4中对网络模型进行强化学习训练获得损失函数时,根据建模类型选取不同的强化学习算法,对收益建模的神经网络采用Q-Learing或SARSA算法进行训练;对决策建模的神经网络的训练采用REINFORCE算法;对收益和决策同时建模的神经网络的训练采用演员-评论员算法。
进一步的,在利用反向传播训练神经网络的过程中,通过随机梯度下降法或基于梯度一阶导数二阶导数的快速下降法或对重点区域时间段设定样本权重,根据样本权重进行梯度分配,来训练神经网络。
本发明还提供了一种电子设备,包括处理器和存储器,所述处理器与存储器连接;
所述处理器,用于调用并执行所述存储器中的计算机程序,并执行如上所述的基于深度强化学习的空间搜索方法;
所述存储器用于存储计算机程序。
本发明的有益效果如下:
1、通过根据实际的空间参数建立空间搜索路径规划的评价函数作为优化目标,使得获得的网络模型能够基于现实状态及需求输出收益最大的空间搜索路径规划策略,适用于大规模的空间搜索路径规划问题。
2、根据不同空间区域时间的自有特征获取当前状态的特征向量,输入到构建的模型中获取预期收益,通过评价函数计算得到实际收益,利用强化学习方法训练获得实际收益和预期收益的损失函数,保证模型最终输出结果的准确性。
附图说明
图1是本发明的方法整体流程示意图;
图2是本发明的电子设备的结构示意图。
具体实施方式
在下面的描述中对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明的实施例提供了一种基于深度强化学习的空间搜索算法,本实施例中以警车巡逻检查为例,在警车巡逻过程中,需要保持一定程度的时空覆盖率,既要对热点区域加大巡逻次数,又要保证各区域都要巡检到,如图1所示,方法的具体步骤流程如下:
S1:获取空间数据信息,建立实际空间搜索模型;
本实施例中城市的路网节点作为一个天然的图结构G,采用图卷积网络获取空间参数,进行实际空间搜索模型的构建;
将道路的交点作为节点S,道路作为边E,根据空间区域的规模设定空间细粒度,将整个路网节点S划分为N个子节点,即S1,S2,…,SN,设定T为一个巡逻周期,同时设定时间细粒度将T分隔成若干均等时间间隔集合,假设一共有M个警车在城市巡逻,在每个时间间隔t,要做出决策决定M辆警车的下一时刻的巡逻节点;
即M辆警车走过的路径是R={R1,R2,…,RM},其中Ri表示第i辆警车走过的路径,所述Ri由一个有序节点序列{sm1,sm2,…,smt}组成,其中smt表示在t时刻第m辆车所到达的节点。
S2:根据建立的空间搜索模型中的参数制定空间搜索路径规划结果的评价函数;
基于步骤S1中构建的实际空间搜索模型,该模型中巡逻的目的就是在一个时间段中达到最大的节点覆盖,即:
若要达到最大化节点覆盖,那每个节点最多只能巡逻一次,用Ci,s,t一个二值变量表示s 这个节点有没有在这个t时间间隔被第i辆警车巡逻过在巡逻过,并计算第t个时间段的时空覆盖率,作为t个时间段巡逻的评价函数,计算公式如下:
S3:根据所述空间搜索模型,对路径规划的收益或对决策或对收益和决策共同建模;
获取当前时刻的空间搜索状态特征,即将代表当前空间区域的实时状态的图数据G(S,E)作为图卷积神经网络输入特征,在规划下一时刻的巡逻路线时,既要考虑实际空间区域的结构特征当前状态,也要考虑M辆警车的历史巡逻轨迹R;
因此,将(G,R)作为图卷积网络Q(θ)的输入,输出获得当前输入特征下采取任意决策对应的预期收益,即下一时刻M辆车分别要巡逻的节点集合对应的预期收益;
将其中最大的预期收益对应的行动路径作为基于当前状态所规划的下一个时间段的最佳路径更新行动轨迹,得到R′={R′1,R′2,…,R′m},即将预期收益最大的集合 v={v1,v2…,vm}作为下一时刻M辆警车的巡逻路段,更新行动轨迹公式如下所示:
其中,vm表示第m辆警车下一时刻要巡逻的路段。
S4:根据评价函数计算实际收益,并通过实际收益与预期收益的差构建损失函数;
根据步骤S2中获得的评价函数Coverage(t),计算选择新决策后的巡逻收益,在下面的表述中将评价函数记为c,选择新决策后的巡逻收益计算公式如下所示:
r(R,G,v)=c(R′,G)-c(R,G)
根据建模类型选取不同的强化学习算法,因而本实施例中采用Q-learning强化学习方法训练收益网络,根据实际收益的分布类型采用不同的损失函数,本实施例中采用最小平方误差作为损失函数,损失函数计算如下所示:
((γmaxv′Q(Rt+1,G,v′;θ)+r(Rt,G,v))-Q(Rt,G,vt;θ))2
S5:通过反向传播训练神经网络,经过多次迭代,将训练收敛的神经网络作为空间搜索路径规划决策模型输出;
本实施例中采用随机梯度下降法训练图卷积网络,在完成一个巡逻周期T后,初始化,历史巡逻路径R,进行下一次迭代训练,经过N次完整巡逻周期的迭代训练,使得图卷积网络收益模型收敛至实际收益时得到的决策函数即为最终的网络模型,将当前的状态特征输入到模型中输出最大收益的行动为决策行动路径,所述决策函数如下表示:
π(v|R,G):=argmaxvQ(R,G,v;θ)
实施例2
本发明的实施例提供了一种基于深度强化学习的空间搜索算法,基于上述实施例,在步骤S2中,所述评价函数的制定中,根据空间搜索模型中的参数的重要性,在计算过程中附加参数的重要性权重,例如在警车巡逻路径规划问题模型中,根据不同节点治安情况不同,调整对应节点s的巡逻频次,即需要对节点s设定权重Ws表示该节点的重要性,基于节点参数权重的时空覆盖率来表示第t个时间段巡逻的评价函数,计算公式如下:
实施例3
本发明的实施例基于上述实施例还提供了一种电子设备,如图2所示,所述电子设备包括处理器和存储器,所述处理器与存储器连接;
所述处理器,用于调用并执行所述存储器中的计算机程序,并执行上述实施例中所述的基于深度强化学习的空间搜索方法;
所述存储器用于存储计算机程序。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (9)
1.一种基于深度强化学习的空间搜索方法,其特征在于,包括如下步骤:
S1:获取空间数据信息,建立实际空间搜索模型;
S2:根据建立的所述空间搜索模型中的参数制定空间搜索路径规划结果的评价函数;
S3:根据所述空间搜索模型,对路径规划的收益或对决策或对收益和决策共同建模;
获取当前时刻的空间搜索状态特征,并输入深度神经网络中,根据神经网络输出的决策或预期收益最高的行动进行下一步空间搜索更新轨迹;
S4:根据评价函数计算实际收益,采用强化学习方法迭代训练神经网络获取损失函数;
S5:通过反向传播训练神经网络,经过多次迭代,将训练收敛的神经网络作为空间搜索路径规划决策模型输出。
2.根据权利要求1所述的空间搜索方法,其特征在于,在步骤S1模型的构建中,对于欧式空间可通过多种神经网络模型对空间搜索路径优化收益或决策建模,例如通过卷积神经网络对欧式空间结构化信息进行收集挖掘或者利用循环神经网络对时间上前后状态之间的相互影响进行建模;
对于非欧空间则通过图神经网络构建模型。
3.根据权利要求1所述的空间搜索方法,其特征在于,所述评价函数根据现实需求进行制定,通过实际的空间参数计算时空覆盖效率,得到各时间段的空间搜索收益。
4.根据权利要求1或2所述的空间搜索方法,其特征在于,在所述评价函数的制定过程中,根据实际空间参数的重要性,构建该参数的重要性权重并进行时空覆盖率的计算,得到结合空间参数重要性的评价函数。
5.根据权利要求1所述的空间搜索方法,其特征在于,步骤S3中当前状态的输入特征向量的获取包括根据不同区域时间的自由特征利用加权求和或平均的方式获取代表当前状态的空间搜索状态特征向量或根据特征类别通过OneHot向量的方式表示。
6.根据权利要求1所述的空间搜索方法,其特征在于,所述损失函数的构建根据实际收益的分布类型采用不同的计算方式,包括绝对值损失函数、平方差损失函数、SmoothL1Loss、交叉熵损失函数或能够求取导数的损失函数。
7.根据权利要求1所述的空间搜索方法,其特征在于,在步骤S4中对网络模型进行强化学习训练获得损失函数时,根据建模类型选取不同的强化学习算法,对收益建模的神经网络采用Q-Learing或SARSA算法进行训练;对决策建模的神经网络的训练采用REINFORCE算法;对收益和决策同时建模的神经网络的训练采用演员-评论员算法。
8.根据权利要求1所述的空间搜索方法,其特征在于,在利用反向传播训练神经网络的过程中,通过随机梯度下降法或基于梯度一阶导数二阶导数的快速下降法或对重点区域时间段设定样本权重,根据样本权重进行梯度分配,来训练神经网络。
9.一种电子设备,其特征在于,包括处理器和存储器,所述处理器与存储器连接;
所述处理器,用于调用并执行所述存储器中的计算机程序,并执行如权利要求1-8任一所述的基于深度强化学习的空间搜索方法;
所述存储器用于存储计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011616392.6A CN112633591B (zh) | 2020-12-30 | 2020-12-30 | 一种基于深度强化学习的空间搜索方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011616392.6A CN112633591B (zh) | 2020-12-30 | 2020-12-30 | 一种基于深度强化学习的空间搜索方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112633591A true CN112633591A (zh) | 2021-04-09 |
CN112633591B CN112633591B (zh) | 2024-06-28 |
Family
ID=75287131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011616392.6A Active CN112633591B (zh) | 2020-12-30 | 2020-12-30 | 一种基于深度强化学习的空间搜索方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633591B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113239986A (zh) * | 2021-04-25 | 2021-08-10 | 浙江吉利控股集团有限公司 | 车辆轨迹评价网络模型的训练方法、装置和存储介质 |
CN113507412A (zh) * | 2021-07-08 | 2021-10-15 | 中国人民解放军国防科技大学 | 网络互联中的SRv6路由器渐进部署方法、系统和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229657A (zh) * | 2017-12-25 | 2018-06-29 | 杭州健培科技有限公司 | 一种基于演化算法的深度神经网络训练与优化算法 |
JP2018198012A (ja) * | 2017-05-24 | 2018-12-13 | 日本電信電話株式会社 | ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム |
CN109947098A (zh) * | 2019-03-06 | 2019-06-28 | 天津理工大学 | 一种基于机器学习策略的距离优先最佳路径选择方法 |
CN109948029A (zh) * | 2019-01-25 | 2019-06-28 | 南京邮电大学 | 基于神经网络自适应的深度哈希图像搜索方法 |
CN110587606A (zh) * | 2019-09-18 | 2019-12-20 | 中国人民解放军国防科技大学 | 一种面向开放场景的多机器人自主协同搜救方法 |
CN110794832A (zh) * | 2019-10-21 | 2020-02-14 | 同济大学 | 一种基于强化学习的移动机器人路径规划方法 |
-
2020
- 2020-12-30 CN CN202011616392.6A patent/CN112633591B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018198012A (ja) * | 2017-05-24 | 2018-12-13 | 日本電信電話株式会社 | ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム |
CN108229657A (zh) * | 2017-12-25 | 2018-06-29 | 杭州健培科技有限公司 | 一种基于演化算法的深度神经网络训练与优化算法 |
CN109948029A (zh) * | 2019-01-25 | 2019-06-28 | 南京邮电大学 | 基于神经网络自适应的深度哈希图像搜索方法 |
CN109947098A (zh) * | 2019-03-06 | 2019-06-28 | 天津理工大学 | 一种基于机器学习策略的距离优先最佳路径选择方法 |
CN110587606A (zh) * | 2019-09-18 | 2019-12-20 | 中国人民解放军国防科技大学 | 一种面向开放场景的多机器人自主协同搜救方法 |
CN110794832A (zh) * | 2019-10-21 | 2020-02-14 | 同济大学 | 一种基于强化学习的移动机器人路径规划方法 |
Non-Patent Citations (2)
Title |
---|
王文玺;肖世德;孟祥印;张卫华;: "模糊神经网络下基于强化学习的自主式地面车辆路径规划研究", 中国机械工程, no. 21, 10 November 2009 (2009-11-10) * |
王珂;卜祥津;李瑞峰;赵立军;: "景深约束下的深度强化学习机器人路径规划", 华中科技大学学报(自然科学版), no. 12, 20 December 2018 (2018-12-20) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113239986A (zh) * | 2021-04-25 | 2021-08-10 | 浙江吉利控股集团有限公司 | 车辆轨迹评价网络模型的训练方法、装置和存储介质 |
CN113507412A (zh) * | 2021-07-08 | 2021-10-15 | 中国人民解放军国防科技大学 | 网络互联中的SRv6路由器渐进部署方法、系统和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112633591B (zh) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492814B (zh) | 一种城市交通流量预测方法、系统及电子设备 | |
CN112216108B (zh) | 一种基于属性增强的时空图卷积模型的交通预测方法 | |
CN113591380B (zh) | 基于图高斯过程的交通流预测方法、介质及设备 | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
CN110164129B (zh) | 基于gernn的单交叉口多车道交通流量预测方法 | |
CN111047078B (zh) | 交通特征预测方法、系统及存储介质 | |
CN112633591A (zh) | 一种基于深度强化学习的空间搜索方法及设备 | |
Zhang et al. | A novel fuzzy hybrid quantum artificial immune clustering algorithm based on cloud model | |
CN111967696A (zh) | 基于神经网络的电动汽车充电需求预测方法、系统及装置 | |
CN115907436B (zh) | 基于量质耦合预报的水资源水环境调控方法和系统 | |
Hafezi et al. | Identification of representative patterns of time use activity through fuzzy C-means clustering | |
CN116187835A (zh) | 一种基于数据驱动的台区理论线损区间估算方法及系统 | |
Wibawa et al. | Long Short-Term Memory to Predict Unique Visitors of an Electronic Journal | |
Zhang et al. | Direction-decision learning based pedestrian flow behavior investigation | |
CN112766240B (zh) | 基于时空关系的残差多图卷积人群分布预测方法及系统 | |
CN113240219A (zh) | 一种土地利用模拟及预测方法 | |
CN116777046A (zh) | 交通预训练模型构建和交通预测方法、装置及电子设备 | |
Cao et al. | Research On Regional Traffic Flow Prediction Based On MGCN-WOALSTM | |
CN116612633A (zh) | 一种基于车路协同感知下的自适应动态路径规划方法 | |
CN115797557A (zh) | 基于图注意力网络的自监督3d场景流估计方法 | |
Ma et al. | Functional form selection and calibration of macroscopic fundamental diagrams | |
CN114021847A (zh) | 基于isgu混合模型的短期电力负荷预测方法及系统 | |
Li et al. | A Spatiotemporal Coupling Calculation-Based Short-Term Wind Farm Cluster Power Prediction Method | |
CN113052353A (zh) | 空气质量预测与预测模型训练方法、装置及存储介质 | |
Chen et al. | A bidirectional context-aware and multi-scale fusion hybrid network for short-term traffic flow prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |