CN110889530A - 基于递归神经网络的目的地预测方法及服务器 - Google Patents
基于递归神经网络的目的地预测方法及服务器 Download PDFInfo
- Publication number
- CN110889530A CN110889530A CN201811058927.5A CN201811058927A CN110889530A CN 110889530 A CN110889530 A CN 110889530A CN 201811058927 A CN201811058927 A CN 201811058927A CN 110889530 A CN110889530 A CN 110889530A
- Authority
- CN
- China
- Prior art keywords
- neural network
- recurrent neural
- data
- training
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000306 recurrent effect Effects 0.000 title claims abstract description 123
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 139
- 238000003062 neural network model Methods 0.000 claims abstract description 73
- 238000012360 testing method Methods 0.000 claims description 26
- 238000004140 cleaning Methods 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000007480 spreading Effects 0.000 description 3
- 238000003892 spreading Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G06Q50/40—
Abstract
本申请涉及一种基于递归神经网络的目的地预测方法及服务器,基于递归神经网络的目的地预测方法包括:获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间,根据历史停留数据训练递归神经网络模型,获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。通过这种方式,本申请能够通过深度学习递归神经网络的算法预测车辆即将到达的目的地,提高目的地预测的准确率。
Description
技术领域
本申请涉及神经网络技术领域,具体涉及一种基于递归神经网络的目的地预测方法及服务器。
背景技术
随着我国汽车工业的快速发展和人们生活水平的提高,居民家庭的汽车拥有量快速增加,汽车逐步成为了人们生活中不可或缺的交通工具之一。
一方面,随着无线通信技术的快速发展,汽车逐渐成为了互联网中的一个重要节点,成了人们获取信息的重要渠道,如果这些信息的获取需要用户先进行人机交互,将使得汽车只能被动地去获取和展示信息,而不能自动感知用户的需求来主动为用户提供其所需的信息,进行目的地预测可以让汽车获知用户的目的地和需求,进而主动地为用户提供相关信息。另一方面,汽车拥有量的快速增加为交通拥堵缓解等城市管理工作带来巨大挑战,车辆位置的精准预测对于城市交通安全具有重要意义,是全球共同关注的问题。然而,用户驾车出行的路线既会受到自身行为习惯的影响,还会受到外部条件的约束,而传统进行目的地预测的关联规则算法属于无记忆算法,预测的准确率低。
发明内容
本申请的目的在于,提供一种基于递归神经网络的目的地预测方法及服务器,其可以解决上述技术问题,能够通过深度学习递归神经网络的算法预测车辆即将到达的目的地,提高目的地预测的准确率。
为解决上述技术问题,本申请提供一种基于递归神经网络的目的地预测方法,包括:
获取车辆的历史停留数据,所述历史停留数据包括历史停留的位置与对应的时间;
根据所述历史停留数据训练递归神经网络模型;
获取当前时间和所述车辆当前的位置作为所述递归神经网络模型的输入,预测所述车辆的至少一个时间版本的目的地。
其中,所述根据所述历史停留数据训练递归神经网络模型,包括:
将所述历史停留数据进行数据清洗、归一化以生成训练集,所述训练集的每个训练样本包括输入特征与目标值;
设置递归神经网络模型的超参数;
将所述训练集作为输入以进行递归神经网络模型训练。
其中,所述将所述训练集作为输入以进行递归神经网络模型训练,包括:
按顺序从所述训练集中读取训练样本的输入特征以计算递归神经网络中每个隐藏层节点的输出以及输出层每个节点的输出;
根据每个隐藏层节点的输出、输出层每个节点的输出及对应的目标值计算每个节点的误差项;
更新递归神经网络中每个连接的权值,依此迭代反复以完成递归神经网络模型的训练。
其中,迭代次数根据遍历次数、训练样本的数量及每次迭代读取的训练样本数量确定。
其中,所述更新递归神经网络中每个连接的权值,包括:
基于随机梯度下降算法更新递归神经网络中每个连接的权值。
其中,所述根据所述历史停留数据训练递归神经网络模型,还包括:
将清洗归一化后的历史停留数据按照时间划分为测试集与所述训练集;
在根据所述训练集进行递归神经网络模型的训练后,利用所述测试集评估所述递归神经网络模型的预测准确率。
其中,所述将清洗归一化后的历史停留数据按照时间划分为测试集与所述训练集,包括:
将所述历史停留数据中时间位于指定时刻之前的早期数据划分为训练集,将所述历史停留数据中时间位于指定时刻之后的晚期数据划分为测试集。
其中,所述将所述历史停留数据进行数据清洗、归一化,包括:
对获取的历史停留数据进行清洗得到特征数据和标注数据;
对所述特征数据和标注数据进行特征归一化处理以生成可用于模型训练的数据。
本申请还提供一种服务器,包括存储器和处理器,所述存储器存储有至少一条程序指令;所述处理器通过加载并执行所述至少一条程序指令以实现如上所述的基于递归神经网络的目的地预测方法。
本申请还提供一种计算机存储介质,所述计算机存储介质上存储有计算机程序指令;所述计算机程序指令被处理器执行时实现如上所述的基于递归神经网络的目的地预测方法。
本申请的基于递归神经网络的目的地预测方法及服务器,基于递归神经网络的目的地预测方法包括:获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间,根据历史停留数据训练递归神经网络模型,获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。通过这种方式,本申请能够通过深度学习递归神经网络的算法预测车辆即将到达的目的地,提高目的地预测的准确率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1是根据一示例性实施例示出的一种基于递归神经网络的目的地预测方法的流程示意图。
图2是根据一示例性实施例示出的一种服务器的结构示意图。
具体实施方式
为更进一步阐述本申请为达成预定申请目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本申请基于递归神经网络的目的地预测方法及服务器提出的具体实施方式、方法、步骤、结构、特征及其效果,详细说明如下。
有关本申请的前述及其他技术内容、特点及功效,在以下配合参考图式的较佳实施例的详细说明中将可清楚呈现。通过具体实施方式的说明,当可对本申请为达成预定目的所采取的技术手段及功效得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本申请加以限制。
图1是根据一示例性实施例示出的一种基于递归神经网络的目的地预测方法的流程示意图。请参考图1,本实施例的基于递归神经网络的目的地预测方法,包括:
步骤110,获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间。
其中,所述历史停留数据从车辆的定位数据中获取,包括历史停留的位置与对应的时间,也即为多个时间地点一一对应的定位数据,历史停留数据可以存储于车辆终端,也可以存储于服务器中,在此不作限定。另外,在获取车辆的历史停留数据时验证用户的身份,用户的身份可以通过指纹、账号或者其他方式进行智能识别,比如当前用户在使用车辆终端时,采用指纹登录其个人系统,接着车辆终端或服务器将当前用户的所有数据都进行同步更新,以供后续使用。
步骤120,根据历史停留数据训练递归神经网络模型。
在一实施方式中,根据历史停留数据训练递归神经网络模型,包括:
将历史停留数据进行数据清洗、归一化以生成训练集,训练集的每个训练样本包括输入特征与目标值;
设置递归神经网络模型的超参数;
将训练集作为输入以进行递归神经网络模型训练。
其中,输入特征为上一时刻的位置,目标值为下一时刻的实际位置,也即标记(label),使得本实施例的模型训练可以基于监督学习的方式进行。递归神经网络模型的超参数(Hyper-Parameters)包括神经网络的连接方式、网络的层数、每层的节点数,本实施例中隐藏层设置为多层以实现深度学习,输出层可采用softmax()函数,假设输出层的节点个数为n,每一个节点的输出值经过softmax()函数后变成一个概率值,n个概率值形成概率分布,概率值最高的即为预测的目的地。在搭建好递归神经网络模型后,将训练集作为输入以进行递归神经网络模型训练。
在一实施方式中,将历史停留数据进行数据清洗、归一化,具体可包括以下处理过程:
对获取的历史停留数据进行清洗得到特征数据和标注数据;
对特征数据和标注数据进行特征归一化处理以生成可用于模型训练的数据。
在一实施方式中,将训练集作为输入以进行递归神经网络模型训练,包括:
按顺序从训练集中读取训练样本的输入特征以计算递归神经网络中每个隐藏层节点的输出以及输出层每个节点的输出;
根据每个隐藏层节点的输出、输出层每个节点的输出及对应的目标值计算每个节点的误差项;
更新递归神经网络中每个连接的权值,依此迭代反复以完成递归神经网络模型的训练。
其中,本实施例采用反向传播算法(Back Propagation,BP)作为递归神经网络的训练算法,在训练过程中,设定时间步,按照顺序每次从训练集中读取N个训练样本,在每个时间步里,对递归神经网络输入一个输入特征,N个时间步后,完成一次递归神经网络的前向传播,接着,在每一个时间步上,分步计算每一步的输出的误差,从后往前,将误差依次反向传播至前面时间步的网络层,并基于梯度下降优化算法更新递归神经网络中每个连接的权值,一次前向传播加一次反向传播为一次迭代过程,迭代次数根据遍历次数、训练样本的数量及每次迭代读取的训练样本数量确定,例如为遍历次数与训练样本的数量的乘积除以每次迭代读取的训练样本数量。值得一提的是,当样本数量较大时,可采用随机梯度下降算法(Stochastic Gradient Descent,SGD)进行权值更新,在SGD算法中,每次更新的迭代,只计算一个样本,对于一个具有数百万样本的训练集,完成一次遍历就会对权值进行更新数百万次,效率大大提升。
在一实施方式中,根据历史停留数据训练递归神经网络模型,还包括:
将清洗归一化后的历史停留数据按照时间划分为测试集与训练集;
在根据训练集进行递归神经网络模型的训练后,利用测试集评估递归神经网络模型的预测准确率。
在一实施方式中,将清洗归一化后的历史停留数据按照时间划分为测试集与训练集,包括:将历史停留数据中时间位于指定时刻之前的早期数据划分为训练集,将历史停留数据中时间位于指定时刻之后的晚期数据划分为测试集。比如,指定时刻可以是季节交替、上下班、或者月份等时刻,还可以是随机的时刻,历史停留数据可以分成多份一一对应的测试集与训练集从而得到多对“训练集-测试集”,在评估预测准确率时可获取准确率的变化规律。
步骤130,获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。
其中,在完成递归神经网络模型训练后,获取当前时间和车辆当前的位置作为输入,递归神经网络模型输出中概率值最高的即为预测的目的地,目的地可以预测一个、两个或多个,至少一个时间版本的目的地通过多步预测得到,例如,预测得到车辆接下来顺序要去A、B、C、D四个目的地,也即得到4个时间版本的目的地。
本申请的基于递归神经网络的目的地预测方法,获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间,根据历史停留数据训练递归神经网络模型,获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。通过这种方式,本申请能够通过深度学习递归神经网络的算法预测车辆即将到达的目的地,提高目的地预测的准确率。
图2是根据一示例性实施例示出的一种服务器的结构示意图。请参考图2,本实施例的服务器包括存储器210和处理器220,存储器210存储有至少一条程序指令,处理器220通过加载并执行至少一条程序指令以实现如上所述基于递归神经网络的目的地预测方法。
存储器210可以用于存储上述程序数据,也可以用于存储不同用户的个人数据。
处理器220获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间。
其中,所述历史停留数据从车辆的定位数据中获取,包括历史停留的位置与对应的时间,也即为多个时间地点一一对应的数据,历史停留数据可以存储于车辆终端,也可以存储于服务器中,在此不作限定。另外,在获取车辆的历史停留数据时验证用户的身份,用户的身份可以通过指纹、账号或者其他方式进行智能识别,比如当前用户在使用车辆终端时,采用指纹登录其个人系统,接着车辆终端或服务器将当前用户的所有数据都进行同步更新,以供后续使用。
处理器220根据历史停留数据训练递归神经网络模型。
在一实施方式中,处理器220根据历史停留数据训练递归神经网络模型,包括:
将历史停留数据进行数据清洗、归一化以生成训练集,训练集的每个训练样本包括输入特征与目标值;
设置递归神经网络模型的超参数;
将训练集作为输入以进行递归神经网络模型训练。
其中,输入特征为上一时刻的位置,目标值为下一时刻的实际位置,也即标记(label),使得本实施例的模型训练可以基于监督学习的方式进行。递归神经网络模型的超参数(Hyper-Parameters)包括神经网络的连接方式、网络的层数、每层的节点数,在本实施例中隐藏层设置为多层以实现深度学习,输出层可采用softmax()函数,假设输出层的节点个数为n,每一个节点的输出值经过softmax()函数后变成一个概率值,n个概率值形成概率分布,概率值最高的即为预测的目的地。在搭建好递归神经网络模型后,将训练集作为输入以进行递归神经网络模型训练。
在一实施方式中,处理器220将历史停留数据进行数据清洗、归一化,具体可包括以下处理过程:
对获取的历史停留数据进行清洗得到特征数据和标注数据;
对特征数据和标注数据进行特征归一化处理以生成可用于模型训练的数据。
在一实施方式中,处理器220将训练集作为输入以进行递归神经网络模型训练,包括:
按顺序从训练集中读取训练样本的输入特征以计算递归神经网络中每个隐藏层节点的输出以及输出层每个节点的输出;
根据每个隐藏层节点的输出、输出层每个节点的输出及对应的目标值计算每个节点的误差项;
更新递归神经网络中每个连接的权值,依此迭代反复以完成递归神经网络模型的训练。
其中,本实施例采用反向传播算法作为递归神经网络的训练算法,在训练过程中,设定时间步,按照顺序每次从训练集中读取N个训练样本,在每个时间步里,对递归神经网络输入一个输入特征,N个时间步后,完成一次递归神经网络的前向传播,接着,在每一个时间步上,分步计算每一步的输出的误差,从后往前,将误差依次反向传播至前面时间步的网络层,并基于梯度下降优化算法更新递归神经网络中每个连接的权值,一次前向传播加一次反向传播为一次迭代过程,迭代次数根据遍历次数、训练样本的数量及每次迭代读取的训练样本数量确定,例如为遍历次数与训练样本的数量的乘积除以每次迭代读取的训练样本数量。值得一提的是,当样本数量较大时,可采用随机梯度下降算法(StochasticGradient Descent,SGD)进行权值更新,在SGD算法中,每次更新的迭代,只计算一个样本,对于一个具有数百万样本的训练集,完成一次遍历就会对权值进行更新数百万次,效率大大提升。
在一实施方式中,处理器220根据历史停留数据训练递归神经网络模型,还包括:
将清洗归一化后的历史停留数据按照时间划分为测试集与训练集;
在根据训练集进行递归神经网络模型的训练后,利用测试集评估递归神经网络模型的预测准确率。
在一实施方式中,处理器220将清洗归一化后的历史停留数据按照时间划分为测试集与训练集,包括:将历史停留数据中时间位于指定时刻之前的早期数据划分为训练集,将历史停留数据中时间位于指定时刻之后的晚期数据划分为测试集。比如,指定时刻可以是季节交替、上下班、或者月份等时刻,还可以是随机的时刻,历史停留数据可以分成多份一一对应的测试集与训练集从而得到多对“训练集-测试集”,在评估预测准确率时可获取准确率的变化规律。
处理器220获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。
其中,在完成递归神经网络模型训练后,获取当前时间和车辆当前的位置作为输入,递归神经网络模型输出中概率值最高的即为预测的目的地,目的地可以预测一个、两个或多个,至少一个时间版本的目的地通过多步预测得到,例如,预测得到车辆接下来顺序要去A、B、C、D四个目的地,也即得到4个时间版本的目的地。
本实施例中处理器220执行时实现的具体步骤请参图1所示实施例的描述,在此不再赘述。
本申请的服务器,获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间,根据历史停留数据训练递归神经网络模型,获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。通过这种方式,本申请能够通过深度学习递归神经网络的算法预测车辆即将到达的目的地,提高目的地预测的准确率。
本申请还提供一种计算机存储介质,所述计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如上所述的基于递归神经网络的目的地预测方法。
处理器获取车辆的历史停留数据,历史停留数据包括历史停留的位置与对应的时间。
其中,所述历史停留数据从车辆的定位数据中获取,包括历史停留的位置与对应的时间,也即为多个时间地点一一对应的数据,历史停留数据可以存储于车辆终端,也可以存储于服务器中,在此不作限定。另外,在获取车辆的历史停留数据时验证用户的身份,用户的身份可以通过指纹、账号或者其他方式进行智能识别,比如当前用户在使用车辆终端时,采用指纹登录其个人系统,接着车辆终端或服务器将当前用户的所有数据都进行同步更新,以供后续使用。
处理器根据历史停留数据训练递归神经网络模型。
在一实施方式中,处理器根据历史停留数据训练递归神经网络模型,包括:
将历史停留数据进行数据清洗、归一化以生成训练集,训练集的每个训练样本包括输入特征与目标值;
设置递归神经网络模型的超参数;
将训练集作为输入以进行递归神经网络模型训练。
其中,输入特征为上一时刻的位置,目标值为下一时刻的实际位置,也即标记(label),使得本实施例的模型训练可以基于监督学习的方式进行。递归神经网络模型的超参数(Hyper-Parameters)包括神经网络的连接方式、网络的层数、每层的节点数,在本实施例中隐藏层设置为多层以实现深度学习,输出层可采用softmax()函数,假设输出层的节点个数为n,每一个节点的输出值经过softmax()函数后变成一个概率值,n个概率值形成概率分布,概率值最高的即为预测的目的地。在搭建好递归神经网络模型后,将训练集作为输入以进行递归神经网络模型训练。
在一实施方式中,处理器将历史停留数据进行数据清洗、归一化,具体可包括以下处理过程:
对获取的历史停留数据进行清洗得到特征数据和标注数据;
对特征数据和标注数据进行特征归一化处理以生成可用于模型训练的数据。
在一实施方式中,处理器将训练集作为输入以进行递归神经网络模型训练,包括:
按顺序从训练集中读取训练样本的输入特征以计算递归神经网络中每个隐藏层节点的输出以及输出层每个节点的输出;
根据每个隐藏层节点的输出、输出层每个节点的输出及对应的目标值计算每个节点的误差项;
更新递归神经网络中每个连接的权值,依此迭代反复以完成递归神经网络模型的训练。
其中,本实施例采用反向传播算法作为递归神经网络的训练算法,在训练过程中,设定时间步,按照顺序每次从训练集中读取N个训练样本,在每个时间步里,对递归神经网络输入一个输入特征,N个时间步后,完成一次递归神经网络的前向传播,接着,在每一个时间步上,分步计算每一步的输出的误差,从后往前,将误差依次反向传播至前面时间步的网络层,并基于梯度下降优化算法更新递归神经网络中每个连接的权值,一次前向传播加一次反向传播为一次迭代过程,迭代次数根据遍历次数、训练样本的数量及每次迭代读取的训练样本数量确定,例如为遍历次数与训练样本的数量的乘积除以每次迭代读取的训练样本数量。值得一提的是,当样本数量较大时,可采用随机梯度下降算法(StochasticGradient Descent,SGD)进行权值更新,在SGD算法中,每次更新的迭代,只计算一个样本,对于一个具有数百万样本的训练集,完成一次遍历就会对权值进行更新数百万次,效率大大提升。
在一实施方式中,处理器根据历史停留数据训练递归神经网络模型,还包括:
将清洗归一化后的历史停留数据按照时间划分为测试集与训练集;
在根据训练集进行递归神经网络模型的训练后,利用测试集评估递归神经网络模型的预测准确率。
在一实施方式中,处理器将清洗归一化后的历史停留数据按照时间划分为测试集与训练集,包括:将历史停留数据中时间位于指定时刻之前的早期数据划分为训练集,将历史停留数据中时间位于指定时刻之后的晚期数据划分为测试集。比如,指定时刻可以是季节交替、上下班、或者月份等时刻,还可以是随机的时刻,历史停留数据可以分成多份一一对应的测试集与训练集从而得到多对“训练集-测试集”,在评估预测准确率时可获取准确率的变化规律。
处理器获取当前时间和车辆当前的位置作为递归神经网络模型的输入,预测车辆的至少一个时间版本的目的地。
其中,在完成递归神经网络模型训练后,获取当前时间和车辆当前的位置作为输入,递归神经网络模型输出中概率值最高的即为预测的目的地,目的地可以预测一个、两个或多个,至少一个时间版本的目的地基于多步预测得到,例如,预测得到车辆接下来顺序要去A、B、C、D四个目的地,也即得到4个时间版本的目的地。
本实施例中处理器执行时实现的具体步骤请参图1所示实施例的描述,在此不再赘述。
以上所述,仅是本申请的较佳实施例而已,并非对本申请作任何形式上的限制,虽然本申请已以较佳实施例揭露如上,然而并非用以限定本申请,任何熟悉本专业的技术人员,在不脱离本申请技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本申请技术方案内容,依据本申请的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本申请技术方案的范围内。
Claims (10)
1.一种基于递归神经网络的目的地预测方法,其特征在于,包括:
获取车辆的历史停留数据,所述历史停留数据包括历史停留的位置与对应的时间;
根据所述历史停留数据训练递归神经网络模型;
获取当前时间和所述车辆当前的位置作为所述递归神经网络模型的输入,预测所述车辆的至少一个时间版本的目的地。
2.根据权利要求1所述的基于递归神经网络的目的地预测方法,其特征在于,所述根据所述历史停留数据训练递归神经网络模型,包括:
将所述历史停留数据进行数据清洗、归一化以生成训练集,所述训练集的每个训练样本包括输入特征与目标值;
设置递归神经网络模型的超参数;
将所述训练集作为输入以进行递归神经网络模型训练。
3.根据权利要求2所述的基于递归神经网络的目的地预测方法,其特征在于,所述将所述训练集作为输入以进行递归神经网络模型训练,包括:
按顺序从所述训练集中读取训练样本的输入特征以计算递归神经网络中每个隐藏层节点的输出以及输出层每个节点的输出;
根据每个隐藏层节点的输出、输出层每个节点的输出及对应训练样本的目标值计算每个节点的误差项;
更新递归神经网络中每个连接的权值,依此迭代反复以完成递归神经网络模型的训练。
4.根据权利要求3所述的基于递归神经网络的目的地预测方法,其特征在于,迭代次数根据遍历次数、训练样本的数量及每次迭代读取的训练样本数量确定。
5.根据权利要求3所述的基于递归神经网络的目的地预测方法,其特征在于,所述更新递归神经网络中每个连接的权值,包括:
基于随机梯度下降算法更新递归神经网络中每个连接的权值。
6.根据权利要求2所述的基于递归神经网络的目的地预测方法,其特征在于,所述根据所述历史停留数据训练递归神经网络模型,还包括:
将清洗归一化后的历史停留数据按照时间划分为测试集与所述训练集;
在根据所述训练集进行递归神经网络模型的训练后,利用所述测试集评估所述递归神经网络模型的预测准确率。
7.根据权利要求6所述的基于递归神经网络的目的地预测方法,其特征在于,所述将清洗归一化后的历史停留数据按照时间划分为测试集与所述训练集,包括:
将所述历史停留数据中时间位于指定时刻之前的早期数据划分为训练集,将所述历史停留数据中时间位于指定时刻之后的晚期数据划分为测试集。
8.根据权利要求2所述的基于递归神经网络的目的地预测方法,其特征在于,所述将所述历史停留数据进行数据清洗、归一化,包括:
对获取的历史停留数据进行清洗得到特征数据和标注数据;
对所述特征数据和标注数据进行特征归一化处理以生成可用于模型训练的历史停留数据。
9.一种服务器,其特征在于,包括存储器和处理器,所述存储器存储有至少一条程序指令;所述处理器通过加载并执行所述至少一条程序指令以实现如权利要求1至8中任一项所述的基于递归神经网络的目的地预测方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令;所述计算机程序指令被处理器执行时实现如权利要求1至8中任一项所述的基于递归神经网络的目的地预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811058927.5A CN110889530A (zh) | 2018-09-11 | 2018-09-11 | 基于递归神经网络的目的地预测方法及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811058927.5A CN110889530A (zh) | 2018-09-11 | 2018-09-11 | 基于递归神经网络的目的地预测方法及服务器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110889530A true CN110889530A (zh) | 2020-03-17 |
Family
ID=69745648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811058927.5A Pending CN110889530A (zh) | 2018-09-11 | 2018-09-11 | 基于递归神经网络的目的地预测方法及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110889530A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529284A (zh) * | 2020-12-08 | 2021-03-19 | 湖南大学 | 基于神经网络的私家车停留时间预测方法、设备及介质 |
CN112721743A (zh) * | 2021-02-04 | 2021-04-30 | 武汉理工大学 | 基于充电-用氢模式的燃料电池汽车剩余里程预测方法 |
CN112819152A (zh) * | 2020-08-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种神经网络训练方法及装置 |
CN113269425A (zh) * | 2021-05-18 | 2021-08-17 | 北京航空航天大学 | 无监督条件下设备健康状态的定量评估方法及电子设备 |
CN114023074A (zh) * | 2022-01-10 | 2022-02-08 | 佛山市达衍数据科技有限公司 | 基于多信号源的交通拥堵预测方法、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016156236A1 (en) * | 2015-03-31 | 2016-10-06 | Sony Corporation | Method and electronic device |
CN106096767A (zh) * | 2016-06-07 | 2016-11-09 | 中国科学院自动化研究所 | 一种基于lstm的路段行程时间预测方法 |
CN107480807A (zh) * | 2017-07-06 | 2017-12-15 | 中山大学 | 基于时空感知神经网络的共享单车目的地预测方法及装置 |
CN107579816A (zh) * | 2017-09-06 | 2018-01-12 | 中国科学院半导体研究所 | 基于递归神经网络的密码字典生成方法 |
CN108022012A (zh) * | 2017-12-01 | 2018-05-11 | 兰州大学 | 基于深度学习的车辆位置预测方法 |
CN108074415A (zh) * | 2017-12-19 | 2018-05-25 | 广州小鹏汽车科技有限公司 | 一种基于用户行为的车辆目的地预测方法及系统 |
CN108216261A (zh) * | 2016-12-20 | 2018-06-29 | 现代自动车株式会社 | 基于预测目的地控制车辆的方法和系统 |
-
2018
- 2018-09-11 CN CN201811058927.5A patent/CN110889530A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016156236A1 (en) * | 2015-03-31 | 2016-10-06 | Sony Corporation | Method and electronic device |
CN106096767A (zh) * | 2016-06-07 | 2016-11-09 | 中国科学院自动化研究所 | 一种基于lstm的路段行程时间预测方法 |
CN108216261A (zh) * | 2016-12-20 | 2018-06-29 | 现代自动车株式会社 | 基于预测目的地控制车辆的方法和系统 |
CN107480807A (zh) * | 2017-07-06 | 2017-12-15 | 中山大学 | 基于时空感知神经网络的共享单车目的地预测方法及装置 |
CN107579816A (zh) * | 2017-09-06 | 2018-01-12 | 中国科学院半导体研究所 | 基于递归神经网络的密码字典生成方法 |
CN108022012A (zh) * | 2017-12-01 | 2018-05-11 | 兰州大学 | 基于深度学习的车辆位置预测方法 |
CN108074415A (zh) * | 2017-12-19 | 2018-05-25 | 广州小鹏汽车科技有限公司 | 一种基于用户行为的车辆目的地预测方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819152A (zh) * | 2020-08-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种神经网络训练方法及装置 |
CN112819152B (zh) * | 2020-08-14 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 一种神经网络训练方法及装置 |
CN112529284A (zh) * | 2020-12-08 | 2021-03-19 | 湖南大学 | 基于神经网络的私家车停留时间预测方法、设备及介质 |
CN112721743A (zh) * | 2021-02-04 | 2021-04-30 | 武汉理工大学 | 基于充电-用氢模式的燃料电池汽车剩余里程预测方法 |
CN113269425A (zh) * | 2021-05-18 | 2021-08-17 | 北京航空航天大学 | 无监督条件下设备健康状态的定量评估方法及电子设备 |
CN114023074A (zh) * | 2022-01-10 | 2022-02-08 | 佛山市达衍数据科技有限公司 | 基于多信号源的交通拥堵预测方法、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889530A (zh) | 基于递归神经网络的目的地预测方法及服务器 | |
CN104462190B (zh) | 一种基于海量空间轨迹挖掘的在线的位置预测方法 | |
CN110895878B (zh) | 一种基于ge-gan的交通状态虚拟检测器的生成方法 | |
CN109697512B (zh) | 基于贝叶斯网络的个人数据分析方法及计算机存储介质 | |
CN109828578B (zh) | 一种基于YOLOv3的仪表巡检机器人最优路线规划方法 | |
Huang et al. | A bimodal Gaussian inhomogeneous Poisson algorithm for bike number prediction in a bike-sharing system | |
JP5946394B2 (ja) | 複数種類のデータソースを用いた経路の始点・終点の統計的推測手法、コンピュータ・プログラム及びコンピュータ。 | |
CN104778508A (zh) | 一种基于多源数据融合的公共自行车租借预测方法 | |
CN110826244B (zh) | 模拟轨道交通影响城市生长的共轭梯度元胞自动机方法 | |
CN105426992A (zh) | 移动机器人旅行商优化方法 | |
CN112905801A (zh) | 基于事件图谱的行程预测方法、系统、设备及存储介质 | |
KR20220026804A (ko) | 역강화학습 기반 배달 수단 탐지 장치 및 방법 | |
CN111445008A (zh) | 一种基于知识蒸馏的神经网络搜索方法及系统 | |
Qi et al. | Map-matching algorithm based on the junction decision domain and the hidden Markov model | |
CN110543978A (zh) | 基于小波神经网络的交通流数据预测方法和装置 | |
CN113359849A (zh) | 一种针对运动目标的多无人机协同快速搜索方法 | |
Cui et al. | Improved genetic algorithm to optimize the Wi-Fi indoor positioning based on artificial neural network | |
CN113537580A (zh) | 一种基于自适应图学习的公共交通客流预测方法及系统 | |
Bermingham et al. | Mining place-matching patterns from spatio-temporal trajectories using complex real-world places | |
CN110348636B (zh) | 路径规划预测方法、装置、设备和计算机可读存储介质 | |
Halim et al. | On finding optimum commuting path in a road network: a computational approach for smart city traveling | |
CN110944295B (zh) | 位置预测方法、装置、存储介质及终端 | |
CN112700006A (zh) | 网络架构搜索方法、装置、电子设备及介质 | |
CN115691140B (zh) | 一种汽车充电需求时空分布的分析与预测方法 | |
CN114239948B (zh) | 基于时序分解单元的深度交通流预测方法、介质及其设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200317 |