CN109670571A - 神经网络预测方法及装置 - Google Patents
神经网络预测方法及装置 Download PDFInfo
- Publication number
- CN109670571A CN109670571A CN201710970318.6A CN201710970318A CN109670571A CN 109670571 A CN109670571 A CN 109670571A CN 201710970318 A CN201710970318 A CN 201710970318A CN 109670571 A CN109670571 A CN 109670571A
- Authority
- CN
- China
- Prior art keywords
- predicted
- prediction
- module
- characteristic information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开提供一种神经网络预测方法及装置,所述方法包括:分别获取多个待预测对象的特征信息;将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果;输出所述多个待预测对象中至少一个待预测对象的预测结果,其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。通过利用包括长短期记忆网络LSTM、深度神经网络DNN、关系网络RN,对多个待预测对象的特征信息进行处理,获取针对多个待预测对象的预测结果,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性,从而提高了预测结果的准确率。
Description
技术领域
本公开涉及神经网络技术领域,尤其涉及一种神经网络预测方法及装置。
背景技术
在实际的生活中,需要对各种事件进行预测,例如针对即将上映的电影预测票房、针对即将上映的电视剧预测收视率、美国总统选举、当前彩票的中奖数字、足球赛的胜负等,各种待预测事件的影响因素复杂、各影响因素之间不同的关联关系也会导致不同的预测结果,但在传统的预测手段中,只能针对有限的数据,利用概率统计等相关算法进行预测,预测结果的准确率低。
发明内容
有鉴于此,本公开提出了一种神经网络预测方法及装置,能够同时对多个待预测对象的特征信息进行处理,提高了预测结果的准确率。
根据本公开的一方面,提供了一种神经网络预测方法,所述方法包括:
分别获取多个待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果;
输出所述多个待预测对象中至少一个待预测对象的预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述方法还包括:
分别获取多个样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果;
根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多个待预测对象的特征信息相同。
根据本公开的另一方面,提供了一种神经网络预测装置,其特征在于,所述装置包括:
特征信息获取单元,用于分别获取多个待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果;
预测结果输出单元,用于输出所述多个待预测对象中至少一个待预测对象的预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
在一种可能的实现方式中,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
所述预测结果获取单元还包括:
嵌入子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,还包括:
样本特征信息获取单元,用于分别获取多个样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,所述权重调整单元包括:
权重调整子单元,用于根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多个待预测对象的特征信息相同。
根据本公开的另一方面,提供了一种神经网络预测装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开实施例各方面的神经网络预测方法及装置,通过利用包括长短期记忆网络LSTM、深度神经网络DNN、关系网络RN,对多个待预测对象的特征信息进行处理,获取针对多个待预测对象的预测结果,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性,从而提高了预测结果的准确率。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图2是根据一示例性实施例示出的一种神经网络预测方法中步骤S12的流程图。
图3是根据一示例性实施例示出的一种神经网络预测方法中步骤S12的流程图。
图4是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图5是根据一示例性实施例示出的一种预测模型的框图。
图6是根据一示例性实施例示出的一种三层神经网络结构示意图。
图7是根据一示例性实施例示出的一种多层感知器的结构示意图。
图8是根据一示例性实施例示出的向量信息和初始信息的输入示意图。
图9是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。
图10是根据一示例性实施例示出的一种神经网络预测装置的框图。
图11是根据一示例性实施例示出的一种神经网络预测装置的框图。
图12是根据一示例性实施例示出的一种用于神经网络预测的装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。该方法可应用于服务器中,如图1所示,该神经网络预测方法包括:
步骤S11,分别获取多个待预测对象的特征信息。
举例来说,所述待预测对象可包括电影、电视剧、球赛、彩票、总统选举等即将发生的事件,所述特征信息包括可能对待预测对象的预测结果产生影响的各种影响因素,例如,对即将上映的电影的票房等进行预测时,待预测对象为电影,预测结果可为该电影的票房、观影人数等,特征信息可包括例如该电影的题材、档期、导演和演员等相关联的各种信息。而对球赛的比赛结果进行预测时,待预测对象为球赛,预测结果可为该球赛的结果(胜负)、比分等,特征信息可包括双方教练、球员、天气、历史胜负等相关联的各种信息。针对每个待预测对象,可以尽可能多地获取该对象的多种(多维度)特征信息,在实际预测中,每个待预测对象的特征信息可以例如为100维至200维。
在一种可能的实现方式中,特征信息可包括特征信息本身以及与特征信息相关的数值,该数值可包括离散型或连续型的实数值。以电影的票房预测的场景为例,特征信息可包括题材和演员,其中,题材可用一个布尔值来表示是否属于爱情题材这一特征,取值1表示当前样本(电影)属于爱情题材,取值0表示不属于爱情题材;而演员可使用可量化的指标来表示,例如,使用演员在电影上映前一段时间内在搜索引擎中的搜索量。
步骤S12,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果,其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
举例来说,所述预测模型包括训练好的神经网络预测模型,且所述神经网络预测模型包括长短期记忆网络LSTM(Long Short-Term Memory)模块、深度神经网络DNN(DeepNeural Network)模块、关系网络RN(Relation Network)模块以及多任务学习网络MTL(Multi-Task Learning)模块。
实际的预测中,t时刻的预测结果往往与T-1时刻以及更早之前的预测结果具有一定的关联性。例如,之前(t-1时刻)已经根据某一电影的题材、导演、演员等特征信息,获取到了相对应的预测结果(票房);而当前(t时刻)该电影的特征信息可能产生变化(例如演员的正面或负面新闻等)。在该情况下,当前(t时刻)的预测结果可能是基于之前(t-1时刻)的预测结果而产生一定的变化。也就是说,当前的预测结果与之前的预测结果之间可能具有时间上的关联性。LSTM模块可用于在预测结果的处理过程中引入这种时序信息。
同一待预测对象的多个/多维特征信息之间存在复杂的关联关系,而关联关系是否被准确的捕捉,直接影响到预测结果的准确度,基于深度神经网络的DNN模块用于捕捉不同的特征信息的组合模式。且DNN模块的层数越多(深度越大)其学习能力越强,最后形成的预测模型的稳定性更高,拟合能力也越强。
RN模块可完成不同待预测对象之间的关联关系的捕捉。例如在针对其中一个待预测对象A进行预测时,RN模块能够显著提升待预测对象A与其他待预测对象之间的关系推理的效果。
将多个待预测对象的特征信息,输入训练好的预测模型进行处理后,可获取多个待预测对象的预测结果,例如,将多部电影的特征信息输入训练好的预测模型进行处理后,可获取一部电影的票房或口碑等预测结果,也可以同时获取多部电影的票房或口碑等预测结果。本公开对此不作限制。
步骤S13,输出所述多个待预测对象中至少一个待预测对象的预测结果。
举例来说,获取到的是针对多个待预测对象的预测结果,根据需求,选择输出其中一个待预测对象的预测结果,或选择输出多个待预测对象的预测结果。
在本实施例中,通过利用包括LSTM模块、DNN模块、RN模块,对多个待预测对象的特征信息进行处理后,获取针对所述多个待预测对象的预测结果,根据本公开的各方面,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性,并提高了预测结果的准确率。
图2是根据一示例性实施例示出的一种神经网络预测方法中步骤S12的流程图,该方法可应用于服务器中,在上述实施例的基础上,如图2所示,步骤S12包括:
步骤S121,将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息。
举例来说,所述多个待预测对象的特征信息需要分别输入LSTM模块进行处理。图5是根据一示例性实施例示出的一种预测模型的框图。以三个待预测对象为例,图5给出的预测模型中,针对三个待预测对象可分别设置LSTM模块进行并行处理,可保证处理速度。可以理解的是,为节省硬件成本,也可设置一个LSTM模块依次串行处理三个待预测对象的特征信息。
在图5给出的实施例中,将多个待预测对象的特征信息,分别输入与所述待预测对象一一对应的LSTM模型进行处理,获取所述多个待预测对象的长短期记忆信息。由于在实际的预测中,待预测对象t时刻的预测结果往往与t-1时刻以及更早之前的预测结果具有一定的相关性,为了在预测过程中引入这种时序信息,可以利用循环神经网络(RecurrentNeural Network,RNN)进行处理。
在RNN的结构中,一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。其中,输入层与隐藏层、隐藏层与输出层、隐藏层与隐藏层之间分别共享一组权重参数。这些权重参数可通过BPTT(Back Propagation Through Time)算法来求解。
尽管理论上RNN能够对任何长度的序列数据进行处理,实际上随着序列的长度增加,RNN会遇到深度神经网络的梯度消失问题。因此,可引入LSTM结构来缓解RNN的梯度消失问题。
LSTM结构用于替换RNN结构中隐藏层的神经元,其使用输出门、输入门、遗忘门来决定信息在传输过程中是否被保留,每个门的具体参数同样由BPTT学习算法得出。
LSTM模块可用于处理多个待预测对象在一个时间段内的多个时间点上的特征信息,捕捉多个时间点上的特征信息之间的时序信息。LSTM模块的输出信息为多个待预测对象的长短期记忆信息,LSTM模块将长短期记忆信息输出至DNN模块。
步骤S122,将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息。
举例来说,DNN模块包括多层全连接层,且DNN模块采用基于自编码(AutoEncoder)的预训练(Pre-training)来解决DNN的梯度消失问题。图6是根据一示例性实施例示出的一种三层神经网络结构示意图。如图6所示,针对DNN的每一层输入,首先使用图6中的三层神经网络结构来拟合自身,其中输出层是输入层的复制,该网络结构学习的目标是通过“输入层-隐藏层”(编码权重W1)和“隐藏层-输出层”(解码权重W2)这两组权重参数尽可能地拟合输入层自身。隐藏层的结点数与DNN中下一层的结点数相同。最终使用编码权重W1作为当前输入层与下一个隐藏层之间权重参数的初始值,以此类推,将DNN中每一层的权重参数都通过上述预训练的方式进行初始化,最终可以使得整个DNN获得良好的收敛性。
在一种可能的实现方式中,根据预训练后的DNN模型,可以构建出DNN模块。将多个待预测对象的长短期记忆信息分别输入DNN模型中,可以分别对每个待预测对象的多维特征信息之间的关联关系进行捕捉处理,从而确定多个待预测对象的深度信息。
步骤S123,将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
举例来说,可以将多个待预测对象的深度信息输入到RN模块中进行处理。关系网络模型RN对关系推理(relational reasoning)相关的问题有显著的效果提升。
例如,将电影A1、电影A2以及电影A3的深度信息输入到RN模块中进行处理,可以基于该训练好的RN模块确定电影A1、电影A2以及电影A3的关系信息。如前文所述,目标待预测对象可以为一个,例如,可以为电影A1,此时,RN模块将电影A1与电影A2、电影A1与电影A3的深度信息关系作为输入,确定电影A1与电影A2以及电影A3的关系信息。若目标待预测对象为电影A1、电影A2以及电影A3,则RN模块将电影A1与电影A2、电影A1与电影A3以及电影A2与电影A3的深度信息作为输入,确定电影A1、电影A2以及电影A3的关系信息。
图7是根据一示例性实施例示出的一种多层感知器的结构示意图。如图7所示,如果需要对对象x4进行预测,则可以在RN网络中通过多层感知器g分别确定对象x1、x2及x3与x4之间的关系,并进行求和,然后通过多层感知器f对求和后的关系信息进行处理,最终输出多个对象(x1、x2及x3)针对待预测对象x4的关系信息。
在一种可能的实现方式中,也可以对输入的所有待预测对象之间分别进行处理,确定所有待预测对象之间的关系,例如对图7中对象x1~x4之间的所有关系组合均进行处理,最终输出所有待预测对象之间的关系信息。本公开对多个待预测对象的关系信息的具体关系组合不作限制。
下面给出一个示例性的关系信息确定公式(1):
假设关心的是xn,而x1,x2,…,xn-1是与xn关联的输入。为了预测xn的输出,考虑n-1个二元组(xi,xn),i=1,2,…n-1。
可定义关系网络RN为如下复合函数:
在公式(1)中,RN(x1,x2,…,xn)表示多个对象(x1、x2到xn-1)针对待预测对象xn关系信息,和gθ是多层感知器,i为变量,i的取值在1到n-1之间。
通过这种方式,在RN模块中进行处理后,可输入多个待预测对象的关系信息。
在本实施例中,通过利用包括LSTM模块、DNN模块、RN模块,对多个待预测对象的特征信息进行处理后,获取针对所述多个待预测对象的预测结果,根据本公开的各方面,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性,并提高了预测结果的准确率。
图3是根据一示例性实施例示出的一种神经网络预测方法中步骤S12的流程图,该方法可应用于服务器中,在上述实施例的基础上,所述预测模型还包括嵌入模块。如图3所示,步骤S12还包括:
步骤S1211,将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息。
举例来说,在实际的预测中,特征信息包括导演的历史票房、导演擅长题材、演员A的百度指数、演员A的历史票房等,其中导演的历史票房和导演擅长题材都属于导演这个主体,而演员A的百度指数、演员A的历史票房都属于演员A这个主体。即一个待预测对象包括多个主体,多个特征信息属于同一个主体。
初始信息是直接采集各种信息后,经过简单数学处理获取的离散型或连续性的实数值,但单纯依靠数值的特征信息,通常只能从一个维度反应特征信息的影响。例如,演员A在电影上映前一段时间内在搜索引擎中的搜索量作为演员A的百度指数,用于预测电影的票房。百度指数本质上反映的是主创的热度,而单纯依靠特征工程很难穷举所有影响流量的维度,除此之外,数值对外部数据的依赖也较为严重。
在嵌入模块中,将涉及到的每一个主体的所有特征信息进行拼接,用一个固定长度的向量来表示,得到每一个主体的向量信息,以流量预测为例,每一个主创、题材都对应一个固定长度的向量。
在预测模型的输入层中,除了输入初始信息,还输入利用初始信息拼接后生成的每一个主体的向量信息,在嵌入层的训练过程中,和隐藏中的结点一样,输入层中的向量信息同样需要更新,同一个主体的特征信息对应的向量信息进行权值共享。
图8是根据一示例性实施例示出的向量信息和初始信息的输入示意图,如图8所示,以电视剧流量预测为例,输入电视剧的多个特征1、特征2及特征3,图中的数值型特征表示电视剧的传统特征,在此基础上增加嵌入层(embedding layer)输入,即将当前电视剧的导演、主演等特征分别用一个固定长度的向量来表示,并随机初始化向量中的每一维,输出可以是当前样本的流量,在多任务学习的框架下可以增加输出,如评分等。中间层可以使用任意的神经网络结构(图中使用的是DNN),在学习过程中通过后向传播算法不断调整神经网络的参数以及嵌入层中向量的数值。训练完成后,每个特征获得一个向量表示,同时得到最终神经网络的参数。在进行预测时,除了传统的数值型特征,将当前电视剧的特征对应特征的向量拼接成嵌入层,与数值型特征一起基于训练得到的参数进行前向传播,最终计算出每个特征在输出层的深度信息Y1、Y2及Y3。
特征信息的向量化表示,相较于传统的数值表示方式稳定性更好。向量信息有利于刻画特征信息之间的相似性,例如题材“奇幻”和“魔幻”具有一定程度的相似性,按照传统的布尔表示方式,无法刻画这种相似性,而嵌入之后可以利用向量之间的相似度来刻画这种相似性。并且,通过嵌入训练得到的向量往往蕴含了当前特征在多个维度上对于预测结构的信息量,减少了提取特征信息的工程负担。
步骤S1212,将所述初始信息和所述向量信息确定为所述特征信息。
举例来说,加入了嵌入层的预测模型,在LSTM模块的输入中,需要同时包括初始信息和向量信息。
在本实施例中,由于加入了嵌入层,使得数值表示方式的稳定性更好,更利于捕捉特征信息之间的相似性,通过训练后的向量信息蕴含了当前特征信息在多个维度上对于预测结果的信息量,减少了信息特征提取工程的负担。
图4是根据一示例性实施例示出的一种神经网络预测方法的流程图,该方法可应用于服务器中,如图4所示,所述方法还包括:
步骤S14,分别获取多个样本对象当前周期的特征信息。
举例来说,一定数量的所述样本对象的特征信息用于训练预测模型,例如将已经上映过的已知票房的电影的特征信息,作为样本对象的特征信息,对于初始的预测模型进行训练。
步骤S15,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果。
举例来说,利用LSTM模块,可处理样本对象的多个时间周期的特征信息。其中,在当前周期的预测结果的处理过程中,除输入当前周期的特征信息,还需要输入前一后期的训练预测结果共同处理。
步骤S16,根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失。
举例来说,例如需要计算三个周期的训练预测结果,首先获取预设的初始样本对象、初始期望预测结果,将初始样本对象输入初始预测模型进行处理,得到初始训练预测结果。
然后将所述初始训练预测结果和第一个周期的样本对象输入调整后的初始预测模型进行处理,得到第一个周期的训练预测结果。
再根据第一个周期的训练预测结果和第二个周期的特征信息,利用初始预测模型进行处理,得到第二个周期的训练预测结果,以及根据第二个周期的训练预测结果和第三个周期的特征信息,利用初始预测模型进行处理,得到第三个周期的训练预测结果,最终得到各个周期的训练预测结果。
由于样本对象在每个周期的都有一个已知的实际结果,因此根据样本对象在各个周期的训练预测结果和实际结果,可以得到初始预测模型在各个周期的模型损失。
步骤S17,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。
举例来说,将上述各个周期的模型损失相加后,对所有网络参数求梯度,然后根据反向传播算法BPTT(Back Propagation Through Time)调整梯度,更新初始预测模型中的参数权重。
在一种可能的实现方式中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
同样以上述三个周期的训练过程为例,根据获取到的第一周期的模型损失、第二周期的模型损失和第三周期的模型损失,采用反向传播算法,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
当预测模型需要进行满足设定的迭代训练次数时,在每次的迭代训练中,重复上述步骤。
步骤S18,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
举例来说,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。
在本实施例中,根据不同周期的特征信息与初始预测模型进行训练,得到满足训练条件的预测模型,得到的预测模型能够更好的反应出待预测对象的特征信息的时序性、关联性,并能得到准确的预测结果。
在本实施例中,依次调整所述初始预测模型中的各个模块的参数权重,最终得到满足训练条件的预测模型,各个模块的参数权重的调整,保证了预测模型输出的预测结果的准确度。
在一种可能的实现方式中,所述多个待预测对象的特征信息相同。不同类型的待预测对象的特征信息,需要筛选出不同待预测对象之间的共同的特征信息,或将各待预测对象的特征信息均转换为相同的特征信息。
在本实施例中,相同的特征信息,能够保证待预测对象的预测结果的准确度。
应用示例:
以下结合“对电影A1进行预测”作为一个示例性应用场景,给出根据本公开实施例的应用示例,以便于理解神经网络预测方法的流程。本领域技术人员应理解,以下应用示例仅仅是出于便于理解本发明实施例的目的,不应视为对本发明实施例的限制。
图9是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。如图9所示,在该应用示例中,训练预测模型(步骤900)。在该应用示例中,分别获取电影A1和与电影A2的当前周期的特征信息,电影A1和电影A2的特征信息完全相同,例如,电影A1的特征信息为300维,电影A2的特征信息为300维。在一种可能的实现方式中,当选取与电影A1有一定关联关系的电视节目B1,作为另一个待预测对象时,电影A1与电视节目B1的特征信息有150维相同,可以仅利用相同的150维的特征信息,作为预测电影A1和电视节目B1的特征信息。
在电影A1和电影A2作为待预测对象的应用示例中,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果。例如,利用LSTM模块,处理样本对象的多个时间周期的特征信息,其中,在当前周期的预测结果的处理过程中,除输入当前周期的特征信息,还需要输入前一周期的训练预测结果共同处理。例如,将第二周期的特征信息以及第一周期的训练预测结果输入初始预测模型中进行处理,获取针对两组样本对象当前周期的训练预测结果。
在该应用示例中,根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失。
在该应用示例中,根据所述模型损失,采用反向传播算法调整所述初始预测模型中的参数权重,确定调整后的预测模型。例如,根据电影A1以及电影A2样本对象当前周期的模型损失,依次调整所述RN模块、所述DNN模块以及所述LSTM模块、所述嵌入模块中的参数权重,确定当前周期调整后的预测模型。
在该应用示例中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。例如,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。在满足迭代训练次数和/或满足设定的收敛条件时,可以将调整后的预测模型确定为最终的预测模型。
在该应用示例中,服务器可以获取待预测的电影A1、电影A2的特征信息(步骤901),并将特征信息输入该预测模型进行处理(步骤902),从而获取到待预测对象中至少一个待预测对象的预测结果,例如,电影A1的预测结果,或电影A1和电影A2的预测结果(步骤903)。
根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对多个待预测对象的特征信息进行处理,从而获取针对多个待预测对象中至少一个待预测对象的预测结果,提高了该预测结果的准确度。
图10是根据一示例性实施例示出的一种神经网络预测装置的框图,如图10所示,所述神经网络预测装置包括:
特征信息获取单元11,用于分别获取多个待预测对象的特征信息。
预测结果获取单元12,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果。其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
预测结果输出单元13,用于输出所述多个待预测对象中至少一个待预测对象的预测结果。
在本实施例中,通过利用包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块的预测模型,对多个待预测对象的特征信息进行处理后,获取针对所述多个待预测对象的预测结果,根据本公开的各方面,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性,并提高了预测结果的准确率。
图11是根据一示例性实施例示出的一种神经网络预测装置的框图,在上述实施例的基础上,在一种可能的实现方式中,如图11所示,预测结果获取单元12包括:
LSTM处理子单元121,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元122,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元123,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
在上述实施例的基础上,在一种可能的实现方式中,如图11所示,所述特征信息包括初始信息,所述预测结果获取单元12还包括:
嵌入子单元124,用于将所述初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
信息确定子单元125,用于将所述初始信息和所述向量信息确定为所述特征信息。
在本实施例中,由于加入了嵌入层,使得数值表示方式的稳定性更好,更利于捕捉特征信息之间的相似性,通过训练后的向量信息蕴含了当前特征信息在多个维度上对于预测结果的信息量,减少了信息特征提取工程的负担。
在上述实施例的基础上,在一种可能的实现方式中,如图11所示,所述神经网络预测装置,还包括:
样本特征信息获取单元14,用于分别获取多个样本对象当前周期的特征信息。
训练预测结果获取单元15,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果。
模型损失确定单元16,用于根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失。
权重调整单元17,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。
预测模型确定单元18,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在本实施例中,根据不同周期的特征信息与初始预测模型进行训练,得到满足训练条件的预测模型,得到的预测模型能够更好的反应出待预测对象的特征信息的时序性、关联性,并能得到准确的预测结果。
在一种可能的实现方式中,所述权重调整单元包括:权重调整子单元,用于根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多个待预测对象的特征信息相同。
在一种可能的实现方式中,还提供一种神经网络预测装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行本申请权利要求中任意一项所述方法的神经网络预测步骤。
在一种可能的实现方式中,还提供一种非易失性计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现本申请权利要求中任意一项所述的方法。
图12是根据一示例性实施例示出的一种用于神经网络预测的装置1900的框图。例如,装置1900可以被提供为一服务器。参照图12,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (14)
1.一种神经网络预测方法,其特征在于,所述方法包括:
分别获取多个待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果;
输出所述多个待预测对象中至少一个待预测对象的预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
2.根据权利要求1所述的方法,其特征在于,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
3.根据权利要求2所述的方法,其特征在于,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
4.根据权利要求1或3所述的方法,其特征在于,所述方法还包括:
分别获取多个样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果;
根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
5.根据权利要求4所述的方法,其特征在于,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
6.根据权利要求1所述的方法,其特征在于,所述多个待预测对象的特征信息相同。
7.一种神经网络预测装置,其特征在于,所述装置包括:
特征信息获取单元,用于分别获取多个待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象的预测结果;
预测结果输出单元,用于输出所述多个待预测对象中至少一个待预测对象的预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块。
8.根据权利要求7所述的装置,其特征在于,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的预测结果。
9.根据权利要求8所述的装置,其特征在于,所述预测模型还包括嵌入模块,
所述预测结果获取单元还包括:
嵌入子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
10.根据权利要求7或9所述的装置,其特征在于,还包括:
样本特征信息获取单元,用于分别获取多个样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多个样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多个样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多个样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
11.根据权利要求10所述的装置,其特征在于,所述权重调整单元包括:
权重调整子单元,用于根据所述多个样本对象多个周期的模型损失,依次调整所述RN模块、所述DNN模块、所述LSTM模块以及所述嵌入模块中的参数权重,确定调整后的预测模型。
12.根据权利要求7所述的装置,其特征在于,所述多个待预测对象的特征信息相同。
13.一种神经网络预测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至6中任意一项所述的神经网络预测方法。
14.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710970318.6A CN109670571A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710970318.6A CN109670571A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670571A true CN109670571A (zh) | 2019-04-23 |
Family
ID=66141522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710970318.6A Pending CN109670571A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670571A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110545208A (zh) * | 2019-09-23 | 2019-12-06 | 电子科技大学 | 一种基于lstm的网络流量预测方法 |
CN117391125A (zh) * | 2023-12-08 | 2024-01-12 | 成都星幔长庚科技有限公司 | 一种基于神经网络的数据处理方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及系统 |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
-
2017
- 2017-10-16 CN CN201710970318.6A patent/CN109670571A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及系统 |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110545208A (zh) * | 2019-09-23 | 2019-12-06 | 电子科技大学 | 一种基于lstm的网络流量预测方法 |
CN117391125A (zh) * | 2023-12-08 | 2024-01-12 | 成都星幔长庚科技有限公司 | 一种基于神经网络的数据处理方法及系统 |
CN117391125B (zh) * | 2023-12-08 | 2024-03-01 | 成都星幔长庚科技有限公司 | 一种基于神经网络的数据处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670569A (zh) | 神经网络预测方法及装置 | |
CN111966698B (zh) | 一种基于区块链的可信联邦学习方法、系统、装置及介质 | |
Chen et al. | Multimodal encoder-decoder attention networks for visual question answering | |
CN109902546A (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN109670621A (zh) | 神经网络预测方法及装置 | |
CN107844784A (zh) | 人脸识别方法、装置、计算机设备和可读存储介质 | |
CN108428132A (zh) | 欺诈交易识别方法、装置、服务器及存储介质 | |
CN109670623A (zh) | 神经网络预测方法及装置 | |
CN109670567A (zh) | 神经网络预测方法及装置 | |
CN104751140A (zh) | 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用 | |
CN103930907B (zh) | 一种神经组件记忆转移的方法和装置 | |
Zhong et al. | Density-based evolutionary framework for crowd model calibration | |
CN109325516A (zh) | 一种面向图像分类的集成学习方法及装置 | |
CN109670590A (zh) | 神经网络预测方法及装置 | |
CN112183435A (zh) | 一种两阶段的手部目标检测方法 | |
WO2023235346A1 (en) | Prompting machine-learned models using chains of thought | |
Xue et al. | Attention‐based spatial–temporal hierarchical ConvLSTM network for action recognition in videos | |
Jafar et al. | Hyperparameter optimization for deep residual learning in image classification | |
CN109670571A (zh) | 神经网络预测方法及装置 | |
Broad et al. | Amplifying the uncanny | |
CN109670588A (zh) | 神经网络预测方法及装置 | |
CN110415261B (zh) | 一种分区域训练的表情动画转换方法及系统 | |
CN109670622A (zh) | 神经网络预测方法及装置 | |
Shariff et al. | Artificial (or) fake human face generator using generative adversarial network (GAN) machine learning model | |
Mao et al. | A novel user membership leakage attack in collaborative deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200420 Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Alibaba (China) Co.,Ltd. Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C Applicant before: Youku network technology (Beijing) Co., Ltd |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190423 |