CN109670568A - 神经网络预测方法及装置 - Google Patents
神经网络预测方法及装置 Download PDFInfo
- Publication number
- CN109670568A CN109670568A CN201710959985.4A CN201710959985A CN109670568A CN 109670568 A CN109670568 A CN 109670568A CN 201710959985 A CN201710959985 A CN 201710959985A CN 109670568 A CN109670568 A CN 109670568A
- Authority
- CN
- China
- Prior art keywords
- prediction
- model
- characteristic information
- predicted
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种神经网络预测方法及装置。该方法包括:获取待预测对象的特征信息;将特征信息输入预测模型中进行处理,获取针对待预测对象的预测结果;输出预测结果,其中,预测模型包括深度神经网络DNN模块以及对抗训练网络模块。根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络预测方法及装置。
背景技术
相关技术中,可以利用训练样本训练得到预测模型,从而对各种事件进行预测。例如,可以利用电视剧播放流量(Video View)相关的训练样本训练得到用于预测电视剧播放流量的预测模型,从而对即将播放的电视剧播放流量进行预测。然而,有些事件的训练样本数量较少,例如,综艺相关的训练样本数量较少,通过较少的训练样本训练得到的预测模型具有预测准确度低、预测结果不可靠等问题。
发明内容
有鉴于此,本公开提出了一种神经网络预测方法及装置,能够提高预测结果的准确度。
根据本公开的一方面,提供了一种神经网络预测方法,所述方法包括:
获取待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN(Deep Neural Network,DNN)模块以及对抗训练网络模块。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,包括:
将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述方法还包括:
分别获取多组样本对象的特征信息;
将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果;
根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,所述装置包括:
特征信息获取单元,用于获取待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN模块以及对抗训练网络模块。
在一种可能的实现方式中,所述预测结果获取单元包括:
DNN处理子单元,用于将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象的特征信息;
训练预测结果获取单元,用于将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的各方面,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图6是根据一示例性实施例示出的一种神经网络预测模型的框图。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。
图8是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。
图9是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。
图10是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。
图11是根据一示例性实施例示出的一种神经网络预测装置的框图。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。该方法可应用于服务器中。如图1所示,根据本公开实施例的神经网络预测方法包括:
在步骤S11中,获取待预测对象的特征信息;
在步骤S12中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
在步骤S13中,输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN模块以及对抗训练网络模块。
根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
举例来说,服务器可以获取待预测对象的特征信息。其中,待预测对象可以是即将发生的各类事件,例如,可以是即将播放的电视剧、电影、综艺节目,也可以是即将进行的各类比赛、彩票以及总统选举等。待预测对象的特征信息为可以对待预测对象的预测结果产生影响的各种影响因素,例如,对即将播出的综艺节目进行预测时,该综艺节目的类型、档期、主创人员等信息都可以为该综艺节目的特征信息。在对即将进行的总统选举进行预测时,参与选举的候选人信息、民众支持率、政绩等都可以为总统选举的特征信息。本领域技术人员应理解,本公开对待预测对象的类型、待预测对象的特征信息的形式不作限制。
在一种可能的实现方式中,待预测对象的特征信息可以包括多种形式,例如,可以为数值类特征,也可以为向量类特征。
举例来说,待预测对象的特征信息可以包括离散型或连续型的实数值。例如,在对电视剧的播放流量进行预测时,特征信息可以包括题材、演员等。其中,可以用布尔值来表示该电视剧的题材是否为爱情题材,例如,在该电视剧的题材属于爱情题材时,可以用实数值1来表示其题材特征信息,在该电视剧的题材不属于爱情题材时,则可以用实数值0来表示其题材特征信息。对于参与该电视剧的演员对应的特征信息则可以通过一些可量化的指标来表示。例如,可以用该电视剧的演员在电视剧播放前一段时间内的搜索引擎中的搜索量来表示该电视剧的各演员的特征信息。另外,待预测对象的特征信息还可以为向量类特征。例如,通过一个固定长度的向量来表示该电视剧的题材、各演员等主体的特征信息。本领域技术人员应理解,待预测对象的特征信息可以包括多种形式,可以根据需要进行设置,本公开对此不作限制。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,其中,所述预测模型包括DNN模块以及对抗训练网络模块。
举例来说,服务器可以将获取的待预测对象的特征信息输入到预测模型中进行处理,该预测模型可以为训练好的的包括DNN模块以及对抗训练网络模块等多个神经网络模块的预测模型。该预测模型可以基于该特征信息,获取针对该待预测对象的预测结果。
该预测模型的DNN模块可用于准确捕捉不同的特征信息的组合模式,从而提高该预测模型的预测准确度。本领域技术人员应理解,DNN模块可以包括多层全连接层,全连接层的层数越多(深度越大),其学习能力越强,最后形成的预测模型的稳定性越高,拟合能力越强,只要预测模型的DNN模块可用于捕捉特征信息的组合模式即可,本公开对DNN模块的层数和结构不作限制。
该预测模型的对抗训练网络模块可用于该预测模型训练过程中,基于一组待预测对象(例如,域A)的较少的训练样本以及与该组待预测对象相关的另一组待预测对象(例如,域B)较多训练样本,训练得到预测模型,其中,该预测模型可以用于准确预测具有较少训练样本的待预测对象的预测结果。本领域技术人员应理解,该预测模型的对抗训练网络模块可以包括多种形式,只要可以训练预测模型,训练完成的预测模型的对抗训练网络模块可以将输入的深度信息,输出在两组待预测对象的共同表征即可,本公开对此不作限制。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,如图2所示,步骤S12可以包括:
在步骤S121中,将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息。
举例来说,服务器可以将获取的综艺节目A1的特征信息输入到DNN模块中进行处理,从而确定综艺节目A1的深度信息。本领域技术人员应理解,可以采用相关技术实现DNN模块对待预测对象的特征信息的处理,并确定该待预测对象的深度信息,本公开对此不作限制。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,所述预测模型还包括嵌入模块,如图3所示,步骤S12可以包括:
在步骤S123中,将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息。
举例来说,待预测对象可以包括多个主体,每个主体可以包括多个初始信息,该初始信息可以为直接采集到的信息经过简单数学处理获取的离散型或者连续型的实数值(一种数值类的特征信息)。例如,初始信息可以为用布尔值表示的电视剧的题材特征信息,用电视剧演员在搜索引擎中的搜索值表示演员的特征信息等。例如,待预测对象为综艺节目A1,该综艺节目A1的题材、主创人员C1、主创人员C2等为该综艺节目A1的多个主体。以主创人员C1为例,该主创人员C1可以包括多个初始信息,例如,该主创人员C1在综艺节目A1播放前一段时间内在搜索引擎中的搜索量、该主创人员C1在评价网站上的评分、该主创人员C1之前参加的综艺节目的收视率等。
在一种可能的实现方式中,该预测模型的嵌入模块可用于对初始信息进行向量化处理,确定初始信息的向量信息。
举例来说,该预测模型的嵌入模块可以对待预测对象的每个主体的多个初始信息进行向量化处理,确定与主体的多个初始信息相对应的向量信息。例如,该预测模型的嵌入模块可以将待预测对象综艺节目A1的主创人员C1的多个初始信息进行向量化处理,确定该主创人员C的多个初始特征相对应的向量信息,从而将主创人员C1这个主体表示成一个向量。
在步骤S124中,将所述初始信息和所述向量信息确定为所述特征信息。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。在一种可能的实现方式中,如图4所示,可以将待预测对象的初始信息以及向量信息确定为特征信息,待预测对象的多个主体的向量信息拼接的嵌入层(Embedding Layer)以及初始信息作为预测模型的输入层,输入到预测模型中。
举例来说,可以将待预测对象的多个主体的初始信息以及多个主体的向量信息确定为待预测对象的特征信息,待预测对象的多个主体的向量信息可以拼接成嵌入层,与该待预测对象的多个主体的多个初始信息一起作为该预测模型的输入层,输入到该预测模型中。例如,待预测对象综艺节目A1包括三个主体,分别为主体1题材、主体2主创人员C1以及主体3主创人员C2,其中,三个主体可分别对应多个初始信息。该训练好的预测模型的嵌入模块可以将三个主体表示为三个向量,该三个向量可以拼接成嵌入层,并与三个主体的多个初始信息一起作为该预测模型的输入层,输入到预测模型中进行处理,例如,输入到DNN模块中进行处理,从而确定待预测对象的深度信息。
通过这种方式,可以提升输入到DNN模块中进行处理的信息的稳定性,更利于刻画特征信息之间的相似性,向量信息较初始信息蕴含当前特征在多个维度上对预测结果的信息量,在较少提取特征信息的工程负担的基础上,提高了预测准确度。本领域技术人员应理解,可以采用相关技术实现对初始信息的向量化处理,并将初始信息和向量化信息输入到DNN模块中进行处理,本公开对此不作限制。
在步骤S122中,将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。
举例来说,可以将该待预测对象的深度信息输入到对抗训练网络模块中进行处理,从而确定该待预测对象的预测结果。例如,该深度信息可以通过该对抗训练网络模块中的神经网络层(例如,一层或两层全连接层)进行处理,从而确定该待预测对象的预测结果。例如,该预测模型的对抗训练网络模块在训练过程中,基于域A的较少的训练样本以及与域A相关的另一组域B的较多的训练样本进行训练。该训练完成的预测模型的对抗训练网络模块可以将输入的深度信息,输出域A和域B的共同表征,确定预测结果。
通过这种方式,可以提高预测模型的泛化能力。本领域技术人员应理解,对抗训练网络模块可以包括多种形式,对抗训练网络模块中的全连接层的层数也可以根据需要进行设置,本公开对此不作限制。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。图6是根据一示例性实施例示出的一种神经网络预测模型的框图。如图5、图6所示,在一种可能的实现方式中,所述方法还包括:
在步骤S14中,分别获取多组样本对象的特征信息。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。其中,每组样本对象可以包括一个样本对象。
举例来说,如图6所示,可以分别获取综艺节目(域A)的样本对象的特征信息,以及与综艺节目有一定相关度的电视节目(域B)的样本对象的特征信息。例如,可以分别获取综艺节目A1以及与综艺节目A1有一定相关度的电视节目B1的特征信息,其中,多组样本对象的特征信息用于训练预测模型。本领域技术人员应理解,综艺节目样本对象与相关联的电视节目样本对象有部分特征信息相同,特征信息相同的部分越多,则基于样本对象训练的预测模型的可靠性越强。
在一种可能的实现方式中,输入到初始预测模型中的多组样本对象的特征信息需要做相应处理,以使得多组样本对象的特征信息相对应。
举例来说,综艺节目的特征信息一共有300维,相关联的电视节目的特征信息也有300维,然而,综艺节目与相关联的电视节目的特征信息中有150维相同,其余特征信息不相同。此时,可将综艺节目的特征信息处理为450维,其中,除了初始的自身的特征信息300维之外,添加与相关联的电视节目不相同的150维(例如,相应特征信息设置为0),电视节目的特征信息也处理为450维,其中,除了初始的自身的特征信息300维之外,添加与综艺节目不相同的150维(例如,相应特征信息设置为0),通过这种方式,可以保证基于两组样本对象的特征信息训练得到的预测模型的准确度和可靠性。本领域技术人员应理解,可以采用多种方式处理两组样本对象的特征信息,可以采用相关技术对初始预测模型进行训练,本公开对此不作限制。
在步骤S15中,将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果。
在一种可能的实现方式中,该初始预测模型包括DNN模块以及对抗训练网络模块。
举例来说,如图6所示,可以将获取到的综艺节目A1以及电视节目B1的特征信息输入到初始预测模型中的DNN模块中进行处理,经过该初始预测模型处理后输出训练预测结果。其中,综艺节目A1以及电视节目B1的特征信息如前文所述,可以包括多个主体的向量信息以及多个主体的初始信息。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。在一种可能的实现方式中,该初始预测模型的DNN模块可采用基于自编码(AutoEncoder)的预训练(Pre-training)来解决DNN的梯度消失问题。如图7所示,针对DNN的每一层输入,首先使用图7中的三层神经网络结构来拟合自身,其中输出层是输入层的复制,该网络结构学习的目标是通过“输入层-隐藏层”(编码权重W1)和“隐藏层-输出层”(解码权重W2)这两组权重参数尽可能地拟合输入层自身。隐藏层的结点数与DNN中下一层的结点数相同。最终使用编码权重W1作为当前输入层与下一个隐藏层之间权重参数的初始值,以此类推,将DNN中每一层的权重参数都通过上述预训练的方式进行初始化,最终可以使得整个DNN获得良好的收敛性。通过这种方式,可以避免训练过程中深度神经网络的梯度消失。本领域技术人员应理解,可以采用相关技术实现对深度神经网络的预训练,本公开对此不作限制。
图8是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。在一种可能的实现方式中,如图8所示,该初始预测模型的对抗训练网络模块可以包括梯度翻转层(Gradient Reversal Layer,GRL)、域分类器以及神经网络层(例如,一层或两层全连接层)。其中,梯度翻转层可以定义为R(x),在正向传播时,梯度翻转层可以表示为:
R(x)=λx (2)
举例来说,在基于特征信息进行处理时,经过DNN模块处理得到的深度信息输入到对抗训练网络模块中进行处理,例如,该深度信息可以经过梯度翻转层(例如,在λ=1时,输出等于输入,数据保持不变),输入到域分类器(例如,二分类器)中进行分类,该深度信息可以经过神经网络层进行处理,并得到预测结果。
在步骤S16中,根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失。
举例来说,将特征信息输入初始预测模型中进行处理,可以得到针对该多组样本对象的训练预测结果。由于样本对象有一个已知的期望预测结果,因此根据样本对象的训练预测结果和期望预测结果,可以得到多组样本对象的模型损失。
在步骤S17中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。
举例来说,可以采用反向传播算法,例如,BP(Back Propagation)算法,基于该模型损失,对该模型的参数权重求梯度,并基于该梯度来调整初始预测模型中的参数权重。
当预测模型需要进行满足设定的迭代训练次数时,在每次的迭代训练中,重复上述步骤。
图9是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。如图9所示,在一种可能的实现方式中,步骤S17可以包括:
在步骤S171中,根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
举例来说,可以根据多组样本对象的模型损失,依次调整各模块中的参数权重,并确定调整后的预测模型。本领域技术人员应理解,可以采用相关技术实现对预测模型中各模块的参数权重的调整,本公开对此不作限制。
需要说明的是,如前文所述,所述对抗训练网络模块包括梯度翻转层以及域分类器。其中,在通过反向传播算法训练神经网络时,梯度翻转层R(x)满足下述公式:
其中,I表示单位矩阵,λ为参数权重,表示在用反向传播算法训练神经网络时,经过梯度翻转层后梯度的正负号翻转。
举例来说,在根据多组样本对象的模型损失依次调整参数权重时,经过对抗训练网络模块的梯度翻转层,可以降低该域分类器对两组样本对象的区分能力,从而使得调整后的预测模型模糊两组样本对象的区别。例如,将综艺节目以及电视节目的特征信息输入到初始预测模型,该初始预测模型的对抗训练网络模块的域分类器对两组样本对象进行区分,并根据两组样本对象的模型损失,依次调整各个模块的参数权重。在调整对抗训练网络模块时,因为其包括梯度翻转层,使得调整过该模块的参数权重的初始预测模型越来越模糊综艺节目以及电视节目的区别,使得该不断调整的预测模型越来越无法区分综艺节目与电视节目,从而实现从样本对象较多的电视节目向样本对象较少的综艺节目的迁移学习。本领域技术人员应理解,可以采用相关技术实现对预测模型各模块的参数权重的调整,本公开对此不作限制。
在步骤S18中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。
在本实施例中,根据多组样本对象的特征信息与初始预测模型进行训练,得到满足训练条件的预测模型,得到的预测模型能够更好的反应出待预测对象的特征信息的关联性,并能得到准确的预测结果。
应用示例
以下结合“对综艺节目A1进行预测”作为一个示例性应用场景,给出给出根据本公开实施例的应用示例,以便于理解神经网络预测方法的流程。本领域技术人员应理解,以下应用示例仅仅是出于便于理解本发明实施例的目的,不应视为对本发明实施例的限制。
图10是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。如图10所示,在该应用示例中,训练预测模型(步骤900)。
在该应用示例中,分别获取综艺节目和与综艺节目有一定关联度的电视节目的特征信息。例如,综艺节目的特征信息为300维,电视节目的特征信息为300维,其中,综艺节目与电视节目的特征信息有150维相同,可以确定该综艺节目的特征信息为450维,该电视节目的特征信息也为450维,取两组样本对象的特征信息的并集。例如,保留综艺节目以及电视节目自身的特征信息,将不同的特征信息在相应位置填补为0。
在该应用示例中,将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果。例如,利用DNN模块以及对抗训练网络模块等多个神经网络模块处理特征信息,得到训练预测结果。
在该应用示例中,根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失。
在该应用示例中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。例如,根据综艺节目以及电视节目样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在该应用示例中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。例如,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。在满足迭代训练次数和/或满足设定的收敛条件时,可以将调整后的预测模型确定为最终的预测模型。
在该应用示例中,服务器可以获取待预测的综艺节目A1的特征信息(步骤901),并将特征信息输入该预测模型进行处理(步骤902),从而获取待预测对象的预测结果,例如,综艺节目A1的预测结果(步骤903)。
根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
图11是根据一示例性实施例示出的一种神经网络预测装置的框图。如图11所示,所述神经网络预测装置包括:
特征信息获取单元11,用于获取待预测对象的特征信息;
预测结果获取单元12,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元13,用于输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN模块以及对抗训练网络模块。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。在一种可能的实现方式中,如图12所示,所述预测结果获取单元12包括:
DNN处理子单元121,用于将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元122,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。如图12所示,在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元12还包括:
嵌入处理子单元123,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元124,用于将所述初始信息和所述向量信息确定为所述特征信息。
如图12所示,在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元14,用于分别获取多组样本对象的特征信息;
训练预测结果获取单元15,用于将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果;
模型损失确定单元16,用于根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失;
权重调整单元17,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元18,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
如图12所示,在一种可能的实现方式中,所述权重调整单元17包括:
权重调整子单元171,用于根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。例如,装置1900可以被提供为一服务器。参照图13,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (14)
1.一种神经网络预测方法,其特征在于,所述方法包括:
获取待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN模块以及对抗训练网络模块。
2.根据权利要求1所述的方法,其特征在于,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,包括:
将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。
3.根据权利要求2所述的方法,其特征在于,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
4.根据权利要求1或3所述的方法,其特征在于,所述方法还包括:
分别获取多组样本对象的特征信息;
将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果;
根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
5.根据权利要求4所述的方法,其特征在于,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
6.根据权利要求4所述的方法,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
7.一种神经网络预测装置,其特征在于,所述装置包括:
特征信息获取单元,用于获取待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括深度神经网络DNN模块以及对抗训练网络模块。
8.根据权利要求7所述的装置,其特征在于,所述预测结果获取单元包括:
DNN处理子单元,用于将所述特征信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的预测结果。
9.根据权利要求8所述的装置,其特征在于,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
10.根据权利要求7或9所述的装置,其特征在于,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象的特征信息;
训练预测结果获取单元,用于将所述特征信息输入初始预测模型中进行处理,获取针对所述多组样本对象的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的训练预测结果以及期望预测结果,分别确定所述多组样本对象的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
11.根据权利要求10所述的装置,其特征在于,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象的模型损失,依次调整所述对抗训练网络模块、所述DNN模块以及嵌入模块中的参数权重,确定调整后的预测模型。
12.根据权利要求10所述的装置,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
13.一种神经网络预测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1-6中任意一项所述的神经网络预测方法。
14.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1-6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710959985.4A CN109670568A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710959985.4A CN109670568A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670568A true CN109670568A (zh) | 2019-04-23 |
Family
ID=66139295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710959985.4A Pending CN109670568A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670568A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188263A (zh) * | 2019-05-29 | 2019-08-30 | 国网山东省电力公司电力科学研究院 | 一种面向异构时距的科学研究热点预测方法及系统 |
CN110348877A (zh) * | 2019-05-27 | 2019-10-18 | 上海大学 | 基于大数据的智能业务推荐算法、计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及系统 |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
-
2017
- 2017-10-16 CN CN201710959985.4A patent/CN109670568A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及系统 |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348877A (zh) * | 2019-05-27 | 2019-10-18 | 上海大学 | 基于大数据的智能业务推荐算法、计算机可读存储介质 |
CN110348877B (zh) * | 2019-05-27 | 2023-11-14 | 上海大学 | 基于大数据的智能业务推荐算法、计算机可读存储介质 |
CN110188263A (zh) * | 2019-05-29 | 2019-08-30 | 国网山东省电力公司电力科学研究院 | 一种面向异构时距的科学研究热点预测方法及系统 |
CN110188263B (zh) * | 2019-05-29 | 2021-11-30 | 国网山东省电力公司电力科学研究院 | 一种面向异构时距的科学研究热点预测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670569A (zh) | 神经网络预测方法及装置 | |
CN110297848A (zh) | 基于联邦学习的推荐模型训练方法、终端及存储介质 | |
CN110309283A (zh) | 一种智能问答的答案确定方法及装置 | |
CN109325516A (zh) | 一种面向图像分类的集成学习方法及装置 | |
CN109697435A (zh) | 人流量监测方法、装置、存储介质及设备 | |
CN109670623A (zh) | 神经网络预测方法及装置 | |
CN107766839A (zh) | 基于神经网络的动作识别方法和装置 | |
CN113688167A (zh) | 基于深度兴趣网络的深度兴趣捕获模型构建方法及装置 | |
CN109670590A (zh) | 神经网络预测方法及装置 | |
CN110033156A (zh) | 一种业务活动效果的确定方法及装置 | |
CN110147745A (zh) | 一种视频关键帧检测方法及装置 | |
CN108052862A (zh) | 年龄预估方法和装置 | |
CN109766925A (zh) | 特征融合方法、装置、电子设备及存储介质 | |
CN108989581A (zh) | 一种用户风险识别方法、装置及系统 | |
CN109670567A (zh) | 神经网络预测方法及装置 | |
WO2023235346A1 (en) | Prompting machine-learned models using chains of thought | |
CN109670621A (zh) | 神经网络预测方法及装置 | |
CN109670572A (zh) | 神经网络预测方法及装置 | |
CN109948680A (zh) | 病历数据的分类方法及系统 | |
CN109670588A (zh) | 神经网络预测方法及装置 | |
CN109670568A (zh) | 神经网络预测方法及装置 | |
CN107426610A (zh) | 视频信息同步方法及装置 | |
CN109670587A (zh) | 神经网络预测方法及装置 | |
CN109670571A (zh) | 神经网络预测方法及装置 | |
CN109670622A (zh) | 神经网络预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200422 Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Alibaba (China) Co.,Ltd. Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C Applicant before: Youku network technology (Beijing) Co., Ltd |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190423 |
|
RJ01 | Rejection of invention patent application after publication |