CN110555714A - 用于输出信息的方法和装置 - Google Patents

用于输出信息的方法和装置 Download PDF

Info

Publication number
CN110555714A
CN110555714A CN201810563417.7A CN201810563417A CN110555714A CN 110555714 A CN110555714 A CN 110555714A CN 201810563417 A CN201810563417 A CN 201810563417A CN 110555714 A CN110555714 A CN 110555714A
Authority
CN
China
Prior art keywords
neural network
historical behavior
sample
recurrent neural
behavior information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810563417.7A
Other languages
English (en)
Inventor
刘畅
杨晓亮
杨双全
郑灿祥
张阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810563417.7A priority Critical patent/CN110555714A/zh
Publication of CN110555714A publication Critical patent/CN110555714A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例公开了用于输出信息的方法和装置。该方法的一具体实施方式包括:获取目标用户的历史行为信息序列;对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列;将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;输出目标用户的未来行为信息。该实施方式实现了根据用户的历史行为信息序列对用户的各种未来行为信息的预测,而不再只是单一性地预测位置信息。

Description

用于输出信息的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于输出信息的方法和装置。
背景技术
随着互联网以及移动互联网的飞速发展,存在各种设备随时采集用户的各种行为信息,包括但不限于位置信息、网站行为信息、APP(应用,Application)行为信息等。例如,可以获取用户终端的GPS(Global Positioning System,全球定位系统)定位信息、IP(Internet Protocol,网络之间互连的协议)地址信息、Wi-Fi(WIreless-FIdelity,无线保真/无线宽带/无线网络)信息或者基站信息等作为用户的位置信息,可以获取用户在网站的浏览行为信息、点击行为信息、输入文本内容等作为用户的网站行为信息,可以获取用户使用了哪些APP、用户在使用APP的时候点击了哪些控件、输入了哪些信息等作为用户的APP行为信息。
目前,大都仅仅利用用户的历史位置信息来预测用户未来的位置信息,预测内容较为单一。
发明内容
本申请实施例提出了用于输出信息的方法和装置。
第一方面,本申请实施例提供了一种用于输出信息的方法,该方法包括:获取目标用户的历史行为信息序列;对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列;将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;输出目标用户的未来行为信息。
在一些实施例中,预先训练的递归神经网络包括:输入层、至少两个隐藏层和输出层,至少两个隐藏层包括普通隐层和栈式隐层,栈式隐层是接收预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是至少一个隐藏层中除栈式隐藏层之外的其他隐藏层,输出层用于将预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
在一些实施例中,预先训练的递归神经网络是通过如下第一训练步骤得到的:确定初始递归神经网络的网络结构以及初始化初始递归神经网络的网络参数;获取第一训练样本集,其中,第一训练样本包括样本历史行为信息序列和标注未来行为信息;对于第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为初始递归神经网络的输入和期望输出,利用监督学习方法训练初始递归神经网络;将训练得到的初始递归神经网络确定为预先训练的递归神经网络。
在一些实施例中,在将训练得到的初始递归神经网络确定为预先训练的递归神经网络之前,第一训练步骤还包括:确定相似度计算模型的模型结构以及初始化相似度计算模型的模型参数;获取第二训练样本集,其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度;对于第二训练样本集中的第二训练样本,执行以下调参步骤:分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列;分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络;将第一样本用户未来行为特征和第二样本用户未来行为特征输入相似度计算模型,得到特征相似度,其中,第一样本用户未来行为特征和第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络后,初始递归神经网络中排序最后的隐藏层的输出;基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整初始递归神经网络的网络参数和相似度计算模型的模型参数。
在一些实施例中,对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列,包括:将目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到目标用户的历史行为特征序列。
在一些实施例中,相似度计算模型为神经网络。
在一些实施例中,相似度模型为全连接网络。
第二方面,本申请实施例提供了一种用于输出信息的装置,该装置包括:获取单元,被配置成获取目标用户的历史行为信息序列;特征提取单元,被配置成对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列;预测单元,被配置成将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;输出单元,被配置成输出目标用户的未来行为信息。
在一些实施例中,预先训练的递归神经网络包括:输入层、至少两个隐藏层和输出层,至少两个隐藏层包括普通隐层和栈式隐层,栈式隐层是接收预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是至少一个隐藏层中除栈式隐藏层之外的其他隐藏层,输出层用于将预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
在一些实施例中,预先训练的递归神经网络是通过如下第一训练步骤得到的:确定初始递归神经网络的网络结构以及初始化初始递归神经网络的网络参数;获取第一训练样本集,其中,第一训练样本包括样本历史行为信息序列和标注未来行为信息;对于第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为初始递归神经网络的输入和期望输出,利用监督学习方法训练初始递归神经网络;将训练得到的初始递归神经网络确定为预先训练的递归神经网络。
在一些实施例中,在将训练得到的初始递归神经网络确定为预先训练的递归神经网络之前,第一训练步骤还包括:确定相似度计算模型的模型结构以及初始化相似度计算模型的模型参数;获取第二训练样本集,其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度;对于第二训练样本集中的第二训练样本,执行以下调参步骤:分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列;分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络;将第一样本用户未来行为特征和第二样本用户未来行为特征输入相似度计算模型,得到特征相似度,其中,第一样本用户未来行为特征和第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络后,初始递归神经网络中排序最后的隐藏层的输出;基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整初始递归神经网络的网络参数和相似度计算模型的模型参数。
在一些实施例中,特征提取单元进一步被配置成:将目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到目标用户的历史行为特征序列。
在一些实施例中,相似度计算模型为神经网络。
在一些实施例中,相似度模型为全连接网络。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被一个或多个处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于输出信息的方法和装置,通过对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列,然后将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系,最后输出目标用户的未来行为特征。从而有效利用了递归神经网络处理时序数据的特点,实现了根据用户的历史行为信息序列对用户的各种未来行为信息的预测,而不再只是单一性地预测位置信息。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于输出信息的方法的一个实施例的流程图;
图3A是根据本申请的预先训练的递归神经网络按照时间进行展开之后的一个实施例的网络结构示意图;
图3B是根据本申请的预先训练的递归神经网络按照时间进行展开之后的又一个实施例的网络结构示意图;
图3C是根据本申请的预先训练的递归神经网络按照时间进行展开之后的另一个实施例的网络结构示意图;
图4是根据本申请的第一训练步骤的一个实施例的流程图;
图5是根据本申请的第二训练步骤的一个实施例的流程图;
图6是根据本申请的用于输出信息的方法的一个应用场景的示意图;
图7是根据本申请的用于输出信息的装置的一个实施例的结构示意图;
图8是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于输出信息的方法或用于输出信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、电子地图类应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的网页提供支持的后台网页服务器。后台网页服务器可以对接收到的网页页面请求等数据进行分析等处理,并将处理结果(例如网页页面数据)反馈给终端设备。又例如,服务器105还可以是对终端设备101、102、103上显示的电子地图类应用提供支持的后台地图服务器。后台地图服务器可以对接收到的电子地图信息请求等数据进行分析等处理,并将处理结果(例如电子地图数据)反馈给终端设备。又例如,服务器105还可以是对终端设备101、102、103上显示的购物类应用提供支持的后台电商服务器。后台电商服务器可以对接收到的购买类请求等数据进行分析等处理,并将处理结果(例如订单数据)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于输出信息的方法一般由服务器105执行,相应地,用于输出信息的装置一般设置于服务器105中。
需要指出的是,服务器105也可以仅仅提供信息输出类的服务,其可以本地或者从与服务器105网络连接的其他服务器获取目标用户的历史行为信息序列,并最终输出目标用户的未来行为信息,此时,示例性系统架构100可以不包括终端设备101、102、103和网络104。
还需要指出的是,终端设备101、102、103中也可以安装有信息输出类应用,终端设备101、102、103也可以基于信息输出类应用,生成并输出目标用户的未来行为信息,此时,用于生成信息的方法也可以由终端设备101、102、103执行,相应地,用于生成信息的装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100也可以不包括服务器105和网络104。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于输出信息的方法的一个实施例的流程200。该用于输出信息的方法,包括以下步骤:
步骤201,获取目标用户的历史行为信息序列。
在本实施例中,用于输出信息的方法的的执行主体(例如图1所示的服务器)可以目标用户的历史行为信息序列。
在本实施例中,目标用户可以是任一可以获取历史行为信息序列的用户,这里仅以目标用户为例进行说明,实践中,该用于输出信息的方法可以应用于任一目标用户。
在本实施例中,目标用户的历史行为信息序列是由按照目标用户的历史行为发生时间顺序排列的至少一个历史行为信息组成的。历史行为信息用于对目标用户的历史行为进行表征。这里,用户的历史行为信息可以包括但不限于用户的位置信息、网站行为信息、APP(例如,购物类应用)行为信息等。例如,目标用户的历史行为信息序列可以表征目标在什么时间到了什么地方,在什么时间访问了什么网站,在什么时间点击了什么网页链接,在什么时间使用了哪个APP等等。
在本实施例的一些可选的实现方式中,目标用户的历史行为信息也可以包括目标用户的属性信息。例如,目标用户的属性信息可以包括用户的人脸图像、用户的声纹信息、用户的用户画像信息等等。其中,用户的用户画像信息可以包括用户的职业、爱好、收入水平、个人信用、祖籍等等。
这里,上述目标用户的历史行为信息序列可以是与上述执行主体通信连接的终端设备(例如图1所示的终端设备101、102、103)通过有线连接方式或无线连接方式上传至上述执行主体中的,也可以是上述执行主体本地所存储的。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultrawideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列。
由于各种不同的历史行为信息的数据格式和表现形式的不同不利于后续处理,为此,上述执行主体(例如图1所示的服务器)可以采用各种特征提取方法对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列。
这里,可以采用针对历史行为信息进行特征提取的方法,按照历史行为信息在目标用户的历史行为信息序列中的出现顺序,对每个目标用户的历史行为信息进行特征提取,并将特征提取后得到的特征作为目标用户的历史行为特征序列中相应位置的历史行为特征。即,目标用户的历史行为特征序列中各个历史行为特征可以与目标用户的历史行为信息序列中各历史行为信息一一对应。例如,可以采用主动形状模型(Active ShapeModel,ASM)、主元分析(Principal Component Analysis,PCA)模型、独立分量分析(Independent Component Analysis,ICA)模型和线性判别分析(Linear DiscriminantAnalysis,LDA)模型、局部特征分析(Local Feature Analysis,LFA)模型等等来对历史行为信息进行特征提取。可以理解的是,由于特征提取的具体方法不同,所得到的历史行为特征既可以是特征图(feature map)形式的,也可以是特征向量形式的,还可以是数值形式的。
这里,也可以采用对时序数据进行特征提取的方法,对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列。通常,所得到的历史行为特征序列中历史行为特征的数目要少于目标用户的历史行为信息序列中历史行为信息的数目。例如,可以采用基于基本统计方法的特征提取、基于模型的特征提取、基于变换的特征提取、基于分形维数的特征提取。其中:基本统计方法的特征提取,就是提取数据波形的均值、方差、极值、波段、功率谱、过零点等统计特征来代表原有的时序数据作为特征向量;基于模型的特征提取,是指用模型去刻画时间序列数据,然后提取模型的系数作为特征向量;基于变换的特征提取,是指通过变换的手段进行特征提取的方法,这里,变换可以包括时频变换和线性变换,时频变换中具有代表性的方法是快速傅立叶变换、短时傅立叶变换、倒谱系数等,而线性变换,主要有PCA、ICA、SVD(奇异值分解,Singular Value Decomposition)、线性判别式分析、要素分析、映射等等。基于分形维数的特征提取主要是指针对非线性信号,是用它的定量分析指标分维数作为特征向量,分维数是指空间的扩展程度,可以用分数来表示。
在本实施例的一些可选的实现方式中,步骤202也可以如下进行:将目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到目标用户的历史行为特征序列。实践中,卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,因而,可以利用卷积神经网络进行特征提取。
需要说明的是,上述特征提取的各种方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤203,将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息。
在本实施例中,用于输出信息的方法的执行主体可以将步骤202中特征提取后得到的目标用户的历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系。这里,目标用户的未来行为信息用于对目标用户的未来可能会出现的行为进行描述。例如,目标用户的未来行为信息可以包括目标用户未来可能会去什么地方、浏览什么网站、点击什么页面、购买什么产品等等。可以理解的是,为了处理时序数据,上述预先训练的递归神经网络可以是时间递归神经网络(RNN,Recurrent Neural Network)。
在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络可以包括:输入层、至少两个隐藏层和输出层。其中,输入层用于按照行为特征在行为特征序列中的行为特征的出现顺序,将行为特征输入预先训练的递归神经网络的第一个隐藏层。而至少两个隐藏层可以包括普通隐层和栈式隐层,栈式隐层是接收预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是至少一个隐藏层中除栈式隐藏层之外的其他隐藏层。这里,输出层用于将预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
具体地,可以参考图3A,图3A示出了根据本申请的预先训练的递归神经网络按照时间进行展开之后的一个实施例的网络结构示意图。从图3A中可以看出,xt-1,xt和xt+1分别是输入预先训练的递归神经网络的行为特征序列中t-1时刻、t时刻和t+1的行为特征。预先训练的递归神经网络按序排列包括四个隐藏层,其中,分别是预先训练的递归神经网络在t-1时刻的第一个隐藏层、第二个隐藏层、第三个隐藏层和第四个隐藏层,分别是预先训练的递归神经网络在t时刻的第一个隐藏层、第二个隐藏层、第三个隐藏层和第四个隐藏层,分别是预先训练的递归神经网络在t+1时刻的第一个隐藏层、第二个隐藏层、第三个隐藏层和第四个隐藏层,其中,t-1时刻递归神经网络的第三个隐藏层的输出和第四个隐藏层的输出分别输入到t时刻递归神经网络的第一个隐藏层和第二个隐藏层t时刻递归神经网络的第三个隐藏层的输出和第四个隐藏层的输出分别输入到递归神经网络t+1时刻的第一个隐藏层和第二个隐藏层这里,把第一个隐藏层和第二个隐藏层称为栈式隐层,栈式隐层可以增强多尺度时间序列记忆,对于每个栈式隐层来说,输入该栈式隐层的数据除了包括输入层输入的数据之外还包括上一时刻网络隐层的输出,从而增强了网络的记忆。这里,把第三个隐藏层和第四个隐藏层称为普通隐层,输入普通隐层的数据为递归神经网络中普通隐层的上一个隐层的数据,而不包括上一时刻的数据。这里,ot-1,ot和ot+1分别是预先训练的递归神经网络在t-1时刻、t时刻和t+1输出的行为信息,输出层用于将最后一个隐藏层H4的输出映射到行为信息空间,从而得到行为信息。可以理解的是,图3A中仅仅示例性地给出了四个隐藏层,实践中,预先训练的递归神经网络的可以包括至少两个隐藏层。而且,图3A中所示的栈式隐层上一时刻的隐层之间的输入关系也仅仅是一种示例,实践中可以采用各种输入关系。作为示例,可以参考图3B,图3B示出了根据本申请的预先训练的递归神经网络按照时间进行展开之后的又一个实施例的网络结构示意图。图3B与图3A相比,栈式隐层上一时刻的隐层之间的输入关系发生了变化,其中,t-1时刻递归神经网络的第三个隐藏层的输出和第四个隐藏层的输出分别输入到t时刻递归神经网络的第三个隐藏层和第四个隐藏层t时刻递归神经网络的第三个隐藏层的输出和第四个隐藏层的输出分别输入到递归神经网络t+1时刻的第三个隐藏层和第四个隐藏层这里,把第三个隐藏层和第四个隐藏层称为栈式隐层,把第一个隐藏层和第二个隐藏层称为普通隐层。作为示例,还可以参考图3C,图3B示出了根据本申请的预先训练的递归神经网络按照时间进行展开之后的另一个实施例的网络结构示意图。图3C与图3A和图3B相比,栈式隐层上一时刻的隐层之间的输入关系又发生了变化,其中,t-1时刻递归神经网络的第一个隐藏层的输出和第四个隐藏层的输出分别输入到t时刻递归神经网络的第四个隐藏层和第二个隐藏层t时刻递归神经网络的第一个隐藏层的输出和第四个隐藏层的输出分别输入到递归神经网络t+1时刻的第四个隐藏层和第二个隐藏层这里,把第二个隐藏层和第四个隐藏层称为栈式隐层,把第一个隐藏层和第三个隐藏层称为普通隐层。
在本实施例的一些可选的实现方式中,为了降低梯度消失和爆炸的影响,上述预先训练的递归神经网络还可以为LSTM(Long Short Term Memory,长短时记忆网络)或者GRU(Gated Recurrent Unit,门控循环单元)。而可选地,为了加快神经网络训练收敛速度,上述LSTM或者GRU的激活函数可以为线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元。另外,为了防止网络训练中震荡导致收敛缓慢甚至发散,还可以在递归神经网络的每个时刻的输入和输出之间加入传输门,传输门函数可以为Sigmoid激活函数。
需要说明的是,这里,预先训练的递归神经网络可以是利用大量用户的历史行为特征序列和对应的未来行为信息,对未经训练的或者训练未完成的递归神经网络进行训练后得到的。可以理解的是,为了处理时序数据,上述未经训练的或者训练未完成的递归神经网络可以是时间递归神经网络。在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络可以是通过第一训练步骤得到的。具体地,请参考图4,图4示出了根据本申请的第一训练步骤的一个实施例的流程400,该第一训练步骤,包括以下步骤:
步骤401,确定初始递归神经网络的网络结构以及初始化初始递归神经网络的网络参数。
这里,第一训练步骤的执行主体可以与用于输出信息的方法的执行主体相同或者不同。如果相同,则第一训练步骤的执行主体可以在训练得到递归神经网络后将训练好的递归神经网络的网络结构信息和网络参数的参数值存储在本地。如果不同,则第一训练步骤的执行主体可以在训练得到递归神经网络后,将训练好的递归神经网络的网络结构信息和网络参数的参数值发送给用于输出信息的方法的执行主体。
这里,第一训练步骤的执行主体可以首先确定初始递归神经网络的网络结构。可以理解的是,初始递归神经网络至少需要输入层、隐藏层和输出层。那么这里需要确定初始递归神经网络包括多少个隐藏层,多少个输出层,各个层与层之间的连接顺序关系,每层都包括哪些神经元,同一个网络内部输入层到隐藏层的权重和偏置,同一个网络内部隐藏层与隐藏层之间的权重和偏置,同一个网络内排序最后的隐藏层到输出层之间的权重,以及相邻两个网络中前一个网络的隐藏层到后一个网络的隐藏层之间的权重。
然后,第一训练步骤的执行主体可以初始化初始递归神经网络的网络参数。实践中,可以将递归神经网络的各个网络参数(例如,权重参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证网络不会因权重过大而进入饱和状态,从而导致训练失败,“不同”用来保证网络可以正常地学习。
步骤402,获取第一训练样本集。
这里,第一训练步骤的执行主体可以本地或者远程地从与上述执行主体网络连接的其他电子设备获取第一训练样本集。其中,第一训练样本包括可以样本历史行为信息序列和标注未来行为信息。
实践中,第一训练步骤的执行主体也可以先执行步骤402再执行步骤401,本申请对此不做具体限定。
步骤403,对于第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为初始递归神经网络的输入和期望输出,利用监督学习方法训练初始递归神经网络。
具体地,第一训练步骤的执行主体可以对于第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列输入初始递归神经网络,得到与该第一训练样本对应的未来行为信息,再利用预设的损失函数计算所得到的未来行为信息与该第一训练样本中的标注未来行为信息之间的差异,例如,可以采用L2范数作为损失函数计算所得到的未来行为信息与该第一训练样本中的标注未来行为信息之间的差异,最后,可以基于计算所得的差异,调整初始递归神经网络的网络参数,并在满足预设的第一训练结束条件的情况下,结束第一训练步骤。例如,这里预设的第一训练结束条件可以包括以下至少一项:训练时间超过第一预设时长,训练次数超过第一预设次数,计算所得的差异小于第一预设差异阈值。
这里,可以采用各种实现方式基于计算所得到的未来行为信息与该第一训练样本中的标注未来行为信息之间的差异调整初始递归神经网络的网络参数。例如,可以采用BP(Back Propagation,反向传播)算法或者SGD(Stochastic Gradient Descent,随机梯度下降)算法来调整初始神经网络的网络参数。
实践中,具有类似属性特征的不同用户之间更大可能性具有类似的行为特征。例如,相同职业的用户可能具有类似的行为特征,比如,医生经常去的地方是医院,经常浏览的网站可能是医疗相关的网站,学生就经常去的地方可能是学校,经常浏览的网页可能是学习相关、知识相关的网站,经常购买的产品为书籍和学习用品等等。又例如,爱好相同的用户也可能具有类似的行为特征,比如,爱好古玩的用户经常去的地方可能是各种古玩市场,经常浏览的网站可能是介绍古玩知识的网站,经常购买的物品可能是各种古玩,而爱好流行歌曲的用户经常去的地方可能是各种体育场馆,经常浏览的可能是各位歌星的微博,经常购买的可能是歌星的演唱会门票等等。同理,具有不同属性特征的不同用户之间更大可能具有不同的行为特征。故此,可以利用不同用户的历史行为信息序列和用户之间的未来行为相似度数据,再次训练上述初始递归神经网络,以加强初始递归神经网络预测用户未来行为的准确度。
可选地,预先训练的递归神经网络可以包括输入层、至少两个顺序排列的隐藏层和输出层。这样,上述第一训练步骤的执行主体还可以在步骤403之后,以及步骤404之前,执行以下步骤403A,步骤403B和步骤403C,以利用不同用户的历史行为信息序列和用户之间的未来行为相似度数据,再次训练上述初始递归神经网络,以加强初始递归神经网络预测用户未来行为的准确度。
步骤403A,确定相似度计算模型的模型结构以及初始化相似度计算模型的模型参数。
这里,第一训练步骤的执行主体可以首先确定初始相似度计算模型的模型结构信息。可以理解的是,由于初始相似度计算模型可以包括各种类型用于计算特征之间相似度的模型,对于不同类型的用于计算特征之间相似度的模型,所需要确定的模型结构信息也不相同。例如,如果特征是以特征向量的形式出现的,那么相似度计算模型可以是各种计算向量之间相似度的模型,例如相似度计算模型可以是与以下各种距离负相关(例如,倒数关系)的相似度模型:欧氏距离、曼哈顿距离、切比雪夫距离、闵可夫斯基距离、标准化欧氏距离、马氏距离、汉明距离,又例如相似度计算模型也可以是余弦相似度、杰卡德相似系数、相关系数、信息熵等等。
可选地,这里,相似度计算模型可以为神经网络。当相似度计算模型为神经网络时,需要确定神经网络包括哪些层,层与层之间的连接顺序关系,以及每层都包括哪些神经元,每个神经元对应的权值权重和偏置,每层的激活函数等等。可以理解的是,由于神经网络可以包括各种类型的神经网络,对于不同类型的神经网络所需要确定的网络结构也不相同。
可选地,这里,相似度计算模型可以为全连接网络。当相似度计算模型为全连接网络时,全连接网络用于连接两层神经元,而且所连接的两层之间的所有神经元都有权重连接,因此,需要确定全连接网络的前一层的神经元个数以及后一层的神经元个数,从而可以确定全连接网络中的权重参数个数为M×N个,其中,M为全连接网络的前一层的神经元个数,N为全连接网络的后一层的神经元个数。
然后,第一训练步骤的执行主体可以初始化相似度计算模型的模型参数。实践中,可以将相似度计算模型的各个模型参数用一些不同的小随机数进行初始化。
步骤403B,获取第二训练样本集。
这里,第一训练步骤的执行主体可以本地或者远程地从与上述执行主体网络连接的其他电子设备获取第二训练样本集。其中,第二训练样本可以包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,这里,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度。
实践中,第一训练步骤的执行主体也可以先执行步骤403B再执行步骤403A,本申请对此不做具体限定。
步骤403C,对于第二训练样本集中的第二训练样本,执行调参步骤。
这里,第一训练步骤的执行主体可以对于步骤403B所获取的第二训练样本集中的第二训练样本,执行调参步骤。具体地,调参步骤可以包括:
第一步,分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列。
第二步,分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络。
第三步,将第一样本用户未来行为特征和第二样本用户未来行为特征输入相似度计算模型,得到特征相似度。
这里,上述第一样本用户未来行为特征和第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络后,初始递归神经网络中排序最后的隐藏层的输出。即,如果上述第一样本用户未来行为特征和第二样本用户未来行为特征还没有经过初始递归神经网络的输出层的处理,如果经过初始递归神经网络的输出层之后将会得到第一样本用户未来行为信息和第一样本用户未来行为信息,即,初始递归神经网络的输出层用于将行为特征映射到行为信息空间。
第四步,基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整初始递归神经网络的网络参数和相似度计算模型的模型参数。
经过步骤403A到步骤403C,已经利用不同用户的历史行为信息序列和用户之间的未来行为相似度数据,在步骤403所得到的初始递归神经网络的基础上,再次优化了初始递归神经网络的网络参数,相对于执行步骤403A到步骤403C之前,提高了初始递归神经网络预测用户未来行为的准确度。
步骤404,将训练得到的初始递归神经网络确定为预先训练的递归神经网络。
这里,第一训练步骤的执行主体可以将训练得到的初始递归神经网络确定为预先训练的递归神经网络。
在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络也可以是通过第二训练步骤得到的。具体地,请参考图5,图5示出了根据本申请的第二训练步骤的一个实施例的流程500,该第二训练步骤,包括以下步骤:
步骤501,确定初始递归神经网络的网络结构以及初始化初始递归神经网络的网络参数。
这里,第二训练步骤的执行主体可以与用于输出信息的方法的执行主体相同或者不同。如果相同,则第二训练步骤的执行主体可以在训练得到递归神经网络后将训练好的递归神经网络的网络结构信息和网络参数的参数值存储在本地。如果不同,则第二训练步骤的执行主体可以在训练得到递归神经网络后,将训练好的递归神经网络的网络结构信息和网络参数的参数值发送给用于输出信息的方法的执行主体。
这里,步骤501的具体操作与图4所示的实施例中步骤401的操作基本相同,在此不再赘述。
步骤502,确定相似度计算模型的模型结构以及初始化相似度计算模型的模型参数。
这里,步骤502的具体操作与图4所示的实施例中步骤403A的操作基本相同,在此不再赘述。
步骤503,获取第二训练样本集。
这里,第二训练步骤的执行主体可以本地或者远程地从与上述执行主体网络连接的其他电子设备获取第二训练样本集。其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度。
步骤504,对于第二训练样本集中的第二训练样本,执行调参步骤。
这里,第二训练步骤的执行主体可以对于步骤503所获取的第二训练样本集中的第二训练样本,执行调参步骤。具体地,调参步骤可以包括:
第一步,分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列。
第二步,分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络。
第三步,将第一样本用户未来行为特征和第二样本用户未来行为特征输入相似度计算模型,得到特征相似度。
这里,上述第一样本用户未来行为特征和第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入初始递归神经网络后,初始递归神经网络中排序最后的隐藏层的输出。即,如果上述第一样本用户未来行为特征和第二样本用户未来行为特征还没有经过初始递归神经网络的输出层的处理,如果经过初始递归神经网络的输出层之后将会得到第一样本用户未来行为信息和第一样本用户未来行为信息,即,初始递归神经网络的输出层用于将行为特征映射到行为信息空间。
第四步,基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整初始递归神经网络的网络参数和相似度计算模型的模型参数。
步骤505,将训练得到的初始递归神经网络确定为预先训练的递归神经网络。
经过步骤501到步骤505,利用不同用户的历史行为信息序列和用户之间的未来行为相似度数据,训练了初始递归神经网络。
步骤204,输出目标用户的未来行为信息。
在本实施例中,上述执行主体可以在得到目标用户的未来行为信息后,以各种方式将目标用户的未来行为信息进行输出。例如,如果在步骤201中上述执行主体是从终端设备接收到目标用户的历史行为信息序列的,那么上述执行主体可以将目标用户的未来行为信息发送给上述终端设备。又例如,如果步骤201中是从上述执行主体本地获取目标用户的历史行为信息序列的,那么上述执行主体可以将目标用户的未来行为信息输出给上述执行主体中安装的需要目标用户的未来行为信息的应用中的相应功能模块。
继续参见图6,图6是根据本实施例的用于输出信息的方法的应用场景的一个示意图。在图6的应用场景中,服务器601首先从终端设备602获取目标用户的历史行为信息序列603,然后服务器601对目标用户的历史行为信息序列603进行特征提取,得到目标用户的历史行为特征序列604,接着,服务器601将历史行为特征序列604输入预先训练的递归神经网络605,得到目标用户的未来行为信息606,最后,服务器601将目标用户的未来行为信息606发送给终端设备602。
本申请的上述实施例提供的方法通过对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列,然后将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系,最后输出目标用户的未来行为特征。从而有效利用了递归神经网络处理时序数据的特点,实现了根据用户的历史行为信息序列对用户的各种未来行为信息的预测,而不再只是单一性地预测位置信息。
进一步参考图7,作为对上述各图所示方法的实现,本申请提供了一种用于输出信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的用于输出信息的装置700包括:获取单元701、特征提取单元702、预测单元703和输出单元704。其中,获取单元701,被配置成获取目标用户的历史行为信息序列;特征提取单元702,被配置成对上述目标用户的历史行为信息序列进行特征提取,得到上述目标用户的历史行为特征序列;预测单元703,被配置成将上述历史行为特征序列输入预先训练的递归神经网络,得到上述目标用户的未来行为信息,其中,上述递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;输出单元704,被配置成输出上述目标用户的未来行为信息。
在本实施例中,用于输出信息的装置700的获取单元701、特征提取单元702、预测单元703和输出单元704的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络包括:输入层、至少两个隐藏层和输出层,上述至少两个隐藏层包括普通隐层和栈式隐层,栈式隐层是接收上述预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是上述至少一个隐藏层中除栈式隐藏层之外的其他隐藏层,上述输出层用于将上述预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络可以是通过如下第一训练步骤得到的:确定初始递归神经网络的网络结构以及初始化上述初始递归神经网络的网络参数;获取第一训练样本集,其中,第一训练样本包括样本历史行为信息序列和标注未来行为信息;对于上述第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为上述初始递归神经网络的输入和期望输出,利用监督学习方法训练上述初始递归神经网络;将训练得到的上述初始递归神经网络确定为上述预先训练的递归神经网络。
在本实施例的一些可选的实现方式中,上述预先训练的递归神经网络可以包括输入层、至少一个顺序排列的隐藏层和输出层;以及在将训练得到的上述初始递归神经网络确定为上述预先训练的递归神经网络之前,上述第一训练步骤还可以包括:确定相似度计算模型的模型结构以及初始化上述相似度计算模型的模型参数;获取第二训练样本集,其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度;对于上述第二训练样本集中的第二训练样本,执行以下调参步骤:分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列;分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入上述初始递归神经网络;将第一样本用户未来行为特征和第二样本用户未来行为特征输入上述相似度计算模型,得到特征相似度,其中,上述第一样本用户未来行为特征和上述第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入上述初始递归神经网络后,上述初始递归神经网络中排序最后的隐藏层的输出;基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整上述初始递归神经网络的网络参数和上述相似度计算模型的模型参数。
在本实施例的一些可选的实现方式中,上述特征提取单元可以进一步被配置成:将上述目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到上述目标用户的历史行为特征序列。
在本实施例的一些可选的实现方式中,上述相似度计算模型可以为神经网络。
在本实施例的一些可选的实现方式中,上述相似度模型可以为全连接网络。
需要说明的是,本申请实施例提供的用于输出信息的装置中各单元的实现细节和技术效果可以参考本申请中其它实施例的说明,在此不再赘述。
下面参考图8,其示出了适于用来实现本申请实施例的电子设备的计算机系统800的结构示意图。图8示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统800包括中央处理单元(CPU,Central Processing Unit)801,其可以根据存储在只读存储器(ROM,Read Only Memory)802中的程序或者从存储部分808加载到随机访问存储器(RAM,Random Access Memory)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM802以及RAM 803通过总线804彼此相连。输入/输出(I/O,Input/Output)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid Crystal Display)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN(局域网,Local AreaNetwork)卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、特征提取单元、预测单元和输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标用户的历史行为信息序列的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取目标用户的历史行为信息序列;对目标用户的历史行为信息序列进行特征提取,得到目标用户的历史行为特征序列;将历史行为特征序列输入预先训练的递归神经网络,得到目标用户的未来行为信息,其中,递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;输出目标用户的未来行为信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种用于输出信息的方法,包括:
获取目标用户的历史行为信息序列;
对所述目标用户的历史行为信息序列进行特征提取,得到所述目标用户的历史行为特征序列;
将所述历史行为特征序列输入预先训练的递归神经网络,得到所述目标用户的未来行为信息,其中,所述递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;
输出所述目标用户的未来行为信息。
2.根据权利要求1所述的方法,所述预先训练的递归神经网络包括:输入层、至少两个隐藏层和输出层,所述至少两个隐藏层包括普通隐层和栈式隐层,栈式隐层是接收所述预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是所述至少一个隐藏层中除栈式隐藏层之外的其他隐藏层,所述输出层用于将所述预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
3.根据权利要求2所述的方法,其中,所述预先训练的递归神经网络是通过如下第一训练步骤得到的:
确定初始递归神经网络的网络结构以及初始化所述初始递归神经网络的网络参数;
获取第一训练样本集,其中,第一训练样本包括样本历史行为信息序列和标注未来行为信息;
对于所述第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为所述初始递归神经网络的输入和期望输出,利用监督学习方法训练所述初始递归神经网络;
将训练得到的所述初始递归神经网络确定为所述预先训练的递归神经网络。
4.根据权利要求3所述的方法,其中,在将训练得到的所述初始递归神经网络确定为所述预先训练的递归神经网络之前,所述第一训练步骤还包括:
确定相似度计算模型的模型结构以及初始化所述相似度计算模型的模型参数;
获取第二训练样本集,其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度;
对于所述第二训练样本集中的第二训练样本,执行以下调参步骤:分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列;分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入所述初始递归神经网络;将第一样本用户未来行为特征和第二样本用户未来行为特征输入所述相似度计算模型,得到特征相似度,其中,所述第一样本用户未来行为特征和所述第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入所述初始递归神经网络后,所述初始递归神经网络中排序最后的隐藏层的输出;基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整所述初始递归神经网络的网络参数和所述相似度计算模型的模型参数。
5.根据权利要求1-4中任一所述的方法,其中,所述对所述目标用户的历史行为信息序列进行特征提取,得到所述目标用户的历史行为特征序列,包括:
将所述目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到所述目标用户的历史行为特征序列。
6.根据权利要求4所述的方法,其中,所述相似度计算模型为神经网络。
7.根据权利要求6所述的方法,其中,所述相似度模型为全连接网络。
8.一种用于输出信息的装置,包括:
获取单元,被配置成获取目标用户的历史行为信息序列;
特征提取单元,被配置成对所述目标用户的历史行为信息序列进行特征提取,得到所述目标用户的历史行为特征序列;
预测单元,被配置成将所述历史行为特征序列输入预先训练的递归神经网络,得到所述目标用户的未来行为信息,其中,所述递归神经网络用于表征历史行为特征序列与未来行为信息之间的对应关系;
输出单元,被配置成输出所述目标用户的未来行为信息。
9.根据权利要求8所述的装置,所述预先训练的递归神经网络包括:输入层、至少两个隐藏层和输出层,所述至少两个隐藏层包括普通隐层和栈式隐层,栈式隐层是接收所述预先训练的递归神经网络的上一时刻的隐藏层的输出作为输入的层,普通隐层是所述至少一个隐藏层中除栈式隐藏层之外的其他隐藏层,所述输出层用于将所述预先训练的递归神经网络的最后一个隐藏层的输出映射到行为信息空间。
10.根据权利要求9所述的装置,其中,所述预先训练的递归神经网络是通过如下第一训练步骤得到的:
确定初始递归神经网络的网络结构以及初始化所述初始递归神经网络的网络参数;
获取第一训练样本集,其中,第一训练样本包括样本历史行为信息序列和标注未来行为信息;
对于所述第一训练样本集中的第一训练样本,对该第一训练样本中的样本历史行为信息序列进行特征提取,得到样本历史行为特征序列,将所得到的样本历史行为特征序列和该第一训练样本中的标注未来行为信息分别作为所述初始递归神经网络的输入和期望输出,利用监督学习方法训练所述初始递归神经网络;
将训练得到的所述初始递归神经网络确定为所述预先训练的递归神经网络。
11.根据权利要求10所述的装置,其中,在将训练得到的所述初始递归神经网络确定为所述预先训练的递归神经网络之前,所述第一训练步骤还包括:
确定相似度计算模型的模型结构以及初始化所述相似度计算模型的模型参数;
获取第二训练样本集,其中,第二训练样本包括第一样本用户历史行为信息序列、第二样本用户历史行为信息序列和标注相似度,其中,标注相似度用于表征第一样本用户的标注未来行为信息与第二样本用户的标注未来行为信息之间的相似度;
对于所述第二训练样本集中的第二训练样本,执行以下调参步骤:分别对该第二训练样本中的第一样本用户历史行为信息序列和第二样本用户历史行为信息序列进行特征提取,得到第一样本用户历史行为特征序列和第二样本用户历史行为特征序列;分别将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入所述初始递归神经网络;将第一样本用户未来行为特征和第二样本用户未来行为特征输入所述相似度计算模型,得到特征相似度,其中,所述第一样本用户未来行为特征和所述第二样本用户未来行为特征分别是将所得到的第一样本用户历史行为特征序列和第二样本用户历史行为特征序列输入所述初始递归神经网络后,所述初始递归神经网络中排序最后的隐藏层的输出;基于所得到的特征相似度与该第二训练样本中的标注相似度之间的差异,调整所述初始递归神经网络的网络参数和所述相似度计算模型的模型参数。
12.根据权利要求8-11中任一所述的装置,其中,所述特征提取单元进一步被配置成:
将所述目标用户的历史行为信息序列中的历史行为信息输入预先训练的卷积神经网络,得到所述目标用户的历史行为特征序列。
13.根据权利要求11所述的装置,其中,所述相似度计算模型为神经网络。
14.根据权利要求13所述的装置,其中,所述相似度模型为全连接网络。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被一个或多个处理器执行时实现如权利要求1-7中任一所述的方法。
CN201810563417.7A 2018-06-04 2018-06-04 用于输出信息的方法和装置 Pending CN110555714A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810563417.7A CN110555714A (zh) 2018-06-04 2018-06-04 用于输出信息的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810563417.7A CN110555714A (zh) 2018-06-04 2018-06-04 用于输出信息的方法和装置

Publications (1)

Publication Number Publication Date
CN110555714A true CN110555714A (zh) 2019-12-10

Family

ID=68735984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810563417.7A Pending CN110555714A (zh) 2018-06-04 2018-06-04 用于输出信息的方法和装置

Country Status (1)

Country Link
CN (1) CN110555714A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080360A (zh) * 2019-12-13 2020-04-28 中诚信征信有限公司 行为预测方法、模型训练方法、装置、服务器及存储介质
CN111176750A (zh) * 2019-12-17 2020-05-19 北京三快在线科技有限公司 资源包发送方法、装置、电子设备和计算机可读介质
CN111191834A (zh) * 2019-12-26 2020-05-22 北京摩拜科技有限公司 用户行为的预测方法、装置及服务器
CN111291125A (zh) * 2020-02-18 2020-06-16 广州腾讯科技有限公司 一种数据处理方法及相关设备
CN111401940A (zh) * 2020-03-05 2020-07-10 杭州网易再顾科技有限公司 特征预测方法、装置、电子设备及存储介质
CN111429215A (zh) * 2020-03-18 2020-07-17 北京互金新融科技有限公司 数据的处理方法和装置
CN111709785A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于确定用户留存时间的方法、装置、设备和介质
CN111709786A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于生成用户留存时间的方法、装置、设备和介质
CN111709787A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于生成用户留存时间的方法、装置、电子设备和介质
CN111753897A (zh) * 2020-06-17 2020-10-09 贝壳技术有限公司 一种标识续命方法、装置、电子设备及其存储介质
CN112418559A (zh) * 2020-12-09 2021-02-26 贵州优策网络科技有限公司 一种用户选择行为预测方法及装置
CN112907305A (zh) * 2021-04-13 2021-06-04 长沙银行股份有限公司 基于大数据分析的客户全周期管理系统
CN113268641A (zh) * 2020-12-14 2021-08-17 王玉华 基于大数据的用户数据处理方法及大数据服务器
CN113497717A (zh) * 2020-03-19 2021-10-12 中国移动通信有限公司研究院 网络流量的预测方法、装置、设备及存储介质
CN114119989A (zh) * 2021-11-29 2022-03-01 北京百度网讯科技有限公司 图像特征提取模型的训练方法、装置及电子设备
CN114267440A (zh) * 2022-03-01 2022-04-01 四川大学华西医院 医疗订单信息处理方法、装置和计算机可读存储介质
WO2022151876A1 (zh) * 2021-01-15 2022-07-21 北京字节跳动网络技术有限公司 应用程序的测试控制方法、装置、电子设备及存储介质
CN115408449A (zh) * 2022-10-28 2022-11-29 支付宝(杭州)信息技术有限公司 一种用户行为的处理方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017188089A (ja) * 2016-04-07 2017-10-12 富士通株式会社 行動予測
US20180046920A1 (en) * 2016-08-10 2018-02-15 Paypal, Inc. User Data Learning Based on Recurrent Neural Networks with Long Short Term Memory
CN107705155A (zh) * 2017-10-11 2018-02-16 北京三快在线科技有限公司 一种消费能力预测方法、装置、电子设备及可读存储介质
CN107908789A (zh) * 2017-12-12 2018-04-13 北京百度网讯科技有限公司 用于生成信息的方法和装置
CN108009926A (zh) * 2017-12-07 2018-05-08 上海点融信息科技有限责任公司 用于用户分类的方法、信息处理装置及可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017188089A (ja) * 2016-04-07 2017-10-12 富士通株式会社 行動予測
US20180046920A1 (en) * 2016-08-10 2018-02-15 Paypal, Inc. User Data Learning Based on Recurrent Neural Networks with Long Short Term Memory
CN107705155A (zh) * 2017-10-11 2018-02-16 北京三快在线科技有限公司 一种消费能力预测方法、装置、电子设备及可读存储介质
CN108009926A (zh) * 2017-12-07 2018-05-08 上海点融信息科技有限责任公司 用于用户分类的方法、信息处理装置及可读存储介质
CN107908789A (zh) * 2017-12-12 2018-04-13 北京百度网讯科技有限公司 用于生成信息的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
万丹琳: ""基于中文微博的用户倾向挖掘与分析"", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
刘杨涛: ""基于嵌入式向量和循环神经网络的用户行为预测方法"", 《现代电子技术》 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080360A (zh) * 2019-12-13 2020-04-28 中诚信征信有限公司 行为预测方法、模型训练方法、装置、服务器及存储介质
CN111080360B (zh) * 2019-12-13 2023-12-01 中诚信征信有限公司 行为预测方法、模型训练方法、装置、服务器及存储介质
CN111176750A (zh) * 2019-12-17 2020-05-19 北京三快在线科技有限公司 资源包发送方法、装置、电子设备和计算机可读介质
CN111191834A (zh) * 2019-12-26 2020-05-22 北京摩拜科技有限公司 用户行为的预测方法、装置及服务器
CN111291125B (zh) * 2020-02-18 2024-05-14 广州腾讯科技有限公司 一种数据处理方法及相关设备
CN111291125A (zh) * 2020-02-18 2020-06-16 广州腾讯科技有限公司 一种数据处理方法及相关设备
CN111401940A (zh) * 2020-03-05 2020-07-10 杭州网易再顾科技有限公司 特征预测方法、装置、电子设备及存储介质
CN111401940B (zh) * 2020-03-05 2023-07-04 杭州网易再顾科技有限公司 特征预测方法、装置、电子设备及存储介质
CN111429215A (zh) * 2020-03-18 2020-07-17 北京互金新融科技有限公司 数据的处理方法和装置
CN111429215B (zh) * 2020-03-18 2023-10-31 北京互金新融科技有限公司 数据的处理方法和装置
CN113497717A (zh) * 2020-03-19 2021-10-12 中国移动通信有限公司研究院 网络流量的预测方法、装置、设备及存储介质
CN113497717B (zh) * 2020-03-19 2023-03-31 中国移动通信有限公司研究院 网络流量的预测方法、装置、设备及存储介质
CN111753897A (zh) * 2020-06-17 2020-10-09 贝壳技术有限公司 一种标识续命方法、装置、电子设备及其存储介质
CN111709786A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于生成用户留存时间的方法、装置、设备和介质
CN111709787B (zh) * 2020-06-18 2023-08-22 抖音视界有限公司 用于生成用户留存时间的方法、装置、电子设备和介质
CN111709785A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于确定用户留存时间的方法、装置、设备和介质
CN111709786B (zh) * 2020-06-18 2024-04-30 抖音视界有限公司 用于生成用户留存时间的方法、装置、设备和介质
CN111709787A (zh) * 2020-06-18 2020-09-25 北京字节跳动网络技术有限公司 用于生成用户留存时间的方法、装置、电子设备和介质
CN111709785B (zh) * 2020-06-18 2023-08-22 抖音视界有限公司 用于确定用户留存时间的方法、装置、设备和介质
CN112418559B (zh) * 2020-12-09 2024-05-07 贵州优策网络科技有限公司 一种用户选择行为预测方法及装置
CN112418559A (zh) * 2020-12-09 2021-02-26 贵州优策网络科技有限公司 一种用户选择行为预测方法及装置
CN113268641A (zh) * 2020-12-14 2021-08-17 王玉华 基于大数据的用户数据处理方法及大数据服务器
WO2022151876A1 (zh) * 2021-01-15 2022-07-21 北京字节跳动网络技术有限公司 应用程序的测试控制方法、装置、电子设备及存储介质
CN112907305A (zh) * 2021-04-13 2021-06-04 长沙银行股份有限公司 基于大数据分析的客户全周期管理系统
CN112907305B (zh) * 2021-04-13 2021-11-23 长沙银行股份有限公司 基于大数据分析的客户全周期管理系统
CN114119989B (zh) * 2021-11-29 2023-08-11 北京百度网讯科技有限公司 图像特征提取模型的训练方法、装置及电子设备
CN114119989A (zh) * 2021-11-29 2022-03-01 北京百度网讯科技有限公司 图像特征提取模型的训练方法、装置及电子设备
CN114267440B (zh) * 2022-03-01 2022-06-14 四川大学华西医院 医疗订单信息处理方法、装置和计算机可读存储介质
CN114267440A (zh) * 2022-03-01 2022-04-01 四川大学华西医院 医疗订单信息处理方法、装置和计算机可读存储介质
CN115408449B (zh) * 2022-10-28 2023-03-07 支付宝(杭州)信息技术有限公司 一种用户行为的处理方法、装置及设备
CN115408449A (zh) * 2022-10-28 2022-11-29 支付宝(杭州)信息技术有限公司 一种用户行为的处理方法、装置及设备

Similar Documents

Publication Publication Date Title
CN110555714A (zh) 用于输出信息的方法和装置
US11164573B2 (en) Method and apparatus for controlling page
CN109460514B (zh) 用于推送信息的方法和装置
CN110796190B (zh) 具有深度学习特征的指数建模
US11714993B2 (en) Classifying input examples using a comparison set
CN112732911B (zh) 基于语义识别的话术推荐方法、装置、设备及存储介质
CN109947919B (zh) 用于生成文本匹配模型的方法和装置
CN110766142A (zh) 模型生成方法和装置
CN108197652B (zh) 用于生成信息的方法和装置
US20240029436A1 (en) Action classification in video clips using attention-based neural networks
CN108920717B (zh) 用于显示信息的方法及装置
CN111666416A (zh) 用于生成语义匹配模型的方法和装置
CN108121699B (zh) 用于输出信息的方法和装置
CN106354856B (zh) 基于人工智能的深度神经网络强化搜索方法和装置
CN112541124A (zh) 生成多任务模型的方法、装置、设备、介质及程序产品
CN108268450B (zh) 用于生成信息的方法和装置
CN112149699B (zh) 用于生成模型的方法、装置和用于识别图像的方法、装置
CN114841142A (zh) 文本生成方法、装置、电子设备和存储介质
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
CN109190123A (zh) 用于输出信息的方法和装置
WO2023050143A1 (zh) 一种推荐模型训练方法及装置
CN109582854B (zh) 用于生成信息的方法和装置
CN112307738B (zh) 用于处理文本的方法和装置
US11962662B2 (en) Method and apparatus for pushing information
CN111090740B (zh) 一种用于对话系统的知识图谱生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191210

RJ01 Rejection of invention patent application after publication