CN111709785A - 用于确定用户留存时间的方法、装置、设备和介质 - Google Patents

用于确定用户留存时间的方法、装置、设备和介质 Download PDF

Info

Publication number
CN111709785A
CN111709785A CN202010558651.8A CN202010558651A CN111709785A CN 111709785 A CN111709785 A CN 111709785A CN 202010558651 A CN202010558651 A CN 202010558651A CN 111709785 A CN111709785 A CN 111709785A
Authority
CN
China
Prior art keywords
user
application
time
data
long
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010558651.8A
Other languages
English (en)
Other versions
CN111709785B (zh
Inventor
孙振邦
周杰
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010558651.8A priority Critical patent/CN111709785B/zh
Publication of CN111709785A publication Critical patent/CN111709785A/zh
Application granted granted Critical
Publication of CN111709785B publication Critical patent/CN111709785B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开的实施例公开了一种用于确定用户留存时间的方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。该实施方式实现了对用户在未来预定时间内使用应用的时间的有效、准确的确定,便捷了对应用的相关处理。

Description

用于确定用户留存时间的方法、装置、设备和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于确定用户留存时间的方法、装置、设备和计算机可读介质。
背景技术
目前,提供应用的企业越来越关注在未来预定时间内用户使用应用的时间,也即用户留存时间。其中,用户留存时间可以分为短时间留存和长时间留存。短时间留存一般指的是用户初步了解应用之后的留存。也就是说,应用下载后用了一下,并没有马上删掉或者短期内选择删掉。这通常说明应用对用户自己不适用或者应用还不够成熟。而长时间留存一般指的是用户下载和使用应用达到一定时长。因此,用户的留存时间的确定常常成为应用是否受欢迎的关键指标。然而,目前缺乏对用户留存时间的确定的相对准确、有效的方法。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于确定用户留存时间的方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种用于确定用户留存时间的方法,该方法包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
第二方面,本公开的一些实施例提供了一种用于确定用户的留存时间的装置,装置包括:处理单元,被配置成对获得的用户特征的数据进行预处理;输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先,对获得的用户特征的数据进行预处理,来消除上述数据的单位限制。然后将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。在这里,需要强调的是,上述循环神经网络不仅将时序信息考虑进去,而且可以处理长期依赖信息,进而准确、有效的预估未来预定时间内用户使用应用的时间。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是本公开的一些实施例的用于确定用户留存时间的一个应用场景图的示意图;
图2是根据本公开的用于确定用户留存时间的方法的一些实施例的流程图;
图3是根据本公开的用于确定用户留存时间的方法的另一些实施例的流程图;
图4是根据本公开的用于确定用户留存时间的方法的另一些实施例的循环神经网络的模型训练图;
图5是根据本公开的用于确定用户留存时间的装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开的一些实施例的用于确定用户留存时间的方法的一个应用场景的示意图100。
如图1所示,如图1所示,作为示例,获得的用户特征的数据101 为“用户停留时间超过预定时间的文章数目:16篇;用户使用应用的时间:6h;用户目标时间段内打开上述应用的次数:15次;用户点击文章的篇数:24篇;应用推送给上述用户的文章篇数:66篇;用户完整阅读文章的篇数:12篇;用户在上述应用内操作的次数:57次;用户分享文章的篇数:14篇;用户是否使用账号登陆过:是”。经过数据预处理后,将数据101转换为数据102。作为示例,数据102可以是“0.08,0.02,0.07,0.02,0.20,0.40,0.08,0.51,0.12”。进而将上述数据102输入至电子设备103。上述电子设备103利用预先训练的处理长期依赖信息的循环神经网络对数据102进行处理,得到输出 104,用于表示在未来预定时间内用户使用应用的时间。例如,图中的输出104为“未来7天使用应用时间:1.4天;未来28天使用应用时间:7.4天;未来56天使用应用时间:18天;未来180天使用应用时间:24天”。
可以理解的是,确定用户留存时间的方法可以是由上述电子设备 103来执行。其中,电子设备103可以是硬件,也可以是软件。当电子设备103为硬件时,可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机、台式计算机、服务器等等。当电子设备103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
继续参考图2,示出了根据本公开的用于确定用户留存时间的方法的一些实施例的流程200。该用于确定用户留存时间的方法,包括以下步骤:
步骤201,对获得的用户特征的数据进行预处理。
在一些实施例中,用于确定用户留存时间的方法的执行主体(例如图1所示的电子设备)可以通过各种方式对获得的用户特征的数据进行预处理。在这里,用户特征可以是对用户的操作行为进行描述的特征。其中,对于数据的预处理可以包括但不限于以下至少一项:数据标准化,数据归一化,数据二值化,独热编码。作为示例,可以对获得的用户特征的数据进行数据归一化,从而把用户特征的数据的取值限定在规定范围内。通过上述预处理,可以实现多种目的,例如侧面提升模型的精确度。
在一些实施例的一些可选的实现方式中,上述用户特征可以包括但不限于以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
在一些实施例的一些可选的实现方式中,对获得的用户特征的数据进行预处理,可以包括将上述用户特征的数据进行数据标准化。其中,上述数据标准化后的数据分布符合标准正态分布,即均值为0,标准差为 1。上述标准化的转化函数可以为X=(x-μ)/σ,其中,X为标准化后的数据,x为标准化之前的用户特征数据,μ为上述用户特征数据的均值,σ为上述用户特征数据的标准差。作为示例,对于上述用户停留时间超过预定时间的文章数目,在所有用户群体上统计其均值为37,标准差为48。将数据输入到循环神经网络之前,会将这个数据减去37,再除以48。
步骤202,将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
在一些实施例中,上述执行主体可以首先获取已预处理过的上述用户特征的数据,之后将上述数据输入至预先训练的处理长期依赖信息的循环神经网络中,输出在未来预定时间内用户使用应用的时间。其中,上述处理长期依赖信息的循环神经网络(Recurrent Neural Network,RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneural network)。在这里,循环神经网络可以是含有多层隐藏层的网络结构。含有多层隐藏层的循环神经网络可以极大提高循环神经网络的学习能力。除此之外,循环神经网络采用多对一的网络结构。多对一的网络结构指得是网络结构有多个输入和一个输出。上述循环神经网络的输入可以是预定数量用户每天使用应用的数据,输出可以是未来预定时间用户使用应用的数据。作为示例,可以通过各种方式将预处理后的数据输入至预先训练的处理时序数据的循环神经网络,输出在未来预定时间内用户使用应用的时间。
需要说明的是,长期依赖信息可以是指在处理长时间序列问题时,由于梯度消失造成的较远信息对当前时刻状态几乎不产生影响。对于一段长文本而言,其中的语言含义可能存在于开头和结尾的两个词上,但是通常的神经网络由于梯度消失问题,没办法建立起相应的语义联系。在这里,上述处理长期依赖信息的循环神经网络可以是循环神经网络,可以学习到长期依赖信息。
由上述示例可以看出,首先,对获得的用户特征的数据进行预处理,来消除上述数据的单位限制。然后将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。在这里,需要强调的是,上述循环神经网络不仅将时序信息考虑进去,而且可以处理长期依赖信息,进而准确、有效的预估未来预定时间内用户使用应用的时间。
继续参考图3,示出了根据本公开的确定用户留存时间的方法的另一些实施例的流程300。该确定用户留存时间的方法,包括以下步骤:
步骤301,对获得的用户特征的数据进行预处理。
在一些实施例中,步骤301的具体实现及所带来的技术效果可以参考图2对应的那些实施例中的步骤201,在此不再赘述
步骤302,将预处理后用户特征数据输入至第一全连接网络,得到第一输出结果。
在一些实施例中,上述循环神经网络可以包括第一全连接网络、长短期记忆网络(LSTM,Long Short-Term Memory networks)和第二全连接网络。上述执行主体可以将预处理后的数据输入至上述第一全连接网络,得到第一输出结果。在这里,上述第一全连接网络可以是至少两层全连接层的级联。上述第一全连接网络作用在于提升数据维度,用于提取更多的上述用户特征信息。在这里,上述第一全连接网络中可以采用随机失活(dropout)以防止过拟合。具体地,上述第一全连接网络中采用随机失活可以是在训练过程中丢弃第一全连接网络中隐藏层中的一定比例的神经元。在验证过程中,所有的神经元会全部保留,不再丢弃。
在一些实施例的一些可选的实现方式中,上述长短期记忆网络中的隐藏层层数至少为两层。
步骤303,将第一输出结果输入至长短期记忆网络。
在一些实施例的中,上述执行主体将上述第一输出结果输入至上述循环神经网络包括的长短期记忆网络。在这里,可以采用多层长短期记忆网络可以使用户的留存时间的确定更精确。其中,上述多层长短期记忆网络在训练过程中采用了随机失活。其中,采用多层长短期记忆网络目的在于增加网络的时序性,把用户预定时间内的特征信息关联起来。
除此之外,相对于其它循环神经网络,上述长短期记忆神经网络对于处理长期依赖问题有较好的效果,对于用户留存时间的预测更为精准。其中,上述长短期记忆神经网络包括遗忘门,输入门,输出门。上述遗忘门可以决定应丢弃或保留哪些信息。来自先前隐藏状态的信息和当前输入的信息同时输入到Sigmoid函数,输出值处于0和1之间,越接近0意味着越应该忘记,越接近1意味着越应该保留。上述输入门用来更新单元状态。先将先前隐藏状态的信息和当前输入的信息输入到Sigmoid函数,在0和1之间调整输出值来决定更新哪些信息,0表示不重要,1表示重要。也可将隐藏状态和当前输入传输给 Tanh函数,并在-1和1之间压缩数值以调节网络,然后把Tanh输出和Sigmoid输出相乘,Sigmoid输出将决定在Tanh输出中哪些信息是重要的且需要进行保留。上述输出门能决定下个隐藏状态的值。隐藏状态中包含了先前输入的相关信息。除此之外,隐藏状态也可用于预测。首先把先前的隐藏状态和当前输入传递给Sigmoid函数。接着把新得到的单元状态传递给Tanh函数。然后把Tanh输出和Sigmoid输出相乘,以确定隐藏状态应携带的信息。最后把隐藏状态作为当前单元输出,把新的单元状态和新的隐藏状态传输给下个时间步。
在训练过程中,多层长短期记忆网络会随机丢弃一定比例的隐藏层中的神经元。被丢弃的神经元输出为0。在这里,神经元被丢弃的概率可以是0.6。在验证过程中,所有的神经元会全部保留,不再丢弃。
步骤304,对上述长短期记忆网络的输出结果进行数据重新组织,得到第二输出结果。
在一些实施例中,对上述长短期记忆网络的输出结果进行数据重新组织(reshape),得到第二输出结果。数据重新组织是对数据的维度进行调整。进行上述数据重新组织的目的在于保证前后数据维度的一致。
步骤305,将第二输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间。
在一些实施例中,上述执行主体将上述第二输出结果输入至上述循环神经网络包括的第二全连接网络,输出用户未来在预定时间内使用上述应用的时间,其中,上述第二全连接网络在训练过程中采用了随机失活。其中,第二全连接网络包括多层全连接层和激活函数层。在这里,激活函数层使用的激活函数可以是激活函数S型生长曲线 (Sigmoid)。最后,数据经过上述第二全连接网络,归一到0-1之间。在这里,0-1之间的数字代表着用户在未来预定时间内使用天数的比例。例如,在用户未来180天内,输出数字0.7代表着用户在未来180 天内会有126天的时间在使用应用。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3 对应的一些实施例中的确定用户留存时间的方法的流程300更加突出了循环神经网络包括多个全连接层和长短时记忆网络的具体结构。由此,这些实施例描述的方案可以体现循环神经网络的网络结构包括多层全连接层和上述长短时记忆网络。其中,上述多层全连接层的加入大大的提高了上述循环神经网络的非线性学习能力,以及选择上述长短时记忆网络可以解决长期依赖问题和对时序信息的学习,进而进行非线性学习、解决长期依赖问题和对时序信息的学习的循环神经网络可以精准、高效的确定在未来用户使用应用的时间。
继续参考图4,示出了根据本公开的用于确定用户留存时间的方法的另一些实施例的网络模型训练图400,该确定用户留存时间的方法的网络模型的训练,包括:
第一步,设置批次的数量(batch_size)为512。
即每次输入512个用户特征的数据用于训练。每个用户使用50 天的历史特征,可以得到的初始特征为50*9。因此在输入层401的数据为3维矩阵,数据维度为512*50*9。
第二步,将输入层401的数据输入至第一全连接网络402,得到第一输出结果。
上述第一输出结果的数据维度为512*50*64。
第三步,将上述第一输出结果输入至信息划分层403,得到的数据结果是50个512*1*64的向量。其中,上述信息划分层是把用户预定时间的使用应用的数据划分为用户每天使用应用的数据。
第四步,将上述信息划分层的结果输入至第一层长短期记忆网络 4041。第一层长短期记忆网络4041的输出结果的数据维度为 512*1*256。
第五步,将上述第一层长短期记忆网络4041的结果输入至第二层长短期记忆网络4042。第二层长短期记忆网络4042的输出结果的数据维度为512*1*128。
第六步,第二层长短期记忆网络4042的输出结果输入至数据重新组织层405,得到上述第二输出结果,上述第二输出结果的数据的维度为512*128.
第七步,将上述第二输出结果输入至第二全连接网络406,输出第二全连接网络的输出结果,上述输出结果的数据维度为512*4。上述输出结果表征用户在预定时间内使用用户的时间。
在这里,网络模型的训练的优化器可以包括但不限于以下至少一项:批量梯度下降(BGD,Batch Gradient Descent),随机梯度下降(SGD, Stochastic GradientDescent),小批量梯度下降法(MBGD,Mini-batch Gradient Descent),动量优化算法(Momentum),自适应学习率优化算法(AdaGrad,Adaptive Gradient Algorithm),自适应学习率优化算法 (Adam,Adam optimization algorithm)。除此之外,网络模型的训练的学习率可以是0.01。在上述循环神经网络的模型训练阶段可以加入随机失活(dropout)层,在验证阶段可以去掉随机失活层。
继续参考图5,作为对上述各图上述方法的实现,本公开提供了一种用于确定用户留存时间的装置的一些实施例,这些装置实施例与图2上述的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,一些实施例的用于确定用户留存时间的装置500包括:处理单元501和输入输出单元502。其中,处理单元501被配置成对获得的用户特征的数据进行预处理;输入输出单元502,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
在一些实施例的一些可选的实现方式中,处理单元501可以进一步被配置成:对上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
在一些实施例的一些可选的实现方式中,上述循环神经网络包括第一全连接网络、长短期记忆网络和第二全连接网络。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将经过预处理后的数据输入至上述第一全连接网络,得到第一输出结果,其中,上述第一全连接网络在训练过程中采用了随机失活;将上述第一输出结果输入至上述长短期记忆网络,其中,上述长短期记忆网络在训练过程中采用了随机失活;对上述长短期记忆网络的输出结果进行数据重新组织,得到第二输出结果。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将上述第二输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了随机失活。
在一些实施例的一些可选的实现方式中,上述长短期记忆网络中的隐藏层层数至少为两层。
在一些实施例的一些可选的实现方式中,上述用户特征包括以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的电子设备)600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线 604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置 606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP (HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元和输入输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“对获得的用户特征的数据进行预处理的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD) 等等。
根据本公开的一个或多个实施例,提供了一种用于确定用户留存时间的方法,包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
根据本公开的一个或多个实施例,上述循环神经网络包括第一全连接网络、长短期记忆网络和第二全连接网络。
根据本公开的一个或多个实施例,上将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,包括:将经过预处理后的数据输入至上述第一全连接网络,得到第一输出结果,其中,上述第一全连接网络在训练过程中采用了随机失活;将上述第一输出结果输入至上述长短期记忆网络,其中,上述长短期记忆网络在训练过程中采用了随机失活;对上述长短期记忆网络的输出结果进行数据重新组织,得到第二输出结果。
根据本公开的一个或多个实施例,上述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间包括:将上述第二输出结果输入至上述第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了随机失活。
根据本公开的一个或多个实施例,上述对获得的用户特征的数据进行预处理,包括:对上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
根据本公开的一个或多个实施例,上述用户特征包括以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
根据本公开的一个或多个实施例,上述长短期记忆网络中的隐藏层层数至少为两层。
根据本公开的一个或多个实施例,提供了一种用于确定用户留存时间的装置,包括:处理单元,被配置成对获得的用户特征的数据进行预处理;输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
根据本公开的一个或多个实施例,处理单元可以进一步被配置成:对上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
根据本公开的一个或多个实施例,输入输出单元可以进一步被配置成:将经过预处理后的数据输入至上述第一全连接网络,得到第一输出结果,其中,在上述循环神经网络的模型训练过程中,在上述第一全连接网络中采用随机失活;将上述第一输出结果输入至上述长短期记忆网络,其中,上述长短期记忆网络在训练过程中采用了随机失活;对上述长短期记忆网络的输出结果进行数据重新组织,得到第二输出结果。
根据本公开的一个或多个实施例,输入输出单元可以进一步被配置成:将上述第二输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了随机失活。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于确定用户留存时间的方法,包括:
对获得的用户特征的数据进行预处理;
将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
2.根据权利要求1所述的方法,其中,所述循环神经网络包括第一全连接网络、长短期记忆网络和第二全连接网络。
3.根据权利要求2所述的方法,其中,所述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,包括:
将经过预处理后的数据输入至所述第一全连接网络,得到第一输出结果,其中,所述第一全连接网络在训练过程中采用了随机失活;
将所述第一输出结果输入至所述长短期记忆网络,其中,所述长短期记忆网络在训练过程中采用了随机失活;
对所述长短期记忆网络的输出结果进行数据重新组织,得到第二输出结果。
4.根据权利要求3所述的方法,其中,所述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,还包括:
将所述第二输出结果输入至所述第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,所述第二全连接网络在训练过程中采用了随机失活。
5.根据权利要求1所述的方法,其中,所述对获得的用户特征的数据进行预处理,包括:
对所述用户特征的数据进行数据标准化,其中,所述数据标准化后的数据分布符合标准正态分布。
6.根据权利要求1所述的方法,其中,所述用户特征包括以下至少一项:
所述用户停留时间超过预定时间的应用上显示的文章数目,所述用户使用所述应用的时间,所述用户目标时间段内打开所述应用的次数,所述用户是否使用账号登陆过应用,所述用户点击应用上显示的文章的篇数,所述应用推送给所述用户的文章篇数,所述用户完整阅读应用上显示的文章的篇数,所述用户在所述应用内操作的次数,所述用户分享应用上显示的文章的篇数。
7.根据权利要求2所述的方法,其中,所述长短期记忆网络中的隐藏层层数至少为两层。
8.一种用于确定用户留存时间的装置,包括:
处理单元,被配置成对获得的用户特征的数据进行预处理;
输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010558651.8A 2020-06-18 2020-06-18 用于确定用户留存时间的方法、装置、设备和介质 Active CN111709785B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010558651.8A CN111709785B (zh) 2020-06-18 2020-06-18 用于确定用户留存时间的方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010558651.8A CN111709785B (zh) 2020-06-18 2020-06-18 用于确定用户留存时间的方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN111709785A true CN111709785A (zh) 2020-09-25
CN111709785B CN111709785B (zh) 2023-08-22

Family

ID=72541405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010558651.8A Active CN111709785B (zh) 2020-06-18 2020-06-18 用于确定用户留存时间的方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN111709785B (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138436A1 (en) * 2011-11-26 2013-05-30 Microsoft Corporation Discriminative pretraining of deep neural networks
EP2723106A1 (en) * 2012-10-19 2014-04-23 Facebook, Inc. Method, storage medium and apparatus for predicting the future state of a mobile device user
US20160078471A1 (en) * 2014-08-28 2016-03-17 Jehan Hamedi Systems and Methods for Determining an Agility Rating Indicating a Responsiveness of an Author to Recommended Aspects for Future Content, Actions, or Behavior
CN106201686A (zh) * 2016-06-30 2016-12-07 北京小米移动软件有限公司 应用的管理方法、装置及终端
WO2018045021A1 (en) * 2016-09-01 2018-03-08 Goldman Sachs & Co. LLC Systems and methods for learning and predicting time-series data using deep multiplicative networks
WO2018154482A1 (en) * 2017-02-22 2018-08-30 Appnext Ltd. System and method for real-time generation of predictive models of mobile users' behavior
CN108765010A (zh) * 2018-05-29 2018-11-06 腾讯科技(深圳)有限公司 用户留存概率预测方法、装置、预测服务器及存储介质
CN109509017A (zh) * 2018-09-27 2019-03-22 中国平安人寿保险股份有限公司 基于大数据分析的用户留存率预测方法及装置
EP3486771A1 (en) * 2017-11-20 2019-05-22 Guangdong Oppo Mobile Telecommunications Corp., Ltd Prediction of applications to be preloaded based on observed user behaviour and the order of starting the applications
JP2019086475A (ja) * 2017-11-09 2019-06-06 富士通株式会社 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置
CN110264262A (zh) * 2019-06-18 2019-09-20 北京字节跳动网络技术有限公司 基于用户行为的数据处理方法、装置及电子设备
CN110555714A (zh) * 2018-06-04 2019-12-10 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN110866628A (zh) * 2018-08-28 2020-03-06 北京京东尚科信息技术有限公司 利用动态时间上下文学习进行多界限时间序列预测的系统和方法
CN110909926A (zh) * 2019-11-18 2020-03-24 中国计量大学 基于tcn-lstm的太阳能光伏发电预测方法
CN110942825A (zh) * 2019-11-26 2020-03-31 北京华医共享医疗科技有限公司 基于卷积神经网络和循环神经网络结合的心电诊断方法
US20210004682A1 (en) * 2018-06-27 2021-01-07 Google Llc Adapting a sequence model for use in predicting future device interactions with a computing system

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138436A1 (en) * 2011-11-26 2013-05-30 Microsoft Corporation Discriminative pretraining of deep neural networks
EP2723106A1 (en) * 2012-10-19 2014-04-23 Facebook, Inc. Method, storage medium and apparatus for predicting the future state of a mobile device user
US20160078471A1 (en) * 2014-08-28 2016-03-17 Jehan Hamedi Systems and Methods for Determining an Agility Rating Indicating a Responsiveness of an Author to Recommended Aspects for Future Content, Actions, or Behavior
CN106201686A (zh) * 2016-06-30 2016-12-07 北京小米移动软件有限公司 应用的管理方法、装置及终端
WO2018045021A1 (en) * 2016-09-01 2018-03-08 Goldman Sachs & Co. LLC Systems and methods for learning and predicting time-series data using deep multiplicative networks
WO2018154482A1 (en) * 2017-02-22 2018-08-30 Appnext Ltd. System and method for real-time generation of predictive models of mobile users' behavior
JP2019086475A (ja) * 2017-11-09 2019-06-06 富士通株式会社 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置
EP3486771A1 (en) * 2017-11-20 2019-05-22 Guangdong Oppo Mobile Telecommunications Corp., Ltd Prediction of applications to be preloaded based on observed user behaviour and the order of starting the applications
CN108765010A (zh) * 2018-05-29 2018-11-06 腾讯科技(深圳)有限公司 用户留存概率预测方法、装置、预测服务器及存储介质
CN110555714A (zh) * 2018-06-04 2019-12-10 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US20210004682A1 (en) * 2018-06-27 2021-01-07 Google Llc Adapting a sequence model for use in predicting future device interactions with a computing system
CN110866628A (zh) * 2018-08-28 2020-03-06 北京京东尚科信息技术有限公司 利用动态时间上下文学习进行多界限时间序列预测的系统和方法
CN109509017A (zh) * 2018-09-27 2019-03-22 中国平安人寿保险股份有限公司 基于大数据分析的用户留存率预测方法及装置
CN110264262A (zh) * 2019-06-18 2019-09-20 北京字节跳动网络技术有限公司 基于用户行为的数据处理方法、装置及电子设备
CN110909926A (zh) * 2019-11-18 2020-03-24 中国计量大学 基于tcn-lstm的太阳能光伏发电预测方法
CN110942825A (zh) * 2019-11-26 2020-03-31 北京华医共享医疗科技有限公司 基于卷积神经网络和循环神经网络结合的心电诊断方法

Also Published As

Publication number Publication date
CN111709785B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
WO2019100784A1 (en) Feature extraction using multi-task learning
CN108733508B (zh) 用于控制数据备份的方法和系统
CN111523640B (zh) 神经网络模型的训练方法和装置
CN110929799B (zh) 用于检测异常用户的方法、电子设备和计算机可读介质
CN109558605B (zh) 用于翻译语句的方法和装置
WO2022188534A1 (zh) 信息推送的方法和装置
CN113743971A (zh) 一种数据处理方法和装置
CN112330059B (zh) 用于生成预测分数的方法、装置、电子设备和介质
CN114693934A (zh) 语义分割模型的训练方法、视频语义分割方法及装置
CN111008213A (zh) 用于生成语言转换模型的方法和装置
CN111090740B (zh) 一种用于对话系统的知识图谱生成方法
US11704542B2 (en) Convolutional dynamic Boltzmann Machine for temporal event sequence
CN114238611B (zh) 用于输出信息的方法、装置、设备以及存储介质
CN111709785B (zh) 用于确定用户留存时间的方法、装置、设备和介质
CN111709784B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN114742035A (zh) 基于注意力机制优化的文本处理方法、网络模型训练方法
CN115169692A (zh) 一种时间序列预测方法及相关装置
CN111709787B (zh) 用于生成用户留存时间的方法、装置、电子设备和介质
CN111402042B (zh) 一种用于股市大盘形态分析的数据分析与显示方法
CN111709786B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN114792086A (zh) 一种支持文本交叉覆盖的信息抽取方法、装置、设备和介质
CN111709366A (zh) 用于生成分类信息的方法、装置、电子设备和介质
CN112182111A (zh) 基于区块链的分布式系统分层处理方法和电子设备
CN111709583B (zh) 用户留存时间生成方法、装置、电子设备和介质
CN113362097A (zh) 一种用户确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant