CN111709786B - 用于生成用户留存时间的方法、装置、设备和介质 - Google Patents

用于生成用户留存时间的方法、装置、设备和介质 Download PDF

Info

Publication number
CN111709786B
CN111709786B CN202010558665.XA CN202010558665A CN111709786B CN 111709786 B CN111709786 B CN 111709786B CN 202010558665 A CN202010558665 A CN 202010558665A CN 111709786 B CN111709786 B CN 111709786B
Authority
CN
China
Prior art keywords
user
network
application
output result
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010558665.XA
Other languages
English (en)
Other versions
CN111709786A (zh
Inventor
孙振邦
周杰
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202010558665.XA priority Critical patent/CN111709786B/zh
Publication of CN111709786A publication Critical patent/CN111709786A/zh
Application granted granted Critical
Publication of CN111709786B publication Critical patent/CN111709786B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本公开的实施例公开了一种用于生成用户留存时间的方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,该循环神经网络包括通道注意力机制网络。该实施方式实现了对用户在应用中留存时间有效的确定,使得对用户留存时间的确定更为准确、便捷。

Description

用于生成用户留存时间的方法、装置、设备和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及一种用于生成用户留存时间的方法、装置、设备和计算机可读介质。
背景技术
目前,提供应用的企业越来越关注在未来预定时间内用户使用应用的时间,也即用户留存时间。用户的留存时间的确定侧面反映了应用的受欢迎程度。然而,目前用户留存时间的确定方法存在繁琐、效率低等问题。进而,需求一种对用户留存时间的确定的相对简便有效的方法。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于生成用户留存时间的方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种用于生成用户留存时间的方法,该方法包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
第二方面,本公开的一些实施例提供了一种用于生成用户留存时间的装置,装置包括:处理单元,被配置成对获得的用户特征的数据进行预处理;输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先,对获得的用户特征的数据进行预处理,来消除上述数据的单位限制。然后利用预先训练的处理长期依赖信息的循环神经网络来有效的地预估用户在未来预定时间的留存情况。需要强调的是,加入上述通道注意力机制网络来学习用户在特征上的关注程度。进而使加入通道注意力机制网络的循环神经网络预估用户在未来预定时间的留存情况更为准确,便利。从而侧面提高了用户体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是本公开的一些实施例的用于生成用户留存时间的方法一个应用场景图的示意图;
图2是根据本公开的用于生成用户留存时间的方法的一些实施例的流程图;
图3是根据本公开的用于生成用户留存时间的方法的另一些实施例的流程图;
图4是根据本公开的用于生成用户留存时间的方法的另一些实施例的深度网络的模型训练图;
图5是根据本公开的用于生成用户留存时间的装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开的一些实施例的用于生成用户留存时间的方法的一个应用场景的示意图100。
如图1所示,作为示例,获得的用户特征的数据101为“用户停留时间超过预定时间的文章数目:11篇;用户使用应用的时间:3h;用户目标时间段内打开上述应用的次数:12次;用户点击文章的篇数: 22篇;应用推送给上述用户的文章篇数:65篇;用户完整阅读文章的篇数:10篇;用户在上述应用内操作的次数:55次;用户分享文章的篇数:12篇;用户是否使用账号登陆过:是”。经过数据预处理后,将数据101转换为数据102。作为示例,数据102可以是“0.09,0.03, 0.092,0.02,0.2,0.4,0.09,0.51,0.11”。进而将上述数据102输入至电子设备103。上述电子设备103利用包括通道注意力机制网络的预先训练的处理长期依赖信息的循环神经网络对数据102进行处理,得到输出104,作为在未来预定时间内用户使用应用的时间。例如,输出104为“未来7天使用应用时间:1.2天;未来28天使用应用时间:7.2天;未来56天使用应用时间:16天;未来180天使用应用时间:22天”。
可以理解的是,生成用户留存时间的方法可以是由上述电子设备 103来执行。其中,电子设备103可以是硬件,也可以是软件。当电子设备103为硬件时,可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机、台式计算机、服务器等等。当电子设备103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
继续参考图2,示出了根据本公开的用于生成用户留存时间的方法的一些实施例的流程200。该用于生成用户留存时间的方法,包括以下步骤:
步骤201,对获得的用户特征的数据进行预处理。
在一些实施例中,用于确定用户留存时间的方法的执行主体(例如图1所示的电子设备)可以通过各种方式对获得的用户特征的数据进行预处理。在这里,用户特征可以是对用户的操作行为进行描述的特征。其中,对于数据的预处理可以包括但不限于以下至少一项:数据标准化,数据归一化,数据二值化,独热编码。作为示例,可以对获得的用户特征的数据进行数据归一化,从而把用户特征的数据的取值限定在规定范围内。通过上述预处理,可以实现多种目的,例如侧面提升模型的精确度。
在一些实施例的一些可选的实现方式中,上述用户特征可以包括但不限于以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
在一些实施例的一些可选的实现方式中,对获得的用户特征的数据进行预处理,可以包括将上述用户特征的数据进行数据标准化。其中,上述数据标准化后的数据分布符合标准正态分布,即均值为0,标准差为 1。上述标准化的转化函数为X=(x-μ)/σ,其中,X为标准化后的数据, x为标准化之前的用户特征数据,μ为上述用户特征数据的均值,σ为上述用户特征数据的标准差。作为示例,对于上述用户停留时间超过预定时间的文章数目,在所有用户群体上统计其均值为37,标准差为 48。将数据输入到模型之前,会将这个数据减去37,再除以48,之后将得到的数据输入至上述循环神经网络中。
步骤202,将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间。
在一些实施例中,上述执行主体可以首先获取已预处理过的上述用户特征的数据,之后将上述数据输入至上述预先训练的处理长期依赖信息的循环神经网络中,输出在未来预定时间内用户使用应用的时间。其中,上述循环神经网络包括通道注意力机制网络。在通道注意力机制网络中,对特征图中通道的数据增加一定的权重。其中,上述权重代表通道上的数据与关键信息的相关度,权重越大,则表示相关度越高,也就是我们越需要去注意的通道。其中,上述循环神经网络是可以用来处理时序数据的神经网络。作为示例,上述循环神经网络是由第一全连接网络,转换(Transformer)模型和第二全连接网络组合而成。将上述用户特征的数据输入至第一全连接网络,上述第一全连接网络包括多层全连接层。上述第一全连接网络中每层全连接层后都有相应的激活函数,其中,第一全连接网络在训练过程中加入随机丢弃。然后将上述第一全连接网络的输出输入至转换模型,最后把上述转换模型的输出输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间。
由上述示例可以看出,首先,对获得的用户特征的数据进行预处理,来消除上述数据的单位限制。然后利用预先训练的处理长期依赖信息的循环神经网络来有效的地预估用户在未来预定时间的留存情况。需要强调的是,加入上述通道注意力机制网络来学习用户在特征上的关注程度。可选的,上述循环神经网络加入空间随机失活来防止某个特征的过拟合。进而使加入通道注意力机制网络的循环神经网络预估用户在未来预定时间的留存情况更为准确,便利。从而侧面提高了用户体验。
继续参考图3,示出了根据本公开的生成用户留存时间的方法的另一些实施例的流程300。该生成用户留存时间的方法,包括以下步骤:
步骤301,对获得的用户特征的数据进行预处理。
在一些实施例中,步骤301的具体实现及所带来的技术效果可以参考图2对应的那些实施例中的步骤201,在此不再赘述
步骤302,将预处理后用户特征数据输入至第一全连接网络,得到第一输出结果。
在一些实施例中,上述预先训练的处理长期依赖信息的循环神经网络可以包括第一全连接网络、长短期记忆神经网络(LSTM,Long Short-Term Memory)和第二全连接网络。上述执行主体可以将预处理后的数据输入至上述第一全连接网络,得到第一输出结果。在这里,上述第一全连接网络可以是至少两层全连接层的级联。上述第一全连接网络作用在于提升数据维度,用于提取更多的上述用户特征信息。在这里,上述第一全连接网络中可以采用随机失活(dropout)以防止过拟合。具体地,上述第一全连接网络中采用随机失活可以是在训练过程中丢弃第一全连接网络中隐藏层中的一定比例的神经元。在验证过程中,所有的神经元会全部保留,不再丢弃。
步骤303,将上述第一输出结果输入至通道注意力机制网络,得到通道注意力机制网络的输出结果。
在一些实施例中,将上述第一输出结果输入至上述通道注意力机制网络,得到上述通道注意力机制网络的输出结果。上述通道注意力机制网络可以用于关注上述用户特征中更重要的特征。作为示例,某个用户每天都点赞,则对于这个用户的点赞数特征,这个注意力会更高一些。另外一个用户从来不点赞,则对于这个用户的点赞数特征,这个注意力会更低一点。从而,模型会更多的从其他特征(如阅读数等)中获取信息。
在一些实施例的一些可选的实现方式中,上述通道注意力机制网络包括池化层、第三全连接网络和叉乘层。则将上述第一输出结果输入至上述通道注意力机制网络步骤可以包括:
第一步,将上述第一输出结果输入至上述池化层,得到池化层的输出结果。
第二步,将上述池化层的输出结果输入至上述第三全连接网络,其中,第三全连接网络是隐藏层为两层的全连接网络。
第三步,将第三全连接网络的输出结果与第一输出结果输入至叉乘层,得到了经过注意力过后的特征。
在这里,上述池化层可以采用平均池化,用于计算哪些特征更为重要。平均池化是对数据采取平均操作,进而将注意力放在特征上。第三全连接网络是由两层全连接层级联而成。第一层全连接层之后接激活函数,进而增加网络模型的非线性能力。第二层全连接层后经过激活函数S型生长曲线(Sigmoid),每个值都会被映射到0-1的值,代表着用户对用户上述特征的关注程度。例如,用户分享文章的篇数对应的值为0.9,说明用户分享文章的篇数对分析这个用户会非常重要。将第三全连接网络的输出结果与第一输出结果进行叉乘。这样,注意力高的特征会得到很高的响应,注意力低的特征会得到很低的响应。
步骤304,对上述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果。
在一些实施例中,对上述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果。空间随机失活(spatial dropout)是指会随机丢弃一些用户特征。例如,可能第一次丢弃用户特征“用户分享文章的篇数”,可能第二次丢弃用户特征“用户完整阅读文章的篇数”。空间随机失活的目的在于防止某些特征的过拟合。
步骤305,将第二输出结果输入至长短期记忆神经网络,得到长短期记忆神经网络的输出结果。
在一些实施例的中,上述执行主体将上述第二输出结果输入至长短期记忆神经网络。在这里,可以采用多层长短期记忆神经网络,以使用户留存时间的确定更精确。其中,上述多层长短期记忆神经网络在训练过程中采用了随机失活。
其中,采用上述长短期记忆神经网络目的在于增加网络的时序性,把用户预定时间内的用户特征的数据关联起来。除此之外,相对于其它循环神经网络,上述长短期记忆神经网络对于处理长期依赖问题有较好的效果,对于用户留存时间的预测更为精准。其中,上述长短期记忆神经网络包括遗忘门,输入门,输出门。上述遗忘门可以决定应丢弃或保留哪些信息。来自先前隐藏状态的信息和当前输入的信息同时输入到Sigmoid函数,输出值处于0和1之间,越接近0意味着越应该忘记,越接近1意味着越应该保留。上述输入门用来更新单元状态。先将先前隐藏状态的信息和当前输入的信息输入到Sigmoid函数,在0和1之间调整输出值来决定更新哪些信息,0表示不重要,1表示重要。也可将隐藏状态和当前输入传输给Tanh函数,并在-1和1之间压缩数值以调节网络,然后把Tanh输出和Sigmoid输出相乘,Sigmoid 输出将决定在Tanh输出中哪些信息是重要的且需要进行保留。上述输出门能决定下个隐藏状态的值。隐藏状态中包含了先前输入的相关信息。除此之外,隐藏状态也可用于预测。首先把先前的隐藏状态和当前输入传递给Sigmoid函数。接着把新得到的单元状态传递给Tanh函数。然后把Tanh输出和Sigmoid输出相乘,以确定隐藏状态应携带的信息。最后把隐藏状态作为当前单元输出,把新的单元状态和新的隐藏状态传输给下个时间步。
需要说明的是,可以采用随机失活以防止过拟合。在训练过程中,多层长短期记忆神经网络会随机丢弃一定比例的上述第二全连接网络中的神经元。被丢弃的神经元输出为0。作为示例,多层长短期记忆神经网络中隐藏层随机丢弃的神经元与未丢弃的神经元比例可以是 1:5。其中,在验证过程中,隐藏层中所有的神经元会全部保留,不再丢弃。
步骤306,对上述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
在一些实施例中,对上述长短期记忆神经网络的输出结果进行数据重新组织(reshape),得到第三输出结果。数据重新组织是对数据的维度进行调整。进行上述数据重新组织的目的在于保证前后数据维度的一致。
步骤307,将第三输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间。
在一些实施例中,上述执行主体将上述第三输出结果输入至第二全连接网络,输出用户未来在预定时间内使用上述应用的时间,其中,上述第二全连接网络在训练过程中采用了上述随机失活。其中,第二全连接网络可以包括多层全连接层和激活函数层。数据经过第二全连接网络归一到0-1之间。在这里,0-1之间的数字代表着用户在未来预定时间内使用天数的比例。例如,在用户未来90天内,输出数字0.6 代表着用户在未来90天内会有54天的时间在使用应用。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3 对应的一些实施例中的确定用户留存时间的方法的流程300更加突出了循环神经网络包括多个全连接层、长短时记忆网络和通道注意力机制网络的具体结构。由此,这些实施例描述的方案可以体现循环神经网络的网络结构包括多层全连接层、上述长短时记忆网络和通道注意力机制网络。其中,上述多层全连接层的加入大大的提高了上述循环神经网络的非线性学习能力,以及选择上述长短时记忆网络可以解决长期依赖问题和对时序信息的学习,加入上述通道注意力机制网络来学习用户在特征上的关注程度。上述循环神经网络加入空间随机失活来防止某个特征的过拟合。进而利用上述循环神经网络可以精准、高效的确定在未来用户使用应用的时间。
继续参考图4,示出了根据本公开的用于生成用户留存时间的方法的另一些实施例的深度网络的模型训练图400,该生成用户留存时间的方法的模型训练,包括:
第一步,设置批次的数量(batch_size)为512。
即每次输入512个用户特征的数据用于训练。每个用户使用50 天的历史特征,可以得到初始特征为50*9。因此在输入层401中,数据为3维矩阵,维度为512*50*9。
第二步,将输入层401的数据输入至第一全连接网络402,得到第一输出结果。
上述第一输出结果的数据维度为512*50*64。
第三步,将上述第一输出结果输入至通道注意力机制网络的池化层403,输出数据维度为512*64。
第四步,将池化层403的数据输入至上述通道注意力机制网络中第一层全连接层404,输出的数据的维度为512*256。
第五步,将上述通道注意力机制网络中第一层全连接层404的数据输入至通道注意力机制网络中第二层全连接层405,输出的数据的维度为512*64。
第六步,将上述通道注意力机制网络中第二层全连接层405的数据与上述第一输出结果402的数据输入至叉乘层406,得到第二输出结果,第二输出结果的数据的维度为512*50*64。
第七步,将第二输出结果输入至空间随机失活层407,对上述第二输出结果进行空间随机失活,得到空间随机失活后的结果,上述空间随机失活后的结果的数据维度为512*50*64。
第八步,将上述空间随机失活后的结果输入至信息划分层408,得到的数据结果为50个512*1*64的向量。其中,上述信息划分层是把用户预定时间的使用应用的数据划分为用户每天使用应用的数据。
第九步,将上述信息划分层的结果输入至第一层长短期记忆神经网络4091。第一层长短期记忆神经网络4091的输出结果的数据维度为512*1*256。
第十步,将上述第一层长短期记忆神经网络4091的结果输入至第二层长短期记忆神经网络4042。上述第二层长短期记忆神经网络4092 的输出结果的数据维度为512*1*128。
第十一步,将上述第二层长短期记忆神经网络4042的输出结果输入至数据重新组织层410,得到第三输出结果,上述第三输出结果的数据的维度为512*128。
第十二步,将上述第三输出结果输入至第三全连接网络411,得到第三全连接网络412的输出结果,上述第三全连接网络412的输出结果的数据维度为512*4。上述第三全连接网络412的输出结果表征用户在预定时间内使用用户的时间。其中,第三全连接网络的输出结果为0-1的数据,表征着用户未来在预定时间内使用应用的占比。作为示例,可以是第三输出结果为0.5,0.4,0.6,0.3。则表征用户在未来7天使用应用的时间为3.5天,用户在未来28天使用应用的时间为 11.2天,用户在未来56天使用应用的时间为33.6天,用户在未来180 天使用应用的时间为54天。
在这里,网络模型的训练的优化器可以包括但不限于以下至少一项:批量梯度下降(BGD,Batch Gradient Descent),随机梯度下降(SGD, Stochastic GradientDescent),小批量梯度下降法(MBGD,Mini-batch Gradient Descent),动量优化算法(Momentum),自适应学习率优化算法(AdaGrad,Adaptive Gradient Algorithm),自适应学习率优化算法 (Adam,Adam optimization algorithm)。除此之外,网络模型的训练的学习率可以是0.01。在上述循环神经网络的模型训练阶段可以加入随机失活(dropout)层,在测试阶段可以去掉随机失活层。
继续参考图5,作为对上述各图上述方法的实现,本公开提供了一种用于生成用户留存时间的装置的一些实施例,这些装置实施例与图2上述的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,一些实施例的用于生成用户留存时间的装置500包括:处理单元501和输入输出单元502。其中,处理单元501被配置成对获得的用户特征的数据进行预处理;输入输出单元502,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
在一些实施例的一些可选的实现方式中,处理单元501可以进一步被配置成:对上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将经过预处理后的数据输入至第一全连接网络,得到第一输出结果;将上述第一输出输入至上述通道注意力机制网络;对上述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将上述第二输出结果输入至长短期记忆神经网络,其中,上述长短期记忆神经网络在训练过程中采用了随机失活;对上述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将上述第三输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了上述随机失活。
在一些实施例的一些可选的实现方式中,输入输出单元502可以进一步被配置成:将上述第一输出结果输入至上述通道注意力机制网络的池化层,其中,上述池化层中采用的池化方法是均值池化;将上述池化层的输出结果输入至上述通道注意力机制网络的第三全连接网络;将上述第三全连接网络的输出结果与上述第一输出结果进行叉乘。
在一些实施例的一些可选的实现方式中,上述用户特征包括以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的电子设备)600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线 604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置 606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP (HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元和输入输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“对获得的用户特征的数据进行预处理的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD) 等等。
根据本公开的一个或多个实施例,提供了一种用于生成用户留存时间的方法,包括:对获得的用户特征的数据进行预处理;将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
根据本公开的一个或多个实施例,上述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,包括:将经过预处理后的数据输入至第一全连接网络,得到第一输出结果;将上述第一输出结果输入至上述通道注意力机制网络;对上述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果。
根据本公开的一个或多个实施例,上述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间还包括:将上述第二输出结果输入至长短期记忆神经网络,其中,上述长短期记忆神经网络在训练过程中采用了随机失活;对上述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
根据本公开的一个或多个实施例,上述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间还包括:将上述第三输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了随机失活。
根据本公开的一个或多个实施例,上述将上述第一输出结果输入至上述通道注意力机制网络,包括:将上述第一输出结果输入至上述通道注意力机制网络的池化层,其中,上述池化层中采用的池化方法是均值池化;将上述池化层的输出结果输入至上述通道注意力机制网络的第三全连接网络;将上述第三全连接网络的输出结果与上述第一输出结果进行叉乘。
根据本公开的一个或多个实施例,上述对获得的用户特征的数据进行预处理,包括:将上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
根据本公开的一个或多个实施例,上述用户特征包括以下至少一项:上述用户停留时间超过预定时间的应用上显示的文章数目,上述用户使用上述应用的时间,上述用户目标时间段内打开上述应用的次数,上述用户是否使用账号登陆过应用,上述用户点击应用上显示的文章的篇数,上述应用推送给上述用户的文章篇数,上述用户完整阅读应用上显示的文章的篇数,上述用户在上述应用内操作的次数,上述用户分享应用上显示的文章的篇数。
根据本公开的一个或多个实施例,提供了一种用于生成用户留存时间的装置,包括:处理单元,被配置成对获得的用户特征的数据进行预处理;输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,输出在未来预定时间内用户使用应用的时间,其中,上述循环神经网络包括通道注意力机制网络。
根据本公开的一个或多个实施例,处理单元可以进一步被配置成:对上述用户特征的数据进行数据标准化,其中,上述数据标准化后的数据分布符合标准正态分布。
根据本公开的一个或多个实施例,输入输出单元可以进一步被配置成:将上述第二输出结果输入至长短期记忆神经网络,其中,上述长短期记忆神经网络在训练过程中采用了随机失活;对上述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
根据本公开的一个或多个实施例,输入输出单元可以进一步被配置成:将上述第三输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,上述第二全连接网络在训练过程中采用了上述随机失活。
根据本公开的一个或多个实施例,输入输出单元可以进一步被配置成:将上述第一输出结果输入至上述通道注意力机制网络的池化层;将上述池化层的输出结果输入至上述通道注意力机制网络的第三全连接网络;将上述第三全连接网络的输出结果与上述第一输出结果进行叉乘。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种用于生成用户留存时间的方法,包括:
通过标准化转化函数对获得的用户特征的标准化后的数据、标准化之前的数据以及所述用户特征数据的标准差进行预处理,以消除用户特征的数据的单位限制;其中,所述用户特征为对用户的操作行为进行描述的特征,包括以下至少一项:
所述用户停留时间超过预定时间的应用上显示的文章数目,所述用户使用所述应用的时间,所述用户目标时间段内打开所述应用的次数,所述用户是否使用账号登陆过应用,所述用户点击应用上显示的文章的篇数,所述应用推送给所述用户的文章篇数,所述用户完整阅读应用上显示的文章的篇数,所述用户在所述应用内操作的次数,所述用户分享应用上显示的文章的篇数;
将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,所述循环神经网络包括通道注意力机制网络,所述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,包括:
将预处理后的数据输入至第一全连接网络,得到第一输出结果;其中所述第一全连接网络包括两层全连接层的级联;
将所述第一输出结果输入至所述通道注意力机制网络的池化层,其中,通道注意力机制网络包括池化层、第三全连接网络和叉乘层,所述池化层中采用的池化方法是均值池化;
将所述池化层的输出结果输入至所述通道注意力机制网络的第三全连接网络;所述第三全连接网络包括:第一全连接层和第二全连接层,所述第一全连接层后接激活函数,用于增加网络模型的非线性能力,所述第二全连接层后经过激活函数S型生长曲线,每个值被映射到0-1的值;
将所述第三全连接网络的输出结果与所述第一输出结果进行叉乘,所述通道注意力机制网络输出叉乘结果;
对所述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果;
将所述第二输出结果输入至长短期记忆神经网络,并对所述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
2.根据权利要求1所述的方法,其中,所述方法还包括:
所述长短期记忆神经网络在训练过程中采用了随机失活。
3.根据权利要求2所述的方法,其中,所述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间还包括:
将所述第三输出结果输入至第二全连接网络,输出在未来预定时间内用户使用应用的时间,其中,所述第二全连接网络在训练过程中采用了随机失活。
4.根据权利要求1所述的方法,其中,所述数据标准化后的数据分布符合标准正态分布。
5.一种用于生成用户留存时间的装置,包括:
处理单元,被配置成通过标准化转化函数对获得的用户特征的标准化后的数据、标准化之前的数据以及所述用户特征数据的标准差进行预处理,以消除用户特征的数据的单位限制;其中,所述用户特征为对用户的操作行为进行描述的特征,包括以下至少一项:
所述用户停留时间超过预定时间的应用上显示的文章数目,所述用户使用所述应用的时间,所述用户目标时间段内打开所述应用的次数,所述用户是否使用账号登陆过应用,所述用户点击应用上显示的文章的篇数,所述应用推送给所述用户的文章篇数,所述用户完整阅读应用上显示的文章的篇数,所述用户在所述应用内操作的次数,所述用户分享应用上显示的文章的篇数;
输入输出单元,被配置成将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,其中,所述循环神经网络包括通道注意力机制网络,所述将预处理后的数据输入至预先训练的处理长期依赖信息的循环神经网络,输出在未来预定时间内用户使用应用的时间,包括:
将预处理后的数据输入至第一全连接网络,得到第一输出结果;其中所述第一全连接网络包括两层全连接层的级联;
将所述第一输出结果输入至所述通道注意力机制网络的池化层,其中,通道注意力机制网络包括池化层、第三全连接网络和叉乘层,所述池化层中采用的池化方法是均值池化;
将所述池化层的输出结果输入至所述通道注意力机制网络的第三全连接网络;所述第三全连接网络包括:第一全连接层和第二全连接层,所述第一全连接层后接激活函数,用于增加网络模型的非线性能力,所述第二全连接层后经过激活函数S型生长曲线,每个值被映射到0-1的值;
将所述第三全连接网络的输出结果与所述第一输出结果进行叉乘,所述通道注意力机制网络输出叉乘结果;
对所述通道注意力机制网络的输出结果进行空间随机失活,得到第二输出结果;
将所述第二输出结果输入至长短期记忆神经网络,并对所述长短期记忆神经网络的输出结果进行数据重新组织,得到第三输出结果。
6.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
7.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN202010558665.XA 2020-06-18 2020-06-18 用于生成用户留存时间的方法、装置、设备和介质 Active CN111709786B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010558665.XA CN111709786B (zh) 2020-06-18 2020-06-18 用于生成用户留存时间的方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010558665.XA CN111709786B (zh) 2020-06-18 2020-06-18 用于生成用户留存时间的方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN111709786A CN111709786A (zh) 2020-09-25
CN111709786B true CN111709786B (zh) 2024-04-30

Family

ID=72541528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010558665.XA Active CN111709786B (zh) 2020-06-18 2020-06-18 用于生成用户留存时间的方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN111709786B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508377A (zh) * 2018-11-26 2019-03-22 南京云思创智信息科技有限公司 基于融合模型的文本特征提取方法、装置、聊天机器人和存储介质
CN110475118A (zh) * 2019-07-11 2019-11-19 北京工业大学 一种基于注意力机制深度循环网络的旧电影闪烁修复方法
CN110555714A (zh) * 2018-06-04 2019-12-10 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN110610168A (zh) * 2019-09-20 2019-12-24 合肥工业大学 一种基于注意力机制的脑电情绪识别方法
CN110942825A (zh) * 2019-11-26 2020-03-31 北京华医共享医疗科技有限公司 基于卷积神经网络和循环神经网络结合的心电诊断方法
CN111145541A (zh) * 2019-12-18 2020-05-12 深圳先进技术研究院 交通流量数据预测方法、存储介质和计算机设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555714A (zh) * 2018-06-04 2019-12-10 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN109508377A (zh) * 2018-11-26 2019-03-22 南京云思创智信息科技有限公司 基于融合模型的文本特征提取方法、装置、聊天机器人和存储介质
CN110475118A (zh) * 2019-07-11 2019-11-19 北京工业大学 一种基于注意力机制深度循环网络的旧电影闪烁修复方法
CN110610168A (zh) * 2019-09-20 2019-12-24 合肥工业大学 一种基于注意力机制的脑电情绪识别方法
CN110942825A (zh) * 2019-11-26 2020-03-31 北京华医共享医疗科技有限公司 基于卷积神经网络和循环神经网络结合的心电诊断方法
CN111145541A (zh) * 2019-12-18 2020-05-12 深圳先进技术研究院 交通流量数据预测方法、存储介质和计算机设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
董海.《网络化制造环境下产品质量预测与控制》.冶金工业出版社,2018,第48页. *

Also Published As

Publication number Publication date
CN111709786A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN109992710B (zh) 点击率预估方法、系统、介质和计算设备
CN108197652B (zh) 用于生成信息的方法和装置
CN114265979B (zh) 确定融合参数的方法、信息推荐方法和模型训练方法
US20230049747A1 (en) Training machine learning models using teacher annealing
CN110929799B (zh) 用于检测异常用户的方法、电子设备和计算机可读介质
CN110473042B (zh) 用于获取信息的方法及装置
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
US20220358366A1 (en) Generation and implementation of dedicated feature-based techniques to optimize inference performance in neural networks
CN111770125A (zh) 用于推送信息的方法和装置
CN111709786B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN117035842A (zh) 模型训练方法、业务量预测方法、装置、设备和介质
CN111709785B (zh) 用于确定用户留存时间的方法、装置、设备和介质
CN111709784B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN111767290B (zh) 用于更新用户画像的方法和装置
CN111709787B (zh) 用于生成用户留存时间的方法、装置、电子设备和介质
CN111709583B (zh) 用户留存时间生成方法、装置、电子设备和介质
CN118393329B (zh) 一种用于测试ai芯片在模型训练和推理表现的系统
CN112348587B (zh) 信息推送方法、装置和电子设备
CN116701972B (zh) 业务数据处理方法、装置、设备以及介质
CN115037655B (zh) 压测方法和系统
CN113010784B (zh) 用于生成预测信息的方法、装置、电子设备和介质
CN118536021B (zh) 基于多传感器的实时地下水水位动态监测系统
CN113077353B (zh) 用于生成核保结论的方法、装置、电子设备和介质
CN116911773A (zh) 一种业务数据预测系统、方法、电子设备及存储介质
CN116385064A (zh) 虚拟资源推荐模型的确定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant