CN111709583B - 用户留存时间生成方法、装置、电子设备和介质 - Google Patents

用户留存时间生成方法、装置、电子设备和介质 Download PDF

Info

Publication number
CN111709583B
CN111709583B CN202010561016.5A CN202010561016A CN111709583B CN 111709583 B CN111709583 B CN 111709583B CN 202010561016 A CN202010561016 A CN 202010561016A CN 111709583 B CN111709583 B CN 111709583B
Authority
CN
China
Prior art keywords
feature data
processing
data
processing result
numerical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010561016.5A
Other languages
English (en)
Other versions
CN111709583A (zh
Inventor
孙振邦
周杰
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202010561016.5A priority Critical patent/CN111709583B/zh
Publication of CN111709583A publication Critical patent/CN111709583A/zh
Application granted granted Critical
Publication of CN111709583B publication Critical patent/CN111709583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Abstract

本公开的实施例公开了用户留存时间生成方法、装置、电子设备和介质。该方法的一具体实施方式包括:基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;基于上述天级特征数据的处理结果,生成用户留存时间。该实施方式采用多种方式确定用户在应用中留存时间,使得对用户留存时间的确定更为精准、便利。

Description

用户留存时间生成方法、装置、电子设备和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用户留存时间生成方法、装置、电子设备和介质。
背景技术
目前,提供应用的企业越来越关注在未来预定时间内用户使用应用的时间,也即用户留存时间。用户留存时间的确定侧面反映了应用的受欢迎程度。然而,目前相关的确定用户留存时间的方法通常采用采用单一算法模型,这样确定出来的结果往往与实际值存在较大偏差。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用户留存时间生成方法、装置、电子设备和介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种用户留存时间生成方法,该方法包括:基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;基于上述天级特征数据的处理结果,生成用户留存时间。
第二方面,本公开的一些实施例提供了一种用户留存时间生成装置,装置包括:第一生成单元,被配置成基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;第二生成单元,被配置成基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;第三生成单元,被配置成基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;第四生成单元,被配置成基于上述天级特征数据的处理结果,生成用户留存时间。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中所描述的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:采用多种方式分别对目标用户的数值特征数据、目标用户的列表特征数据处理。最终,综合多种方式处理后的结果来对目标用户留存时间进行预估,使得到的用户留存时间更加准确。由此,提供了一种用户在未来预定时间的留存情况的有效预估手段。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的一些实施例的用户留存时间生成方法的一个应用场景的示意图;
图2是根据本公开的用户留存时间生成方法的一些实施例的流程图;
图3是根据本公开的一些实施例的数据标准化的一个应用场景的示意图;
图4是根据本公开的一些实施例的改写关系对应表的一个应用场景的示意图;
图5是根据本公开的用户留存时间生成方法的另一些实施例的流程图;
图6是根据本公开的用户留存时间生成方法的另一些实施例的深度神经网络的模型训练图;
图7是根据本公开的用户留存时间生成装置的一些实施例的结构示意图;
图8是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的用户留存时间生成方法的一个应用场景的示意图。
如图1所示,计算设备101可以对数值特征数据102,按照第一处理方式103进行处理,可以得到数值特征数据的处理结果104。计算设备101可以对列表特征数据105,按照第二处理方式106进行处理,可以得到列表特征数据的处理结果107。然后,计算设备101可以根据第三处理方式,对数值特征数据的处理结果104和列表特征数据的处理结果107进行处理,得到天级特征数据的处理结果,如附图标记108所示。之后,计算设备101可以根据天级特征数据的处理结果,生成用户留存时间109。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图2,示出了根据本公开的用户留存时间生成方法的一些实施例的流程200。该用户留存时间生成方法,包括以下步骤:
步骤201,基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成数值特征数据的处理结果。
在一些实施例中,作为示例,用户留存时间生成方法的执行主体(例如图1所示的计算设备101)可以将上述数值特征数据输入至数值处理深度神经网络,得到数值特征数据的处理结果。上述数值特征数据的处理结果可以是512*256的二维矩阵。上述数值处理深度神经网络可以是以样本数值特征数据作为输入,以样本数值特征数据的处理结果作为期望输出的循环神经网络(Recurrent Neural Network,RNN)。在这里,深度神经网络可以是含有多层隐藏层的网络结构。含有多层隐藏层的深度神经网络可以极大提高深度神经网络的学习能力。除此之外,深度神经网络采用多对一的网络结构。多对一的网络结构指得是网络结构有多个输入和一个输出。其中,天级特征数据可以包括:列表特征数据和数值特征数据。这里,上述第一处理方式还可以是特征提取算法。上述特征提取算法可以包括但不限于以下至少一项:集成模型,深度神经网络,SVM(支持向量机,Support Vector Machine),K最近邻算法,决策树,朴素贝叶斯。
上述数值特征数据包括可以使用数值来表示的特征数据。实践中,目标用户停留时间超过预定时间的应用上显示的文章数目,目标用户使用应用的时间,目标用户在目标时间段内打开应用的次数,目标用户是否使用账号登陆过应用,目标用户点击应用上显示的文章的篇数,应用推送给目标用户的文章篇数,目标用户完整阅读应用上显示的文章的篇数,目标用户在应用内操作的次数,目标用户分享应用上显示的文章的篇数。以上每个数据都可以是数值特征数据。
作为示例,上述执行主体可以将上述数值特征数据输入预先训练的SVM中,生成上述处理后的数值特征数据。
在一些实施例的一些可选的实现方式中,上述对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果,包括:对上述数值特征数据进行数据标准化,得到第一数值特征数据;将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果。这里,数据标准化可以是对数值特征数据通过预设算法进行处理。
作为示例,对获得的用户特征中的数值特征数据中的数据“用户停留时间超过预定时间的应用上显示的文章数目:50”进行数据标准化,处理过程如下:第一步,将数据数值减去37,得到数值13;第二步,将得到的数值13除以标准差48,得到结果0.27;第三步,将上述得到的结果作为标准化后的数值特征数据。
作为示例,在图3的应用场景中,计算设备101可以对获得的用户特征中的待处理数值特征数据301进行数据标准化,得到处理后的数值特征数据302。
步骤202,基于第二处理方式,对天级特征数据中的列表特征数据进行处理,生成列表特征数据的处理结果。
在一些实施例中,作为示例,上述执行主体可以将上述列表特征数据输入至上述第二深度神经网络,得到列表特征数据的处理结果。上述列表特征数据的处理结果可以是512*160的二维矩阵。上述第二深度神经网络可以是以样本列表特征数据作为输入,以样本列表数值特征数据的处理结果作为期望输出的循环神经网络。这里,上述第二处理方式可以是特征提取算法。上述特征提取算法还可以包括但不限于以下至少一项:集成模型,深度神经网络,SVM(支持向量机,Support Vector Machine),K最近邻算法,决策树,朴素贝叶斯。
在一些实施例的一些可选的实现方式中,上述对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果,包括:对上述列表特征数据进行整数改写,得到第一列表特征数据;将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果。其中,上述第二深度神经网络包括嵌入层、第三全连接网络和第四全连接网络。
上述列表特征数据可以包括列举表示的特征数据(如城市、性别、手机机型等)。实践中,目标用户在应用上所显示的性别,目标用户在应用上所显示的省份,目标用户在应用上所显示居住的城市,目标用户在应用上所显示居住的城市。以上每个数据都可以是列表特征数据。
需要强调的是,在使用上述列表特征数据之前,往往需要将每个列表特征数据使用数字来表示。例如,对于性别,我们用0代表女,1代表男;对于目标用户所在地区,我们可以用0代表北京,1代表上海,2代表广州等。
在一些实施例的一些可选的实现方式中,上述整数改写可以是用于对文字信息按照预定的改写关系对应表进行处理的方法。作为示例,改写关系对应表可参考图4。
步骤203,基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果。
在一些实施例中,作为示例,上述第三处理方式可以是拼接的方式。上述执行主体可以对上述数值特征数据的处理结果和列表特征数据的处理结果进行拼接,得到拼接特征结果。上述执行主体可以将拼接特征结果确定为上述天级特征数据的处理结果。
步骤204,基于天级特征数据的处理结果,生成用户留存时间。
在一些实施例中,上述执行主体可以将上述天级特征数据的处理结果输入至上述第三深度神经网络,得到用户留存时间。上述第三深度神经网络可以是以样本天级特征数据的处理结果作为输入,以样本用户留存时间作为期望输出的循环神经网络。上述第三深度神经网络可以包括但不限于以下至少一项:第五全连接层,激活层。作为示例,上述激活层可以是激活函数(例如,Sigmoid激活函数)。上述全连接层作用在于降低数据维度。上述激活层作用在于将数据归一到0-1之间。在这里,0-1之间的数字代表着用户在未来预定时间内使用天数的比例。
在一些实施例的一些可选的实现方式中,对天际特征数据进行处理,可以去除数据的单位限制。为生成过程提供便利,减少生成用户留存时间的任务耗时。使用包含多层全连接网络的深度学习网络可以全面的学习用户在历史预设时间段中的特征,避免特征在生成过程中的遗漏而造成误差的情况。
本公开的上述各个实施例中的一个实施例具有如下有益效果:采用多种方式分别对目标用户的数值特征数据、目标用户的列表特征数据处理和目标用户的天级特征数据进行处理。最终,综合多种方式处理后的结果来对目标用户留存时间进行预估,使得到的用户留存时间更加准确。由此,提供了一种用户在未来预定时间的留存情况的有效预估手段。
继续参考图5,示出了根据本公开的用户留存时间生成方法的另一些实施例的流程500。该用户留存时间生成方法,包括以下步骤:
步骤501,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行数据标准化,得到第一数值特征数据。
在一些实施例中,用户留存时间生成方法的执行主体可以对目标用户在预设时间段内的天级特征数据中的数值特征数据进行数据标准化,得到第一数值特征数据。
在一些实施例的一些可选的实现方式中,上述数据标准化后的数据分布符合标准正态分布,即均值为0,标准差为1。上述标准化的转化函数为X=(x-μ)/σ,其中,X为标准化后的数据,x为标准化之前的用户特征数据,μ为上述用户特征数据的均值,σ为上述用户特征数据的标准差。作为示例,对于上述用户停留时间超过预定时间的文章数目,在所有用户群体上统计其均值为37,标准差为48。将数据输入到网络之前,会将这个数据减去37,再除以48,之后将得到的数据输入至上述第一深度神经网络中。
步骤502,将第一数值特征数据输入至第一深度神经网络的第一全连接网络,得到第一输出结果。
在一些实施例中,上述执行主体可以将上述第一数值特征数据输入至第一深度神经网络的第一全连接网络,得到第一输出结果。上述第一输出结果可以是512*512的二维矩阵。上述第一全连接网络用于提取更多的上述用户特征信息。在这里,上述第一全连接网络中激活层采用的激活函数可以是线性整流函数(Rectified Linear Unit,ReLU)。
步骤503,将第一输出结果输入至第一深度神经网络的第二全连接网络,得到数值特征数据的处理结果。
在一些实施例中,上述执行主体可以将第一输出结果输入至第一深度神经网络的第二全连接网络,得到数值特征输出结果。上述数值特征输出结果可以是512*256的二维矩阵。在这里,上述第二全连接网络中激活层采用的激活函数可以是线性整流函数。上述第二全连接网络中可以采用随机失活(dropout)以防止过拟合。具体地,上述第二全连接网络中采用随机失活可以是在训练过程中丢弃第二全连接网络中隐藏层中的一定比例的神经元。在验证过程中,所有的神经元会全部保留,不再丢弃。
步骤504,对上述天级特征数据中的列表特征数据进行整数改写,得到第一列表特征数据。
在一些实施例中,上述执行主体可以对上述天级特征数据中的列表特征数据进行整数改写,得到第一列表特征数据。
步骤505,将第一列表特征数据输入至第二深度神经网络的嵌入层,得到嵌入层输出结果。
在一些实施例中,上述执行主体可以将上述第一列表特征数据输入至第二深度神经网络的嵌入层,得到嵌入层输出结果。上述嵌入层输出结果可以是512*5*16的三维矩阵。上述嵌入层的作用在于将第一列表特征数据转变为向量。
步骤506,将嵌入层输出结果输入至第二深度神经网络的第三全连接网络,得到第三输出结果。
在一些实施例中,上述执行主体可以将上述嵌入层输出结果输入至上述第二深度神经网络的第三全连接网络,得到第三输出结果。上述第三输出结果可以是512*5*24的三维矩阵。
步骤507,将第三输出结果输入至第二深度神经网络的第四全连接网络。
在一些实施例中,上述执行主体可以将上述第三输出结果输入至上述第二深度神经网络的第四全连接网络。
步骤508,对第四全连接网络的输出结果进行数据重新组织,得到上述列表特征数据的处理结果。
在一些实施例中,上述执行主体可以对上述第四全连接网络的输出结果进行数据重新组织,得到列表特征数据的处理结果。上述列表特征数据的处理结果可以是512*160的二维矩阵。数据重新组织是对数据的维度进行调整。进行上述数据重新组织的目的在于保证前后数据维度的一致。
步骤509,基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果。
步骤510,基于天级特征数据的处理结果,生成用户留存时间。
在一些实施例中,步骤509-510的具体实现及所带来的技术效果可以参考图2对应的那些实施例中的步骤203-204,在此不再赘述。
从图5中可以看出,与图2对应的一些实施例的描述相比,图5对应的一些实施例中的用户留存时间生成方法的流程500更加精准突出了第一深度神经网络包含了两层全连接网络和第二深度神经网络包含了嵌入层和多层全连接网络的结构和具体实现步骤。由此,这些实施例描述的方案可以更大化的体现使用深度神经网络的多层全连接网络来精准确定在未来用户使用应用的时间的优势。
继续参考图6,示出了根据本公开的用户留存时间生成方法的另一些实施例的深度神经网络的模型训练图600,该用户留存时间生成方法的网络模型的训练,包括:
第一步,设置批次的数量(batch_size)为512。
即每次输入512个用户特征的数据用于训练。每个用户使用50天的历史特征,可以得到的初始特征为456个。作为示例,用户的初始特征可以包括50*9个数值特征数据、1个静态数值特征数据(例如,年龄)和5个列表特征数据。因此在输入层601的数据为2维矩阵,数据维度为512*456。
第二步,将输入层601中的数值特征数据与列表特征数据分别进行输入。
第三步,将数值特征数据602输入至第一全连接网络603,得到第一输出结果,上述第一输出结果的数据维度为512*512。
第四步,将上述第一输出结果输入至第二全连接网络604,得到数值特征输出结果,上述数值特征输出结果的数据维度为512*256。
第五步,将列表特征数据605输入至嵌入层606,得到嵌入层输出结果,上述嵌入层输出结果的数据维度为512*5*16。
第六步,将上述嵌入层输出结果输入至第三全连接网络607,得到数据维度为512*5*64的第三输出结果。
第七步,将上述第三输出结果输入至第四全连接网络608,得到维度为512*5*32的输出结果。对上述输出结果进行数据重新组织,得到列表特征输出结果。上述列表特征输出结果的维度为512*160。
第七步,将数值特征输出结果和列表特征输出结果进行拼接,得到拼接特征输出结果,如附图标记609所示。
第八步,将上述拼接特征输出结果输入至第五全连接网络,得到数据维度为512*4的输出结果,输出结果表征用户在预定时间内使用用户的时间。
在这里,网络模型的训练的优化器可以包括但不限于以下至少一项:批量梯度下降(BGD,Batch Gradient Descent),随机梯度下降(SGD,Stochastic Gradient Descent),小批量梯度下降法(MBGD,Mini-batch Gradient Descent),动量优化算法(Momentum),自适应学习率优化算法(AdaGrad,Adaptive Gradient Algorithm),自适应学习率优化算法(Adam,Adam optimization algorithm)。除此之外,网络模型的训练的学习率可以是0.01。在深度神经网络的模型训练阶段可以加入随机失活(dropout)层,在验证阶段可以去掉随机失活层。
在一些实施例的一些可选的实现方式中,通过利用深度神经网络来实现对用户的静态数值特征数据和列表特征数据的融合。以此,可以更准确的对用户在预定时间内使用用户的时间进行预估,提升了任务的准确度。
继续参考图7,作为对上述各图上述方法的实现,本公开提供了一种用户留存时间生成装置的一些实施例,这些装置实施例与图2上述的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,一些实施例的用户留存时间生成装置700包括:第一生成单元701、第二生成单元702、第三单元703和第四生成单元704。其中,第一生成单元701,被配置成基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;第二生成单元702,被配置成基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;第三生成单元703,被配置成基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;第四生成单元704,被配置成基于上述天级特征数据的处理结果,生成用户留存时间。
在一些实施例的一些可选的实现方式中,上述用户留存时间生成装置700的第一生成单元701被进一步配置成:对上述数值特征数据进行数据标准化,得到第一数值特征数据;将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,其中,上述第一深度神经网络包括第一全连接网络和第二全连接网络。
在一些实施例的一些可选的实现方式中,上述用户留存时间生成装置700的第二生成单元702被进一步配置成:对上述列表特征数据进行整数改写,得到第一列表特征数据;将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,其中,上述第二深度神经网络包括嵌入层、第三全连接网络和第四全连接网络。
在一些实施例的一些可选的实现方式中,上述将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,包括:将上述第一数值特征数据输入至上述第一全连接网络,得到第一输出结果;将上述第一输出结果输入至上述第二全连接网络,得到第二输出结果,以及将上述第二输出结果确定为上述数值特征数据的处理结果,其中,在上述第一深度神经网络的训练过程中,在上述第二全连接网络中采用了随机失活。
在一些实施例的一些可选的实现方式中,上述将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,包括:将上述第一列表特征数据输入至上述嵌入层,得到嵌入层输出结果;将上述嵌入层输出结果输入至上述第三全连接网络,得到第三输出结果;将上述第三输出结果输入至上述第四全连接网络,其中,在上述第二深度神经网络的模型训练过程中,在上述第四全连接网络中采用了随机失活;对上述第四全连接网络的输出结果进行数据重新组织,得到上述列表特征数据的处理结果。
在一些实施例的一些可选的实现方式中,上述用户留存时间生成装置700的第三生成单元703被进一步配置成:对上述数值特征数据的处理结果和上述列表特征数据的处理结果进行拼接处理,得到拼接结果;将上述拼接结果确定为上述天级特征数据的处理结果。
在一些实施例的一些可选的实现方式中,上述用户留存时间生成装置700的第四生成单元704被进一步配置成:将上述天级特征数据的处理结果输入第三深度神经网络,得到用户留存时间,其中,上述第三深度神经网络包括第五全连接网络。
可以理解的是,该装置700中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置700及其中包含的单元,在此不再赘述。
下面参考图8,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的计算设备)800的结构示意图。图8示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图8中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;基于上述天级特征数据的处理结果,生成用户留存时间。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一生成单元、第二生成单元、第三单元和第四生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一生成单元还可以被描述为“基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
根据本公开的一个或多个实施例,提供了一种用户留存时间生成方法,包括:基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;基于上述天级特征数据的处理结果,生成用户留存时间。
根据本公开的一个或多个实施例,上述对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果,包括:对上述数值特征数据进行数据标准化,得到第一数值特征数据;将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,其中,上述第一深度神经网络包括第一全连接网络和第二全连接网络。
根据本公开的一个或多个实施例,上述对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果,包括:对上述列表特征数据进行整数改写,得到第一列表特征数据;将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,其中,上述第二深度神经网络包括嵌入层、第三全连接网络和第四全连接网络。
根据本公开的一个或多个实施例,上述将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,包括:将上述第一数值特征数据输入至上述第一全连接网络,得到第一输出结果;将上述第一输出结果输入至上述第二全连接网络,得到第二输出结果,以及将上述第二输出结果确定为上述数值特征数据的处理结果,其中,在上述第一深度神经网络的训练过程中,在上述第二全连接网络中采用了随机失活。
根据本公开的一个或多个实施例,上述将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,包括:将上述第一列表特征数据输入至上述嵌入层,得到嵌入层输出结果;将上述嵌入层输出结果输入至上述第三全连接网络,得到第三输出结果;将上述第三输出结果输入至上述第四全连接网络,其中,在上述第二深度神经网络的模型训练过程中,在上述第四全连接网络中采用了随机失活;对上述第四全连接网络的输出结果进行数据重新组织,得到上述列表特征数据的处理结果。
根据本公开的一个或多个实施例,上述基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果,包括:对上述数值特征数据的处理结果和上述列表特征数据的处理结果进行拼接处理,得到拼接结果;将上述拼接结果确定为上述天级特征数据的处理结果。
根据本公开的一个或多个实施例,上述基于上述天级特征数据的处理结果,生成用户留存时间,包括:将上述天级特征数据的处理结果输入第三深度神经网络,得到用户留存时间,其中,上述第三深度神经网络包括第五全连接网络。
根据本公开的一个或多个实施例,提供了一种用户留存时间生成装置,包括:第一生成单元,被配置成基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成上述数值特征数据的处理结果;第二生成单元,被配置成基于第二处理方式,对上述天级特征数据中的列表特征数据进行处理,生成上述列表特征数据的处理结果;第三生成单元,被配置成基于第三处理方式、上述数值特征数据的处理结果和上述列表特征数据的处理结果,生成上述天级特征数据的处理结果;第四生成单元,被配置成基于上述天级特征数据的处理结果,生成用户留存时间。
根据本公开的一个或多个实施例,上述用户留存时间生成装置的第一生成单元被进一步配置成:对上述数值特征数据进行数据标准化,得到第一数值特征数据;将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,其中,上述第一深度神经网络包括第一全连接网络和第二全连接网络。
根据本公开的一个或多个实施例,上述用户留存时间生成装置的第二生成单元被进一步配置成:对上述列表特征数据进行整数改写,得到第一列表特征数据;将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,其中,上述第二深度神经网络包括嵌入层、第三全连接网络和第四全连接网络。
根据本公开的一个或多个实施例,上述将上述第一数值特征数据输入至第一深度神经网络,得到上述数值特征数据的处理结果,包括:将上述第一数值特征数据输入至上述第一全连接网络,得到第一输出结果;将上述第一输出结果输入至上述第二全连接网络,得到第二输出结果,以及将上述第二输出结果确定为上述数值特征数据的处理结果,其中,在上述第一深度神经网络的训练过程中,在上述第二全连接网络中采用了随机失活。
根据本公开的一个或多个实施例,上述将上述第一列表特征数据输入至第二深度神经网络,得到上述列表特征数据的处理结果,包括:将上述第一列表特征数据输入至上述嵌入层,得到嵌入层输出结果;将上述嵌入层输出结果输入至上述第三全连接网络,得到第三输出结果;将上述第三输出结果输入至上述第四全连接网络,其中,在上述第二深度神经网络的模型训练过程中,在上述第四全连接网络中采用了随机失活;对上述第四全连接网络的输出结果进行数据重新组织,得到上述列表特征数据的处理结果。
根据本公开的一个或多个实施例,上述用户留存时间生成装置的第三生成单元被进一步配置成:对上述数值特征数据的处理结果和上述列表特征数据的处理结果进行拼接处理,得到拼接结果;将上述拼接结果确定为上述天级特征数据的处理结果。
根据本公开的一个或多个实施例,上述用户留存时间生成装置的第四生成单元被进一步配置成:将上述天级特征数据的处理结果输入第三深度神经网络,得到用户留存时间,其中,上述第三深度神经网络包括第五全连接网络。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用户留存时间生成方法,包括:
基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成所述数值特征数据的处理结果;其中,所述第一处理方式包括特征提取算法;
基于第二处理方式,对所述天级特征数据中的列表特征数据进行处理,生成所述列表特征数据的处理结果;其中,所述第二处理方式包括特征提取算法;所述列表特征数据包括列举表示的特征数据;
基于第三处理方式、所述数值特征数据的处理结果和所述列表特征数据的处理结果,生成所述天级特征数据的处理结果;其中,所述第三处理方式包括拼接处理;
基于所述天级特征数据的处理结果,生成用户留存时间;其中,所述用户留存时间是将所述天级特征数据的处理结果输入第三深度神经网络得到的;所述生成用户留存时间为在未来预定时间内用户使用应用的时间。
2.根据权利要求1所述的方法,其中,所述对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成所述数值特征数据的处理结果,包括:
对所述数值特征数据进行数据标准化,得到第一数值特征数据;
将所述第一数值特征数据输入至第一深度神经网络,得到所述数值特征数据的处理结果,其中,所述第一深度神经网络包括第一全连接网络和第二全连接网络。
3.根据权利要求1所述的方法,其中,所述对所述天级特征数据中的列表特征数据进行处理,生成所述列表特征数据的处理结果,包括:
对所述列表特征数据进行整数改写,得到第一列表特征数据;
将所述第一列表特征数据输入至第二深度神经网络,得到所述列表特征数据的处理结果,其中,所述第二深度神经网络包括嵌入层、第三全连接网络和第四全连接网络。
4.根据权利要求2所述的方法,其中,所述将所述第一数值特征数据输入至第一深度神经网络,得到所述数值特征数据的处理结果,包括:
将所述第一数值特征数据输入至所述第一全连接网络,得到第一输出结果;
将所述第一输出结果输入至所述第二全连接网络,得到第二输出结果,以及将所述第二输出结果确定为所述数值特征数据的处理结果,其中,在所述第一深度神经网络的训练过程中,在所述第二全连接网络中采用了随机失活。
5.根据权利要求3所述的方法,其中,所述将所述第一列表特征数据输入至第二深度神经网络,得到所述列表特征数据的处理结果,包括:
将所述第一列表特征数据输入至所述嵌入层,得到嵌入层输出结果;
将所述嵌入层输出结果输入至所述第三全连接网络,得到第三输出结果;
将所述第三输出结果输入至所述第四全连接网络,其中,在所述第二深度神经网络的模型训练过程中,在所述第四全连接网络中采用了随机失活;
对所述第四全连接网络的输出结果进行数据重新组织,得到所述列表特征数据的处理结果。
6.根据权利要求1-5之一所述的方法,其中,所述基于第三处理方式、所述数值特征数据的处理结果和所述列表特征数据的处理结果,生成所述天级特征数据的处理结果,包括:
对所述数值特征数据的处理结果和所述列表特征数据的处理结果进行拼接处理,得到拼接结果;
将所述拼接结果确定为所述天级特征数据的处理结果。
7.根据权利要求6所述的方法,其中,所述第三深度神经网络包括第五全连接网络。
8.一种用户留存时间生成装置,包括:
第一生成单元,被配置成基于第一处理方式,对目标用户在预设时间段内的天级特征数据中的数值特征数据进行处理,生成所述数值特征数据的处理结果;其中,所述第一处理方式包括特征提取算法;
第二生成单元,被配置成基于第二处理方式,对所述天级特征数据中的列表特征数据进行处理,生成所述列表特征数据的处理结果;其中,所述第二处理方式包括特征提取算法;所述列表特征数据包括列举表示的特征数据;
第三生成单元,被配置成基于第三处理方式、所述数值特征数据的处理结果和所述列表特征数据的处理结果,生成所述天级特征数据的处理结果;其中,所述第三处理方式包括拼接处理;
第四生成单元,被配置成基于所述天级特征数据的处理结果,生成用户留存时间;其中,所述用户留存时间是将所述天级特征数据的处理结果输入第三深度神经网络得到的;所述生成用户留存时间为在未来预定时间内用户使用应用的时间。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010561016.5A 2020-06-18 2020-06-18 用户留存时间生成方法、装置、电子设备和介质 Active CN111709583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010561016.5A CN111709583B (zh) 2020-06-18 2020-06-18 用户留存时间生成方法、装置、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010561016.5A CN111709583B (zh) 2020-06-18 2020-06-18 用户留存时间生成方法、装置、电子设备和介质

Publications (2)

Publication Number Publication Date
CN111709583A CN111709583A (zh) 2020-09-25
CN111709583B true CN111709583B (zh) 2023-05-23

Family

ID=72541247

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010561016.5A Active CN111709583B (zh) 2020-06-18 2020-06-18 用户留存时间生成方法、装置、电子设备和介质

Country Status (1)

Country Link
CN (1) CN111709583B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034861A (zh) * 2018-06-04 2018-12-18 挖财网络技术有限公司 基于移动端日志行为数据的用户流失预测方法及装置
CN109635923A (zh) * 2018-11-20 2019-04-16 北京字节跳动网络技术有限公司 用于处理数据的方法和装置
CN110087280A (zh) * 2019-05-14 2019-08-02 重庆邮电大学 一种基于信标消息的车辆密度估算方法
CN111091182A (zh) * 2019-12-16 2020-05-01 北京澎思科技有限公司 数据处理方法、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034861A (zh) * 2018-06-04 2018-12-18 挖财网络技术有限公司 基于移动端日志行为数据的用户流失预测方法及装置
CN109635923A (zh) * 2018-11-20 2019-04-16 北京字节跳动网络技术有限公司 用于处理数据的方法和装置
CN110087280A (zh) * 2019-05-14 2019-08-02 重庆邮电大学 一种基于信标消息的车辆密度估算方法
CN111091182A (zh) * 2019-12-16 2020-05-01 北京澎思科技有限公司 数据处理方法、电子设备及存储介质

Also Published As

Publication number Publication date
CN111709583A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN112699991A (zh) 用于加速神经网络训练的信息处理的方法、电子设备和计算机可读介质
CN110929799B (zh) 用于检测异常用户的方法、电子设备和计算机可读介质
CN110378474A (zh) 对抗样本生成方法、装置、电子设备和计算机可读介质
CN111523640A (zh) 神经网络模型的训练方法和装置
EP3846083A1 (en) Method and apparatus for parallel processing of information
US20230119229A1 (en) Augmenting neural networks
CN111966361A (zh) 用于确定待部署模型的方法、装置、设备及其存储介质
CN111368551A (zh) 一种确定事件主体的方法和装置
CN113627536A (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN111008213A (zh) 用于生成语言转换模型的方法和装置
CN111414343B (zh) 日志写入方法、装置、电子设备和介质
CN112269875B (zh) 文本分类方法、装置、电子设备及存储介质
CN111709784B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN109840072B (zh) 信息处理方法和装置
CN111709583B (zh) 用户留存时间生成方法、装置、电子设备和介质
CN110991661A (zh) 用于生成模型的方法和装置
CN114238611B (zh) 用于输出信息的方法、装置、设备以及存储介质
CN112464654B (zh) 关键词生成方法、装置、电子设备和计算机可读介质
CN111709787B (zh) 用于生成用户留存时间的方法、装置、电子设备和介质
CN111709785B (zh) 用于确定用户留存时间的方法、装置、设备和介质
CN113128677A (zh) 模型生成方法和装置
CN111709786B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN111598037B (zh) 人体姿态预测值的获取方法、装置,服务器及存储介质
CN114331379B (zh) 用于输出待办任务的方法、模型训练方法和装置
CN111475775B (zh) 图形处理器的数据处理方法、文本处理方法、装置和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant