CN111401972A - 一种数据处理及广告评分方法、装置及设备 - Google Patents

一种数据处理及广告评分方法、装置及设备 Download PDF

Info

Publication number
CN111401972A
CN111401972A CN202010286947.9A CN202010286947A CN111401972A CN 111401972 A CN111401972 A CN 111401972A CN 202010286947 A CN202010286947 A CN 202010286947A CN 111401972 A CN111401972 A CN 111401972A
Authority
CN
China
Prior art keywords
data
characteristic data
hidden information
characteristic
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010286947.9A
Other languages
English (en)
Inventor
赵科科
王攀
赵耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010286947.9A priority Critical patent/CN111401972A/zh
Publication of CN111401972A publication Critical patent/CN111401972A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书实施例公开了一种数据处理及广告评分方法、装置及设备。其中数据处理方案,包括:从输入特征矩阵中获取第一特征数据和第二特征数据;分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。

Description

一种数据处理及广告评分方法、装置及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种数据处理及广告评分方法、装置及设备。
背景技术
现有的数据处理方案,通常是将所有特征数据一并输入到同一个处理网络(比如深度神经网络)中进行数据处理,而且在后期性能优化中,一般是从工程实施部署的方案上考虑,比如把上述输入并发地请求多个服务器共同处理,或者优化服务器的单机算力,把上述输入以批处理方式,请求服务器处理。
发明内容
有鉴于此,本说明书实施例提供了一种数据处理及广告评分方法、装置及设备,通过从处理逻辑上优化处理网络的结构,便于实施部署和提升处理效率。
本说明书实施例采用下述技术方案:
本说明书实施例提供一种数据处理方法,包括:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
本说明书实施例还提供一种广告评分方法,包括:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
本说明书实施例还提供一种数据处理装置,包括:
获取模块,从输入特征矩阵中获取第一特征数据和第二特征数据;
计算模块,分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
输出模块,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
本说明书实施例还提供一种广告评分装置,包括:
获取模块,从输入特征矩阵中获取用户特征数据和创意特征数据;
计算模块,分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
输出模块,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
本说明书实施例还提供一种用于数据处理的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
本说明书实施例还提供一种用于广告评分的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
将用于处理的深层网络,先从逻辑上将输入特征分拆出共同特征和非共同特征两部分特征数据,再采用不同的处理逻辑对共同特征和非共同特征进行单独的计算处理,即对共同特征单独计算一次以获得该共同特征对应的第一隐藏信息,而对非共同特征单独进行计算以获得非共同特征对应的第二隐藏信息,而且在对非共同特征计算时无需再对共同特征进行计算,因而既优化了处理网络的结构,减少了处理网络所需的资源,方便实施部署,还避免了共同特征被重复多次计算,有效提升处理效率,减少后期性能优化的需求。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例中现有数据处理方案的示意图。
图2为本说明书实施例提供的一种数据处理方案的示意图。
图3为本说明书实施例提供的一种数据处理方法的流程图。
图4为本说明书实施例提供的一种数据处理方法中离线计算共同特征的结构示意图。
图5为本说明书实施例提供的一种数据处理方法中矩阵切片的代码片段示意图。
图6为本说明书实施例提供的一种数据处理装置的示意图。
图7为本说明书实施例提供的一种广告评分方法的流程图。
图8为本说明书实施例提供的一种广告评分方法中进行数据处理的代码片段示意图。
图9为本说明书实施例提供的一种广告评分装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
正如前述,现有数据处理方案中,是将所有输入特征数据一并输入到处理网络中进行处理,不仅导致处理网络的结构过于复杂,还占用大量计算资源,数据处理效率低,也不易后期性能优化。
而且发明人还发现,这些输入特征数据,通常可分成共同特征和非共同特征两部分特征,而且在特征数据收集阶段时,往往已经通过特征工程分别完成共同特征和非共同特征的数据收集、提取等工作,但在利用深度网络根据特征数据预测结果时,又将这两部分数据合并后作为处理网络的输入,由一个处理网络对输入进行计算和预测输出。
如图1所示,在该处理网络的输入特征矩阵中,共同特征采用一个向量表示,如将共同特征表示成向量common feature,非共同特征是根据应用场景需要而采用若干个向量表示,如将非共同特征表示成n(n为正整数)个向量item feature,即向量item_1feature至向量item_n feature,从而通过深度网络处理后,输出该共同特征分别结合到各个非共同特征后对应的预测结果。
因而在该网络处理中,共同特征向量common feature将跟随n个非共同特征向量item feature在处理网络中被计算n次。
因此,该处理方案中并未充分利用共同特征是完全相同的这一属性,造成处理网络需要对相同的共同特征重复处理,这样不仅处理网络的结构复杂,还需要占用大量处理资源,整体处理效率也低。
基于此,本说明书实施例提供一种新的数据处理方案。
如图2所示,本说明书实施例提供一种数据处理方案,先从逻辑上把输入特征数据分拆为第一特征数据(即共同特征,一个向量common feature)和第二特征数据(即非共同特征,若干向量item feature),即从输入特征矩阵中分拆出共同特征和非共同特征,再将深层网络处理模型从逻辑上分拆为共用模块、非共用模块和输出模块,从而利用共用模块对共同特征仅计算一次,而非共用模块单独处理非共同特征,这样共用模块输出共同特征对应的隐藏层信息,非共用模块输出非共同特征对应的隐藏层信息,最后将这些隐藏信息合并后输入到输出模块中,由输出模块根据隐藏信息获取处理结果后输出预测结果。
因此,通过改进处理网络的网络结构,既简化了处理网络的结构,也避免对共同特征进行多次重复计算,可降低处理资源需求,提升处理效率,处理网络模型也更容易实施部署,后期性能优化也更容易。
需要说明的是,处理共同特征的共用模块和处理非共同特征的非共用模块,均可采用成熟的深度网络结构,这里不对模块做具体限定。
以下结合附图,详细说明本申请各实施例提供的技术方案。
如图3所示,本说明书实施例提供一种数据处理方法,包括步骤:
步骤S102、从输入特征矩阵的元素中获取第一特征数据和第二特征数据。
其中,第一特征数据用于表征相同类型数据的属性,因而可称为共同特征,采用一个向量表示;第二特征数据用于表征不同类型数据的属性,因而可称为非共同特征,根据实际应用场景的需要采用若干向量表示。
例如,广告推送应用场景中,不同广告,其自身所具有的特点(比如广告内容、尺寸、ID、广告关键词等)各不相同,因而可将广告自身具有的特点表示为非共同特征,而广告通常是针对某群体用户,因而可将该用户所具有的特点(比如身份属性、行为属性等)表示为共同特征。
需要说明的是,共同特征和非共同特征均可通过特征工程完成数据的收集、提取等工作,这里不再做具体限定。
具体实施中,共同特征分别与每一非共同特征构成特征对,作为输入特征矩阵的元素,从而可利用深度网络对每个矩阵元素进行预测处理,以获得矩阵元素对应的预测结果,因而每一矩阵元素在深度网络处理后均获得相应的预测结果。
例如,共同特征采用向量common feature表示,非共同特征采用若干向量itemfeature(即item_1feature至item_n feature)表示,构成的输入特征矩阵:
[[common feature,item_1feature],
[common feature,item_2feature],
[common feature,...],
[common feature,item_n feature]]
其中,矩阵的元素为[common feature,item_k feature],k=1,2,…,n。
因此,先从处理逻辑上,从输入特征矩阵中分拆出共同特征(即第一特征数据)和非共同特征(第二特征数据),以便后续数据处理。
在一些实施方式中,可通过特征抽取方式,从输入特征矩阵中分拆出所述共同特征和所述非共同特征。
因为矩阵的每个元素中均包含相同的部分,即共同特征,因而通过对矩阵的元素进行特征判断,可方便地确定出矩阵的元素中属于共同特征的部分和属于非共同特征的部分,从而方便地从矩阵中分拆出共同特征和各个非共同特征,进而方便地进行重复的特征数据去除、空的特征数据丢弃等操作,最终完成共同特征和非共同特征的抽取过程。
例如,继续以前述示例中的输入特征矩阵说明,根据每个元素中均包含有相同部分,即向量common feature,直接从矩阵中提取出任意一个向量common feature作为第一特征数据,相应地,直接从矩阵中提取出每个item feature后再构成第二特征数据。
在一些实施方式中,共同特征可采用用户特征加以表征。
应用场景中的应用通常是针对某一具体的用户,而用户通常具有自身特征,而且用户使用应用场景中的应用时,通常表现为自身特有的特点,因而可将用户使用应用时的自身特点表征为用户特征,这样可通过用户特征来对区分用户在应用场景中的表现。
例如,支付场景中,用户使用不同支付工具都有自身特点,这时可根据用户特征区分用户使用不同支付工具的情况。
因而一个用户对应的用户特征向量可与若干支付工具对应的非用户特征(如支付工具自身的特征)构成输入特征矩阵。
具体实施中,可根据实际应用场景,用户特征可包括用户的年龄(或者是年龄段)、性别、职业等若干身份特征,和/或用户特征可包括用户的消费习惯、支付习惯、转账操作、登陆操作等若干行为特征。
具体实施中,为便于计算机系统处理,可将用户特征表示为向量。具体地,一个用户的用户特征可采用一个向量表示,如前述矩阵中向量common feature。
步骤S104、分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息。
其中,第一隐藏信息为共同特征经处理后,用于表征共同特征在深度网络中对应的隐藏信息,第二隐藏信息为非共同特征经处理后,用于表征非共同特征在深度网络中对应的隐藏信息。因此,第一隐藏信息、第二隐藏信息可为深度网络在输出层中所需的输入数据,比如特征经若干网络层处理后的隐藏信息。
因此,在步骤S102将输入特征从逻辑上分拆后,继续从处理逻辑上,将共同特征和非共同特征采用不同的处理逻辑分开计算,分别获取出处理网络的输出层所需的隐藏信息,这样对于只依赖共同特征的网络层只需进行一次计算,而无需依赖共同特征的网络层(如对非共同特征进行计算的网络层)无需对共同特征处理,所以共同特征在处理网络中只被计算一次,而非被重复计算多次。
这样,通过将现有的处理网络分成处理共同特征的网络和处理非共同特征的网络两部分,不仅简化了处理网络的机构,降低处理网络的复杂度,减少处理网络对资源的占用,也避免了对共同特征进行重复计算,有效减少了计算量,提升了处理效率。
需要说明的是,用于计算隐藏信息的深度网络的网络层可以包括若干embedding(隐藏)层,网络层可以为全连接、分组全连接、交叉层等。具体实施中,网络层可参照成熟的深度网络的构造过程进行构造,这里不再赘述。
需要说明的是,第一隐藏信息对应于共同特征,因而仍采用一个向量表示,第二隐藏信息对应于非共同特征,因而仍采用对应的若干向量表示。
另外,前述向量的维数,可根据处理网络确定,这里不对维数做限定。
步骤S106、根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵的元素对应的预测结果。
具体实施中,深度网络作为预测模型,深度网络的输出层(即输出模块)可将所述第一隐藏信息和所述第二隐藏信息作为输入,经计算后输出处理结果(即预测结果)。
需要说明的是,预测结果为实际应用场景需要深度网络进行预测而输出结果,比如深度网络用于预测广告的点击率,则预测结果可为输入特征矩阵中对应的广告的点击率,又比如深度网络用于为推送广告进行打分,则预测结果为输入特征矩阵中对应的广告的分数值(或者概率值等),这里不再一一列举。
需要说明的是,深度网络的输出层仍可采用现有方案中的输出层,输出层还可参考深度网络的构造过程进行构造,这里不做具体限定。
通过上述步骤S102~S106,先从逻辑上将输入特征分拆出共同特征和非共同特征两部分特征数据,然后采用不同的处理逻辑对共同特征和非共同特征进行单独的计算处理,即对共同特征单独计算一次以获得该共同特征对应的第一隐藏信息,而对非共同特征单独进行计算以获得非共同特征对应的第二隐藏信息,而且在对非共同特征计算时无需再对共同特征进行计算,因而既优化了处理网络的结构,减少了处理网络所需的资源,方便实施部署,还避免了共同特征被重复多次计算,有效提升处理效率,减少后期性能优化的需求。
在一些实施方式中,可将所述第一隐藏信息和所述第二隐藏信息交叉合并构成深度网络的输出层所需的输入矩阵,即隐藏信息矩阵。
需要说明的是,可参照前述的输入特征矩阵中的元素中包含的特征数据的次序,交叉合并构成该矩阵,以便处理结果对应于输入特征矩阵的次序。
在一些实施方式中,可根据所述第二隐藏信息的数量,在处理网络的输出层中通过复制所述第一隐藏信息,将复制后的第一隐藏信息与第二隐藏信息构成出隐藏信息矩阵。
在一些实施方式中,还可根据所述第二隐藏信息的数量,在所述第一隐藏信息从共用模块向输出层输出前,进行复制后再输出,这样可直接在输出层构成隐藏信息矩阵,减少了输出层的改造工作量。
在一些实施方式中,上述处理逻辑均是在处理网络的内部实现,因而可将处理网络在训练后形成处理模型(即处理引擎),再部署上线,这样可无需更改原有的在线处理系统,方便实施部署。
在一些实施方式中,共同特征通常变化较缓慢,而非共用特征往往跟随线上的应用场景而多变,这时可采用如图4所示的处理结构,将计算共同特征的处理逻辑(即共用模块)从部署于线上的深度网络中剥离出来,并采用离线方式完成共同特征的计算后再输入到深度网络中,而计算非共同特征的处理逻辑(即非共用模块)仍设置于深度网络中。
具体实施中,可通过定制离线的数据预处理模型,作为计算共同特征的数据预处理模块(即共用模块)。当然,数据预处理模型还可以采用深度网络,因而不对数据预处理模型做具体限定。
通过离线方式预处理获得共同特征对应的第一隐藏信息,可节省计算量,提升线上处理效率,还进一步简化深度网络的结构,节省线上资源,方便部署。
在一些实施方式中,在训练阶段时,通常将训练数据预先设置为一个个特征对(即矩阵的元素)作为训练集的数据,因而训练时通常是逐个特征对作为输入,这时可直接从特征对中提取第一特征数据和第二特征数据;而在线预测阶段,由于输入特征矩阵的数据量是跟随实际应用场景而变化的,所以无法预先知道该数据量,因而一般是将特征数据设置于输入特征矩阵中,即由若干特征对构成输入特征矩阵,预测时再从矩阵中获取数据。
因此,从矩阵中获取数据时,可通过矩阵切片来完成第一特征数据和第二特征数据提取。
具体实施中,可在深度网络中额外增加标志位,从而通过判断该标志位的赋值情况,判断出深度网络是用于训练阶段还是线上预测阶段,以确定是否需要对输入特征矩阵进行切片,以便高效地获取第一特征数据和第二特征数据,进一步提升数据处理效率。
具体实施中,训练阶段时,可将标识位的值设置为“1”,从而深度网络在判断出标志位为1时,从输入特征矩阵中一次只获取每一个矩阵元素,从而从获取的元素中提取出第一特征数据和第二特征数据,这时训练阶段中一次只获取一个矩阵元素,利用该元素中的第一特征数据和第二特征数据训练深度网络;而在线预测阶段时,将该标志位的值赋值为矩阵中的元素的数量,这样切片后,只取一次第一特征数据,而第二特征数据仍依次从每个矩阵元素中提取。
如图5所示,在利用标志位对输入特征矩阵进行切片的代码片段(基于TensorFlow的代码示意)中,当判断出数据处理阶段属于训练阶段(即nv=1)时,则不对输入特征矩阵进行切片,即通过tf.cond避免调用函数sparse_gather,相反,当判断出数据处理属于预测阶段(即nv≥1)时,则通过对输入特征矩阵进行切片操作。
因而,通过对矩阵切片,可提高第一特征数据和第二特征数据的获取效率,从而提升数据处理效率。
需要说明的是,切片操作应根据实际应用场景中输入特征矩阵的数据设置进行实际切片,这里不对切片进行限定。
基于同一个发明构思,本说明书实施例还提供用于数据处理的装置、电子设备以及非易失性计算机存储介质。
图6为本说明书实施例还提供的一种数据处理装置的结构示意图。
如图6所示,数据处理装置10包括:获取模块11,从输入特征矩阵中获取第一特征数据和第二特征数据;计算模块12,分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;输出模块13,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
可选地,数据处理装置10还包括:
第一配置模块14,添加标志位,所述标志位用于表征数据处理阶段,所述数据处理阶段包括训练阶段或者预测阶段;
从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
判断所述标志位以确定所述数据处理阶段;
根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据。
可选地,当确定的所述数据处理阶段为所述预测阶段,根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
按所述预测阶段对应的数据提取方式对输入特征矩阵进行切片操作;
根据所述切片操作从输入特征矩阵中,获取一次第一特征数据,以及依次获取出第二特征数据。
可选地,数据处理装置10还包括:
第二配置模块15,将所述第一隐藏信息和所述第二隐藏信息构成隐藏信息矩阵;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果,包括:
根据所述隐藏信息矩阵,计算输出所述输入特征矩阵对应的预测结果。
可选地,计算所述第一特征数据,包括:离线计算所述第一特征数据。
本说明书实施例还提供一种用于数据处理的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
本说明书实施例还提供一种用于数据处理的非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
基于同一个发明构思,本说明书实施例还提供一种广告评分方法、装置、电子设备以及非易失性计算机存储介质。
需要说明的是,本说明书实施例提供的广告评分方案,处理过程与前述的数据处理方案中说明的处理过程相同/相近,因而下面仅做简要说明。
如图7所示,本说明书实施例提供的一种广告评分方法,包括:
步骤S202、从输入特征矩阵中获取用户特征数据和创意特征数据。
具体实施中,广告通常是针对某群体用户,因而可将该用户所具有的特点(比如身份属性、行为属性等)表示为共同特征,这样用户特征数据可表征广告目标对象(即用户)的用户特征。
具体地,用户特征可根据实际应用场景确定,比如用户特征可包括用户的年龄(或者是年龄段)、性别、职业等若干身份特征,和/或用户特征可包括用户的消费习惯、支付习惯、转账操作、登陆操作等若干行为特征,这里不再赘述。
为便于计算机系统处理,可将用户特征表示为一个向量。
具体实施中,创意特征数据用于表征广告创意,以体现广告自身特征,其中广告创意是指通过独特的技术手法或巧妙的广告创作脚本,更突出体现产品特性和品牌内涵,并以此促进产品销售等,因而广告创意是广告自身特有内容。
具体地,创意特征可根据实际应用场景中广告自身所具有的特点确定,如广告内容、尺寸、ID、广告关键词等,这些特点通常为非共同特征,因而可用于表征广告创意。
因此,先从逻辑上,将广告评分所需的输入特征进行分拆,方便后续处理。
步骤S204、分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息。
然后,在特征数据分拆后,再从处理逻辑上,分开计算作为共同特征的用户特征数据和作为非共同特征的创意特征数据,既简化了广告评分网络的结构,减少评分网络对资源的占用,也避免了用户特征被重复计算,可提升评分效率。
步骤S206、根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
通过步骤S204的处理后,分别获得该用户以及不同广告的隐藏信息,因而可利用评分网络(即深度网络)的输出层对隐藏信息计算输出最终评分结果(即预测分数)。
需要说明的是,预测分数可采用百分制表示,也可为其他形式表示,这里不再具体限定。
通过上述步骤S202~S206,先从逻辑上将输入特征分拆出用户特征数据(即共同特征)和创意特征数据(即非共同特征)两部分特征数据,然后采用不同的处理逻辑对两部分特征单独计算处理,即对共同特征单独计算一次以获得该共同特征对应的第一隐藏信息,而对非共同特征单独进行计算以获得非共同特征对应的第二隐藏信息,而且在对非共同特征计算时无需再对共同特征进行计算,因而既简化了处理网络的结构,减少了处理网络所需的资源,方便实施部署,还避免了共同特征被重复多次计算,有效提升处理效率,减少后期性能优化的需求。
下面以一代码片段(基于TensorFlow)对广告评分仅做简要示意说明。
如图8所示,在定义的方法WtActCtrModel中,init完成初始化准备,然后build_model完成评分网络的主要处理工作。
例如,首先,从输入特征矩阵sp中分别获取出有关数据,如数量input_nv、用户特征input_user、创意特征input_creative、batch_size等;
然后,分别对用户特征和创意特征分开计算处理,比如进行dense层处理;
接着,在获得各自隐藏信息后,再将隐藏信息合并处理,比如恢复user网络的输出、创意特征的输出等,并合并隐藏信息,如merged代码,最后输出合并后的隐藏信息,如output代码。
最后,在输出层计算输出预测分数,比如采用softmax,最终获得预测分数pred_score。当然,还可以输出评价指标,比如ROC曲线。
图9为本说明书实施例还提供的一种广告评分装置的结构示意图。
如图9所示,广告评分装置20包括:获取模块21,从输入特征矩阵中获取用户特征数据和创意特征数据;计算模块22,分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;输出模块23,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
本说明书实施例还提供一种用于广告评分的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
本说明书实施例还提供一种用于广告评分的非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例侧重说明的都是与其他实施例的不同之处。尤其,对于系统、装置、设备、非易失性计算机存储介质实施例而言,由于其与方法是对应的,描述比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供的系统、装置、设备、非易失性计算机存储介质与方法是对应的,它们也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应的系统、装置、设备、非易失性计算机存储介质的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (14)

1.一种数据处理方法,包括:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
2.如权利要求1所述的方法,所述方法还包括:
添加标志位,所述标志位用于表征数据处理阶段,所述数据处理阶段包括训练阶段或者预测阶段;
从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
判断所述标志位以确定所述数据处理阶段;
根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据。
3.如权利要求2所述的方法,当确定的所述数据处理阶段为所述预测阶段,根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
按所述预测阶段对应的数据提取方式对输入特征矩阵进行切片操作;
根据所述切片操作从输入特征矩阵中,获取一次第一特征数据,以及依次获取出第二特征数据。
4.如权利要求1所述的方法,所述方法还包括:
将所述第一隐藏信息和所述第二隐藏信息构成隐藏信息矩阵;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果,包括:
根据所述隐藏信息矩阵,计算输出所述输入特征矩阵对应的预测结果。
5.如权利要求1所述的方法,计算所述第一特征数据,包括:离线计算所述第一特征数据。
6.一种广告评分方法,包括:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
7.一种数据处理装置,包括:
获取模块,从输入特征矩阵中获取第一特征数据和第二特征数据;
计算模块,分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
输出模块,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
8.如权利要求7所述的装置,所述装置还包括:
第一配置模块,添加标志位,所述标志位用于表征数据处理阶段,所述数据处理阶段包括训练阶段或者预测阶段;
从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
判断所述标志位以确定所述数据处理阶段;
根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据。
9.如权利要求8所述的装置,当确定的所述数据处理阶段为所述预测阶段,根据确定的所述数据处理阶段,按所述数据处理阶段对应的数据提取方式从输入特征矩阵中获取第一特征数据和第二特征数据,包括:
按所述预测阶段对应的数据提取方式对输入特征矩阵进行切片操作;
根据所述切片操作从输入特征矩阵中,获取一次第一特征数据,以及依次获取出第二特征数据。
10.如权利要求7所述的装置,所述装置还包括:
第二配置模块,将所述第一隐藏信息和所述第二隐藏信息构成隐藏信息矩阵;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果,包括:
根据所述隐藏信息矩阵,计算输出所述输入特征矩阵对应的预测结果。
11.如权利要求1所述的装置,计算所述第一特征数据,包括:离线计算所述第一特征数据。
12.一种广告评分装置,包括:
获取模块,从输入特征矩阵中获取用户特征数据和创意特征数据;
计算模块,分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
输出模块,根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
13.一种用于数据处理的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取第一特征数据和第二特征数据;
分别计算所述第一特征数据和所述第二特征数据,以生成深度网络中所述第一特征数据对应的第一隐藏信息和所述第二特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测结果。
14.一种用于广告评分的电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
从输入特征矩阵中获取用户特征数据和创意特征数据;
分别计算所述用户特征数据和所述创意特征数据,以生成深度网络中所述用户特征数据对应的第一隐藏信息和所述创意特征数据对应的第二隐藏信息;
根据所述第一隐藏信息和所述第二隐藏信息,计算输出所述输入特征矩阵对应的预测分数。
CN202010286947.9A 2020-04-13 2020-04-13 一种数据处理及广告评分方法、装置及设备 Pending CN111401972A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010286947.9A CN111401972A (zh) 2020-04-13 2020-04-13 一种数据处理及广告评分方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010286947.9A CN111401972A (zh) 2020-04-13 2020-04-13 一种数据处理及广告评分方法、装置及设备

Publications (1)

Publication Number Publication Date
CN111401972A true CN111401972A (zh) 2020-07-10

Family

ID=71433167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010286947.9A Pending CN111401972A (zh) 2020-04-13 2020-04-13 一种数据处理及广告评分方法、装置及设备

Country Status (1)

Country Link
CN (1) CN111401972A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103235974A (zh) * 2013-04-25 2013-08-07 中国科学院地理科学与资源研究所 一种提高海量空间数据处理效率的方法
CN105046515A (zh) * 2015-06-26 2015-11-11 深圳市腾讯计算机系统有限公司 广告排序方法及装置
CN105260794A (zh) * 2015-10-12 2016-01-20 上海交通大学 一种云数据中心的负载预测方法
CN105956888A (zh) * 2016-05-31 2016-09-21 北京创意魔方广告有限公司 广告个性化展示方法
CN107871244A (zh) * 2016-09-28 2018-04-03 腾讯科技(深圳)有限公司 一种广告效果的检测方法和装置
CN110188358A (zh) * 2019-05-31 2019-08-30 北京神州泰岳软件股份有限公司 自然语言处理模型的训练方法及装置
CN110209817A (zh) * 2019-05-31 2019-09-06 安徽省泰岳祥升软件有限公司 文本处理模型的训练方法、装置和文本处理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103235974A (zh) * 2013-04-25 2013-08-07 中国科学院地理科学与资源研究所 一种提高海量空间数据处理效率的方法
CN105046515A (zh) * 2015-06-26 2015-11-11 深圳市腾讯计算机系统有限公司 广告排序方法及装置
CN105260794A (zh) * 2015-10-12 2016-01-20 上海交通大学 一种云数据中心的负载预测方法
CN105956888A (zh) * 2016-05-31 2016-09-21 北京创意魔方广告有限公司 广告个性化展示方法
CN107871244A (zh) * 2016-09-28 2018-04-03 腾讯科技(深圳)有限公司 一种广告效果的检测方法和装置
CN110188358A (zh) * 2019-05-31 2019-08-30 北京神州泰岳软件股份有限公司 自然语言处理模型的训练方法及装置
CN110209817A (zh) * 2019-05-31 2019-09-06 安徽省泰岳祥升软件有限公司 文本处理模型的训练方法、装置和文本处理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
侯春萍等: "基于卷积神经网络的雷达人体动作与身份多任务识别", 《激光与光电子学进展》 *
范正光等: "基于深层神经网络的多特征关联声学建模方法", 《计算机研究与发展》 *

Similar Documents

Publication Publication Date Title
US11468366B2 (en) Parallel development and deployment for machine learning models
CN107957989B (zh) 基于集群的词向量处理方法、装置以及设备
CN104679743B (zh) 一种确定用户的偏好模式的方法及装置
CN111709533A (zh) 机器学习模型的分布式训练方法、装置以及计算机设备
CN110727868B (zh) 对象推荐方法、装置和计算机可读存储介质
US20200349467A1 (en) Preparing Structured Data Sets for Machine Learning
CN111241353B (zh) 一种图数据的分区方法、装置以及设备
CN110020427B (zh) 策略确定方法和装置
CN113688313A (zh) 一种预测模型的训练方法、信息推送的方法及装置
CN111914178A (zh) 基于人工智能的信息推荐方法、装置、电子设备及存储介质
CN110502614B (zh) 文本拦截方法、装置、系统以及设备
CN113011483A (zh) 一种模型训练和业务处理的方法及装置
CN114339362A (zh) 视频弹幕匹配方法、装置、计算机设备和存储介质
CN117370536B (zh) 一种任务执行方法、装置、存储介质及电子设备
CN113157941B (zh) 业务特征数据处理、文本生成方法、装置及电子设备
CN113641894A (zh) 一种信息推荐的方法及装置
KR20230152629A (ko) 재구성된 질의를 생성하기 위한 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
CN108595395B (zh) 一种昵称的生成方法、装置及设备
CN111401972A (zh) 一种数据处理及广告评分方法、装置及设备
CN111950753A (zh) 一种景区客流预测的方法及装置
CN115543945A (zh) 一种模型压缩的方法、装置、存储介质及电子设备
CN115393022A (zh) 跨域推荐处理方法及装置
CN114418059A (zh) 一种信息处理方法及装置
CN113255857A (zh) 一种图形码的风险检测方法、装置及设备
CN111291174A (zh) 基于区块链的线上阅读文章资讯排序方法及设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination