CN108319585B - 数据处理方法及装置、电子设备、计算机可读介质 - Google Patents

数据处理方法及装置、电子设备、计算机可读介质 Download PDF

Info

Publication number
CN108319585B
CN108319585B CN201810084343.9A CN201810084343A CN108319585B CN 108319585 B CN108319585 B CN 108319585B CN 201810084343 A CN201810084343 A CN 201810084343A CN 108319585 B CN108319585 B CN 108319585B
Authority
CN
China
Prior art keywords
training
store
candidate
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810084343.9A
Other languages
English (en)
Other versions
CN108319585A (zh
Inventor
姚强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201810084343.9A priority Critical patent/CN108319585B/zh
Publication of CN108319585A publication Critical patent/CN108319585A/zh
Priority to AU2018405096A priority patent/AU2018405096B2/en
Priority to PCT/CN2018/121299 priority patent/WO2019144728A1/zh
Priority to KR1020207024798A priority patent/KR20200112955A/ko
Application granted granted Critical
Publication of CN108319585B publication Critical patent/CN108319585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及一种数据处理方法及装置、电子设备和计算机可读介质。属于互联网技术领域,该数据处理方法包括:统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息;根据所述训练数据训练神经网络模型;根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。本公开能够实现地理位置约束的搜索结果召回。

Description

数据处理方法及装置、电子设备、计算机可读介质
技术领域
本公开涉及互联网技术领域,具体而言,涉及一种数据处理方法及装置、电子设备、计算机可读介质。
背景技术
关键词广告是搜索广告中非常重要的一种形态,用户在给定搜索查询(query)之后,返回相关的一些排序广告结果内容。整个关键词广告中最重要的一环是广告的召回,也就是确定满足相关性的广告候选,在此之后才会进行结果排序等过程。召回结果的相关性和数量都对整个广告结果质量有着至关重要的作用。
在O2O(Online To Offline,在线离线/线上到线下)场景下的搜索广告召回环节有独特的相关性要求,对地理位置是非常敏感的。
搜索广告召回阶段,目前常用的方法为:
1.文本语义匹配召回
在电子商务和搜索的场景下,搜索广告的召回方法通常是,根据用户请求query和候选广告的语义等匹配度,匹配和召回满足相关性的广告结果。
但是,这种文本语义匹配召回方式只基于文本语义相似度进行召回,一方面,无法满足O2O这种位置限定条件下的约束,从而部分召回结果相关性比较差;另一方面,因为没有条件约束,召回结果的量会比较多,结果排序阶段的性能压力比较大。
2.条件门槛截断召回
对于O2O等有特殊限定的广告场景,通常按照正常的query分词和语义匹配等方法,从广告库中找出符合要求的广告,再基于其余限定条件(比如在O2O场景下,会有不同的品类等)去设定不同的门槛(例如距离),满足门槛要求的结果作为满足地理位置相关的结果召回。其中距离门槛的设定会和非常多的因素有关系,通常的做法是根据历史数据做统计分析,设定平均门槛进行截断和准入。
在O2O场景下会有距离约束条件,但是绝对门槛并不好确定,较大的距离门槛会导致后续排序等阶段计算性能压力大,较小的距离门槛可能会漏召回一些原本满足条件的候选广告。
发明内容
本公开提供一种数据处理方法及装置、电子设备、计算机可读介质,能够至少部分地或者全部地解决上述现有技术中存在的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种数据处理方法,包括:统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息;根据所述训练数据训练神经网络模型;根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。
在本公开的一种示例性实施例中,所述统计历史用户行为数据获取训练数据包括:对所述历史用户点击行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对;将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列。
在本公开的一种示例性实施例中,所述根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息包括:将所述候选门店的基础信息分词后获得候选输入序列;将所述候选输入序列输入至序列好的序列到序列的神经网络模型中,获得相应的候选用户信息。
在本公开的一种示例性实施例中,所述训练数据还包括训练门店的经纬度、训练用户与相应的训练门店之间的距离。
在本公开的一种示例性实施例中,所述统计历史用户行为数据获取训练数据还包括:根据训练门店的经纬度获得训练门店的geohash序列;对所述训练用户与相应的训练门店之间的距离进行离散化处理获得离散距离值;将训练门店的geohash序列增加至所述训练输入序列,并将所述离散距离值增加至所述训练输出序列。
在本公开的一种示例性实施例中,所述方法还包括:采用beam search算法扩展候选用户信息;和/或将所述候选用户信息中的满足预设条件的单个分词词项作为候选用户信息。
在本公开的一种示例性实施例中,所述方法还包括:获取当前用户信息;根据所述当前用户信息获取匹配的候选用户信息;根据匹配的候选用户信息获得召回的候选门店。
在本公开的一种示例性实施例中,所述方法还包括:获得召回的候选门店及相应的候选用户之间的离散距离值;根据所述离散距离值获得所述当前用户的约束距离,对召回的候选门店进行筛选。
在本公开的一种示例性实施例中,所述历史用户行为数据包括历史用户点击行为数据,门店的基础信息中的地理位置信息包括门店的地址;用户信息包括用户输入的查询信息。
在本公开的一种示例性实施例中,门店的基础信息还包括门店的标题、描述、品类中的一种或者多种,其中门店的基础信息中的地理位置信息还包括门店所属商圈。
根据本公开的一个方面,提供一种数据处理装置,包括:训练数据获取模块,用于统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息;模型训练模块,用于根据所述训练数据训练神经网络模型;结果预测模块,用于根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。
根据本公开的一个方面,提供一种电子设备,包括存储器、处理器及存储在该存储器上并可在该处理器上运行的计算机程序,该程序被该处理器执行时实现上述任一实施例中的方法步骤。
根据本公开的一个方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例中的方法步骤。
根据本公开某些实施例中的数据处理方法及装置、电子设备、计算机可读介质,基于历史用户行为数据获取训练数据,其中训练数据中的训练门店的基础信息包括训练门店的地理位置信息;再通过所述训练数据训练神经网络模型;然后通过该训练好的神经网络模型可以预测候选用户信息,从而能够实现地理位置约束的搜索结果召回。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
通过参照附图详细描述其示例实施例,本公开的上述和其它目标、特征及优点将变得更加显而易见。
图1是根据一示例性实施方式示出的一种数据处理方法的流程图。
图2是根据一示例性实施方式示出的一种神经网络模型训练的结构示意图。
图3是根据一示例性实施方式示出的另一种数据处理方法的流程图。
图4是根据一示例性实施方式示出的另一种神经网络模型训练的结构示意图。
图5是根据一示例性实施方式示出的一种数据处理装置的示意图。
图6是根据一示例性实施方式示出的一种电子设备的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现或者操作以避免喧宾夺主而使得本公开的各方面变得模糊。
图1是根据一示例性实施方式示出的一种数据处理方法的流程图。
如图1所示,该数据处理方法可以包括以下步骤。
在步骤S110中,统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息。
在示例性实施例中,所述历史用户行为数据包括历史用户点击行为数据,所述训练门店的基础信息中的地理位置信息可以包括训练门店的地址。在其他实施例中,所述训练门店的基础信息中的地理位置信息还可以包括训练门店所属商圈。
本实施例中,训练门店的所述地理位置信息可以包括训练门店的地址和其所属商圈,但在某些情况下,有些训练门店的地理位置信息也可以仅包括训练门店的地址。
在本发明实施例中,所述训练用户信息包括训练用户输入的查询信息。用户输入的查询信息又称之为query,其可以为任意形式,可以为单个词,也可以为一句话。
在示例性实施例中,所述训练门店的基础信息还可以包括训练门店的标题、描述、品类等中的一种或者多种。
需要说明的是,本发明实施例中的训练门店、以及下文中的候选门店可以是实际的同一门店,也可以是不同的门店,“训练”和“候选”仅是用于神经网络模型的训练阶段和预测阶段的数据区分,并不代表实际的门店一定是区别开来的。类似的,本发明实施例中的训练用户以及下文中的候选用户可以是实际的同一用户,也可以是不同的用户。
在示例性实施例中,所述统计历史用户行为数据获取训练数据包括:对所述历史用户点击行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对;将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列。
具体的,在对神经网络模型进行训练时,所使用的训练数据为:从历史用户点击行为日志中获取的query及其对应的被点击的门店的基础信息例如门店的地址所构成的数据对。
其中,历史用户点击行为日志来自于搜索引擎的日志系统。搜索引擎的日志系统会记录用户的点击行为,该点击行为反映了用户的搜索意图和搜索结果之间的相关性。在搜索引擎的日志系统中,会有算法对用户的有效性和用户点击行为的有效性进行标识,因此本步骤在训练模型时所使用的训练数据为有效用户产生的有效点击数据。
在本实施例中的训练数据准备阶段,神经网络模型从历史用户行为数据例如历史用户点击行为上进行学习,这里的训练数据为门店-query查询对的格式。具体包括:
首先,对历史用户点击行为进行统计,把发生过一定频次(该频次可以根据具体场景进行自主设定或调整)的门店-query组织成数据对。
然后,把上述门店-query的数据对,门店和query的部分,组织成seq2seq(这里以序列到序列为例)神经网络需要的输入输出形式,其中输入为门店的标题、描述、品类、地址、所属商圈文本组成的串分词后的序列;输出为数据对(pair)中用户输入的query的分词序列。
例如,用户在搜索“学院路清汤火锅”的时候,在“东来顺饭庄”标题上发生了点击,根据上述方法,组织成的神经网络模型的输入输出数据分别为:
输入(标题、描述、品类、地址、商圈):东来顺饭庄老北京涮锅海淀区成府路28号五道口购物中心五道口。
输出(用户输入的query):学院路清汤火锅。
需要说明的是,上述输入中的“东来顺”、“饭庄”是标题“东来顺饭庄”分词后获得的,“老”、“北京”、“涮锅”是该对应标题下对东来顺饭庄的描述“老北京”分词后获得的,“涮锅”是东来顺饭庄所属品类,第一个“五道口”、“购物”、“中心”是东来顺饭庄的地址,第二个“五道口”是东来顺饭庄所属商圈。另外,针对不同的门店,其具体包括的内容可能比上面例举的标题、描述、品类、地址、商圈更多或者更少,本公开对此不作限定。
本领域技术任意可以理解的是,本公开中的“门店”是一个广泛的概念,其可以指一家一家开立的实体商店,也可以是指商场中的多个实体摊位或门脸,甚至可以是提供服务的网络店铺,本公开对此不作限定。
在步骤S120中,根据所述训练数据训练神经网络模型。
在示例性实施例中,所述神经网络模型为序列到序列的神经网络模型,所述根据所述训练数据训练神经网络模型包括:将所述训练输入序列输入至所述序列到序列的神经网络模型中,生成所述序列输出序列。
其中,序列到序列(seq2seq)是一种把序列从一个域转换为另一个域中的序列的模型训练方法。目前有多种方法可以用来处理这个任务,可以使用RNN(Recurrent NeuralNetworks,循环神经网络),也可以使用一维卷积网络。本发明实施例中采用了RNN。
下面是它的工作原理:有一个RNN层(或其堆叠)作为“编码器”:它负责处理输入序列并返回其自身的内部状态。注意,将丢弃编码器RNN的输出,只恢复状态。该状态将在下一步骤中用作解码器的“上下文”或“环境”。另外还有一个RNN层(或其堆叠)作为“解码器”:在给定目标序列前一个字符的情况下,对其进行训练以预测目标序列的下一个字符。训练数据准备以后,进入神经网络模型训练阶段。把上述组织好的训练数据数据对送入seq2seq神经网络中进行序列到序列的映射学习,具体的结构如图2所示。
在使用训练数据训练神经网络模型时,将训练数据中query对应的被点击标题对应的门店的基础信息(该门店的基础信息包括门店的地理位置信息)进行分词处理,将分词处理后得到的词语序列作为输入序列,训练数据中query作为目标序列进行训练。
RNN网络结构如图2所示,该结构完成由输入序列到目标序列(即输出序列)的训练过程,而该训练过程实际上就是query所对应被点击标题对应的门店的基础信息到该query的翻译过程。利用RNN网络结构对该训练数据进行训练,训练的目标是使得训练数据中的该query对应被点击的标题对应的门店的基础信息经过翻译后尽可能得到该query。
由上面对RNN训练网络结构的描述中可以看出,RNN网络结构在模型中主要用来对序列数据进行编码和解码,对输入序列进行编码,将输入序列的语义信息编码在RNN的内部状态中;而RNN层则将含有语义信息的内部状态解码成目标序列,以此完成由输入序列到目标序列的过程。因此在本步骤中,将所述获取的输入序列输入到模型后,得到的输出序列即包含有该query对应被点击的标题对应的门店的基础信息的语义信息。
对于上述输入输出序列,本发明实施例可以使用BPTT(Backpropagation ThroughTime,通过时间的反向传播)+SGD(Stochastic Gradient Descent,随机梯度下降法)的神经网络训练算法进行训练,最小化交叉熵损失。
BPTT是应用于循环神经网络(RNN)的反向传播算法。BPTT可被看作是应用于RNN的标准反向传播算法,其中的每一个时间步骤(time step)都代表一个计算层,而且它的参数是跨计算层共享的。因为RNN在所有的时间步骤中都共享了同样的参数,一个时间步骤的错误必然能通过时间反向到之前所有的时间步骤,该算法也因而得名。当处理长序列(数百个输入)时,为降低计算成本常常使用一种删节版的BPTT。删节的BPTT会在固定数量的步骤之后停止反向传播错误。
SGD是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经迭代到最优解了,对比批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。
需要说明的是,本实施例中输入序列和输出序列对调是可以训练模型的,但是因为通常没有办法提前拿到用户输入的query,所以本发明实施例中是先对门店先预测和生成query,然后再根据线上用户输入的query去匹配预测生成的query。
在步骤S130中,根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。
在示例性实施例中,所述候选门店的基础信息中的地理位置信息包括候选门店的地址;所述候选用户信息包括候选查询信息。在其他实施例中,所述候选门店的基础信息中的地理位置信息还可以包括候选门店所属商圈。
在示例性实施例中,所述候选门店的基础信息还包括候选门店的标题、描述、品类等中的一种或者多种。
在示例性实施例中,所述根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息包括:将所述候选门店的基础信息分词后获得候选输入序列;将所述候选输入序列输入至训练好的所述序列到序列的神经网络模型中,获得相应的候选查询信息。
在示例性实施例中,所述方法还包括:经过预设处理扩展所述候选查询信息。
在示例性实施例中,所述预设处理包括:采用beam search算法扩展所述候选查询信息;和/或将所述候选查询信息中的满足预设条件的单个分词词项作为候选查询信息。
本发明实施例中,将门店的基础信息(标题+描述+品类+地址+商圈)作为输入,送入训练好的seq2seq神经网络模型进行预测,预测的结果即为候选query。其中,根据具体场景做一些处理可提高产出的候选查询信息:1.添加beam search算法产出更多候选query;2.单个预测的term(分词词项)也作为候选query。
其中,单个预测的term指的是,例如,预测产出的候选查询信息是“学院路清汤火锅”,会分别对“学院路”、“清汤”和“火锅”做相关性判断后,也视作候选query。
本发明实施例中,神经网络可以对文本序列的对应信息进行学习,产出文本对应上相关性高的候选query,相比之统计方法会有更好的泛化能力,对于新门店也有不错的泛化能力。
在示例性实施例中,所述方法还包括:将所述候选门店的基础信息及其相应的候选查询信息组成数据对存储。
在示例性实施例中,所述方法还包括:获取当前用户信息;根据所述当前用户信息获取匹配的候选查询信息;根据匹配的候选查询信息获得召回的候选门店。
具体的,可以将生成的候选门店-query对进行存储,实际线上用户搜索query命中存储query,则将该存储query对应的门店视作合适的候选门店召回。
本发明实施例中,所述当前用户信息可以包括实际线上用户输入的query,但本公开并不限定于此。
实际存储时,一个门店会对应很多个预测的候选query,实际线上用户输入的query只要命中任何一个候选query,在满足距离的条件下就可以召回这个候选query对应的门店。
需要说明的是,这里的满足距离的条件可以是通过将候选query对应的门店与该用户的当前位置之间的实际距离与一个预设的距离阈值进行比较,当该实际距离小于该距离阈值时,召回这个候选query对应的门店。需要说明的是,这个距离阈值的具体设定可以是预先设定的一个针对所有用户相同的一个距离阈值,也可以是根据候选query对应的门店的服务或者商品的品类设定的一个和品类相关的距离阈值,还可以是一个动态阈值,可以根据每个用户的历史行为数据进行动态调整的一个具有个性化的距离阈值,例如根据用户的历史点击和历史下单行为,可以分析出有些用户对距离较为敏感,则可以设置相对较小的距离阈值,有些用户对距离不敏感,则可以设置相对较大的距离阈值。
本发明实施例中,实际线上用户输入的query命中候选query可以指的是实际线上用户输入的query匹配候选query。
本公开实施方式提供的数据处理方法,使用序列到序列(seq2seq)的神经网络获取满足语义和位置相关性的搜索结果例如广告召回,在距离约束下提供了搜索结果的召回解决方案。具体的,可以将其应用于O2O场景下,利用seq2seq神经网络学习文本描述的地理位置对应关系,在召回阶段满足距离相关性。在另一些实施例中,还可以在召回阶段满足距离相关性的同时扩充召回结果量。
图3是根据一示例性实施方式示出的另一种数据处理方法的流程图。
如图3所示,本实施例提供的数据处理方法可以包括以下步骤。
在步骤S210中,对历史用户点击行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对,获得训练数据。
其中,图3所示实施例与图1所示实施例的区别之处在于,所述训练数据除了包括训练门店的基础信息,还包括训练门店的经纬度以及训练用户与相应的训练门店之间的距离。
需要说明的是,在本实施例中的训练门店的基础信息可以包括上述图1实施例中所述训练门店的地理位置信息例如地址和/或商圈,所述训练门店的基础信息还可以包括训练门店的标题、描述、品类等信息,所述训练门店的基础信息并不包括训练门店的经纬度。在一实施例中,门店的基础信息是门店自己维护的信息,或者门店上传到网络上显示的信息,而门店的经纬度通常需要通过后台查询获取,不属于门店的基础信息。同样的,本实施例中的训练用户信息可以包括上述图1实施例中所述训练用户输入的查询信息,不包括训练用户与相应的训练门店之间的距离。
在步骤S220中,将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列。
在步骤S230中,根据训练门店的经纬度获得训练门店的geohash序列。
在步骤S240中,对所述训练用户与相应的训练门店之间的距离进行离散化处理获得离散距离值。
在步骤S250中,将训练门店的geohash序列增加至所述训练输入序列,并将所述离散距离值增加至所述训练输出序列。
本发明实施例中,在数据准备阶段和上述图1所示实施例类似,一样从历史用户行为数据上获得门店-query对。为了捕捉文本之外的信息,本实施例中具体生成训练数据的方法为:
首先,把门店-query的数据对,门店和query,组织成seq2seq神经网络需要的输入输出形式,其中输入为门店的基础信息(标题、描述、品类、地址、商圈)分词串添加geohash(可由门店的经纬度计算得到)序列;输出为数据对中用户与门店的离散距离值+query的分词序列。
例如,可以按照每500米的步长进行离散化,但本公开并不限定于此,可以根据具体情况设定不同的步长进行距离的离散化。这里离散化距离的意思是,把用户和门店(或称之为商户)之间的距离,以500米分段的形式,分成很多组(实际操作的时候是距离/500取整,比如是3000米,那得到的结果是3000/500=6),因为序列到序列的神经网络并不能直接对距离的映射进行学习,所以把距离段处理成一个类别,相当于0-500米是“0”,500-1000是“1”,1000-1500是“2”,…,这种离散化后的类别,神经网络是可以学习得出来的。
例如,用户在搜索“学院路清汤火锅”的时候,在“东来顺饭庄”上发生了点击,根据上述方法,组织成的输入输出数据分别为:
输入(标题、描述、品类、地址、商圈、geohash):东来顺饭庄老北京涮锅海淀区成府路28号五道口购物中心五道口by9fm0jxm9nr5bf。
输出(离散距离、用户query):3000学院路清汤火锅。
需要说明的是,上述输出中的“3000”是指用户当前的实际位置和门店(或称之为商户)之间的距离为3000米,经过上述例如每500米的步长进行离散化后得到的离散距离为6。
在模型训练阶段,把上述添加经纬度处理后信息和距离信息的数据对送入seq2seq神经网络中进行序列到序列的映射学习,具体的结构如图4所示。
对于重新组织过的输入输出,同样可以适用BPTT+SGD的神经网络训练算法进行训练,最小化交叉熵损失。
本发明实施例中,将门店的基础信息(标题+描述+品类+地址+商圈)以及门店的经纬度geohash序列作为输入,送入训练好的seq2seq神经网络模型进行预测,预测的结果即为候选query。
这里,同样可以适用beam search算法产出更多候选query,单个预测的term也可以视作候选query。
在图4这种输入输出的组织结构中,把门店的经纬度和门店与用户之间的距离限制处理过后对神经网络模型进行训练,有更好的适用范围。
在步骤S260中,根据候选门店的基础信息、候选门店的经纬度及训练好的神经网络模型进行预测,获得相应的候选用户信息及候选用户与相应的候选门店之间的离散距离值。
其中,根据所述候选门店的经纬度获得候选门店的geohash序列,并将候选门店的geohash序列增加至所述候选输入序列。将所述候选输入序列输入至训练好的模型中后,一方面可以获得相应的候选用户信息;另一方面还可以获得候选用户与相应的候选门店之间的离散距离值。根据候选用户与相应的候选门店之间的离散距离值,可以获得候选用户与相应的候选门店之间的距离。
类似的,本实施例中的候选门店的基础信息可以包括上述图1实施例中所述候选门店的地理位置信息例如地址和/或商圈,所述候选门店的基础信息还可以包括候选门店的标题、描述、品类等信息。同样的,本实施例中的候选用户信息可以包括上述图1实施例中所述候选用户输入的查询信息。
需要说明的是,上述步骤S220、步骤S230、步骤S240之间并没有先后顺序,可以任意调整三者之间的执行顺序,或者三者同时执行。
在示例性实施例中,所述根据候选门店的基础信息、候选门店的经纬度及训练好的神经网络模型进行预测,获得相应的候选用户信息及候选用户与相应的候选门店之间的离散距离值还包括:根据候选门店的经纬度获得候选门店的geohash序列;将候选门店的geohash序列增加至候选输入序列。
在示例性实施例中,所述方法还包括:获得召回的候选门店及相应的候选用户之间的离散距离值;根据所述离散距离值获得所述当前用户的约束距离,对召回的候选门店进行筛选。
本发明实施例中,将生成的候选门店-query对进行存储,对于用户搜索query命中存储的候选query的,直接返回相应结果。同时神经网络输出的离散距离,可以作为当前query的约束距离,适用该约束距离作为召回的距离门槛,有比粗粒度统计算法更好的适配性。
例如,可以用上述的3000米对召回的候选门店做筛选。即当前用户输入query后,与存储的候选query匹配,将匹配的候选query对应的候选门店提取出来,同时比较提取出来的这些候选门店与当前用户的实际位置之间的距离是否小于3000米,将距离小于3000米的候选门店作为最终召回的搜索结果。
本公开实施方式提供的数据处理方法,一方面,通过对文本地理位置描述之间的关联学习,输出地理位置相关的候选query;另一方面,还可以对门店的经纬度信息进行编码后输入神经网络模型中学习,对输出序列中的距离信息进行离散化编码,从而在有距离相关性约束的场景下召回合理的结果,使得该数据处理方法可以适用任何位置约束的召回场景,使得该数据处理方法具有更好的通用性。
图5是根据一示例性实施方式示出的一种数据处理装置的框图。
如图5所示,该数据处理装置100可以包括训练数据获取模块110、模型训练模块120以及结果预测模块130。
训练数据获取模块110可以用于统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息。
模型训练模块120可以用于根据所述训练数据训练神经网络模型。
结果预测模块130可以用于根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。
在示例性实施例中,训练数据获取模块110可以包括数据对组织单元和训练分词单元。其中,所述数据对组织单元可以用于对所述历史用户行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对。所述训练分词单元可以用于将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列。
在示例性实施例中,结果预测模块130可以包括候选分词单元和结果预测单元。其中,所述候选分词单元可以用于将所述候选门店的基础信息分词后获得候选输入序列。所述结果预测单元可以用于将所述候选输入序列输入至训练好的序列到序列的神经网络模型中,获得相应的候选用户信息。
在示例性实施例中,所述训练数据还包括训练门店的经纬度以及训练用户与相应的训练门店之间的距离。
在示例性实施例中,训练数据获取模块110还可以包括经纬度序列获得单元、距离离散单元和训练序列增加单元。其中,所述经纬度序列获得单元可以用于根据训练门店的经纬度获得训练门店的geohash序列。所述距离离散单元可以用于对所述训练用户与相应的训练门店之间的距离进行离散化处理获得离散距离值。所述训练序列增加单元可以用于将训练门店的geohash序列增加至所述训练输入序列,并将所述离散距离值增加至所述训练输出序列。
在示例性实施例中,该数据处理装置100还可以包括第一扩展模块和/或第二扩展模块。其中,所述第一扩展模块可以用于采用beam search算法扩展候选用户信息。所述第二扩展模块可以用于将所述候选用户信息中的满足预设条件的单个分词词项作为候选用户信息。
在示例性实施例中,该数据处理装置100还可以包括当前用户信息获取模块、候选用户信息匹配模块以及候选门店获得模块。其中,所述当前用户信息获取模块可以用于获取当前用户信息。所述候选用户信息匹配模块可以用于根据所述当前用户信息获取匹配的候选用户信息。所述候选门店获得模块可以用于根据匹配的候选用户信息获得召回的候选门店。
在示例性实施例中,该数据处理装置100还可以包括距离获得模块和筛选模块。其中,所述距离获得模块可以用于获得召回的候选门店及相应的候选用户之间的离散距离值。所述筛选模块可以用于根据所述离散距离值获得所述当前用户信息的约束距离,对召回的候选门店进行筛选。
在示例性实施例中,所述历史用户行为数据包括历史用户点击行为数据,门店的基础信息中的地理位置信息包括门店的地址;用户信息包括用户输入的查询信息。
在示例性实施例中,门店的基础信息还包括门店的标题、描述、品类中的一种或者多种,其中门店的基础信息中的地理位置信息还包括门店所属商圈。
需要说明的是,上述发明实施例中的数据处理装置的模块的具体实现可以参照上述图1和图3所示的发明实施例中的数据处理方法的内容,在此不再赘述。
根据本公开的另一示例性实施方式,还提供了一种电子设备,其可以包括存储器、处理器及存储在该存储器上并可在该处理器上运行的计算机程序,其中,该程序被该处理器执行时实现上述图1和图3所示的发明实施例中的方法步骤。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备400的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,电子设备400包括处理器401,其可以根据存储在存储器403中的程序而执行各种适当的动作和处理。特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码,在该计算机程序被处理器401执行时,执行本申请的系统中限定的上述功能。处理器401、存储器403以及通信接口402通过总线彼此相连。
附图中的流程图和框图,图示了按照本申请各种实施例的终端、服务端、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息;根据所述训练数据训练神经网络模型;根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息,其中所述候选门店的基础信息中包括候选门店的地理位置信息。
以上具体地示出和描述了本公开的示例性实施方式。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。

Claims (8)

1.一种数据处理方法,其特征在于,包括:
统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息,所述训练数据还包括训练门店的经纬度、训练用户与相应的训练门店之间的距离;
根据所述训练数据训练神经网络模型;
根据候选门店的基础信息、所述候选门店的经纬度及训练好的神经网络模型进行预测,获得相应的候选用户信息及候选用户与相应的候选门店之间的离散距离,其中所述候选门店的基础信息中包括候选门店的地理位置信息;
所述统计历史用户行为数据获取训练数据包括:
对所述历史用户行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对;
将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列;
所述统计历史用户行为数据获取训练数据还包括:
根据训练门店的经纬度获得训练门店的geohash序列;
对所述训练用户与相应的训练门店之间的距离进行离散化处理获得离散距离值;
将训练门店的geohash序列增加至所述训练输入序列,并将所述离散距离值增加至所述训练输出序列。
2.根据权利要求1所述的数据处理方法,其特征在于,所述根据候选门店的基础信息及训练好的神经网络模型进行预测,获得相应的候选用户信息包括:
将所述候选门店的基础信息分词后获得候选输入序列;
将所述候选输入序列输入至训练好的序列到序列的神经网络模型中,获得相应的候选用户信息。
3.根据权利要求1至2任一项所述的数据处理方法,其特征在于,还包括:
采用beam search算法扩展候选用户信息;和/或
将所述候选用户信息中的满足预设条件的单个分词词项作为候选用户信息。
4.根据权利要求1至2任一项所述的数据处理方法,其特征在于,还包括:
获取当前用户信息;
根据所述当前用户信息获取匹配的候选用户信息;
根据匹配的候选用户信息获得召回的候选门店。
5.根据权利要求4所述的数据处理方法,其特征在于,还包括:
获得召回的候选门店及相应的候选用户之间的离散距离值;
根据所述离散距离值获得所述当前用户的约束距离,对召回的候选门店进行筛选。
6.一种数据处理装置,其特征在于,包括:
训练数据获取模块,用于统计历史用户行为数据获取训练数据,其中所述训练数据包括训练门店的基础信息及其相应的训练用户信息,所述训练门店的基础信息中包括训练门店的地理位置信息,所述训练数据还包括训练门店的经纬度、训练用户与相应的训练门店之间的距离;
模型训练模块,用于根据所述训练数据训练神经网络模型;
结果预测模块,用于根据候选门店的基础信息、所述候选门店的经纬度及训练好的神经网络模型进行预测,获得相应的候选用户信息及候选用户与相应的候选门店之间的离散距离,其中所述候选门店的基础信息中包括候选门店的地理位置信息;
其中所述训练数据获取模块包括:
数据对组织单元,用于对所述历史用户行为数据进行统计,将点击频次超过预设阈值的训练门店的基础信息及其相应的训练用户信息组成数据对;以及
训练分词单元,用于将数据对中的训练门店的基础信息分词后获得训练输入序列,并将数据对中的训练用户信息分词后获得训练输出序列;
所述训练数据获取模块还包括:
经纬度序列获得单元,用于根据训练门店的经纬度获得训练门店的geohash序列;
距离离散单元,用于对所述训练用户与相应的训练门店之间的距离进行离散化处理获得离散距离值;以及
训练序列增加单元,用于将训练门店的geohash序列增加至所述训练输入序列,并将所述离散距离值增加至所述训练输出序列。
7.一种电子设备,包括存储器、处理器及存储在该存储器上并可在该处理器上运行的计算机程序,其特征在于,该程序被该处理器执行时实现权利要求1-5任一项所述的方法步骤。
8.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-5任一项所述的方法步骤。
CN201810084343.9A 2018-01-29 2018-01-29 数据处理方法及装置、电子设备、计算机可读介质 Active CN108319585B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810084343.9A CN108319585B (zh) 2018-01-29 2018-01-29 数据处理方法及装置、电子设备、计算机可读介质
AU2018405096A AU2018405096B2 (en) 2018-01-29 2018-12-14 Data processing
PCT/CN2018/121299 WO2019144728A1 (zh) 2018-01-29 2018-12-14 数据处理
KR1020207024798A KR20200112955A (ko) 2018-01-29 2018-12-14 데이터 처리

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810084343.9A CN108319585B (zh) 2018-01-29 2018-01-29 数据处理方法及装置、电子设备、计算机可读介质

Publications (2)

Publication Number Publication Date
CN108319585A CN108319585A (zh) 2018-07-24
CN108319585B true CN108319585B (zh) 2021-03-02

Family

ID=62887398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810084343.9A Active CN108319585B (zh) 2018-01-29 2018-01-29 数据处理方法及装置、电子设备、计算机可读介质

Country Status (4)

Country Link
KR (1) KR20200112955A (zh)
CN (1) CN108319585B (zh)
AU (1) AU2018405096B2 (zh)
WO (1) WO2019144728A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108319585B (zh) * 2018-01-29 2021-03-02 北京三快在线科技有限公司 数据处理方法及装置、电子设备、计算机可读介质
CN111209725B (zh) * 2018-11-19 2023-04-25 阿里巴巴集团控股有限公司 一种文本信息生成方法、装置以及计算设备
CN111827982A (zh) * 2019-04-17 2020-10-27 中国石油天然气集团有限公司 钻井溢流漏失工况预测方法及装置
CN112396481A (zh) * 2019-08-13 2021-02-23 北京京东尚科信息技术有限公司 线下产品信息发送方法、系统、电子设备和存储介质
CN111125154B (zh) * 2019-12-31 2021-04-02 北京百度网讯科技有限公司 用于输出结构化查询语句的方法和装置
CN112926736B (zh) * 2021-02-26 2023-12-08 国网智能电网研究院有限公司 一种深度学习技术工具链系统
CN113344465B (zh) * 2021-07-13 2023-09-15 壹药网科技(上海)股份有限公司 一种药店经营的预测系统
CN115277626B (zh) * 2022-07-29 2023-07-25 平安科技(深圳)有限公司 地址信息转换方法、电子设备和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881807A (zh) * 2015-06-26 2015-09-02 陆健 一种推荐商品信息的方法及装置
CN105701216A (zh) * 2016-01-13 2016-06-22 北京三快在线科技有限公司 一种信息推送方法及装置
CN106649605A (zh) * 2016-11-28 2017-05-10 百度在线网络技术(北京)有限公司 一种推广关键词的触发方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110208570A1 (en) * 2010-02-24 2011-08-25 Dehai Kong Apparatus, system, and method for individualized and dynamic advertisement in cloud computing and web application
CN102760138B (zh) * 2011-04-26 2015-03-11 北京百度网讯科技有限公司 用户网络行为的分类方法和装置及对应的搜索方法和装置
CN102799591B (zh) * 2011-05-26 2015-03-04 阿里巴巴集团控股有限公司 一种提供推荐词的方法及装置
CN102760174A (zh) * 2012-08-06 2012-10-31 吴建辉 基于地理位置的分布式实况搜索引擎及交易系统
CN103399862B (zh) * 2013-07-04 2016-12-28 百度在线网络技术(北京)有限公司 确定目标查询序列所对应的搜索引导信息的方法与设备
CN106407213B (zh) * 2015-07-31 2020-03-10 阿里巴巴集团控股有限公司 基于地理位置的信息检索方法、装置及系统
CN105956042B (zh) * 2016-04-26 2019-05-28 广东小天才科技有限公司 一种应用程序商店的应用程序推送方法及系统
CN107368907A (zh) * 2017-07-25 2017-11-21 携程计算机技术(上海)有限公司 酒店信息展示方法及装置、电子设备、存储介质
CN107577737A (zh) * 2017-08-25 2018-01-12 北京百度网讯科技有限公司 用于推送信息的方法和装置
CN108319585B (zh) * 2018-01-29 2021-03-02 北京三快在线科技有限公司 数据处理方法及装置、电子设备、计算机可读介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881807A (zh) * 2015-06-26 2015-09-02 陆健 一种推荐商品信息的方法及装置
CN105701216A (zh) * 2016-01-13 2016-06-22 北京三快在线科技有限公司 一种信息推送方法及装置
CN106649605A (zh) * 2016-11-28 2017-05-10 百度在线网络技术(北京)有限公司 一种推广关键词的触发方法及装置

Also Published As

Publication number Publication date
KR20200112955A (ko) 2020-10-05
WO2019144728A1 (zh) 2019-08-01
AU2018405096B2 (en) 2022-01-27
CN108319585A (zh) 2018-07-24
AU2018405096A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
CN108319585B (zh) 数据处理方法及装置、电子设备、计算机可读介质
EP3724785B1 (en) Fast indexing with graphs and compact regression codes on online social networks
CN111444394B (zh) 获取实体间关系表达的方法、系统和设备、广告召回系统
WO2018048853A1 (en) Similarity search using polysemous codes
US20110282861A1 (en) Extracting higher-order knowledge from structured data
CN114691828B (zh) 数据处理方法、装置、设备以及介质
CN113742572B (zh) 一种数据的推荐方法、装置、电子设备及存储介质
CN114265981A (zh) 推荐词确定方法、装置、设备及存储介质
CN112883265A (zh) 信息推荐方法、装置、服务器及计算机可读存储介质
CN114579882A (zh) 地址查询方法、获取地理编码预测模型的方法及对应装置
CN113254671B (zh) 基于query分析的图谱优化方法、装置、设备及介质
CN112948681B (zh) 一种融合多维度特征的时间序列数据推荐方法
Qian et al. Vehicle trajectory modelling with consideration of distant neighbouring dependencies for destination prediction
EP3293696A1 (en) Similarity search using polysemous codes
CN110851708B (zh) 负样本的抽取方法、装置、计算机设备和存储介质
CN112182414A (zh) 文章推荐方法、装置及电子设备
CN116127083A (zh) 内容推荐方法、装置、设备及存储介质
CN115114462A (zh) 模型训练方法、装置、多媒体推荐方法、设备及存储介质
CN112100523B (zh) 基于环境信息的兴趣点排序方法及装置、电子设备和介质
CN117938951B (zh) 信息推送方法、装置、计算机设备和存储介质
CN111552827B (zh) 标注方法和装置、行为意愿预测模型训练方法和装置
US11709844B2 (en) Computerized smart inventory search methods and systems using classification and tagging
CN117221386A (zh) 信息推送方法、装置、电子设备和可读介质
CN111027994B (zh) 相似对象确定方法、装置、设备和介质
CN108197142B (zh) 网络事务关联性确定方法、装置、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant