CN111767953A - 用于训练物品编码模型的方法和装置 - Google Patents
用于训练物品编码模型的方法和装置 Download PDFInfo
- Publication number
- CN111767953A CN111767953A CN202010613628.4A CN202010613628A CN111767953A CN 111767953 A CN111767953 A CN 111767953A CN 202010613628 A CN202010613628 A CN 202010613628A CN 111767953 A CN111767953 A CN 111767953A
- Authority
- CN
- China
- Prior art keywords
- sample
- information
- article
- coding
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 206
- 238000000034 method Methods 0.000 title claims abstract description 73
- 239000013598 vector Substances 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 6
- 230000001172 regenerating effect Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 174
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 235000019219 chocolate Nutrition 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了用于训练物品编码模型的方法和装置。该方法的一具体实施方式包括:获取初始物品编码模型和训练样本集合;将该训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。该实施方式可以利用训练好的物品编码模型实现物品推荐,并可以将物品编码信息作为索引以提升检索效率。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于训练物品编码模型的方法和装置。
背景技术
随着互联网技术的发展,各种搜索系统也取得了越来越广泛的应用。而在搜索技术中,召回信息的质量往往对推荐系统的排序结果具有重要影响。
现有的召回模型主要包括基于FBT(Full Binary Tree,完全二叉树)算法、HNSW(Hierarchcal Navigable Small World graphs)算法等“双塔结构”的点乘模型和基于TDM(Tree-based Deep Match)算法、JTM(Joint Optimization of Tree-based Index andDeep Model)算法的深度树形结构模型。
发明内容
本申请实施例提出了用于训练物品编码模型的方法和装置。
第一方面,本申请实施例提供了一种用于训练物品编码模型的方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;获取初始物品编码模型;将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
在一些实施例中,上述获取训练样本集合,包括:获取初始训练样本集合,其中,初始训练样本集合中的初始训练样本包括样本用户信息、与样本用户信息对应的样本物品信息;随机生成与初始训练样本集合中的初始训练样本对应的样本物品编码信息;将初始训练样本和随机生成的样本物品编码信息组合成训练样本集合中的训练样本。
在一些实施例中,该方法还包括:在调整初始物品编码模型的结构参数的过程中确定各样本物品信息与初始物品编码模型输出的各物品编码信息之间的关联度,其中,关联度基于与样本物品信息对应的输入的样本用户信息经过初始物品编码模型所得到的至少一个物品编码信息的概率而确定;基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系。
在一些实施例中,上述在调整初始物品编码模型的结构参数的过程中确定各样本物品信息与初始物品编码模型输出的各物品编码信息之间的关联度,包括:按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度;将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度,其中,子关联度占关联度的比重大小与训练时刻距当前时刻的邻近程度一致。
在一些实施例中,上述基于所确定的关联度,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,包括:基于预设的惩罚函数,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,其中,惩罚函数与物品编码信息所对应的样本物品的数目呈正相关。
在一些实施例中,上述样本物品信息对应有优先级;以及上述基于预设的惩罚函数,调整样本物品信息与样本物品编码信息之间的对应关系,包括:响应于确定对应于同一物品编码信息的数目大于预设阈值,根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息;按照所确定的关联度重新生成与所选取的目标数目个样本物品信息对应的样本物品编码信息。
在一些实施例中,上述样本物品编码信息对应的编码空间包括第一数目个层,第一数目个层中的各层包括第二数目个维度,第一数目小于第二数目。
在一些实施例中,上述将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率,包括:将训练样本集合中的训练样本的样本用户信息输入至初始物品编码模型,得到与输入的样本用户信息对应的至少一个物品编码信息的概率分布,其中,上述至少一个物品编码信息中包括与输入的样本用户信息对应的样本物品编码信息,概率分布中的概率基于编码空间的各层输出的子概率得到,子概率基于样本用户信息和上一层输出的特征向量得到。
第二方面,本申请实施例提供了一种用于生成召回的物品信息的方法,该方法包括:获取用户信息;将用户信息输入至预先训练的物品编码模型,得到与用户信息对应的物品编码信息,其中,物品编码模型通过第一方面中任一实现方式描述的方法训练得到;将物品编码信息和用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。
在一些实施例中,上述物品编码模型与向量模型基于物品编码信息对应的特征向量共同训练。
第三方面,本申请实施例提供了一种用于训练物品编码模型的装置,该装置包括:样本获取单元,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;模型获取单元,被配置成获取初始物品编码模型;生成单元,被配置成将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;训练单元,被配置成基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
在一些实施例中,样本获取单元包括:获取模块,被配置成获取初始训练样本集合,其中,初始训练样本集合中的初始训练样本包括样本用户信息、与样本用户信息对应的样本物品信息;第一生成模块,被配置成随机生成与初始训练样本集合中的初始训练样本对应的样本物品编码信息;组合模块,被配置成将初始训练样本和随机生成的样本物品编码信息组合成训练样本集合中的训练样本。
在一些实施例中,该装置还包括:确定单元,被配置成在调整初始物品编码模型的结构参数的过程中确定各样本物品信息与初始物品编码模型输出的各物品编码信息之间的关联度,其中,关联度基于与样本物品信息对应的输入的样本用户信息经过初始物品编码模型所得到的至少一个物品编码信息的概率而确定;调整单元,被配置成基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系。
在一些实施例中,上述确定单元包括:确定模块,被配置成按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度;融合模块,被配置成将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度,其中,子关联度占关联度的比重大小与训练时刻距当前时刻的邻近程度一致。
在一些实施例中,上述调整单元进一步被配置成:基于预设的惩罚函数,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,其中,惩罚函数与物品编码信息所对应的样本物品的数目呈正相关。
在一些实施例中,上述样本物品信息对应有优先级;以及上述调整单元包括:选取模块,被配置成响应于确定对应于同一物品编码信息的数目大于预设阈值,根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息;第二生成模块,被配置成按照所确定的关联度重新生成与所选取的目标数目个样本物品信息对应的样本物品编码信息。
在一些实施例中,上述样本物品编码信息对应的编码空间包括第一数目个层,第一数目个层中的各层包括第二数目个维度,第一数目小于第二数目。
在一些实施例中,上述生成单元进一步被配置成:将训练样本集合中的训练样本的样本用户信息输入至初始物品编码模型,得到与输入的样本用户信息对应的至少一个物品编码信息的概率分布,其中,至少一个物品编码信息中包括与输入的样本用户信息对应的样本物品编码信息,概率分布中的概率基于编码空间的各层输出的子概率得到,子概率基于样本用户信息和上一层输出的特征向量得到。
第四方面,本申请实施例提供了一种用于生成召回的物品信息的装置,该装置包括:信息获取单元,被配置成获取用户信息;编码单元,被配置成将用户信息输入至预先训练的物品编码模型,得到与用户信息对应的物品编码信息,其中,物品编码模型通过如第一方面中任一实现方式描述的方法训练得到;召回单元,被配置成将物品编码信息和用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。
在一些实施例中,上述物品编码模型与向量模型基于物品编码信息对应的特征向量共同训练。
第五方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于训练物品编码模型的方法和装置,首先通过获取初始物品编码模型和训练样本集合,其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息。而后,将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率。之后,基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。从而可以利用训练好的物品编码模型实现物品推荐,并可以将物品编码信息作为索引以提升检索效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2a是根据本申请的用于训练物品编码模型的方法的一个实施例的流程图;
图2b是根据本申请的用于训练物品编码模型的方法的一个实施例中样本物品编码信息对应的编码空间的示意图;
图2c是根据本申请的用于训练物品编码模型的方法的一个实施例中确定概率分布的流程示意图;
图3是根据本申请的实施例的用于训练物品编码模型的方法的一个应用场景的示意图;
图4是根据本申请的用于生成召回的物品信息的方法的一个实施例的流程图;
图5是根据本申请的用于训练物品编码模型的装置的一个实施例的结构示意图;
图6是根据本申请的用于生成召回的物品信息的装置的一个实施例的结构示意图;
图7是适于用来实现本申请的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于训练物品编码模型的方法或用于训练物品编码模型的装置的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104、106和服务器105、107。网络104、106用以分别在终端设备101、102、103和服务器105之间,服务器105和服务器107之间提供通信链路的介质。网络104、106可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件、阅读类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持搜索的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如为终端设备101、102、103上显示的网页提供支持的后台服务器。服务器107可以是用于训练物品编码模型的服务器。后台服务器105可以从服务器107获取训练好的物品编码模型。而后利用所获取的物品编码模型对从终端设备接收的用户信息进行分析等处理,并生成处理结果(例如与用户信息匹配的文章或商品信息)反馈给终端设备。
需要说明的是,上述服务器105也可以用于训练物品编码模型,从而上述训练好的物品编码模型也可以直接存储在服务器105的本地,服务器105可以直接提取本地所存储的物品编码模型,此时,可以不存在网络106和服务器107。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于训练物品编码模型的方法一般由服务器105或107执行,相应地,用于训练物品编码模型的装置一般设置于服务器105或107中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于训练物品编码模型的方法的一个实施例的流程200。该用于训练物品编码模型的方法包括以下步骤:
步骤201,获取训练样本集合。
在本实施例中,用于训练物品编码模型的方法的执行主体(如图1所示的服务器105)可以通过有线连接方式或者无线连接方式获取训练样本集合。其中,上述训练样本集合中的训练样本可以包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息。上述物品编码信息可以用于表征物品所属于的类别。上述物品编码信息可以包括各种形式,例如数字、字母或其组成的字符串,在此不做限定。
作为示例,上述样本用户信息可以包括推荐系统所获取的与用户相关的信息,例如用户名、用户标签等。上述与样本用户对应的样本物品信息例如可以包括样本用户信息所对应的用户实际点击的信息,也可以包括根据预设推荐算法所确定的与样本用户信息最匹配的信息,在此不做限定。上述与对应的样本物品信息对应的样本物品编码信息可以根据预设的编码空间而确定。例如,编码空间为1-1000。则,上述与对应的样本物品信息对应的样本物品编码信息可以是上述1-1000中的任意数值。
需要说明的是,上述样本物品信息与样本物品编码信息之间的对应关系可以是一对一,也可以是多对一或一对多中的至少一项。可以理解,实际应用中经常出现一件物品从不同的分类角度看可以属于不同的类别。例如,“巧克力”既可以属于“食品类”,也可以属于“礼品类”。再例如,关于“大学”的文章既可以属于“教育类”,也可以属于“青春类”。而且,由于编码空间的有限性和物品分类存在长尾现象,通过一个样本物品编码信息对应多个样本物品信息的方式可以提高表示的效率。
在本实施例的一些可选的实现方式中,上述执行主体还可以通过以下步骤获取训练样本集合:
第一步,获取初始训练样本集合。
在这些实现方式中,上述初始训练样本集合中的初始训练样本可以包括样本用户信息、与样本用户信息对应的样本物品信息。上述样本用户信息和样本物品信息可以与前述的描述一致。
第二步,随机生成与初始训练样本集合中的初始训练样本对应的样本物品编码信息。
在这些实现方式中,上述执行主体可以将上述初始训练样本集合中的初始训练样本随机分配到样本物品编码信息对应的编码空间中,从而生成各初始训练样本对应的样本物品编码信息。
第三步,将初始训练样本和随机生成的样本物品编码信息组合成训练样本集合中的训练样本。
基于上述可选的实现方式,上述执行主体可以通过随机分配以尽可能地充分利用编码空间,避免某些样本物品编码对应较多的样本物品信息,从而通过样本物品编码信息以分区的形式提升检索效率。
在本实施例的一些可选的实现方式中,上述样本物品编码信息对应的编码空间(如图2b所示)可以包括第一数目(如图2b中所示的d)个层。上述第一数目个层中的各层可以包括第二数目(如图2b中所示的k)个维度。上述第一数目通常小于上述第二数目。作为示例,上述第一数目可以为3,上述第二数目可以为1000。从而,上述编码空间可以包括10003种编码。上述样本物品编码信息例如可以为(36,27,20)、(18,27,35)。则上述样本物品编码信息可以用于表征被安排在编码空间中的位置,例如第一层的第36维、第二层的第27维、第三层的第20维和第一层的第18维、第二层的第27维、第三层的第35维。其中,第二层的第27维可以看作上述两个样本物品编码信息的“共享”节点。
基于上述可选的实现方式,通过构造层和维度表示的编码空间来具象地表示物品编码信息。而且,与现有的聚类技术中的聚类中心相比,还可以通过“共享”节点建立物品编码信息之间的关联。
步骤202,获取初始物品编码模型。
在本实施例中,上述执行主体可以通过有线连接方式或者无线连接方式获取初始物品编码模型。其中,上述初始物品编码模型可以包括各种用于分类的人工神经网络(Artificial Neural Network,ANN)结构。
在本实施例中,上述执行主体可以从本地获取预先存储的初始物品编码模型,也可以从通信连接的电子设备获取上述初始物品编码模型,在此不作限定。
步骤203,将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率。
在本实施例中,上述执行主体可以将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,从而得到与输入的样本用户信息对应的样本物品编码信息的概率。通常,上述初始物品编码模型可以输出与输入的样本用户信息对应的至少一个物品编码信息的概率分布。其中,上述至少一个物品编码信息中通常可以包括与输入的样本用户信息对应的样本物品编码信息。上述物品编码信息即为分类模型中所划分的类别。上述执行主体可以从所得到的至少一个物品编码信息中获取与输入的样本用户信息对应的样本物品编码信息的概率。
在本实施例的一些可选的实现方式中,基于样本物品编码信息对应的编码空间包括的层和维度,上述执行主体还可以将上述训练样本集合中的训练样本的样本用户信息输入至上述初始物品编码模型,得到与输入的样本用户信息对应的至少一个物品编码信息的概率分布。其中,上述至少一个物品编码信息中通常包括与输入的样本用户信息对应的样本物品编码信息。上述概率分布中的概率可以基于编码空间的各层输出的子概率得到。上述子概率可以基于样本用户信息和上一层输出的特征向量得到。
作为示例,参见图2c,利用上述初始物品编码模型,上述执行主体可以根据样本用户信息确定第一层中各维度对应的概率分布。而后将与样本物品编码信息的第一层的维度(例如36)一致的维度对应的概率作为第一子概率。之后,上述执行主体可以根据上述样本用户信息和生成各维度对应的概率分布的特征向量确定第二层中各维度对应的概率分布。接下来,上述执行主体可以将与样本物品编码信息的第二层的维度(例如27)一致的维度对应的概率作为第二子概率。而后,上述执行主体可以根据上述样本用户信息以及生成上述第一子概率和第二子概率的特征向量确定第三层中各维度对应的概率分布。接下来,上述执行主体可以将与样本物品编码信息的第三层的维度(例如20)一致的维度对应的概率作为第三子概率。最后,上述执行主体可以将上述第一子概率、第二子概率和第三子概率的融合结果(例如连乘积)确定为与输入的样本用户信息对应的样本物品编码信息的概率。根据各层输出的概率分布,利用与前述生成样本物品编码信息的概率的方法一致的方式,上述执行主体可以生成与输入的样本用户信息对应的至少一个物品编码信息的概率分布。
基于上述可选的实现方式,上述执行主体可以充分利用编码空间中各层之间的信息传递,从而可以使模型学习到所生成的物品编码信息之间所具备的关联,提升了编码的效果,为高效检索提供技术基础。同时,也显著降低了人工分类的成本,提高了效率。
步骤204,基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型。
在本实施例中,基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,上述执行主体可以通过各种方式调整初始物品编码模型的结构参数,从而训练得到物品编码模型。其中,上述物品编码模型可以用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。作为示例,上述执行主体可以根据训练的损失函数调整初始物品编码模型的结构参数。上述损失函数例如可以包括上述与输入的样本用户信息对应的样本物品编码信息的概率的负对数。从而,上述执行主体可以通过各种适用的机器学习算法调整上述初始物品编码模型的结构参数,以使所得到的与输入的样本用户信息对应的样本物品编码信息的概率最大化。
在本实施例的一些可选的实现方式中,上述执行主体还可以继续执行以下步骤:
第一步,在调整初始物品编码模型的结构参数的过程中确定各样本物品信息与初始物品编码模型输出的各物品编码信息之间的关联度。
在这些实现方式中,上述关联度可以基于与样本物品信息对应的输入的样本用户信息经过上述初始物品编码模型所得到的至少一个物品编码信息的概率而确定。作为示例,对于上述训练样本集合中每一批(batch)训练样本的每个训练样本(例如训练样本A、训练样本B、训练样本C),上述执行主体可以得到上述初始物品编码模型输出的与各训练样本的样本用户信息对应的至少一个物品编码信息的概率。其中,上述训练样本A可以包括样本用户信息x1,样本物品信息y1。上述训练样本B可以包括样本用户信息x2,样本物品信息y2。上述训练样本C可以包括样本用信息户x3,样本物品信息y1。例如训练样本A对应的物品编码信息为009、015、108的概率可以分别为0.7,0.2,0.1。训练样本B对应的物品编码信息为009、015、108的概率可以分别为0.3,0.1,0.6。训练样本C对应的物品编码信息为009、015、108的概率可以分别为0.8,0.1,0.1。根据所得到的各训练样本的样本用户信息对应的至少一个物品编码信息的概率,上述执行主体可以通过各种方式确定各样本物品信息与各物品编码信息之间的关联度,例如取最大值、最小值、平均值等。作为示例,上述执行主体可以将样本物品信息y1与物品编码信息为009、015、108之间的关联度分别确定为0.75、0.15、0.1;样本物品信息y2与物品编码信息为009、015、108之间的关联度分别确定为0.3、0.1、0.6。
可以理解,在上述初始物品编码模型的结构参数调整的过程中往往使用多批训练样本,从而上述执行主体可以根据所得到的各批训练样本对应的至少一个物品编码信息的概率来确定各样本物品信息与各物品编码信息之间的关联度。
可选地,上述执行主体可以按照以下步骤确定各样本物品信息与各物品编码信息之间的关联度:
S1、按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度。
在这些实现方式中,上述执行主体可以按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度。其中,确定子关联度的方式可以与前述第一步的相关描述一致,此处不再赘述。
S2、将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度。
在这些实现方式中,上述执行主体可以通过各种方式将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度。其中,上述子关联度占关联度的比重大小通常与训练时刻距当前时刻的邻近程度一致,即越是最近训练的样本所对应的子关联度占关联度的比重越大。作为示例,上述融合方法可以包括但不限于预设权重加权法、滑动平均(exponential moving average)法等。
作为示例,在上述训练样本A、训练样本B、训练样本C之后训练的另一批训练样本D、训练样本E、训练样本F可以分别包括样本用户信息x1、样本物品信息y2,样本用户信息x3、样本物品信息y1,样本用户信息x2、样本物品信息y3。训练样本D、训练样本E、训练样本F对应的物品编码信息为009、015、108的概率可以分别为0.2、0.2、0.6,0.7、0.1、0.2,0.3、0.2、0.5。则上述执行主体可以将训练样本D、训练样本E、训练样本F这一批训练样本中样本物品信息y1与物品编码信息为009、015、108之间的子关联度分别确定为0.7、0.1、0.2。基于上述执行主体所确定的与训练样本A、训练样本B、训练样本C这一批训练样本中样本物品信息y1与物品编码信息为009、015、108之间的子关联度分别为0.75、0.15、0.1,上述执行主体可以将样本物品信息y2与物品编码信息为009、015、108之间的关联度(按照0.4、0.6加权)分别确定为0.72、0.12、0.16。其中,样本物品信息y2与物品编码信息为009之间的关联度可以通过0.75*0.4+0.7*0.6=0.72得到。
基于上述可选的实现方式,由于各批训练样本可以属于同一轮次(epoch),也可以属于不同轮次。当面对每轮次进行训练的样本不完全相同的“流式”样本的场景时,将最新参与训练的样本所得到的结果赋予更大权重符合在线学习和应用的时效性需求,有助于训练好的模型具有更强的泛化性。
第二步,基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系。
在这些实现方式中,基于所确定的关联度,上述执行主体可以调整样本物品信息与样本物品编码信息之间的对应关系,以使调整后的样本物品信息与样本物品编码信息之间的对应关系与上述第一步所生成的关联度一致。作为示例,基于上述样本物品信息y2与物品编码信息为009、015、108之间的关联度(按照0.4、0.6加权)分别确定为0.72、0.12、0.16。若样本物品信息y2原来对应样本物品编码信息不为“009”,上述执行主体可以将样本物品信息y2所对应的样本物品编码信息调整为关联度最大的物品编码信息“009”。
可选地,上述执行主体还可以存储调整后的样本物品信息与样本物品编码信息之间的对应关系。从而,经过若干轮物品编码模型的训练和对应关系的交替调整,可以得到训练好的物品编码模型和调整后的样本物品信息与样本物品编码信息之间的对应关系。
基于上述可选的实现方式,上述执行主体可以调整样本物品信息与样本物品编码信息之间的对应关系,以优化各样本物品信息与物品编码信息之间的映射关系,从而提升检索的效率。
可选地,基于预设的惩罚函数,上述执行主体可以按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系。其中,上述惩罚函数可以与物品编码信息所对应的样本物品的数目呈正相关。例如,惩罚函数可以正比于物品编码信息所对应的样本物品的数目的平方。
基于上述可选的实现方式,可以通过惩罚函数来避免单个样本物品编码信息对应过多的样本物品信息,从而有助于减轻模型应用过程中的服务端压力。
可选地,上述样本物品信息可以对应有优先级。基于所对应的优先级,上述执行主体还可以按照以下步骤调整样本物品信息与样本物品编码信息之间的对应关系:
S1、响应于确定对应于同一物品编码信息的数目大于预设阈值,根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息。
在这些实现方式中,响应于确定对应于同一物品编码信息的数目大于预设阈值,上述执行主体可以根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息。作为示例,假设与样本物品信息y2、y5、y8、y9对应的最大关联度相匹配的物品编码信息均为009。而上述预设阈值例如为3。则上述执行主体可以从上述样本物品信息y2、y5、y8、y9中选取优先级最低的样本物品信息。可选地,上述执行主体也可以从上述样本物品信息y2、y5、y8、y9中选取优先级低于预设优先级阈值的样本物品信息,例如y2和y5。而后,上述执行主体可以从优先级低于预设优先级阈值的样本物品信息中随机选取目标数目个样本物品信息。
S2、按照所确定的关联度重新生成与所选取的目标数目个样本物品信息对应的样本物品编码信息。
在这些实现方式中,上述执行主体可以将上述步骤S1所选取的目标数目个样本物品信息重新生成与各自所确定的次关联的关联度一致的样本物品编码信息。作为示例,上述执行主体可以将所选取的样本物品信息所对应的第二高的关联度所对应的物品编码信息确定为与该样本物品信息对应的样本物品编码信息。
继续参见图3,图3是根据本申请实施例的用于训练物品编码模型的方法的应用场景的一个示意图。在图3的应用场景中,后台服务器可以获取训练样本集合301和初始物品编码模型302。其中,上述训练样本集合中可以包括作为样本用户信息的“张三abc”、作为样本物品信息的“手机”、作为样本物品编码信息的“015”。后台服务器可以将训练样本中的“张三abc”3011输入至上述初始物品编码模型302中,得到与“手机”对应的概率,例如0.5(如图3中303所示)。后台服务器可以利用各种算法(例如EM算法)调整上述初始物品编码模型302的模型参数,以使得对应与上述训练样本中的“张三abc”3011的输出的“手机”的概率最大化。从而将训练完成的初始物品编码模型302确定为训练好的物品编码模型。
目前,现有技术之一通常是通过将待召回的信息映射到向量空间中,并利用近似近邻搜索(ANN,Approximate Nearest Neighbor)等算法召回距离最近的信息。由于受制于向量空间的大小和所使用的距离(一般是内积/欧式距离或余弦距离)的限制,导致无法充分利用模型的能力;并且由于向量映射模型和ANN所构建的结构相对独立,导致模型训练中无法利用ANN结构的信息进行联合训练。此外,现有技术中的深度树形结构也由于树形结构的高度离散化导致树的结构特征难以与模型参数共同学习。而本申请的上述实施例提供的方法,通过引入物品编码信息作为用户信息与物品信息之间的中间变量,训练得到用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系的物品编码模型。从而,上述物品编码模型既可以表征用户信息与物品信息之间的对应关系,以用于物品推荐;又可以将物品编码信息作为一种索引提升检索效率;而且,还实现了模型的整体训练。
进一步参考图4,其示出了用于生成召回的物品信息的方法的一个实施例的流程400。该用于生成召回的物品信息的方法的流程400,包括以下步骤:
步骤401,获取用户信息。
在本实施例中,用于生成召回的物品信息的方法的执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式获取用户信息。其中,上述用户信息可以包括各种与用户相关的信息,例如用户名、用户标签等。上述用户信息还可以包括用户历史点击信息。上述历史点击信息可以包括但不限于以下至少一项:商品信息,文章,视频,音乐。
步骤402,将用户信息输入至预先训练的物品编码模型,得到与用户信息对应的物品编码信息。
在本实施例中,上述执行主体可以将步骤401所获取的用户信息输入至预先训练的物品编码模型,从而得到与上述用户信息对应的物品编码信息。其中,上述物品编码模型可以通过如前述实施例及其可选的实现方式所述的方法训练得到。
步骤403,将物品编码信息和用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。
在本实施例中,上述执行主体可以将步骤402所得到的物品编码信息和步骤401所获取的用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。其中,上述向量模型可以包括各种用于召回的机器学习模型,例如由FFM(Field-awareFactorization Machine,场感知分解机)模型和/或DNN(Deep Neural Networks,深度神经网络)融合得到的网络结构。
在本实施例的一些可选的实现方式中,上述物品编码模型通常与上述向量模型基于物品编码信息对应的特征向量共同训练。
基于上述可选的实现方式,通过将基于物品编码信息对应的特征向量作为上述物品编码模型和上述向量模型的中间载体以实现共同训练,使得两个模型的联系更加紧密,进而提升所生成的召回的物品信息的匹配度。
从图4中可以看出,本实施例中的用于生成召回的物品信息的方法的流程400体现了将物品编码模型的输出作为新增的一个维度输入至向量模型,得到与用户信息对应的召回的物品信息的步骤。由此,本实施例描述的方案不仅可以利用用户信息,还可以利用所生成的物品编码信息来生成召回的物品信息,进而提升所生成的召回的物品信息的匹配度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了用于训练物品编码模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于训练物品编码模型的装置500包括样本获取单元501、模型获取单元502、生成单元503和训练单元504。其中,样本获取单元501,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;模型获取单元502,被配置成获取初始物品编码模型;生成单元503,被配置成将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;训练单元504,被配置成基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
在本实施例中,用于训练物品编码模型的装置500中:样本获取单元501、模型获取单元502、生成单元503和训练单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述样本获取单元501可以包括获取模块(图中未示出)、第一生成模块(图中未示出)、组合模块(图中未示出)。其中,上述获取模块可以被配置成获取初始训练样本集合。其中,上述初始训练样本集合中的初始训练样本可以包括样本用户信息、与样本用户信息对应的样本物品信息。上述第一生成模块可以被配置成随机生成与初始训练样本集合中的初始训练样本对应的样本物品编码信息。上述组合模块可以被配置成将初始训练样本和随机生成的样本物品编码信息组合成训练样本集合中的训练样本。
在本实施例的一些可选的实现方式中,上述用于训练物品编码模型的装置500还可以包括确定单元(图中未示出)、调整单元(图中未示出)。其中,上述确定单元可以被配置成在调整初始物品编码模型的结构参数的过程中确定各样本物品信息与初始物品编码模型输出的各物品编码信息之间的关联度。其中,上述关联度可以基于与样本物品信息对应的输入的样本用户信息经过初始物品编码模型所得到的至少一个物品编码信息的概率而确定。调整单元可以被配置成基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系。
在本实施例的一些可选的实现方式中,上述确定单元可以包括确定模块(图中未示出)、融合模块(图中未示出)。其中,上述确定模块可以被配置成按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度。上述融合模块,可以被配置成将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度。其中,上述子关联度占关联度的比重大小可以与训练时刻距当前时刻的邻近程度一致。
在本实施例的一些可选的实现方式中,上述调整单元可以被进一步配置成:基于预设的惩罚函数,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,其中,惩罚函数与物品编码信息所对应的样本物品的数目呈正相关。
在本实施例的一些可选的实现方式中,上述样本物品信息可以对应有优先级。上述调整单元可以包括选取模块(图中未示出)、第二生成模块(图中未示出)。其中,上述选取模块可以被配置成响应于确定对应于同一物品编码信息的数目大于预设阈值,根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息。上述第二生成模块可以被配置成按照所确定的关联度重新生成与所选取的目标数目个样本物品信息对应的样本物品编码信息。
在本实施例的一些可选的实现方式中,上述样本物品编码信息对应的编码空间可以包括第一数目个层。上述第一数目个层中的各层可以包括第二数目个维度。上述第一数目通常小于上述第二数目。
在本实施例的一些可选的实现方式中,上述生成单元503可以进一步被配置成:将训练样本集合中的训练样本的样本用户信息输入至初始物品编码模型,得到与输入的样本用户信息对应的至少一个物品编码信息的概率分布。其中,上述至少一个物品编码信息中可以包括与输入的样本用户信息对应的样本物品编码信息。上述概率分布中的概率可以基于编码空间的各层输出的子概率得到。上述子概率可以基于样本用户信息和上一层输出的特征向量得到。
本申请的上述实施例提供的装置,通过样本获取单元501获取训练样本集合。其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息。而后,模型获取单元502获取初始物品编码模型。之后,生成单元503将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率。最后,训练单元504基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型。其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。从而可以利用训练好的物品编码模型实现物品推荐,并可以将物品编码信息作为索引以提升检索效率。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了用于生成召回的物品信息的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例提供的用于生成召回的物品信息的装置600包括信息获取单元601、编码单元602和召回单元603。其中,信息获取单元601,被配置成获取用户信息;编码单元602,被配置成将用户信息输入至预先训练的物品编码模型,得到与用户信息对应的物品编码信息,其中,物品编码模型通过如前述的用于训练物品编码模型的方法训练得到;召回单元603,被配置成将物品编码信息和用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。
在本实施例中,用于生成召回的物品信息的装置600中:信息获取单元601、编码单元602和召回单元603的具体处理及其所带来的技术效果可分别参考图4对应实施例中的步骤401、步骤402、步骤403及其可选的实现方式的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述物品编码模型可以与向量模型基于物品编码信息对应的特征向量共同训练。
本申请的上述实施例提供的装置,首先通过信息获取单元601获取用户信息。而后,编码单元602将用户信息输入至预先训练的物品编码模型,得到与用户信息对应的物品编码信息。其中,物品编码模型通过如前述用于训练物品编码模型的方法训练得到。召回单元603将物品编码信息和用户信息输入至预先训练的向量模型,得到与用户信息对应的召回的物品信息。从而不仅可以利用用户信息,还可以利用所生成的物品编码信息来生成召回的物品信息,进而提升所生成的召回的物品信息的匹配度。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1中的服务器)700的结构示意图。本申请实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD,LiquidCrystal Display)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本申请的实施例的方法中限定的上述功能。
需要说明的是,本申请的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述服务器中所包含的;也可以是单独存在而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取训练样本集合,其中,训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;获取初始物品编码模型;将训练样本集合中的训练样本的样本用户信息作为初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整初始物品编码模型的结构参数,训练得到物品编码模型,其中,物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括样本获取单元、模型获取单元、生成单元、训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,模型获取单元还可以被描述为“获取初始物品编码模型的单元”。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于训练物品编码模型的方法,包括:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;
获取初始物品编码模型;
将所述训练样本集合中的训练样本的样本用户信息作为所述初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;
基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整所述初始物品编码模型的结构参数,训练得到所述物品编码模型,其中,所述物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
2.根据权利要求1所述的方法,其中,所述获取训练样本集合,包括:
获取初始训练样本集合,其中,所述初始训练样本集合中的初始训练样本包括样本用户信息、与样本用户信息对应的样本物品信息;
随机生成与所述初始训练样本集合中的初始训练样本对应的样本物品编码信息;
将初始训练样本和随机生成的样本物品编码信息组合成所述训练样本集合中的训练样本。
3.根据权利要求1所述的方法,其中,所述方法还包括:
在调整所述初始物品编码模型的结构参数的过程中确定各样本物品信息与所述初始物品编码模型输出的各物品编码信息之间的关联度,其中,所述关联度基于与样本物品信息对应的输入的样本用户信息经过所述初始物品编码模型所得到的至少一个物品编码信息的概率而确定;
基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系。
4.根据权利要求3所述的方法,其中,所述在调整所述初始物品编码模型的结构参数的过程中确定各样本物品信息与所述初始物品编码模型输出的各物品编码信息之间的关联度,包括:
按照时间先后顺序依次确定各批训练样本中样本物品信息与对应的各物品编码信息之间的概率作为子关联度;
将所确定的子关联度进行融合,生成各样本物品信息与各物品编码信息之间的关联度,其中,所述子关联度占关联度的比重大小与训练时刻距当前时刻的邻近程度一致。
5.根据权利要求3所述的方法,其中,所述基于所确定的关联度,调整样本物品信息与样本物品编码信息之间的对应关系,包括:
基于预设的惩罚函数,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,其中,所述惩罚函数与物品编码信息所对应的样本物品的数目呈正相关。
6.根据权利要求5所述的方法,其中,所述样本物品信息对应有优先级;以及
所述基于预设的惩罚函数,按照与所确定的关联度一致的分布调整样本物品信息与样本物品编码信息之间的对应关系,包括:
响应于确定对应于同一物品编码信息的数目大于预设阈值,根据所对应的优先级,从对应于同一物品编码信息的样本物品信息中选取目标数目个样本物品信息;
按照所确定的关联度重新生成与所选取的目标数目个样本物品信息对应的样本物品编码信息。
7.根据权利要求1-6之一所述的方法,其中,所述样本物品编码信息对应的编码空间包括第一数目个层,所述第一数目个层中的各层包括第二数目个维度,所述第一数目小于所述第二数目。
8.根据权利要求7所述的方法,其中,所述将所述训练样本集合中的训练样本的样本用户信息作为所述初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率,包括:
将所述训练样本集合中的训练样本的样本用户信息输入至所述初始物品编码模型,得到与输入的样本用户信息对应的至少一个物品编码信息的概率分布,其中,所述至少一个物品编码信息中包括与输入的样本用户信息对应的样本物品编码信息,所述概率分布中的概率基于编码空间的各层输出的子概率得到,所述子概率基于样本用户信息和上一层输出的特征向量得到。
9.一种用于生成召回的物品信息的方法,包括:
获取用户信息;
将所述用户信息输入至预先训练的物品编码模型,得到与所述用户信息对应的物品编码信息,其中,所述物品编码模型通过权利要求1-8之一所述的方法训练得到;
将所述物品编码信息和所述用户信息输入至预先训练的向量模型,得到与所述用户信息对应的召回的物品信息。
10.根据权利要求9所述的方法,其中,所述物品编码模型与所述向量模型基于物品编码信息对应的特征向量共同训练。
11.一种用于训练物品编码模型的装置,包括:
样本获取单元,被配置成获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本用户信息、与样本用户信息对应的样本物品信息和与对应的样本物品信息对应的样本物品编码信息;
模型获取单元,被配置成获取初始物品编码模型;
生成单元,被配置成将所述训练样本集合中的训练样本的样本用户信息作为所述初始物品编码模型的输入,得到与输入的样本用户信息对应的样本物品编码信息的概率;
训练单元,被配置成基于最大化所得到的与输入的样本用户信息对应的样本物品编码信息的概率,调整所述初始物品编码模型的结构参数,训练得到所述物品编码模型,其中,所述物品编码模型用于表征输入的样本用户信息与样本物品编码信息之间的对应关系和样本物品信息与样本物品编码信息之间的对应关系。
12.一种用于生成召回的物品信息的装置,包括:
信息获取单元,被配置成获取用户信息;
编码单元,被配置成将所述用户信息输入至预先训练的物品编码模型,得到与所述用户信息对应的物品编码信息,其中,所述物品编码模型通过权利要求1-8之一所述的方法训练得到;
召回单元,被配置成将所述物品编码信息和所述用户信息输入至预先训练的向量模型,得到与所述用户信息对应的召回的物品信息。
13.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613628.4A CN111767953B (zh) | 2020-06-30 | 2020-06-30 | 用于训练物品编码模型的方法和装置 |
JP2022552768A JP2023516373A (ja) | 2020-06-30 | 2021-06-25 | 品物番号付けモデルをトレーニングするための方法及び装置 |
PCT/CN2021/102486 WO2022001887A1 (zh) | 2020-06-30 | 2021-06-25 | 用于训练物品编码模型的方法和装置 |
EP21832986.0A EP4083860A4 (en) | 2020-06-30 | 2021-06-25 | METHOD AND APPARATUS FOR TRAINING AN ARTICLE CODING MODEL |
US17/877,635 US11763204B2 (en) | 2020-06-30 | 2022-07-29 | Method and apparatus for training item coding model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613628.4A CN111767953B (zh) | 2020-06-30 | 2020-06-30 | 用于训练物品编码模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111767953A true CN111767953A (zh) | 2020-10-13 |
CN111767953B CN111767953B (zh) | 2021-11-26 |
Family
ID=72723101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010613628.4A Active CN111767953B (zh) | 2020-06-30 | 2020-06-30 | 用于训练物品编码模型的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11763204B2 (zh) |
EP (1) | EP4083860A4 (zh) |
JP (1) | JP2023516373A (zh) |
CN (1) | CN111767953B (zh) |
WO (1) | WO2022001887A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022001887A1 (zh) * | 2020-06-30 | 2022-01-06 | 北京字节跳动网络技术有限公司 | 用于训练物品编码模型的方法和装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7211157B2 (ja) * | 2019-02-27 | 2023-01-24 | 日本電信電話株式会社 | 情報処理装置、関連付け方法および関連付けプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150269337A1 (en) * | 2010-09-01 | 2015-09-24 | Apixio, Inc. | Systems and methods for determination of patient true state for personalized medicine |
CN105956093A (zh) * | 2016-04-29 | 2016-09-21 | 浙江大学 | 一种基于多视图锚点图哈希技术的个性化推荐方法 |
CN107562787A (zh) * | 2017-07-31 | 2018-01-09 | 北京三快在线科技有限公司 | 一种poi编码方法及装置、poi推荐方法,电子设备 |
CN108630190A (zh) * | 2018-05-18 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
CN110458638A (zh) * | 2019-06-26 | 2019-11-15 | 平安科技(深圳)有限公司 | 一种商品推荐方法及装置 |
CN111225009A (zh) * | 2018-11-27 | 2020-06-02 | 北京沃东天骏信息技术有限公司 | 用于生成信息的方法和装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8407226B1 (en) * | 2007-02-16 | 2013-03-26 | Google Inc. | Collaborative filtering |
US8326777B2 (en) * | 2009-07-31 | 2012-12-04 | Yahoo! Inc. | Supplementing a trained model using incremental data in making item recommendations |
JP5880101B2 (ja) * | 2012-02-10 | 2016-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6543986B2 (ja) * | 2015-03-25 | 2019-07-17 | 日本電気株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7162417B2 (ja) * | 2017-07-14 | 2022-10-28 | ヤフー株式会社 | 推定装置、推定方法、及び推定プログラム |
CN109522486A (zh) * | 2018-11-30 | 2019-03-26 | 北京字节跳动网络技术有限公司 | 用于匹配信息的方法和装置 |
CN110188449B (zh) * | 2019-05-27 | 2020-12-04 | 山东大学 | 基于属性可解释的服装信息推荐方法、系统、介质及设备 |
CN110555168B (zh) * | 2019-08-22 | 2023-08-08 | 创新先进技术有限公司 | 信息推送的方法及装置 |
CN110969516B (zh) * | 2019-12-25 | 2024-04-26 | 清华大学 | 一种商品推荐方法及装置 |
CN111767953B (zh) * | 2020-06-30 | 2021-11-26 | 北京字节跳动网络技术有限公司 | 用于训练物品编码模型的方法和装置 |
-
2020
- 2020-06-30 CN CN202010613628.4A patent/CN111767953B/zh active Active
-
2021
- 2021-06-25 EP EP21832986.0A patent/EP4083860A4/en active Pending
- 2021-06-25 WO PCT/CN2021/102486 patent/WO2022001887A1/zh unknown
- 2021-06-25 JP JP2022552768A patent/JP2023516373A/ja active Pending
-
2022
- 2022-07-29 US US17/877,635 patent/US11763204B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150269337A1 (en) * | 2010-09-01 | 2015-09-24 | Apixio, Inc. | Systems and methods for determination of patient true state for personalized medicine |
CN105956093A (zh) * | 2016-04-29 | 2016-09-21 | 浙江大学 | 一种基于多视图锚点图哈希技术的个性化推荐方法 |
CN107562787A (zh) * | 2017-07-31 | 2018-01-09 | 北京三快在线科技有限公司 | 一种poi编码方法及装置、poi推荐方法,电子设备 |
CN108630190A (zh) * | 2018-05-18 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
CN111225009A (zh) * | 2018-11-27 | 2020-06-02 | 北京沃东天骏信息技术有限公司 | 用于生成信息的方法和装置 |
CN110458638A (zh) * | 2019-06-26 | 2019-11-15 | 平安科技(深圳)有限公司 | 一种商品推荐方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022001887A1 (zh) * | 2020-06-30 | 2022-01-06 | 北京字节跳动网络技术有限公司 | 用于训练物品编码模型的方法和装置 |
US11763204B2 (en) | 2020-06-30 | 2023-09-19 | Beijing Bytedance Network Technology Co., Ltd. | Method and apparatus for training item coding model |
Also Published As
Publication number | Publication date |
---|---|
US20220366312A1 (en) | 2022-11-17 |
US11763204B2 (en) | 2023-09-19 |
CN111767953B (zh) | 2021-11-26 |
WO2022001887A1 (zh) | 2022-01-06 |
JP2023516373A (ja) | 2023-04-19 |
EP4083860A1 (en) | 2022-11-02 |
EP4083860A4 (en) | 2024-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020094060A1 (zh) | 推荐方法及装置 | |
CN112035743B (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
CN111753551B (zh) | 基于词向量生成模型的信息生成方法和装置 | |
CN111625645B (zh) | 文本生成模型的训练方法、装置和电子设备 | |
CN111414543B (zh) | 用于生成评论信息序列的方法、装置、电子设备和介质 | |
US11763204B2 (en) | Method and apparatus for training item coding model | |
CN106354856B (zh) | 基于人工智能的深度神经网络强化搜索方法和装置 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
CN112528164B (zh) | 一种用户协同过滤召回方法及装置 | |
CN112307243B (zh) | 用于检索图像的方法和装置 | |
CN111008213A (zh) | 用于生成语言转换模型的方法和装置 | |
CN111782933A (zh) | 用于推荐书单的方法和装置 | |
CN113450167A (zh) | 一种商品推荐方法和装置 | |
CN116957128A (zh) | 业务指标预测方法、装置、设备和存储介质 | |
CN112860999B (zh) | 信息推荐方法、装置、设备和存储介质 | |
CN112734462B (zh) | 一种信息推荐方法、装置、设备及介质 | |
CN111784377B (zh) | 用于生成信息的方法和装置 | |
CN110688508B (zh) | 图文数据扩充方法、装置及电子设备 | |
CN115329183A (zh) | 数据处理方法、装置、存储介质及设备 | |
CN113704596A (zh) | 用于生成召回信息集合的方法和装置 | |
CN110688529A (zh) | 用于检索视频的方法、装置和电子设备 | |
CN111897910A (zh) | 信息推送方法和装置 | |
CN116911304B (zh) | 一种文本推荐方法及装置 | |
CN116911928B (zh) | 一种基于创意特征的广告推荐模型的训练方法及装置 | |
CN111626805B (zh) | 信息展示方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |