CN113793167A - 用于生成信息的方法和装置 - Google Patents
用于生成信息的方法和装置 Download PDFInfo
- Publication number
- CN113793167A CN113793167A CN202110146244.0A CN202110146244A CN113793167A CN 113793167 A CN113793167 A CN 113793167A CN 202110146244 A CN202110146244 A CN 202110146244A CN 113793167 A CN113793167 A CN 113793167A
- Authority
- CN
- China
- Prior art keywords
- target
- commodities
- sample
- vector
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000013598 vector Substances 0.000 claims abstract description 195
- 238000013145 classification model Methods 0.000 claims description 51
- 238000012549 training Methods 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 101100203328 Arabidopsis thaliana SKU5 gene Proteins 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 101100422161 Arabidopsis thaliana SPR1 gene Proteins 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开的实施例公开了用于生成信息的方法和装置。该方法的一具体实施方式包括:接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数;将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量,目标编码模型的损失函数包括惩罚因子,惩罚因子表征两个商品被同时购买的概率;将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。目标嵌入向量可以体现目标商品被同时购买的深层特征,提高预测商品被同时购买的概率的准确度。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及机器学习领域,尤其涉及一种用于生成信息的方法和装置。
背景技术
当前,互联网购物在人们的日常生活中越来越普遍。电商平台为了提高用户的购物体验,会向用户推送用户感性的商品信息。其中,包括基于两个商品被同时购买的概率,针对用户当前选购的商品推送其它商品。
相关技术中,预测两个商品被同时购买的概率的方法主要分为两种:一种是采用无监督的方式生成商品的嵌入向量(embedding),通过嵌入向量表示商品特征,然后求解向量之间的距离等方式,估计出商品被同时购买的概率。另一种是通过关联规则的相关算法,基于两种商品被同时购买的历史数据,估计两种商品被同时购买的概率。
发明内容
本公开的实施例提出了用于生成信息的方法和装置。
第一方面,本公开的实施例提供了一种用于生成信息的方法,该方法包括:接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数;将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量,其中,目标编码模型的损失函数包括预设的惩罚因子,惩罚因子表征两个商品被同时购买的概率;将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。
在一些实施例中,目标编码模型经由如下训练步骤得到:构建初始分类模型以及模型损失函数,初始分类模型包括初始编码层、初始解码层和初始深度神经网络,模型损失函数包括惩罚因子;获取样本历史销量数据,样本历史销量数据包括预设数量的样本商品的历史销量数据;基于样本历史销量数据,生成各样本商品的样本邻接向量;将任意两个样本商品组成样本商品对;生成样本商品对的样本标签,样本标签表征样本商品对中的两个样本商品是否被同时购买;将样本商品对中的两个样本商品的样本邻接向量,输入初始分类模型,将样本商品对的样本标签作为期望输出,训练初始分类模型,得到训练后的分类模型;从训练后的分类模型中提取出训练后的编码层,得到目标编码模型。
在一些实施例中,将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,包括:将目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;连接两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;将连接后的目标嵌入向量输入预先训练的全连接层,得到目标信息。
在一些实施例中,将目标邻接向量输入预先训练的目标编码模型之前,该方法还包括:响应于确定两个目标邻接向量中的数值所表征的其他商品的排列次序不同,将两个目标邻接向量中的数值所表征的其他商品的排列次序调整至相同。
在一些实施例中,目标邻接向量,基于如下方式生成:获取目标历史销量数据,目标历史销量数据包括两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;从目标历史销量数据中,提取出目标商品与其他商品被同时购买的次数;按照预设的排列次序,排列目标商品与其他商品被同时购买的次数,得到目标邻接向量。
第二方面,本公开的实施例提供了一种用于生成信息的装置,装置包括:接收单元,被配置成接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数;编码单元,被配置成将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量,其中,目标编码模型的损失函数包括预设的惩罚因子,惩罚因子表征两个商品被同时购买的概率;生成单元,被配置成将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。
在一些实施例中,该装置还包括模型训练单元,被配置成:构建初始分类模型以及模型损失函数,初始分类模型包括初始编码层、初始解码层和初始深度神经网络,模型损失函数包括惩罚因子;获取样本历史销量数据,样本历史销量数据包括预设数量的样本商品的历史销量数据;基于样本历史销量数据,生成各样本商品的样本邻接向量;将任意两个样本商品组成样本商品对;生成样本商品对的样本标签,样本标签表征样本商品对中的两个样本商品是否被同时购买;将样本商品对中的两个样本商品的样本邻接向量,输入初始分类模型,将样本商品对的样本标签作为期望输出,训练初始分类模型,得到训练后的分类模型;从训练后的分类模型中提取出训练后的编码层,得到目标编码模型。
在一些实施例中,生成单元进一步包括:解码模块,被配置成将目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;连接模块,被配置成连接两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;输出模块,被配置成将连接后的目标嵌入向量输入预先训练的全连接层,得到目标信息。
在一些实施例中,该装置还包括调整单元,被配置成:响应于确定两个目标邻接向量中的数值所表征的其他商品的排列次序不同,将两个目标邻接向量中的数值所表征的其他商品的排列次序调整至相同。
在一些实施例中,该装置还包括向量生成单元,被配置成:获取目标历史销量数据,目标历史销量数据包括两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;从目标历史销量数据中,提取出目标商品与其他商品被同时购买的次数;按照预设的排列次序,排列目标商品与其他商品被同时购买的次数,得到目标邻接向量。
本公开的实施例提供的用于生成信息的方法和装置,采用预先训练的目标编码模型,基于目标商品的邻接向量生成目标嵌入向量,然后基于两个目标嵌入向量的相似度估计出两个目标商品被同时购买的概率。通过惩罚因子,将商品被同时购买的概率引入向量的编码过程,使得目标嵌入向量可以体现出目标商品被同时购买的深层特征,从而提高预测商品被同时购买的概率的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于生成信息的方法的一个实施例的流程图;
图3是根据本公开的用于生成信息的方法的一个实施例中生成目标编码模型的流程图;
图4是根据本公开的用于生成信息的方法的又一个实施例的流程图;
图5是根据本公开的用于生成信息的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成信息的方法或用于生成信息的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等,例如可以将目标商品的邻接向量发送至服务器,还可以从服务器接收目标信息,以确定两个目标商品被同时购买的概率。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具备通信功能的电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的数据进行处理(例如基于目标商品的目标邻接向量生成目标嵌入向量)的后台数据服务器。后台数据服务器可以对接收到的数据进行分析、识别等处理,并将处理结果(例如目标信息)反馈给终端设备。
需要说明的是,本公开的实施例所提供的用于生成信息的方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,用于生成信息的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在此不做具体限定。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
继续参考图2,示出了根据本公开的用于生成信息的方法的一个实施例的流程200。该用于生成信息的方法,包括以下步骤:
步骤201,接收两个目标商品的目标邻接向量。
在本实施例中,目标邻接向量表征目标商品与其他商品被同时购买的次数。执行主体例如可以是图1中所示的服务器105,可以通过网络接收终端设备发送的两个目标商品的目标邻接向量。作为示例,目标商品为SKU1(Stock Keeping Unit,最小库存单位)和SKU4,从某个用户的下单记录中包括如下信息:SKU1与SKU2被同时购买的次数为2,SKU1与SKU3被同时购买的次数为0,SKU1与SKU4被同时购买的次数为0,SKU4与SKU2被同时购买的次数为1,SKU4与SKU3被同时购买的次数位1,则SKU1的目标邻接向量为(0,2,0,0),SKU2的目标邻接向量为(0,2,1,0)。
在本实施例的一些可选的实现方式中,目标邻接向量可以基于如下方式生成:获取目标历史销量数据,目标历史销量数据包括两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;从目标历史销量数据中,提取出目标商品与其他商品被同时购买的次数;按照预设的排列次序,排列目标商品与其他商品被同时购买的次数,得到目标邻接向量。
在本实现方式中,目标历史销量数据例如可以是一个或多个用户在预设时间段内的下单记录。排列次序表征目标邻接向量中个数值指向的商品的排泄次序,例如可以是商品编号由大到小的顺序。
在一个具体的示例中,目标历史销量数据可以是某电商品台的全量商品的历史销量数据,执行主体可以从该电商平台的数据库中获取目标历史销量数据。然后从目标历史销量数据中确定出目标商品与其他商品被同时购买的次数,得到一个数值集合,然后按照预设的排列次序将各个数值集合组合成目标邻接向量。
步骤202,将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量。
在本实施例中,目标编码模型的损失函数包括预设的惩罚因子,惩罚因子表征两个商品被同时购买的概率。目标编码模型表征邻接向量与嵌入向量的对应关系,如此,可以将商品被同时购买的概率作为约束引入目标编码模型中,使得嵌入向量可以表征商品之间的潜在特征,并且,可以通过两个目标嵌入向量的余弦距离表征两个目嵌入向量的相似度。
通常,损失函数用于指导机器学习模型的训练,以约束机器学习模型。作为示例,损失函数可以采用交叉熵损失函数,并引入惩罚因子作为系数,如公式(1)所示。
式中,lossencode表示目标编码器的损失函数,y(SKUA,SKUB)表示惩罚因子,f(SKUA)表示目标商品SKUA的目标邻接向量,f(SKUB)表示目标商品SKUB的目标邻接向量。
在目标编码器的训练阶段,可以根据样本标签设定惩罚因子,例如输入的样本中存在被同时购买的商品时,可以将惩罚因子设定为1,此时的损失函数的数值就较大;输入的样本中不存在本同时购买的商品时,可以将惩罚因子设定为0,此时的损失函数数值就较小。以此指导目标编码器在训练阶段学习每层的权重向量和偏移向量。
步骤203,将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息。
在本实施例中,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。
在本实施例中,可以用两个目标嵌入向量的余弦距离表征两个目标嵌入向量的相似度,余弦距离越小,相似度越高,相应地两个商品被同时购买的概率也就越高。
作为示例,执行主体可以采用预先训练的分类模型作为目标信息生成模型。执行主体将步骤202中得到的两个目标嵌入向量输入该分类模型,输出的分类标签即为目标信息。例如可以是1或0,1表示这两种目标商品会被同时购买,0表示这两种目标商品不会被同时购买。
再例如,执行主体还可以采用预先训练的回归模型作为目标信息生成模型,执行主体将步骤202中得到的两个目标嵌入向量输入该回归模型,输出的置信度即为目标信息,置信度可以表征这两种目标商品被同时购买的概率。
在本实施例的一些可选的实现方式中,将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,包括:将目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;连接两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;将连接后的目标嵌入向量输入预先训练的全连接层,得到目标信息。
在本实现方式中,预先训练的解码层对目标嵌入向量的解码过程与步骤202中的编码过程相反,第一层解码层的参数与目标编码模型的最后一层参数相同,最后一层解码层的参数(例如权重向量和偏移向量)与目标编码模型的第一层参数相同,如此,可以确保输入的目标嵌入向量与解码目标嵌入向量的维度保持不变。
执行主体可以直接将两个解码目标嵌入向量平行连接,得到连接后的解码目标嵌入向量。例如,目标商品SKU1的解码目标嵌入向量为(1,2),目标商品SKU2的解码目标嵌入向量为(2,3),则执行主体生成的连接后的解码目标嵌入向量为(1,2,2,3)。
执行主体可以采用神经网络作为全连接层,例如可以是DNN(Deep NeuralNetworks,深度神经网络)、CNN(Convolutional Neural Network,卷积神经网络)或其他神经网络。执行主体将连接后的解码目标嵌入向量输入全连接层,乘以每层的权重矩阵,得到降维后的向量,并输入下一层。全连接层的最后一层为Sigmoid层,将数值转化为[0,1]区间内的数值,以表征两个目标商品被同时购买的概率。
在本实施例的一个具体的示例中,本公开的用于生成信息的方法可以应用于电商平台的信息推送的业务场景中。具体的,执行主体为电商平台的业务服务器,当执行主体检测到用户在终端对商品A的下单操作时,可以将商品A作为第一目标商品,然后将历史销量数据中的其他商品依次作为第二目标商品,并执行上述步骤:提取出商品A与第二目标商品的目标邻接向量,将两个目标邻接向量输入目标编码模型,得到两个目标嵌入向量。之后,两个目标嵌入向量输入预先训练的信息生成模型中,得到商品A与该商品的目标信息,如此,可以得到其他商品分别于商品A被同时购买的概率。执行主体可以按照与商品A被同时购买的概率由大到小的顺序,排列其他商品,并将排序靠前的商品推送给用户,以提高用户的下单概率。
本公开的实施例提供的用于生成信息的方法和装置,采用预先训练的目标编码模型,基于目标商品的邻接向量生成目标嵌入向量,然后基于两个目标嵌入向量的相似度估计出两个目标商品被同时购买的概率。通过惩罚因子,将商品被同时购买的概率引入向量的编码过程,使得目标嵌入向量可以体现出目标商品被同时购买的深层特征,从而提高预测商品被同时购买的概率的准确度。
继续参见图3,图3是根据本公开的用于生成信息的方法一个实施例中生成目标编码模型的流程图。在图3所示的流程300中,包括以下步骤:
步骤301,构建初始分类模型以及模型损失函数,初始分类模型包括初始编码层、初始解码层和初始深度神经网络,模型损失函数包括惩罚因子。
在本实施例中,模型损失函数用于指导初始分类模型的训练过程,惩罚因子可以基于样本标签确定,样本标签表示样本商品被同时购买时,可以将惩罚因子设定为1;样本标签表示样本商品没有被同时购买时,可以将惩罚因子设定为0。
作为示例,损失函数可以采用公式(2)所示的公式:
loss=-y(SKUA,SKUB)*logp(SKUA,SKUB)+[1-y(SKUA,SKUB)*logp(1-p(SKUA,SKUB))]
式中,loss标识损失函数;y(SKUA,SKUB)表示惩罚因子;p(SKUA,SKUB)表示初始分类模型输出的结果,表征初始分类模型基于输入的样本预测出的两个样本商品SKUA和SKUB被同时购买的概率。
在本实施例中,初始编码层与初始解码层的层数相同,且计算过程相反。
步骤302,获取样本历史销量数据,样本历史销量数据包括预设数量的样本商品的历史销量数据。
在本实施例中,样本历史销量数据至少包括三种商品的历史销量数据,即预设数量不小于3。预设数量越大,则样本数据的维度就越大,模型训练的效率以及准确度就越高,但是相应的运算量也越大。历史销量数据可以包括各商品的下单时间和订单编号,通过订单编号确定商品是否被同时购买。
作为示例,样本历史销量数据可以是一个用户的下单记录,也可以是电商平台的全量商品的历史销量数据。
步骤303,基于样本历史销量数据,生成各样本商品的样本邻接向量。
在本实施例中,执行主体可以从样本历史销量数据中提取出每种样本商品与其他样本商品被同时购买的次数,然后基于每个样本商品与其他样本商品被同时购买的次数,生成样本邻接向量。
作为示例,样本历史记录中包括5个商品:SKU5,SKU6,SKU7,SKU8,SKU9。其中SKU5和SKU6有2次被同时购买,SKU5和SKU8有3次被同时购买。则SKU5的样本邻接向量为(0,2,0,3,0),以此,可以分别得到其他样本商品的样本邻接向量。
步骤304,将任意两个样本商品组成样本商品对。
继续结合步骤303中的示例,执行主体可以采用排列组合的方法,从样本历史记录中确定出10个样本商品对。
步骤305,生成样本商品对的样本标签,样本标签表征样本商品对中的两个样本商品是否被同时购买。
作为示例,若样本商品对中的两个样本商品被同时购买,可以将样本标签设置为1,反之,则可以将样本标签设置为0。
步骤306,将样本商品对中的两个样本商品的样本邻接向量,输入初始分类模型,将样本商品对的样本标签作为期望输出,训练初始分类模型,得到训练后的分类模型。
在本实施例中,执行主体每将一个样本商品对输入初始分类模型,均可以得到一个初始分类模型输出的样本置信度,然后将样本置信度输入预先构建的模型损失函数,得到初始分类模型在本次训练中的损失值,然后基于损失函数修正初始分类模型中的各个参数,例如,初始编码层的初始权重向量和初始偏移向量。直至损失值满足预设条件,或迭代次数达到预设次数,执行主体可以认定训练步骤完成,此时的分类模型即为目标分类模型。
步骤307,从训练后的分类模型中提取出训练后的编码层,得到目标编码模型。
在本实施例中,执行主体可以从训练后的分类模型中提取出编码层的所有参数(例如可以包括层数以及每一层的权重向量和偏移向量),即可得到目标编码模型。
本实施例提供的目标编码模型的生成方法,将目标编码模型的训练步骤耦合至分类模型的训练过程中,将惩罚因子引入分类模型的损失函数中,以此指导分类模型以及目标编码模型的训练过程,可以使得目标编码模型生成的嵌入向量可以更准确地体现出商品之间的潜在关联,从而提高预测信息的准确度。
进一步参考图4,其示出了用于生成信息的方法的又一个实施例的流程400。该用于生成信息的方法的流程400,包括以下步骤:
步骤401,接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数。此步骤与前述步骤201相对应,此处不再赘述。
步骤402,响应于确定两个目标邻接向量中的数值所表征的其他商品的排列次序不同,将两个目标邻接向量中的数值所表征的其他商品的排列次序调整至相同。
作为示例,步骤401中接收到的两个目标邻接向量分别为SKU1和SKU2的目标邻接向量,目标邻接向量中包括的其他商品为SKU3和SKU4,若SKU1的目标邻接向量中各数值对应的商品排序为(SKU1,SKU2,SKU3,SKU4),而SKU2的目标邻接向量中各数值对应的商品排序为(SKU4,SKU3,SKU2,SKU1),则执行主体可以将SKU2中各数值的排列次序调整为(SKU1,SKU2,SKU3,SKU4)。
步骤403,将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量。此步骤与前述步骤202相对应,此处不再赘述。
步骤404,将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息。此步骤与前述步骤203相对应,此处不再赘述。
从图4中可以看出,本实施例中的用于生成信息的方法的流程400突出了调整目标邻接向量中各商品对应的数值的排列次序的步骤,通过约束目标邻接向量中个商品对应的数值的排列次序,可以避免目标邻接向量的参数不一致对预测结果的干扰,提高预测结果的准确度。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于生成信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成信息的装置500包括:接收单元501,被配置成接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数;编码单元502,被配置成将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量,其中,目标编码模型的损失函数包括预设的惩罚因子,惩罚因子表征两个商品被同时购买的概率;生成单元503,被配置成将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。
在本实施例中,该装置500还包括模型训练单元,被配置成:构建初始分类模型以及模型损失函数,初始分类模型包括初始编码层、初始解码层和初始深度神经网络,模型损失函数包括惩罚因子;获取样本历史销量数据,样本历史销量数据包括预设数量的样本商品的历史销量数据;基于样本历史销量数据,生成各样本商品的样本邻接向量;将任意两个样本商品组成样本商品对;生成样本商品对的样本标签,样本标签表征样本商品对中的两个样本商品是否被同时购买;将样本商品对中的两个样本商品的样本邻接向量,输入初始分类模型,将样本商品对的样本标签作为期望输出,训练初始分类模型,得到训练后的分类模型;从训练后的分类模型中提取出训练后的编码层,得到目标编码模型。
在本实施例中,生成单元503进一步包括:解码模块,被配置成将目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;连接模块,被配置成连接两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;输出模块,被配置成将连接后的目标嵌入向量输入预先训练的全连接层,得到目标信息。
在本实施例中,该装置500还包括调整单元,被配置成:响应于确定两个目标邻接向量中的数值所表征的其他商品的排列次序不同,将两个目标邻接向量中的数值所表征的其他商品的排列次序调整至相同。
在本实施例中,该装置500还包括向量生成单元,被配置成:获取目标历史销量数据,目标历史销量数据包括两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;从目标历史销量数据中,提取出目标商品与其他商品被同时购买的次数;按照预设的排列次序,排列目标商品与其他商品被同时购买的次数,得到目标邻接向量。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器或终端设备)600的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的终端设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收两个目标商品的目标邻接向量,目标邻接向量表征目标商品与其他商品被同时购买的次数;将目标邻接向量输入预先训练的目标编码模型,得到目标商品的目标嵌入向量,其中,目标编码模型的损失函数包括预设的惩罚因子,惩罚因子表征两个商品被同时购买的概率;将两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,目标信息生成模型表征两个目标嵌入向量的相似度与两个目标商品被同时购买的概率之间的对应关系,目标信息表征两个目标商品被同时购买的概率。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、编码单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收两个目标商品的目标邻接向量的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于生成信息的方法,其中,包括:
接收两个目标商品的目标邻接向量,所述目标邻接向量表征所述目标商品与其他商品被同时购买的次数;
将所述目标邻接向量输入预先训练的目标编码模型,得到所述目标商品的目标嵌入向量,其中,所述目标编码模型的损失函数包括预设的惩罚因子,所述惩罚因子表征两个商品被同时购买的概率;
将所述两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,所述目标信息生成模型表征两个所述目标嵌入向量的相似度与所述两个目标商品被同时购买的概率之间的对应关系,所述目标信息签表征所述两个目标商品被同时购买的概率。
2.根据权利要求1所述的方法,其中,所述目标编码模型经由如下训练步骤得到:
构建初始分类模型以及模型损失函数,所述初始分类模型包括初始编码层、初始解码层和初始深度神经网络,所述模型损失函数包括所述惩罚因子;
获取样本历史销量数据,所述样本历史销量数据包括预设数量的样本商品的历史销量数据;
基于所述样本历史销量数据,生成各所述样本商品的样本邻接向量;
将任意两个样本商品组成样本商品对;
生成所述样本商品对的样本标签,所述样本标签表征所述样本商品对中的两个样本商品是否被同时购买;
将所述样本商品对中的两个样本商品的样本邻接向量,输入所述初始分类模型,将所述样本商品对的样本标签作为期望输出,训练所述初始分类模型,得到训练后的分类模型;
从所述训练后的分类模型中提取出训练后的编码层,得到所述目标编码模型。
3.根据权利要求1所述的方法,其中,将所述两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,包括:
将所述目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;
连接所述两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;
将所述连接后的目标嵌入向量输入预先训练的全连接层,得到所述目标信息。
4.根据权利要求1所述的方法,其中,将所述目标邻接向量输入预先训练的目标编码模型之前,所述方法还包括:
响应于确定两个所述目标邻接向量中的数值所指向的其他商品的排列次序不同,将两个所述目标邻接向量中的数值所指向的其他商品的排列次序调整至相同。
5.根据权利要求1所述的方法,其中,所述目标邻接向量,基于如下方式生成:
获取目标历史销量数据,所述目标历史销量数据包括所述两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;
从所述目标历史销量数据中,提取出所述目标商品与其他商品被同时购买的次数;
按照预设的排列次序,排列所述目标商品与其他商品被同时购买的次数,得到所述目标邻接向量。
6.一种用于生成信息的装置,其中,包括:
接收单元,被配置成接收两个目标商品的目标邻接向量,所述目标邻接向量表征所述目标商品与其他商品被同时购买的次数;
编码单元,被配置成将所述目标邻接向量输入预先训练的目标编码模型,得到所述目标商品的目标嵌入向量,其中,所述目标编码模型的损失函数包括预设的惩罚因子,所述惩罚因子表征两个商品被同时购买的概率;
生成单元,被配置成将所述两个目标商品的目标嵌入向量输入预先训练的目标信息生成模型,得到目标信息,所述目标信息生成模型表征两个所述目标嵌入向量的相似度与所述两个目标商品被同时购买的概率之间的对应关系,所述目标信息表征所述两个目标商品被同时购买的概率。
7.根据权利要求6所述的装置,其中,所述装置还包括模型训练单元,被配置成:
构建初始分类模型以及模型损失函数,所述初始分类模型包括初始编码层、初始解码层和初始深度神经网络,所述模型损失函数包括所述惩罚因子;
获取样本历史销量数据,所述样本历史销量数据包括预设数量的样本商品的历史销量数据;
基于所述样本历史销量数据,生成各所述样本商品的样本邻接向量;
将任意两个样本商品组成样本商品对;
生成所述样本商品对的样本标签,所述样本标签表征所述样本商品对中的两个样本商品是否被同时购买;
将所述样本商品对中的两个样本商品的样本邻接向量,输入所述初始分类模型,将所述样本商品对的样本标签作为期望输出,训练所述初始分类模型,得到训练后的分类模型;
从所述训练后的分类模型中提取出训练后的编码层,得到所述目标编码模型。
8.根据权利要求6所述的装置,其中,所述生成单元进一步包括:
解码模块,被配置成将所述目标嵌入向量解码输入预先训练的解码层,得到解码目标嵌入向量;
连接模块,被配置成连接所述两个目标商品的解码目标嵌入向量,得到连接后的解码目标嵌入向量;
输出模块,被配置成将所述连接后的目标嵌入向量输入预先训练的全连接层,得到所述目标信息。
9.根据权利要求6所述的装置,所述装置还包括调整单元,被配置成:
响应于确定两个所述目标邻接向量中的数值所表征的其他商品的排列次序不同,将两个所述目标邻接向量中的数值所表征的其他商品的排列次序调整至相同。
10.根据权利要求6所述的装置,所述装置还包括向量生成单元,被配置成:
获取目标历史销量数据,所述目标历史销量数据包括所述两个目标商品的历史销量数据以及至少一个非目标商品的历史销量数据;
从所述目标历史销量数据中,提取出所述目标商品与其他商品被同时购买的次数;
按照预设的排列次序,排列所述目标商品与其他商品被同时购买的次数,得到所述目标邻接向量。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110146244.0A CN113793167A (zh) | 2021-02-03 | 2021-02-03 | 用于生成信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110146244.0A CN113793167A (zh) | 2021-02-03 | 2021-02-03 | 用于生成信息的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113793167A true CN113793167A (zh) | 2021-12-14 |
Family
ID=78876883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110146244.0A Pending CN113793167A (zh) | 2021-02-03 | 2021-02-03 | 用于生成信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113793167A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031963A (ja) * | 2003-07-11 | 2005-02-03 | Nippon Telegr & Teleph Corp <Ntt> | レイアウト評価・提案システム、その方法、そのプログラム及び該プログラムを記録した媒体 |
US20070100680A1 (en) * | 2005-10-21 | 2007-05-03 | Shailesh Kumar | Method and apparatus for retail data mining using pair-wise co-occurrence consistency |
CN102087730A (zh) * | 2009-12-08 | 2011-06-08 | 深圳市腾讯计算机系统有限公司 | 一种产品用户网络构建方法和装置 |
US20150039383A1 (en) * | 2012-03-01 | 2015-02-05 | Life Technologies Corporation | Methods and Systems for a Product Selection Tool |
CN106296242A (zh) * | 2015-05-22 | 2017-01-04 | 苏宁云商集团股份有限公司 | 一种用于电子商务中商品推荐列表的生成方法及生成系统 |
CN109934646A (zh) * | 2017-12-15 | 2019-06-25 | 北京京东尚科信息技术有限公司 | 预测新商品关联购买行为的方法及装置 |
CN110060090A (zh) * | 2019-03-12 | 2019-07-26 | 北京三快在线科技有限公司 | 推荐商品组合的方法、装置、电子设备及可读存储介质 |
CN110097433A (zh) * | 2019-05-14 | 2019-08-06 | 苏州大学 | 基于注意力机制的推荐方法、装置、设备及存储介质 |
CN110298718A (zh) * | 2018-03-23 | 2019-10-01 | 北京三快在线科技有限公司 | 产品推荐方法、装置、设备及存储介质 |
CN111402013A (zh) * | 2020-06-04 | 2020-07-10 | 成都晓多科技有限公司 | 一种商品搭配推荐方法、系统、装置及存储介质 |
CN111429234A (zh) * | 2020-04-16 | 2020-07-17 | 电子科技大学中山学院 | 一种基于深度学习的商品序列推荐方法 |
JP2020154475A (ja) * | 2019-03-18 | 2020-09-24 | パナソニックIpマネジメント株式会社 | 購入促進装置、購入促進方法及びプログラム |
CN111915400A (zh) * | 2020-07-30 | 2020-11-10 | 广州大学 | 一种基于深度学习的个性化服装推荐方法、装置 |
-
2021
- 2021-02-03 CN CN202110146244.0A patent/CN113793167A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031963A (ja) * | 2003-07-11 | 2005-02-03 | Nippon Telegr & Teleph Corp <Ntt> | レイアウト評価・提案システム、その方法、そのプログラム及び該プログラムを記録した媒体 |
US20070100680A1 (en) * | 2005-10-21 | 2007-05-03 | Shailesh Kumar | Method and apparatus for retail data mining using pair-wise co-occurrence consistency |
CN102087730A (zh) * | 2009-12-08 | 2011-06-08 | 深圳市腾讯计算机系统有限公司 | 一种产品用户网络构建方法和装置 |
US20150039383A1 (en) * | 2012-03-01 | 2015-02-05 | Life Technologies Corporation | Methods and Systems for a Product Selection Tool |
CN106296242A (zh) * | 2015-05-22 | 2017-01-04 | 苏宁云商集团股份有限公司 | 一种用于电子商务中商品推荐列表的生成方法及生成系统 |
CN109934646A (zh) * | 2017-12-15 | 2019-06-25 | 北京京东尚科信息技术有限公司 | 预测新商品关联购买行为的方法及装置 |
CN110298718A (zh) * | 2018-03-23 | 2019-10-01 | 北京三快在线科技有限公司 | 产品推荐方法、装置、设备及存储介质 |
CN110060090A (zh) * | 2019-03-12 | 2019-07-26 | 北京三快在线科技有限公司 | 推荐商品组合的方法、装置、电子设备及可读存储介质 |
JP2020154475A (ja) * | 2019-03-18 | 2020-09-24 | パナソニックIpマネジメント株式会社 | 購入促進装置、購入促進方法及びプログラム |
CN110097433A (zh) * | 2019-05-14 | 2019-08-06 | 苏州大学 | 基于注意力机制的推荐方法、装置、设备及存储介质 |
CN111429234A (zh) * | 2020-04-16 | 2020-07-17 | 电子科技大学中山学院 | 一种基于深度学习的商品序列推荐方法 |
CN111402013A (zh) * | 2020-06-04 | 2020-07-10 | 成都晓多科技有限公司 | 一种商品搭配推荐方法、系统、装置及存储介质 |
CN111915400A (zh) * | 2020-07-30 | 2020-11-10 | 广州大学 | 一种基于深度学习的个性化服装推荐方法、装置 |
Non-Patent Citations (1)
Title |
---|
BELADEV, M ETAL.: "Recommender systems for product bundling", 《KNOWLEDGE-BASED SYSTEMS》, vol. 111, 9 November 2016 (2016-11-09), pages 193 - 206, XP029744106, DOI: 10.1016/j.knosys.2016.08.013 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11620532B2 (en) | Method and apparatus for generating neural network | |
CN109492772B (zh) | 生成信息的方法和装置 | |
EP4242955A1 (en) | User profile-based object recommendation method and device | |
CN110619078B (zh) | 用于推送信息的方法和装置 | |
US20240078385A1 (en) | Method and apparatus for generating text | |
CN110858226A (zh) | 对话管理方法和装置 | |
CN112149699A (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN112036954A (zh) | 物品推荐方法和装置、计算机可读存储介质、电子设备 | |
CN113592593B (zh) | 序列推荐模型的训练及应用方法、装置、设备及存储介质 | |
CN116911953B (zh) | 物品推荐方法、装置、电子设备及计算机可读存储介质 | |
CN114119123A (zh) | 信息推送的方法和装置 | |
CN111325614A (zh) | 电子对象的推荐方法、装置和电子设备 | |
CN112308942A (zh) | 用于生成图像的方法和装置 | |
CN113793167A (zh) | 用于生成信息的方法和装置 | |
US20230053859A1 (en) | Method and apparatus for outputting information | |
CN114943583A (zh) | 用户喜好物品信息生成方法、装置、电子设备和介质 | |
CN110837596B (zh) | 一种智能推荐方法、装置、计算机设备及存储介质 | |
CN113822734A (zh) | 用于生成信息的方法和装置 | |
CN113792952A (zh) | 用于生成模型的方法和装置 | |
CN111784377A (zh) | 用于生成信息的方法和装置 | |
CN116911912B (zh) | 一种交互对象和交互结果的预测方法及装置 | |
CN111105274A (zh) | 数据处理方法、装置、介质及电子设备 | |
CN111626805B (zh) | 信息展示方法和装置 | |
CN116911304B (zh) | 一种文本推荐方法及装置 | |
CN116911913B (zh) | 一种交互结果的预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |