CN109670161B - 商品相似度计算方法及装置、存储介质、电子设备 - Google Patents

商品相似度计算方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN109670161B
CN109670161B CN201710953390.8A CN201710953390A CN109670161B CN 109670161 B CN109670161 B CN 109670161B CN 201710953390 A CN201710953390 A CN 201710953390A CN 109670161 B CN109670161 B CN 109670161B
Authority
CN
China
Prior art keywords
similarity
layer
words
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710953390.8A
Other languages
English (en)
Other versions
CN109670161A (zh
Inventor
朱远昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201710953390.8A priority Critical patent/CN109670161B/zh
Publication of CN109670161A publication Critical patent/CN109670161A/zh
Application granted granted Critical
Publication of CN109670161B publication Critical patent/CN109670161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Abstract

本公开是关于一种商品相似度计算方法及装置,属于数据处理技术领域,该方法包括:利用第一机器学习模型对多个标题词进行学习得到多个与各标题词关联的分布式向量表示;利用第二机器学习模型对各分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;根据各标题词之间的相似度得到由各标题词组成的商品之间的相似度。该方法可以根据各标题词的分布式向量表示以及各标题词之间的相似度对新加入的商品以及销量较小的商品进行打分,从而可以使得推荐系统可以根据各新加入的商品以及销量较小的商品的分数进行推荐,可以进一步的帮助用户推荐需要的产品以提高产品的销售数量以及用户的满意度。

Description

商品相似度计算方法及装置、存储介质、电子设备
技术领域
本公开涉及数据处理技术领域,具体而言,涉及一种商品相似度计算方法、商品相似度计算装置、计算机可读存储介质以及电子设备。
背景技术
随着电子商务技术与物流配送体系的不断发展以及完善,网上购物也受到越来越多消费者的欢迎,与此同时,网上购物的种类也在不断拓展。在这种形势下,各个电商网站的竞争也在日益加剧;而各电商网站随之产生的推荐系统不仅有利于消费者用更少的点击和时间找到自己需要的商品,也更加有利于提高电子商务网站的销售额度以及用户满意度。
在上述电子商务网站的推荐系统中,应用较为广泛的一类算法可以包括基于商品的协同过滤算法。其中,基于商品的协同过滤算法包括一个基本的假设,例如可以是:“能够引起用户兴趣的项目,必定与其之前评分高的项目相似”;例如,用户搜索、点击或者收藏过某一款“洗发水”商品,推荐系统可以认为该用户对该款洗发水感兴趣,因此会给出比较高的评分;然后利用已经计算好的商品间相似度作为权重把该比较高的评分传递给其它商品,最后把经过传递后评分比较高的商品推荐给用户。
进一步的,在基于商品的协同过滤算法中,核心的部分可以包括商品间相似度的计算。常用的相似度计算方法可以利用用户对各个商品的评分距离(如余弦距离)来代替;但是,计算余弦距离需要大量的用户评分信息,对于销量较小的商品只有非常有限的用户评分信息,新加入的商品通常没有用户的评分信息,因此对于销量较小的商品以及新加入的商品(可以被称为冷启动商品)来说,很难通过上述方法被推荐给需要的用户。
在目前的电子商务推荐系统中,对于销量较小的商品以及新加入的商品相似度的计算方法可以包括:人工标注、基于图片的相似度计算以及基于标题的文本相似性算法。但是,利用人工标注、基于图片的相似度计算以及基于标题的文本相似性算法存在如下缺点:(1)对于新加入的商品,人工标注只能对有限个商品进行相似度标注,无法对全部商品进行相似度标注;(2)基于图片的相似度计算可以很好的处理部分品类的冷启动商品(如服装),但是无法处理某些外观相似但内部参数和价格差距较大的商品(如电脑配件);(3)部分文本相似性算法(如simhash)无法对同义词和近义词进行处理,如,有的商家在标题中用“夏装”,有的商家用“夏季”来描述同一件服装类商品;而现有的可以对同义词与近义词进行处理的文本相似性算法(如word2vec)只适用于有一定结构和顺序的自然语言,对电子商务网站中的标题不适用。
因此,需要提供一种新的商品相似度计算方法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种商品相似度计算方法、商品相似度计算装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本公开的一个方面,提供一种商品相似度计算方法,包括:
利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示;
利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;
根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
在本公开的一种示例性实施例中,所述第一机器学习模型包括嵌入层、全连接层以及Softmax层。
在本公开的一种示例性实施例中,利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示包括:
利用所述嵌入层对各所述标题词进行学习得到所述分布式向量表示的第一向量规模;
利用所述全连接层以及所述Softmax层对各所述标题词进行学习得到所述分布式向量表示的第二向量规模;
将所述第一向量规模以及第二向量规模进行拼接得到与各所述标题词关联的分布式向量表示。
在本公开的一种示例性实施例中,所述全连接层包括:
full=W1x1+b;
其中,W1为全连接层的待优化矩阵;b为全连接层的待优化变量;full为全连接层的输出;x1为全连接层的输入。
在本公开的一种示例性实施例中,所述Softmax层包括:
Figure BDA0001433387590000031
x2为Softmax层的输入;w2为Softmax层的待优化矩阵;neg sample表示负样本集;pos sample表示正样本集;P(y=j|x)表示当输入为x2时,输出为j的概率;j表示输出的类别;x2 T表示x2的转置。
在本公开的一种示例性实施例中,所述第二机器学习模型包括多个卷积层、激活层、池化层、全连接层以及逻辑回归层。
在本公开的一种示例性实施例中,利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度包括:
利用激活层计算各所述分布式向量表示间的余弦距离;
利用所述池化层计算各所述分布式向量表示间的余弦距离与所述历史商品相似度间的闵可夫斯基距离;
根据各所述闵可夫斯基距离得到各所述标题词之间的相似度。
在本公开的一种示例性实施例中,所述第一机器学习模型为神经网络模型。
根据本公开的一个方面,提供一种商品相似度计算装置,包括:
第一学习模块,用于利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示;
第二学习模块,用于利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;
相似度模块,用于根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的商品相似度计算方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的商品相似度计算方法。
本公开一种商品相似度计算方法及装置,通过对多个标题词进行学习得到多个与各标题词关联的分布式向量表示,再对各分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度,最后根据各标题词之间的相似度得到由各标题词组成的商品之间的相似度;一方面,可以根据各标题词的分布式向量表示以及各标题词之间的相似度对新加入的商品以及销量较小的商品进行打分,从而使得推荐系统可以根据各新加入的商品以及销量较小的商品的分数进行推荐,可以进一步的帮助用户推荐需要的产品以提高产品的销售数量以及用户的满意度;另一方面,可以通过机器学习得到各新加入的商品以及销量较小的商品的分数,解决了人工只能对有限个商品进行标注的问题,提高了商品相似度计算的覆盖度和准确性;再一方面,通过根据各标题词之间的相似度得到由各标题词组成的商品之间的相似度,解决了由于基于图片等的相似度无法处理的由于外观相似但是内部参数不同的冷启动商品间的相似度问题以及由于部分文本相似算法无法对具有同义词以及近义词的冷启动商品间的相似度的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出一种商品相似度计算方法的流程图。
图2示意性示出一种第一机器学习模型的结构框图。
图3示意性示出一种对多个标题词进行学习得到分布式向量表示的方法流程图。
图4示意性示出对各分布式向量表示以及历史商品相似度进行学习以得到各标题词之间的相似度的方法流程图。
图5示意性示出一种商品相似度计算装置的方框图。
图6示意性示出一种用于实现上述商品相似度计算方法的电子设备。
图7示意性示出一种用于实现上述商品相似度计算方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了一种商品相似度计算方法。参考图1所示,该商品相似度算法可以包括以下步骤:
步骤S110.利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示。
步骤S120.利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度。
步骤S130.根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
在上述商品相似度算法中,一方面,可以根据各标题词的分布式向量表示以及各标题词之间的相似度对新加入的商品以及销量较小的商品进行打分,从而使得推荐系统可以根据各新加入的商品以及销量较小的商品的分数进行推荐,可以进一步的帮助用户推荐需要的产品以提高产品的销售数量以及用户的满意度;另一方面,可以通过机器学习得到各新加入的商品以及销量较小的商品的分数,解决了人工只能对有限个商品进行标注的问题,提高了商品相似度计算的覆盖率和准确性;再一方面,通过根据各标题词之间的相似度得到由各标题词组成的商品之间的相似度,解决了由于基于图片的相似度无法处理的由于外观相似但是内部参数不同的冷启动商品间的相似度问题以及由于部分文本相似算法无法对具有同义词以及近义词的冷启动商品间的相似度的问题。
下面,将对本示例实施方式中上述商品相似度计算方法中的各步骤进行详细的解释以及说明。
在步骤S110中,利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示。
首先,对上述第一机器学习模型进行解释以及说明。参考图2所示,第一机器学习模型可以是一个神经网络模型,可以包括嵌入层、全连接层以及softmax层等等,也可以包括其他层,例如还可以包括逻辑回归层等等,本示例对此不做特殊限制。该第一机器学习模型最终需要优化得到的结果为每个标题词分布式表示的向量规模n;进一步的,每个词的分布式向量表示的向量可以由两个规模为n1和n2的向量拼接而成。其中,嵌入层规模可以为(dict_num,n1);其中,dict_num为词典规模,n1为词分布式表示的向量规模;嵌入层中的数据随机产生,经优化后作为标题词分布式向量表示的一部分。
其次,对极大似然估计进行解释以及说明。极大似然估计是在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数θ作为真实θ*的参数估计。可以包括离散型随机变量以及连续型随机变量。其中:
当x为离散型随机变量时,θ=(θ1,θ2,...,θk)为多维参数向量,如果随机变量x1,...,xn相互独立且概率计算式为P{xi=xi}=p(xi;θ1,...,θk),则可得概率函数为
Figure BDA0001433387590000071
在θ=(θ1,θ2,...,θk)固定时,上式表示x1=x1,...,xn=xn的概率;当x1=x1,...,xn=xn已知的时候,它又变成θ=(θ1,θ2,...,θk)的函数,可以把它记为
Figure BDA0001433387590000072
称此函数为似然函数。似然函数值的大小意味着该样本值出现的可能性的大小,既然已经得到了样本值x1=x1,...,xn=xn,那么它出现的可能性应该是较大的,即似然函数的值也应该是比较大的,因而最大似然估计就是选择使L(θ1,θ2,...,θk)达到最大值的那个θ作为真实θ*的估计;
当x为连续型随机变量时,其概率密度函数为f(xi;θ1,...,θk),x1,...,xn为从该总体中抽出的样本,同样的如果x1,...,xn相互独立且同分布,于是样本的联合概率密度为
Figure BDA0001433387590000073
大致过程同离散型一样。进一步的,上述第一机器学习模型的最终目标是优化以下目标:
Figure BDA0001433387590000074
其中,u属于;content(w)表示在相似产品标题对中出现的所有其它词;w为当前标题词;进一步的,本公开中涉及的所有其它词(content(w))与当前标题词(w)不存在位置以及顺序关系的约束,同时content(w)还包括并且充分利用电子商务网站已经存在的相似产品信息,如基于用户评分的相似信息,图片相似信息等;因此,该第一机器学习模型解决了由于基于图片的相似度无法处理的由于外观相似但是内部参数不同的冷启动商品间的相似度问题以及由于部分文本相似算法无法对具有同义词以及近义词的冷启动商品间的相似度的问题。
进一步的,基于上述第一机器学习模型以及极大似然估计对步骤S110进行进一步的解释以及说明。其中,参考图3所示,对多个标题词进行学习得到分布式向量表示可以包括步骤S1102-步骤S1106。其中:
在步骤S1102中,利用所述嵌入层对各所述标题词进行学习得到所述分布式向量表示的第一向量规模。详细而言:
首先,输入多个标题词并利用嵌入层进行学习,然后得到分布式向量表示的第一向量规模n1。例如,输入的标题词可以包括:电冰箱、冰柜、美的以及海尔等等,然后利用嵌入层对各标题词进行优化,然后得到各标题词的第一部分的分布式向量表示,该分布式向量表示的维度可以为n1。
在步骤S1104中,利用所述全连接层以及所述Softmax层对各所述标题词进行学习得到所述分布式向量表示的第二向量规模。
首先,对全连接层以及Softmax层进行解释以及说明。其中,全连接层可以包括:full=W1x1+b;其中,x1为嵌入层的输入;W1为全连接层的待优化矩阵,矩阵W1的规模为(n1,n2);b为全连接层的待优化变量,矩阵b的规模为(1,n2);n2为分布式向量表示的第二向量规模;full为全连接层的输出。进一步的,Softmax层可以包括:
Figure BDA0001433387590000081
其中,x2为Softmax层的输入;w2为Softmax层的待优化矩阵,w2的规模可以为(dict_num,n2),每次计算只会优化其中的neg_num+1个向量;neg sample表示负样本集;pos sample表示正样本集;P(y=j|x2)表示当输入为x2时,输出为j的概率;j表示输出的类别;x2 T表示x2的转置;进一步的,Softmax层可以为Nce-softmax;通过利用Nce-softmax,相较于传统的Softmax输出层为规模为dict_num的onehot向量,每次优化需要更新数十倍乃至上百倍于Nce-softmax的参数,不需要得到利用每个词预测其它词的概率,而只是需要得到词向量,这样做的好处是这样可以把每次需要优化的变量数量减少若干个数量级,大大加快计算速度。
其次,基于上述全连接层以及Softmax层对步骤S1104进行进一步的解释以及说明。利用Softmax层对各标题词进行学习,然后得到分布式向量表示的第一向量规模n2。例如,输入的标题词可以包括:电冰箱、冰柜、美的以及海尔等等,然后利用嵌入层对各标题词进行优化,然后得到各标题词的第一部分的分布式向量表示,该分布式向量表示的维度可以为n2。然后利用全连接层连接嵌入层以及Softmax层,并利用全连接层的待优化变量b以及矩阵W1对n1以及n2进行学习,以使n1以及n2维度相同。进一步的,nce-softmax的每个输出为neg_num+1个onehot向量,在训练每个标题词的同时也训练随机产生的neg_num个不在这个标题中的负样本,而词典规模dict_num远远大于neg_num。
进一步的,该第一机器学习模型的代价函数(损失函数)可以包括:
Figure BDA0001433387590000091
其中,Cost为代价函数,negnum为负样本数量,x为输入的标题词,y为期望输出,a为神经网络实际输出;进一步的,增加该损失函数可以很好得反映该第一机器学习模型与实际数据的差距,并根据该差距对该第一机器学习模型进一步的调整以得到更加精确的结果。
在步骤S1106中,将所述第一向量规模以及第二向量规模进行拼接得到与各所述标题词关联的分布式向量表示。详细而言:
采用随机梯度递减优化该神经网络后,将嵌入层中每个标题词对应的第一向量规模n1与Nec-softmax层中的矩阵w每个词对应的第二向量规模n2进行拼接,得到各标题词的分布式向量表示;最终,得到的各表次的分布式向量表示可以包括:“电冰箱”=[1,1,1];“冰柜”=[]。进一步的,分布式向量表示(Distribution Vector Representation)可以通过最优化手段将某种实体(如商品标题词)表示为空间中的一个稠密向量(Dense Vector),具有相同属性与类似属性的实体在空间的分布式表示上一般位于同一片区域,可以体现事物的相关与相似性。
在步骤S120中,利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度。
首先,对第二机器学习模型进行解释以及说明。第二机器学习模型与卷积神经网络模型类似,可以包括卷积层、激活层、池化层、全连接层以及逻辑回归层等等;但是,与卷积神经网络模型区别为:该第二机器学习模型的输入不是图像信息,而是若干层由两个商品标题词所对应的词向量的相似度和标题词矩阵相乘组成,输出的结果为两个商品的相似度数值。其中,卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现;可以由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer);该结构使得卷积神经网络能够利用输入数据的二维结构。
进一步的,基于上述第二机器学习模型对步骤S120进行解释以及说明。其中,参考图4所示,对各分布式向量表示以及历史商品相似度进行学习以得到各标题词之间的相似度可以包括步骤S1202-步骤S1206。其中:
在步骤S1202中,利用激活层计算各所述分布式向量表示间的余弦距离。举例而言:
例如,经过第一机器学习模型训练得到的各标题词的分布式向量表示可以包括:“电冰箱”=[1,1,1];“冰柜”=[0.9,1,0.8];“美的”=[-1,0,-1];以及“海尔”=[-0.5,0.5,-0.4]等等,假设有两个产品的标题分别为“美的电冰箱”以及“海尔冰柜”;则这两个产品的标题矩阵分别为:A=[-1,0,-11,1,1]
以及
B=[-0.5,0.5,-0.40.9,1,0.8];
假设第二机器学习模型输入的第一层为标题矩阵相乘层且第一层的规模为(2,2),第一层的数值为A·BT;该第二机器学习模型输入的第二层为cos相似度层,该层的规模同样为(2,2),该层的数值可以为:
[cos(美的,海尔),cos(电冰箱,海尔)cos(美的,冰柜),cos(电冰箱,冰柜)];
其中,cos(x,y)表示两个词对应分布式向量表示的余弦(cos)距离,具体的可以包括:
Figure BDA0001433387590000111
则:
Figure BDA0001433387590000112
Figure BDA0001433387590000113
Figure BDA0001433387590000114
Figure BDA0001433387590000115
在步骤S1204中,利用所述池化层计算各所述分布式向量表示间的余弦距离与所述历史商品相似度间的闵可夫斯基距离。举例而言:
进一步的,可以利用池化层计算各分布式向量表示间的余弦距离与历史商品相似度间的闵可夫斯基距离(Minkowski distance);具体的可以包括:
Figure BDA0001433387590000116
其中,Minkowski distance为闵可夫斯基距离,xi表示各分布式向量表示间的余弦距离;yi表示历史商品的相似度;p为变参数,当p=1时,就是曼哈顿距离;当p=2时,就是欧氏距离;当p→∞时,就是切比雪夫距离。进一步的,对于商品标题长度不同的问题,该模型在输入层确定一个较大的矩阵规模,对于长度不够的标题,剩余部分用0向量填充,为了防止大量的0对神经网络精度造成影响,该模型选用动态k-max pooling池化层。
在步骤S1206中,根据各所述闵可夫斯基距离得到各标题词之间的相似度。举例而言:
例如,电冰箱与冰柜的闵可夫斯基距离为0.9,则可以根据该举例得到电冰箱与冰柜的相似度为0.9;进一步的,假设在冰柜未出现的情况下,当用户对电冰箱进行浏览、点击以及收藏的行为时,可以对用户推荐冷启动商品冰柜的相关品牌以达到让用户可以真正挑选到自己想要的物品的目的;同时也可以进一步的提高冰柜的销售额,同时也提高了用户的满意度。
在步骤S130中,根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。详细而言:
当得到各标题词之间的相似度以后,可以根据各标题词之间的相似度得到由各标题词组成的商品之间的相似度;其中,计算方法可以是通过各标题词之间的相似度进行相加或者各标题词之间的相似度进行相乘等等,也可以是其他算法,本示例对此不做特殊限制。例如,可以根据美的与海尔之间的相似度以及冰柜与冰箱之间的相似度计算得到美的冰箱与海尔冰柜之间的相似度;因此,当用户浏览、点击或者收藏美的冰箱以后,系统可以向用户推荐冷启动商品海尔冰柜等等。
本公开还提供了一种商品相似度计算装置。参考图5所示,该商品相似度计算装置可以包括:第一学习模块510、第二学习模块520以及相似度模块530。其中:
第一学习模块510可以用于利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示。
第二学习模块520可以用于利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度。
相似度模块530可以用于根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
在本公开的一种例实施方式中,利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示包括:
利用所述嵌入层对各所述标题词进行学习得到所述分布式向量表示的第一向量规模。
利用所述全连接层以及所述Softmax层对各所述标题词进行学习得到所述分布式向量表示的第二向量规模。
将所述第一向量规模以及第二向量规模进行拼接得到与各所述标题词关联的分布式向量表示。
在本公开的一种例实施方式中,,所述全连接层包括:
full=W1x1+b;
其中,W1为全连接层的待优化矩阵;b为全连接层的待优化变量;full为全连接层的输出;x1为全连接层的输入。
在本公开的一种例实施方式中,,所述Softmax层包括:
Figure BDA0001433387590000131
x2为Softmax层的输入;w2为Softmax层的待优化矩阵;neg sample表示负样本集;pos sample表示正样本集;P(y=j|x)表示当输入为x2时,输出为j的概率;j表示输出的类别;x2 T表示x2的转置。
在本公开的一种例实施方式中,所述第二机器学习模型包括多个卷积层、激活层、池化层、全连接层以及逻辑回归层。
在本公开的一种例实施方式中,利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度包括:
利用激活层计算各所述分布式向量表示间的余弦距离;
利用所述池化层计算各所述分布式向量表示间的余弦距离与所述历史商品相似度间的闵可夫斯基距离;
根据各所述闵可夫斯基距离得到各所述标题词之间的相似度。
在本公开的一种例实施方式中,,所述第一机器学习模型为神经网络模型。
上述商品相似度计算装置中各模块的具体细节已经在对应的商品相似度计算方法中进行了详细想描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的步骤S110:利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示;S120:利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;步骤S130:根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图7所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (11)

1.一种商品相似度计算方法,其特征在于,包括:
利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示;
利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;
根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
2.根据权利要求1所述的商品相似度计算方法,其特征在于,所述第一机器学习模型包括嵌入层、全连接层以及Softmax层。
3.根据权利要求2所述的商品相似度计算方法,其特征在于,利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示包括:
利用所述嵌入层对各所述标题词进行学习得到所述分布式向量表示的第一向量规模;
利用所述全连接层以及所述Softmax层对各所述标题词进行学习得到所述分布式向量表示的第二向量规模;
将所述第一向量规模以及第二向量规模进行拼接得到与各所述标题词关联的分布式向量表示。
4.根据权利要求3所述的商品相似度计算方法,其特征在于,所述全连接层包括:
full=W1x1+b;
其中,W1为全连接层的待优化矩阵;b为全连接层的待优化变量;full为全连接层的输出;x1为全连接层的输入。
5.根据权利要求3所述的商品相似度计算方法,其特征在于,所述Softmax层包括:
Figure 120480DEST_PATH_IMAGE002
x2为Softmax层的输入;w2为Softmax层的待优化矩阵;neg sample表示负样本集;possample表示正样本集;P(y=j|x2)表示当x2输入为时,输出为j的概率;j表示输出的类别;x2 T表示x2的转置。
6.根据权利要求1所述的商品相似度计算方法,其特征在于,所述第二机器学习模型包括多个卷积层、激活层、池化层、全连接层以及逻辑回归层。
7.根据权利要求6所述的商品相似度计算方法,其特征在于,利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度包括:
利用激活层计算各所述分布式向量表示间的余弦距离;
利用所述池化层计算各所述分布式向量表示间的余弦距离与所述历史商品相似度间的闵可夫斯基距离;
根据各所述闵可夫斯基距离得到各所述标题词之间的相似度。
8.根据权利要求1-7任一项所述的商品相似度计算方法,其特征在于,所述第一机器学习模型为神经网络模型。
9.一种商品相似度计算装置,其特征在于,包括:
第一学习模块,用于利用第一机器学习模型对多个标题词进行学习得到多个与各所述标题词关联的分布式向量表示;
第二学习模块,用于利用第二机器学习模型对各所述分布式向量表示以及历史商品相似度进行学习得到各标题词之间的相似度;
相似度模块,用于根据各所述标题词之间的相似度得到由各所述标题词组成的商品之间的相似度。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8任一项所述的商品相似度计算方法。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-8任一项所述的商品相似度计算方法。
CN201710953390.8A 2017-10-13 2017-10-13 商品相似度计算方法及装置、存储介质、电子设备 Active CN109670161B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710953390.8A CN109670161B (zh) 2017-10-13 2017-10-13 商品相似度计算方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710953390.8A CN109670161B (zh) 2017-10-13 2017-10-13 商品相似度计算方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN109670161A CN109670161A (zh) 2019-04-23
CN109670161B true CN109670161B (zh) 2023-01-31

Family

ID=66138848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710953390.8A Active CN109670161B (zh) 2017-10-13 2017-10-13 商品相似度计算方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN109670161B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310149B (zh) * 2019-06-06 2023-02-21 创新先进技术有限公司 售卖商品推荐方法、装置及设备
CN110517077A (zh) * 2019-08-21 2019-11-29 天津货比三价科技有限公司 基于属性距离的商品相似度分析方法、装置及存储介质
CN110650058B (zh) * 2019-10-08 2022-03-04 河南省云安大数据安全防护产业技术研究院有限公司 一种网络流量分析方法、装置、存储介质及设备
CN111221952B (zh) * 2020-01-06 2021-05-14 百度在线网络技术(北京)有限公司 建立排序模型的方法、查询自动补全的方法及对应装置
CN111291264B (zh) * 2020-01-23 2023-06-23 腾讯科技(深圳)有限公司 基于机器学习的访问对象预测方法、装置和计算机设备
CN113761326A (zh) * 2020-06-17 2021-12-07 北京沃东天骏信息技术有限公司 一种过滤相似产品的方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103838789A (zh) * 2012-11-27 2014-06-04 大连灵动科技发展有限公司 一种文本相似度计算方法
CN104484601A (zh) * 2014-12-09 2015-04-01 中国科学院深圳先进技术研究院 基于加权距离度量以及矩阵分解的入侵检测方法及装置
CN104915860A (zh) * 2015-06-10 2015-09-16 无线生活(杭州)信息科技有限公司 一种商品推荐方法及装置
CN105243143A (zh) * 2015-10-14 2016-01-13 湖南大学 基于即时语音内容检测的推荐方法及系统
CN105913290A (zh) * 2016-07-01 2016-08-31 中国传媒大学 商品搭配推荐方法及推荐系统
CN106600357A (zh) * 2016-10-28 2017-04-26 浙江大学 基于电子商务商品标题的商品搭配方法
US9659248B1 (en) * 2016-01-19 2017-05-23 International Business Machines Corporation Machine learning and training a computer-implemented neural network to retrieve semantically equivalent questions using hybrid in-memory representations
CN106951547A (zh) * 2017-03-27 2017-07-14 西安电子科技大学 一种基于交叉用户的跨域推荐方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565533B2 (en) * 2014-05-09 2020-02-18 Camelot Uk Bidco Limited Systems and methods for similarity and context measures for trademark and service mark analysis and repository searches

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103838789A (zh) * 2012-11-27 2014-06-04 大连灵动科技发展有限公司 一种文本相似度计算方法
CN104484601A (zh) * 2014-12-09 2015-04-01 中国科学院深圳先进技术研究院 基于加权距离度量以及矩阵分解的入侵检测方法及装置
CN104915860A (zh) * 2015-06-10 2015-09-16 无线生活(杭州)信息科技有限公司 一种商品推荐方法及装置
CN105243143A (zh) * 2015-10-14 2016-01-13 湖南大学 基于即时语音内容检测的推荐方法及系统
US9659248B1 (en) * 2016-01-19 2017-05-23 International Business Machines Corporation Machine learning and training a computer-implemented neural network to retrieve semantically equivalent questions using hybrid in-memory representations
CN105913290A (zh) * 2016-07-01 2016-08-31 中国传媒大学 商品搭配推荐方法及推荐系统
CN106600357A (zh) * 2016-10-28 2017-04-26 浙江大学 基于电子商务商品标题的商品搭配方法
CN106951547A (zh) * 2017-03-27 2017-07-14 西安电子科技大学 一种基于交叉用户的跨域推荐方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Yuanyuan Cai ; Wei Lu ; Xiaoping Che ; Yuxun Lu.Knowledge-Enhanced Multi-semantic Fusion for Concept Similarity Measurement in Continuous Vector Space.《IEEE》.2015, *
互联网商品匹配算法;顾欣等;《上海大学学报(自然科学版)》;20160229;第22卷(第1期);全文 *
基于文本挖掘的商品推荐;张俊伟等;《哈尔滨商业大学学报(自然科学版)》;20170815(第04期);全文 *
基于文本挖掘的商品推荐;汪浩;《CNKI优秀硕士学位论文全文库》;20170315;全文 *
应用k-means算法实现标记分布学习;邵东恒等;《智能系统学报》;20170625;第12卷(第03期);全文 *
相似度计算及其在数据挖掘中的应用;李俊磊等;《电脑知识与技术》;20160531;第12卷(第13期);全文 *
融合词向量的多特征句子相似度计算方法研究;李峰等;《计算机科学与探索》;20170430;第11卷(第04期);全文 *

Also Published As

Publication number Publication date
CN109670161A (zh) 2019-04-23

Similar Documents

Publication Publication Date Title
CN109670161B (zh) 商品相似度计算方法及装置、存储介质、电子设备
WO2019029046A1 (zh) 一种视频推荐方法及系统
CN112948708B (zh) 一种短视频推荐方法
CN107644036B (zh) 一种数据对象推送的方法、装置及系统
CN112231569B (zh) 新闻推荐方法、装置、计算机设备及存储介质
EP4242955A1 (en) User profile-based object recommendation method and device
CN110162766B (zh) 词向量更新方法和装置
CN112308650A (zh) 推荐理由生成方法、装置、设备及存储介质
CN110069713B (zh) 一种基于用户上下文感知的个性化推荐方法
US20150370805A1 (en) Suggested Keywords
WO2024041483A1 (zh) 一种推荐方法及相关装置
CN111400584A (zh) 联想词的推荐方法、装置、计算机设备和存储介质
CN114065048A (zh) 基于多异构图图神经网络的物品推荐方法
CN116108267A (zh) 一种推荐方法及相关设备
CN113610610B (zh) 基于图神经网络和评论相似度的会话推荐方法和系统
CN112818091A (zh) 基于关键词提取的对象查询方法、装置、介质与设备
CN112364236A (zh) 目标对象推荐系统、方法、装置、数据处理方法及装置
US20240037133A1 (en) Method and apparatus for recommending cold start object, computer device, and storage medium
CN117635275A (zh) 基于大数据的智能电商运营商品管理平台及方法
CN117217284A (zh) 一种数据处理方法及其装置
CN116975686A (zh) 训练学生模型的方法、行为预测方法和装置
CN117034963A (zh) 模型训练方法、翻译方法、预估方法、推荐方法及装置
CN113076475B (zh) 信息推荐方法、模型训练方法及相关设备
CN110837596B (zh) 一种智能推荐方法、装置、计算机设备及存储介质
CN114238752A (zh) 物品推荐方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant