CN109509054B - 海量数据下商品推荐方法、电子装置及存储介质 - Google Patents
海量数据下商品推荐方法、电子装置及存储介质 Download PDFInfo
- Publication number
- CN109509054B CN109509054B CN201811157751.9A CN201811157751A CN109509054B CN 109509054 B CN109509054 B CN 109509054B CN 201811157751 A CN201811157751 A CN 201811157751A CN 109509054 B CN109509054 B CN 109509054B
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- training
- user
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于大数据分析技术领域,公开了一种海量数据下商品推荐方法包括:构建样本库;从样本库中选取样本,构建训练集,对样本进行预处理,包括注意力操作和池化操作;构建多层感知器神经网络模型;对多层感知器神经网络模型进行训练,输出概率向量;根据概率向量向用户推荐商品。本发明中,根据待推荐商品对当前用户兴趣的贡献度不同,向样本施加不同的注意力权重,并根据池化操作对用户的多重兴趣进行分类,经过多层感知器神经网络模型输出各待推荐商品的概率,根据概率大小向用户推荐商品。本发明可以提高模型性能和收敛速度,并提高向用户推荐商品的准确度,增加用户的体验感。本发明还公开了一种电子装置和计算机可读存储介质。
Description
技术领域
本发明涉及大数据分析技术领域,尤其涉及一种海量数据下商品推荐方法、电子装置及存储介质。
背景技术
电子商务是以信息网络技术为手段,以商品交换为中心的商务活动。随着电子商务的不断发展,越来越多的用户选择在网上进行购物。用户通过浏览器访问电子商务网站,就可以方便地选择自己所需要的商品。但是,电商平台上的商品种类数目繁多,用户需要花费大量的时间才可以在琳琅满目的商品中挑选到自己需要的商品。在很多情况下,电子商务网站会向用户进行商品推荐,例如,用户购买了某一种商品之后,会向其推荐与该商品相似或者关联的商品。通过商品推荐,一方面可以提高电子商务网站的销量,另一方面,主动推荐可以避免用户因为频繁搜索查找而产生的不必要的搜索请求,减轻网站服务器的负担。
目前,电子商务网站是基于商品销售排行、用户对商品的评价评分或者对用户在电子商务网站的其他行为数据的分析来进行商品推荐。若仅依照少量的用户行为数据进行分析,无法保证分析出的用户行为的准确性,也就无法推荐与用户喜好相关度高的商品,因此,需要对大量的用户行为数据进行分析。在海量数据场景下,推荐系统会面临海量的训练规模,传统的推荐系统利用DNN模型(Deep Neural Network,深层神经网络模型)对海量数据进行训练,以减少人工的特征工程工作量,但是,模型性能与收敛速度始终不尽人意,导致训练速度较低,且DNN模型容易出现过拟合,而导致推荐商品的精准度较低。
发明内容
本发明提供一种海量数据下商品推荐方法、电子装置及存储介质,以解决现有推荐模型性能与收敛速度不尽人意,导致训练速度较低,且推荐商品的准确度较低的问题。
为了实现上述目的,本发明的一个方面是提供一种海量数据下商品推荐方法,应用于电子装置,包括以下步骤:
步骤S1、获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
步骤S2、从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
步骤S3、构建多层感知器神经网络模型;
步骤S4、利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
步骤S5、根据所述概率向量向用户推荐商品;
其中,对训练集中的样本进行预处理包括:
步骤S21、输入训练集中的所述第一特征向量;
步骤S22、对所述第一特征向量施加注意力,得到注意力特征向量;
步骤S23、对所述注意力特征向量进行池化操作,得到池化向量;
步骤S24、将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入。
优选地,所述步骤S1包括:
步骤S11、获取用户在设定时间段内产生的用户历史行为日志信息;
步骤S12、对用户历史行为日志信息进行处理,获取表征用户历史行为的第一特征向量;
步骤S13、获取表征待推荐商品的商品特征向量,与所述第一特征向量构建形成样本库。
优选地,所述步骤S22中,通过下式得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,g表示非线性激活函数,N表示待推荐商品的数量。
优选地,所述步骤S4包括:
S41、对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
S42、根据训练集样本对所述多层感知器神经网络模型进行训练;
S43、判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则返回步骤S42继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
优选地,根据训练集样本对所述多层感知器神经网络模型进行训练包括:
S421、输入训练集中第一个训练样本对应的融合向量;
S422、根据输入的融合向量和所述参数确定所述多层感知器神经网络模型的输出;
S423、基于所述多层感知器神经网络模型的损失函数更新所述参数;
S424、根据更新后的参数训练下一个训练样本,循环步骤S422和S423,直至所有训练样本均经过所述多层感知器神经网络模型的训练,完成一次迭代,计算出所述多层感知器神经网络模型的损失函数值。
优选地,所述步骤S4中,对多层感知器神经网络模型的训练中加入正则化处理。
为了实现上述目的,本发明的另一个方面是提供一种电子装置,包括:
处理器;
存储器,用于存储商品推荐程序,
所述存储器中的商品推荐程序被所述处理器执行,所述处理器执行时实现如下步骤:
获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
构建多层感知器神经网络模型;
利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
根据所述概率向量向用户推荐商品;
其中,对训练集中的样本进行预处理包括:
输入训练集中的所述第一特征向量;
对所述第一特征向量施加注意力,得到注意力特征向量;
对所述注意力特征向量进行池化操作,得到池化向量;
将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入。
优选地,所述处理器通过下式得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,g表示非线性激活函数,N表示待推荐商品的数量。
优选地,所述处理器对多层感知器神经网络模型进行训练包括:
对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
根据训练集样本对所述多层感知器神经网络模型进行训练;
判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
本发明的再一个方面是提供一种计算机可读存储介质,包括商品推荐程序,所述商品推荐程序被处理器执行时,实现如上所述的海量数据下商品推荐方法的步骤。
相对于现有技术,本发明具有以下优点和有益效果:
本发明通过在多层感知神经网络模型中,使用注意力机制以反映每一个推荐商品对当前用户兴趣的贡献度,且进行池化操作以表征用户的多重喜好类别,选择与用户当前喜好类别相关性高的历史行为,向用户推荐商品,从而提高了模型的训练速度,并且提高了为用户推荐商品的精准度。本发明加入自适应正则以降低模型过拟合出现的概率。
附图说明
图1为本发明所述海量数据下商品推荐方法的流程示意图;
图2为图1中对训练集的样本进行预处理的流程示意图;
图3为本发明中商品推荐程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将参考附图来描述本发明所述的实施例。本领域的普通技术人员可以认识到,在不偏离本发明的精神和范围的情况下,可以用各种不同的方式或其组合对所描述的实施例进行修正。因此,附图和描述在本质上是说明性的,仅仅用以解释本发明,而不是用于限制权利要求的保护范围。此外,在本说明书中,附图未按比例画出,并且相同的附图标记表示相同的部分。
图1为本发明所述海量数据下商品推荐方法的流程示意图,如图1所示,本发明所述海量数据下商品推荐方法,包括以下步骤:
步骤S1、获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
步骤S2、从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
步骤S3、构建多层感知器神经网络模型;
步骤S4、利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
步骤S5、根据所述概率向量向用户推荐商品;
图2为图1中对训练集的样本进行预处理的流程示意图,如图2所示,对训练集中的样本进行预处理包括:
步骤S21、输入训练集中的所述第一特征向量;
步骤S22、对所述第一特征向量施加注意力,得到注意力特征向量;
步骤S23、对所述注意力特征向量进行池化操作,得到池化向量;
步骤S24、将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入。
本发明中,通过对样本进行预处理,包括Attention操作(施加注意力操作)和池化操作,根据待推荐商品对当前用户兴趣的贡献度不同,向样本施加不同的注意力权重,并根据池化操作对用户的多重兴趣进行分类,经过多层感知器神经网络模型输出各待推荐商品的概率,根据概率大小向用户推荐商品。本发明可以提高模型性能和收敛速度,并提高向用户推荐商品的准确度,增加用户的体验感。
本发明的一个可选实施例中,所述步骤S1包括:
步骤S11、获取用户在设定时间段内产生的用户历史行为日志信息;
其中,用户历史行为日志信息是用户在商务网站或者APP上操作时,比如:用户进行的搜索内容、浏览页面、观看视频、购买商品、收藏、评论等操作,后台系统产生的记录有用户的操作行为数据的集合。设定时间段可以是一年或两年等较长时间段,也可以是一个月或两个月等较短时间段。用户的历史行为可以极大程度地反映出用户的喜好类别,以购买商品为例,用户在电商平台购买商品都会留下购买记录,通过购买记录可以确定用户的已购商品及相关信息,包括已购商品的商品id等,也可以从中判别用户购物的喜好类别和购物倾向,根据用户的喜好类别,向用户推荐商品,针对性更强,精准度更高,有利于提高用户体验,增加用户的满意度,其中,用户对商品的喜好程度可以根据用户对商品的浏览次数、购买次数、网页停留时间和是否收藏等确定。
需要说明的是,用户历史行为日志信息可以通过采用JavaScript标记收集数据的方式获取,但本发明并不限于此,也可以采用其他网络分析数据的收集方式收集用户历史行为数据。
步骤S12、对用户历史行为日志信息进行处理,获取表征用户历史行为的第一特征向量;
步骤S13、获取表征待推荐商品的商品特征向量,与所述第一特征向量构建形成样本库。
由于用户的兴趣不唯一并且推荐的商品并非针对用户的所有兴趣,本发明中,对训练集中的样本进行预处理中,对第一特征向量施加注意力,即,进行Attention操作。Attention操作用于通过向样本施加不同的注意力权重,表征待推荐商品对用户兴趣的影响程度,有利于提高训练模型的精度。
优选地,根据下述公式对第一特征向量进行Attention操作,得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,wi表示第i个待推荐商品对用户兴趣贡献的权重,N表示待推荐商品的数量。
权重wi通过下式得到:
wi=g(Vi,Va)
其中,g表示非线性激活函数。
本发明中,非线性激活函数可以是任意形式的非线性激活函数,例如,Sigmoid函数、Tanh函数、ReLU函数等。
通过对第一特征向量施加注意力,对不同的待推荐商品分配不同的权重值,表征其对用户兴趣的贡献,以更加精准地根据用户兴趣向用户推荐商品,提高了模型的训练收敛速度,以及推荐商品的精准度。
本发明中,通过池化操作对用户的多重兴趣进行分类,以便于后续选择更用户兴趣较贴合的商品推荐给用户。
池化操作用于降低输出的特征向量的维度,且不易出现过拟合。池化操作包括最大池化、平均池化、随机池化等,确定池化窗口的大小之后,最大池化为选择每一池化窗口内的最大值作为该池化窗口池化后的值,平均池化为选择每一池化窗口内的平均值作为该池化窗口池化后的值,随机池化为根据池化窗口中元素的概率值大小随机选择其中的元素值作为池化窗口池化后的值。
本发明中,池化操作优选为最大池化。
本发明的一个实施例中,所述多层感知器神经网络模型包括输入层、多层隐藏层和输出层,其中,所述输入层输入融合向量,经过所述隐藏层传输,所述输出层输出概率向量,概率向量的向量元素个数与待推荐商品的数量相等,通过概率向量表征各个待推荐商品的推荐概率,选择概率较大的一个或多个概率相对应的待推荐商品向用户推荐。
优选地,对所述多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型包括以下步骤:
S41、对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
S42、根据训练集样本对所述多层感知器神经网络模型进行训练,包括:
S421、输入训练集中第一个训练样本对应的融合向量;
S422、根据输入的融合向量和所述参数确定所述多层感知器神经网络模型的输出;
S423、基于所述多层感知器神经网络模型的损失函数更新所述参数;
S424、根据更新后的参数训练下一个训练样本,循环步骤S422和S423,直至所有训练样本均经过所述多层感知器神经网络模型的训练,完成一次迭代,计算出所述多层感知器神经网络模型的损失函数值;
S43、判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则返回步骤S42继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
为了降低深度神经网络模型出现过拟合的可能性,优选地,步骤S4中,对多层感知器神经网络模型的训练中加入正则化处理。进一步地,本发明中,采用自适应正则,根据同一个商品特征向量出现的频率调整正则化的强度。具体地,对于出现频率较高的商品特征向量在训练更新参数时,加入较小的正则项,对于出现频率较低的商品特征向量在训练更新参数时,加入较大的正则项,其中,正则项的选择根据该商品特征向量出现的频率和训练集中的样本数量确定。
本发明中,步骤S6中,根据所述概率向量向用户推荐商品,其中,概率向量中的元素表征相对应的待推荐商品的推荐概率,根据各向量元素的大小,选择其中较大的一个或多个,将与其相对应的一个或多个待推荐商品推荐给用户。由于对第一特征向量进行了Attention操作,使得与用户当前兴趣更加切合的待推荐商品的推荐概率较高,输出的推荐结果更准确。
当用户实施当前行为后,当前行为包括搜索商品、在浏览页面浏览商品、观看商品的相关视频、购买商品、收藏或评论商品等行为,获取表征用户当前行为的第二特征向量,以及推荐系统中的已有的待推荐商品的第二商品特征向量;对第二特征向量和第二商品特征向量进行预处理,得到第二融合向量,将第二融合向量输入经过训练得到的多层感知器神经网络模型之后,输出与之相对应的概率向量,选择概率较高的一个或多个商品推荐给用户。
本发明所述海量数据下商品推荐方法用于电子装置,该电子装置可以是智能手机、平板电脑、计算机等具有运算功能的终端设备。
所述电子装置包括:网络接口、通讯总线、处理器和存储器。
所述存储器中包括商品推荐程序,所述处理器执行所述商品推荐程序,实现如下步骤:
获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
构建多层感知器神经网络模型;
利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
根据所述概率向量向用户推荐商品;
其中,对训练集中的样本进行预处理包括:
输入训练集中的所述第一特征向量;
对所述第一特征向量施加注意力,得到注意力特征向量;
对所述注意力特征向量进行池化操作,得到池化向量;
将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入。
本发明中,处理器用于运行存储器中的存储程序,以实现商品推荐,例如,处理器可以中央处理器、微处理器或其他数据处理芯片。
本发明中,存储器用于存储处理器需要执行的程序,包括至少一种类型的可读存储介质,例如,闪存、硬盘等非易失性存储介质。存储器还可以用于暂时地存储已经输出或者将要输出的数据。存储器可以是电子装置的内部存储单元,也可以是外部存储装置,例如插接式硬盘、闪存卡或其他类型的存储卡等。本发明并不限于此,存储器可以是以非暂时性方式存储指令或软件以及任何相关联的数据文件并向处理器提供指令或软件程序以使该处理器能够执行指令或软件程序的任何装置。
网络接口可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子装置与其他电子设备之间建立通信连接。
通信总线用于实现这些组件之间的连接通信。
该电子装置还可以包括用户接口,用户接口可以包括输入单元比如键盘、语音输入装置比如麦克风等具有语音识别功能的设备、语音输出装置比如音响、耳机等,还可以包括标准的有线接口、无线接口。
可选地,该电子装置还可以包括显示器,例如,LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管触摸器等。显示器用于显示在电子装置中处理的信息以及用于显示可视化的用户界面。
本发明的一个可选实施例中,处理器构建样本库包括:
获取用户在设定时间段内产生的用户历史行为日志信息;
对用户历史行为日志信息进行处理,获取表征用户历史行为的第一特征向量;
获取表征待推荐商品的商品特征向量,与所述第一特征向量构建形成样本库。
其中,用户历史行为日志信息是用户在商务网站或者APP上操作时,比如:用户进行的搜索内容、浏览页面、观看视频、购买商品、收藏、评论等操作,后台系统产生的记录有用户的操作行为数据的集合。设定时间段可以是一年或两年等较长时间段,也可以是一个月或两个月等较短时间段。用户的历史行为可以极大程度地反映出用户的喜好类别,以购买商品为例,用户在电商平台购买商品都会留下购买记录,通过购买记录可以确定用户的已购商品及相关信息,包括已购商品的商品id等,也可以从中判别用户购物的喜好类别和购物倾向,根据用户的喜好类别,向用户推荐商品,针对性更强,精准度更高,有利于提高用户体验,增加用户的满意度,其中,用户对商品的喜好程度可以根据用户对商品的浏览次数、购买次数、网页停留时间和是否收藏等确定。
需要说明的是,用户历史行为日志信息可以通过采用JavaScript标记收集数据的方式获取,但本发明并不限于此,也可以采用其他网络分析数据的收集方式收集用户历史行为数据。
由于用户的兴趣不唯一并且推荐的商品并非针对用户的所有兴趣,本发明中,对训练集中的样本进行预处理中,对第一特征向量施加注意力,即,进行Attention操作。Attention操作用于通过向样本施加不同的注意力权重,表征待推荐商品对用户兴趣的影响程度,有利于提高训练模型的精度。
优选地,处理器根据下述公式对第一特征向量进行Attention操作,得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,wi表示第i个待推荐商品对用户兴趣贡献的权重,N表示待推荐商品的数量。
权重wi通过下式得到:
wi=g(Vi,Va)
其中,g表示非线性激活函数。
本发明中,非线性激活函数可以是任意形式的非线性激活函数,例如,Sigmoid函数、Tanh函数、ReLU函数等。
通过对第一特征向量施加注意力,对不同的待推荐商品分配不同的权重值,表征其对用户兴趣的贡献,以更加精准地根据用户兴趣向用户推荐商品,提高了模型的训练收敛速度,以及推荐商品的精准度。
本发明中,通过池化操作对用户的多重兴趣进行分类,以便于后续选择更用户兴趣较贴合的商品推荐给用户。
池化操作用于降低输出的特征向量的维度,且不易出现过拟合。池化操作包括最大池化、平均池化、随机池化等,确定池化窗口的大小之后,最大池化为选择每一池化窗口内的最大值作为该池化窗口池化后的值,平均池化为选择每一池化窗口内的平均值作为该池化窗口池化后的值,随机池化为根据池化窗口中元素的概率值大小随机选择其中的元素值作为池化窗口池化后的值。
本发明中,池化操作优选为最大池化。
本发明的一个实施例中,所述多层感知器神经网络模型包括输入层、多层隐藏层和输出层,其中,所述输入层输入融合向量,经过所述隐藏层传输,所述输出层输出概率向量,概率向量的向量元素个数与待推荐商品的数量相等,通过概率向量表征各个待推荐商品的推荐概率,选择概率较大的一个或多个概率相对应的待推荐商品向用户推荐。
优选地,处理器对所述多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型包括:
对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
根据训练集样本对所述多层感知器神经网络模型进行训练,包括:输入训练集中第一个训练样本对应的融合向量;根据输入的融合向量和所述参数确定所述多层感知器神经网络模型的输出;基于所述多层感知器神经网络模型的损失函数更新所述参数;根据更新后的参数训练下一个训练样本,直至所有训练样本均经过所述多层感知器神经网络模型的训练,完成一次迭代,计算出所述多层感知器神经网络模型的损失函数值;
判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
为了降低深度神经网络模型出现过拟合的可能性,优选地,对多层感知器神经网络模型的训练中加入正则化处理。进一步地,本发明中,采用自适应正则,根据同一个商品特征向量出现的频率调整正则化的强度。具体地,对于出现频率较高的商品特征向量在训练更新参数时,加入较小的正则项,对于出现频率较低的商品特征向量在训练更新参数时,加入较大的正则项,其中,正则项的选择根据该商品特征向量出现的频率和训练集中的样本数量确定。
本发明中,根据所述概率向量向用户推荐商品,其中,概率向量中的元素表征相对应的待推荐商品的推荐概率,根据各向量元素的大小,选择其中较大的一个或多个,将与其相对应的一个或多个待推荐商品推荐给用户。由于对第一特征向量进行了attention操作,使得与用户当前兴趣更加切合的待推荐商品的推荐概率较高,输出的推荐结果更准确。
在本发明的一个实施例中,商品推荐程序可以被分割成一个或多个模块,一个或多个模块被存储于存储器中,并由处理器执行,以实现商品推荐。本发明所述模块为能够完成特定功能的一系列计算机程序指令段。图3为本发明中商品推荐程序的模块示意图,如图3所示,样本库构建模块1、训练集构建模块2、预处理模块3、模型构建模块4、模型训练模块5、推荐模块6,各个模块所实现的功能或操作步骤均与上文类似,此处不再详述,示例性地,例如其中:
样本库构建模块1,获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
训练集构建模块2,从所述样本库中选取样本,构建训练集;
预处理模块3,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
模型构建模块4,构建多层感知器神经网络模型;
模型训练模块5,利用经过预处理的样本训练多层感知器神经网络模型,输出概率向量;
推荐模块6,根据所述概率向量向用户推荐商品;
其中,所述预处理模块3包括:
输入单元31,输入所述第一特征向量;
注意力单元32,对所述第一特征向量施加注意力,得到注意力特征向量;
池化单元33,对所述注意力特征向量进行池化操作,得到池化向量;
融合单元34,将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入。
本发明所述计算机可读存储介质中包括商品推荐程序,所述商品推荐程序被处理器执行时,实现如上所述的海量数据下商品推荐方法的步骤。
本发明之计算机可读存储介质的具体实施方式与上述海量数据下商品推荐方法、电子装置的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种海量数据下商品推荐方法,应用于电子装置,其特征在于,所述商品推荐方法包括以下步骤:
步骤S1、获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
步骤S2、从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
步骤S3、构建多层感知器神经网络模型;
步骤S4、利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
步骤S5、根据所述概率向量向用户推荐商品;
其中,对训练集中的样本进行预处理包括:
步骤S21、输入训练集中的所述第一特征向量;
步骤S22、对所述第一特征向量施加注意力,通过下式得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,g表示非线性激活函数,N表示待推荐商品的数量;
步骤S23、对所述注意力特征向量进行池化操作,得到池化向量;
步骤S24、将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入;
其中,所述步骤S4包括:
S41、对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
S42、根据训练集样本对所述多层感知器神经网络模型进行训练;
S43、判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则返回步骤S42继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
2.根据权利要求1所述的海量数据下商品推荐方法,其特征在于,所述步骤S1包括:
步骤S11、获取用户在设定时间段内产生的用户历史行为日志信息;
步骤S12、对用户历史行为日志信息进行处理,获取表征用户历史行为的第一特征向量;
步骤S13、获取表征待推荐商品的商品特征向量,与所述第一特征向量构建形成样本库。
3.根据权利要求1所述的海量数据下商品推荐方法,其特征在于,根据训练集样本对所述多层感知器神经网络模型进行训练包括:
S421、输入训练集中第一个训练样本对应的融合向量;
S422、根据输入的融合向量和所述参数确定所述多层感知器神经网络模型的输出;
S423、基于所述多层感知器神经网络模型的损失函数更新所述参数;
S424、根据更新后的参数训练下一个训练样本,循环步骤S422和S423,直至所有训练样本均经过所述多层感知器神经网络模型的训练,完成一次迭代,计算出所述多层感知器神经网络模型的损失函数值。
4.根据权利要求1所述的海量数据下商品推荐方法,其特征在于,所述步骤S4中,对多层感知器神经网络模型的训练中加入正则化处理。
5.一种电子装置,其特征在于,该电子装置包括:
处理器;
存储器,用于存储商品推荐程序,
所述存储器中的商品推荐程序被所述处理器执行,所述处理器执行时实现如下步骤:
获取表征用户历史行为的第一特征向量以及表征待推荐商品的商品特征向量,构建样本库;
从所述样本库中选取样本,构建训练集,对训练集的样本进行预处理,用于多层感知神经网络模型的训练;
构建多层感知器神经网络模型;
利用经过预处理的样本对构建的多层感知器神经网络模型进行训练,得到训练后的多层感知器神经网络模型,输出概率向量;
根据所述概率向量向用户推荐商品;
其中,对训练集中的样本进行预处理包括:
输入训练集中的所述第一特征向量;
对所述第一特征向量施加注意力,通过下式得到注意力特征向量:
其中,u表示用户兴趣的索引,Vu表示用户第u个兴趣的注意力特征向量,a表示第一特征向量的索引,Va表示第a个第一特征向量,i表示待推荐商品的索引,Vi表示第i个待推荐商品的商品特征向量,g表示非线性激活函数,N表示待推荐商品的数量;
对所述注意力特征向量进行池化操作,得到池化向量;
将池化向量与商品特征向量融合,得到融合向量,作为多层感知器神经网络模型的输入;
其中,所述处理器对多层感知器神经网络模型进行训练包括:
对所述多层感知器神经网络模型的参数进行初始赋值,所述参数包括输入层与隐藏层的连接权值、相邻隐藏层之间的连接权值、隐藏层与输出层的连接权值、输出层输出的预设阈值;
根据训练集样本对所述多层感知器神经网络模型进行训练;
判断多层感知器神经网络模型训练是否达到收敛条件,若达到收敛条件,则终止迭代,结束训练,得到训练后的多层感知器神经网络模型,输出概率向量,若未达到收敛条件,则返回步骤S42继续训练模型;其中,收敛条件为相邻两次迭代之后得到的损失函数值的差值小于设定值。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括商品推荐程序,所述商品推荐程序被处理器执行时,实现如权利要求1至4中任一项所述的海量数据下商品推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811157751.9A CN109509054B (zh) | 2018-09-30 | 2018-09-30 | 海量数据下商品推荐方法、电子装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811157751.9A CN109509054B (zh) | 2018-09-30 | 2018-09-30 | 海量数据下商品推荐方法、电子装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109509054A CN109509054A (zh) | 2019-03-22 |
CN109509054B true CN109509054B (zh) | 2023-04-07 |
Family
ID=65746282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811157751.9A Active CN109509054B (zh) | 2018-09-30 | 2018-09-30 | 海量数据下商品推荐方法、电子装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109509054B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753182B (zh) * | 2019-03-28 | 2024-05-17 | 北京达佳互联信息技术有限公司 | 多媒体信息推荐方法、装置、电子设备及可读存储介质 |
CN111768218A (zh) * | 2019-04-15 | 2020-10-13 | 北京沃东天骏信息技术有限公司 | 用于处理用户交互信息的方法和装置 |
CN110390056B (zh) * | 2019-06-18 | 2022-07-15 | 平安科技(深圳)有限公司 | 大数据处理方法、装置、设备及可读存储介质 |
CN110428231A (zh) * | 2019-08-06 | 2019-11-08 | 重庆仙桃前沿消费行为大数据有限公司 | 行政信息推荐方法、装置、设备及可读存储介质 |
CN110415091A (zh) * | 2019-08-06 | 2019-11-05 | 重庆仙桃前沿消费行为大数据有限公司 | 商店及商品推荐方法、装置、设备及可读存储介质 |
CN110427560B (zh) * | 2019-08-08 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 一种应用于推荐系统的模型训练方法以及相关装置 |
CN110674020B (zh) * | 2019-09-02 | 2022-07-22 | 平安科技(深圳)有限公司 | App智能推荐方法、装置及计算机可读存储介质 |
CN111767458A (zh) * | 2019-09-11 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 信息推送方法、装置、系统及存储介质 |
CN111062775B (zh) * | 2019-12-03 | 2023-05-05 | 中山大学 | 一种基于注意力机制的推荐系统召回方法 |
CN111179031B (zh) * | 2019-12-23 | 2023-09-26 | 第四范式(北京)技术有限公司 | 一种商品推荐模型的训练方法、装置及系统 |
CN111159555A (zh) * | 2019-12-30 | 2020-05-15 | 北京每日优鲜电子商务有限公司 | 商品推荐方法、装置、服务器和存储介质 |
CN113159877A (zh) * | 2020-01-22 | 2021-07-23 | 北京沃东天骏信息技术有限公司 | 数据处理方法、装置、系统、计算机可读存储介质 |
CN111260449B (zh) * | 2020-02-17 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、商品推荐的方法、装置及存储介质 |
CN113360745A (zh) * | 2020-03-04 | 2021-09-07 | 阿里巴巴集团控股有限公司 | 一种数据对象推荐方法、装置及电子设备 |
CN113393281A (zh) * | 2020-03-11 | 2021-09-14 | 北京沃东天骏信息技术有限公司 | 一种处理请求的方法和装置 |
CN111414539B (zh) * | 2020-03-19 | 2023-09-01 | 清华大学 | 基于特征增强的推荐系统神经网络训练方法及装置 |
CN111460130B (zh) * | 2020-03-27 | 2023-07-25 | 咪咕数字传媒有限公司 | 信息推荐方法、装置、设备和可读存储介质 |
JP2021177266A (ja) * | 2020-04-17 | 2021-11-11 | 株式会社鈴康 | プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 |
CN111524612B (zh) * | 2020-04-26 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 传染病溯源方法、装置、计算机设备和存储介质 |
CN111639989B (zh) * | 2020-04-28 | 2024-02-02 | 上海秒针网络科技有限公司 | 商品推荐方法和可读存储介质 |
CN111291015B (zh) * | 2020-04-28 | 2020-08-07 | 国网电子商务有限公司 | 一种用户行为异常检测方法及装置 |
CN111489616A (zh) * | 2020-05-20 | 2020-08-04 | 合肥巴灵瑞教育科技有限公司 | 基于幼儿行为轨迹分析的玩教具适配度评估系统 |
CN111626832B (zh) * | 2020-06-05 | 2023-10-03 | 中国银行股份有限公司 | 产品推荐方法、装置及计算机设备 |
CN111667024B (zh) * | 2020-06-30 | 2023-09-05 | 腾讯科技(深圳)有限公司 | 内容推送方法、装置、计算机设备和存储介质 |
CN111738780A (zh) * | 2020-07-31 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 一种推荐对象的方法及系统 |
CN111915413B (zh) * | 2020-08-21 | 2023-04-07 | 支付宝(杭州)信息技术有限公司 | 支付实现方法、装置及电子设备 |
CN112465389A (zh) * | 2020-12-12 | 2021-03-09 | 广东电力信息科技有限公司 | 一种基于词频的相似供应商推荐方法及装置 |
CN112488799B (zh) * | 2020-12-14 | 2024-04-09 | 北京易兴元石化科技有限公司 | 一种基于加油站端的石油数据处理方法、装置及存储介质 |
CN112508652A (zh) * | 2020-12-14 | 2021-03-16 | 北京易兴元石化科技有限公司 | 一种基于服务器端的石油数据处理方法、装置及存储介质 |
CN112508653A (zh) * | 2020-12-14 | 2021-03-16 | 北京易兴元石化科技有限公司 | 一种基于用户端的石油数据处理方法、装置及存储介质 |
CN112488801A (zh) * | 2020-12-15 | 2021-03-12 | 北京易兴元石化科技有限公司 | 一种石油订单数据处理方法、装置及存储介质 |
CN112800109A (zh) * | 2021-01-21 | 2021-05-14 | 蜜兔(杭州)网络科技有限公司 | 一种信息挖掘方法及系统 |
CN113763111A (zh) * | 2021-02-10 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 物品搭配方法、装置及存储介质 |
CN112862007B (zh) * | 2021-03-29 | 2022-12-13 | 山东大学 | 基于用户兴趣编辑的商品序列推荐方法及系统 |
CN113095603B (zh) * | 2021-06-08 | 2021-09-21 | 易纳购科技(北京)有限公司 | 箱型预测方法、装置、计算机设备及存储介质 |
CN113468434B (zh) * | 2021-09-06 | 2021-12-24 | 北京搜狐新动力信息技术有限公司 | 资源推荐方法、装置、可读介质以及设备 |
CN117131261A (zh) * | 2023-07-10 | 2023-11-28 | 道格元创(福建)文化创意有限公司 | 基于ai和大数据分析的电商内容推荐系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101694652A (zh) * | 2009-09-30 | 2010-04-14 | 西安交通大学 | 一种基于极速神经网络的网络资源个性化推荐方法 |
CN108563755A (zh) * | 2018-04-16 | 2018-09-21 | 辽宁工程技术大学 | 一种基于双向循环神经网络的个性化推荐系统及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2731659C2 (ru) * | 2016-09-09 | 2020-09-07 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и устройство для обучения алгоритма машинного обучения (MLA) по созданию рекомендаций содержимого в системе рекомендаций и способ и устройство для создания рекомендуемого содержимого с помощью алгоритма машинного обучения |
US20180204113A1 (en) * | 2017-01-13 | 2018-07-19 | Ebay Inc. | Interaction analysis and prediction based neural networking |
-
2018
- 2018-09-30 CN CN201811157751.9A patent/CN109509054B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101694652A (zh) * | 2009-09-30 | 2010-04-14 | 西安交通大学 | 一种基于极速神经网络的网络资源个性化推荐方法 |
CN108563755A (zh) * | 2018-04-16 | 2018-09-21 | 辽宁工程技术大学 | 一种基于双向循环神经网络的个性化推荐系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109509054A (zh) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109509054B (zh) | 海量数据下商品推荐方法、电子装置及存储介质 | |
US11301761B2 (en) | Behavioral prediction for targeted end users | |
US9386109B1 (en) | Web page associated with a node in a website traffic pattern | |
CN105469263A (zh) | 一种商品推荐方法及装置 | |
CN107169806B (zh) | 用于确定商品属性对于购买决策的影响度的方法及装置 | |
CN107111591A (zh) | 在设备之间传送认证的会话和状态 | |
CN110008397B (zh) | 一种推荐模型训练方法及装置 | |
CN109255644A (zh) | 用于提供优化分发和物流的营销管理数据的方法及设备 | |
CN104239338A (zh) | 信息推荐方法及装置 | |
US9911130B1 (en) | Attribution modeling using regression analysis | |
US11720940B2 (en) | System and apparatus for models based on data augmented with conceivable transitions | |
JP6976207B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20180012284A1 (en) | Information analysis apparatus, information analysis method, and non-transitory computer readable storage medium | |
CN113191838B (zh) | 一种基于异质图神经网络的购物推荐方法及系统 | |
CN114168843A (zh) | 搜索词推荐方法、设备及存储介质 | |
CN111292168B (zh) | 数据处理方法、装置及设备 | |
CN106600360B (zh) | 推荐对象的排序方法及装置 | |
CN111680213B (zh) | 信息推荐方法、数据处理方法及装置 | |
CN111461827A (zh) | 产品评价信息的推送方法和装置 | |
CN108596712B (zh) | 基于物品序列的单类协同过滤方法、存储介质及服务器 | |
KR20210055759A (ko) | 머신 러닝을 사용한 개인화된 배너 이미지 생성 | |
CN111161009B (zh) | 信息推送方法、装置、计算机设备和存储介质 | |
KR20210019370A (ko) | 상황인지 데이터의 사례학습기반 추론에 따른 광고추천 장치 및 방법 | |
CN103218726A (zh) | 一种信息项推荐方法及系统 | |
US11551241B1 (en) | Systems and methods for digital shelf display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |