CN110458638A - 一种商品推荐方法及装置 - Google Patents
一种商品推荐方法及装置 Download PDFInfo
- Publication number
- CN110458638A CN110458638A CN201910559073.7A CN201910559073A CN110458638A CN 110458638 A CN110458638 A CN 110458638A CN 201910559073 A CN201910559073 A CN 201910559073A CN 110458638 A CN110458638 A CN 110458638A
- Authority
- CN
- China
- Prior art keywords
- commodity
- information
- user
- data
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种商品推荐方法及装置,涉及数据分析技术领域,为解决现有技术中推荐准确度较低的问题而发明。该方法主要包括:获取推荐数据,推荐数据包括用户信息、商品数据信息和商品文字信息,用户信息是指用户的年龄、姓名、注册时长和注册地址,商品数据信息是指用户浏览过的商品的数字描述信息,商品文字信息是指用户浏览过的商品的文字描述信息;根据自编码算法,将商品文字信息进行编码,生成文字特征编码;将用户信息、商品数据信息和文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。本发明主要应用于商品推荐的过程中。
Description
技术领域
本发明涉及一种数据分析技术领域,特别是涉及一种商品推荐方法及装置。
背景技术
商品推荐在现代网络中越来越重要,许多网络服务致力于在最短的时间帮助用户寻找到最相关的内容。现有技术中根据用户信息和该用户查找过的商品信息向每个用户推荐商品。具体为,提取目标用户的关联用户信息和关联商品信息,根据用户历史行为数据训练得到深度神经网络模型,将关联用户信息和关联商品信息输入深度神经网络模型,计算用户与商品之间的相关性系数,根据相关性系数向用户推荐商品。
通过现有技术计算得到的推荐商品其种类繁多,且同一类型同一种类的商品存在不同的型号、不同颜色、不同供应商等多种差异,所以现有技术采用的方法计算得到的推荐商品的商品数量过多,筛选粒度多大,还需要用户再次筛选,推荐商品被点击的概率较低,也就是推荐准确度较低。
发明内容
有鉴于此,本发明提供一种商品推荐方法及装置,主要目的在于现有技术中推荐准确度较低的问题。
依据本发明一个方面,提供了一种商品推荐方法,包括:
获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
依据本发明另一个方面,提供了一种商品推荐装置,包括:
获取模块,用于获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
生成模块,用于根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
计算模块,用于将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
展示模块,用于按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
根据本发明的又一方面,提供了一种存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述商品推荐方法对应的操作。
根据本发明的再一方面,提供了一种计算机设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述商品推荐方法对应的操作。
借由上述技术方案,本发明实施例提供的技术方案至少具有下列优点:
本发明提供了一种商品推荐方法及装置,首先获取用户信息、商品数据信息和商品文字信息,然后根据自编码算法,将商品文字信息进行表面,生成文字特征编码,再将用户信息、商品数据信息和文字特征编码输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,最后按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。与现有技术相比,本发明实施例通过采用用户信息、商品数据信息和商品文字信息三种并列的推荐数据,增加推荐数据的广度,同时将不同类的推荐数据分别输入并行循环神经网络,避免不同类推荐数据之间相互干扰,以提高计算得到的商品库中商品被点击的概率的准确度,也就是提高推荐商品的准确度,增加推荐商品被用户点击的可能性,增强用户体验。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种商品推荐方法流程图;
图2示出了本发明实施例提供的另一种商品推荐方法流程图;
图3示出了本发明实施例提供的一种商品推荐装置组成框图;
图4示出了本发明实施例提供的另一种商品推荐装置组成框图;
图5示出了本发明实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供了一种商品推荐方法,如图1所示,该方法包括:
101、获取推荐数据。
推荐数据,是指计算推荐商品所需的基础数据,推荐数据包括用户信息、商品数据信息和商品文字信息,用户信息是指用户的年龄、姓名、注册时长和注册地址,商品数据信息是指用户浏览过的商品的数字描述信息,商品文字信息是指用户浏览过的商品的文字描述信息。商品数据信息是指产品的价格、保额、利率等数字信息。在申请注册时,注册信息通常被保存在缓存中,注册信息也就是用户信息。用户浏览商品之前,需要点击该商品才能浏览该产品的详细信息。用户点击该商品,相当于向服务器请求加载该商品对应的详细信息,并将加载的该商品对应的详细信息保存在系统的缓存中。对于已经保存在缓存中的数据,可能在用户进行缓存清理时被删除。所以获取推荐数据,如果首先在缓存中查找,如果缓存中不包括全部的推荐数据,则重新加载并获取推荐数据。
102、根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码。
自编码算法,是一种基于神经网络学习隐含特征的非监督学习方法,采用对称式结构,以经过预处理过后的商品文字信息为输入,中间包含一个或多个隐藏层,提取隐藏层的输出作为降维后的隐含特征输出。在使用自编码算法之前,设置自编码算法的隐层数量和隐层变量数量,建立自编码算法,根据预置训练数据对自编码算法进行训练。自编码算法的建模与训练过程可以通过tensorflow库自动实现。
将商品文字信息进行分词处理,获取分词词语,其中分词方式可以为基于字符串匹配的分词算法、可以为基于词的n元语法模型的分词算法、可以为基于隐马尔可夫的分词算法、还可以为基于条件随机场的分词算法,在本发明实施例中对分词方式不做限定。
自编码算法的输入为矩阵,矩阵中的每一行即对应一个分词词语的词向量,而列数即对应商品文字信息中所含分词词语的数量。矩阵输入字编码算法后,自编码算法能够对矩阵元素进行运算操作,从而实现在横向以及纵向的维度压缩。最后提取中间隐层的输出,即一组一维向量,作为商品文字信息的压缩特征。
103、将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率。
如果一个句子中包括N个词,一个词进行一次训练,一个词的意思很可能依赖该词的上下文,也就是其前词或后词的训练,则该中情形需要采用循环神经网络算法进行计算。循环神经网络包括输入层、隐藏层和输出层,在隐藏层中使用门控单元控制器内部信息累计的能力,在学习时既能掌握长距离依赖又能选择性地遗忘信息防止过载。长短期记忆网络LSTM是一种神经网络的门控算法,LSTM的主要结构包括输入门、遗忘门和输出门三类。
LSTM的输入包括用户信息、商品数据信息和文字特征编码三类。在将数据输入LSTM之前,还需要将用户信息和商品数据信息进行预处理。其预处理过程包括:将用户信息进行分词处理,然后转换为用户信息词向量,然后将用户信息词向量转换为一组一维向量;将商品数据信息也转换为一组一维向量。由于LSTM具有序列特定,因此LSTM的输入为一组序列,具体为LSTM一次的输入样本为用户在一段周期内的商品点击记录,而每一次点击的商品,均对应一项商品数据特征、文字特征编码和用户信息。因此需要构建两个并行的LSTM分别读取商品数据信息和文字特征编码,并将两个输出的多维向量和用户信息进行全连接层运算,并通过softmax函数计算商品库中每件商品被用户点击的概率。
104、按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
在展示推荐商品时,由于展示位置的大小有限,且为了方便用户查找,不可能同时展示商品库中所有的商品。将概率从大到小排列,按照排列顺序从概率最大值开始,选取预置数量的概率,并查找预置数量的概率对应的商品,也就是推荐商品,然后展示推荐商品。在展示的推荐商品中,可以通过加大字体、改变字体颜色、闪烁灯方式突出显示概率最大的推荐商品。
本发明提供了一种商品推荐方法,首先获取用户信息、商品数据信息和商品文字信息,然后根据自编码算法,将商品文字信息进行表面,生成文字特征编码,再将用户信息、商品数据信息和文字特征编码输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,最后按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。与现有技术相比,本发明实施例通过采用用户信息、商品数据信息和商品文字信息三种并列的推荐数据,增加推荐数据的广度,同时将不同类的推荐数据分别输入并行循环神经网络,避免不同类推荐数据之间相互干扰,以提高计算得到的商品库中商品被点击的概率的准确度,也就是提高推荐商品的准确度,增加推荐商品被用户点击的可能性,增强用户体验。
本发明实施例提供了另一种商品推荐方法,如图2所示,该方法包括:
201、获取推荐数据。
推荐数据,是指计算推荐商品所需的基础数据,推荐数据包括用户信息、商品数据信息和商品文字信息,用户信息是指用户的年龄、姓名、注册时长和注册地址,商品数据信息是指用户浏览过的商品的数字描述信息,商品文字信息是指用户浏览过的商品的文字描述信息。商品数据信息是指产品的价格、保额、利率等数字信息。商品数据信息包括商品的价格、保额、利率、加载次数和多次所述请求之间的时间间隔。商品数据信息中既包括商品的数字描述信息又包括请求加载该商品的频次信息,同时将商品本身和用户感兴趣程度两种数据作为推荐数据,提高用户对推荐商品的感兴趣程度。
在申请注册时,注册信息通常被保存在缓存中,注册信息中包括用户的年龄、姓名、注册时长和注册地址,注册信息也就是用户信息。用户在注册时填写的注册信息可能是出生地、户籍所在地、居住地、或者随意填写的地址,根据系统注册地址是否影响用户办理业务,可限定用户只能填写与身份证信息相同的户籍所在地,以及与当前定位的地理位置相同的居住地,如果注册地址为居住地,那么可以设置不定时获取居住地的机制,以判断该居住地是否为该用户的常住地址。如果注册地址发生更改,那么其推荐数据也随之更改。
202、根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码。
生成文字特征编码,具体包括:将所述商品文字信息转换为商品词向量;将所述商品词向量输入自编码模型,将所述商品词向量进行特征降维,生成文字特征编码。所述将所述商品文字信息转换为商品词向量,包括:按照Word2Vec算法,将预置中文语料数据转换为词向量,生成词向量字典;根据所述词向量字典,将所述商品文字信息转换为商品词向量。
预置中文语料数据中包含大量的文本词汇,可以从中文基维百科中获取。可以按照使用环境分为不同的类别,在本发明应用在不同的应用程序可以导入不同的文本类别,一方面可以提高词向量字典的准确性,另一方面可以减少词向量字典的数据量。示例性的,本发明用于金融产品APP,预置中文语料数据中包括专业的金融词汇,以便商品文字信息的词汇能够完全落入词向量字典中。生成词向量字典可以通过Python中的gensim库实现。词向量字典生成后,每个词语便能够获取一个对应向量,也就是将商品文字信息转换为商品词向量。
在自编码算法中,使用均方误差MSE作为损失函数,ADAM为训练算法。在使用自编码算法之前,建立自编码模型,并以ADAM为训练算法,根据预置训练数据,训练自编码模型。商品词向量输入自编码模型,子编码模型完成降维与特征提取,生成文字特征编码。
203、将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率。
计算商品库中每件商品被用户点击的概率,具体包括:构建并行神经网络,所述并行神经网络包括两组并列的单向长短期记忆网络LSTM模型、交叉熵误差损失函数和ADAM训练算法;根据预置训练数据,训练所述并行神经网络,所述预置训练数据中的每个样本都是用户在一次浏览过程中推送商品被点击的商品序列;将所述用户信息、所述商品数据信息和所述文字特征编码,分别输入所述并行神经网络,计算商品库中每件商品被用户点击的概率。推荐数据中包括的用户信息、商品数据信息和商品文字信息中,用户信息在用户完成注册后基本不会发生改变,而商品数据信息和商品文字信息随着用户的使用过程不断发生改变,与推荐数据的特点相对应,在并行神经网络中商品数据信息和商品文字信息分别对应一组LSTM模型。
所述将所述用户信息、所述商品数据信息和所述文字特征编码,分别输入所述并行神经网络,计算商品库中每件商品被用户点击的概率,包括:将所述商品数据信息和所述文字特征编码,分别输入所述两组并列的单向长短期记忆网络LSTM模型中,提取所述商品数据信息对应的第一隐含特征和所述文字特征编码对应的第二隐含特征;将所述第一隐含特征、第二隐含特征所述和所述用户信息进行全连接层运算,通过softmax函数计算商品库中每件商品被用户点击的概率。
204、按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
在展示推荐商品时,由于展示位置的大小有限,且为了方便用户查找,不可能同时展示商品库中所有的商品。将概率从大到小排列,按照排列顺序从概率最大值开始,选取预置数量的概率,并查找预置数量的概率对应的商品,也就是推荐商品,然后展示推荐商品。在展示的推荐商品中,可以通过加大字体、改变字体颜色、闪烁灯方式突出显示概率最大的推荐商品,将该推荐商品重点推荐给用户。
205、根据用户选择的推荐商品,构建所述预置训练数据中的新样本。
用户选择推荐商品,也就是用户对本次推荐商品的反馈,根据用户的实时反馈情况,生成新的训练样本。
206、将所述新样本添加至所述预置训练数据中,更新所述预置训练数据。
207、根据所述预置训练数据,重新训练所述并行神经网络。
在下一次计算推荐商品是,采用重新训好的并行神经网络。
用户对于推荐商品的点击情况是本方案的预测目标。由于用户已经积累了对于推荐商品的点击记录,因此可以建立循环神经网络进行预测。主要方法是,将历史推荐商品的商品数据信息以及商品文字信息经过自编码算法降维的商品文字特征,输入至LSTM算法,由于LSTM的算法通过softmax函数进行二分类输出,输出结果即等效于概率值,即用户对于推荐商品点击的预测概率。
本发明提供了一种商品推荐方法,首先获取用户信息、商品数据信息和商品文字信息,然后根据自编码算法,将商品文字信息进行表面,生成文字特征编码,再将用户信息、商品数据信息和文字特征编码输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,最后按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。与现有技术相比,本发明实施例通过采用用户信息、商品数据信息和商品文字信息三种并列的推荐数据,增加推荐数据的广度,同时将不同类的推荐数据分别输入并行循环神经网络,避免不同类推荐数据之间相互干扰,以提高计算得到的商品库中商品被点击的概率的准确度,也就是提高推荐商品的准确度,增加推荐商品被用户点击的可能性,增强用户体验。
进一步的,作为对上述图1所示方法的实现,本发明实施例提供了一种商品推荐装置,如图3所示,该装置包括:
获取模块31,用于获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
生成模块32,用于根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
计算模块33,用于将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
展示模块34,用于按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
本发明提供了一种商品推荐方法,首先获取用户信息、商品数据信息和商品文字信息,然后根据自编码算法,将商品文字信息进行表面,生成文字特征编码,再将用户信息、商品数据信息和文字特征编码输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,最后按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。与现有技术相比,本发明实施例通过采用用户信息、商品数据信息和商品文字信息三种并列的推荐数据,增加推荐数据的广度,同时将不同类的推荐数据分别输入并行循环神经网络,避免不同类推荐数据之间相互干扰,以提高计算得到的商品库中商品被点击的概率的准确度,也就是提高推荐商品的准确度,增加推荐商品被用户点击的可能性,增强用户体验。
进一步的,作为对上述图2所示方法的实现,本发明实施例提供了另一种商品推荐装置,如图4所示,该装置包括:
获取模块41,用于获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
生成模块42,用于根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
计算模块43,用于将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
展示模块44,用于按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
进一步地,所述商品数据信息包括商品的价格、保额、利率、加载次数和多次所述请求之间的时间间隔。
进一步地,所述生成模块42,包括:
转换单元421,用于将所述商品文字信息转换为商品词向量;
生成单元422,用于将所述商品词向量输入自编码模型,将所述商品词向量进行特征降维,生成文字特征编码。
进一步地,所述转换单元421,包括:
生成子单元4211,用于按照Word2Vec算法,将预置中文语料数据转换为词向量,生成词向量字典;
转换子单元4212,用于根据所述词向量字典,将所述商品文字信息转换为商品词向量。
进一步地,所述计算模块43,包括:
构建单元431,用于构建并行神经网络,所述并行神经网络包括两组并列的单向长短期记忆网络LSTM模型、交叉熵误差损失函数和ADAM训练算法;
训练单元432,用于根据预置训练数据,训练所述并行神经网络,所述预置训练数据中的每个样本都是用户在一次浏览过程中推送商品被点击的商品序列;
计算单元433,用于将所述用户信息、所述商品数据信息和所述文字特征编码,分别输入所述并行神经网络,计算商品库中每件商品被用户点击的概率。
进一步地,所述计算单元433,包括:
提取子单元4331,用于将所述商品数据信息和所述文字特征编码,分别输入所述两组并列的单向长短期记忆网络LSTM模型中,提取所述商品数据信息对应的第一隐含特征和所述文字特征编码对应的第二隐含特征;
计算子单元4332,用于将所述第一隐含特征、第二隐含特征所述和所述用户信息进行全连接层运算,通过softmax函数计算商品库中每件商品被用户点击的概率。
进一步地,所述方法还包括:
构建模块45,用于所述按照所述概率从大到小的顺序,展示与所述概率对应的推荐商品之后,根据用户选择的推荐商品,构建所述预置训练数据中的新样本;
更新模块46,用于将所述新样本添加至所述预置训练数据中,更新所述预置训练数据;
训练模块47,用于根据所述预置训练数据,重新训练所述并行神经网络。
本发明提供了一种商品推荐方法,首先获取用户信息、商品数据信息和商品文字信息,然后根据自编码算法,将商品文字信息进行表面,生成文字特征编码,再将用户信息、商品数据信息和文字特征编码输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,最后按照概率从大到小的顺序,选取并展示预置数量的与概率对应的推荐商品。与现有技术相比,本发明实施例通过采用用户信息、商品数据信息和商品文字信息三种并列的推荐数据,增加推荐数据的广度,同时将不同类的推荐数据分别输入并行循环神经网络,避免不同类推荐数据之间相互干扰,以提高计算得到的商品库中商品被点击的概率的准确度,也就是提高推荐商品的准确度,增加推荐商品被用户点击的可能性,增强用户体验。
根据本发明一个实施例提供了一种存储介质,所述存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的商品推荐方法。
图5示出了根据本发明一个实施例提供的一种计算机设备的结构示意图,本发明具体实施例并不对计算机设备的具体实现做限定。
如图5所示,该计算机设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述商品推荐方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算机设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行以下操作:
获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (10)
1.一种商品推荐方法,其特征在于,包括:
获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
2.如权利要求1所述的方法,其特征在于,所述商品数据信息包括商品的价格、保额、利率、加载次数和多次所述请求之间的时间间隔。
3.如权利要求1所述的方法,其特征在于,所述据自编码算法,将所述商品文字信息进行编码,生成文字特征编码,包括:
将所述商品文字信息转换为商品词向量;
将所述商品词向量输入自编码模型,将所述商品词向量进行特征降维,生成文字特征编码。
4.如权利要求3所述的方法,其特征在于,所述将所述商品文字信息转换为商品词向量,包括:
按照Word2Vec算法,将预置中文语料数据转换为词向量,生成词向量字典;
根据所述词向量字典,将所述商品文字信息转换为商品词向量。
5.如权利要求1所述的方法,其特征在于,所述将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率,包括:
构建并行神经网络,所述并行神经网络包括两组并列的单向长短期记忆网络LSTM模型、交叉熵误差损失函数和ADAM训练算法;
根据预置训练数据,训练所述并行神经网络,所述预置训练数据中的每个样本都是用户在一次浏览过程中推送商品被点击的商品序列;
将所述用户信息、所述商品数据信息和所述文字特征编码,分别输入所述并行神经网络,计算商品库中每件商品被用户点击的概率。
6.如权利要求5所述的方法,其特征在于,所述将所述用户信息、所述商品数据信息和所述文字特征编码,分别输入所述并行神经网络,计算商品库中每件商品被用户点击的概率,包括:
将所述商品数据信息和所述文字特征编码,分别输入所述两组并列的单向长短期记忆网络LSTM模型中,提取所述商品数据信息对应的第一隐含特征和所述文字特征编码对应的第二隐含特征;
将所述第一隐含特征、第二隐含特征所述和所述用户信息进行全连接层运算,通过softmax函数计算商品库中每件商品被用户点击的概率。
7.如权利要求5所述的方法,其特征在于,所述按照所述概率从大到小的顺序,展示与所述概率对应的推荐商品之后,所述方法还包括:
根据用户选择的推荐商品,构建所述预置训练数据中的新样本;
将所述新样本添加至所述预置训练数据中,更新所述预置训练数据;
根据所述预置训练数据,重新训练所述并行神经网络。
8.一种商品推荐装置,其特征在于,包括:
获取模块,用于获取推荐数据,所述推荐数据包括用户信息、商品数据信息和商品文字信息,所述用户信息是指用户的年龄、姓名、注册时长和注册地址,所述商品数据信息是指用户浏览过的商品的数字描述信息,所述商品文字信息是指用户浏览过的商品的文字描述信息;
生成模块,用于根据自编码算法,将所述商品文字信息进行编码,生成文字特征编码;
计算模块,用于将所述用户信息、所述商品数据信息和所述文字特征编码,输入并行循环神经网络,计算商品库中每件商品被用户点击的概率;
展示模块,用于按照所述概率从大到小的顺序,选取并展示预置数量的与所述概率对应的推荐商品。
9.一种存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的商品推荐方法对应的操作。
10.一种计算机设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的商品推荐方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910559073.7A CN110458638B (zh) | 2019-06-26 | 2019-06-26 | 一种商品推荐方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910559073.7A CN110458638B (zh) | 2019-06-26 | 2019-06-26 | 一种商品推荐方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458638A true CN110458638A (zh) | 2019-11-15 |
CN110458638B CN110458638B (zh) | 2023-08-15 |
Family
ID=68481086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910559073.7A Active CN110458638B (zh) | 2019-06-26 | 2019-06-26 | 一种商品推荐方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110458638B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105267A (zh) * | 2019-11-22 | 2020-05-05 | 苏州浪潮智能科技有限公司 | 一种基于als算法的推荐方法、设备及可读介质 |
CN111209386A (zh) * | 2020-01-07 | 2020-05-29 | 重庆邮电大学 | 一种基于深度学习的个性化文本推荐方法 |
CN111767953A (zh) * | 2020-06-30 | 2020-10-13 | 北京字节跳动网络技术有限公司 | 用于训练物品编码模型的方法和装置 |
CN111861540A (zh) * | 2020-06-09 | 2020-10-30 | 上海钧正网络科技有限公司 | 信息推送方法、装置、计算机设备和存储介质 |
CN112308650A (zh) * | 2020-07-01 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 推荐理由生成方法、装置、设备及存储介质 |
CN112651805A (zh) * | 2020-12-30 | 2021-04-13 | 广东各有所爱信息科技有限公司 | 一种网上商城的商品推荐方法及系统 |
CN115131111A (zh) * | 2022-08-31 | 2022-09-30 | 深圳前海鹏影数字软件运营有限公司 | 基于电商平台的产品推荐方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008225629A (ja) * | 2007-03-09 | 2008-09-25 | Ricoh Co Ltd | 商品推薦システム、商品推薦方法、及び商品推薦方法を記録した記録媒体 |
CN108109056A (zh) * | 2018-01-10 | 2018-06-01 | 北京思特奇信息技术股份有限公司 | 一种商品的推荐方法及系统 |
CN108563782A (zh) * | 2018-04-25 | 2018-09-21 | 平安科技(深圳)有限公司 | 商品信息格式处理方法、装置、计算机设备和存储介质 |
CN108960959A (zh) * | 2018-05-23 | 2018-12-07 | 山东大学 | 基于神经网络的多模态互补服装搭配方法、系统及介质 |
CN109408702A (zh) * | 2018-08-29 | 2019-03-01 | 昆明理工大学 | 一种基于稀疏边缘降噪自动编码的混合推荐方法 |
-
2019
- 2019-06-26 CN CN201910559073.7A patent/CN110458638B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008225629A (ja) * | 2007-03-09 | 2008-09-25 | Ricoh Co Ltd | 商品推薦システム、商品推薦方法、及び商品推薦方法を記録した記録媒体 |
CN108109056A (zh) * | 2018-01-10 | 2018-06-01 | 北京思特奇信息技术股份有限公司 | 一种商品的推荐方法及系统 |
CN108563782A (zh) * | 2018-04-25 | 2018-09-21 | 平安科技(深圳)有限公司 | 商品信息格式处理方法、装置、计算机设备和存储介质 |
CN108960959A (zh) * | 2018-05-23 | 2018-12-07 | 山东大学 | 基于神经网络的多模态互补服装搭配方法、系统及介质 |
CN109408702A (zh) * | 2018-08-29 | 2019-03-01 | 昆明理工大学 | 一种基于稀疏边缘降噪自动编码的混合推荐方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105267A (zh) * | 2019-11-22 | 2020-05-05 | 苏州浪潮智能科技有限公司 | 一种基于als算法的推荐方法、设备及可读介质 |
CN111209386A (zh) * | 2020-01-07 | 2020-05-29 | 重庆邮电大学 | 一种基于深度学习的个性化文本推荐方法 |
CN111209386B (zh) * | 2020-01-07 | 2022-04-12 | 重庆邮电大学 | 一种基于深度学习的个性化文本推荐方法 |
CN111861540A (zh) * | 2020-06-09 | 2020-10-30 | 上海钧正网络科技有限公司 | 信息推送方法、装置、计算机设备和存储介质 |
CN111767953A (zh) * | 2020-06-30 | 2020-10-13 | 北京字节跳动网络技术有限公司 | 用于训练物品编码模型的方法和装置 |
US11763204B2 (en) | 2020-06-30 | 2023-09-19 | Beijing Bytedance Network Technology Co., Ltd. | Method and apparatus for training item coding model |
CN112308650A (zh) * | 2020-07-01 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 推荐理由生成方法、装置、设备及存储介质 |
WO2022001896A1 (zh) * | 2020-07-01 | 2022-01-06 | 北京沃东天骏信息技术有限公司 | 推荐理由生成方法、装置、设备及存储介质 |
CN112308650B (zh) * | 2020-07-01 | 2022-09-30 | 北京沃东天骏信息技术有限公司 | 推荐理由生成方法、装置、设备及存储介质 |
CN112651805A (zh) * | 2020-12-30 | 2021-04-13 | 广东各有所爱信息科技有限公司 | 一种网上商城的商品推荐方法及系统 |
CN112651805B (zh) * | 2020-12-30 | 2023-11-03 | 广东各有所爱信息科技有限公司 | 一种网上商城的商品推荐方法及系统 |
CN115131111A (zh) * | 2022-08-31 | 2022-09-30 | 深圳前海鹏影数字软件运营有限公司 | 基于电商平台的产品推荐方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110458638B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458638A (zh) | 一种商品推荐方法及装置 | |
US11755885B2 (en) | Joint learning of local and global features for entity linking via neural networks | |
CN109299396B (zh) | 融合注意力模型的卷积神经网络协同过滤推荐方法及系统 | |
CN110929206B (zh) | 点击率预估方法、装置、计算机可读存储介质和设备 | |
CN110598779B (zh) | 摘要描述生成方法、装置、计算机设备和存储介质 | |
CN106920147B (zh) | 一种基于词向量数据驱动的商品智能推荐方法 | |
WO2021027256A1 (zh) | 处理交互序列数据的方法及装置 | |
CN109522474B (zh) | 基于交互序列数据挖掘深度用户相似性的推荐方法 | |
CN104615767B (zh) | 搜索排序模型的训练方法、搜索处理方法及装置 | |
CN110728541B (zh) | 信息流媒体广告创意推荐方法及装置 | |
CN109062901B (zh) | 神经网络训练方法和装置及命名实体识别方法和装置 | |
CN111191092B (zh) | 标签确定方法和标签确定模型训练方法 | |
CN111898031B (zh) | 一种获得用户画像的方法及装置 | |
US11636341B2 (en) | Processing sequential interaction data | |
CN110232480A (zh) | 利用变分的正则化流实现的项目推荐方法及模型训练方法 | |
CN110209922A (zh) | 对象推荐方法、装置、存储介质及计算机设备 | |
CN110362723A (zh) | 一种题目特征表示方法、装置及存储介质 | |
CN113095415B (zh) | 一种基于多模态注意力机制的跨模态哈希方法及系统 | |
CN110659411B (zh) | 一种基于神经注意力自编码器的个性化推荐方法 | |
CN111858940B (zh) | 一种基于多头注意力的法律案例相似度计算方法及系统 | |
WO2023011382A1 (zh) | 推荐方法、推荐模型训练方法及相关产品 | |
Chen et al. | Joint text embedding for personalized content-based recommendation | |
Morris et al. | Text embeddings reveal (almost) as much as text | |
CN110597956B (zh) | 一种搜索方法、装置及存储介质 | |
CN113128233B (zh) | 一种心理疾病知识图谱的构建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |