CN113420212A - 基于深度特征学习的推荐方法、装置、设备及存储介质 - Google Patents
基于深度特征学习的推荐方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113420212A CN113420212A CN202110697212.XA CN202110697212A CN113420212A CN 113420212 A CN113420212 A CN 113420212A CN 202110697212 A CN202110697212 A CN 202110697212A CN 113420212 A CN113420212 A CN 113420212A
- Authority
- CN
- China
- Prior art keywords
- text
- layer
- recommendation model
- recommendation
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种基于深度特征学习的推荐方法、装置、设备和存储介质,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,将评论文本和评分数据导入训练好的推荐模型,通过对评论文本进行编码,得到文本特征,通过生成评分数据的评分特征,并融合文本特征和评分特征,生成偏好特征,通过对偏好特征进行解码,得到偏好信息,并基于偏好信息完成推荐。此外,本申请还涉及区块链技术,评论文本和评分数据可存储于区块链中。本申请通过多层感知机制构建推荐模型,通过推荐模型的感知层获取深度评分特征,通过Transformer网络学习文本特征,并结合评分特征和文本特征完成推荐,提高了推荐模型的准确性。
Description
技术领域
本申请属于人工智能技术领域,具体涉及一种基于深度特征学习的推荐方法、装置、设备和存储介质。
背景技术
推荐系统广泛用于在线广告投放、网络购物平台等Web应用领域。推荐系统通过发现用户喜好,帮助用户发现感兴趣的电影、音乐及各类商品;同时,也为在线广告、商品等更精确地锁定目标人群。现有的推荐方法主要有两种:基于内容过滤和协同过滤。其中,基于内容过滤的推荐方法根据用户已购商品的特征属性来推荐具有相似属性的商品。然而,该方法推荐的商品种类较为单一,且缺乏新意。协同过滤方法则按用户浏览、评价商品等行为,推荐具有相似偏好的用户购买或喜爱的商品。
随着互联网的发展,电子商务网站中出现大量用户评论信息。用户通过评论来表达自己对商品的评价,交流购物心得。一条评论由评分和评论文本组成,评论文本包含丰富的商品属性描述信息,可看作评分的依据。然而,现有的协同过滤方法并未利用评论文本进行推荐。另一方面,现有的评论分析方法涵盖了主题发现、情感分析和观点挖掘等领域,可通过分析评论文本来预测评分。
现有的结合评分和评论文本的推荐方案通常通过卷积神经网络直接学习评论文本的主题特征和评分数据的潜在特征,以预测用户的偏好。但在上述特征学习过程中,卷积神经网络仅学习到了评分数据表面的潜在特征,并没有对评分数据的深度特征进行学习,因此现有的结合评分和评论文本的推荐方案获得的推荐结果准确度不高,严重影响用户的使用体验。
发明内容
本申请实施例的目的在于提出一种基于深度特征学习的推荐方法、装置、计算机设备及存储介质,以解决现有结合评分和评论文本的推荐方案因为没有深度学习评分数据的深度特征而导致的推荐结果准确度不高,用户使用体验不好的技术问题。
为了解决上述技术问题,本申请实施例提供一种基于深度特征学习的推荐方法,采用了如下所述的技术方案:
一种基于深度特征学习的推荐方法,包括:
基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层;
从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型;
接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型;
通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征;
将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征;
通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
进一步地,所述通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征的步骤,具体包括:
对所述评论文本进行分词处理,得到分词文本;
对所述分词文本进行向量转化,得到词向量;
拼接所述词向量,得到所述评论文本对应的句向量;
对所述评论文本对应的句向量进行特征提取,得到所述评论文本的文本特征。
进一步地,所述拼接所述词向量,得到所述评论文本对应的句向量的步骤,具体包括:
基于所述Transformer网络中预设的注意力机制计算所述分词文本的注意力分值;
根据所述注意力分值计算所述分词文本的权重;
基于所述分词文本的权重对所述分词文本的词向量进行拼接,得到所述评论文本对应的句向量。
进一步地,所述文本特征、所述评分特征和所述用户偏好特征均为特征矩阵,所述将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征的步骤,具体包括:
基于所述评分数据构建稀疏矩阵,并将所述稀疏矩阵导入所述推荐模型的感知层,以通过所述推荐模型的感知层提取从所述稀疏矩阵中提取所述评分数据的评分特征,得到评分特征矩阵;
对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
进一步地,所述推荐模型的感知层包括若干个隐含层,所述对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵的步骤,具体包括:
在第一个隐含层中对所述文本特征矩阵和所述评分特征矩阵进行矩阵拼接,得到第一拼接矩阵;
将所述第一拼接矩阵输入到第二个隐含层中,并在第二个隐含层中对所述第一拼接矩阵和所述评分特征矩阵进行矩阵拼接,得到第二拼接矩阵;
将所述第二拼接矩阵输入到下一个隐含层中,并进行迭代计算,直至最后一个隐含层,输出用户偏好特征矩阵。
进一步地,所述训练样本包括训练文本和所述训练文本对应的训练评分,所述从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
从预设的数据库中的获取所述训练文本和所述训练评分,并将所述训练文本和所述训练评分导入到所述初始推荐模型;
通过所述初始推荐模型的编码层对所述训练文本进行编码,得到所述训练文本的文本特征;
通过所述初始推荐模型的感知层对所述训练评分进行特征提取,得到所述训练评分的的评分特征;
融合所述训练文本的文本特征和所述训练评分的的评分特征,生成所述训练文本对应的偏好特征;
通过所述初始推荐模型的解码层对所述训练文本对应的偏好特征进行解码,得到偏好预测结果;
基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型。
进一步地,所述基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
基于所述偏好预测结果与预设标准结果,使用反向传播算法进行拟合,获取模型误差;
将模型误差与预设误差阈值进行比较,若所述模型误差大于预设误差阈值,则对训练好的推荐模型进行迭代更新,直至所述模型误差小于或等于预设误差阈值为止;
输出所述模型误差小于或等于预设误差阈值的推荐模型,得到训练好的推荐模型。
为了解决上述技术问题,本申请实施例还提供一种基于深度特征学习的推荐装置,采用了如下所述的技术方案:
一种基于深度特征学习的推荐装置,包括:
模型构建模块,用于基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层;
模型训练模块,用于从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型;
信息获取模块,用于接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型;
文本编码模块,用于通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征;
特征融合模块,用于将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征;
偏好预测模块,用于通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上述所述的基于深度特征学习的推荐的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的基于深度特征学习的推荐方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种基于深度特征学习的推荐方法、装置、设备和存储介质,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,接收到目标用户的推荐指令时,将评论文本和评分数据分别导入训练好的推荐模型,通过编码层对评论文本进行编码和特提取,得到文本特征,通过感知层对评分数据进行处理,生成评分数据的评分特征,并在感知层融合文本特征和评分特征,得到用户偏好特征,通过解码层对用户偏好特征进行解码,得到用户偏好信息,并基于用户偏好信息完成推荐。本申请通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性系统架构图;
图2示出了根据本申请的基于深度特征学习的推荐方法的一个实施例的流程图;
图3示出了根据本申请的基于深度特征学习的推荐装置的一个实施例的结构示意图;
图4示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于深度特征学习的推荐方法一般由服务器执行,相应地,基于深度特征学习的推荐装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于深度特征学习的推荐的方法的一个实施例的流程图。所述的基于深度特征学习的推荐方法,包括以下步骤:
S201,基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层。
其中,Transformer是一种基于encoder(编码)-decoder(解码)结构的模型,它抛弃了以往的seq2seq模型中的RNN,采用Self—attention或者Mulit-head-self-attention使得输入的数据可以并行处理,提高运行效率。Transformer引入的注意力机制以及Transformer结构本身赋予了其在序列数据方面出色的能力,而评论信息作为产品信息中的主要数据之一,无疑是作为提高推荐系统准确度的首要选择,因此利用Transformer来处理评论信息从而提高推荐系统能力成为了一种可能。
多层感知机制基于多层感知器来实现,多层感知器(Multi-layer Perceptron,MLP)是一个前馈式的、具有监督的人工神经网络结构。MLP包含多个隐含层,实现对非线性数据的分类建模。MLP将数据分为训练集、测试集、检验集,其中,训练集用来拟合网络的参数,测试集防止训练过度,检验集用来评估网络的效果,并应用于总样本集。当因变量是分类型的数值,MLP神经网络则根据所输入的数据,记录划分为最适合类型。
具体的,服务器基于Transformer网络和多层感知机制构建初始推荐模型,其中,初始推荐模型包括编码层、感知层和解码层。Transformer网络是一种基于encoder-decoder结构的模型,Transformer网络自带多头有注意力机制,通过Transformer网络的编码层和多头注意力机制提取文本的特征,能够有效获得文本的关键信息,其中多头注意力机制为模型获取全面的关键信息提供了保障。依据多层感知机制构建的感知层用于处理评分数据和融合特征,以获得更深层次的评分特征,并通过感知层充分融合文本特征和评分特征生成用户偏好特征。
S202,从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型。
具体的,服务器在构建初始推荐模型之后,需要从预设的数据库中的获取训练样本,并通过训练样本和反向传播算法对构建的初始推荐模型进行模型迭代训练,以获得一个输出符合要求的推荐模型,即训练好的推荐模型。其中,训练好的推荐模型也具有相应的编码层、感知层和解码层。
S203,接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型。
具体的,本申请基于深度特征学习的推荐方法可应用于商品推荐、项目推荐以及评论推荐等情景中,对于具体的推荐情景,本申请并不做限定。
当用户存在推荐需求时,服务器接收触发的推荐指令,获取目标用户预先输入的评论文本和评分数据,并将评论文本和评分数据分别导入训练好的推荐模型,以获得用户偏好信息。其中,推荐指令中包含有目标用户的身份标识,服务器根据推荐指令中目标用户的身份标识获得目标用户历史的评论文本和评分数据,通过深度分析目标用户历史的评论文本和评分数据,获得目标用户的偏好信息,根据偏好信息为目标用户推荐相关的商品或者感兴趣的信息内容。推荐指令可以由目标用户的客户端生成,例如在商品推荐场景中,当目标用户登录电商网站时,服务器自动生成与目标用户相关的推荐指令。
在本实施例中,基于深度特征学习的推荐方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收目标用户的推荐指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
S204,通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征。
具体的,基于Transformer网络构建的推荐模型是一种基于encoder-decoder结构的模型,基于推荐模型的编码层对评论文本进行文本特征编码,得到文本特征。需要说明的是,进行文本特征提取时,推荐模型通过结合Transformer网络自带的多头注意力机制,能够有效获得文本的关键信息,提高推荐模型的精度。
S205,将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征。
其中,感知层包括多个隐含层,通过多个隐含层分别对评分数据进行处理,得到深层次的评分特征,依据多层感知机制构建的感知层用于处理评分数据和融合特征,以获得更深层次的评分特征,并通过感知层充分融合文本特征和评分特征生成用户偏好特征,提高推荐模型的准确度。
具体的,文本特征、评分特征和用户偏好特征均为特征矩阵,服务器在对评论文本进行编码,得到文本特征矩阵后,将文本特征矩阵以及评分数据导入到推荐模型的感知层中,先通过推荐模型的感知层生成评分数据的评分特征,得到深度评分特征矩阵,通过在感知层中对文本特征矩阵和深度评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
S206,通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
具体的,服务器通过推荐模型的解码层对所述用户偏好特征矩阵进行解码,得到用户偏好信息,并基于用户偏好信息为目标用户完成推荐。
在上述实施例中,通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
进一步地,所述通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征的步骤,具体包括:
对所述评论文本进行分词处理,得到分词文本;
对所述分词文本进行向量转化,得到词向量;
拼接所述词向量,得到所述评论文本对应的句向量;
对所述评论文本对应的句向量进行特征提取,得到所述评论文本的文本特征。
具体的,服务器通过推荐模型的编码层对评论文本进行预处理,以去除评论文本中的停用词和标点符号,然后对评论文本进行分词处理,得到若干个分词文本,对每一个分词文本进行向量转化,得到若干个词向量,对得到词向量进行拼接,得到评论文本对应的句向量,对评论文本对应的句向量进行特征编码,以获得评论文本中的文本特征。
在上述实例中,通过在编码层中对输入的评论文本进行分词、向量转化、向量拼接和特征编码,以获得评论文本中的文本特征。
进一步地,所述拼接所述词向量,得到所述评论文本对应的句向量的步骤,具体包括:
基于所述Transformer网络中预设的注意力机制计算所述分词文本的注意力分值;
根据所述注意力分值计算所述分词文本的权重;
基于所述分词文本的权重对所述分词文本的词向量进行拼接,得到所述评论文本对应的句向量。
具体的,服务器基于Transformer网络中预设的注意力机制计算分词文本的注意力分值,注意力分值计算公式如下:
gi=Relu(wi*ci+b)
其中,gi表示第i个分词文本的注意力分值,Relu表示Transformer网络自注意力激活函数,wi和b分别为Transformer网络自注意力学习的权重和偏移量,ci表示第i个分词文本的词向量。
服务器在基于softmax函数对注意力分值进行归一化处理得到分词文本的权重,按照以下公式基于softmax函数对注意力分值进行归一化处理:
其中,ai为分词文本的权重,k为评论文本中的分词文本的总数。
服务器在获得每一个分词文本的权重后,依次比对每一个分词文本的权重与预设权重阈值的大小,将权重大于预设权重阈值的分词文本的词向量进行拼接,得到评论文本对应的句向量。
在上述实施例中,通过Transformer网络的编码层和多头注意力机制提取文本的特征,能够有效获得文本的关键信息,提高了推荐模型的准确性,其中多头注意力机制为模型获取全面的关键信息提供了保障。
进一步地,所述文本特征、所述评分特征和所述用户偏好特征均为特征矩阵,所述将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征的步骤,具体包括:
基于所述评分数据构建稀疏矩阵,并将所述稀疏矩阵导入所述推荐模型的感知层,以通过所述推荐模型的感知层提取从所述稀疏矩阵中提取所述评分数据的评分特征,得到评分特征矩阵;
对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
其中,在矩阵中,若数值为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律时,则称该矩阵为稀疏矩阵。在本申请具体的实施例中,评分数据一般为单一数值,例如某商品得到用户评分为5分,根据商品评分构建一个三维的稀疏矩阵可表示为I=[0 0 0,5 0 0,0 0 0],当然也可以根据实际需求调整上述稀疏矩阵中元素“5”的位置,以及根据实际需求构建一个其他维度的稀疏矩阵,如五维的稀疏矩阵等等。
具体的,服务器基于评分数据构建稀疏矩阵,并将稀疏矩阵导入推荐模型的感知层,以通过推荐模型的感知层对稀疏矩阵进行特征感知,从稀疏矩阵中获取评分数据的评分特征,得到评分特征矩阵,通过推荐模型的感知层对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
在上述实施例中,通过构建稀疏矩阵,然后通过感知层对稀疏矩阵进行特征感知,获得评分特征矩阵,然后对文本特征矩阵和评分特征矩阵进行矩阵拼接,实现对文本特征和评分特征的融合,以获得更加全面的用户偏好特征,以便提高推荐模型的准确性。
进一步地,所述推荐模型的感知层包括若干个隐含层,所述对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵的步骤,具体包括:
在第一个隐含层中对所述文本特征矩阵和所述评分特征矩阵进行矩阵拼接,得到第一拼接矩阵;
将所述第一拼接矩阵输入到第二个隐含层中,并在第二个隐含层中对所述第一拼接矩阵和所述评分特征矩阵进行矩阵拼接,得到第二拼接矩阵;
将所述第二拼接矩阵输入到下一个隐含层中,并进行迭代计算,直至最后一个隐含层,输出用户偏好特征矩阵。
其中,推荐模型的感知层包括若干个隐含层,相邻两个隐含层之间形成全连接结构,即在模型使用过程中,上一层隐含层的输出会自动输入到下一层隐含层中,并参与下一层隐含层的运算。在本申请具体的实施例中,感知层网络结构如下:
Xj=f(wjP+bj)
其中,Xj为第j层隐含层的输出,f为隐含层的激活函数,wj为第j层隐含层的权重,P为输入的评分数据,bj为第j层隐含层的偏置向量。
f为可以是常用的sigmoid函数或者tanh函数:
具体的,将评分数据以此导入每一个隐含层,且每一个隐含层均针对评分数据进行特征感知,生成相应的评分特征矩阵。服务器先计算得到第一个隐含层的评分特征矩阵,并在第一个隐含层中对文本特征矩阵和第一个隐含层的评分特征矩阵进行矩阵拼接,得到第一拼接矩阵,将第一拼接矩阵输入到第二个隐含层中。然后在计算得到第二个隐含层的评分特征矩阵,并在第二个隐含层中对第一拼接矩阵和第二个隐含层的评分特征矩阵进行矩阵拼接,得到第二拼接矩阵。服务器将第二拼接矩阵输入到第三个隐含层中,并依据上述矩阵拼接方式进行迭代计算,直至最后一个隐含层,获取最后一个隐含层输出的特征矩阵,得到用户偏好特征矩阵。
在本申请一种具体的实施例中,输入感知层的文本特征矩阵为Q,输入感知层的评分数据为X,推荐模型的感知层包括多个隐含层(F1,F2,F3,......,Fn),将评分数据X依次导入到感知层的每一个隐含层中,先通过每一个隐含层对评分数据X进行处理,生成针对于评分数据X的评分特征矩阵(X1,X2,X3,......,Xj),先在第一个隐含层F1中,对文本特征矩阵Q和第一个隐含层的评分特征矩阵X1进行矩阵拼接,得到第一拼接矩阵C1,再将第一拼接矩阵C1输入到第二个隐含层F2中,并在第二个隐含层F2中对第一拼接矩阵C1和第二个隐含层的评分特征矩阵X2进行矩阵拼接,得到第二拼接矩阵C2,以及将第二拼接矩阵C2输入到第三个隐含层F3中,以此类推进行矩阵拼接的迭代计算,直至在第n个隐含层Fn中完成矩阵拼接,得到第n个隐含层Fn的输出Cn-1为止,第n个隐含层Fn的输出Cn-1即为用户偏好特征矩阵。
在上述实施例中,通过在每一个隐含层中对评分数据进行特征感知,以获得评分数据在多个维度的特征信息,然后通过隐含层的全连接结构实现深度评分特征和文本特征的叠加,获得全面的用户偏好特征信息,通过融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
进一步地,所述训练样本包括训练文本和所述训练文本对应的训练评分,所述从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
从预设的数据库中的获取所述训练文本和所述训练评分,并将所述训练文本和所述训练评分导入到所述初始推荐模型;
通过所述初始推荐模型的编码层对所述训练文本进行编码,得到所述训练文本的文本特征;
通过所述初始推荐模型的感知层对所述训练评分进行特征提取,得到所述训练评分的的评分特征;
融合所述训练文本的文本特征和所述训练评分的的评分特征,生成所述训练文本对应的偏好特征;
通过所述初始推荐模型的解码层对所述训练文本对应的偏好特征进行解码,得到偏好预测结果;
基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型。
具体的,在初始推荐模型构建完成后,需要对初始推荐模型进行模型训练,从预设的数据库中的获取训练样本,训练样本包括训练文本和训练评分,并将训练文本和训练评分导入到初始推荐模型,通过初始推荐模型的编码层对训练文本进行特征编码,得到训练文本的文本特征,通过初始推荐模型的感知层对训练评分进行特征感知,得到训练评分的的评分特征,并在感知层中融合训练文本的文本特征和训练评分的的评分特征,生成训练文本对应的偏好特征,通过解码层对训练文本对应的偏好特征进行解码,得到偏好预测结果,基于偏好预测结果对初始推荐模型进行迭代训练,得到训练好的推荐模型。
进一步地,所述基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
基于所述偏好预测结果与预设标准结果,使用反向传播算法进行拟合,获取模型误差;
将模型误差与预设误差阈值进行比较,若所述模型误差大于预设误差阈值,则对训练好的推荐模型进行迭代更新,直至所述模型误差小于或等于预设误差阈值为止;
输出所述模型误差小于或等于预设误差阈值的推荐模型,得到训练好的推荐模型。
其中,反向传播算法,即误差反向传播算法(Backpropagationalgorithm,BP算法)适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上,用于深度学习网络的误差计算。BP网络的输入、输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。BP算法的学习过程由正向传播过程和反向传播过程组成。在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层,并转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,以作为修改权值的依据。
具体的,通过初始推荐模型的损失函数计算偏好预测结果与预设标准结果之间的模型误差,通过反向传播算法从输出层开始向前传递模型误差,得到每一个网络层的误差,将每一个网络层的误差与预设误差阈值进行比较,若存在任意一层的误差大于预设误差阈值,则对初始推荐模型的参数进行微调,直至所有网络层的误差小于或等于预设误差阈值为止,输出调整后的初始推荐模型,得到训练好的推荐模型。
在上述实施例中,通过训练样本的初始推荐模型进行训练,然后通过损失函数计算模型误差,通过反向传播算法传递模型误差,以及根据模型误差进行迭代更新,以获得模型误差小于或等于预设误差阈值的推荐模型,以保证推荐模型的精度。
上述实施例公开了一种基于深度特征学习的推荐方法,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,接收到目标用户的推荐指令时,将评论文本和评分数据分别导入训练好的推荐模型,通过编码层对评论文本进行编码和特提取,得到文本特征,通过感知层对评分数据进行处理,生成评分数据的评分特征,并在感知层融合文本特征和评分特征,得到用户偏好特征,通过解码层对用户偏好特征进行解码,得到用户偏好信息,并基于用户偏好信息完成推荐。本申请通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
需要强调的是,为进一步保证上述评论文本和评分数据的私密和安全性,上述评论文本和评分数据还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种基于深度特征学习的推荐装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的基于深度特征学习的推荐装置包括:
模型构建模块301,用于基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层;
模型训练模块302,用于从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型;
信息获取模块303,用于接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型;
文本编码模块304,用于通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征;
特征融合模块305,用于将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征;
偏好预测模块306,用于通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
进一步地,所述文本编码模块304具体包括:
文本分词单元,用于对所述评论文本进行分词处理,得到分词文本;
向量转化单元,用于对所述分词文本进行向量转化,得到词向量;
向量拼接单元,用于拼接所述词向量,得到所述评论文本对应的句向量;
特征提取单元,用于对所述评论文本对应的句向量进行特征提取,得到所述评论文本的文本特征。
进一步地,所述向量拼接单元具体包括:
分值计算子单元,用于基于所述Transformer网络中预设的注意力机制计算所述分词文本的注意力分值;
权重计算子单元,用于根据所述注意力分值计算所述分词文本的权重;
向量拼接子单元,用于基于所述分词文本的权重对所述分词文本的词向量进行拼接,得到所述评论文本对应的句向量。
进一步地,所述文本特征、所述评分特征和所述用户偏好特征均为特征矩阵,所述特征融合模块305具体包括:
矩阵构建单元,用于基于所述评分数据构建稀疏矩阵,并将所述稀疏矩阵导入所述推荐模型的感知层,以通过所述推荐模型的感知层提取从所述稀疏矩阵中提取所述评分数据的评分特征,得到评分特征矩阵;
特征融合单元,用于对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
进一步地,所述推荐模型的感知层包括若干个隐含层,所述特征融合单元具体包括:
第一矩阵拼接子单元,用于在第一个隐含层中对所述文本特征矩阵和所述评分特征矩阵进行矩阵拼接,得到第一拼接矩阵;
第二矩阵拼接子单元,用于将所述第一拼接矩阵输入到第二个隐含层中,并在第二个隐含层中对所述第一拼接矩阵和所述评分特征矩阵进行矩阵拼接,得到第二拼接矩阵;
矩阵迭代拼接子单元,用于将所述第二拼接矩阵输入到下一个隐含层中,并进行迭代计算,直至最后一个隐含层,输出用户偏好特征矩阵。
进一步地,所述训练样本包括训练文本和所述训练文本对应的训练评分,所述模型训练模块302具体包括:
训练数据获取单元,用于从预设的数据库中的获取所述训练文本和所述训练评分,并将所述训练文本和所述训练评分导入到所述初始推荐模型;
训练文本编码单元,用于通过所述初始推荐模型的编码层对所述训练文本进行编码,得到所述训练文本的文本特征;
训练评分感知单元,用于通过所述初始推荐模型的感知层对所述训练评分进行特征提取,得到所述训练评分的的评分特征;
训练特征融合单元,用于融合所述训练文本的文本特征和所述训练评分的的评分特征,生成所述训练文本对应的偏好特征;
训练特征解码单元,用于通过所述初始推荐模型的解码层对所述训练文本对应的偏好特征进行解码,得到偏好预测结果;
预测模型迭代单元,用于基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型。
进一步地,所述预测模型迭代单元具体包括:
结果比对子单元,用于基于所述偏好预测结果与预设标准结果,使用反向传播算法进行拟合,获取模型误差;
迭代更新子单元,用于将模型误差与预设误差阈值进行比较,若所述模型误差大于预设误差阈值,则对训练好的推荐模型进行迭代更新,直至所述模型误差小于或等于预设误差阈值为止;
模型输出子单元,用于输出所述模型误差小于或等于预设误差阈值的推荐模型,得到训练好的推荐模型。
上述实施例公开了一种基于深度特征学习的推荐装置,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,接收到目标用户的推荐指令时,将评论文本和评分数据分别导入训练好的推荐模型,通过编码层对评论文本进行编码和特提取,得到文本特征,通过感知层对评分数据进行处理,生成评分数据的评分特征,并在感知层融合文本特征和评分特征,得到用户偏好特征,通过解码层对用户偏好特征进行解码,得到用户偏好信息,并基于用户偏好信息完成推荐。本申请通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如基于深度特征学习的推荐方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述基于深度特征学习的推荐方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本申请公开了一种设备,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,接收到目标用户的推荐指令时,将评论文本和评分数据分别导入训练好的推荐模型,通过编码层对评论文本进行编码和特提取,得到文本特征,通过感知层对评分数据进行处理,生成评分数据的评分特征,并在感知层融合文本特征和评分特征,得到用户偏好特征,通过解码层对用户偏好特征进行解码,得到用户偏好信息,并基于用户偏好信息完成推荐。本申请通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于深度特征学习的推荐方法的步骤。
本申请公开了一种存储介质,属于人工智能技术领域,本申请通过构建初始推荐模型,并通过训练样本对初始推荐模型进行迭代训练,接收到目标用户的推荐指令时,将评论文本和评分数据分别导入训练好的推荐模型,通过编码层对评论文本进行编码和特提取,得到文本特征,通过感知层对评分数据进行处理,生成评分数据的评分特征,并在感知层融合文本特征和评分特征,得到用户偏好特征,通过解码层对用户偏好特征进行解码,得到用户偏好信息,并基于用户偏好信息完成推荐。本申请通过多层感知机制构建推荐模型,通过Transformer网络的注意力机制学习文本特征,通过推荐模型的感知层的多层感知机制获取深度评分特征,并融合深度评分特征和文本特征得到用户偏好特征,通过用户偏好特征完成推荐,提高了推荐模型的准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于深度特征学习的推荐方法,其特征在于,包括:
基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层;
从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型;
接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型;
通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征;
将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征;
通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
2.如权利要求1所述的基于深度特征学习的推荐方法,其特征在于,所述通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征的步骤,具体包括:
对所述评论文本进行分词处理,得到分词文本;
对所述分词文本进行向量转化,得到词向量;
拼接所述词向量,得到所述评论文本对应的句向量;
对所述评论文本对应的句向量进行特征提取,得到所述评论文本的文本特征。
3.如权利要求2所述的基于深度特征学习的推荐方法,其特征在于,所述拼接所述词向量,得到所述评论文本对应的句向量的步骤,具体包括:
基于所述Transformer网络中预设的注意力机制计算所述分词文本的注意力分值;
根据所述注意力分值计算所述分词文本的权重;
基于所述分词文本的权重对所述分词文本的词向量进行拼接,得到所述评论文本对应的句向量。
4.如权利要求1所述的基于深度特征学习的推荐方法,其特征在于,所述文本特征、所述评分特征和所述用户偏好特征均为特征矩阵,所述将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征的步骤,具体包括:
基于所述评分数据构建稀疏矩阵,并将所述稀疏矩阵导入所述推荐模型的感知层,以通过所述推荐模型的感知层提取从所述稀疏矩阵中提取所述评分数据的评分特征,得到评分特征矩阵;
对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵。
5.如权利要求4所述的基于深度特征学习的推荐方法,其特征在于,所述推荐模型的感知层包括若干个隐含层,所述对文本特征矩阵和评分特征矩阵进行矩阵拼接,得到用户偏好特征矩阵的步骤,具体包括:
在第一个隐含层中对所述文本特征矩阵和所述评分特征矩阵进行矩阵拼接,得到第一拼接矩阵;
将所述第一拼接矩阵输入到第二个隐含层中,并在第二个隐含层中对所述第一拼接矩阵和所述评分特征矩阵进行矩阵拼接,得到第二拼接矩阵;
将所述第二拼接矩阵输入到下一个隐含层中,并进行迭代计算,直至最后一个隐含层,输出用户偏好特征矩阵。
6.如权利要求1至5任意一项所述的基于深度特征学习的推荐方法,其特征在于,所述训练样本包括训练文本和所述训练文本对应的训练评分,所述从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
从预设的数据库中的获取所述训练文本和所述训练评分,并将所述训练文本和所述训练评分导入到所述初始推荐模型;
通过所述初始推荐模型的编码层对所述训练文本进行编码,得到所述训练文本的文本特征;
通过所述初始推荐模型的感知层对所述训练评分进行特征提取,得到所述训练评分的的评分特征;
融合所述训练文本的文本特征和所述训练评分的的评分特征,生成所述训练文本对应的偏好特征;
通过所述初始推荐模型的解码层对所述训练文本对应的偏好特征进行解码,得到偏好预测结果;
基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型。
7.如权利要求6所述的基于深度特征学习的推荐方法,其特征在于,所述基于所述偏好预测结果对所述初始推荐模型进行迭代训练,得到训练好的推荐模型的步骤,具体包括:
基于所述偏好预测结果与预设标准结果,使用反向传播算法进行拟合,获取模型误差;
将模型误差与预设误差阈值进行比较,若所述模型误差大于预设误差阈值,则对训练好的推荐模型进行迭代更新,直至所述模型误差小于或等于预设误差阈值为止;
输出所述模型误差小于或等于预设误差阈值的推荐模型,得到训练好的推荐模型。
8.一种基于深度特征学习的推荐装置,其特征在于,包括:
模型构建模块,用于基于Transformer网络和多层感知机制构建初始推荐模型,其中,所述初始推荐模型包括编码层、感知层和解码层;
模型训练模块,用于从预设的数据库中的获取训练样本,并通过所述训练样本对所述初始推荐模型进行迭代训练,得到训练好的推荐模型;
信息获取模块,用于接收目标用户的推荐指令,获取所述目标用户的评论文本和评分数据,并将所述评论文本和所述评分数据导入所述推荐模型;
文本编码模块,用于通过所述推荐模型的编码层对所述评论文本进行编码,得到文本特征;
特征融合模块,用于将所述文本特征以及所述评分数据导入到所述推荐模型的感知层中,通过所述推荐模型的感知层生成所述评分数据的评分特征,并融合所述文本特征和所述评分特征,生成用户偏好特征;
偏好预测模块,用于通过所述推荐模型的解码层对所述用户偏好特征进行解码,得到用户偏好信息,并基于所述用户偏好信息为所述目标用户完成推荐。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于深度特征学习的推荐的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于深度特征学习的推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110697212.XA CN113420212A (zh) | 2021-06-23 | 2021-06-23 | 基于深度特征学习的推荐方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110697212.XA CN113420212A (zh) | 2021-06-23 | 2021-06-23 | 基于深度特征学习的推荐方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113420212A true CN113420212A (zh) | 2021-09-21 |
Family
ID=77716264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110697212.XA Pending CN113420212A (zh) | 2021-06-23 | 2021-06-23 | 基于深度特征学习的推荐方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420212A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115295123A (zh) * | 2022-08-17 | 2022-11-04 | 慕思健康睡眠股份有限公司 | 基于睡眠大数据的饮食推荐方法、装置、设备及介质 |
CN116302297A (zh) * | 2023-05-26 | 2023-06-23 | 荣耀终端有限公司 | 一种主题生成方法及电子设备 |
CN117688247A (zh) * | 2024-01-31 | 2024-03-12 | 云南大学 | 推荐方法、终端设备及存储介质 |
-
2021
- 2021-06-23 CN CN202110697212.XA patent/CN113420212A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115295123A (zh) * | 2022-08-17 | 2022-11-04 | 慕思健康睡眠股份有限公司 | 基于睡眠大数据的饮食推荐方法、装置、设备及介质 |
CN115295123B (zh) * | 2022-08-17 | 2023-12-01 | 慕思健康睡眠股份有限公司 | 基于睡眠大数据的饮食推荐方法、装置、设备及介质 |
CN116302297A (zh) * | 2023-05-26 | 2023-06-23 | 荣耀终端有限公司 | 一种主题生成方法及电子设备 |
CN116302297B (zh) * | 2023-05-26 | 2023-10-20 | 荣耀终端有限公司 | 一种主题生成方法及电子设备 |
CN117688247A (zh) * | 2024-01-31 | 2024-03-12 | 云南大学 | 推荐方法、终端设备及存储介质 |
CN117688247B (zh) * | 2024-01-31 | 2024-04-12 | 云南大学 | 推荐方法、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
WO2021120677A1 (zh) | 一种仓储模型训练方法、装置、计算机设备及存储介质 | |
JP2023539532A (ja) | テキスト分類モデルのトレーニング方法、テキスト分類方法、装置、機器、記憶媒体及びコンピュータプログラム | |
CN113420212A (zh) | 基于深度特征学习的推荐方法、装置、设备及存储介质 | |
CN112231569A (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
CN112863683A (zh) | 基于人工智能的病历质控方法、装置、计算机设备及存储介质 | |
WO2022052744A1 (zh) | 会话信息处理方法、装置、计算机可读存储介质及设备 | |
CN110852106A (zh) | 基于人工智能的命名实体处理方法、装置及电子设备 | |
CN113643103A (zh) | 基于用户相似度的产品推荐方法、装置、设备及存储介质 | |
CN112084779B (zh) | 用于语义识别的实体获取方法、装置、设备及存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN112734104A (zh) | 一种融合双生成器双判别器的生成对抗网络和自编码器的跨域推荐方法 | |
Wei et al. | Sentiment classification of tourism reviews based on visual and textual multifeature fusion | |
CN114330704A (zh) | 语句生成模型更新方法、装置、计算机设备和存储介质 | |
CN112989024B (zh) | 文本内容的关系提取方法、装置、设备及存储介质 | |
CN112598039B (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN112199954A (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN113761910A (zh) | 一种融合情感特征的评论文本细粒度情感分析方法 | |
CN112100491A (zh) | 基于用户数据的信息推荐方法、装置、设备及存储介质 | |
CN116563034A (zh) | 基于人工智能的购买预测方法、装置、设备及存储介质 | |
CN115481609A (zh) | 网络论坛的用户发文说服力预测方法、装置、设备和介质 | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 | |
CN114117048A (zh) | 一种文本分类的方法、装置、计算机设备及存储介质 | |
CN114238574B (zh) | 基于人工智能的意图识别方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |