CN111127146B - 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 - Google Patents
基于卷积神经网络与降噪自编码器的信息推荐方法及系统 Download PDFInfo
- Publication number
- CN111127146B CN111127146B CN201911313428.0A CN201911313428A CN111127146B CN 111127146 B CN111127146 B CN 111127146B CN 201911313428 A CN201911313428 A CN 201911313428A CN 111127146 B CN111127146 B CN 111127146B
- Authority
- CN
- China
- Prior art keywords
- information
- user
- comment
- neural network
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 87
- 230000009467 reduction Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 58
- 239000013598 vector Substances 0.000 claims abstract description 121
- 238000012545 processing Methods 0.000 claims abstract description 29
- 230000004927 fusion Effects 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims description 47
- 239000011159 matrix material Substances 0.000 claims description 39
- 238000011176 pooling Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000006399 behavior Effects 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于卷积神经网络与降噪自编码器的信息推荐方法及系统。利用卷积神经网络和降噪自编码器两个深度学习模型,从评分、信任、评论等数据中学习用户偏好。同时,提出了一种新的相关正则化方法来建立用户偏好在不同方面的关系,以提高性能。首先,相比于以往模型,融入了丰富的评论信息;然后,通过卷积神经网络模型对评论文本进行初步的处理,将提取出来的有效特征再放入降噪自编码器模型中提取其隐藏特征,得到评论文本更加有效的紧凑表示;最后,再增加两个降噪自编码器,分别用来处理评分和信任信息,通过三个降噪自编码器分别得到相应的预测向量并进行加权融合,从而更为准确地建模用户偏好。
Description
技术领域
本发明涉及信息推荐技术领域,具体涉及一种基于卷积神经网络与降噪自编码器的信息推荐方法及系统。
背景技术
近年来,推荐系统在各行各业得到了广泛的应用。推荐系统根据用户需求、兴趣等,通过推荐算法从海量数据中挖掘出用户感兴趣的项目,并将结果以个性化列表的形式推荐给用户。个性化推荐是机器学习在电子商务等领域的关键应用之一。许多推荐系统使用协同过滤方法来进行推荐。虽然推荐领域已经提出了许多推荐算法,但仍然存在一些众所周知的问题,如数据稀疏性和冷启动等。针对这些问题,很多研究者提出利用深度学习或者信息融合来帮助建模用户和项目,如降噪自编码器、卷积神经网络、评分信息、信任信息、评论信息或者地理上下文等。
尽管现有的研究提出了信息融合或者深度学习用于推荐的不同方法,但这些推荐算法仍然存在几个关键问题。首先,它们大多采用浅层模型对信任、评分等信息进行建模,忽略了数据间的高阶交互。如何利用深度学习模型从多种信息中学习表示来进行推荐是一个难点问题。其次,一些模型只融合了一两种信息,面临着数据稀疏问题,这可能会限制算法的改进,使利用深度模型从信任、评分等数据中学习高阶信息变得困难。最后,还有一个挑战就是数据稀疏的问题。一些学者使用基于内容的推荐或者混合推荐来缓解数据稀疏问题,但其存在特征提取困难等问题。通过对真实世界数据的分析,可以发现评论信息不仅能够体现项目的属性,而且还能够表达用户的兴趣。基于以上所述,我们决定引入评论信息来解决这个问题。相对于不使用评论信息的模型来说,通过深度神经网络从用户对物品的评论信息中挖掘用户偏好信息,再结合信任和评分信息,可以提取到更多的有效特征表示。
发明内容
有鉴于此,有必要提供一种充分利用文本评论信息,结合稀疏的评分矩阵和信任矩阵,对输入进行更有效地初始化操作,从而有效改善了数据稀疏和冷启动问题的基于卷积神经网络与降噪自编码器的信息推荐方法及系统。
一种基于卷积神经网络与降噪自编码器的信息推荐方法,包括以下步骤:
步骤一,深度分析数据信息,对评分信息、信任信息和评论信息进行分类和过滤;
步骤二,深度学习卷积神经网络模型和降噪自编码器模型,所述卷积神经网络模型通过过滤函数,以并行的方式沿着固定大小的滑动窗口处理输入序列,最终输出序列的隐藏特征矩阵,再经过池化层输出具有代表性部分的隐藏特征向量;所述降噪自编码器模型通过加入噪声影响原始的输入数据来增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,使用噪声版本重构输入数据,获得特征表示,避免所述卷积神经网络模型过度拟合;
步骤三,利用降噪自编码器模型原理建立基于卷积神经网络与降噪自编码器的信息融合推荐模型;首先将所述评论信息输入所述卷积神经网络模型,生成隐藏特征向量,进而生成用户对所有项目的喜好程度值所构成的向量;然后用三个并列的所述降噪自编码器模型分别处理输入的评分信息、信任信息和评论信息,生成相应的预测向量,并对生成的所述预测向量进行加权融合;最终生成目标用户的相应的推荐列表。
进一步地,步骤一中的所述数据信息包括所述评分信息、所述信任信息和所述评论信息;所述评分信息按照喜好程度分为五级并分别对应赋值为1至5;所述信任信息分为信任关系和非信任关系并对应赋值为1和0;所述评论信息采用用户对物品的评价信息,所述评论信息用于分析用户的购买和评分行为。
进一步地,步骤二中的所述卷积神经网络模型用于对用户的所述评论信息做出初步地处理,提取文本的隐藏特征向量,进而得出用户对所有项目的喜好程度值所构成的向量。
进一步地,步骤一中的所述卷积神经网络模型包括嵌入层、卷积层、池化层和输出层;
所述嵌入层用于把一个用户u对一个项目i的评论文本D转化成一个数字矩阵,通过连接评论中的词向量来把文本表示为一个矩阵,其中词向量是随机初始化或者用预训练的词嵌入模型进行初始化,生成的初始化词向量矩阵为X={x1,x2,...,xs},其中X∈Rd×s,xi∈Rd表示词向量,d为词向量的维度,s为评论的长度;当遇到未包含的词,则赋予d维正态分布的随机向量,其中xi表示输入的文本中第i个词的词向量;
所述卷积层用于提取输入文本的上下文特征,输入文本中第i个词的上下文特征表示为fi j∈R,所述上下文特征的特征值通过卷积层中滑动窗口内的第j个共享权重参数计算获得,其中ws表示滑动窗口的大小,ws值决定了所述卷积神经网络模型在提取第i个词的特征时,其上下文中所包含词的数量;卷积层的工作方式如式(1)所示:
所述池化层用于提取隐藏特征,从隐藏特征中提取分布式表示,并且通过池化操作来将文本特征向量长度固定到一个定长的特征向量中;所述池化层使用max-pooling作为池化操作,通过从每个上下文特征向量fj中提取最大值,将所述评论信息的最终表示转化为一个长度为nf的表示向量,具体操作如式(2)所示:
nf=[max(f1),max(f2),...,max(fnf)] (2)
所述输出层使用非线性映射函数生成评论文本潜在特征,具体过程如式(3)所示:
进一步地,所述卷积神经网络模型对评论文本的处理过程表示为cnn函数,用户u对项目i的评论文本信息的隐藏特征的计算表示成式(4)。
进一步地,步骤二中的所述降噪自编码器模型用于将用户u的含有噪声版本的所述评分信息和所述信任信息的数据结合所述卷积神经网络模型的输出结果分别输入三个降噪自编码器模型中,对其进行并行处理,分别学习其潜在用户偏好,通过编码和解码过程,输出最终的评分、信任和评论数据的预测向量;所述噪声采用高斯噪声或者drop-out噪声,所述噪声用于防止数据的过度拟合;
所述降噪自编码器模型进一步用于使隐藏层发现更多鲁棒性的特征,并且防止简单学习恒等函数;含有噪声的输入来自于条件分布在使用drop-out噪声的情况下,以概率q去擦除原始矩阵,将每个值都随机置0;对于每一个项目x的输入R、T和X,相应的有噪声版本定义可以表示成式(5)和(6),
进一步地,所述降噪自编码器模型包括编码层、权重层和解码层;
所述编码层用于将评分、信任和评论数据输入映射到低维空间,编码层可以表示成式(7)、(8)和(9),
其中,分别表示用户u评分、信任和评论数据的有噪声版本;分别表示从评分数据、信任数据和评论数据中学习的u的潜在用户偏好;维数为k的参数W∈Rn×k,V∈Rm×k,H∈Rn×k,b∈Rn×1,c∈Rm×1,d∈Rn×1被用来训练去学习用户偏好;f(·)是一个element-wise映射函数,该映射函数包括恒等函数f(x)=x或sigmoid函数
所述权重层用于将评分、信任和评论数据进行加权整合,以得到建模用户的偏好,具体过程表示成式(10),
所述解码层用于从噪声数据中重构原始输入数据,评分、信任和评论数据的定义表示成式(11)、(12)和(13),
其中,为每个用户u的评分、信任和评论数据的预测值;参数W′∈Rn×k,V′∈Rm×k,H′∈Rn×k,b′∈Rn×1,c′∈Rm×1,d′∈Rn×1被训练用来重构输入;g(·)是一个element-wise映射函数。
进一步地,步骤三中的所述推荐列表通过加权合并方式对用户u进行相应地推荐,在所述上下文特征向量和平衡用户偏好的超参数的基础上,生成最终推荐结果的过程可以表示成式(14),
以及,一种基于卷积神经网络与降噪自编码器的信息推荐的实现系统,其用于实现如上所述的基于卷积神经网络与降噪自编码器的信息推荐方法,该实现系统包括:
用户数据信息分析模块,用于对与用户相关的评分信息、信任信息和评论信息进行分类和过滤;
卷积神经网络模型模块,用于对用户的评论信息做出初步的处理,提取文本的隐藏特征矩阵,并最终得到用户对所有项目的隐藏特征向量;
降噪自编码器模型模块,通过在原始的输入数据中加入噪声,以增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,从其噪声版本重构干净的输入数据,获得更加准确的特征表示;
信息融合推荐模型模块,将三个并列的降噪自编码器模型模块输出的与评分信息、信任信息和评论信息相应的预测向量进行加权融合,生成目标用户的推荐列表。
进一步地,所述卷积神经网络模型模块包括嵌入层模块、卷积层模块、池化层模块和输出层模块;所述降噪自编码器模型模块包括编码层模块、权重层模块和解码层模块;
所述嵌入层模块用于将用户对项目的评论文本转换为数字矩阵;
所述卷积层模块用于提取所述评论文本的上下文特征,并生成上下文特征向量;
所述池化层模块用于将所述上下文特征向量固定到一个定长的特征向量中;
所述输出层模块用于使用非线性映射函数生成所述评论文本的潜在特征;
所述编码层模块用于将评分信息、信任信息和评论信息输入并映射到低维空间;
所述权重层模块用于根据评分信息、信任信息和评论信息的非线性相关性,对所述评分信息、所述信任信息和所述评论信息进行加权融合;
所述解码层模块用于从噪声数据中重构原始输入数据,并输出所述评分信息、所述信任信息和所述评论信息的数据预测值。
上述基于卷积神经网络与降噪自编码器的信息推荐方法及系统中,利用卷积神经网络和降噪自编码器两个深度学习模型,从评分、信任、评论等数据中学习用户偏好。同时,提出了一种新的相关正则化方法来建立用户偏好在不同方面的关系,以提高性能。主要在三个方面对其进行了改进。首先,增加了对评论信息的融合,评论文本相对于评分和信任数据来说,包含有更为充分全面的信息,能够更加有效地缓解评分和信任矩阵稀疏的问题,从而更好地反映用户的兴趣偏好。然后,在降噪自编码器模型对评论信息进行处理之前,先通过卷积神经网络模型对其进行初步的处理,将提取出来的有效特征再放入降噪自编码器模型中,这样可以通过多次提取,从而得到评论文本更加有效地紧凑表示。最后,使用三个降噪自编码器模型分别用来处理评分、信任和评论信息,得到相应的预测向量并进行加权融合,从而更为准确地建模用户偏好。
附图说明
图1是本发明实施例的基于卷积神经网络与降噪自编码器的信息推荐方法及系统的基于卷积神经网络与降噪自编码器的信息融合推荐模型的结构图。
图2是本发明实施例的基于卷积神经网络与降噪自编码器的信息推荐方法及系统的卷积神经网络模型的结构图。
图3是本发明实施例的基于卷积神经网络与降噪自编码器的信息推荐方法及系统的降噪自编码器模型的结构图。
具体实施方式
本实施例以基于卷积神经网络与降噪自编码器的信息推荐方法为例,以下将结合具体实施例和附图对本发明进行详细说明。
请参阅图1、图2和图3,示出本发明实施例提供的一种基于卷积神经网络与降噪自编码器的信息推荐方法及系统。
在本发明实施例的推荐系统中,假设有M个用户组成的集合U={u1,u2,...,uM}和N个项目组成的集合I={i1,i2,...,iN}。评分、信任以及评论数据通常隐含了用户的潜在偏好信息,是推荐算法采用的主要数据。用户-项目评分矩阵RM×N={ru,i}表示所有用户对所有项目的评分,其中ru,i表示用户u对项目i的评分。用户-用户信任矩阵TM×M={tu,v}表示用户两两之间的信任值,其中tu,v表示用户u对用户v的信任值,值为1表示信任,值为0表示不信任。用户-项目评论矩阵XM×N={xu,i}表示所有用户对所有项目的喜好程度值,其中xu,i表示用户u对项目i的喜好程度值。其中“0”表示用户u没有对该项目进行评价;“1”表示非常不满意;“2”表示不满意;“3”表示一般;“4”表示满意;“5”表示非常满意。本实施例的任务是为每个用户u生成一个包含N个项目的推荐列表,以满足用户u的需求。
1.多种数据信息分析
本实施例利用的信息包括:评分信息、信任信息、评论信息。
对于评分信息,评分的分数为1到5之间的整数,其中1表示“不喜欢”,5表示“喜欢”。在预处理过程中,为了简化模型,过滤掉评分数量小于5的用户和项目,并且在信任数据中也只保留相对应的用户。
对于信任信息,直接利用社交网络的二值信任关系,即取值只能为1或0,分别对应“信任”或“非信任”关系。
对于评论信息,文本信息包括两种,一种是用户对物品的评论信息,从这种信息中可以分析用户的购买和评分行为;另一种是物品的简介信息,从这种信息中可以分析物品的特征和属性。为了简单起见,这里采用第一种文本信息,即用户对物品的评论信息。
2.深度学习模型
下面介绍本实施例模型中用到的卷积神经网络(CNN)、降噪自编码器(DAE)。
2.1.卷积神经网络
CNN模型普遍用于计算机视觉的开发。但目前很多研究学者已经开始将CNN应用于信息检索、自然语言处理以及推荐系统领域。CNN模型强大的卷积操作,可有效地提取输入文本的隐藏特征,很大程度上提高了推荐系统的性能。CNN模型由两部分组成:一部分是生成局部特征的卷积层;另一部分是将卷积层产生的特征进行pooling(max/min/average)的池化层,即选择最大、最小或平均的局部特征作为输入数据的最终表示。因此CNN模型通过过滤函数,以并行的方式沿着固定大小的滑动窗口处理输入序列,最终输出序列的隐藏特征矩阵,再经过池化层输出具有代表性部分的隐藏特征向量。由于CNN模型是并行处理输入序列的,因此该模型可以隐藏一部分处理时延,具有良好的处理效率。
图2是一个处理输入文本序列的一层CNN模型,也是本实施例模型CNN部分的整体流程图。在将输入进行一次卷积和池化操作后,生成最终的向量表示。其中,输入评论文本D,经过嵌入层转化为由词向量构成的矩阵X,通过卷积层的过滤函数并行地进行加权卷积,生成特征映射矩阵。然后对特征映射矩阵中的元素进行池化操作,从而得到卷积层生成的特征映射矩阵的局部特征映射向量
卷积层可以有效地提取连续ws个相邻词的特征(ws表示滑动窗口的大小),这一操作在处理输入序列时是并行的,因此卷积神经网络具有良好的处理效率。
2.2.降噪自编码器
为了解决稀疏性问题,可以基于降噪自编码器(DAE)模型的思想来构建CDAEIF模型。DAE模型是在传统自动编码器的基础上获得的一种新型生成式模型。DAE通过加入噪声影响原始的输入数据来增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,从其噪声版本重构干净的输入数据,获得更加准确的特征表示,从而防止深度神经网络的过度拟合。通常,中间层的输出表示输入数据的紧凑表示,可以用于任何其他任务。
DAE引入噪声的方法有两种:一种是在输入数据中随机加入高斯噪声;另一种是随机覆盖某些输入数据,将其替换为0。图3展示了简单版DAE模型,也是本实施例的模型DAE部分的整体流程图,使用的是第二种方法引入噪声。其中编码过程把带有噪声的数据x*作为输入,然后进行编码获得数据x的隐含特征h;解码过程对编码特征进行解码重构,从而获得重构后的数据具体过程可由式(I)和式(II)表示。
h=f(x*)=σ(wex*+be) (I)
其中,x*∈RN为引入噪声后的输入向量,h∈Rk表示编码向量(其中k表示隐因子),we∈Rk×N和wd∈RN×k为权重矩阵,be∈Rk和bd∈RN表示偏置向量。f和g是非线性转换函数,常用的有sigmoid函数,tanh函数以及relu函数。
与传统自动编码器一样,DAE训练的主要目的有两个:一是减小数据的真实分布与隐层分布间的差距;二是减小重构损失,以求恢复原始数据更多的细节。
其中,l(·)是计算重构误差的损失函数,比如平方损失或者交叉熵损失,λ是一个控制模型的复杂性的超参数,Ω(·)是一种利用L2范数(即欧几里得范数)的正则化项。
3.本实施例的CDAEIF模型
为了更好地融合评分、信任以及评论信息,提高推荐精度,本实施例提出了基于卷积神经网络与降噪自编码器的信息融合推荐模型(information fusion recommendationmodel based on convolution neural network and denoising auto-encoder,简称CDAEIF)。主要分为以下几步:首先,对CDAEIF模型的整体结构进行了简单的描述,并对涉及到的主要概念及其含义进行了相应的说明。然后,介绍了CDAEIF的CNN模型,详细描述了如何通过CNN模型来处理输入的评论信息,从而生成隐藏特征向量,进而生成用户u对所有项目的喜好程度值所构成的向量。最后,详细地介绍了CDAEIF的DAE模型,描述了如何通过三个并列的DAE模型来处理输入的评分、信任和评论信息,生成相应的预测向量,并对其进行加权融合,从而为目标用户生成相应的推荐列表。
3.1.CDAEIF模型结构
本实施例的CDAEIF模型的结构如图1所示。在该图中,以一个用户u的推荐为例来进行说明。这个模型主要包括两部分:左侧为卷积神经网络CNN,用于处理评论信息;右侧为由共享层联合起来的三个并列的降噪自编码器DAE,分别用来处理评分、信任和评论信息。其中D表示用户u对项目i的评论文本,X表示用户u对项目i的评论文本转化成的词向量矩阵,f是卷积之后的上下文特征向量,nf是池化之后的评论文本表示向量,a表示用户u对项目i的喜好程度概率向量,表示用户u对所有项目的喜好程度值所构成的向量,和分别表示用户u评分和信任数据的有噪声版本,ZR,ZT和ZX分别表示从评分数据、信任数据和评论数据中学习u的潜在用户偏好,P表示用户u的综合用户偏好,和分别表示用户u的评分和信任数据的预测向量,表示用户u对所有项目的喜好程度值的预测向量,Q表示用户u的推荐用户偏好。这些符号中,除了X为矩阵外,其余均为向量。涉及到的主要符号及其含义如表1所示。
表1模型参数的符号及含义
3.2.CDAEIF的CNN模型
CDAEIF的CNN模型的目标是,对用户对项目的评论信息做初步的处理,提取文本的隐藏特征向量,进而得出用户对所有项目的喜好程度值所构成的向量。图2为CDAEIF的CNN模型的整体框架图。从图中可以清楚地看到,本实施例的CNN结构一共包含四层,分别为:嵌入层,卷积层,池化层以及输出层。
首先,嵌入层把一个用户u对一个项目i的评论文本D转化成一个数字矩阵,方便下一步卷积层的操作。由于评论文本是由一串单词组成的,因此通过连接评论中的词向量来把文本表示为一个矩阵。其中词向量是随机初始化或者用预训练的词嵌入模型来进行初始化。生成的初始化词向量矩阵为X={x1,x2,...,xs},其中X∈Rd×s,xi∈Rd表示词向量,d为词向量的维度,s为评论的长度。若遇到未包含的词,则赋予d维正态分布的随机向量。其中xi表示输入的文本中第i个词的词向量。
接下来,卷积层用于提取文本特征。文本信息本质上不同于信号处理或者计算机视觉。因此,使用卷积结构来对评论文本进行分析。
将评论信息的词嵌入矩阵X传入到卷积层,用来提取输入文本的上下文特征。假设输入文本中第i个词的上下文特征表示为则该特征值是通过卷积层中滑动窗口内的第j个共享权重参数计算获得的,其中ws表示滑动窗口的大小,该值决定了CNN模型在提取第i个词的特征时,其上下文中所包含词的数量。卷积层的工作方式如式(1)所示:
其中,*表示在卷积层计算中的卷积操作,即滑动窗口内的第j个过滤函数对其在窗口内的ws个词向量进行非线性并行处理;为偏置向量;h函数表示一个非线性激活函数。非线性激活函数有sigmoid函数,tanh函数以及relu函数,使用relu来避免梯度消失的问题,但是却造成了优化收敛慢,并且可能产生一个效果不好的局部最小值。
尽管经过卷积层生成了输入文本的特征矩阵F,但其不能作为文本的最终表示。主要有两点原因。一方面是由于在卷积层中的每一个权重都将对文本进行处理,从而生成了上下文特征向量fj,即对文本特征的提取是重复的,而其中大多数上下文特征对模型性能的提高不能起到很大的作用。另一方面是由于文本长度不固定,使得CNN模型生成的上下文特征向量的长度也不固定,这将对输入文本的隐藏特征的后续应用造成困难。因此需要利用池化操作对卷积层的输出做进一步的处理,从而生成具有代表性的文本特征向量。
然后,将卷积层生成的特征矩阵传入到池化层,对其做进一步的隐藏特征提取,从中提取分布式表示,并且通过池化操作来将文本特征向量长度固定到一个定长的特征向量中。经过卷积操作,一个评论被表示成nf个文本特征向量,每个文本特征向量都是变长。在本实施例的池化层将使用max-pooling作为池化操作,即通过从每个上下文特征向量fj中提取最大值,将评论的最终表示转化为一个长度为nf的表示向量。具体操作如式(2)所示:
nf=[max(f1),max(f2),...,max(fnf)] (2)
最后,在输出层,从前面几层获得的高阶特征应该被转化来完成一个特定的任务。因此,本实施例将评论文本的表示向量nf映射到一个k维的空间中用于top-N推荐任务,其中,k表示评论文本情感分析最终生成的类别数,本实施例中假设k为5,这是与以往模型不同的地方。最终通过使用传统的非线性映射函数来生成评论文本潜在特征,具体过程如式(3)所示:
其中,和表示映射矩阵,和表示偏置向量。最终生成的隐藏特征向量为a∈Rk,向量的每一项表示一个用户对一个项目的喜好程度值的概率,从上往下分别为“非常不满意”到“非常满意”。每个向量选取概率最大的值对应的数作为该用户对该项目的喜好程度值,进一步组成该用户对所有项目的喜好程度值形成的向量。
最终,将CNN对评论文本的处理过程可以表示为cnn函数,因此用户u对项目i的评论文本信息的隐藏特征的计算可以表示成式(4)。
实现CNN模型的完整过程如算法1所示。
3.3.CDAEIF的DAE模型
在上一小节的基础上,通过DAE模型对CNN处理后输出的评论结果信息进行进一步的处理。将用户u的有噪声版本的评分和信任数据结合CNN的输出结果分别输入三个DAE模型中,对其进行并行处理,分别学习其潜在用户偏好,通过编码和解码过程,输出最终的评分、信任和评论数据的预测向量。
类似于标准的DAE模型,CDAEIF模型同样是含有一个隐藏层的神经网络。不同的是,一共输入三种不同的信息,从而实现更好的推荐效果。本实施例的DAE模型如图1右半部分所示。DAE主要包含三层,分别为:编码层、权重层和解码层,即从一个编码层开始,然后是一个权重层,最后是一个解码层。从本质上解决了如何通过权重层从三类信息中学习表示来平衡贡献和相关正则化来交换信息的问题。
在本实施例的方法中,利用DAE模型的思想来构建CDAEIF模型。DAE的基本思想是通过一个狭窄的网络,从有噪声的版本中重构数据。最常见的选择是高斯噪声和drop-out噪声。本实施例在模型中使用了drop-out噪声,主要是用来防止过度拟合。DAE的目标是使隐藏层发现更多鲁棒性的特征,并且防止简单学习恒等函数。含有噪声的输入来自于条件分布在使用drop-out噪声的情况下,以概率q去擦除原始矩阵,即每个值都随机置0。对于每一个项目x的输入R、T和X,相应的有噪声版本定义可以表示成式(5)和(6)。
根据图1,首先,使用编码层将评分、信任和评论数据输入映射到低维空间,编码层可以表示成式(7)、(8)和(9)。
其中,分别表示用户u评分、信任和评论数据的有噪声版本;分别表示从评分数据、信任数据和评论数据中学习的u的潜在用户偏好;维数为k的参数W∈Rn×k,V∈Rm×k,H∈Rn×k,b∈Rn×1,c∈Rm×1,d∈Rn×1被用来训练去学习用户偏好;f(·)是一个element-wise映射函数(如恒等函数f(x)=x或sigmoid函数本实施例采用的是sigmoid函数。
然后,提出一个权重层来整合这三种表示。一种直接的方法是直接连接每个用户的评分、信任和评论数据。然而,有不同分布的评分和信任数据之间的相关性是高度非线性的。这意味着方差越大的信息对输出的影响越大,即使另一个可能包含重要的信息。
为了平衡这三种数据在CDAEIF中的影响,本实施例设计了加权隐层来融合这三种表示。通过这种方式,可以轻松地调优这些信息的贡献来建模用户偏好,具体过程可以表示成式(10)。
最后,DAE模型通过三个解码器层从噪声数据中重构原始输入数据。这三层定义可以表示成式(11)、(12)和(13)。
其中,为每个用户u的评分、信任和评论数据的预测值;参数W′∈Rn×k,V′∈Rm×k,H′∈Rn×k,b′∈Rn×1,c′∈Rm×1,d′∈Rn×1被训练用来重构输入;g(·)也是一个element-wise映射函数,本实施例利用了sigmoid函数。
为了学习紧凑表示,本实施例同时考虑了评分、信任和评论的重构误差,现有的研究大多忽略了信任关系和评论信息。然后得到CDAEIF的目标函数,使其最小化可以表示成式(IV)。
其中,l(·)为计算重构误差的损失函数,λ是一个控制模型的复杂性的超参数,Ω(·)是一种利用L2范数的正则化项,定义可以表示成式(V)。
特别地,在本实施例中对l(·)利用了element-wise交叉熵损失,它被证明了最适合top-N推荐的情况。由于g(·)是一个sigmoid函数,交叉熵损失等于logistic损失,定义可以表示成式(VI)。
实现DAE模型的完整过程如算法2所示。
本实施例通过合并方式对用户u进行相应地推荐。常见的合并方式有串联、平均以及加权。为了与上文提到的用户u的综合用户偏好Pu保持一致,本实施例采用加权的方式。在上文所述预测向量以及平衡用户偏好的超参数的基础上,生成最终推荐结果的过程可以表示成式(14)。
以及,一种基于卷积神经网络与降噪自编码器的信息推荐的实现系统,其用于实现如上所述的基于卷积神经网络与降噪自编码器的信息推荐方法,该实现系统包括:
用户数据信息分析模块,用于对与用户相关的评分信息、信任信息和评论信息进行分类和过滤;
卷积神经网络模型模块,用于对用户的评论信息做出初步的处理,提取文本的隐藏特征矩阵,并最终得到用户对所有项目的隐藏特征向量;
降噪自编码器模型模块,通过在原始的输入数据中加入噪声,以增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,从其噪声版本重构干净的输入数据,获得更加准确的特征表示;
信息融合推荐模型模块,将三个并列的降噪自编码器模型模块输出的与评分信息、信任信息和评论信息相应的预测向量进行加权融合,生成目标用户的推荐列表。
进一步地,所述卷积神经网络模型模块包括嵌入层模块、卷积层模块、池化层模块和输出层模块;所述降噪自编码器模型模块包括编码层模块、权重层模块和解码层模块;
所述嵌入层模块用于将用户对项目的评论文本转换为数字矩阵;
所述卷积层模块用于提取所述评论文本的上下文特征,并生成上下文特征向量;
所述池化层模块用于将所述上下文特征向量固定到一个定长的特征向量中;
所述输出层模块用于使用非线性映射函数生成所述评论文本的潜在特征;
所述编码层模块用于将评分信息、信任信息和评论信息输入并映射到低维空间;
所述权重层模块用于根据评分信息、信任信息和评论信息的非线性相关性,对所述评分信息、所述信任信息和所述评论信息进行加权融合;
所述解码层模块用于从噪声数据中重构原始输入数据,并输出所述评分信息、所述信任信息和所述评论信息的数据预测值。
上述基于卷积神经网络与降噪自编码器的信息推荐方法及系统中,利用卷积神经网络和降噪自编码器两个深度学习模型,从评分、信任、评论等数据中学习用户偏好。同时,提出了一种新的相关正则化方法来建立用户偏好在不同方面的关系,以提高性能。主要在三个方面对其进行了改进。首先,增加了对评论信息的融合,评论文本相对于评分和信任数据来说,包含有更为充分全面的信息,能够更加有效地缓解评分和信任矩阵稀疏的问题,从而更好地反映用户的兴趣偏好。然后,在降噪自编码器模型对评论信息进行处理之前,先通过卷积神经网络模型对其进行初步的处理,将提取出来的有效特征再放入降噪自编码器模型中,这样可以通过多次提取,从而得到评论文本更加有效地紧凑表示。最后,使用三个降噪自编码器模型分别用来处理评分、信任和评论信息,得到相应的预测向量并进行加权融合,从而更为准确地建模用户偏好。
需要说明的是,以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于卷积神经网络与降噪自编码器的信息推荐方法,其特征在于,包括以下步骤:
步骤一,深度分析数据信息,对评分信息、信任信息和评论信息进行分类和过滤;
步骤二,深度学习卷积神经网络模型和降噪自编码器模型,所述卷积神经网络模型通过过滤函数,以并行的方式沿着固定大小的滑动窗口处理输入序列,最终输出序列的隐藏特征矩阵,再经过池化层输出具有代表性部分的隐藏特征向量;所述降噪自编码器模型通过加入噪声影响原始的输入数据来增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,使用噪声版本重构输入数据,获得特征表示,避免所述卷积神经网络模型过度拟合;
步骤三,利用降噪自编码器模型原理建立基于卷积神经网络与降噪自编码器的信息融合推荐模型;首先将所述评论信息输入所述卷积神经网络模型,生成隐藏特征向量,进而生成用户对所有项目的喜好程度值所构成的向量;然后用三个并列的所述降噪自编码器模型分别处理输入的评分信息、信任信息和评论信息,生成相应的预测向量,并对生成的所述预测向量进行加权融合;最终生成目标用户的相应的推荐列表;
其中,步骤二中的所述卷积神经网络模型包括嵌入层、卷积层、池化层和输出层;
所述嵌入层用于把一个用户对一个项目的评论文本D转化成一个数字矩阵,通过连接评论中的词向量来把文本表示为一个矩阵,其中词向量是随机初始化或者用预训练的词嵌入模型进行初始化,生成的初始化词向量矩阵为,其中,表示词向量,d为词向量的维度,s为评论的长度;当遇到未包含的词,则赋予d维正态分布的随机向量,其中表示输入的文本中第个词的词向量;
所述卷积层用于提取输入文本的上下文特征,输入文本中第i个词的上下文特征表示为,所述上下文特征的特征值通过卷积层中滑动窗口内的第个共享权重参数计算获得,其中ws表示滑动窗口的大小,ws值决定了所述卷积神经网络模型在提取第个词的特征时,其上下文中所包含词的数量;卷积层的工作方式如式(1)所示:
所述池化层用于提取隐藏特征,从隐藏特征中提取分布式表示,并且通过池化操作来将文本特征向量长度固定到一个定长的特征向量中;所述池化层使用max-pooling作为池化操作,通过从每个上下文特征向量中提取最大值,将所述评论信息的最终表示转化为一个长度为的表示向量,具体操作如式(2)所示:
所述输出层使用非线性映射函数生成评论文本潜在特征,具体过程如式(3)所示:
所述降噪自编码器模型包括编码层、权重层和解码层;
所述编码层用于将评分、信任和评论数据输入映射到低维空间,编码层可以表示成式(7)、(8)和(9),
其中,分别表示用户评分、信任和评论数据的有噪声版本;分别表示从评分数据、信任数据和评论数据中学习的的潜在用户偏好;维数为k的参数,,,,,被用来训练去学习用户偏好;是一个element-wise映射函数,该映射函数包括恒等函数或sigmoid函数;
所述权重层用于将评分、信任和评论数据进行加权整合,以得到建模用户的偏好,具体过程表示成式(10),
所述解码层用于从噪声数据中重构原始输入数据,评分、信任和评论数据的定义表示成式(11)、(12)和(13),
2.如权利要求1所述的基于卷积神经网络与降噪自编码器的信息推荐方法,其特征在于,步骤一中的所述数据信息包括所述评分信息、所述信任信息和所述评论信息;所述评分信息按照喜好程度分为五级并分别对应赋值为1至5;所述信任信息分为信任关系和非信任关系并对应赋值为1和0;所述评论信息采用用户对物品的评价信息,所述评论信息用于分析用户的购买和评分行为。
3.如权利要求1所述的基于卷积神经网络与降噪自编码器的信息推荐方法,其特征在于,步骤二中的所述卷积神经网络模型用于对用户的所述评论信息做出初步的处理,提取文本的隐藏特征向量,进而得出用户对所有项目的喜好程度值所构成的向量。
5.如权利要求4所述的基于卷积神经网络与降噪自编码器的信息推荐方法,其特征在于,步骤二中的所述降噪自编码器模型用于将用户的含有噪声版本的所述评分信息和所述信任信息的数据结合所述卷积神经网络模型的输出结果分别输入三个降噪自编码器模型中,对其进行并行处理,分别学习其潜在用户偏好,通过编码和解码过程,输出最终的评分、信任和评论数据的预测向量;所述噪声采用高斯噪声或者drop-out噪声,所述噪声用于防止数据的过度拟合;
所述降噪自编码器模型进一步用于使隐藏层发现更多鲁棒性的特征,并且防止简单学习恒等函数;含有噪声的输入来自于条件分布,在使用drop-out噪声的情况下,以概率q去擦除原始矩阵,将每个值都随机置0;对于每一个项目的输入、和,相应的有噪声版本定义可以表示成式(5)和(6),
7.一种基于卷积神经网络与降噪自编码器的信息推荐的实现系统,其用于实现如权利要求1-6任一项所述的基于卷积神经网络与降噪自编码器的信息推荐方法,其特征在于,该实现系统包括:
用户数据信息分析模块,用于对与用户相关的评分信息、信任信息和评论信息进行分类和过滤;
卷积神经网络模型模块,用于对用户的评论信息做出初步的处理,提取文本的隐藏特征矩阵,并最终得到用户对所有项目的隐藏特征向量;
降噪自编码器模型模块,通过在原始的输入数据中加入噪声,以增加自身编码和重构数据时的难度,通过一个狭窄的神经网络,从其噪声版本重构干净的输入数据,获得更加准确的特征表示;
信息融合推荐模型模块,将三个并列的降噪自编码器模型模块输出的与评分信息、信任信息和评论信息相应的预测向量进行加权融合,生成目标用户的推荐列表。
8.如权利要求7所述的基于卷积神经网络与降噪自编码器的信息推荐的实现系统,其特征在于,所述卷积神经网络模型模块包括嵌入层模块、卷积层模块、池化层模块和输出层模块;所述降噪自编码器模型模块包括编码层模块、权重层模块和解码层模块;
所述嵌入层模块用于将用户对项目的评论文本转换为数字矩阵;
所述卷积层模块用于提取所述评论文本的上下文特征,并生成上下文特征向量;
所述池化层模块用于将所述上下文特征向量固定到一个定长的特征向量中;
所述输出层模块用于使用非线性映射函数生成所述评论文本的潜在特征;
所述编码层模块用于将评分信息、信任信息和评论信息输入并映射到低维空间;
所述权重层模块用于根据评分信息、信任信息和评论信息的非线性相关性,对所述评分信息、所述信任信息和所述评论信息进行加权融合;
所述解码层模块用于从噪声数据中重构原始输入数据,并输出所述评分信息、所述信任信息和所述评论信息的数据预测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911313428.0A CN111127146B (zh) | 2019-12-19 | 2019-12-19 | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911313428.0A CN111127146B (zh) | 2019-12-19 | 2019-12-19 | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111127146A CN111127146A (zh) | 2020-05-08 |
CN111127146B true CN111127146B (zh) | 2023-05-26 |
Family
ID=70499695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911313428.0A Active CN111127146B (zh) | 2019-12-19 | 2019-12-19 | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111127146B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598223B (zh) * | 2020-05-15 | 2023-10-24 | 天津科技大学 | 一种基于属性和结构深度融合的网络嵌入方法及其模型 |
CN112100485B (zh) * | 2020-08-20 | 2024-07-05 | 齐鲁工业大学 | 一种基于评论的评分预测物品推荐方法及系统 |
CN112347362B (zh) * | 2020-11-16 | 2022-05-03 | 安徽农业大学 | 一种基于图自编码器的个性化推荐方法 |
CN112734519B (zh) * | 2021-01-06 | 2022-08-09 | 河北工业大学 | 一种基于卷积自编码器网络的商品推荐方法 |
CN113766281B (zh) * | 2021-09-10 | 2022-11-22 | 北京快来文化传播集团有限公司 | 短视频推荐方法、电子设备和计算机可读存储介质 |
CN114154333B (zh) * | 2021-12-06 | 2023-04-14 | 西安电子科技大学 | 一种大气温度廓线预测方法 |
CN114564652B (zh) * | 2022-04-29 | 2022-09-27 | 江西财经大学 | 基于用户意图与双向偏好的个性化礼物推荐方法与系统 |
CN115759088A (zh) * | 2023-01-10 | 2023-03-07 | 中国测绘科学研究院 | 一种评论信息的文本分析方法及存储介质 |
CN117220287B (zh) * | 2023-11-09 | 2024-02-06 | 四川大学 | 一种发电量预测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105917337A (zh) * | 2013-08-29 | 2016-08-31 | 桑格威迪公司 | 改进太阳能系统的设计及安装报价 |
US10043109B1 (en) * | 2017-01-23 | 2018-08-07 | A9.Com, Inc. | Attribute similarity-based search |
CN108874914A (zh) * | 2018-05-29 | 2018-11-23 | 吉林大学 | 一种基于图卷积与神经协同过滤的信息推荐方法 |
CN109783739A (zh) * | 2019-01-23 | 2019-05-21 | 北京工业大学 | 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法 |
CN109886779A (zh) * | 2019-01-30 | 2019-06-14 | 上海大学 | 一种智能商品推荐系统 |
CN110298264A (zh) * | 2019-06-10 | 2019-10-01 | 上海师范大学 | 基于堆叠降噪自编码器的人体日常行为活动识别优化方法 |
CN110533150A (zh) * | 2019-07-05 | 2019-12-03 | 江西财经大学 | 基于支持向量机回归模型的测试生成与重用系统及方法 |
CN110555132A (zh) * | 2019-08-13 | 2019-12-10 | 北京工业大学 | 一种基于注意力模型的降噪自编码器推荐方法 |
CN111079011A (zh) * | 2019-12-12 | 2020-04-28 | 电子科技大学 | 一种基于深度学习的信息推荐方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146450A (zh) * | 2017-06-16 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 支付方法、客户端、电子设备、存储介质和服务器 |
US11481583B2 (en) * | 2017-12-28 | 2022-10-25 | Intel Corporation | Algorithm management blockchain |
-
2019
- 2019-12-19 CN CN201911313428.0A patent/CN111127146B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105917337A (zh) * | 2013-08-29 | 2016-08-31 | 桑格威迪公司 | 改进太阳能系统的设计及安装报价 |
US10043109B1 (en) * | 2017-01-23 | 2018-08-07 | A9.Com, Inc. | Attribute similarity-based search |
CN108874914A (zh) * | 2018-05-29 | 2018-11-23 | 吉林大学 | 一种基于图卷积与神经协同过滤的信息推荐方法 |
CN109783739A (zh) * | 2019-01-23 | 2019-05-21 | 北京工业大学 | 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法 |
CN109886779A (zh) * | 2019-01-30 | 2019-06-14 | 上海大学 | 一种智能商品推荐系统 |
CN110298264A (zh) * | 2019-06-10 | 2019-10-01 | 上海师范大学 | 基于堆叠降噪自编码器的人体日常行为活动识别优化方法 |
CN110533150A (zh) * | 2019-07-05 | 2019-12-03 | 江西财经大学 | 基于支持向量机回归模型的测试生成与重用系统及方法 |
CN110555132A (zh) * | 2019-08-13 | 2019-12-10 | 北京工业大学 | 一种基于注意力模型的降噪自编码器推荐方法 |
CN111079011A (zh) * | 2019-12-12 | 2020-04-28 | 电子科技大学 | 一种基于深度学习的信息推荐方法 |
Non-Patent Citations (4)
Title |
---|
刘钟涛.结合自编码器和卷积神经网络的推荐系统.《计算机工程与设计》.2021, * |
张硕伟.集成神经网络的Top-N推荐算法研究.《中国优秀硕士学位论文全文数据库信息科技辑》.2019,I138-1483. * |
王咏佳.校园订餐系统的设计与实现.《中国优秀硕士学位论文全文数据库信息科技辑》.2018,I138-379. * |
黄立威等.基于深度学习的推荐系统研究综述.《计算机学报》.2018,第41卷(第7期),1619-1647. * |
Also Published As
Publication number | Publication date |
---|---|
CN111127146A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127146B (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN110287320B (zh) | 一种结合注意力机制的深度学习多分类情感分析模型 | |
CN109977413B (zh) | 一种基于改进cnn-lda的情感分析方法 | |
CN106920147B (zh) | 一种基于词向量数据驱动的商品智能推荐方法 | |
CN111274398B (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
CN111563164B (zh) | 一种基于图神经网络的特定目标情感分类方法 | |
CN109284506A (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
CN112667818B (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN108647226B (zh) | 一种基于变分自动编码器的混合推荐方法 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN112905739B (zh) | 虚假评论检测模型训练方法、检测方法及电子设备 | |
CN112579778A (zh) | 基于多层次的特征注意力的方面级情感分类方法 | |
CN110929034A (zh) | 一种基于改进lstm的商品评论细粒度情感分类方法 | |
CN111753189A (zh) | 一种少样本跨模态哈希检索共同表征学习方法 | |
CN112328900A (zh) | 一种融合评分矩阵和评论文本的深度学习推荐方法 | |
CN111061962A (zh) | 一种基于用户评分分析的推荐方法 | |
CN109389151A (zh) | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 | |
CN109598387A (zh) | 基于双向跨模态注意力网络模型的股价预测方法及系统 | |
CN112487193B (zh) | 一种基于自编码器的零样本图片分类方法 | |
Wu et al. | Optimized deep learning framework for water distribution data-driven modeling | |
Yue et al. | Multiple auxiliary information based deep model for collaborative filtering | |
CN116680363A (zh) | 一种基于多模态评论数据的情感分析方法 | |
Zhang et al. | COS-LDL: Label distribution learning by cosine-based distance-mapping correlation | |
CN115687760A (zh) | 一种基于图神经网络的用户学习兴趣标签预测方法 | |
CN115525819A (zh) | 一种面向信息茧房的跨领域推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |