CN113792810A - 一种基于协同过滤与深度学习的多注意力推荐方法 - Google Patents
一种基于协同过滤与深度学习的多注意力推荐方法 Download PDFInfo
- Publication number
- CN113792810A CN113792810A CN202111102648.6A CN202111102648A CN113792810A CN 113792810 A CN113792810 A CN 113792810A CN 202111102648 A CN202111102648 A CN 202111102648A CN 113792810 A CN113792810 A CN 113792810A
- Authority
- CN
- China
- Prior art keywords
- layer
- attention
- user
- collaborative filtering
- scoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 239000013598 vector Substances 0.000 claims abstract description 61
- 230000004927 fusion Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 18
- 238000005065 mining Methods 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 5
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于协同过滤与深度学习的多注意力推荐方法,属于自然语言处理中的推荐算法领域。本发明包括:输入层,词嵌入层,局部上下文注意力层,多头注意力融合层,相似注意力层,融合决策层。输入层将用户信息文本进行文本处理作为词嵌入层的输入,词嵌入层将数据转化为低维稠密的词向量数据,局部上下文注意力层挖掘向量局部特征与上下文特征,多头注意力融合层利用协同过滤中拆分的评分隐向量作为key融入多头注意力,挖掘浅层的评分向量与评论向量之间深层关联特征,相似注意力层运用欧式距离计算用户与物品之间的相似得分,融合决策层将训练的用户特征与评分特征利用FM模型特征组合的能力,提高模型的对用户评分预测效果。
Description
技术领域
本发明涉及一种基于协同过滤与深度学习的多注意力推荐方法,属于自然语言处理中的推荐算法领域。
背景技术
互联网高速发展,衍生了海量的数据,我们已经进入了一个信息爆炸的时代,每时每刻都有海量信息产生,然而这些信息并不全是个人所关心的,用户从大量的信息中寻找对自己有用的信息也变得越来越困难。另一方面,信息的生产方也在绞尽脑汁的把用户感兴趣的信息送到用户面前,每个人的兴趣又不尽相同,所以可以实现千人千面的推荐系统应运而生。其中基于协同过滤的传统的机器学习方法以及基于深度学习的推荐算法不断被推出,但基于协同过滤的评分模型由于数据的稀疏性与冷启动问题一直严重限制了其推荐效果。诸多研究利用深度模型去挖掘评论文本中的抽象特征,虽取得推荐性能的提升,却忽略了矩阵分解的浅层隐向量特征。如何充分挖掘评论与评分矩阵的特征的以及结合协同过滤算法于深度学习算法的问题迫待解决。
发明内容
本发明要解决的技术问题是:提供一种算法模型,解决评分模型被数据的稀疏性制约性能的问题,解决CNN作为特征的提取工具,却未能很好的解决语句长序特征丢失问题;解决充分挖掘评分隐向量与评论特征之间的深层关系的问题;解决用户特征与物品特征结合推荐的交互问题。
本发明采用的技术方案是:一种基于协同过滤与深度学习的多注意力推荐方法。本发明由六个结构构成,分别是:输入层,词嵌入层,局部上下文注意力层,多头注意力融合层,相似注意力层,融合决策层,具体步骤如下:
第一步:采用Amazon 5-core数据集作为模型的训练集,在输入层中将训练集做特征提取的预处理操作并拆分为用户物品评分矩阵和评论矩阵。
第二步:在词嵌入层中采用协同过滤模型将用户物品评分矩阵分解为用户以及物品隐向量矩阵,并使用与词向量模型将评论数据转化为更易处理的低维稠密的词向量数据。
第三步:运用CNN与全连接网络捕捉词向量局部与全局特征。
第四步:运用多头注意力挖掘评分隐向量与评论向量的多维关系。
第五步:运用欧式距离法计算用户与物品的交互关系。
第六步:运用Softmax激活归一化,后将FM特征组合特征后输入损失函数进行回归训练
所述第一步的输入层是对按比例分割的训练集的文本做预处理和数据清洗,以及数据的分类处理。
所述第二步的词嵌入层是对处理好的文本经过Word2Vec模型得到评论的词向量以及协同过滤模型得到用户以及物品的隐语义矩阵。
所述第三步运用CNN的局部卷积获得局部特征并结合全连接网络捕捉词向量全局特征,使用全连接网络弥补卷积神经网路丢失的全局信息。
所述第四步运用多头注意力挖掘评分隐向量与评论向量的多维关系,深挖用户的评分的浅层特征与用户评论的深层隐含特征之间的深层关系,使得模型能够从用户数据中得到深层训练。
所述第五步欧式距离法计算用户与物品的交互关系,不依赖于传统的静态关系推荐,转而使用用户与物品一一对应的动态关联运算,提高了用户预测评分的针对性。
所述第六步使用Softmax多分类层是对特征向量进行归一化处理输出用户评分并运用FM特征组合进行用户特征物品特征的深层融合,最后使用损失函数进行回归训练。
Softmax函数中假设有一个数组v,vi表示v中的第i个元素,j为数组中的元素总数,e为自然常数,Softmax可表达如下:
Word2Vec是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。用于训练词向量以重新架构词向量和文本的映射,以此表示词对词之间的关系。
CNN是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一,在推荐算法领域可以方便的在数据保真的前提下进行数据的压缩和提取。
FM模型是在线性回归的基础上加上了交叉特征,通过学习交叉特征的权重从而得到每个交叉特征的重要性。
本发明的有益效果是:
1.本发明基于神经网络的方法,并结合传统的协同过滤算法,运用深度学习挖掘深层的语句特征,运用协同过滤挖掘浅层的评分数据,充分合理挖掘利用数据,解决数据稀疏问题。
2.本发明运用CNN与全连接网络用以捕捉词向量局部与全局特征。
3.本发明加入了多头注意力机制将用户的评分隐向量作为多头注意力Key值,挖掘评分隐向量与评论向量的多维关系。
4.本发明加入了欧式距离提取用户与物品之间的动态关联权重。模型与现有相关的多个优秀模型都有显著的提升。
附图说明
图1为一种基于协同过滤与深度学习的多注意力推荐方法流程图;
图2为一种基于协同过滤与深度学习的多注意力推荐方法模型图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步描述。
实施例1:如图1,2所示,一种基于协同过滤与深度学习的多注意力推荐方法,本方法由六层结构构成,分别为:输入层,词嵌入层,局部上下文注意力层,多头注意力融合层,相似注意力层,融合决策层,输入层将用户信息文本进行文本处理作为词嵌入层的输入,词嵌入层主要包含传统协同过滤模型与词向量模型,其主要职责在于将数据转化为更易处理的低维稠密的词向量数据,局部上下文注意力层是用于挖掘向量局部特征与上下文特征,多头注意力融合层是利用协同过滤中拆分的评分隐向量作为key融入多头注意力,挖掘浅层的评分向量与评论向量之间深层关联特征,相似注意力层主要包含运用欧式距离计算用户与物品之间的相似得分,拥有挖掘用户对不同物品中存在的感情偏向,将训练的用户特征的与评分特征利用FM模型特征组合的能力,学习特征间的交互关系,提高了模型的对用户评分预测效果。
具体步骤如下:
S1:采用Amazon 5-core数据集作为模型的训练集,在输入层中将训练集做特征提取的预处理操作并拆分为用户物品评分矩阵和评论矩阵。输入文本,进行数据预处理,对文本进行分词、去掉停用词等操作。
S2:将评论文本通过单词向量Word2Vec模型,使每一个单词都映射到向量中,并按照词序拼接起来,组成用户的聚合评论文本,具体形式如下所示:
Du=[w1...,wi-1,wi,wi+1,...wl]
wi表示第i个的词向量,Du表示用户u的评论词向量集。
在评分矩阵模块中,本模型使用BiasSVD模型,它是由基本的奇异值分解算法演变而来。传统的矩阵分解是通过将评分矩阵拆分为两个低阶的矩阵,分别代表了用户的隐含特征与物品的隐含特征每个维度的内积表达了用户对物品的喜爱程度,然后进行回归预测出结果,具体公式如下:
biu=bi+bu+μ
其中puk与分别表示含有k维隐含向量的用户数u以及物品数i的低阶矩阵,μ表示总体数据的平均值,代表了这个数据集的基调,bi表示项目的评分偏置,bu表示用户的评分偏置,表示的预测用户物品评分矩阵,用户评分矩阵和商品评分矩阵分别表示具有k维隐向量的m个用户的以及n个物品的评分集合。BiasSVD_Um代表BiasSVD模型分解的用户m的隐向量集合,BiasSVD_In代表BiasSVD模型分解的物品n的隐向量集合。
S3:在局部上下文注意力层中将用户的评论文本向量数组Du作为输入,其中表示第j个卷积核,﹡代表了卷积操作,表示数组的切片,ω代表了滑动窗口的大小同时也是卷积核j窗口的宽度,为第j个卷积核在位置i上的卷积输出,cu表示用户u评论词向量的局部卷积集合,其中Wa表示全连接权重矩阵,bl∈Rl表示长度为l的偏置,ReLU为激活函数,其中wa表示全连接权重矩阵,表示全局注意力特征矩阵,表示局部上下文注意力层用户评论的输出,同理,表示物品评论的输出,公式如下所示:
S4:多头注意力融合层利用评分隐向量作为key融入多头注意力,挖掘浅层的评分向量与评论向量之间深层关联特征,key=BiascSVD_U,经过线性层变换得到 为调节因子,防止出现内积过大的问题。Su(Q,K,V)为多头注意力输出,多头注意力将输入的Q,K,V拆分n份,其中分别是第n个头对Q,K,V的线性变化参数矩阵,表示对n个头的注意力训练结果。Wl表示将n个头拼接后输入线性层的训练的权重矩阵,MHFu表示用户u评论与评分的多头注意力融合层得分,同理物品评论与物品评分为MHFi,具体公式如下。
S5:相似注意力层主要包含运用欧式距离计算用户与物品之间的相似得分。M中的每一个元素都代表用户与物品的关联对权重,R为欧氏距离计算公式,计算得到二者的相关系数。Mu,*代表了用户u与物品上下文特征的相关性权重,同理Mi,*代表了物品i与用户上下文的相关性权重,Softmax为激活函数,SMAu,SMAi分别为用户u与物品i在相似注意力层的得分,具体公式如下。
M=R(MHFu,MHFi)
SMAu=softmax(MHFu⊙Mu,*)
SMAi=softmax(MHFi⊙Mi,*)
S6:融合决策层将训练的用户特征的与评分特征利用FM模型特征组合的能力,学习特征间的交互关系,提高了模型的对用户评分预测效果。其中Z表示用户与物品在相似注意力层的输出拼接。zi表示内部的第i个特征,zj同理,ω0,ωi以及ωij表示待学习的权重值,是预测评分。其中ru,i是真实评分,采用λθ||θ||2作为正则化来防止模型的产生过拟合,E表示平方损失函数的回归方法,具体公式如下。
本发明涉及一种基于协同过滤与深度学习的多注意力推荐方法,涉及自然语言处理中的推荐算法领域。本发明由六个层结构构成,分别为输入层,词嵌入层,局部上下文注意力层,多头注意力融合层,相似注意力层,融合决策层。
其中,所述输入层将用户信息文本进行文本处理作为词嵌入层的输入,所述词嵌入层主要包含协同过滤模型与词向量模型,其主要职责在于将数据转化为更易处理的低维稠密的词向量数据,所述局部上下文注意力层是用于挖掘向量局部特征与上下文特征,所述多头注意力融合层,利用评分隐向量作为key融入多头注意力,挖掘浅层的评分向量与评论向量之间深层关联特征,所述相似注意力层主要包含运用欧式距离计算用户与物品之间的相似得分,拥有挖掘用户对不同物品中存在的感情偏向,将训练的用户特征的与评分特征利用FM模型特征组合的能力,学习特征间的交互关系,提高了模型的对用户评分预测效果。
以上结合附图对本发明的具体实施方式做了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (7)
1.一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:由六个结构构成,分别是:输入层,词嵌入层,局部上下文注意力层,多头注意力融合层,相似注意力层,融合决策层,具体步骤如下:
第一步:采用Amazon 5-core数据集作为模型的训练集,在输入层中,将训练集做特征提取预处理操作并拆分为用户物品评分矩阵和评论矩阵;
第二步:在词嵌入层采用包含传统机器学习的协同过滤模型将用户物品评分矩阵分解为用户以及物品隐向量矩阵,并使用词向量模型将评论数据转化为更易处理的低维稠密的词向量数据;
第三步:运用CNN卷积神经网络与全连接网络捕捉词向量局部与全局特征;
第四步:运用多头注意力挖掘评分隐向量与评论向量的多维关系;
第五步:运用欧式距离法计算用户与物品的交互关系;
第六步:运用Softmax激活归一化,后将FM特征组合特征后输入损失函数进行回归训练。
2.根据权利要求1所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第一步的输入层是对按比例分割的训练集的文本做预处理和数据清洗,以及数据的分类处理。
3.根据权利要求2所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第二步的词嵌入层是对处理好的文本经过Word2Vec模型得到评论的词向量以及协同过滤模型得到用户以及物品的隐语义矩阵。
4.根据权利要求3所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第三步运用CNN的局部卷积获得局部特征并结合全连接网络捕捉词向量全局特征,使用全连接网络弥补卷积神经网路丢失的全局信息。
5.根据权利要求4所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第四步运用多头注意力挖掘评分隐向量与评论向量的多维关系,深挖用户的评分的浅层特征与用户评论的深层隐含特征之间的深层关系,使得模型能够从用户数据中得到深层训练。
6.根据权利要求5所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第五步欧式距离法计算用户与物品的交互关系,使用用户与物品一一对应的动态关联运算。
7.根据权利要求6所述的一种基于协同过滤与深度学习的多注意力推荐方法,其特征在于:所述第六步的使用Softmax多分类层是对特征向量进行归一化处理输出用户评分并运用FM特征组合进行用户特征物品特征的深层融合,最后使用损失函数进行回归训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111102648.6A CN113792810B (zh) | 2021-09-21 | 2021-09-21 | 一种基于协同过滤与深度学习的多注意力推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111102648.6A CN113792810B (zh) | 2021-09-21 | 2021-09-21 | 一种基于协同过滤与深度学习的多注意力推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113792810A true CN113792810A (zh) | 2021-12-14 |
CN113792810B CN113792810B (zh) | 2023-09-26 |
Family
ID=79183945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111102648.6A Active CN113792810B (zh) | 2021-09-21 | 2021-09-21 | 一种基于协同过滤与深度学习的多注意力推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113792810B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115034202A (zh) * | 2022-04-13 | 2022-09-09 | 天津大学 | 基于增强方式融合语法信息的深度学习文本匹配方法 |
CN115795177A (zh) * | 2022-11-25 | 2023-03-14 | 人民网股份有限公司 | 社交媒体内容推荐方法及装置 |
CN118378956A (zh) * | 2024-06-21 | 2024-07-23 | 杭州杰竞科技有限公司 | 一种基于ai学员课后点评方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196946A (zh) * | 2019-05-29 | 2019-09-03 | 华南理工大学 | 一种基于深度学习的个性化推荐方法 |
CN110609948A (zh) * | 2019-04-03 | 2019-12-24 | 华南理工大学 | 一种基于多层次注意力机制和场感知分解机的推荐方法 |
CN112598462A (zh) * | 2020-12-19 | 2021-04-02 | 武汉大学 | 基于协同过滤和深度学习的个性化推荐方法及系统 |
-
2021
- 2021-09-21 CN CN202111102648.6A patent/CN113792810B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609948A (zh) * | 2019-04-03 | 2019-12-24 | 华南理工大学 | 一种基于多层次注意力机制和场感知分解机的推荐方法 |
CN110196946A (zh) * | 2019-05-29 | 2019-09-03 | 华南理工大学 | 一种基于深度学习的个性化推荐方法 |
CN112598462A (zh) * | 2020-12-19 | 2021-04-02 | 武汉大学 | 基于协同过滤和深度学习的个性化推荐方法及系统 |
Non-Patent Citations (2)
Title |
---|
WEIJIANG LI ET AL.: "BidirectionalLSTMwithself-attentionmechanismandmulti-channel features for sentimentclassification", 《NEUROCOMPUTING》, vol. 387, pages 63 * |
王永贵 等: "融合注意力机制的深度协同过滤推荐算法", 《计算机工程与应用》, vol. 13, no. 55, pages 8 - 14 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115034202A (zh) * | 2022-04-13 | 2022-09-09 | 天津大学 | 基于增强方式融合语法信息的深度学习文本匹配方法 |
CN115795177A (zh) * | 2022-11-25 | 2023-03-14 | 人民网股份有限公司 | 社交媒体内容推荐方法及装置 |
CN115795177B (zh) * | 2022-11-25 | 2023-04-28 | 人民网股份有限公司 | 社交媒体内容推荐方法及装置 |
CN118378956A (zh) * | 2024-06-21 | 2024-07-23 | 杭州杰竞科技有限公司 | 一种基于ai学员课后点评方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113792810B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363753B (zh) | 评论文本情感分类模型训练与情感分类方法、装置及设备 | |
CN109472024B (zh) | 一种基于双向循环注意力神经网络的文本分类方法 | |
CN110929030B (zh) | 一种文本摘要和情感分类联合训练方法 | |
CN113792810B (zh) | 一种基于协同过滤与深度学习的多注意力推荐方法 | |
CN111581401B (zh) | 一种基于深度相关性匹配的局部引文推荐系统及方法 | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN110765260A (zh) | 一种基于卷积神经网络与联合注意力机制的信息推荐方法 | |
CN111274398B (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
CN110990564B (zh) | 一种基于情感计算与多头注意力机制的负面新闻识别方法 | |
CN111414461B (zh) | 一种融合知识库与用户建模的智能问答方法及系统 | |
CN112926303B (zh) | 一种基于BERT-BiGRU的恶意URL检测方法 | |
CN110825845A (zh) | 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法 | |
CN112328900A (zh) | 一种融合评分矩阵和评论文本的深度学习推荐方法 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN112988975A (zh) | 一种基于albert和知识蒸馏的观点挖掘方法 | |
CN104834747A (zh) | 基于卷积神经网络的短文本分类方法 | |
CN110175221B (zh) | 利用词向量结合机器学习的垃圾短信识别方法 | |
CN107194422A (zh) | 一种结合正反向实例的卷积神经网络关系分类方法 | |
CN112256939A (zh) | 一种针对化工领域的文本实体关系抽取方法 | |
CN111984791A (zh) | 一种基于注意力机制的长文分类方法 | |
CN112487200B (zh) | 一种改进的包含多重边信息与多任务学习的深度推荐方法 | |
CN112884045B (zh) | 基于多视角的随机删边嵌入模型的分类方法 | |
Chen et al. | Deep neural networks for multi-class sentiment classification | |
CN114004220A (zh) | 一种基于cpc-ann的文本情绪原因识别方法 | |
CN112561599A (zh) | 一种融合域特征交互的基于注意力网络学习的点击率预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |