CN111274494B - 结合深度学习和协同过滤技术的复合标签推荐方法 - Google Patents

结合深度学习和协同过滤技术的复合标签推荐方法 Download PDF

Info

Publication number
CN111274494B
CN111274494B CN202010062726.3A CN202010062726A CN111274494B CN 111274494 B CN111274494 B CN 111274494B CN 202010062726 A CN202010062726 A CN 202010062726A CN 111274494 B CN111274494 B CN 111274494B
Authority
CN
China
Prior art keywords
software
label
list
labels
tagdc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010062726.3A
Other languages
English (en)
Other versions
CN111274494A (zh
Inventor
徐玲
李�灿
张文燕
鄢萌
雷晏
徐洲
张小洪
王成良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Central China Technology Development Of Electric Power Co ltd
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202010062726.3A priority Critical patent/CN111274494B/zh
Publication of CN111274494A publication Critical patent/CN111274494A/zh
Application granted granted Critical
Publication of CN111274494B publication Critical patent/CN111274494B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9562Bookmark management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及结合深度学习和协同过滤技术的复合标签推荐方法,包括如下步骤:从目标软件信息站点收集历史软件项目,进行预处理得到规范化描述的矩阵;建立TagDC‑DL模型和TagDC‑CF模型,将所有规范化描述的矩阵作为输入,分别得到所有标签的多标签可信度列表和基于相似度的置信概率列表,利用线性加权模块得到每个标签的最终置信概率列表;给定新的软件项目,先进行预处理再输入上述两个模型,计算新的软件项目中每个标签的最终置信概率列表,通过得到的最终置信概率列表中的概率值进行排序,概率值最大的N个标签则为推荐标签。该方法利用软件项目之间的语义相似性及其自身的深层语义特征可获得更准确的标签推荐。

Description

结合深度学习和协同过滤技术的复合标签推荐方法
技术领域
本发明涉及软件检测技术领域,特别涉及结合深度学习和协同过滤技术的复合标签推荐方法。
背景技术
软件信息站点(例如StackOverflow,AskDifferent和AskUbuntu)对于软件开发人员而言越来越重要。这些站点支持开发人员在网上发布信息,以共享知识,交流新技术并进行协作。通常,这些站点的内容(例如,问题,答案,项目描述,标签等)被称为软件项目。标签是一个简短的标签,由几个单词组成,作为元数据提供给软件项目。标签对于有效地组织和分类这些站点的内容以及为开发人员简化各种操作非常有用。高质量标签应该足够简洁和准确,以概括软件项目的最重要主题。
软件信息站点使用户可以用自己的语言随意地标记他们的帖子。但是,标签的选择不仅取决于开发人员的专业知识和语言技能,还取决于其表达偏好。他们选择合适的标签并不容易。随着软件信息站点的扩展,选择合适标签的两个主要挑战是标签同义词和标签爆炸。
标签同义词描述了具有相同或相似含义的标签现象。这样的同义词标签通常具有不同的表达形式,例如首字母缩写词或完整的拼写,有连字符或没有连字符,有空格或无空格,大写或小写等。即使是被普遍认可的标签也有不同的描述,例如,一些开发人员经常把``c#”描述为``csharp”,``javascript”为``js”。标签爆炸表明不断增加的软件项目也导致了标签的急剧增长。例如,到目前为止,StackOverflow上有超过58 000个标签。在这些软件信息站点上产生了如此大量的标签,不可避免地会产生噪音。软件项目的分类变得越来越差,这严重影响了用户查询的准确性和速度。
自动标签推荐技术可以通过重用现有的高质量标签来应对这些挑战。现有的自动标签推荐技术可以大致分为两大类:基于内容的方法和基于协作过滤的方法。基于内容的方法(例如FastTagRec和TagCNN)采用传统的机器学习或深度学习技术基于历史软件项目的内容来构造多标签分类器。这些方法可以通过学习软件项目和标签之间的关系来分配多个标签。基于协同过滤的方法(如TagMulRec)注重相似的历史软件项目的标签通过基于当前推荐的软件项目和历史对象之间的语义相似性定位TOP-N类似的对象。
基于内容的方法通常依赖于足够数量的训练样本,对于训练样本较少的标签,这种方法很难进行精确分类。而基于协同过滤的方法仅仅考虑了与当前软件项目相似的很小一部分软件项目,缺乏从全局的分析。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:能准确给出软件项目标签推荐的方法。
为解决上述技术问题,本发明采用如下技术方案:结合深度学习和协同过滤技术的复合标签推荐方法,包括如下步骤:
S100:数据准备,从目标软件信息站点收集历史软件项目,并进行如下处理:
S101:对所述软件项目中提取项目描述和标签,并去除噪音,得到规范化描述和高质量标签;
S102:所有规范化描述组成语料库,对语料库中的所有单词进行特征提取,将每个单词表示为d维向量,从而得到每个单词和与该单词相对应的词向量;组成每个规范化描述的所有单词的词向量构成该规范化描述的矩阵;
S200:建立模型,分别建立TagDC-DL模型和TagDC-CF模型,将所有规范化描述的矩阵作为输入,分别输入到TagDC-DL模型和TagDC-CF模型中,分别得到所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后利用一个线性加权模块得到每个标签的最终置信概率列表;
S300:标签推荐,给定一个新的软件项目,首先经过S100的预处理得到新的软件项目对应的待预测规范化描述的矩阵,将该待预测规范化描述的矩阵作为输入,输入到S200中建立的模型中,得到新的软件项目对应的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后再计算新的软件项目中每个标签的最终置信概率列表,最后通过将新的软件项目的最终置信概率列表中的概率值进行排序,概率值最大的N个标签则为推荐标签。
作为改进,所述S101得到规范化描述和高质量标签的过程如下:
S1011:设置标签出现阈值,遍历提取的历史软件项目中的所有标签:如果标签的出现次数小于或等于阈值,则该标签便为低频标签,删除所有低频标签;
如果历史软件项目中某个软件项目中的所有标签都为低频标签则删除该软件项目;
S1012:使用带有默认参数的NLTK进行预处理过程,包括大小写转换,文本分词,停用词删除,词干提取和特殊标点符号删除。
作为改进,所述S102的具体过程为:利用Word2vec工具包中的skip-gram模型对语料库进行特征提取,所述Word2vec的输出是语料库词典,该语料库词典包括所有规范化描述的单词和与该单词相对应的词向量。
作为改进,所述S200建立所述TagDC-DL模型计算所有标签的多标签可信度列表的过程如下:
S211:单词表示学习:
设oi表示软件项目,oi.q∈Rl×d表示oi对应的规范化描述的矩阵,其中l是描述的长度,而d是单词向量的大小,令xi=Rd是与描述oi.d中的第i个单词相对应的d维单词向量;
首先规范化描述的矩阵oi.d=[x1,x2,……,xl]输入Bi-LSTM层以提取当前单词的上下文信息,Bi-LSTM模型提取序列信息并将上下文信息概括为隐藏状态hi,在Bi-LSTM中,前向LSTM生成的前向上下文信息
Figure BDA0002375007120000031
与其先前的存储单元
Figure BDA0002375007120000032
隐藏状态
Figure BDA0002375007120000033
和当前输入向量xi,而反向LSTM生成的反向上下文信息
Figure BDA0002375007120000034
对应于其下一个存储单元
Figure BDA0002375007120000035
隐藏状态
Figure BDA0002375007120000036
和当前输入向量xi,可以分别按公式(1)计算得到:
Figure BDA0002375007120000037
Figure BDA0002375007120000038
将单词的词向量及其对应的上下文信息向量hi∈R2n拼接起来,记为x′i,x′i∈Rl×d如公式(2)所示:
Figure BDA0002375007120000039
x′i=[xi,hi] (2);
S212:描述表示学习:
将规范化描述oi.d用学习加强的矩阵表示X∈Rl×d=[x′1,x′2,……,x′l],并将X输入卷积层以提取本地特征,当卷积层中的卷积核滑过一个规范化描述时,可以检测到该规范化描述上不同位置的特征,采用零填充策略对每个规范化描述的边界进行建模,给定一个带有偏差项b的内核Ki,根据公式(3)计算得到每个规范化描述的特征图ci
Figure BDA00023750071200000310
其中,f表示ReLU激活函数,使用多个卷积核来获取规范化描述中的各种特征图,所有I个特征向量按公式(4)组合起来:
C=[c1,c2,……,cI] (4);
采用三个并行的CNN网络,它们的卷积核窗口大小分别为1、2、3,并将卷积层三个分支的所有特征图拼接起来作为规范化描述的基本语义特征图D∈Rl×3I
S213:标签概率计算:
S213a:S212生成的基本语义特征图D被输入主胶囊层以提取更高级别的特征:
当滑过基本语义特征图D时,在每个卷积核Kj中执行一系列卷积运算,以输出一系列$d$维胶囊,类似于卷积层中的计算,主胶囊中的胶囊pj∈Rd,可以按公式(5)计算得到:
Figure BDA0002375007120000044
其中,g表示非线性Squash激活函数,可以将矢量输出的长度限制在0和1之间,以表示每个类别的概率,而b是偏差项;
S213b:在主胶囊层中一共含有J个卷积核时,胶囊特征图可以按公式(6)排列得到:
P=[p1,p2,……,pJ] (6);
S213c:在主胶囊层上执行动态路由算法以生成标签胶囊层的胶囊,其中第j个标签胶囊可以按公式(7)计算得到:
Figure BDA0002375007120000041
uj|i=Wijui
Figure BDA0002375007120000042
其中,uj|i是预测向量,它可以通过将主胶囊层的输出向量ui乘以权重矩阵Wij得到,cij动态路由的整个迭代过程相关的耦合系数,耦合系数cij是由Softmax函数计算得到,该函数可以确保第j个胶囊的所有耦合系数之和为1;
S213d:公式(8)中定义的损失函数来指导TagDC-DL的训练过程。
Figure BDA0002375007120000043
其中,Tj表示第j个标签是否为当前软件项目的真实标签,当且仅当当前规范化描述选择了第j个标签时,该值为1,m+和m-是上限和下限的阈值,分别设置为0.9和0.1。|vj|是向量vj的模长,λ是固定值0.5,它可以通过减小所有类的向量的模长来停止初始学习,t表示软件信息站点中候选标签的数量,vj的模长表示分配给软件项目的每个标签的多标签置信概率;
S213e:获得每个规范化描述的所有标签的多标签可信度列表,第i个规范化描述的置信概率列表
Figure BDA0002375007120000051
由公式(9)计算得到:
Figure BDA0002375007120000052
作为改进,所述S200建立所述TagDC-CF模型计算基于相似度的置信概率列表的过程如下:
S221:计算oi.d所有历史软件对应的规范化描述的矩阵之间的余弦相似度,找到与oi相似度最大的TOP-N个软件项目,它们的标签用于推荐oi的标签;
S222:设oi.d包含l个单词,则其规范化描述发向量表示形式Di如公式(10)所示:
Figure BDA0002375007120000053
假设oj是另一个软件项目,并以Dj作为规范化描述的向量表示,则可以通过Di和Dj之间的余弦相似性来度量oi和oj之间的相似性,如公式(11)所示:
Figure BDA0002375007120000054
S223:令Ti=[t1,t2,……,tn]是oi的标签列表,其中n是候选标签的数量,在公式(12)中计算的基于相似度的置信概率列表是TOP-N个最相似对象的所有相似度与oi及它们自己的标签列表Tj的加权和;
Figure BDA0002375007120000055
作为改进,所示S200得到每个标签的最终置信概率列表过程为:
将获得的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表作为输入带入公式公式(14),得到软件项目所对应的所有标签的最终置信列表:
Figure BDA0002375007120000056
其中,α∈[0,1],表示多标签置信度列表对于最终置信列表的贡献权重,β∈[0,1]表示基于相似度的置信度列表对于最终置信列表的贡献权重。
TagDC-DL是一种基于内容的方法,它为标签推荐任务构建了深度学习模型多标签分类器。为了提高标签推荐的准确性,我们使用Bi-LSTM模型提取每个单词的上下文信息以增强其语义表达,然后使用具有多个卷积核的CNN模型进一步提取局部特征。具体来说,由于其在多标签文本分类中的优势,我们利用胶囊网络为每个标签输出多标签置信度。同时我们发现如果先前标记的软件项目在文本上与当前软件项目相似,则与相似软件项目相关联的标签也可能与当前软件项目相关。
TagDC-CF将应用软件项目之间的相似性,这是一种协作过滤技术,可以为每个标签输出基于相似性的置信度。我们将这两个模块视为互补,并且深度学习技术和协作过滤技术的结合有望改善我们模型的性能,以实现更准确的分类。
相对于现有技术,本发明至少具有如下优点:
1.本发明方法使用单词学习增强型CNN胶囊的深度学习模块(TagDC-DL)和协作过滤模块(TagDC-CF)。它从两个不同的角度分析标签推荐任务,并利用软件项目之间的语义相似性及其自身的深层语义特征来获得更准确的标签推荐。
2.将TagDC与两种最先进的基线方法FastTagRec和TagCNN进行了比较,对九种不同大小的数据集进行了比较。实验结果表明,与两种最先进的方法(FastTagRec和TagCNN)相比,该方法具有更好的性能,并且有了实质性的改进。此外,评估结果还表明,TagDC比其不完整的版本更好,这突出了将TagDC-DL和TagDC-CF结合在一起的好处
附图说明
图1为TagDC的总体工作流程。
图2为TagDC-DL是单词学习增强型CNN胶囊模块。
图3为TagDC,TagDC-DL和TagDC-CF在所有数据集上的Recall@5值。
图4为TagDC,TagDC-DL和TagDC-CF在所有数据集上的Recall@10值。
图5为当改变TOP-N的数量时试验用的五个数据集上的实验结果的趋势,图5aRecall@5,图5b Recall@10,图5c Precision@5,图5d Precision@10,图5e F1-score@5,图5f F1-score@10。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提出了一种用于标签推荐任务的新型复合模型TagDC,该模型是两个模块(即TagDC-DL和TagDC-CF)的组合。该方法利用了每个软件对象描述中的信息,并结合了深度学习技术和协作过滤技术的优势。详细地,TagDC-DL通过从历史软件对象及其对应的标签中学习来构造多标签分类器。TagDC-CF是TagDC-DL的补充部分,可以通过定位与当前推荐软件对象相对应的最重要信息,从描述之间的语义相似性方面增强我们模型的有效性。在九个数据集上进行了广泛的实验,从不同方面评估了我们的TagDC。实验结果不仅表明我们的方法可以大大提高标签推荐任务的水平,而且还可以将TagDC-DL和TagDC-CF结合使用我们的方法
一种结合深度学习和协同过滤技术的复合标签推荐方法,包括如下步骤:
S100:数据准备,从目标软件信息站点收集历史软件项目,并进行如下处理:
S101:对所述软件项目中提取项目描述和标签,并去除噪音,得到规范化描述和高质量标签;这样,我们可以确保提取每个软件项目都含有带多个标签的描述;
具体地,得到规范化描述和高质量标签的过程如下:
S1011:设置标签出现阈值,遍历提取的历史软件项目中的所有标签:如果标签的出现次数小于或等于阈值,则该标签便为低频标签,删除所有低频标签;
如果历史软件项目中某个软件项目中的所有标签都为低频标签则删除该软件项目;
这样我们就得到的所有如那件项目都至少含有一个高质量标签。低频标签的主要原因有两个。一种是标签本身存在错误。另一个是标签对应于相对少见的主题,因此开发人员并未广泛认可它们。接下来,对于开发人员问答站点中的软件项目,我们将标题和正文组合为问题描述。另外,我们从正文中删除代码片段(参见图1),该正文位于特定的HTML元素组件(<code>……<\code>)中。
S1012:使用带有默认参数的NLTK(自然语言工具包)进行预处理过程,包括大小写转换,文本分词,停用词删除,词干提取和特殊标点符号删除。在删除停用词时,我们使用英语停用词的标准词汇表。删除特殊标点符号时,我们会保留一些含有特殊符号的标签,例如“c#”,“c++”,“.net”等,这些单词中的特殊符号我们不会进行处理。最后,我们从文本中删除了无意义的孤立数字。
S102:所有规范化描述组成语料库,对语料库中的所有单词进行特征提取,将每个单词表示为d维向量,从而得到每个单词和与该单词相对应的词向量;规范化描述都是由多个词组成,在进行S102中的特征提取时,还需要进行分词,因为分词是一个非常成熟的现有技术,此处不在详述。组成每个规范化描述的所有单词的词向量构成该规范化描述的矩阵;
具体过程为:利用Word2vec工具包中的skip-gram模型对语料库进行特征提取,所述Word2vec的输出是语料库词典,该语料库词典包括所有规范化描述的单词和与该单词相对应的词向量。Word2vec是现有的工具,此处不再赘述。
S200:建立模型,分别建立TagDC-DL模型和TagDC-CF模型,将所有规范化描述的矩阵作为输入,分别输入到TagDC-DL模型和TagDC-CF模型中,分别得到所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后利用一个线性加权模块得到每个标签的最终置信概率列表;
建立所述TagDC-DL模型计算所有标签的多标签可信度列表的过程如下:
S211:单词表示学习:通过将单词向量与其周围的上下文信息相结合,可用于增强原始单词向量的语义表达能力。
设oi表示软件项目,oi.q∈Rl×d表示oi对应的规范化描述的矩阵,其中l是描述的长度,而d是单词向量的大小,令xi=Rd是与描述oi.d中的第i个单词相对应的d维单词向量;
首先规范化描述的矩阵oi.d=[x1,x2,……,xl]输入Bi-LSTM层以提取当前单词的上下文信息,Bi-LSTM模型提取序列信息并将上下文信息概括为隐藏状态hi,在Bi-LSTM中,前向LSTM生成的前向上下文信息
Figure BDA0002375007120000081
与其先前的存储单元
Figure BDA0002375007120000082
隐藏状态
Figure BDA0002375007120000083
和当前输入向量xi,而反向LSTM生成的反向上下文信息
Figure BDA0002375007120000084
对应于其下一个存储单元
Figure BDA0002375007120000085
隐藏状态
Figure BDA0002375007120000086
和当前输入向量xi,可以分别按公式(1)计算得到:Bi-LSTM是现有神经网络模型固定层,此处不再赘述。
Figure BDA0002375007120000087
Figure BDA0002375007120000088
将单词的词向量及其对应的上下文信息向量hi∈R2n拼接起来,记为x′i,就能够获取更加准确而全面的单词表示形式x′i,x′i∈Rl×d如公式(2)所示:
Figure BDA0002375007120000089
x′i=[xi,hi] (2);
S212:描述表示学习:我们在每个描述上使用卷积层中的卷积核来提取局部特征并生成特征图。
将规范化描述oi.d用学习加强的矩阵表示X∈Rl×d=[x′1,x′2,……,x′l],并将X输入卷积层以提取本地特征,当卷积层中的卷积核滑过一个规范化描述时,可以检测到该规范化描述上不同位置的特征,采用零填充策略对每个规范化描述的边界进行建模,给定一个带有偏差项b的内核Ki,根据公式(3)计算得到每个规范化描述的特征图ci
Figure BDA00023750071200000810
其中,f表示ReLU激活函数,使用多个卷积核来获取规范化描述中的各种特征图,所有I个特征向量按公式(4)组合起来:
C=[c1,c2,……,cI] (4);
采用三个并行的CNN网络,它们的卷积核窗口大小分别为1、2、3,并将卷积层三个分支的所有特征图拼接起来作为规范化描述的基本语义特征图D∈Rl×3I;CNN网络是现有网络,是本领域公知常识,为节约篇幅,此处不再赘述。
S213:标签概率计算:通过基于胶囊网络计算每个标签类别的模长,我们可以获得每个软件项目的多标签置信度列表,然后将几个具有最高置信度概率的适当标签分配给当前软件项目。
近来,具有动态路由的胶囊网络在文本表示领域取得了可喜的成就。胶囊包含一组局部不变的神经元,这些神经元可有效识别高级特征中的空间关系,并通过将其转换为向量输出而不是标量输出来进一步在更宽的空间中表示这些特征。因此,我们在卷积层之后使用胶囊网络模型。
主胶囊层本质上是卷积胶囊层,它可以汇总生成的高级特征的细节。
S213a:S212生成的基本语义特征图D被输入主胶囊层以提取更高级别的特征:
当滑过基本语义特征图D时,在每个卷积核Kj中执行一系列卷积运算,以输出一系列$d$维胶囊,类似于卷积层中的计算,主胶囊中的胶囊pj∈Rd,可以按公式(5)计算得到:
Figure BDA0002375007120000093
其中,g表示非线性Squash激活函数,可以将矢量输出的长度限制在0和1之间,以表示每个类别的概率,而b是偏差项;
S213b:在主胶囊层中一共含有J个卷积核时,胶囊特征图可以按公式(6)排列得到:
P=[p1,p2,……,pJ] (6);
S213c:在主胶囊层上执行动态路由算法以生成标签胶囊层的胶囊,其中第j个标签胶囊可以按公式(7)计算得到:
Figure BDA0002375007120000091
uj|i=Wijui
Figure BDA0002375007120000092
其中,uj|i是预测向量,它可以通过将主胶囊层的输出向量ui乘以权重矩阵Wij得到,cij动态路由的整个迭代过程相关的耦合系数,通常,耦合系数表示相邻层中的两个胶囊之间的连接强度,为从主胶囊层的第i个胶囊到标签胶囊层的第j个胶囊的对数先验概率。耦合系数cij是由Softmax函数计算得到,该函数可以确保第j个胶囊的所有耦合系数之和为1;
S213d:如图2所示,最终标签胶囊层接受主胶囊层中所有胶囊的输出向量,并最终生成t个标签胶囊以便通过上述动态路由进行分类,其中t表示软件信息站点中候选标签的数量,vj的模长表示分配给软件项目的每个标签的多标签置信概率,我们注意到所有标签胶囊的长度之和不等于1,因此胶囊网络具有同时识别多个类别的能力,这适合于我们的标签推荐任务。
公式(8)中定义的损失函数来指导TagDC-DL的训练过程。
Figure BDA0002375007120000101
其中,Tj表示第j个标签是否为当前软件项目的真实标签,当且仅当当前规范化描述选择了第j个标签时,该值为1,m+和m-是上限和下限的阈值,分别设置为0.9和0.1。|vj|是向量vj的模长,λ是固定值0.5,它可以通过减小所有类的向量的模长来停止初始学习,t表示软件信息站点中候选标签的数量,vj的模长表示分配给软件项目的每个标签的多标签置信概率;
S213e:获得每个规范化描述的所有标签的多标签可信度列表,第i个规范化描述的置信概率列表
Figure BDA0002375007120000102
由公式(9)计算得到:
Figure BDA0002375007120000103
所述TagDC-CF模型计算基于相似度的置信概率列表的过程如下:
S221:计算oi.d所有历史软件对应的规范化描述的矩阵之间的余弦相似度,找到与oi相似度最大的TOP-N个软件项目,它们的标签用于推荐oi的标签;由于不同的描述通常包含不同数量的单词,因此,为了衡量软件项目之间的相似性,我们对矩阵中所有单词的词向量进行平均值计算,以确保每个描述的形状都一致。
S222:设oi.d包含l个单词,则其规范化描述发向量表示形式Di如公式(10)所示:
Figure BDA0002375007120000104
假设oj是另一个软件项目,并以Dj作为规范化描述的向量表示,则可以通过Di和Dj之间的余弦相似性来度量oi和oj之间的相似性,如公式(11)所示:
Figure BDA0002375007120000111
S223:令Ti=[t1,t2,……,tn]是oi的标签列表,其中n是候选标签的数量,在公式(12)中计算的基于相似度的置信概率列表是TOP-N个最相似对象的所有相似度与oi及它们自己的标签列表Tj的加权和;
Figure BDA0002375007120000112
例如,假设Dp和Dq是最类似于Di的TOP-2软件项目,与Di的余弦相似度为0.3和0.2,并且Tp=[1,1,0]和Tq=[1,0,1]分别是它们对应的标签列表。基于公式,Di的基于相似度的置信概率列表的计算过程如下:
Figure BDA0002375007120000113
所示S200得到每个标签的最终置信概率列表过程为:
将获得的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表作为输入带入公式公式(14),得到软件项目所对应的所有标签的最终置信列表:
Figure BDA0002375007120000114
其中,α∈[0,1],表示多标签置信度列表对于最终置信列表的贡献权重,β∈[0,1]表示基于相似度的置信度列表对于最终置信列表的贡献权重。
S300:标签推荐,给定一个新的软件项目,首先经过S100的预处理得到新的软件项目对应的待预测规范化描述的矩阵,将该待预测规范化描述的矩阵作为输入,输入到S200中建立的模型中,得到新的软件项目对应的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后再计算新的软件项目中每个标签的最终置信概率列表,最后通过将新的软件项目的最终置信概率列表中的概率值进行排序,概率值最大的N个标签则为推荐标签。
本发明方法有效性分析试验:
实验设置
通过对9个数据集进行实验来评估TagDC的有效性:一个大型数据集StackOverflow@large,三个中型数据集AskUbuntu,Unix和Severfault,五个小型数据集Stackoverflow@small,Database Administarator,Freecode,Coderview和Wordpress。其中,StackOverflow@small包含从2008年7月1日到2008年12月10日发布的软件项目,而StackOverflow@large选择在2014年7月1日之前发布的软件项目。对于其他七个网站,我们收集2016年12月31日之前发布的内容。对于每个数据集,我们根据80%-10%-10%的比率将这些数据集随机分为训练集,验证集和测试集。
表1
Figure BDA0002375007120000121
如前所述,首先删除低频标签和软件项目。对于三个中型和五个小型信息站点,如果它们的所有标签出现的次数少于50次,我们将删除这些软件项目。对于大型站点,如果它们的所有标签出现的次数少于10000次,则我们将其删除。表1列出了十个数据集的统计信息。第4列和第5列列出了在删除低频软件项目和标签之后剩余的软件项目和标签的数量。
显然,参数设置会影响标签推荐的准确性。对于TagDC-CF,我们考虑与当前对象相似的TOP-N个软件项目,默认情况下N的值设置为50。对于TagDC-DL模块,我们将所有数据集的最大描述长度设置为100。对于五个小规模站点和三个中等规模站点,将单词嵌入向量维度设置为200维,对于大型站点将单词嵌入向量维度设置为300维。我们用mini-batch进行训练,并把它们的值根据软件信息站点的大小进行设置,StackOverflow@large设置为1000,其他站点设置为400。我们使用Adam优化算法,将初始学习率设置为0.001,衰减系数设置为0.1,并且采用了早停策略来及时停止训练以防止过拟合。具体来说,每一层的网络参数设置如下:
Bi-LSTM层:隐藏单元数目为256。
卷积层:三种卷积核的大小分别为1、2、3,卷积核数目为256,步幅为1,激活函数为ReLU。
主胶囊层:主胶囊的维度为16,该层的卷积核大小为(5,1),步幅为2,卷积核数目为48,激活函数为Squash。
标签胶囊层:标签胶囊的维度为16。
所有实验均在带有TITAN V卡和12G RAM的Keras上进行。操作系统和软件平台是Ubuntu 16.04,Python 3.6.4和Keras 2.1.5。
评价指标
为了验证所提出方法的有效性,我们采用了在标签推荐任务中广泛使用的三个评估指标:Recall@k,Precision@k和F1-score@k。k的值被设置为5和10。令T表示由n个软件项目oi(1≤i≤n)组成的测试集。使用训练好的的模型,我们最终可以为每个软件项目推荐概率最高的前k个标签
Figure BDA0002375007120000131
并将实际标签集定义为
Figure BDA0002375007120000132
这三个度量的定义表示如下:
Recall@k表示oi的标签
Figure BDA0002375007120000133
从推荐列表中选择而来的百分比,可以由公式(14)计算得到,测试集T中所有软件项目的平均预测召回率可以由公式(15)计算得到。
Figure BDA0002375007120000134
Figure BDA0002375007120000135
Precision@k是推荐列表
Figure BDA0002375007120000136
中真实标签的百分比,可以由公式(16)计算得到,测试集T中所有软件项目的平均预测精确度可以由公式(17)计算得到。
Figure BDA0002375007120000137
Figure BDA0002375007120000138
F1-score@k可以看作是Precision@k和Recall@k的调和平均值。对于oi,其F1-score@ki由公式(18)计算。测试集T的平均预测F1值可以由公式(19)定义。
Figure BDA0002375007120000141
Figure BDA0002375007120000142
结果和分析
与最新方法相比,我们提出的TagDC的效果如何?
我们将TagDC方法与两种最先进的技术(即TagCNN,FastTagRec)在9种不同大小的数据集上进行了比较(见表1)。FastTagRec是一种先进标签推荐方法,该方法采用单层神经网络来构建分类器,为软件项目分配多个标签,而TagCNN基于CNN进行标签分类,这两种方法都是基于内容的方法。为了进行比较,我们使用作者提供的这两种方法的开源代码或实验设置,在数据集上重新实现了它们表现最佳的模型。上面介绍的三个评估指标Recall@k,Precision@k和F1-score@k用于评估,k表示推荐标签的数量,其值根据先前的工作被设置为5和10。
表2
Figure BDA0002375007120000143
Figure BDA0002375007120000151
表2展示了三种方法的结果,其中三种方法的实验结果的最佳值以粗体形式突出显示。从总体上看,在所有六个评估指标上,在9个数据集中的6个上,所提出的方法相比TagCNN和FastTagRec均取得了更好的结果。更重要的是,对于主要评估指标Recall@k,我们的方法在所有数据集中均取得了最佳结果。考虑实验结果在所有信息站点上的平均值,我们的方法相对于TagCNN在Recall@5,Precision@5,F1-score@5,Recall@10,Precision@10和F1-score@10分别提高了4.1%,1.3%,1.6%,1.7%,0.6%和0.7%。相对于FastTagRec方法在Recall@5,Precision@5,F1-score@5,Recall@10,Precision@10和F1-score@10上的提升分别为8.5%,4.1%,3.7%,7.9%,2.4%,2.7%。
此外,要确定TagDC是否相对于两种最新的基准方法实现了重大改进,我们针对所有评估指标(Recall@k,Precision@k,F1-score@k)根据公式(20)进行提升率计算。
Figure BDA0002375007120000152
TagDC-DL和TagDC-CF对TagDC有什么贡献?
图3和图4显示了我们在TagDC-DL和TagDC-CF以及完整模型TagDC上的测试结果。与TagDC-DL和TagDC-CF相比,完整模型TagDC始终比精简后的部件具有更好的性能。从结果可以看出,TagDC-DL对TagDC的性能做出了重大贡献。TagDC-CF作为TagDC-DL的补充部分,可以帮助TagDC在Recall@5的基础上实现约0.2%-3.5%的提升,在Recall@10的基础上实现0.3%-2.9%的提升。特别地,TagDC在Freecode上的表现要比TagDC-DL好得多。
其中EMc是我们提出的方法的结果,而EMo是基准方法在所有评估指标方面的结果。
比较三种方法的实验结果平均值,我们的TagDC相对TagCNN在Recall@5,Precision@5,F1-score@5,Recall@10,Precision@10和F1-score@10上的改善率分别为15.7%,2.1%,3.0%,11.3%,0.8%,1.1%,相对FastTagRec在Recall@5,Precision@5,F1-score@5,Recall@10,Precision@10和F1-score@10上的改善率分别为27%,6.2%,6.6%,37.3%,3.0%和4.1%。因此,我们可以得出结论,我们的方法在所有数据集上都明显优于两种基准方法,并且具有明显的提升。这证明了在处理小型和大型软件信息站点时我们模型的适用性和有效性。
TagDC-DL的不同变体的有效性如何?
验证TagDC-DL模块中的每个组件是否对实验结果有用。我们构造了TagDC-DL的以下五个变体(如表3所示),并在最常用的数据集StackOverflow@small上评估它们对整个TagDC-DL的贡献:。
·TagDC-CB:没有单词表示学习,没有胶囊网络和边缘损失函数。
·TagDC-WCB:没有胶囊网络和边缘损失函数。
·TagDC-WCCB:没有边缘损失函数。
·TagDC-CCM:没有单词表示学习。
·TagDC-DL:图3中描述的整个模块。
表3
Figure BDA0002375007120000161
特别是,对于前三个没有边缘损失函数的模型,我们采用具有Sigmoid作为损失函数的全连接层来计算每个候选标签的独立置信概率。我们还使用二进制交叉熵来训练这三个模型。
为了直观地显示TagDC-DL的这些差异之间的差异,我们使用六个评估指标来评估性能。实验结果在表4中给出。
表4
Figure BDA0002375007120000171
从结果可以看出,单词表示学习,胶囊网络和边缘损失函数对于提高TagDC-DL的性能都是有用的。借助胶囊网络,TagDC-WCCB的Recall@5,Precision@5,0.9%、1.3%,0.6%,0.6%,0.8%,0.1%和0.3%通过TagDC-WCB获得$F1-score@5$,$Recall@10$,$Precision@10$和$F1-score@10$。同样,TagDC-DL和TagDC-WCCB之间的性能差距表明,边缘损失函数可以帮助提高1.4\%,0.6\%,0.7\%,0.5\%,0.3\%和0.2\%的性能。$Recall@5$,$Precision@5$,$F1-score@5$,$Recall@10$,$Precision@10$和$F1-score@10$。并比较了TagDC-CB和TagDC-WCB,TagDC-CCM和TagDC-DL的结果,我们可以发现单词表示学习过程也有助于达到一定程度的改进。最终,TagDC-DL的Recall@5达到83.7%,Recision@5$达到35.3%,F1-score@5$达到47.5%,Recall@10$达到90.7%,Recall@10%达到19.5%。$和31.2\%$F1-score@10$,它们都是最佳性能。这五个变化的实验结果再次证明,TagDC-DL可以从更全面的语义表达和更准确的特征提取中受益,从而获得标签推荐任务。
更改所选TOP-N个类似软件项目的数量对TagDC-CF的性能有什么影响?
所考虑的相似软件项目的数量对TagDC-CF的有效性具有重要影响。我们选择了五个小型数据集,包括StackOverflow@small,AskDifferent,Database Administarator,Freecode,Coderview和Wordpress来进行这组实验。对于每个数据集,我们在其上执行TagDC-CF并将N的值从10逐渐增加到100。图5a到图5f分别描述了当改变TOP-N的数量时,这五个数据集上的实验结果的趋势。图5a到图5f这六个图分别描述了随着N值变化,本发明TagDC-CF方法在Recall@5,Recall@10,Precision@5,Precision@10,F1-score@5和F1-score@10这六个评价指标上的变化。
从实验结果中,我们可以看到参数N对评估结果有影响。对于所有五个数据集,随着N值的增加,就这六个评估指标而言,实验结果首先稳定增长,然后增长速度变慢。当N达到某个值时,结果开始减小,这是因为考虑到了与当前推荐对象的相似性较低的软件项目,不可避免地会引入噪声。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.结合深度学习和协同过滤技术的复合标签推荐方法,其特征在于:包括如下步骤:
S100:数据准备,从目标软件信息站点收集历史软件项目,并进行如下处理:
S101:对所述软件项目中提取项目描述和标签,并去除噪音,得到规范化描述和高质量标签;
S102:所有规范化描述组成语料库,对语料库中的所有单词进行特征提取,将每个单词表示为d维向量,从而得到每个单词和与该单词相对应的词向量;组成每个规范化描述的所有单词的词向量构成该规范化描述的矩阵;
S200:建立模型,分别建立TagDC-DL模型和TagDC-CF模型,将所有规范化描述的矩阵作为输入,分别输入到TagDC-DL模型和TagDC-CF模型中,分别得到所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后利用一个线性加权模块得到每个标签的最终置信概率列表;
所述TagDC-DL模型计算所有标签的多标签可信度列表的过程如下:
S211:单词表示学习:
设oi表示软件项目,oi.q∈Rl×d表示oi对应的规范化描述的矩阵,其中l是描述的长度,而d是单词向量的大小,令xi=Rd是与描述oi.d中的第i个单词相对应的d维单词向量;
首先规范化描述的矩阵oi.d=[x1,x2,……,xl]输入Bi-LSTM层以提取当前单词的上下文信息,Bi-LSTM模型提取序列信息并将上下文信息概括为隐藏状态hi,在Bi-LSTM中,前向LSTM生成的前向上下文信息
Figure FDA0003803950630000011
与其先前的存储单元
Figure FDA0003803950630000012
隐藏状态
Figure FDA0003803950630000013
和当前输入向量xi,而反向LSTM生成的反向上下文信息
Figure FDA0003803950630000014
对应于其下一个存储单元
Figure FDA0003803950630000015
隐藏状态
Figure FDA0003803950630000016
和当前输入向量xi,可以分别按公式(1)计算得到:
Figure FDA0003803950630000017
Figure FDA0003803950630000018
将单词的词向量及其对应的上下文信息向量hi∈R2n拼接起来,记为x′i,x′i∈Rl×d如公式(2)所示:
Figure FDA0003803950630000019
x′i=[xi,hi] (2);
S212:描述表示学习:
将规范化描述oi.d用学习加强的矩阵表示X∈Rl×d=[x′1,x′2,……,x′l],并将X输入卷积层以提取本地特征,当卷积层中的卷积核滑过一个规范化描述时,可以检测到该规范化描述上不同位置的特征,采用零填充策略对每个规范化描述的边界进行建模,给定一个带有偏差项b的内核Ki,根据公式(3)计算得到每个规范化描述的特征图ci
Figure FDA0003803950630000021
其中,f表示ReLU激活函数,使用多个卷积核来获取规范化描述中的各种特征图,所有I个特征向量按公式(4)组合起来:
C=[c1,c2,……,cI] (4);
采用三个并行的CNN网络,它们的卷积核窗口大小分别为1、2、3,并将卷积层三个分支的所有特征图拼接起来作为规范化描述的基本语义特征图D∈Rl×3I
S213:标签概率计算:
S213a:S212生成的基本语义特征图D被输入主胶囊层以提取更高级别的特征:
当滑过基本语义特征图D时,在每个卷积核Kj中执行一系列卷积运算,以输出一系列$d$维胶囊,类似于卷积层中的计算,主胶囊中的胶囊pj∈Rd,可以按公式(5)计算得到:
Figure FDA0003803950630000022
其中,g表示非线性Squash激活函数,可以将矢量输出的长度限制在0和1之间,以表示每个类别的概率,而b是偏差项;
S213b:在主胶囊层中一共含有J个卷积核时,胶囊特征图可以按公式(6)排列得到:
P=[p1,p2,……,pJ] (6);
S213c:在主胶囊层上执行动态路由算法以生成标签胶囊层的胶囊,其中第j个标签胶囊可以按公式(7)计算得到:
Figure FDA0003803950630000023
uj|i=Wijui
Figure FDA0003803950630000024
其中,uj|i是预测向量,它可以通过将主胶囊层的输出向量ui乘以权重矩阵Wij得到,cij动态路由的整个迭代过程相关的耦合系数,耦合系数cij是由Softmax函数计算得到,该函数可以确保第j个胶囊的所有耦合系数之和为1;
S213d:公式(8)中定义的损失函数来指导TagDC-DL的训练过程:
Figure FDA0003803950630000031
其中,Tj表示第j个标签是否为当前软件项目的真实标签,当且仅当当前规范化描述选择了第j个标签时,该值为1,m+和m-是上限和下限的阈值,分别设置为0.9和0.1,|vj|是向量vj的模长,λ是固定值0.5,它可以通过减小所有类的向量的模长来停止初始学习,t表示软件信息站点中候选标签的数量,vj的模长表示分配给软件项目的每个标签的多标签置信概率;
S213e:获得每个规范化描述的所有标签的多标签可信度列表,第i个规范化描述的置信概率列表
Figure FDA0003803950630000032
由公式(9)计算得到:
Figure FDA0003803950630000033
所述TagDC-CF模型计算基于相似度的置信概率列表的过程如下:
S221:计算oi.d所有历史软件对应的规范化描述的矩阵之间的余弦相似度,找到与oi相似度最大的TOP-N个软件项目,它们的标签用于推荐oi的标签;
S222:设oi.d包含l个单词,则其规范化描述发向量表示形式Di如公式(10)所示:
Figure FDA0003803950630000034
假设oj是另一个软件项目,并以Dj作为规范化描述的向量表示,则可以通过Di和Dj之间的余弦相似性来度量oi和oj之间的相似性,如公式(11)所示:
Figure FDA0003803950630000035
S223:令Ti=[t1,t2,……,tn]是oi的标签列表,其中n是候选标签的数量,在公式(12)中计算的基于相似度的置信概率列表是TOP-N个最相似对象的所有相似度与oi及它们自己的标签列表Tj的加权和;
Figure FDA0003803950630000036
S300:标签推荐,给定一个新的软件项目,首先经过S100的预处理得到新的软件项目对应的待预测规范化描述的矩阵,将该待预测规范化描述的矩阵作为输入,输入到S200中建立的模型中,得到新的软件项目对应的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表,然后再计算新的软件项目中每个标签的最终置信概率列表,最后通过将新的软件项目的最终置信概率列表中的概率值进行排序,概率值最大的N个标签则为推荐标签。
2.如权利要求1所述的结合深度学习和协同过滤技术的复合标签推荐方法,其特征在于:所述S101得到规范化描述和高质量标签的过程如下:
S1011:设置标签出现阈值,遍历提取的历史软件项目中的所有标签:如果标签的出现次数小于或等于阈值,则该标签便为低频标签,删除所有低频标签;
如果历史软件项目中某个软件项目中的所有标签都为低频标签则删除该软件项目;
S1012:使用带有默认参数的NLTK进行预处理过程,包括大小写转换,文本分词,停用词删除,词干提取和特殊标点符号删除。
3.如权利要求1或2所述的结合深度学习和协同过滤技术的复合标签推荐方法,其特征在于:所述S102的具体过程为:利用Word2vec工具包中的skip-gram模型对语料库进行特征提取,所述Word2vec的输出是语料库词典,该语料库词典包括所有规范化描述的单词和与该单词相对应的词向量。
4.如权利要求1所述的结合深度学习和协同过滤技术的复合标签推荐方法,其特征在于:所示S200得到每个标签的最终置信概率列表过程为:
将获得的所有标签的多标签可信度列表和所有标签的基于相似度的置信概率列表作为输入带入公式(14),得到软件项目所对应的所有标签的最终置信列表:
Figure FDA0003803950630000041
其中,α∈[0,1],表示多标签置信度列表对于最终置信列表的贡献权重,β∈[0,1]表示基于相似度的置信度列表对于最终置信列表的贡献权重。
CN202010062726.3A 2020-01-20 2020-01-20 结合深度学习和协同过滤技术的复合标签推荐方法 Active CN111274494B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010062726.3A CN111274494B (zh) 2020-01-20 2020-01-20 结合深度学习和协同过滤技术的复合标签推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010062726.3A CN111274494B (zh) 2020-01-20 2020-01-20 结合深度学习和协同过滤技术的复合标签推荐方法

Publications (2)

Publication Number Publication Date
CN111274494A CN111274494A (zh) 2020-06-12
CN111274494B true CN111274494B (zh) 2022-09-23

Family

ID=71003427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010062726.3A Active CN111274494B (zh) 2020-01-20 2020-01-20 结合深度学习和协同过滤技术的复合标签推荐方法

Country Status (1)

Country Link
CN (1) CN111274494B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528010B (zh) * 2020-12-15 2022-09-02 建信金融科技有限责任公司 知识推荐方法、装置、计算机设备及可读存储介质
CN116340552A (zh) * 2023-01-06 2023-06-27 北京达佳互联信息技术有限公司 一种标签排序方法、装置、设备及存储介质
CN116594627B (zh) * 2023-05-18 2023-12-12 湖北大学 一种基于多标签学习的群体软件开发中服务匹配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491469A (zh) * 2018-03-07 2018-09-04 浙江大学 引入概念标签的神经协同过滤概念描述词推荐算法
CN108763493A (zh) * 2018-05-30 2018-11-06 深圳市思迪信息技术股份有限公司 一种基于深度学习的推荐方法
CN109446414A (zh) * 2018-09-28 2019-03-08 武汉大学 一种基于神经网络分类的软件信息站点快速标签推荐方法
CN110569353A (zh) * 2019-07-03 2019-12-13 重庆大学 一种基于注意力机制的Bi-LSTM的标签推荐方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090051A1 (en) * 2015-11-27 2017-06-01 Giridhari Devanathan A method for text classification and feature selection using class vectors and the system thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491469A (zh) * 2018-03-07 2018-09-04 浙江大学 引入概念标签的神经协同过滤概念描述词推荐算法
CN108763493A (zh) * 2018-05-30 2018-11-06 深圳市思迪信息技术股份有限公司 一种基于深度学习的推荐方法
CN109446414A (zh) * 2018-09-28 2019-03-08 武汉大学 一种基于神经网络分类的软件信息站点快速标签推荐方法
CN110569353A (zh) * 2019-07-03 2019-12-13 重庆大学 一种基于注意力机制的Bi-LSTM的标签推荐方法

Also Published As

Publication number Publication date
CN111274494A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN108132927B (zh) 一种融合图结构与节点关联的关键词提取方法
CN111159407B (zh) 训练实体识别和关系分类模型的方法、装置、设备及介质
CN112131350B (zh) 文本标签确定方法、装置、终端及可读存储介质
CN110929038B (zh) 基于知识图谱的实体链接方法、装置、设备和存储介质
CN111274494B (zh) 结合深度学习和协同过滤技术的复合标签推荐方法
CN111291188B (zh) 一种智能信息抽取方法及系统
CN112818093B (zh) 基于语义匹配的证据文档检索方法、系统及存储介质
CN112256939B (zh) 一种针对化工领域的文本实体关系抽取方法
CN111783428B (zh) 基于深度学习的应急管理类客观题自动生成系统
CN110750635B (zh) 一种基于联合深度学习模型的法条推荐方法
CN115599902B (zh) 一种基于知识图谱的油气百科问答方法及系统
CN113168499A (zh) 检索专利文档的方法
CN115952292B (zh) 多标签分类方法、装置及计算机可读介质
CN113196277A (zh) 用于检索自然语言文档的系统
CN112989033B (zh) 基于情绪类别描述的微博情绪分类方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN111428513A (zh) 一种基于卷积神经网络的虚假评论分析方法
CN112307182A (zh) 一种基于问答系统的伪相关反馈的扩展查询方法
CN114611491A (zh) 基于文本挖掘技术的智慧政务舆情分析研究方法
CN113836896A (zh) 一种基于深度学习的专利文本摘要生成方法和装置
CN114528835A (zh) 基于区间判别的半监督专业术语抽取方法、介质及设备
Miah et al. Keyphrases concentrated area identification from academic articles as feature of keyphrase extraction: A new unsupervised approach
CN111144453A (zh) 构建多模型融合计算模型的方法及设备、网站数据识别方法及设备
CN115017404A (zh) 基于压缩空间句子选择的目标新闻话题摘要方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231218

Address after: No. 546, Luoyu Road, Hongshan District, Wuhan, Hubei Province, 430000

Patentee after: HUBEI CENTRAL CHINA TECHNOLOGY DEVELOPMENT OF ELECTRIC POWER Co.,Ltd.

Address before: 400044 No. 174 Sha Jie street, Shapingba District, Chongqing

Patentee before: Chongqing University