CN107798624B - 一种软件问答社区中的技术标签推荐方法 - Google Patents

一种软件问答社区中的技术标签推荐方法 Download PDF

Info

Publication number
CN107798624B
CN107798624B CN201711042537.4A CN201711042537A CN107798624B CN 107798624 B CN107798624 B CN 107798624B CN 201711042537 A CN201711042537 A CN 201711042537A CN 107798624 B CN107798624 B CN 107798624B
Authority
CN
China
Prior art keywords
training
learning
label
semantic
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711042537.4A
Other languages
English (en)
Other versions
CN107798624A (zh
Inventor
孙海龙
刘旭东
张建
田言飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201711042537.4A priority Critical patent/CN107798624B/zh
Publication of CN107798624A publication Critical patent/CN107798624A/zh
Application granted granted Critical
Publication of CN107798624B publication Critical patent/CN107798624B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9562Bookmark management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明首基于深度学习提出面向软件问答社区的标签推荐方法。该项方法包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。本发明可以提供软件问答社区中的问题资源管理、维护已有的标签系统的功能,并且为用户提供自动化的标签标注服务。针对现有的标签推荐技术存在的缺陷,本发明可以提高准确性以及效率,使得标签推荐在软件问答社区中能够更加实用。

Description

一种软件问答社区中的技术标签推荐方法
技术领域
本发明涉及一种系统推荐方法,尤其涉及一种软件问答社区中的技术标签推荐方法。
背景技术
软件问答社区是指专注于解决技术性问题以及软件开发的问答社区,例如全球影响力较大的Stack Overflow社区。因其庞大的用户与资源量(超过五百万的用户数,千万级的问题、回答数),使得软件资源管理变得复杂。为了缓解这一问题,Stack Overflow要求用户在提出问题时给出1~5个Tag,即技术性标签。而由于部分提问者对自己提出的技术问题缺乏足够的理解以及设置标签本身存在极大的自由度,使得这种Tag系统变得臃肿,违背了其初衷。因此,研究人员研究了自动化的标签(Tag)推荐方法,即用户在给出问题描述后,能够自动的把合适的标签推荐给用户的方法。
现有技术中,面向软件问答社区的代表性标签推荐技术包括基于贝叶斯学习、Labeled-LDA以及信息检索的方法,分别称为TagCombine、EnTagRec以及TagMulRec。其中,TagCombine是研究人员首次提出的应用在互联网软件信息社区中的Tag推荐技术。该技术主要考虑了问题中的文本信息,包含三个不同组件:多标签排序、基于相似度计算以及基于标签-术语(tag-term)的排序组件。多标签排序是利用多项式朴素贝叶斯分类器来对问题进行分类的组件;基于相似度计算的组件是通过TF-IDF方法搜索相似的问题并推荐这些问题的标签;基于标签-术语的排序组件则是根据历史标记计算出问题中的术语与标签的亲和度,以此进行标签的排序,将这三个组件加权求和得到最终的推荐结果。EnTagRec方法包括两部分,分别是基于Labeled LDA的贝叶斯推断组件以及基于频率的推断组件。前者使用Labeled LDA的方法对问题进行多分类处理,后者则首先借助于Stanford NLP工具对问题描述进行词性标注以去除无关词语,然后使用激活扩散算法(spreading activationalgorithm)寻找相关的tag。相对于TagCombine,该方法在准确性方面有着大幅度的提升。TagMulRec专注于解决大规模的标签推荐问题,借助于Lucene,该项技术首先构造问题描述中的词语-文档的索引,然后通过计算相似度的方法搜索出相似的问题,将这些问题的标签作为候选集合。对于该集合,TagMulRec提出了一种简单的标签排序算法来推荐合适的标签。
TagCombine技术由于在多标签排序时需要构建多个“一对多”的贝叶斯分类器,所以耗费大量时间。此外,其准确性相对于另外两项技术较低。EnTagRec技术受限于数据集的大小。原因在于其使用的Labeled LDA以及基于频率的推断方法复杂度高,训练所需要的时间随着数据集的大小急剧增加,因此不适用于百万级甚至几十万级的数据量的训练,这极大地限制了其应用范围,尤其是Stack Overflow这种拥有海量软件问答资源的社区。TagMulRec技术的准确性不如EnTagRec,并且在推荐标签时需要实时搜索相似问题。在百万级的数据集上,即使依靠索引机制,其推荐所需要的时间也较长。
总体来说,现有技术进行标签推荐时考虑了文本的统计信息,如词频等等,忽略了问题本身包含的语义信息,从而导致推荐的准确性低,耗费时间长。
发明内容
本发明首基于深度学习提出面向软件问答社区的标签推荐方法。该项方法包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。本发明可以提供软件问答社区中的问题资源管理、维护已有的标签系统的功能,并且为用户提供自动化的标签标注服务。针对现有的标签推荐技术存在的缺陷,本发明可以提高技术标签推荐的准确性以及效率,使得标签推荐在软件问答社区中能够更加实用。
附图说明
图1为本发明的整体流程图;
图2为本发明中学习短语和句子语义的模型图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本方法的整体流程具体流程如图1所示,包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合。其中,训练阶段用于构造词典并保存模型的结构与权重;部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。
在训练阶段,首先从源数据中抽取出训练样本,即问题与Tag集合形成的元组。然后将其中的问题文本进行预处理,并且把单词对应的序列索引值记录保存下来,转化成整数索引序列。将这些序列作为Word2Vec的输入以训练词向量,并将这些预训练的词向量加载到模型的词向量模块中。同时,经过预处理后的问题与Tag作为模型参数训练的样本,也就是作为图中核心模块的输入。在训练结束后,保存该模型。
在部署阶段,对于未知Tag的新问题,借助于保存的单词词典,形成对应的索引序列,然后加载训练好的核心模型,进行Tag的预测,得到对应的概率。最后将这些Tag按概率排序,取前k大的Tag作为推荐结果。
在预处理中,首先在从Stack Overflow获取源数据后,将其中的问题与标签数据提取出来,形成供训练的问题标签对。对于每个问题,去除其中的标点符号与HTML标签,并对诸如.Net等含有标点的技术关键词作转换处理,如转换成“dotNet”。然后对于问题中的代码数据,利用正则表达式过滤掉长度大于三个词的代码片段。接下来,经过预处理的问题信息用于构造词语-索引对应的词典,以将原始数据转化成固定长度的序列,即词的索引的序列,如[2,6,8…]。此长度由问题的平均长度决定,本方法取固定值200,约为平均长度的两倍。即限定每个问题的长度为200词,若不足200,则以0填充。
在语义表示学习中,为了以向量的形式表示每个词的含义,本方法利用词嵌入(Word Embedding)技术来训练从Stack Overflow获取的海量软件开发问题的文本数据,以此充分学习出词语的精确语义表示。词嵌入的直观解释为:两个可相互替换的词有相似的向量表示。比如,在讨论Java相关问题时,其中的“class”和“object”均适用于句子“Thismethod in the__extends its parent in Java”,因此他们的向量表示非常相近。本发明使用Skip-gram模型来训练词向量。该模型本质上是一个三层的神经网络,即输入层、隐藏层和输出层。首先,对于独热(one-hot)表示的输入xk,有相邻的词语y1,y2,…,yM,M为正整数,隐藏层与输入层之间的权重矩阵为W,则xk的向量表示为ek=Wkxk。θ为中间的参数。在训练时,使用最大似然准则,即最大化下式:
Figure BDA0001449117600000041
其中的N为总的词数,条件概率使用softmax函数来计算,如下:
Figure BDA0001449117600000042
这里D表示训练样本的词汇表。此外,考虑到训练的语料数量过大,本发明借助负采样(Negative Sampling)方法来加速训练过程。本方法用工具Gensim的Word2Vec来训练词向量,训练的语料库为Stack Overflow中的大量已有问题。
在训练结束后,便可以得到每个词的向量表示,用于进一步地语义提取。
在步骤2中,本发明构建了单个模型来同时学习短语和句子语义,其模型结构图如图2所示。从词向量到句义学习,首先需要将句子转化成语义矩阵。这里的做法是,对于句子中的每个词,抽取对应的词向量,并将这些向量进行拼接,形成类似于图像处理中的“图片”格式,用公式表述成如下形式:
Figure BDA0001449117600000051
Figure BDA0001449117600000052
L为正整数,表示问题的长度。
其中Q1:k表示用前K个词组成该矩阵,K为正整数。为了从该矩阵中提取出短语的语义特征,本模型使用卷积神经网络(Convolutional Neural Network,CNN)作为模型在接收到输入后的第一步特征提取。在这之前,添加Dropout以防止过拟合。从图中可以看出,短语的语义学习使用了kernelα作为短语级别的语义特征提取部件f,该部件将上文的文档矩阵转化成特征映射(feature map)c。具体的计算方式如下:ci=σ(f·Qi:i+s-1+b)
其中i和s表示短语起始位置以及短语长度,Qi:i+s-1是ei到ei+s-1的合并,b是偏置,σ是激活函数Relu。接下来,对于多个特征提取部件提取到的特征映射c=[c1,c2,…,ci+s-1],添加池化来提取这些特征语义空间中的最具代表性的向量,即每一维度的最大值,有公式
Figure BDA0001449117600000053
得到新的特征向量
Figure BDA0001449117600000054
Figure BDA0001449117600000055
M为正整数。为了能够将此向量与目标Tag建立充分的联系,本模型将全连接层添加在池化层之后,以建立起与输出之间的非线性映射,即
Figure BDA0001449117600000058
Figure BDA0001449117600000059
这里Wt是该层与输出层之间的权重。最终的输出层用于计算每个标签的概率,取值为0~1,为如下公式中的f:
Figure BDA0001449117600000056
在训练时,使用公式
Figure BDA0001449117600000057
来度量训练的损失值,其中N为训练样本数目,i用于遍历样本。
其中y是问题对应的真实的标签集合,取值为0或1。本发明利用优化器来最小化ε,从而训练出最优模型。该模型借助于深度学习实现,在三个大小不同的数据集(小、中、大)上的参数见下表。
Figure BDA0001449117600000061
其中,d表示词向量的维数,f表示模型中过滤器的数目,k表示卷积核的大小,λ表示模型中Dropout的概率,ζ表示隐藏层的单元数,ι表示问题长度的阈值,ψ表示融合后继续训练的周期次数,δ表示训练时的批大小,τ表示词向量是否可被再训练。
句子语义学习与短语语义学习类似,所不同的是在模型中采用了不同的内核,即采样更长的序列以提取出句子所表达的含义。
在步骤3语义融合中,将上述模型的两个不同的输出分别看作是短语与句子对应于标签的语义表示向量,本发明提出了一种融合方法来对其进行融合,以更好地决策推荐标签。该方法利用学习的方式训练出对应于两种语义的权重,以此进行累加。
首先获取训练损失y:
Figure BDA0001449117600000062
其中
Figure BDA0001449117600000063
是对输入αi和βi的结合,即
Figure BDA0001449117600000064
Figure BDA0001449117600000065
表示对第i个样本的预测结果。对其中的权重w和v分别求偏导数,得到:
Figure BDA0001449117600000066
Figure BDA0001449117600000067
之后在遍历训练数据时可以逐步更新这两个权重。
以上学习出的权重最终用于预测新问题所对应的标签集合。即经过模型得到出的两个语义向量αn和βn,最终输出为γ=w*αn+v*βn。对γ进行按概率值排序,推荐出概率最大的K个标签,K为正整数。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (2)

1.一种软件问答社区中的技术标签推荐方法,其特征在于,包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐标签;在所述步骤1的预处理中,首先在获取源数据后,将其中的问题与标签数据提取出来,形成供训练的问题-标签对,对于每个问题,去除其中的标点符号与HTML标签,并对含有标点的技术关键词作转换处理,然后对于问题中的代码数据,利用正则表达式过滤掉长度大于三个词的代码片段,最后经过预处理的问题信息用于构造词语-索引对应的词典,以将原始数据转化成固定长度的序列,即词的索引的序列;在步骤2的词义表示学习中,利用使用Skip-gram模型来训练词向量,该模型本质上是一个三层的神经网络,即输入层、隐藏层和输出层;首先,对于独热表示的输入xk,有相邻的词语y1,y2,...,yM,隐藏层与输入层之间的权重矩阵为W,所述xk的向量表示为ek=Wkxk,θ表示中间的参数,在训练时使用最大似然准则,即最大化公式
Figure FDA0003212714330000011
所述N,M为正整数,使用softmax函数
Figure FDA0003212714330000012
来计算所述最大化公式中的条件概率,D表示训练样本的词汇表,在训练结束后,便可以得到每个词的向量表示,用于进一步地语义提取;在步骤3的短语和句子语义学习中,首先将句子转化成语义矩阵,对于句子中的每个词,抽取对应的词向量,并将这些向量进行拼接,形成类似于图像处理中的图片格式,拼接的公式为
Figure FDA0003212714330000013
Figure FDA0003212714330000014
其中L为正整数,表示问题的长度,Q1:k表示用前k个词组成该矩阵;并将上文的文档矩阵转化成特征映射,映射方式为:ci=σ(f·Qi:i+s-1+b),所述映射方式中i和s表示短语起始位置以及短语长度,所述f为短语级别的语义特征提取部件f,所述Qi:i+s-1是ei到ei+s-1的合并,所述b是偏置,所述σ是激活函数,对于多个特征提取部件提取到的特征映射c=[c1,c2,...,ci+s-1],添加池化提取特征语义空间中的最具代表性的向量,得到新的特征向量
Figure FDA0003212714330000021
Figure FDA0003212714330000022
并建立起与输出之间的非线性映射ti,所建立的方式为:
Figure FDA0003212714330000023
所述
Figure FDA0003212714330000024
是该层与输出层之间的权重,最终的输出层用于获取每个标签的概率,取值为0到1,获取的方式为:
Figure FDA0003212714330000025
在训练时,度量训练的损失值ε的方式为:
Figure FDA0003212714330000026
所述y是问题对应的真实的标签集合,取值为0或1,所述N为训练样本数目。
2.如权利要求1所述的方法,其特征在于,还包括,利用学习的方式训练出对应于两种语义的权重,以此进行累加,学习的过程为:首先获取训练损失
Figure FDA0003212714330000027
其中
Figure FDA0003212714330000028
是输入αi和输入βi的结合,即
Figure FDA0003212714330000029
所述w和v为权重,获取权重w和v的偏导数,得到:
Figure FDA00032127143300000210
Figure FDA00032127143300000211
之后在遍历训练数据时可以逐步更新两个权重,所述两个权重最终用于预测新问题所对应的标签集合,即经过模型获得两个语义向量αn和βn,从而得到输出γ=w*αn+v*βn,对γ进行按概率值排序,最终推荐出概率最大的K个标签,K为正整数。
CN201711042537.4A 2017-10-30 2017-10-30 一种软件问答社区中的技术标签推荐方法 Active CN107798624B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711042537.4A CN107798624B (zh) 2017-10-30 2017-10-30 一种软件问答社区中的技术标签推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711042537.4A CN107798624B (zh) 2017-10-30 2017-10-30 一种软件问答社区中的技术标签推荐方法

Publications (2)

Publication Number Publication Date
CN107798624A CN107798624A (zh) 2018-03-13
CN107798624B true CN107798624B (zh) 2021-09-28

Family

ID=61548311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711042537.4A Active CN107798624B (zh) 2017-10-30 2017-10-30 一种软件问答社区中的技术标签推荐方法

Country Status (1)

Country Link
CN (1) CN107798624B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446414B (zh) * 2018-09-28 2021-08-17 武汉大学 一种基于神经网络分类的软件信息站点快速标签推荐方法
CN109299366B (zh) * 2018-09-28 2019-07-30 西安交通大学深圳研究院 一种基于内容相似度实时计算的网络数据分类推荐系统
CN109460473B (zh) * 2018-11-21 2021-11-02 中南大学 基于症状提取和特征表示的电子病历多标签分类方法
CN110110772A (zh) * 2019-04-25 2019-08-09 北京小米智能科技有限公司 确定图像标签准确度的方法、装置及计算机可读存储介质
CN110222160B (zh) * 2019-05-06 2023-09-15 平安科技(深圳)有限公司 智能语义文档推荐方法、装置及计算机可读存储介质
CN110413992A (zh) * 2019-06-26 2019-11-05 重庆兆光科技股份有限公司 一种语义分析识别方法、系统、介质和设备
CN110569353B (zh) * 2019-07-03 2023-04-07 重庆大学 一种基于注意力机制的Bi-LSTM的标签推荐方法
CN112214599B (zh) * 2020-10-20 2022-06-24 电子科技大学 基于统计学和预训练语言模型的多标签文本分类方法
CN112860889A (zh) * 2021-01-29 2021-05-28 太原理工大学 一种基于bert的多标签分类方法
CN112861440B (zh) * 2021-02-27 2022-10-28 哈尔滨工业大学(威海) 一种面向各类应用的软件机器人系统及其工作方法
CN113076078B (zh) * 2021-03-11 2022-03-22 山东大学 一种基于混合驱动的对话式信息获取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092911A (zh) * 2012-11-20 2013-05-08 北京航空航天大学 一种融合社会标签相似度基于k近邻的协同过滤推荐系统
CN104598588A (zh) * 2015-01-19 2015-05-06 河海大学 基于双聚类的微博用户标签自动生成算法
CN104834686A (zh) * 2015-04-17 2015-08-12 中国科学院信息工程研究所 一种基于混合语义矩阵的视频推荐方法
CN105760507A (zh) * 2016-02-23 2016-07-13 复旦大学 基于深度学习的跨模态主题相关性建模方法
CN107066445A (zh) * 2017-04-11 2017-08-18 华东师范大学 一种属性情感词向量的深度学习方法
CN107291815A (zh) * 2017-05-22 2017-10-24 四川大学 基于跨平台标签融合的问答社区推荐方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092911A (zh) * 2012-11-20 2013-05-08 北京航空航天大学 一种融合社会标签相似度基于k近邻的协同过滤推荐系统
CN104598588A (zh) * 2015-01-19 2015-05-06 河海大学 基于双聚类的微博用户标签自动生成算法
CN104834686A (zh) * 2015-04-17 2015-08-12 中国科学院信息工程研究所 一种基于混合语义矩阵的视频推荐方法
CN105760507A (zh) * 2016-02-23 2016-07-13 复旦大学 基于深度学习的跨模态主题相关性建模方法
CN107066445A (zh) * 2017-04-11 2017-08-18 华东师范大学 一种属性情感词向量的深度学习方法
CN107291815A (zh) * 2017-05-22 2017-10-24 四川大学 基于跨平台标签融合的问答社区推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于词向量的标签语义推荐算法研究;黄聪;《中国优秀硕士学位论文全文数据库 哲学与人文科学辑》;20151115(第11期);第26-37页 *

Also Published As

Publication number Publication date
CN107798624A (zh) 2018-03-13

Similar Documents

Publication Publication Date Title
CN107798624B (zh) 一种软件问答社区中的技术标签推荐方法
CN109992782B (zh) 法律文书命名实体识别方法、装置及计算机设备
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN111966812B (zh) 一种基于动态词向量的自动问答方法和存储介质
CN113297360B (zh) 基于弱监督学习和联合学习机制的法律问答方法及设备
CN112328800A (zh) 自动生成编程规范问题答案的系统及方法
CN114416942A (zh) 一种基于深度学习的自动化问答方法
CN114416979A (zh) 一种文本查询方法、设备和存储介质
CN112163089A (zh) 一种融合命名实体识别的军事高技术文本分类方法及系统
CN114691864A (zh) 文本分类模型训练方法及装置、文本分类方法及装置
CN111783464A (zh) 一种面向电力的领域实体识别方法、系统及存储介质
CN111666374A (zh) 一种在深度语言模型中融入额外知识信息的方法
CN114356990A (zh) 基于迁移学习的基地命名实体识别系统及方法
CN112989803B (zh) 一种基于主题向量学习的实体链接预测方法
CN114443846A (zh) 一种基于多层级文本异构图的分类方法、装置及电子设备
CN113836891A (zh) 基于多元标注策略的结构化信息抽取方法和装置
CN113159187A (zh) 分类模型训练方法及装置、目标文本确定方法及装置
CN115906846A (zh) 一种基于双图的层次特征融合的文档级命名实体识别方法
CN115906824A (zh) 一种文本细粒度情感分析方法、系统、介质和计算设备
CN115545030A (zh) 实体抽取模型的训练方法、实体关系抽取方法及装置
CN114417863A (zh) 词权重生成模型训练方法及装置、词权重生成方法及装置
CN114579706A (zh) 一种基于bert神经网络和多任务学习的主观题自动评阅方法
CN115062123A (zh) 一种对话生成系统的知识库问答对生成方法
CN114003706A (zh) 关键词组合生成模型训练方法及装置
CN117313748B (zh) 面向政务问答的多特征融合语义理解方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant