CN107798624B - 一种软件问答社区中的技术标签推荐方法 - Google Patents
一种软件问答社区中的技术标签推荐方法 Download PDFInfo
- Publication number
- CN107798624B CN107798624B CN201711042537.4A CN201711042537A CN107798624B CN 107798624 B CN107798624 B CN 107798624B CN 201711042537 A CN201711042537 A CN 201711042537A CN 107798624 B CN107798624 B CN 107798624B
- Authority
- CN
- China
- Prior art keywords
- training
- learning
- label
- semantic
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims abstract description 6
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 25
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000007476 Maximum Likelihood Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000009825 accumulation Methods 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000007547 defect Effects 0.000 abstract description 2
- 238000012423 maintenance Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000013604 expression vector Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9562—Bookmark management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Human Resources & Organizations (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明首基于深度学习提出面向软件问答社区的标签推荐方法。该项方法包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。本发明可以提供软件问答社区中的问题资源管理、维护已有的标签系统的功能,并且为用户提供自动化的标签标注服务。针对现有的标签推荐技术存在的缺陷,本发明可以提高准确性以及效率,使得标签推荐在软件问答社区中能够更加实用。
Description
技术领域
本发明涉及一种系统推荐方法,尤其涉及一种软件问答社区中的技术标签推荐方法。
背景技术
软件问答社区是指专注于解决技术性问题以及软件开发的问答社区,例如全球影响力较大的Stack Overflow社区。因其庞大的用户与资源量(超过五百万的用户数,千万级的问题、回答数),使得软件资源管理变得复杂。为了缓解这一问题,Stack Overflow要求用户在提出问题时给出1~5个Tag,即技术性标签。而由于部分提问者对自己提出的技术问题缺乏足够的理解以及设置标签本身存在极大的自由度,使得这种Tag系统变得臃肿,违背了其初衷。因此,研究人员研究了自动化的标签(Tag)推荐方法,即用户在给出问题描述后,能够自动的把合适的标签推荐给用户的方法。
现有技术中,面向软件问答社区的代表性标签推荐技术包括基于贝叶斯学习、Labeled-LDA以及信息检索的方法,分别称为TagCombine、EnTagRec以及TagMulRec。其中,TagCombine是研究人员首次提出的应用在互联网软件信息社区中的Tag推荐技术。该技术主要考虑了问题中的文本信息,包含三个不同组件:多标签排序、基于相似度计算以及基于标签-术语(tag-term)的排序组件。多标签排序是利用多项式朴素贝叶斯分类器来对问题进行分类的组件;基于相似度计算的组件是通过TF-IDF方法搜索相似的问题并推荐这些问题的标签;基于标签-术语的排序组件则是根据历史标记计算出问题中的术语与标签的亲和度,以此进行标签的排序,将这三个组件加权求和得到最终的推荐结果。EnTagRec方法包括两部分,分别是基于Labeled LDA的贝叶斯推断组件以及基于频率的推断组件。前者使用Labeled LDA的方法对问题进行多分类处理,后者则首先借助于Stanford NLP工具对问题描述进行词性标注以去除无关词语,然后使用激活扩散算法(spreading activationalgorithm)寻找相关的tag。相对于TagCombine,该方法在准确性方面有着大幅度的提升。TagMulRec专注于解决大规模的标签推荐问题,借助于Lucene,该项技术首先构造问题描述中的词语-文档的索引,然后通过计算相似度的方法搜索出相似的问题,将这些问题的标签作为候选集合。对于该集合,TagMulRec提出了一种简单的标签排序算法来推荐合适的标签。
TagCombine技术由于在多标签排序时需要构建多个“一对多”的贝叶斯分类器,所以耗费大量时间。此外,其准确性相对于另外两项技术较低。EnTagRec技术受限于数据集的大小。原因在于其使用的Labeled LDA以及基于频率的推断方法复杂度高,训练所需要的时间随着数据集的大小急剧增加,因此不适用于百万级甚至几十万级的数据量的训练,这极大地限制了其应用范围,尤其是Stack Overflow这种拥有海量软件问答资源的社区。TagMulRec技术的准确性不如EnTagRec,并且在推荐标签时需要实时搜索相似问题。在百万级的数据集上,即使依靠索引机制,其推荐所需要的时间也较长。
总体来说,现有技术进行标签推荐时考虑了文本的统计信息,如词频等等,忽略了问题本身包含的语义信息,从而导致推荐的准确性低,耗费时间长。
发明内容
本发明首基于深度学习提出面向软件问答社区的标签推荐方法。该项方法包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。本发明可以提供软件问答社区中的问题资源管理、维护已有的标签系统的功能,并且为用户提供自动化的标签标注服务。针对现有的标签推荐技术存在的缺陷,本发明可以提高技术标签推荐的准确性以及效率,使得标签推荐在软件问答社区中能够更加实用。
附图说明
图1为本发明的整体流程图;
图2为本发明中学习短语和句子语义的模型图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本方法的整体流程具体流程如图1所示,包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合。其中,训练阶段用于构造词典并保存模型的结构与权重;部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐最有可能的K个标签,K为正整数。
在训练阶段,首先从源数据中抽取出训练样本,即问题与Tag集合形成的元组。然后将其中的问题文本进行预处理,并且把单词对应的序列索引值记录保存下来,转化成整数索引序列。将这些序列作为Word2Vec的输入以训练词向量,并将这些预训练的词向量加载到模型的词向量模块中。同时,经过预处理后的问题与Tag作为模型参数训练的样本,也就是作为图中核心模块的输入。在训练结束后,保存该模型。
在部署阶段,对于未知Tag的新问题,借助于保存的单词词典,形成对应的索引序列,然后加载训练好的核心模型,进行Tag的预测,得到对应的概率。最后将这些Tag按概率排序,取前k大的Tag作为推荐结果。
在预处理中,首先在从Stack Overflow获取源数据后,将其中的问题与标签数据提取出来,形成供训练的问题标签对。对于每个问题,去除其中的标点符号与HTML标签,并对诸如.Net等含有标点的技术关键词作转换处理,如转换成“dotNet”。然后对于问题中的代码数据,利用正则表达式过滤掉长度大于三个词的代码片段。接下来,经过预处理的问题信息用于构造词语-索引对应的词典,以将原始数据转化成固定长度的序列,即词的索引的序列,如[2,6,8…]。此长度由问题的平均长度决定,本方法取固定值200,约为平均长度的两倍。即限定每个问题的长度为200词,若不足200,则以0填充。
在语义表示学习中,为了以向量的形式表示每个词的含义,本方法利用词嵌入(Word Embedding)技术来训练从Stack Overflow获取的海量软件开发问题的文本数据,以此充分学习出词语的精确语义表示。词嵌入的直观解释为:两个可相互替换的词有相似的向量表示。比如,在讨论Java相关问题时,其中的“class”和“object”均适用于句子“Thismethod in the__extends its parent in Java”,因此他们的向量表示非常相近。本发明使用Skip-gram模型来训练词向量。该模型本质上是一个三层的神经网络,即输入层、隐藏层和输出层。首先,对于独热(one-hot)表示的输入xk,有相邻的词语y1,y2,…,yM,M为正整数,隐藏层与输入层之间的权重矩阵为W,则xk的向量表示为ek=Wkxk。θ为中间的参数。在训练时,使用最大似然准则,即最大化下式:
其中的N为总的词数,条件概率使用softmax函数来计算,如下:
这里D表示训练样本的词汇表。此外,考虑到训练的语料数量过大,本发明借助负采样(Negative Sampling)方法来加速训练过程。本方法用工具Gensim的Word2Vec来训练词向量,训练的语料库为Stack Overflow中的大量已有问题。
在训练结束后,便可以得到每个词的向量表示,用于进一步地语义提取。
在步骤2中,本发明构建了单个模型来同时学习短语和句子语义,其模型结构图如图2所示。从词向量到句义学习,首先需要将句子转化成语义矩阵。这里的做法是,对于句子中的每个词,抽取对应的词向量,并将这些向量进行拼接,形成类似于图像处理中的“图片”格式,用公式表述成如下形式: L为正整数,表示问题的长度。
其中Q1:k表示用前K个词组成该矩阵,K为正整数。为了从该矩阵中提取出短语的语义特征,本模型使用卷积神经网络(Convolutional Neural Network,CNN)作为模型在接收到输入后的第一步特征提取。在这之前,添加Dropout以防止过拟合。从图中可以看出,短语的语义学习使用了kernelα作为短语级别的语义特征提取部件f,该部件将上文的文档矩阵转化成特征映射(feature map)c。具体的计算方式如下:ci=σ(f·Qi:i+s-1+b)
其中i和s表示短语起始位置以及短语长度,Qi:i+s-1是ei到ei+s-1的合并,b是偏置,σ是激活函数Relu。接下来,对于多个特征提取部件提取到的特征映射c=[c1,c2,…,ci+s-1],添加池化来提取这些特征语义空间中的最具代表性的向量,即每一维度的最大值,有公式得到新的特征向量 M为正整数。为了能够将此向量与目标Tag建立充分的联系,本模型将全连接层添加在池化层之后,以建立起与输出之间的非线性映射,即
这里Wt是该层与输出层之间的权重。最终的输出层用于计算每个标签的概率,取值为0~1,为如下公式中的f:
其中y是问题对应的真实的标签集合,取值为0或1。本发明利用优化器来最小化ε,从而训练出最优模型。该模型借助于深度学习实现,在三个大小不同的数据集(小、中、大)上的参数见下表。
其中,d表示词向量的维数,f表示模型中过滤器的数目,k表示卷积核的大小,λ表示模型中Dropout的概率,ζ表示隐藏层的单元数,ι表示问题长度的阈值,ψ表示融合后继续训练的周期次数,δ表示训练时的批大小,τ表示词向量是否可被再训练。
句子语义学习与短语语义学习类似,所不同的是在模型中采用了不同的内核,即采样更长的序列以提取出句子所表达的含义。
在步骤3语义融合中,将上述模型的两个不同的输出分别看作是短语与句子对应于标签的语义表示向量,本发明提出了一种融合方法来对其进行融合,以更好地决策推荐标签。该方法利用学习的方式训练出对应于两种语义的权重,以此进行累加。
之后在遍历训练数据时可以逐步更新这两个权重。
以上学习出的权重最终用于预测新问题所对应的标签集合。即经过模型得到出的两个语义向量αn和βn,最终输出为γ=w*αn+v*βn。对γ进行按概率值排序,推荐出概率最大的K个标签,K为正整数。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (2)
1.一种软件问答社区中的技术标签推荐方法,其特征在于,包括:步骤1,预处理;步骤2,词义表示学习;步骤3,短语以及句子语义学习;步骤4,语义融合;在预处理前为训练阶段,所述训练阶段用于构造词典并保存模型的结构与权重;在预处理后为部署阶段,所述部署阶段则是对于新的问题,在转化成索引序列后,加载保存的模型以预测并推荐标签;在所述步骤1的预处理中,首先在获取源数据后,将其中的问题与标签数据提取出来,形成供训练的问题-标签对,对于每个问题,去除其中的标点符号与HTML标签,并对含有标点的技术关键词作转换处理,然后对于问题中的代码数据,利用正则表达式过滤掉长度大于三个词的代码片段,最后经过预处理的问题信息用于构造词语-索引对应的词典,以将原始数据转化成固定长度的序列,即词的索引的序列;在步骤2的词义表示学习中,利用使用Skip-gram模型来训练词向量,该模型本质上是一个三层的神经网络,即输入层、隐藏层和输出层;首先,对于独热表示的输入xk,有相邻的词语y1,y2,...,yM,隐藏层与输入层之间的权重矩阵为W,所述xk的向量表示为ek=Wkxk,θ表示中间的参数,在训练时使用最大似然准则,即最大化公式所述N,M为正整数,使用softmax函数来计算所述最大化公式中的条件概率,D表示训练样本的词汇表,在训练结束后,便可以得到每个词的向量表示,用于进一步地语义提取;在步骤3的短语和句子语义学习中,首先将句子转化成语义矩阵,对于句子中的每个词,抽取对应的词向量,并将这些向量进行拼接,形成类似于图像处理中的图片格式,拼接的公式为 其中L为正整数,表示问题的长度,Q1:k表示用前k个词组成该矩阵;并将上文的文档矩阵转化成特征映射,映射方式为:ci=σ(f·Qi:i+s-1+b),所述映射方式中i和s表示短语起始位置以及短语长度,所述f为短语级别的语义特征提取部件f,所述Qi:i+s-1是ei到ei+s-1的合并,所述b是偏置,所述σ是激活函数,对于多个特征提取部件提取到的特征映射c=[c1,c2,...,ci+s-1],添加池化提取特征语义空间中的最具代表性的向量,得到新的特征向量 并建立起与输出之间的非线性映射ti,所建立的方式为:
在训练时,度量训练的损失值ε的方式为:
所述y是问题对应的真实的标签集合,取值为0或1,所述N为训练样本数目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711042537.4A CN107798624B (zh) | 2017-10-30 | 2017-10-30 | 一种软件问答社区中的技术标签推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711042537.4A CN107798624B (zh) | 2017-10-30 | 2017-10-30 | 一种软件问答社区中的技术标签推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107798624A CN107798624A (zh) | 2018-03-13 |
CN107798624B true CN107798624B (zh) | 2021-09-28 |
Family
ID=61548311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711042537.4A Active CN107798624B (zh) | 2017-10-30 | 2017-10-30 | 一种软件问答社区中的技术标签推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107798624B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446414B (zh) * | 2018-09-28 | 2021-08-17 | 武汉大学 | 一种基于神经网络分类的软件信息站点快速标签推荐方法 |
CN109299366B (zh) * | 2018-09-28 | 2019-07-30 | 西安交通大学深圳研究院 | 一种基于内容相似度实时计算的网络数据分类推荐系统 |
CN109460473B (zh) * | 2018-11-21 | 2021-11-02 | 中南大学 | 基于症状提取和特征表示的电子病历多标签分类方法 |
CN114254750A (zh) * | 2019-01-29 | 2022-03-29 | 北京金山数字娱乐科技有限公司 | 准确度损失确定方法以及装置 |
CN110110772A (zh) * | 2019-04-25 | 2019-08-09 | 北京小米智能科技有限公司 | 确定图像标签准确度的方法、装置及计算机可读存储介质 |
CN110222160B (zh) * | 2019-05-06 | 2023-09-15 | 平安科技(深圳)有限公司 | 智能语义文档推荐方法、装置及计算机可读存储介质 |
CN110413992A (zh) * | 2019-06-26 | 2019-11-05 | 重庆兆光科技股份有限公司 | 一种语义分析识别方法、系统、介质和设备 |
CN110569353B (zh) * | 2019-07-03 | 2023-04-07 | 重庆大学 | 一种基于注意力机制的Bi-LSTM的标签推荐方法 |
CN112214599B (zh) * | 2020-10-20 | 2022-06-24 | 电子科技大学 | 基于统计学和预训练语言模型的多标签文本分类方法 |
CN112860889A (zh) * | 2021-01-29 | 2021-05-28 | 太原理工大学 | 一种基于bert的多标签分类方法 |
CN112861440B (zh) * | 2021-02-27 | 2022-10-28 | 哈尔滨工业大学(威海) | 一种面向各类应用的软件机器人系统及其工作方法 |
CN113076078B (zh) * | 2021-03-11 | 2022-03-22 | 山东大学 | 一种基于混合驱动的对话式信息获取方法 |
CN113268614B (zh) * | 2021-05-25 | 2024-06-04 | 平安银行股份有限公司 | 标签体系更新方法、装置、电子设备及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103092911A (zh) * | 2012-11-20 | 2013-05-08 | 北京航空航天大学 | 一种融合社会标签相似度基于k近邻的协同过滤推荐系统 |
CN104598588A (zh) * | 2015-01-19 | 2015-05-06 | 河海大学 | 基于双聚类的微博用户标签自动生成算法 |
CN104834686A (zh) * | 2015-04-17 | 2015-08-12 | 中国科学院信息工程研究所 | 一种基于混合语义矩阵的视频推荐方法 |
CN105760507A (zh) * | 2016-02-23 | 2016-07-13 | 复旦大学 | 基于深度学习的跨模态主题相关性建模方法 |
CN107066445A (zh) * | 2017-04-11 | 2017-08-18 | 华东师范大学 | 一种属性情感词向量的深度学习方法 |
CN107291815A (zh) * | 2017-05-22 | 2017-10-24 | 四川大学 | 基于跨平台标签融合的问答社区推荐方法 |
-
2017
- 2017-10-30 CN CN201711042537.4A patent/CN107798624B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103092911A (zh) * | 2012-11-20 | 2013-05-08 | 北京航空航天大学 | 一种融合社会标签相似度基于k近邻的协同过滤推荐系统 |
CN104598588A (zh) * | 2015-01-19 | 2015-05-06 | 河海大学 | 基于双聚类的微博用户标签自动生成算法 |
CN104834686A (zh) * | 2015-04-17 | 2015-08-12 | 中国科学院信息工程研究所 | 一种基于混合语义矩阵的视频推荐方法 |
CN105760507A (zh) * | 2016-02-23 | 2016-07-13 | 复旦大学 | 基于深度学习的跨模态主题相关性建模方法 |
CN107066445A (zh) * | 2017-04-11 | 2017-08-18 | 华东师范大学 | 一种属性情感词向量的深度学习方法 |
CN107291815A (zh) * | 2017-05-22 | 2017-10-24 | 四川大学 | 基于跨平台标签融合的问答社区推荐方法 |
Non-Patent Citations (1)
Title |
---|
基于词向量的标签语义推荐算法研究;黄聪;《中国优秀硕士学位论文全文数据库 哲学与人文科学辑》;20151115(第11期);第26-37页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107798624A (zh) | 2018-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107798624B (zh) | 一种软件问答社区中的技术标签推荐方法 | |
CN109992782B (zh) | 法律文书命名实体识别方法、装置及计算机设备 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN114020862B (zh) | 一种面向煤矿安全规程的检索式智能问答系统及方法 | |
CN111966812A (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN113159187B (zh) | 分类模型训练方法及装置、目标文本确定方法及装置 | |
CN118093834B (zh) | 一种基于aigc大模型的语言处理问答系统及方法 | |
CN115495555A (zh) | 一种基于深度学习的文献检索方法和系统 | |
CN114416979A (zh) | 一种文本查询方法、设备和存储介质 | |
CN112163089A (zh) | 一种融合命名实体识别的军事高技术文本分类方法及系统 | |
CN114691864A (zh) | 文本分类模型训练方法及装置、文本分类方法及装置 | |
CN111783464A (zh) | 一种面向电力的领域实体识别方法、系统及存储介质 | |
CN115545030A (zh) | 实体抽取模型的训练方法、实体关系抽取方法及装置 | |
CN111666374A (zh) | 一种在深度语言模型中融入额外知识信息的方法 | |
CN113836934B (zh) | 基于标签信息增强的文本分类方法和系统 | |
CN114356990A (zh) | 基于迁移学习的基地命名实体识别系统及方法 | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
CN114003706A (zh) | 关键词组合生成模型训练方法及装置 | |
CN112989803A (zh) | 一种基于主题向量学习的实体链接模型 | |
CN116521886A (zh) | 基于深度学习的教育领域学科知识图谱的构建方法和装置 | |
CN116186220A (zh) | 信息检索方法、问答处理方法、信息检索装置及系统 | |
CN115906846A (zh) | 一种基于双图的层次特征融合的文档级命名实体识别方法 | |
CN115270713A (zh) | 一种人机协同语料库构建方法及系统 | |
CN114417863A (zh) | 词权重生成模型训练方法及装置、词权重生成方法及装置 | |
CN115186105A (zh) | 实体链接方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |