CN109446414A - 一种基于神经网络分类的软件信息站点快速标签推荐方法 - Google Patents
一种基于神经网络分类的软件信息站点快速标签推荐方法 Download PDFInfo
- Publication number
- CN109446414A CN109446414A CN201811140771.5A CN201811140771A CN109446414A CN 109446414 A CN109446414 A CN 109446414A CN 201811140771 A CN201811140771 A CN 201811140771A CN 109446414 A CN109446414 A CN 109446414A
- Authority
- CN
- China
- Prior art keywords
- label
- node
- software information
- information website
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于神经网络分类的软件信息站点快速标签推荐方法,具体是涉及对软件信息站点中的问题数据集先进行数据预处理,再通过建立词典生成句向量。在输入层中,提取句向量中用于表示软件元素的文本描述的n个n元特征。在隐藏层中,这些n元特征被转换为另一种表示方法并被平均以形成隐藏变量。最后,我们使用softmax函数来计算现有标签上的概率分布是一种基于神经网络分类的软件信息站点快速标签推荐方法,具有如下突出特点和优点:第一、构建一个基于单隐层神经网络的合适的框架;第二、利用文本等级约束来实现准确性和效率;第三、利用特征间的共享参数,避免大标签输出空间的局限性。
Description
技术领域
本发明涉及一种对软件信息站点的标签推荐方法,具体是涉及对软件信息站点中的问题数据集先进行数据预处理,再通过建立词典生成句向量。在输入层中,提取句向量中用于表示软件元素的文本描述的n个n元特征。在隐藏层中,这些n元特征被转换为另一种表示方法并被平均以形成隐藏变量。最后,我们使用softmax函数来计算现有标签上的概率分布是一种基于神经网络分类的软件信息站点快速标签推荐方法。
背景技术
随着互联网的快速发展,越来越多的IT爱好者在互联网上寻求帮助,分享经验,以及学习新技术知识,由此出现了各种软件信息站点,像StackOverflow和Freeecode这样的软件信息站点可以为全世界的开发者提供信息共享和交流。
为了便于正确的分类和高效的搜索,开发者需要为他们的发布提供标签。然而,标签本质上是一个不协调的过程,不仅取决于开发者对自己帖子的理解,还取决于其他因素,包括开发者的英语技能和对现有帖子的了解。
因此,即使现有的标签已经足够,开发者也不断创建新的标签。最终的效果是,随着时间的推移,越来越多的标签具有严重的冗余性,并有更多的新标签发布,从而导致任何基于标签的算法效率和准确性都会降低。
目前国内外针对软件信息站点的标签推荐,有基于模糊集合理论,考虑了系统的动态演化的标签推荐方法,有包含多标签排名组件,基于相似度的排名组件和基于标签项的排名组件的标签推荐方法,还有基于贝叶斯推理组件和频率推理组件的标签推荐方法。
上述基于模糊集合理论和相似度排名及贝叶斯推理的方法存在以下不足:
(1)它们应用限制在相对较小的数据集中;
(2)它们是不可扩展的,并且不能够处理问答社区中的连续更新;
(3)它们的召回率和精度指标表现并不理想。
发明内容
本发明的目的在于针对目前软件信息站点标签推荐方面的不足,提供一种基于神经网络分类的软件信息站点快速标签推荐方法,快速标签推荐方法的整体标签推荐架构由三层组成:输入层,隐藏层和输出层。在输入层中,提取句向量中用于表示软件元素的文本描述的n个n元特征。在隐藏层中,这些n元特征被转换为另一种表示方法并被平均以形成隐藏变量。最后,我们使用softmax函数来计算现有标签上的概率分布。
为了达到上述的目的,本发明的构思如下:首先使用scrapy框架从StackOverflow等软件信息站点上获取问题数据,并用脚本对数据进行清洗。在输入层中,存在用于表示软件元素的文本描述的n个n元特征(f1,...,fN),文本描述中的特征可以是文本中的一个词。在隐藏层中,这些n元特征(f1,...,fN)被转换为(x1,...,xN)并被平均以形成隐藏变量Xh。最后,我们使用softmax函数来计算现有标签上的概率分布。
根据以上构思,本发明采用的一个技术方案是:提供一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:包括以下步骤:
步骤1、使用scrapy框架从软件信息站点上获取问题数据集和标签集;
步骤2、对每条问题数据进行数据清洗,去除问题中的标点符号,多余空格和代码,只留下单词,并将单词全部转化为小写,得到清洗后的数据集data;
步骤3、将数据集data分为规模为n的训练集train和规模为的m测试集test;
步骤4、对训练集train建立词典D:
步骤5、标签集大小为s_tag,trainj建立长度为s_tag的向量tagj,将tagj中trainj的标签在标签集中的对应位置的元素置1,其余元素置0;
步骤6、构建输入层:给定trainj文本描述,快速标签推荐方法构造n-gram特征(f1,...,fN);对于每个n元特征fi,特征向量fti可以通过使用查找表TL获得;借助于权重矩阵A的共享参数,最终获得用于表示输入层中的文本描述的ngram特征向量(x1,...,xN);
步骤7、构建隐藏层:在隐藏层中,计算n-gram特征向量(x1,...,xN)的平均值以使用以下等式获得隐藏变量Xh:
Xh用于表示隐藏层中的文本描述;
步骤8:构造输出层:输出层对应于二叉树;叶节点表示软件信息站点中的标
签;叶节点的权重代表其标签的频率;叶节点数为k,非叶节点数为(k-1);
步骤9、对训练集T进行多轮迭代神经网络训练;
步骤10、利用测试集对模型进行测试,计算召回率准确率和F1-scorel来检验模型的效果,调整参数,重复步骤9直到得一个合适的神经网络模型;
在上述的一种基于神经网络分类的软件信息站点快速标签推荐方法,所述步骤4具体包括:
步骤4a、建立字典变量dict;
步骤4b、对于train中的每个词Wi来说,如果Wi没有出现在dict中,则将键值对{Wi:1}加入dict,如果Wi在dict中已存在,则对D中的Wi的值进行更新:{Wi:w+1};
步骤4c、对dict中的词dicti进行编号得到词典D;
在上述的一种基于神经网络分类的软件信息站点快速标签推荐方法,所述步骤6具体包括:
步骤6a、本方法使用n-gram作为附加功能来捕获关于本地词序的部分信息;首先构造查找表TL以存储n-gram的m维特征向量;查找表的大小理论上是|D|n,其中|D|是词典D的大小;
步骤6b、扫描软件信息站点,并且对软件信息站点中出现的所有n-gram元素,在TL中被分配了一个m维特征向量;对于TL中的每个n-gram,随机地初始化m维特征向量并且可以由index(n-gram)=hashcode(n-gram)定位一个n-gram;本方法
步骤6c、构造一个共享权重矩阵A;n-gram特征fi的特征向量xi可以通过以下等式获得:
xi=A×TL(hashcode(fi))∈Rm;
在上述的一种基于神经网络分类的软件信息站点快速标签推荐方法,所述步骤8基于以下定义:
1)pt表示从根节点到对应于标签t的叶节点的路径;
2)lt表示路径pt中的节点的数量;
3)表示路径pt中的lt节点;是根节点,是标签t对应的叶节点;
4)表示标签t的霍夫曼编码;编码由lt-1位组成;表示路径pt中第i个节点的编码;根节点没有编码;
5)表示路径pt中的非叶节点的向量;表示路径pt中第i个非叶节点的向量;
步骤8具体包括:
步骤8a、基于哈夫曼树,首先构造标签的概率分布p(t|Xh)(Xh∈Rn);对于叶节点t,路径pt中分支的数量为lt-1;路径中的每个分支都可以看作是二元分类过程;对于每个非叶子节点,我们需要指定左右子节点的类别;除了根节点之外,霍夫曼树中的每个节点都对应一个0或1的霍夫曼码;本方法中,编码为0的节点被定义为正类,否则定义为负类;该关系在以下公式中定义:
根据softmax函数,节点被分类为正类的概率可以通过以下公式来计算:
其中θ是一个节点的向量;节点被分类为负类的概率是
步骤8b、对于软件信息站点中的每个标签t,存在从根到叶的路径pt;在霍夫曼树;路径上有lt-1个分支;由于每一个分支都可以看作是一个二元分类过程,每一个分类产生一个概率我们可以通过概率的乘积得到p(t|Xh),以下公式描述了这种关系:
其中的可由以下两个公式求得:
对于标签为oi.t的每个样本oi.d,我们对样本做如下处理:;
该公式可以可以通过p(t|Xh)公式转换为以下公式:
以上公式是该模型的目标函数;我们可以通过使用随机梯度下降和线性衰减学习率η来最大化目标函数;当具有标签oi.d的样本在模型上被训练时,可以通过在多个CPU上同时使用随机梯度下降和线性衰减学习速率η来进行训练;我们更新所有相关参数,包括共享参数权重矩阵A和矩阵
在上述的一种基于神经网络分类的软件信息站点快速标签推荐方法,所述步骤10具体包括:
步骤10a、计算召回率:对于测试集中的问题testi,其召回率Recall@ki计算方式如下,其中为模型推荐的标签,tagi为testi原有标签,topK为自定义推荐标签数;
整个测试集的召回率计算方式如下:
步骤10b、计算准确率:对于测试集中的问题testi,其召回率Precision@ki计算方式如下,其中为模型推荐的标签,tagi为testi原有标签,topK为自定义推荐标签数;
整个测试集的准确率计算方式如下:
步骤10c、计算F1-score:对于测试集中的问题testi,其F1-score@ki计算方式如下
整个测试集的准确率计算方式如下:
步骤10d、调整模型参数,使得F1-score最大,召回率最高。
本发明的有益效果是:一种基于神经网络分类的软件信息站点快速标签推荐方法与现有的技术相比较,具有如下突出特点和优点:第一、构建一个基于单隐层神经网络的合适的框架;第二、利用文本等级约束来实现准确性和效率;第三、利用特征间的共享参数,避免大标签输出空间的局限性。
附图说明
图1是本发明中基于神经网络分类的软件信息站点快速标签推荐方法的结构示意图。
具体实施方式
以下结合附图对本发明的实施例作进一步的说明。
本发明包括以下步骤:
步骤1、使用scrapy框架从软件信息站点上获取问题数据集和标签集;
步骤2、对每条问题数据进行数据清洗,去除问题中的标点符号,多余空格和代码,只留下单词,并将单词全部转化为小写,得到清洗后的数据集data;
步骤3、将数据集data分为规模为n的训练集train和规模为的m测试集test;
步骤4、对训练集train建立词典D:
步骤5、标签集大小为s_tag,trainj建立长度为s_tag的向量tagj,将tagj中trainj的标签在标签集中的对应位置的元素置1,其余元素置0;
步骤6、构建输入层:给定trainj文本描述,快速标签推荐方法构造n-gram特征(f1,...,fN);对于每个n元特征fi,特征向量fti可以通过使用查找表TL获得;借助于权重矩阵A的共享参数,最终获得用于表示输入层中的文本描述的ngram特征向量(x1,...,xN);
步骤7、构建隐藏层:在隐藏层中,计算n-gram特征向量(x1,...,xN)的平均值以使用以下等式获得隐藏变量Xh:
Xh用于表示隐藏层中的文本描述;
步骤8:构造输出层:输出层对应于二叉树;叶节点表示软件信息站点中的标签;叶节点的权重代表其标签的频率;叶节点数为k,非叶节点数为(k-1);
步骤9、对训练集T进行多轮迭代神经网络训练;
步骤10、利用测试集对模型进行测试,计算召回率准确率和F1-scorel来检验模型的效果,调整参数,重复步骤9直到得一个合适的神经网络模型;
其中,图1描述了快速标签推荐方法的整体标签推荐体系结构,由三层组成:输入层,隐藏层和输出层。这种架构类似于连续的单词模型(CBOW)。在输入层中,存在用于表示软件元素的文本描述的n个n元特征(f1,...,fN)。文本描述中的特征可以是文本中的一个词。例如,“杰克喜欢简”的两个2克特征是f1=(杰克喜欢)和f2=(喜欢简)。在隐藏层中,这些n元特征(f1,...,fN)被转换为(x1,...,xN)并被平均以形成隐藏变量Xh。最后,我们使用softmax函数来计算现有标签上的概率分布。对于软件信息站点中的标记软件对象的集合|S|,这使得它们的标签上的对数似然最大化:
其中tj是软件对象的标签,oi.d是软件对象的文本描述。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:包括以下步骤:
步骤1、使用scrapy框架从软件信息站点上获取问题数据集和标签集;
步骤2、对每条问题数据进行数据清洗,去除问题中的标点符号,多余空格和代码,只留下单词,并将单词全部转化为小写,得到清洗后的数据集data;
步骤3、将数据集data分为规模为n的训练集train和规模为的m测试集test;
步骤4、对训练集train建立词典D:
步骤5、标签集大小为s_tag,trainj建立长度为s_tag的向量tagj,将tagj中trainj的标签在标签集中的对应位置的元素置1,其余元素置0;
步骤6、构建输入层:给定trainj文本描述,快速标签推荐方法构造n-gram特征(f1,...,fN);对于每个n元特征fi,特征向量fti可以通过使用查找表TL获得;借助于权重矩阵A的共享参数,最终获得用于表示输入层中的文本描述的ngram特征向量(x1,...,xN);
步骤7、构建隐藏层:在隐藏层中,计算n-gram特征向量(x1,...,xN)的平
均值以使用以下等式获得隐藏变量Xh:
Xh用于表示隐藏层中的文本描述;
步骤8:构造输出层:输出层对应于二叉树;叶节点表示软件信息站点中的标
签;叶节点的权重代表其标签的频率;叶节点数为k,非叶节点数为(k-1);
步骤9、对训练集T进行多轮迭代神经网络训练;
步骤10、利用测试集对模型进行测试,计算召回率准确率和F1-scorel来检验模型的效果,调整参数,重复步骤9直到得一个合适的神经网络模型。
2.根据权利要求1所述的一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:所述步骤4具体包括:
步骤4a、建立字典变量dict;
步骤4b、对于train中的每个词Wi来说,如果Wi没有出现在dict中,则将键值对{Wi:1}加入dict,如果Wi在dict中已存在,则对D中的Wi的值进行更新:{Wi:w+1};
步骤4c、对dict中的词dicti进行编号得到词典D。
3.根据权利要求1所述的一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:所述步骤6具体包括:
步骤6a、本方法使用n-gram作为附加功能来捕获关于本地词序的部分信息;首先构造查找表TL以存储n-gram的m维特征向量;查找表的大小理论上是|D|n,其中|D|是词典D的大小;
步骤6b、扫描软件信息站点,并且对软件信息站点中出现的所有n-gram元素,在TL中被分配了一个m维特征向量;对于TL中的每个n-gram,随机地初始化m维特征向量并且可以由index(n-gram)=hashcode(n-gram)定位一个n-gram;本方法
步骤6c、构造一个共享权重矩阵A;n-gram特征fi的特征向量xi可以通过以下等式获得:
xi=A×TL(hashcode(fi))∈Rm。
4.根据权利要求1所述的一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:所述步骤8基于以下定义:
1)pt表示从根节点到对应于标签t的叶节点的路径;
2)lt表示路径pt中的节点的数量;
3) 表示路径pt中的lt节点;是根节点,是标签t对应的叶节点;
4)表示标签t的霍夫曼编码;编码由lt-1位组成;表示路径pt中第i个节点的编码;根节点没有编码;
5)表示路径pt中的非叶节点的向量;表示路径pt中第i个非叶节点的向量;
步骤8具体包括:
步骤8a、基于哈夫曼树,首先构造标签的概率分布p(t|Xh)(Xh∈Rn);对于叶节点t,路径pt中分支的数量为lt-1;路径中的每个分支都可以看作是二元分类过程;对于每个非叶子节点,我们需要指定左右子节点的类别;除了根节点之外,霍夫曼树中的每个节点都对应一个0或1的霍夫曼码;本方法中,编码为0的节点被定义为正类,否则定义为负类;该关系在以下公式中定义:
根据softmax函数,节点被分类为正类的概率可以通过以下公式来计算:
其中θ是一个节点的向量;节点被分类为负类的概率是
步骤8b、对于软件信息站点中的每个标签t,存在从根到叶的路径pt;在霍夫曼树;路径上有lt-1个分支;由于每一个分支都可以看作是一个二元分类过程,每一个分类产生一个概率我们可以通过概率的乘积得到p(t|Xh),以下公式描述了这种关系:
其中的可由以下两个公式求得:
对于标签为oi.t的每个样本oi.d,我们对样本做如下处理:;
该公式可以可以通过p(t|Xh)公式转换为以下公式:
以上公式是该模型的目标函数;我们可以通过使用随机梯度下降和线性衰减学习率η来最大化目标函数;当具有标签oi.d的样本在模型上被训练时,可以通过在多个CPU上同时使用随机梯度下降和线性衰减学习速率η来进行训练;我们更新所有相关参数,包括共享参数权重矩阵A和矩阵
5.根据权利要求1所述的一种基于神经网络分类的软件信息站点快速标签推荐方法,其特征在于:所述步骤10具体包括:
步骤10a、计算召回率:对于测试集中的问题testi,其召回率Recall@ki计算方式如下,其中为模型推荐的标签,tagi为testi原有标签,topK为自定义推荐标签数;
整个测试集的召回率计算方式如下:
步骤10b、计算准确率:对于测试集中的问题testi,其召回率Precision@ki计算方式如下,其中为模型推荐的标签,tagi为testi原有标签,topK为自定义推荐标签数;
整个测试集的准确率计算方式如下:
步骤10c、计算F1-score:对于测试集中的问题testi,其F1-score@ki计算方式如下
整个测试集的准确率计算方式如下:
步骤10d、调整模型参数,使得F1-score最大,召回率最高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811140771.5A CN109446414B (zh) | 2018-09-28 | 2018-09-28 | 一种基于神经网络分类的软件信息站点快速标签推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811140771.5A CN109446414B (zh) | 2018-09-28 | 2018-09-28 | 一种基于神经网络分类的软件信息站点快速标签推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109446414A true CN109446414A (zh) | 2019-03-08 |
CN109446414B CN109446414B (zh) | 2021-08-17 |
Family
ID=65544494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811140771.5A Active CN109446414B (zh) | 2018-09-28 | 2018-09-28 | 一种基于神经网络分类的软件信息站点快速标签推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109446414B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175235A (zh) * | 2019-04-23 | 2019-08-27 | 苏宁易购集团股份有限公司 | 基于神经网络的智能商品税分类编码方法及系统 |
CN110543563A (zh) * | 2019-08-20 | 2019-12-06 | 暨南大学 | 一种层次型文本分类方法及系统 |
CN111274494A (zh) * | 2020-01-20 | 2020-06-12 | 重庆大学 | 结合深度学习和协同过滤技术的复合标签推荐方法 |
CN111835444A (zh) * | 2020-06-17 | 2020-10-27 | 武汉大学 | 一种无线信道场景识别方法及系统 |
CN113505304A (zh) * | 2021-09-10 | 2021-10-15 | 明品云(北京)数据科技有限公司 | 一种目标对象推荐方法及系统 |
US11461414B2 (en) | 2019-08-20 | 2022-10-04 | Red Hat, Inc. | Automatically building a searchable database of software features for software projects |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170235451A1 (en) * | 2016-02-16 | 2017-08-17 | Gal EHRLICH | Minimally invasive user metadata |
CN107153642A (zh) * | 2017-05-16 | 2017-09-12 | 华北电力大学 | 一种基于神经网络识别文本评论情感倾向的分析方法 |
CN107341169A (zh) * | 2017-02-17 | 2017-11-10 | 武汉大学 | 一种基于信息检索的大规模软件信息站标签推荐方法 |
CN107480141A (zh) * | 2017-08-29 | 2017-12-15 | 南京大学 | 一种基于文本和开发者活跃度的软件缺陷辅助分派方法 |
CN107798624A (zh) * | 2017-10-30 | 2018-03-13 | 北京航空航天大学 | 一种软件问答社区中的技术标签推荐方法 |
-
2018
- 2018-09-28 CN CN201811140771.5A patent/CN109446414B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170235451A1 (en) * | 2016-02-16 | 2017-08-17 | Gal EHRLICH | Minimally invasive user metadata |
CN107341169A (zh) * | 2017-02-17 | 2017-11-10 | 武汉大学 | 一种基于信息检索的大规模软件信息站标签推荐方法 |
CN107153642A (zh) * | 2017-05-16 | 2017-09-12 | 华北电力大学 | 一种基于神经网络识别文本评论情感倾向的分析方法 |
CN107480141A (zh) * | 2017-08-29 | 2017-12-15 | 南京大学 | 一种基于文本和开发者活跃度的软件缺陷辅助分派方法 |
CN107798624A (zh) * | 2017-10-30 | 2018-03-13 | 北京航空航天大学 | 一种软件问答社区中的技术标签推荐方法 |
Non-Patent Citations (1)
Title |
---|
方冰等: "基于标签的矩阵分解推荐算法", 《计算机应用研究》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175235A (zh) * | 2019-04-23 | 2019-08-27 | 苏宁易购集团股份有限公司 | 基于神经网络的智能商品税分类编码方法及系统 |
CN110543563A (zh) * | 2019-08-20 | 2019-12-06 | 暨南大学 | 一种层次型文本分类方法及系统 |
US11461414B2 (en) | 2019-08-20 | 2022-10-04 | Red Hat, Inc. | Automatically building a searchable database of software features for software projects |
CN111274494A (zh) * | 2020-01-20 | 2020-06-12 | 重庆大学 | 结合深度学习和协同过滤技术的复合标签推荐方法 |
CN111274494B (zh) * | 2020-01-20 | 2022-09-23 | 重庆大学 | 结合深度学习和协同过滤技术的复合标签推荐方法 |
CN111835444A (zh) * | 2020-06-17 | 2020-10-27 | 武汉大学 | 一种无线信道场景识别方法及系统 |
CN111835444B (zh) * | 2020-06-17 | 2021-04-27 | 武汉大学 | 一种无线信道场景识别方法及系统 |
CN113505304A (zh) * | 2021-09-10 | 2021-10-15 | 明品云(北京)数据科技有限公司 | 一种目标对象推荐方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109446414B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446414A (zh) | 一种基于神经网络分类的软件信息站点快速标签推荐方法 | |
WO2023065545A1 (zh) | 风险预测方法、装置、设备及存储介质 | |
CN110555112B (zh) | 一种基于用户正负偏好学习的兴趣点推荐方法 | |
CN110837602B (zh) | 基于表示学习和多模态卷积神经网络的用户推荐方法 | |
CN111125358B (zh) | 一种基于超图的文本分类方法 | |
US11514063B2 (en) | Method and apparatus of recommending information based on fused relationship network, and device and medium | |
CN109284406B (zh) | 基于差异循环神经网络的意图识别方法 | |
CN107122455A (zh) | 一种基于微博的网络用户增强表示方法 | |
CN107748757A (zh) | 一种基于知识图谱的问答方法 | |
Shah et al. | Sentimental Analysis Using Supervised Learning Algorithms | |
CN103325061A (zh) | 一种社区发现方法和系统 | |
CN109086463B (zh) | 一种基于区域卷积神经网络的问答社区标签推荐方法 | |
Saito et al. | Learning path recommender system based on recurrent neural network | |
JP7393060B2 (ja) | 注意メカニズムを融合したパーソナライズド検索方法及び検索システム | |
CN113392317A (zh) | 一种标签配置方法、装置、设备及存储介质 | |
CN112131261B (zh) | 基于社区网络的社区查询方法、装置和计算机设备 | |
CN109948242A (zh) | 基于特征哈希的网络表示学习方法 | |
CN110019796A (zh) | 一种用户文本信息分析方法及装置 | |
CN110363283A (zh) | 基于深度学习的用户属性预测方法及相关装置 | |
CN116244484B (zh) | 一种面向不平衡数据的联邦跨模态检索方法及系统 | |
CN109299291B (zh) | 一种基于卷积神经网络的问答社区标签推荐方法 | |
CN111126443A (zh) | 基于随机游走的网络表示学习方法 | |
CN116957128A (zh) | 业务指标预测方法、装置、设备和存储介质 | |
EP4261763A1 (en) | Apparatus and method for providing user's interior style analysis model on basis of sns text | |
CN113535945B (zh) | 文本类别的识别方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |