CN111353032B - 面向社区问答的问题分类方法及系统 - Google Patents

面向社区问答的问题分类方法及系统 Download PDF

Info

Publication number
CN111353032B
CN111353032B CN202010122754.XA CN202010122754A CN111353032B CN 111353032 B CN111353032 B CN 111353032B CN 202010122754 A CN202010122754 A CN 202010122754A CN 111353032 B CN111353032 B CN 111353032B
Authority
CN
China
Prior art keywords
question
vector
word
deep learning
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010122754.XA
Other languages
English (en)
Other versions
CN111353032A (zh
Inventor
陈羽中
张衍坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202010122754.XA priority Critical patent/CN111353032B/zh
Publication of CN111353032A publication Critical patent/CN111353032A/zh
Application granted granted Critical
Publication of CN111353032B publication Critical patent/CN111353032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种面向社区问答的问题分类方法及系统,该方法包括以下步骤:步骤A:采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集TS;步骤B:对问题分类训练集TS中的问题进行字符级编码和词语级编码,得到问题的表征向量,以此训练基于双通道神经网络的深度学习网络模型;步骤C:问题分类系统接受用户提交的问题,将问题输入到训练好的深度学习网络模型中,输出模型划分的问题所述类别。该方法及系统有利于提高社区问答中问题分类的准确性。

Description

面向社区问答的问题分类方法及系统
技术领域
本发明属于自然语言处理与智能问答应用领域,具体涉及一种面向社区问答的问题分类方法及系统。
背景技术
问答(Question Answering,QA)系统起源于图灵测试,随着时间的发展,问答系统领域也发生了重大变革。按照处理的数据格式不同,问答系统分别经历了结构化知识库阶段、无结构文本阶段、基于问题.答案数据阶段。随着互联网的普及,网上出现了大量的文本和各种大型论坛,这为智能问答系统的兴起奠定了基础。在问答系统中,问题分类逐渐成了问答系统的一个重要研究分支。
在早期,一些问题分类的方法主要在特定领域下采用模板或者规则来对问题进行分类,如依照一些特定的疑问词使用模板进行匹配,在一些问题分类任务上取得了一定的成果。除此之外,Yu等人通过半监督学习来进行问题分类,在数据集中协同使用未标注和已标注的数据,通过词间的语义相似性作为特征分类,实验结果得到较大的提高。 Xu等人基于朴素贝叶斯来使用汉语依存语法提取问题文本的句法特征进行问题分类,有效提高了问题分类的精度。
深度学习理论在答案抽取和排序任务上也有一定应用。Zhou等人将输入序列先输入CNN后,再输入LSTM来得问题句子的表征向量,输入到softmax中进行问题分类。 Wang等人则先使用LSTM来得到输入问题文本序列的隐藏序列,再利用CNN模型来得到最终的表征向量,最后进行问题分类。
传统CQA系统使用有监督学习,训练问题分类模型,但该方法需要抽取复杂的文本特征,特征工程需要较多的工程经验,很难在特征构造上做到最优,并且该方法在新的数据集上泛化性能较差,对新数据集往往需求重新进行特征抽取和特征工程。目前基于深度学习的方法通常基于单一的卷积神经网络或循环神经网络,或者串行结合卷积神经网络和循环神经网络,无法全面准确地提取影响问题分类精度的各项特征。
发明内容
本发明的目的在于提供一种面向社区问答的问题分类方法及系统,该方法及系统有利于提高社区问答中问题分类的准确性。
为实现上述目的,本发明采用的技术方案是:一种面向社区问答的问题分类方法,包括以下步骤:
步骤A:采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集TS;
步骤B:对问题分类训练集TS中的问题进行字符级编码和词语级编码,得到问题的表征向量,以此训练基于双通道神经网络的深度学习网络模型;
步骤C:问题分类系统接受用户提交的问题,将问题输入到训练好的深度学习网络模型中,输出模型划分的问题所述类别。
进一步地,所述步骤B具体包括以下步骤:
步骤B1:遍历问题分类训练集TS,TS中的每个训练样本表示为(q,y),其中q表示问题,y=c∈C表示问题q所属的问题类别,C={1,2,...,L}为问题类别集合,1≤c≤L, L表示问题类别数;将问题q输入深度学习网络模型的字符级编码模块,得到问题q的字符向量序列
Figure BDA0002393488250000021
步骤B2:将问题q的字符向量序列
Figure BDA0002393488250000022
输入深度学习网络模型的双层Bi-LSTM网络模块,再输入注意力模块,得到问题q的表征向量
Figure BDA0002393488250000023
步骤B3:将问题q输入深度学习网络模型的词语级编码模块,得到问题q的词语级表征向量
Figure BDA0002393488250000024
步骤B4:将问题q的词语级表征向量
Figure BDA0002393488250000025
输入到深度学习网络模型的带shortcut连接的卷积神经网络中,得到问题q的表征向量
Figure BDA0002393488250000026
步骤B5:将问题q的表征向量
Figure BDA0002393488250000027
Figure BDA0002393488250000028
输入全连接层进行融合,得到问题q的最终表征向量
Figure BDA0002393488250000029
Figure BDA00023934882500000210
输入到Softmax层中,计算问题q属于各个问题类别的概率
Figure BDA00023934882500000211
选择
Figure BDA00023934882500000212
作为预测的问题类别;
步骤B6:根据目标损失函数loss,利用反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新参数,以此训练深度学习网络模型;
步骤B7:当深度学习网络模型产生的损失值迭代变化小于设定阈值或者达到最大迭代次数时,则终止深度学习网络模型的训练。
进一步地,所述步骤B1具体包括以下步骤:
步骤B11:对问题q进行分词处理,并去除停用词,得到问题q的词序列 q={w1,w2,...,wk},其中wi,i=1,2,...,k为分词及去除停用词后的问题q中的第i个词,k 为分词及去除停用词后的问题q中的词语数,
Figure BDA0002393488250000031
其中ci,j,j=1,2,...,ni为构成wi的第j个字符,ni为wi中的字符数;
步骤B12:对问题q的词序列q={w1,w2,...,wk}中的每个词wi进行字符级编码,wi的字符序列为
Figure BDA0002393488250000032
则wi的字符向量序列为
Figure BDA0002393488250000033
i=1,2,...,k,其中
Figure BDA0002393488250000034
j=1,2,...,ni为ci,j的字符向量,在预训练的字符向量矩阵
Figure BDA0002393488250000035
中查询得到,其中d1表示字符向量的维度,|V1|表示字符向量矩阵E1中的字符总数;则问题q的字符向量序列为
Figure BDA0002393488250000036
进一步地,所述步骤B2具体包括以下步骤:
步骤B21:遍历问题q的每个词wi,将其字符向量序列
Figure BDA0002393488250000037
输入第一层Bi-LSTM网络,得到wi的隐藏状态序列
Figure BDA0002393488250000038
Figure BDA0002393488250000039
作为wi的词向量
Figure BDA00023934882500000310
Figure BDA00023934882500000311
则问题q的词向量序列为
Figure BDA00023934882500000312
步骤B22:将
Figure BDA00023934882500000313
输入第二层Bi-LSTM网络,得到问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk],其中hi
Figure BDA00023934882500000314
的隐藏状态;
步骤B23:将问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk]输入到注意力层,输出问题q的表征向量
Figure BDA00023934882500000315
Figure BDA00023934882500000316
Figure BDA00023934882500000317
其中,Wa表示权重矩阵。
进一步地,所述步骤B3的具体方法为:对问题q的词序列q={w1,w2,...,wk},其词向量序列为[e1,e2,...,ek],
Figure BDA0002393488250000041
i=1,2,...,k,ei为第i个词wi的词向量,在预训练的词向量矩阵
Figure BDA0002393488250000042
中查询得到,其中d2表示词向量的维度,|V2|表示预训练的词向量矩阵E2中的词数;则问题q的词语级表征向量为
Figure BDA0002393488250000043
进一步地,所述步骤B4具体包括以下步骤:
步骤B41:对
Figure BDA0002393488250000044
进行一轮卷积,获得表征向量x1,对x1进行两轮卷积,获得表征向量x2
步骤B42:通过shortcut连接表征向量x1和x2,得到表征向量
Figure BDA0002393488250000045
以缓解梯度消失问题,则有:
xs=x1+x2
步骤B43:对表征向量xs进行最大池化,得到池化后的向量xp
步骤B44:将池化向量xp作为输入,对xp进行2轮卷积得到向量x3,通过shortcut 连接xp和x3并进行最大池化后输入到全连接层,将全连接层的输出作为问题q的表征向量
Figure BDA0002393488250000046
进一步地,所述步骤B41的具体方法为:在每轮卷积中,卷积核的大小设为h,卷积核的数量设为l,padding设置为(h-1)/2,则每轮卷积中的第t个卷积核的输出
Figure BDA0002393488250000047
为:
Figure BDA0002393488250000048
其中,卷积核在位置i的输出
Figure BDA0002393488250000049
为:
Figure BDA00023934882500000410
其中
Figure BDA00023934882500000411
为每轮卷积中第t个卷积核的参数,t=1,2,...,l,
Figure BDA00023934882500000412
是偏置参数, f为激活函数,
Figure BDA00023934882500000413
表示输入卷积核的表征向量落在卷积核窗口内的第i到 i+h-1列;
连接l个卷积核的输出,得到表征向量
Figure BDA0002393488250000051
Figure BDA0002393488250000052
进行两轮卷积,连接l个卷积核的输出,得到表征向量
Figure BDA0002393488250000053
本发明还提供了一种面向社区问答的问题分类系统,其特征在于,包括:
数据收集模块,用于采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集;
问题预处理模块,用于对问题分类训练集中的问题进行预处理,包括分词处理和去除停用词;
问题编码模块,用于对问题分类训练集中的问题进行字符级编码和词语级编码,得到问题的表征向量;
深度学习网络训练模块,用于将问题的表征向量输入到深度学习网络中,对深度学习网络模型进行训练,得到训练好的深度学习网络模型;以及
问题分类模块,用于利用训练好的深度学习网络模型对输入的问题进行处理,输出问题所属的类别。
相较于现有技术,本发明具有以下有益效果:提供了一种面向社区问答的问题分类方法及系统,本发明通过对问题进行字符级编码和词语级编码,能够全面准确地提取影响问题分类精度的各项特征,然后对基于双通道神经网络的深度学习网络模型进行训练,以训练好的模型对问题进行分类,从而能够有效提高社区问答中问题分类的准确性,具有很强的实用性和广阔的应用前景。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例中步骤B的实现流程图。
图3是本发明实施例的系统结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。
本发明提供一种面向社区问答的问题分类方法,如图1所示,包括以下步骤:
步骤A:采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集TS。
步骤B:对问题分类训练集TS中的问题进行字符级编码和词语级编码,得到问题的表征向量,以此训练基于双通道神经网络的深度学习网络模型。如图2所示,步骤B 具体包括以下步骤:
步骤B1:遍历问题分类训练集TS,TS中的每个训练样本表示为(q,y),其中q表示问题,y=c∈C表示问题q所属的问题类别,C={1,2,...,L}为问题类别集合,1≤c≤L, L表示问题类别数;将问题q输入深度学习网络模型的字符级编码模块,得到问题q的字符向量序列
Figure BDA0002393488250000061
具体包括以下步骤:
步骤B11:对问题q进行分词处理,并去除停用词,得到问题q的词序列 q={w1,w2,...,wk},其中wi,i=1,2,...,k为分词及去除停用词后的问题q中的第i个词,k 为分词及去除停用词后的问题q中的词语数,wi进一步表示为
Figure BDA0002393488250000062
其中 ci,j,j=1,2,...,ni为构成wi的第j个字符,ni为wi中的字符数;
步骤B12:对问题q的词序列q={w1,w2,...,wk}中的每个词wi进行字符级编码,wi的字符序列为
Figure BDA0002393488250000063
则wi的字符向量序列为
Figure BDA0002393488250000064
i=1,2,...,k,其中
Figure BDA0002393488250000065
j=1,2,...,ni为ci,j的字符向量,在预训练的字符向量矩阵
Figure BDA0002393488250000066
中查询得到,其中d1表示字符向量的维度,|V1|表示字符向量矩阵E1中的字符总数;则问题q的字符向量序列为
Figure BDA0002393488250000067
步骤B2:将问题q的字符向量序列
Figure BDA0002393488250000068
输入深度学习网络模型的双层Bi-LSTM网络模块,再输入注意力模块,得到问题q的表征向量
Figure BDA0002393488250000069
具体包括以下步骤:
步骤B21:遍历问题q的每个词wi,将其字符向量序列
Figure BDA00023934882500000610
输入第一层Bi-LSTM网络,得到wi的隐藏状态序列
Figure BDA00023934882500000611
Figure BDA00023934882500000612
作为wi的词向量
Figure BDA00023934882500000613
Figure BDA00023934882500000614
则问题q的词向量序列为
Figure BDA00023934882500000615
步骤B22:将
Figure BDA00023934882500000616
输入第二层Bi-LSTM网络,得到问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk],其中hi
Figure BDA00023934882500000617
的隐藏状态;
步骤B23:将问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk]输入到注意力层,输出问题q的表征向量
Figure BDA0002393488250000071
Figure BDA0002393488250000072
Figure BDA0002393488250000073
其中,Wa表示权重矩阵。
步骤B3:将问题q输入深度学习网络模型的词语级编码模块,得到问题q的词语级表征向量
Figure BDA0002393488250000074
其具体方法为:
对问题q的词序列q={w1,w2,...,wk},其词向量序列为[e1,e2,...,ek],
Figure BDA0002393488250000075
i=1,2,...,k,ei为第i个词wi的词向量,在预训练的词向量矩阵
Figure BDA0002393488250000076
中查询得到,其中d2表示词向量的维度,|V2|表示预训练的词向量矩阵E2中的词数;则问题 q的词语级表征向量为
Figure BDA0002393488250000077
步骤B4:将问题q的词语级表征向量
Figure BDA0002393488250000078
输入到深度学习网络模型的带shortcut连接的卷积神经网络中,得到问题q的表征向量
Figure BDA0002393488250000079
具体包括以下步骤:
步骤B41:对
Figure BDA00023934882500000710
进行一轮卷积,获得表征向量x1,对x1进行两轮卷积,获得表征向量x2。其具体方法为:
在每轮卷积中,卷积核的大小设为h,卷积核的数量设为l,padding设置为(h-1)/2,则每轮卷积中的第t个卷积核的输出
Figure BDA00023934882500000711
为:
Figure BDA00023934882500000712
其中,卷积核在位置i的输出
Figure BDA00023934882500000713
为:
Figure BDA00023934882500000714
其中
Figure BDA00023934882500000715
为每轮卷积中第t个卷积核的参数,t=1,2,...,l,
Figure BDA00023934882500000716
是偏置参数, f为激活函数,
Figure BDA00023934882500000717
表示输入卷积核的表征向量落在卷积核窗口内的第i到 i+h-1列;
连接l个卷积核的输出,得到表征向量
Figure BDA0002393488250000081
Figure BDA0002393488250000082
进行两轮卷积,连接l个卷积核的输出,得到表征向量
Figure BDA0002393488250000083
步骤B42:通过shortcut连接表征向量x1和x2,得到表征向量
Figure BDA0002393488250000084
以缓解梯度消失问题,则有:
xs=x1+x2
步骤B43:对表征向量xs进行最大池化,得到池化后的向量xp
步骤B44:将池化向量xp作为输入,对xp进行2轮卷积得到向量x3,通过shortcut 连接xp和x3并进行最大池化后输入到全连接层,将全连接层的输出作为问题q的表征向量
Figure BDA0002393488250000085
步骤B5:将问题q的表征向量
Figure BDA0002393488250000086
Figure BDA0002393488250000087
输入全连接层进行融合,得到问题q的最终表征向量
Figure BDA0002393488250000088
Figure BDA0002393488250000089
输入到Softmax层中,计算问题q属于各个问题类别的概率
Figure BDA00023934882500000810
选择
Figure BDA00023934882500000811
作为预测的问题类别。
步骤B6:根据目标损失函数loss,利用反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新参数,以此训练深度学习网络模型。
步骤B7:当深度学习网络模型产生的损失值迭代变化小于设定阈值或者达到最大迭代次数时,则终止深度学习网络模型的训练,得到训练好的深度学习网络模型。
步骤C:问题分类系统接受用户提交的问题,将问题输入到训练好的深度学习网络模型中,输出模型划分的问题所述类别。
本发明还提供了一种采用上述方法的面向社区问答的问题分类系统,如图3所示,包括数据收集模块、问题预处理模块、问题编码模块、深度学习网络训练模块和问题分类模块。
所述数据收集模块用于采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集。
所述问题预处理模块用于对问题分类训练集中的问题进行预处理,包括分词处理和去除停用词。
所述问题编码模块用于对问题分类训练集中的问题进行字符级编码和词语级编码,得到问题的表征向量。
所述深度学习网络训练模块用于将问题的表征向量输入到深度学习网络中,对深度学习网络模型进行训练,得到训练好的深度学习网络模型。
所述问题分类模块用于利用训练好的深度学习网络模型对输入的问题进行处理,输出问题所属的类别。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (7)

1.一种面向社区问答的问题分类方法,其特征在于,包括以下步骤:
步骤A:采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集TS;
步骤B:对问题分类训练集TS中的问题进行字符级编码和词语级编码,得到问题的表征向量,以此训练基于双通道神经网络的深度学习网络模型;
步骤C:问题分类系统接受用户提交的问题,将问题输入到训练好的深度学习网络模型中,输出模型划分的问题所述类别;
所述步骤B具体包括以下步骤:
步骤B1:遍历问题分类训练集TS,TS中的每个训练样本表示为(q,y),其中q表示问题,y=c∈C表示问题q所属的问题类别,C={1,2,...,L}为问题类别集合,1≤c≤L,L表示问题类别数;将问题q输入深度学习网络模型的字符级编码模块,得到问题q的字符向量序列
Figure FDA0003581191810000011
步骤B2:将问题q的字符向量序列
Figure FDA0003581191810000012
输入深度学习网络模型的双层Bi-LSTM网络模块,再输入注意力模块,得到问题q的表征向量
Figure FDA0003581191810000013
步骤B3:将问题q输入深度学习网络模型的词语级编码模块,得到问题q的词语级表征向量
Figure FDA0003581191810000014
步骤B4:将问题q的词语级表征向量
Figure FDA0003581191810000015
输入到深度学习网络模型的带shortcut连接的卷积神经网络中,得到问题q的表征向量
Figure FDA0003581191810000016
步骤B5:将问题q的表征向量
Figure FDA0003581191810000017
Figure FDA0003581191810000018
输入全连接层进行融合,得到问题q的最终表征向量
Figure FDA0003581191810000019
Figure FDA00035811918100000110
输入到Softmax层中,计算问题q属于各个问题类别的概率
Figure FDA00035811918100000111
选择
Figure FDA00035811918100000112
作为预测的问题类别;
步骤B6:根据目标损失函数loss,利用反向传播方法计算深度学习网络模型中各参数的梯度,并利用随机梯度下降方法更新参数,以此训练深度学习网络模型;
步骤B7:当深度学习网络模型的损失值迭代变化小于设定阈值或者达到最大迭代次数时,则终止深度学习网络模型的训练。
2.根据权利要求1所述的面向社区问答的问题分类方法,其特征在于,所述步骤B1具体包括以下步骤:
步骤B11:对问题q进行分词处理,并去除停用词,得到问题q的词序列q={w1,w2,...,wk},其中wi,i=1,2,...,k为分词及去除停用词后的问题q中的第i个词,k为分词及去除停用词后的问题q中的词语数,
Figure FDA0003581191810000021
其中ci,j,j=1,2,...,ni为构成wi的第j个字符,ni为wi中的字符数;
步骤B12:对问题q的词序列q={w1,w2,...,wk}中的每个词wi进行字符级编码,wi的字符序列为
Figure FDA0003581191810000022
则wi的字符向量序列为
Figure FDA0003581191810000023
其中
Figure FDA0003581191810000024
为ci,j的字符向量,在预训练的字符向量矩阵
Figure FDA0003581191810000025
中查询得到,其中d1表示字符向量的维度,|V1|表示字符向量矩阵E1中的字符总数;则问题q的字符向量序列为
Figure FDA0003581191810000026
3.根据权利要求2所述的面向社区问答的问题分类方法,其特征在于,所述步骤B2具体包括以下步骤:
步骤B21:遍历问题q的每个词wi,将其字符向量序列
Figure FDA0003581191810000027
输入第一层Bi-LSTM网络,得到wi的隐藏状态序列
Figure FDA0003581191810000028
Figure FDA0003581191810000029
作为wi的词向量
Figure FDA00035811918100000210
Figure FDA00035811918100000211
则问题q的词向量序列为
Figure FDA00035811918100000212
步骤B22:将
Figure FDA00035811918100000213
输入第二层Bi-LSTM网络,得到问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk],其中hi
Figure FDA00035811918100000214
的隐藏状态;
步骤B23:将问题q的隐藏状态序列h=[h1,h2,...,hi,...,hk]输入到注意力层,输出问题q的表征向量
Figure FDA00035811918100000215
Figure FDA00035811918100000216
Figure FDA00035811918100000217
其中,Wa表示权重矩阵。
4.根据权利要求1所述的面向社区问答的问题分类方法,其特征在于,所述步骤B3的具体方法为:对问题q的词序列q={w1,w2,...,wk},其词向量序列为[e1,e2,...,ek],
Figure FDA0003581191810000031
为第i个词wi的词向量,在预训练的词向量矩阵
Figure FDA0003581191810000032
中查询得到,其中d2表示词向量的维度,|V2|表示预训练的词向量矩阵E2中的词数;则问题q的词语级表征向量为
Figure FDA0003581191810000033
5.根据权利要求1所述的面向社区问答的问题分类方法,其特征在于,所述步骤B4具体包括以下步骤:
步骤B41:对
Figure FDA0003581191810000034
进行一轮卷积,获得表征向量x1,对x1进行两轮卷积,获得表征向量x2
步骤B42:通过shortcut连接表征向量x1和x2,得到表征向量
Figure FDA0003581191810000035
以缓解梯度消失问题,则有:
xs=x1+x2
步骤B43:对表征向量xs进行最大池化,得到池化后的向量xp
步骤B44:将池化向量xp作为输入,对xp进行2轮卷积得到向量x3,通过shortcut连接xp和x3并进行最大池化后输入到全连接层,将全连接层的输出作为问题q的表征向量
Figure FDA0003581191810000036
6.根据权利要求5所述的面向社区问答的问题分类方法,其特征在于,所述步骤B41的具体方法为:在每轮卷积中,卷积核的大小设为h,卷积核的数量设为l,padding设置为(h-1)/2,则每轮卷积中的第t个卷积核的输出
Figure FDA0003581191810000037
为:
Figure FDA0003581191810000038
其中,卷积核在位置i的输出
Figure FDA0003581191810000039
为:
Figure FDA00035811918100000310
其中
Figure FDA00035811918100000311
为每轮卷积中第t个卷积核的参数,t=1,2,...,l,
Figure FDA00035811918100000312
是偏置参数,f为激活函数,
Figure FDA0003581191810000041
表示输入卷积核的表征向量落在卷积核窗口内的第i到i+h-1列;
连接l个卷积核的输出,得到表征向量
Figure FDA0003581191810000042
Figure FDA0003581191810000043
进行两轮卷积,连接l个卷积核的输出,得到表征向量
Figure FDA0003581191810000044
7.一种采用如权利要求1-6任一项所述方法的面向社区问答的问题分类系统,其特征在于,包括:
数据收集模块,用于采集网络问答社区中用户所提问题以及对应的问题类别,构建问题分类训练集;
问题预处理模块,用于对问题分类训练集中的问题进行预处理,包括分词处理和去除停用词;
问题编码模块,用于对问题分类训练集中的问题进行字符级编码和词语级编码,得到问题的表征向量;
深度学习网络训练模块,用于将问题的表征向量输入到深度学习网络中,对深度学习网络模型进行训练,得到训练好的深度学习网络模型;以及
问题分类模块,用于利用训练好的深度学习网络模型对输入的问题进行处理,输出问题所属的类别。
CN202010122754.XA 2020-02-27 2020-02-27 面向社区问答的问题分类方法及系统 Active CN111353032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010122754.XA CN111353032B (zh) 2020-02-27 2020-02-27 面向社区问答的问题分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010122754.XA CN111353032B (zh) 2020-02-27 2020-02-27 面向社区问答的问题分类方法及系统

Publications (2)

Publication Number Publication Date
CN111353032A CN111353032A (zh) 2020-06-30
CN111353032B true CN111353032B (zh) 2022-06-14

Family

ID=71194045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010122754.XA Active CN111353032B (zh) 2020-02-27 2020-02-27 面向社区问答的问题分类方法及系统

Country Status (1)

Country Link
CN (1) CN111353032B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818105B (zh) * 2021-02-05 2021-12-07 江苏实达迪美数据处理有限公司 一种融合上下文信息的多轮对话方法及系统
CN114218962B (zh) * 2021-12-16 2022-08-19 哈尔滨工业大学 一种固废管理信息人工智能应急语义识别系统及识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784048A (zh) * 2016-11-14 2018-03-09 平安科技(深圳)有限公司 问答语料库的问题分类方法及装置
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109871441A (zh) * 2019-03-13 2019-06-11 北京航空航天大学 一种基于神经网络的导学问答系统及方法
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100235343A1 (en) * 2009-03-13 2010-09-16 Microsoft Corporation Predicting Interestingness of Questions in Community Question Answering

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784048A (zh) * 2016-11-14 2018-03-09 平安科技(深圳)有限公司 问答语料库的问题分类方法及装置
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109871441A (zh) * 2019-03-13 2019-06-11 北京航空航天大学 一种基于神经网络的导学问答系统及方法
CN110222163A (zh) * 2019-06-10 2019-09-10 福州大学 一种融合cnn与双向lstm的智能问答方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
社区问答服务中的问题分类任务研究;王君泽等;《计算机科学与工程》;20110115;第33卷(第1期);全文 *

Also Published As

Publication number Publication date
CN111353032A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN108595632B (zh) 一种融合摘要与主体特征的混合神经网络文本分类方法
CN110866117B (zh) 一种基于语义增强与多层次标签嵌入的短文本分类方法
CN110502749B (zh) 一种基于双层注意力机制与双向gru的文本关系抽取方法
CN110598005B (zh) 一种面向公共安全事件的多源异构数据知识图谱构建方法
Xu et al. Investigation on the Chinese text sentiment analysis based on convolutional neural networks in deep learning.
CN110222163B (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN107944559B (zh) 一种实体关系自动识别方法及系统
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN113239700A (zh) 改进bert的文本语义匹配设备、系统、方法及存储介质
CN112883738A (zh) 基于神经网络和自注意力机制的医学实体关系抽取方法
CN111177383B (zh) 一种融合文本语法结构和语义信息的文本实体关系自动分类方法
CN110348227B (zh) 一种软件漏洞的分类方法及系统
CN111125367B (zh) 一种基于多层次注意力机制的多种人物关系抽取方法
CN110175221B (zh) 利用词向量结合机器学习的垃圾短信识别方法
CN111274790B (zh) 基于句法依存图的篇章级事件嵌入方法及装置
CN110516070B (zh) 一种基于文本纠错与神经网络的中文问句分类方法
Wang et al. A short text classification method based on convolutional neural network and semantic extension
CN112231477A (zh) 一种基于改进胶囊网络的文本分类方法
CN110717330A (zh) 基于深度学习的词句级短文本分类方法
CN110472244B (zh) 一种基于Tree-LSTM和情感信息的短文本情感分类方法
CN111581364B (zh) 一种面向医疗领域的中文智能问答短文本相似度计算方法
CN111353032B (zh) 面向社区问答的问题分类方法及系统
CN112070139A (zh) 基于bert与改进lstm的文本分类方法
CN111984791A (zh) 一种基于注意力机制的长文分类方法
CN115168580A (zh) 一种基于关键词提取与注意力机制的文本分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant