CN108090098A - 一种文本处理方法及装置 - Google Patents

一种文本处理方法及装置 Download PDF

Info

Publication number
CN108090098A
CN108090098A CN201611045923.4A CN201611045923A CN108090098A CN 108090098 A CN108090098 A CN 108090098A CN 201611045923 A CN201611045923 A CN 201611045923A CN 108090098 A CN108090098 A CN 108090098A
Authority
CN
China
Prior art keywords
sentence
text data
text
layer
title
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611045923.4A
Other languages
English (en)
Other versions
CN108090098B (zh
Inventor
王栋
宋巍
付瑞吉
王士进
胡国平
秦兵
刘挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Iflytek Education Technology Co ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN201611045923.4A priority Critical patent/CN108090098B/zh
Publication of CN108090098A publication Critical patent/CN108090098A/zh
Application granted granted Critical
Publication of CN108090098B publication Critical patent/CN108090098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提供了一种文本处理方法及装置,其中方法包括:获取待处理文本数据;根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。在本发明实施例中,使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到当前文本属于每个预设类别的概率,再在此基础上最终确定文本的类别,这样有效地提高了文本分类的效率,同时也提高了文本分类的准确性,降低了人的主观性对分类结果的影响。

Description

一种文本处理方法及装置
技术领域
本发明涉及自然语言处理领域,尤其涉及一种文本处理方法及装置。
背景技术
随着信息技术的发展,人们所面对的文本信息量也呈爆发式增长,有关文本信息的处理技术也在不断进化。以教育领域为例,当前自动阅卷技术开始崭露头角,越来越多的学校或教育机构开始采用自动阅卷技术对学生的试卷进行自动批阅。很多试卷中包含作文,不过作文作为主观性较强的试题,机器很难直接给出作文的得分。
发明人在实现本发明的过程中发现,在批改作文时,是否跑题是评分的主要关注点之一,因此对于作文的自动阅卷,评分之前先判断出学生作文的类别很关键,而且不同类别的作文往往对应不同的评阅标准,因此可以说确定学生作文的类别是作文自动阅卷的基础。在现有技术中,当需要对文章等文本进行分类时,一般采用的是人工方法,即由相关人员查看文章的内容后,给出文章的类别(如说明文、议论文等),例如学生写的作文,一般是需要老师查看作文内容后,给出每篇作文的文章类别。然而当文本数量较多时,人工工作量很大,分类效率很低,并且不同人对文本的理解可能会有偏差,对文本类别的标注存在主观性。
发明内容
本发明提供一种文本处理方法及装置,以提高文本分类的效率。
根据本发明实施例的第一方面,提供一种文本处理方法,所述方法包括:
获取待处理文本数据;
根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;
根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
可选的,所述文本分类模型为预先通过训练得到的神经网络模型;
所述根据文本分类模型获取所述文本数据属于每个预设类别的概率,包括:
获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵;
将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入;
获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
可选的,所述获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵,包括:
获取所述标题及每个句子所包含的每个词的词向量;
将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵;
将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
可选的,所述文本分类模型包括句子编码层、篇章编码层、注意力层、加权求和层、输出层;
所述句子编码层,用于对标题的语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征;
所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征;
所述注意力层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重;
所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和;
所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
可选的,所述注意力层根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重,包括:
根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值;
计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重;
根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
根据本发明实施例的第二方面,提供一种文本处理装置,所述装置包括:
文本获取单元,用于获取待处理文本数据;
文本分类单元,用于根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;
分类确定单元,用于根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
可选的,所述文本分类模型为预先通过训练得到的神经网络模型;
所述文本分类单元包括:
语义矩阵获取子单元,用于获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵;
输入子单元,用于将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入;
输出子单元,用于获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
可选的,所述语义矩阵获取子单元用于:
获取所述标题及每个句子所包含的每个词的词向量;
将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵;
将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
可选的,所述文本分类模型包括句子编码层、篇章编码层、注意力层、加权求和层、输出层;
所述句子编码层,用于对标题的语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征;
所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征;
所述注意力层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重;
所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和;
所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
可选的,所述注意力层根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重,包括:
根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值;
计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重;
根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
本发明实施例提供的技术方案可以包括以下有益效果:
在本发明实施例中,使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到当前文本属于每个预设类别的概率,再在此基础上最终确定文本的类别,这样有效地提高了文本分类的效率,同时也提高了文本分类的准确性,降低了人的主观性对分类结果的影响。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。此外,这些介绍并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明一示例性实施例示出的一种文本处理方法的流程图;
图2是根据本发明一示例性实施例示出的一种文本处理方法的流程图;
图3是根据本发明一示例性实施例示出的文本分类模型的结构示意图;
图4是根据本发明一示例性实施例示出的一种文本处理装置的示意图;
图5是根据本发明一示例性实施例示出的一种文本处理装置的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据本发明一示例性实施例示出的一种文本处理方法的流程图。作为示例该方法可用于手机、平板电脑、台式机电脑、笔记本电脑、服务器等设备。
参见图1所示,该方法可以包括如下步骤:
步骤S101,获取待处理文本数据。
对于待处理文本数据的具体形态本实施例并不进行限制,例如可以是一篇文章(如学生作文)等。
可以预先设定一个或多个类别作为预设类别,例如以语文作文为例,根据表达方式的不同,预设类别分为说明文类别、议论文类别、记叙文类别,等等。本实施例的目的即确定待处理文本数据属于哪个或哪些预设类别。
步骤S102,根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类。
为了提高文本分类的准确性,在本实施例中使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到文本数据属于每个预设类别的概率,再在此基础上最终确定文本的类别。
作为示例,所述文本分类模型可以为预先通过训练得到的神经网络模型。当然对于神经网络模型的具体细节本实施例并不进行限制,本领域技术人员可以根据各种现有的神经网络模型进行设计、组合等。
神经网络模型一般可以通过训练得到。因此在本实施例或本发明其他某些实施例中,可以预先收集大量文本数据用于神经网络的训练。
作为示例,用于训练的文本数据可以通过网络收集,也可以收集用户所写的文本被图像识别后得到的相应文本作为文本数据。例如所收集的文本为语文作文时,可以通过收集学生考试时写的作文试卷,进行图像识别后得到相应语文作文的文本数据,包括作文的标题和作文的内容。
对于所收集的大量文本一般会带有或被赋予相应的文本类别标签,所述文本的类别可以根据应用需求确定,如文本为语文作文时可以设定为说明文、议论文、记叙文等。所述文本类别可以使用不同符号表示,如对于语文作文,可以使用1表示说明文,2表示议论文,3表示记叙文,当然也可以采用其它方法表示,本发明实施例不作限制。
步骤S103,根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
例如,可以将概率最大的类别确定为所述文本数据的类别。进一步的,当得到的两个或多个类别的概率相同或相近时,还可以将待分类文本标记为未确定类别,后续由人工确定待分类文本的最终类别,等等。
在本发明实施例中,使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到当前文本属于每个预设类别的概率,再在此基础上最终确定文本的类别,这样有效地提高了文本分类的效率,同时也提高了文本分类的准确性,降低了人的主观性对分类结果的影响。
当所述文本分类模型为预先通过训练得到的神经网络模型时,参见图2所示,在本实施例或本发明其他某些实施例中,所述根据文本分类模型获取所述文本数据属于每个预设类别的概率,可以包括:
步骤S201,获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵。
对于文本数据来讲,例如一篇作文,通常会有一个标题,可以获取该标题的语义矩阵。对于文本数据的内容,通常也由多个句子组成,对于每个句子,也可以获取到该句子的语义矩阵。对于语义矩阵的具体内容本实施例并不进行限制,例如语义矩阵通常可以由词向量组成。
作为示例,所述获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵,可以包括:
1)获取所述标题及每个句子所包含的每个词的词向量。
例如可以对标题及句子进行分词,并获取相应词向量,所述分词方法可以使用如基于条件随机场等方法,而将分词后的每个词语转换为词向量时,例如可以使用word2vec技术得到每个词语的词向量,对此本实施例不再赘述。
2)将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵。
3)将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
可以将文本标题所包含的词的词向量作为标题语义矩阵的每行,得到标题语义矩阵,其大小为kt×m,其中kt表示标题包含的词总数,m表示每个词向量的维数。
可以将文本中每个句子包含的词的词向量作为每个句子语义矩阵的每行,得到文本中每个句子的语义矩阵,其中每个句子的语义矩阵大小为kc×m,kc表示当前文本中第c个句子包含的词数。
此外,当文本标题与文本中句子包含不同数量的词时,或文本中每个句子包含不同数量的词时,可以对文本标题的语义矩阵和\或文本中每个句子的语义矩阵进行规整,以使各语义矩阵规整为大小相同的矩阵。当然,也可以不进行规整,对此本实施例并不进行限制。
步骤S202,将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入。
步骤S203,获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
下面对文本分类模型的具体结构进行举例说明。
以文本数据为作文为例,参见图3所示,文本分类模型至少可以包括句子编码层、篇章编码层、注意力层、加权求和层、输出层。
a)所述句子编码层,用于对输入的标题语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征。
可将当前文本标题的语义矩阵及文本中每个句子的语义矩阵作为输入(或者说是作为输入层),可使用X={T,C1,C2,...Cn}表示,其中T表示标题语义矩阵,C1,C2,...Cn分别为当前文本中各个句子的语义矩阵,n为当前文本包含的句子总数。
句子编码层中可以包括句子级编码器,用于对当前文本的标题及文本中每个句子进行句子级编码,得到编码后的句子级编码特征。句子级编码特征可使用S={st,s1,s2,...,sn}表示,其中st表示对文本标题的语义矩阵进行句子编码后得到的标题的句子级编码特征,sn表示对第n个句子的语义矩阵进行句子级编码后得到该句子的句子级编码特征,st和s1,s2,...sn为维度相同的向量,具体的向量维度大小可以根据应用需求或实验结果确定。作为示例,句子编码层可以采用卷积神经网络、循环或递归神经网络等结构来实现。
b)所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征。
篇章编码层的输入为句子编码层的输出。篇章编码层的输出为篇章级编码特征,可使用H={ht,h1,h2,...,hn}表示,其中,ht表示对文本标题的句子级编码特征进行篇章级编码后得到的篇章级编码特征,hn表示对第n个句子的句子级编码特征进行篇章级编码后得到的篇章级编码特征。ht和h1,h1,...hn均为维度相同的向量,具体的向量维度大小可以根据应用需求或实验结果确定。所述篇章编码层可以采用双向循环神经网络(RNN)的结构,每个节点之间存在双向连接,从而能够将当前文本的标题及文本所有句子的信息都纳入考虑的范畴,进而能够实现篇章级的编码。具体编码过程不再赘述。
c)所述注意力(attention)层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算每个句子的重要度,以得到每个句子的重要度权重。重要度权重可使用P={p1,p2,...,pn}来表示,其中pj为当前文本第j个句子的重要度权重。
所述注意力层根据所述标题及每个句子的篇章级编码特征计算每个句子的重要度,可以包括:
c1)根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值。
作为示例,具体计算时,可以直接将每个句子的篇章级编码特征与注意力层的注意力向量内积后得到的计算值作为当前文本中每个句子的注意力值,具体计算方法如下式所示:
aj=hj·vT
其中,aj为当前文本第j个句子的注意力值,hj为当前文本第j个句子的篇章级编码特征,v为与hj维度相同的注意力向量,是模型参数,其初始值可以通过随机初始化得到,其最终取值可预先通过大量数据训练得到。
c2)计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重。
作为示例,具体计算时可以使用下式:
其中,tj为当前文本第j个句子的主线权重。
c3)根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
作为示例,具体计算时,先计算每个句子的注意力值和主线权重的乘积,再对所述乘积进行归一化,将归一化后得到的计算值作为每个句子的重要度权重,如下式所示:
其中,pj为当前文本第j个句子的重要度权重。
d)所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和。
作为示例,具体计算时可以使用下式:
其中,A为所述文本数据的语义矩阵。
e)所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
对于输出层所采用的具体的神经网络结构本实施例并不进行限制,其模型参数可以通过预先训练得到,此处不再赘述。
在本发明实施例中,使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到当前文本属于每个预设类别的概率,再在此基础上最终确定文本的类别,这样有效地提高了文本分类的效率,同时也提高了文本分类的准确性,降低了人的主观性对分类结果的影响。
下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。
图4是根据本发明一示例性实施例示出的一种文本处理装置的示意图。作为示例该装置可用于手机、平板电脑、台式机电脑、笔记本电脑、服务器等设备。
参见图4所示,所述装置可以包括:
文本获取单元401,用于获取待处理文本数据;
文本分类单元402,用于根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;
分类确定单元403,用于根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
当所述文本分类模型为预先通过训练得到的神经网络模型时,参见图5所示,在本实施例或本发明其他某些实施例中,所述文本分类单元可以包括:
语义矩阵获取子单元501,用于获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵;
输入子单元502,用于将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入;
输出子单元503,用于获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
在本实施例或本发明其他某些实施例中,所述语义矩阵获取子单元可以用于:
获取所述标题及每个句子所包含的每个词的词向量;
将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵;
将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
在本实施例或本发明其他某些实施例中,所述文本分类模型可以包括句子编码层、篇章编码层、注意力层、加权求和层、输出层;
所述句子编码层,用于对标题的语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征;
所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征;
所述注意力层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重;
所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和;
所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
在本实施例或本发明其他某些实施例中,所述注意力层根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重,可以包括:
根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值;
计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重;
根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
在本发明实施例中,使用文本分类模型从标题+全文这种篇章角度对待分类文本进行分类,得到当前文本属于每个预设类别的概率,再在此基础上最终确定文本的类别,这样有效地提高了文本分类的效率,同时也提高了文本分类的准确性,降低了人的主观性对分类结果的影响。
关于上述实施例中的装置,其中各个单元\模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由所附的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种文本处理方法,其特征在于,所述方法包括:
获取待处理文本数据;
根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;
根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
2.根据权利要求1所述的方法,其特征在于,所述文本分类模型为预先通过训练得到的神经网络模型;
所述根据文本分类模型获取所述文本数据属于每个预设类别的概率,包括:
获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵;
将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入;
获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
3.根据权利要求2所述的方法,其特征在于,所述获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵,包括:
获取所述标题及每个句子所包含的每个词的词向量;
将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵;
将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
4.根据权利要求2所述的方法,其特征在于,所述文本分类模型包括句子编码层、篇章编码层、注意力层、加权求和层、输出层;
所述句子编码层,用于对标题的语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征;
所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征;
所述注意力层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重;
所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和;
所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
5.根据权利要求4所述的方法,其特征在于,所述注意力层根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重,包括:
根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值;
计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重;
根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
6.一种文本处理装置,其特征在于,所述装置包括:
文本获取单元,用于获取待处理文本数据;
文本分类单元,用于根据文本分类模型获取所述文本数据属于每个预设类别的概率,其中所述文本分类模型用于根据所述文本数据的标题及所述文本数据所包含的句子对所述文本数据分类;
分类确定单元,用于根据所述文本数据属于每个预设类别的概率确定所述文本数据的类别。
7.根据权利要求6所述的装置,其特征在于,所述文本分类模型为预先通过训练得到的神经网络模型;
所述文本分类单元包括:
语义矩阵获取子单元,用于获取所述文本数据标题的语义矩阵和所述文本数据中每个句子的语义矩阵;
输入子单元,用于将所述标题的语义矩阵和每个句子的语义矩阵一并作为所述文本分类模型的输入;
输出子单元,用于获取所述文本分类模型所输出的所述文本数据属于每个预设类别的概率。
8.根据权利要求7所述的装置,其特征在于,所述语义矩阵获取子单元用于:
获取所述标题及每个句子所包含的每个词的词向量;
将所述标题所包含的每个词的词向量为一行组成所述标题的语义矩阵;
将所述每个句子所包含的每个词的词向量为一行组成每个句子的语义矩阵。
9.根据权利要求7所述的装置,其特征在于,所述文本分类模型包括句子编码层、篇章编码层、注意力层、加权求和层、输出层;
所述句子编码层,用于对标题的语义矩阵及每个句子的语义矩阵进行句子级编码以得到句子级编码特征;
所述篇章编码层,用于以所述句子编码层输出的句子级编码特征作为输入,从整篇文本角度对所述标题及每个句子的句子级编码特征重新进行篇章级编码以得到篇章级编码特征;
所述注意力层,用于以所述篇章编码层输出的篇章级编码特征作为输入,根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重;
所述加权求和层,用于以所述注意力层输出的每个句子的重要度权重及每个句子相应的篇章级编码特征作为输入,计算得到所述文本数据的语义矩阵,其中所述文本数据的语义矩阵为每个句子的重要度权重与相应的篇章级编码特征乘积之和;
所述输出层,用于以所述加权求和层输出的所述文本数据的语义矩阵作为输入,输出为所述文本数据属于每个预设类别的概率。
10.根据权利要求9所述的装置,其特征在于,所述注意力层根据所述标题及每个句子的篇章级编码特征计算得到每个句子的重要度权重,包括:
根据每个句子的篇章级编码特征与注意力层的注意力向量,计算每个句子的注意力值;
计算每个句子的篇章级编码特征与所述标题的篇章级编码特征相似度,以作为每个句子的主线权重;
根据每个句子的注意力值和主线权重,计算得到每个句子的重要度权重。
CN201611045923.4A 2016-11-22 2016-11-22 一种文本处理方法及装置 Active CN108090098B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611045923.4A CN108090098B (zh) 2016-11-22 2016-11-22 一种文本处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611045923.4A CN108090098B (zh) 2016-11-22 2016-11-22 一种文本处理方法及装置

Publications (2)

Publication Number Publication Date
CN108090098A true CN108090098A (zh) 2018-05-29
CN108090098B CN108090098B (zh) 2022-02-25

Family

ID=62171058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611045923.4A Active CN108090098B (zh) 2016-11-22 2016-11-22 一种文本处理方法及装置

Country Status (1)

Country Link
CN (1) CN108090098B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034567A (zh) * 2018-07-11 2018-12-18 西北工业大学 一种基于科技文献的制造技术进化方向的预测方法
CN111400440A (zh) * 2020-02-28 2020-07-10 深圳市华海同创科技有限公司 一种意图识别的方法及装置
CN111488452A (zh) * 2019-01-25 2020-08-04 深信服科技股份有限公司 一种网页篡改检测方法、检测系统及相关设备
CN112100677A (zh) * 2020-11-13 2020-12-18 支付宝(杭州)信息技术有限公司 隐私数据的保护方法、装置及电子设备
CN113378556A (zh) * 2020-02-25 2021-09-10 华为技术有限公司 提取文本关键字的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101251841A (zh) * 2007-05-17 2008-08-27 华东师范大学 基于语义的Web文档的特征矩阵的建立和检索方法
CN101751438A (zh) * 2008-12-17 2010-06-23 中国科学院自动化研究所 自适应语义驱动的主题网页过滤系统
CN104881401A (zh) * 2015-05-27 2015-09-02 大连理工大学 一种专利文献聚类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101251841A (zh) * 2007-05-17 2008-08-27 华东师范大学 基于语义的Web文档的特征矩阵的建立和检索方法
CN101751438A (zh) * 2008-12-17 2010-06-23 中国科学院自动化研究所 自适应语义驱动的主题网页过滤系统
CN104881401A (zh) * 2015-05-27 2015-09-02 大连理工大学 一种专利文献聚类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
巴志超等: "共现分析中的关键词选择与语义度量方法研究", 《情报学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034567A (zh) * 2018-07-11 2018-12-18 西北工业大学 一种基于科技文献的制造技术进化方向的预测方法
CN109034567B (zh) * 2018-07-11 2021-10-01 西北工业大学 一种基于科技文献的制造技术进化方向的预测方法
CN111488452A (zh) * 2019-01-25 2020-08-04 深信服科技股份有限公司 一种网页篡改检测方法、检测系统及相关设备
CN113378556A (zh) * 2020-02-25 2021-09-10 华为技术有限公司 提取文本关键字的方法及装置
CN111400440A (zh) * 2020-02-28 2020-07-10 深圳市华海同创科技有限公司 一种意图识别的方法及装置
CN112100677A (zh) * 2020-11-13 2020-12-18 支付宝(杭州)信息技术有限公司 隐私数据的保护方法、装置及电子设备

Also Published As

Publication number Publication date
CN108090098B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN111177326B (zh) 基于精标注文本的关键信息抽取方法、装置及存储介质
CN106055538B (zh) 主题模型和语义分析相结合的文本标签自动抽取方法
CN108090098A (zh) 一种文本处理方法及装置
CN104462066B (zh) 语义角色标注方法及装置
CN108090099A (zh) 一种文本处理方法及装置
CN106445919A (zh) 一种情感分类方法及装置
El-Halees Mining opinions in user-generated contents to improve course evaluation
CN108536870A (zh) 一种融合情感特征和语义特征的文本情感分类方法
CN108446271A (zh) 基于汉字部件特征的卷积神经网络的文本情感分析方法
CN108090048A (zh) 一种基于多元数据分析的高校评价系统
CN107122349A (zh) 一种基于word2vec‑LDA模型的文本主题词提取方法
CN112559749B (zh) 在线教育师生智能匹配方法、装置及存储介质
CN115329200A (zh) 一种基于知识图谱和用户相似度的教学资源推荐方法
CN108009248A (zh) 一种数据分类方法和系统
Fu et al. Visual cortex inspired CNN model for feature construction in text analysis
CN110232128A (zh) 题目文本分类方法及装置
Stemle et al. Using language learner data for metaphor detection
CN117252739B (zh) 一种评卷方法、系统、电子设备及存储介质
CN111897955B (zh) 基于编解码的评语生成方法、装置、设备和存储介质
Bradford et al. Automatic detection of collaborative states in small groups using multimodal features
CN110309355A (zh) 内容标签的生成方法、装置、设备及存储介质
CN110019556A (zh) 一种话题新闻获取方法、装置及其设备
CN110209821A (zh) 文本类别确定方法和装置
CN112905796B (zh) 基于再注意力机制的文本情绪分类方法及系统
CN117501283A (zh) 文本到问答模型系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221220

Address after: 100193 307-1, 307-2, Floor 3, Building 5, East Yard, No. 10, Northwest Wangdong Road, Haidian District, Beijing

Patentee after: Beijing iFLYTEK Education Technology Co.,Ltd.

Address before: IFLYTEK building, NO.666, Wangjiang West Road, high tech Development Zone, Hefei City, Anhui Province, 230088

Patentee before: IFLYTEK Co.,Ltd.