CN114881029B - 基于混合神经网络的中文文本可读性评价方法 - Google Patents
基于混合神经网络的中文文本可读性评价方法 Download PDFInfo
- Publication number
- CN114881029B CN114881029B CN202210651472.8A CN202210651472A CN114881029B CN 114881029 B CN114881029 B CN 114881029B CN 202210651472 A CN202210651472 A CN 202210651472A CN 114881029 B CN114881029 B CN 114881029B
- Authority
- CN
- China
- Prior art keywords
- text
- word
- readability
- training
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 8
- 239000013598 vector Substances 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000013210 evaluation model Methods 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 39
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 230000009193 crawling Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于混合神经网络的中文文本可读性评价方法,是通过构建中文环境下的可读性词典,把语料库中文本对应的可读性分值与使用Word2vec和GloVe两种算法进行训练得到相应的词向量相乘,得到了带有明确的“可读性”的特征文本矩,然后再并行输入到BiGRU和CNN中训练出可读性评价模型,构造的特征从全局和局部的角度充分考虑包含了文本的可读性信息,从而可以在训练过程中更好地利用文本信息,使得文本可读性不再由人为主观评价,提高了文本可读性评价的准确度,具有更高的可用性。
Description
技术领域
本发明涉及自然语言处理技术领域,具体为基于混合神经网络的中文文本可读性评价方法。
背景技术
可读性是文本沟通的基石,可读性通常用来形容某种书面语言阅读和理解的容易程度,鉴于文本可读性在满足人们的信息需求方面的重要性,以及现代信息量的爆炸式增长,文本可读性的度量需求不断增加,实现有效的文本可读性评估所带来的影响力也与日俱增,可读性研究的核心是对文本进行可读性评价,即通过对获取文本进行分析,给出该文本的难度值来表示相应文本的阅读难度水平或者用来指示给定人群对相应文本的阅读水平和理解能力。
现有的中文文本可读性评价方法,来估计文章的阅读难度等级或分数,一般基于传统特征的可读性公式法的度量指标主要依赖于两个影响可读性的因素:语义单位的熟悉程度以及语法的复杂性,现有的基于传统特征的可读性公式法计算简易,首先传统可读性公式法很少依赖于文本可读性的内在特征,难以捕捉到深度的词汇语义特征以至于其不能够丰富的表征文本来度量文本的阅读难度,导致其可用性不佳,其次传统的可读性度量仅仅基于文本的表面特征,而未挖掘更深层次的文本信息,导致现有的中文文本可读性评价方法准确性不佳。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于混合神经网络的中文文本可读性评价方法,以期能更好地利用文本信息,使得文本可读性不再由人为主观评价,并能提高文本可读性评价的准确度,具有更高的可用性,从而能提高文本可读性评价的准确度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于混合神经网络的中文文本可读性评价方法的特点在于,包括以下步骤:
步骤1、构建可读性词典D;
步骤1.1、构建词库中每个词语的特征集,包括:字数、整体笔画数、使用词频和部件数;
步骤1.2、将每个词语的特征集输入SVM模型进行训练,得到预测模型,利用所述预测模型对词库中的词语进行预测,得到所有词语的可读性得分,从而构建可读性词典D;
步骤2、获取待评估的中文文本信息集并进行分词和去停用词处理,用于构建标准语料库A;
步骤2.1、通过python爬取待评估的中文文本信息集,记为T={t1,t2,...,tk},其中,tk表示第k条文本信息,k为文本信息的总条数;
步骤2.2、通过中文分词工具对中文文本信息集T进行分词,得到分词结果,其中,第k条文本信息tk的分词结果记为其中,wn,k表示所述第k条文本信息tk中第n个文本词,Nk表示第k条文本信息tk的最大词汇长度;
步骤2.3、对所有文本信息的分词结果进行去停用词处理后,构建标准语料库记为A;
步骤2.4、将标准语料库A分为训练文本集S={s1,s2,...,sn}和测试文本集U={u1,u2,...,un′},其中,sn表示所述训练文本集S中第n个文本词,un′表示所述测试文本集U中第n′个文本词;n表示训练文本集S中的文本词总数,n′表示所述测试文本集U中的文本词总数;
步骤3、训练词向量;
步骤3.1、将训练文本集S输入GloVe模型中进行训练,得到各个文本词的d维词向量并组成共线矩阵P={p1,p2,...,pn},pn表示第n个文本词sn的d维词向量;
步骤3.2、将训练文本集S通过Word2vec模型进行训练,得到各个文本词的K维词向量并组成词向量矩阵Q={q1,q2,...,qn},qn表示第n个文本词sn的K维词向量;
步骤4、获取含有可读性信息的文本矩阵;
步骤4.1、将训练文本集S中的第n个文本词sn对应的可读性得分cn与共线矩阵P中相应的d维词向量pn相乘,得到第n个含有可读性信息的文本词xn,从而得到矩阵X={x1,x2,...,xn};
步骤4.2、将训练文本集S中的第n个文本词sn对应的可读性得分cn与词向量矩阵Q中相应的K维词向量qn相乘,得到第n个含有可读性信息的文本词yn,从而得到矩阵Y={y1,y2,...,yn};
步骤5、构建可读性评价模型,包括:BiGRU网络、CNN网络、全连接层以及softmax层;
步骤5.1、所述矩阵X={x1,x2,...,xn}输入BiGRU网络中进行处理,并利用式(1)对xn进行特征提取,得到第n个包含上下文信息的全局特征gn,从而得到包含上下文语义信息的全局特征G={g1,g2,...,gn}:
式(1)中,分别代表前向、后向GRU单元;
步骤5.2、所述矩阵Y={y1,y2,...,yn}输入CNN网络中,利用式(2)对文本词yn进行自上而下滑动处理,并通过第n次卷积操作得到第n个局部特征mn,从而得到局部特征矩阵M={m1,m2,...,mn}:
mn=f(w.yn+a) (2)
式(2)中,f为非线性的ReLU激活函数;w代表卷积核的参数;a为偏置项;
步骤5.3、将所述局部特征矩阵M和全局特征G进行拼接后输出拼接向量Λ={Λ1,Λ2,...,Λn},其中,Λn为第n个拼接后的词向量;
步骤5.4、所述拼接向量Λ依次输入到全连接层和softmax层中,并使用式(3)计算得到所有文本的可读性概率r,用于可读性分类处理:
r=softmax(WΛ+b) (3)
式(3)中,W为权重矩阵,b为偏置项;
步骤6、利用梯度下降法对所述可读性评价模型进行训练,并利用式(4)计算损失函数L,以更新网络参数,当迭代次数达到最大迭代次数时,停止训练,从而得到最优可读性评价模型:
步骤7、将测试文本集U输入所述最优可读性评价模型进行预测,并输出可读性评价结果。
与现有技术相比,本发明的有益效果在于:
本发明通过构建中文环境下的可读性词典,把语料库中文本对应的可读性分值与使用Word2vec和GloVe两种算法进行训练得到相应的词向量相乘,得到了带有明确的可读性的特征文本矩阵,然后再并行输入到BiGRU和CNN中训练出可读性评价模型,构造的特征是从全局和局部的角度充分考虑了文本的特征,并与可读性词典结合强调了文本的可读性信息,从而可以在训练过程中更好地利用文本信息,使得文本可读性不再由人为主观评价,提高了文本可读性评价的准确度,具有更高的可用性。
附图说明
图1为本发明CNN模型提取局部特征以及BiGRU模型提取全局特征的结构图。
具体实施方式
请参阅图1,本实施例中,一种基于混合神经网络的中文文本可读性评价方法,包括以下步骤:
步骤1、构建可读性词典D;
步骤1.1、构建词库中每个词语的特征集,包括:字数、整体笔画数、使用词频和部件数,其中,字数为每个词语的个数,整体笔画数为每个词语的笔画数总和,使用词频为每个词语在词库中出现的次数,部件数是每个词语的部件数总和;
步骤1.2、将每个词语的特征集输入SVM模型进行训练,得到预测模型,利用预测模型对词库中的词语进行预测,得到所有词语的可读性得分,从而构建可读性词典D;
步骤2、获取待评估中文文本信息集,进行分词处理后再去停用词,并根据结果构建标准语料库A;
步骤2.1、通过python爬取待评估中文文本信息集,记为T={t1,t2,......,tk},其中,tk表示第k条文本信息,k为文本信息的总条数;
步骤2.2、通过中文分词工具对中文文本信息集T进行分词,得到分词结果,其中,第k条文本信息tk的分词结果记为其中,wn,k表示第k条文本信息tk中第n个文本词,Nk表示第k条文本信息tk的最大词汇长度,jieba分词是python自带的中文分词,可以保证分词准确;
步骤2.3、对所有文本信息的分词结果进行去停用词处理后,构建标准语料库记为A;
步骤2.4、将标准语料库A分为训练文本集S={s1,s2,...,sn}和测试文本集U={u1,u2,...,un′},其中,sn表示训练文本集S中第n个文本词,un′表示测试文本集U中第n′个文本词;n表示训练文本集S中的文本词总数,n′表示测试文本集U中的文本词总数;
步骤3、训练词向量;
步骤3.1、将训练文本集S输入GloVe模型中进行训练,得到各个文本词的d维词向量并组成共线矩阵P={p1,p2,...,pn},pn表示第n个文本词sn的d维词向量;
步骤3.2、将训练文本集S通过Word2vec模型进行训练,得到各个文本词的K维词向量并组成词向量矩阵Q={q1,q2,...,qn},qn表示第n个文本词sn的K维词向量;
步骤4、获取含有“可读性信息”的文本矩阵;
步骤4.1、将训练文本集S中的第n个文本词sn对应的可读性得分cn与共线矩阵P中相应的d维词向量pn相乘,得到第n个含有可读性信息的文本词xn,从而得到矩阵X={x1,x2,...,xn};
步骤4.2、将训练文本集S中的第n个文本词sn对应的可读性得分cn与词向量矩阵Q中相应的K维词向量qn相乘,得到第n个含有可读性信息的文本词yn,从而得到矩阵Y={y1,y2,...,yn};
步骤5、构建可读性评价模型,包括:BiGRU网络、CNN网络、全连接层以及softmax层;
步骤5.1、矩阵X={x1,x2,...,xn}输入BiGRU网络中进行处理,并利用式(1)对xn进行特征提取,得到第n个包含上下文信息的全局特征gn,从而得到包含上下文语义信息的全局特征G={g1,g2,...,gn}:
式(1)中,分别代表前向、后向GRU单元;
作为BiGRU网络的输入,BiGRU网络模型结构由三部分组成,三部分组成为文本向量化输入层、隐含层和输出层,其中,输入层就是输入即文本处理成BiGRU层能够直接接收并能处理的序列向量形式;隐含层的作用就是计算BiGRU层输出的词向量,文本词向量为BiGRU层的输入向量。BiGRU层的目的主要是对输入的文本向量进行文本深层次特征的提取,然后计算每个词向量应分配的概率权重;
步骤5.2、所述矩阵Y={y1,y2,...,yn}输入CNN网络中,利用式(2)对yn进行自上而下滑动处理,通过第n次卷积操作得到第n个局部特征mn,从而得到局部特征矩阵M={m1,m2,...,mn}:
mn=f(w.yn+a) (2)
式(2)中,f为非线性的ReLU激活函数;w代表卷积核的参数;a为偏置项;
CNN模型结构总共由四部分组成,四部分包括了输入层、卷积层、池化层和输出层,CNN模型可以将产生信息输出,若输出信息错误,将会进行反向传播,以不断改变权值矩阵权重和偏差值,CNN部分使用不同尺寸的卷积核提取不同粒度的文本局部特征信息;
步骤5.3、将局部特征矩阵M和全局特征G进行拼接后输出拼接向量Λ={Λ1,Λ2,...,Λn},其中,Λn为第n个拼接后的词向量;
步骤5.4、拼接向量Λ依次输入到全连接层和softmax层中,并使用式(3)计算得到所有文本的可读性概率r,进行可读性分类处理:
r=softmax(WΛ+b) (3)
式(3)中,W为权重矩阵,b为偏置项;
步骤6、利用梯度下降法对可读性评价模型进行训练,并利用式(4)计算损失函数L,以更新网络参数,当迭代次数达到最大迭代次数时,停止训练,从而得到最优可读性评价模型:
步骤7、将测试文本集U输入最优可读性评价模型进行预测,并输出可读性评价结果。
Claims (1)
1.一种基于混合神经网络的中文文本可读性评价方法,其特征在于,包括以下步骤:
步骤1、构建可读性词典D;
步骤1.1、构建词库中每个词语的特征集,包括:字数、整体笔画数、使用词频和部件数;
步骤1.2、将每个词语的特征集输入SVM模型进行训练,得到预测模型,利用所述预测模型对词库中的词语进行预测,得到所有词语的可读性得分,从而构建可读性词典D;
步骤2、获取待评估的中文文本信息集并进行分词和去停用词处理,用于构建标准语料库A;
步骤2.1、通过python爬取待评估的中文文本信息集,记为T={t1,t2,...,tk},其中,tk表示第k条文本信息,k为文本信息的总条数;
步骤2.2、通过中文分词工具对中文文本信息集T进行分词,得到分词结果,其中,第k条文本信息tk的分词结果记为其中,wn,k表示所述第k条文本信息tk中第n个文本词,Nk表示第k条文本信息tk的最大词汇长度;
步骤2.3、对所有文本信息的分词结果进行去停用词处理后,构建标准语料库记为A;
步骤2.4、将标准语料库A分为训练文本集S={s1,s2,...,sn}和测试文本集U={u1,u2,...,un′},其中,sn表示所述训练文本集S中第n个文本词,un′表示所述测试文本集U中第n′个文本词;n表示训练文本集S中的文本词总数,n′表示所述测试文本集U中的文本词总数;
步骤3、训练词向量;
步骤3.1、将训练文本集S输入GloVe模型中进行训练,得到各个文本词的d维词向量并组成共线矩阵P={p1,p2,...,pn},pn表示第n个文本词sn的d维词向量;
步骤3.2、将训练文本集S通过Word2vec模型进行训练,得到各个文本词的K维词向量并组成词向量矩阵Q={q1,q2,...,qn},qn表示第n个文本词sn的K维词向量;
步骤4、获取含有可读性信息的文本矩阵;
步骤4.1、将训练文本集S中的第n个文本词sn对应的可读性得分cn与共线矩阵P中相应的d维词向量pn相乘,得到第n个含有可读性信息的文本词xn,从而得到矩阵X={x1,x2,...,xn};
步骤4.2、将训练文本集S中的第n个文本词sn对应的可读性得分cn与词向量矩阵Q中相应的K维词向量qn相乘,得到第n个含有可读性信息的文本词yn,从而得到矩阵Y={y1,y2,...,yn};
步骤5、构建可读性评价模型,包括:BiGRU网络、CNN网络、全连接层以及softmax层;
步骤5.1、所述矩阵X={x1,x2,...,xn}输入BiGRU网络中进行处理,并利用式(1)对xn进行特征提取,得到第n个包含上下文信息的全局特征gn,从而得到包含上下文语义信息的全局特征G={g1,g2,...,gn}:
式(1)中,分别代表前向、后向GRU单元;
步骤5.2、所述矩阵Y={y1,y2,...,yn}输入CNN网络中,利用式(2)对文本词yn进行自上而下滑动处理,并通过第n次卷积操作得到第n个局部特征mn,从而得到局部特征矩阵M={m1,m2,...,mn}:
mn=f(w.yn+a) (2)
式(2)中,f为非线性的ReLU激活函数;w代表卷积核的参数;a为偏置项;
步骤5.3、将所述局部特征矩阵M和全局特征G进行拼接后输出拼接向量Λ={Λ1,Λ2,...,Λn},其中,Λn为第n个拼接后的词向量;
步骤5.4、所述拼接向量Λ依次输入到全连接层和softmax层中,并使用式(3)计算得到所有文本的可读性概率r,用于可读性分类处理:
r=soft max(WΛ+b) (3)
式(3)中,W为权重矩阵,b为偏置项;
步骤6、利用梯度下降法对所述可读性评价模型进行训练,并利用式(4)计算损失函数L,以更新网络参数,当迭代次数达到最大迭代次数时,停止训练,从而得到最优可读性评价模型:
步骤7、将测试文本集U输入所述最优可读性评价模型进行预测,并输出可读性评价结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210651472.8A CN114881029B (zh) | 2022-06-09 | 2022-06-09 | 基于混合神经网络的中文文本可读性评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210651472.8A CN114881029B (zh) | 2022-06-09 | 2022-06-09 | 基于混合神经网络的中文文本可读性评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114881029A CN114881029A (zh) | 2022-08-09 |
CN114881029B true CN114881029B (zh) | 2024-03-01 |
Family
ID=82682268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210651472.8A Active CN114881029B (zh) | 2022-06-09 | 2022-06-09 | 基于混合神经网络的中文文本可读性评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881029B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994217B (zh) * | 2022-11-29 | 2024-01-23 | 南京审计大学 | 一种财务报告舞弊检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109471915A (zh) * | 2018-10-09 | 2019-03-15 | 科大讯飞股份有限公司 | 一种文本评价方法、装置、设备以及可读存储介质 |
CN109977413A (zh) * | 2019-03-29 | 2019-07-05 | 南京邮电大学 | 一种基于改进cnn-lda的情感分析方法 |
WO2020140633A1 (zh) * | 2019-01-04 | 2020-07-09 | 平安科技(深圳)有限公司 | 文本主题提取方法、装置、电子设备及存储介质 |
CN111767741A (zh) * | 2020-06-30 | 2020-10-13 | 福建农林大学 | 一种基于深度学习和tfidf算法的文本情感分析方法 |
CN112883713A (zh) * | 2021-02-24 | 2021-06-01 | 中国工商银行股份有限公司 | 基于卷积神经网络的评价对象抽取方法及装置 |
WO2022078346A1 (zh) * | 2020-10-13 | 2022-04-21 | 深圳壹账通智能科技有限公司 | 文本意图识别方法、装置、电子设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI608367B (zh) * | 2012-01-11 | 2017-12-11 | 國立臺灣師範大學 | 中文文本可讀性計量系統及其方法 |
CN112015859B (zh) * | 2019-05-31 | 2023-08-18 | 百度在线网络技术(北京)有限公司 | 文本的知识层次抽取方法及装置、计算机设备及可读介质 |
-
2022
- 2022-06-09 CN CN202210651472.8A patent/CN114881029B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109471915A (zh) * | 2018-10-09 | 2019-03-15 | 科大讯飞股份有限公司 | 一种文本评价方法、装置、设备以及可读存储介质 |
WO2020140633A1 (zh) * | 2019-01-04 | 2020-07-09 | 平安科技(深圳)有限公司 | 文本主题提取方法、装置、电子设备及存储介质 |
CN109977413A (zh) * | 2019-03-29 | 2019-07-05 | 南京邮电大学 | 一种基于改进cnn-lda的情感分析方法 |
CN111767741A (zh) * | 2020-06-30 | 2020-10-13 | 福建农林大学 | 一种基于深度学习和tfidf算法的文本情感分析方法 |
WO2022078346A1 (zh) * | 2020-10-13 | 2022-04-21 | 深圳壹账通智能科技有限公司 | 文本意图识别方法、装置、电子设备及存储介质 |
CN112883713A (zh) * | 2021-02-24 | 2021-06-01 | 中国工商银行股份有限公司 | 基于卷积神经网络的评价对象抽取方法及装置 |
Non-Patent Citations (2)
Title |
---|
关联语义结合卷积神经网络的文本分类方法;魏勇;;控制工程;20180220(02);全文 * |
基于Sword2vect的中文在线商品评价情感分析;厍向阳;杨瑞丽;董立红;;西安科技大学学报;20200531(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114881029A (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112784798B (zh) | 一种基于特征-时间注意力机制的多模态情感识别方法 | |
CN108597539B (zh) | 基于参数迁移和语谱图的语音情感识别方法 | |
CN107492382B (zh) | 基于神经网络的声纹信息提取方法及装置 | |
CN112784730B (zh) | 一种基于时域卷积网络的多模态情感识别方法 | |
CN109977199B (zh) | 一种基于注意力池化机制的阅读理解方法 | |
CN108984526A (zh) | 一种基于深度学习的文档主题向量抽取方法 | |
CN110147548B (zh) | 基于双向门控循环单元网络和新型网络初始化的情感识别方法 | |
CN111966812B (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN108766415B (zh) | 一种语音测评方法 | |
CN109933792B (zh) | 基于多层双向lstm和验证模型的观点型问题阅读理解方法 | |
CN112015862B (zh) | 基于层级多通道注意力的用户异常评论检测方法及系统 | |
CN114881029B (zh) | 基于混合神经网络的中文文本可读性评价方法 | |
CN113239690A (zh) | 基于Bert与全连接神经网络融合的中文文本意图识别方法 | |
CN115358212A (zh) | 一种基于文本和语音置信度的多模态情绪识别模型与方法 | |
CN109753649A (zh) | 基于细粒度匹配信号的文本相关性度量方法和系统 | |
CN113392191B (zh) | 一种基于多维度语义联合学习的文本匹配方法和装置 | |
Liu et al. | Audio and video bimodal emotion recognition in social networks based on improved alexnet network and attention mechanism | |
CN110334204B (zh) | 一种基于用户记录的习题相似度计算推荐方法 | |
CN110705259A (zh) | 一种多粒度捕获匹配特征的文本匹配方法 | |
CN116542254A (zh) | 风洞试验数据异常决策方法、装置、电子设备及存储介质 | |
CN113821571A (zh) | 基于bert和改进pcnn的食品安全关系抽取方法 | |
CN114357166A (zh) | 一种基于深度学习的文本分类方法 | |
CN114722798A (zh) | 一种基于卷积神经网络和注意力机制的反讽识别模型 | |
CN114461779A (zh) | 一种案件笔录要素抽取方法 | |
CN113987120A (zh) | 一种基于深度学习的舆情情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |