CN111858939A - 一种基于上下文信息和卷积神经网络的文本情感分类方法 - Google Patents
一种基于上下文信息和卷积神经网络的文本情感分类方法 Download PDFInfo
- Publication number
- CN111858939A CN111858939A CN202010731311.0A CN202010731311A CN111858939A CN 111858939 A CN111858939 A CN 111858939A CN 202010731311 A CN202010731311 A CN 202010731311A CN 111858939 A CN111858939 A CN 111858939A
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- word
- equal
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 83
- 238000012549 training Methods 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000007935 neutral effect Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 239000013589 supplement Substances 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 238000003062 neural network model Methods 0.000 abstract 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 9
- 230000007547 defect Effects 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于上下文信息和卷积神经网络的文本情感分类方法,步骤包括:1)文本预处理;2)文本的词向量表示;3)文本的上下文信息生成;4)神经网络模型训练和分类。本发明在词向量基础上,抽取文本的上下文信息,并将多种不同尺度的卷积核融入卷积神经网络中,既能利用文本中更丰富的语义信息,又能捕获词语之间在不同尺度的关系,实现更准确的文本情感分类。
Description
技术领域
本发明属于自然语言处理技术与模式识别领域,具体地说是一种基于上下文信息和卷积神经网络的文本情感分类方法。
背景技术
文本是互联网上信息传递的一种主要形式。与图像、声音等信息传递形式相比,文本数据量较小,但可以包含大量信息,而且可以更容易表达用户观点。互联网上存在大量带有情感倾向性的文本,这些情感倾向性文本往往以商品评论、论坛评论和博客等各种形式存在。文本情感分类是根据文本内容所体现的用户意见的情感极性将其分为正面、中性和负面三类。由于巨大的商业价值,近年来,文本情感分类在自然语言处理研究领域得到了很大的关注。传统情感分类包括支持向量机(SvM)、决策树、朴素贝叶斯分类器等。然而这些方法都存在一定缺陷,如SvM在建模复杂非线性问题时表达能力不足,决策树在噪声情况下容易出现过拟合,朴素贝叶斯分类器需要属性的独立性假设。相比传统分类方法,近年来兴起的深度学习模型则表现出了良好的自适应性和容错性。
大多数基于深度学习的文本情感分类方法直接将文本表达为词向量矩阵,并利用卷积神经网络分类。词向量是采样神经网络语言模型和N-gram语言模型将每个词语都表示成一个实数向量。然而,这种方法没有充分挖掘文本的上下文语义信息,难以表达文本中复杂的情感,使得文本情感分类的准确率仍存在提高的空间。
发明内容
本发明为克服现有技术存在的不足之处,提出一种基于上下文信息和卷积神经网络的文本情感分类方法,以期能进一步提高文本情感分类的准确性。
本发明为解决技术问题采用如下技术方案:
一种基于上下文信息和卷积神经网络的文本情感分类方法,按如下步骤进行:
步骤1:获取文本集合D={D1,D2,…,DN{及对应的情感标签集合Y={y1,y2,…,yN{,Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度;
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,NULL对应的词向量为全0的p维向量;
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft:
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,tanh()代表双曲正切函数,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置, T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
步骤5.4:依次令i=1,2,…,H,重复步骤5.3,得到文本Dt的上下文矩阵
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2;
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量 Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量
Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,BtH+1-l;
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l, cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵
C=[c1,c2,…,cQ]∈R(H+1-l)×Q;
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQ·r;
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数;
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感;
步骤11:在模型训练阶段,采用随机梯度下降算法优化模型的参数。
本发明通过从原始文本中挖掘上下文信息,将文本的词向量矩阵和上下文信息一起作为卷积神经网络的输入,同时,为表达不同距离的词语间的关系,将多尺度卷积核引入卷积神经网络,提高了文本情感分类的准确度。与已有技术相比,本发明有益效果体现在:
1、本发明通过引入学习机制,能显式抽取文本中词语的上下文语义信息和关系,克服了词向量无法表达特定文本词语间关系的缺陷;
2、本发明通过多种尺度的卷积核,能有效表达不同距离的词语之间的多重依赖性,有助于从文本中抽取更多有利于分类的信息;
3、本发明可以应用于对互联网上采集的新闻、产品评论等文本进行情感分析,还可应用于舆情监控和信息预测等领域,本发明应用广泛。
具体实施方式
本发明为了克服现有技术存在的不足之处,提出一种基于上下文信息和卷积神经网络的文本情感分类方法,以期能解决词向量蕴含的鉴别信息不足和单一尺度卷积核的缺陷,从而进一步提高文本情感分类的准确性。
为更为具体地描述本发明,下面对本发明的技术方案进行详细说明。
本实施例一种基于多特征融合集成学习的文本情感分类方法,具体过程为:
步骤1:数据获取。获取文本集合D={D1,D2,…,DN}及对应的情感标签集合 Y={y1,y2,…,yN},Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N 为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度。
中文分词操作主要基于字符串匹配原理,现有的开源中文分词软件包括结巴(Jieba)分词、中科院汉语分词系统(ICTCLAS)。此步骤采用结巴(Jieba)分词进行分词操作。
去停用词即去掉分词词语中与文本情感判断不太相关的词语,如空格、特殊字符、人名、时间日期、不含语义信息的词等。
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,NULL对应的词向量为全0的p维向量;词向量是将词语转换成向量表示,使得可以应用神经网络对文本进行分析和计算。词向量既可以通过gensim工具在采集的文本上训练得到,也可以直接采用开源模型。此步骤采用Google的word2vec模型。
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft:
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置,T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
步骤5.4:依次令i=1,2,…,H,重复步骤5.3,得到文本Dt的上下文矩阵
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2;
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量 Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量 Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,Bt,H+1-l;
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l, cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
在本实施例中,非线性激活函数f1取为RELU函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵
C=[c1,c2,…,cQ]∈R(H+1-l)×Q;
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQ·r;
在本实施例中,设计5种不同尺度的卷积核,5种尺度卷积核窗口中词的数量分别为3、 4、5、6、7,每种尺度下卷积核数量Q取为256;
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数;
在本实施例中,全连接网络包含1024个神经元,非线性变换函数f取为RELU函数;
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,同样需要通过模型训练得到,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感;
步骤11:在模型训练阶段,采用随机梯度下降算法优化模型的参数,其中模型的参数包括卷积核、Wfc、bfc、α1、α2、α3、β1、β2、β3、w、wc、bc。采用随机梯度下降算法不仅具有较快的训练速度、适合于处理海量数据,而且可以有效跳出局部最优解,找到更优的模型参数。
Claims (4)
1.一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,包括如下步骤:
步骤1:获取文本集合
D={D1,D2,…,DN}
及对应的情感标签集合Y={y1,y2,…,yN},Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度;
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,其中p为词向量的维度,NULL对应的词向量为全0的p维向量;
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft;
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2;
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQr;
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数,如sigmoid、tanh、RELU;
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,需要通过模型训练得到,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感。
2.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,步骤5包括:
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,tanh()为双曲正切函数,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置,T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
3.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,步骤7包括:
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,Bt,H+1-l;
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l,cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵c=[c1,c2,…,cQ]∈R(H+1-l)×Q;
4.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分析方法,其特征在于,还包括步骤11:
在模型训练阶段,采用随机梯度下降算法优化模型的参数,其中模型的参数包括卷积核、Wfc、bfc、α1、α2、α3、β1、β2、β3、w、wc、bc。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010731311.0A CN111858939A (zh) | 2020-07-27 | 2020-07-27 | 一种基于上下文信息和卷积神经网络的文本情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010731311.0A CN111858939A (zh) | 2020-07-27 | 2020-07-27 | 一种基于上下文信息和卷积神经网络的文本情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111858939A true CN111858939A (zh) | 2020-10-30 |
Family
ID=72947664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010731311.0A Pending CN111858939A (zh) | 2020-07-27 | 2020-07-27 | 一种基于上下文信息和卷积神经网络的文本情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858939A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948541A (zh) * | 2021-02-01 | 2021-06-11 | 华南理工大学 | 基于图卷积网络的金融新闻文本情感倾向分析方法 |
CN113434686A (zh) * | 2021-07-07 | 2021-09-24 | 中国银行股份有限公司 | 一种基于多重语义信息的资讯分类方法及系统 |
CN116306673A (zh) * | 2023-03-16 | 2023-06-23 | 之江实验室 | 一种文本特征提取方法与系统、电子设备、介质 |
CN116562251A (zh) * | 2023-05-19 | 2023-08-08 | 中国矿业大学(北京) | 一种面向证券信息披露长文档的表格分类方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106547735A (zh) * | 2016-10-25 | 2017-03-29 | 复旦大学 | 基于深度学习的上下文感知的动态词或字向量的构建及使用方法 |
CN108009148A (zh) * | 2017-11-16 | 2018-05-08 | 天津大学 | 基于深度学习的文本情感分类表示方法 |
CN108984523A (zh) * | 2018-06-29 | 2018-12-11 | 重庆邮电大学 | 一种基于深度学习模型的商品评论情感分析方法 |
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
CN109902177A (zh) * | 2019-02-28 | 2019-06-18 | 上海理工大学 | 基于双通道卷积记忆神经网络的文本情感分析方法 |
CN110502757A (zh) * | 2019-08-29 | 2019-11-26 | 西安邮电大学 | 一种自然语言情感分析方法 |
CN111382565A (zh) * | 2020-03-09 | 2020-07-07 | 南京理工大学 | 基于多标签的情绪-原因对抽取方法及系统 |
-
2020
- 2020-07-27 CN CN202010731311.0A patent/CN111858939A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106547735A (zh) * | 2016-10-25 | 2017-03-29 | 复旦大学 | 基于深度学习的上下文感知的动态词或字向量的构建及使用方法 |
CN108009148A (zh) * | 2017-11-16 | 2018-05-08 | 天津大学 | 基于深度学习的文本情感分类表示方法 |
CN108984523A (zh) * | 2018-06-29 | 2018-12-11 | 重庆邮电大学 | 一种基于深度学习模型的商品评论情感分析方法 |
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
CN109902177A (zh) * | 2019-02-28 | 2019-06-18 | 上海理工大学 | 基于双通道卷积记忆神经网络的文本情感分析方法 |
CN110502757A (zh) * | 2019-08-29 | 2019-11-26 | 西安邮电大学 | 一种自然语言情感分析方法 |
CN111382565A (zh) * | 2020-03-09 | 2020-07-07 | 南京理工大学 | 基于多标签的情绪-原因对抽取方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948541A (zh) * | 2021-02-01 | 2021-06-11 | 华南理工大学 | 基于图卷积网络的金融新闻文本情感倾向分析方法 |
CN112948541B (zh) * | 2021-02-01 | 2022-09-20 | 华南理工大学 | 基于图卷积网络的金融新闻文本情感倾向分析方法 |
CN113434686A (zh) * | 2021-07-07 | 2021-09-24 | 中国银行股份有限公司 | 一种基于多重语义信息的资讯分类方法及系统 |
CN116306673A (zh) * | 2023-03-16 | 2023-06-23 | 之江实验室 | 一种文本特征提取方法与系统、电子设备、介质 |
CN116306673B (zh) * | 2023-03-16 | 2023-10-24 | 之江实验室 | 一种文本特征提取方法与系统、电子设备、介质 |
CN116562251A (zh) * | 2023-05-19 | 2023-08-08 | 中国矿业大学(北京) | 一种面向证券信息披露长文档的表格分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huang et al. | Facial expression recognition with grid-wise attention and visual transformer | |
Al-Ayyoub et al. | Deep learning for Arabic NLP: A survey | |
CN110287320B (zh) | 一种结合注意力机制的深度学习多分类情感分析模型 | |
CN108399158B (zh) | 基于依存树和注意力机制的属性情感分类方法 | |
CN109766277B (zh) | 一种基于迁移学习与dnn的软件故障诊断方法 | |
CN109753660B (zh) | 一种基于lstm的中标网页命名实体抽取方法 | |
CN108763216A (zh) | 一种基于中文数据集的文本情感分析方法 | |
Zhang et al. | Sentiment Classification Based on Piecewise Pooling Convolutional Neural Network. | |
CN111858939A (zh) | 一种基于上下文信息和卷积神经网络的文本情感分类方法 | |
CN111984791B (zh) | 一种基于注意力机制的长文分类方法 | |
CN109492105B (zh) | 一种基于多特征集成学习的文本情感分类方法 | |
CN111881671B (zh) | 一种属性词提取方法 | |
CN108898138A (zh) | 基于深度学习的场景文本识别方法 | |
CN105205449A (zh) | 基于深度学习的手语识别方法 | |
CN107742095A (zh) | 基于卷积神经网络的汉语手语识别方法 | |
CN112434686B (zh) | 针对ocr图片的端到端含错文本分类识别仪 | |
Rao et al. | Exploring deep learning techniques for kannada handwritten character recognition: A boon for digitization | |
WO2021128704A1 (zh) | 一种基于分类效用的开集分类方法 | |
Khudeyer et al. | Combination of machine learning algorithms and Resnet50 for Arabic Handwritten Classification | |
Hegadi et al. | Recognition of Marathi handwritten numerals using multi-layer feed-forward neural network | |
CN115062727A (zh) | 一种基于多阶超图卷积网络的图节点分类方法及系统 | |
Jiang et al. | MTFFNet: a multi-task feature fusion framework for Chinese painting classification | |
CN113312907B (zh) | 基于混合神经网络的远程监督关系抽取方法及装置 | |
Sadeghzadeh et al. | Triplet loss-based convolutional neural network for static sign language recognition | |
CN113779966A (zh) | 一种基于注意力的双向cnn-rnn深度模型的蒙文情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |