CN113297352A - 基于多任务网络的属性级情感分类方法及装置 - Google Patents
基于多任务网络的属性级情感分类方法及装置 Download PDFInfo
- Publication number
- CN113297352A CN113297352A CN202110628590.2A CN202110628590A CN113297352A CN 113297352 A CN113297352 A CN 113297352A CN 202110628590 A CN202110628590 A CN 202110628590A CN 113297352 A CN113297352 A CN 113297352A
- Authority
- CN
- China
- Prior art keywords
- emotion classification
- attribute
- classification
- level
- level emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013145 classification model Methods 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 30
- 230000002996 emotional effect Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000287196 Asthenes Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种基于多任务网络的属性级情感分类方法及装置,属于情感分析技术领域。该方法包括:获取情感分类样本语料并对语料进行预处理,得到处理后的样本语料;构建预设分类模型,所述预设分类模型包括属性级情感分类主任务网络、篇章级情感分类辅助任务网络、上下句情感连贯性判断辅助任务网络,所述主任务网络和辅助任务网络由共享的编码层和与编码层相连的各独立分类层构成;将所述处理后的样本语料输入所述预设分类模型并利用预设的损失函数进行训练,得到情感分类模型,所述情感分类模型用于对输入的待分类语料进行属性级情感分类。本申请有效地提高属性级情感分类的性能。
Description
技术领域
本申请涉及情感分析技术领域,更具体地来说,本申请涉及一种基于多任务网络的属性级情感分类方法及装置。
背景技术
随着互联网技术的快速发展,各种电子商务平台应运而生,吸引了大量用户,人们可以通过这些平台自由地发表自己的想法与观点,网络因此成为了信息传播的主要途径。在这样的大背景下,对网络中的各种文本进行情感分类在学术研究和现实应用两方面都具有很高的价值。近年来,随着研究的深入和现实需求的提高,情感分类任务也被不断细化,属性级情感分类就是一个细粒度情感分类任务,该任务旨在判断文本中针对每一个具体属性的情感极性。对大量的在线文本进行精准的属性级情感分类,可以推进产品质量监控、个性化推荐等系统的完善和发展。
传统的基于特征工程的机器学习方法,如支持向量机、最大熵、朴素贝叶斯等,首先被应用于情感分类任务,并取得了突破性的进展。而后随着深度学习的兴起与发展,越来越多的研究者尝试使用深度神经网络解决情感分类任务。但是,训练这些模型需要大量的标注语料,而人工标注样本耗时费力,在实际操作中存在着一定的困难,因此现有的可用于属性级情感分类任务的语料比较匮乏,模型训练缺乏充分的文本信息。
发明内容
本申请的目的是解决上述技术问题。本申请提供了一种基于多任务网络的属性级情感分类方法,通过多任务网络联合学习的方法,充分挖掘篇章级文本中的情感信息,并将其应用于细粒度的属性级情感分类任务。本申请提供如下技术方案:
第一方面,提供一种基于多任务网络的属性级情感分类方法,其包括:
获取情感分类样本语料并对语料进行预处理,得到处理后的样本语料;
构建预设分类模型,所述预设分类模型包括属性级情感分类主任务网络、篇章级情感分类辅助任务网络、上下句情感连贯性判断辅助任务网络,所述主任务网络和辅助任务网络由共享的编码层和与编码层相连的各独立分类层构成;
将所述处理后的样本语料输入所述预设分类模型并利用预设的损失函数进行训练,得到情感分类模型,所述情感分类模型用于对输入的待分类语料进行属性级情感分类。
可选地,其中所述样本语料包括属性级情感分类样本语料和篇章级情感分类样本语料。
可选地,其中所述预处理包括分割处理和标注处理。
可选地,其中所述编码层为BERT,所述分类层为Softmax。
可选地,其中所述损失函数包括属性级情感分类主任务损失函数、篇章级情感分类辅助任务网络损失函数、上下句情感连贯性判断辅助任务损失函数和多任务联合学习方法损失函数。
可选地,其中所述属性级情感分类主任务损失函数为:
可选地,其中所述篇章级情感分类辅助任务损失函数为:
可选地,其中所述上下句情感连贯性判断辅助任务损失函数为:
可选地,其中所述多任务联合学习方法损失函数为:
第二方面,提供一种基于多任务网络的属性级情感分类装置,包括:
语料预处理模块:用于对样本语料进行预处理;
模型构建模块:构建多任务网络的属性级情感分类模型;
模型训练:训练多任务网络的属性级情感分类模型。
本申请的有益效果至少包括:通过属性级情感分类任务、篇章级情感分类任务和上下句情感连贯性判断任务的联合学习,充分挖掘属性级文本和篇章级文本中的情感信息,训练后的模型更适用于情感分类任务。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
通过结合附图对于本申请的示例性实施例进行描述,可以更好地理解本申请,在附图中:
图1是本申请一个实施例提供的基于多任务网络的属性级情感分类方法的流程图。
图2是本申请一个实施例提供的预设分类模型框架图。
图3是本申请一个实施例提供的共享编码层模型图。
图4是本申请一个实施例提供的于多任务网络的属性级情感分类装置的框图。
具体实施方式
下面结合附图和实施例,对本申请的具体实施方式作进一步详细描述,以令本领域技术人员参照说明书文字能够据以实施。
需要指出的是,在这些实施方式的具体描述过程中,为了进行简明扼要的描述,本说明书不可能对实际的实施方式的所有特征均作详尽的描述。应当可以理解的是,在任意一种实施方式的实际实施过程中,正如在任意一个工程项目或者设计项目的过程中,为了实现开发者的具体目标,为了满足系统相关的或者商业相关的限制,常常会做出各种各样的具体决策,而这也会从一种实施方式到另一种实施方式之间发生改变。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请的内容不充分。
BERT为预训练的语言表示模型,BERT适用于一系列的自然语言处理任务,如文本分类、阅读理解等,并在以往的工作中展现了优越的性能,本申请选择BERT作为文本编码层。
图1是本申请一个实施例提供的基于多任务网络的属性级情感分类方法的流程图。该方法至少包括以下几个步骤:
步骤S101,获取情感分类样本语料并对语料进行预处理,得到处理后的样本语料。
获取的样本语料包括属性级评价文本语料和篇章级评价文本语料,分别用于训练属性级情感分类任务和篇章级情感分类任务。同时,利用篇章级评价文本另外构建了一个上下句语料,并将其用于学习上下句情感连贯性判断任务。
语料的预处理包括对每一个样本都标注一个情感标签(正面、中性、负面),之后通过篇章级文本语料构建上下句语料,将一个篇章文本切割为若干个分句,其中连续的上下两个分句构成一个语句对,若一个语句对中的两个分句由表示转折关系的连接词串接,则认为这两个分句之间的情感是不连贯的;否则,则认为两个分句之间的情感是连贯的。
步骤S102,构建预设分类模型,所述预设分类模型包括属性级情感分类主任务网络、篇章级情感分类辅助任务网络、上下句情感连贯性判断辅助任务网络,所述主任务网络和辅助任务网络由共享的编码层和与编码层相连的各独立分类层构成。
如图2所示,预设的分类模型是由共享的编码层和分类层构成,每个任务网络模型有独立的分类层,所有分类层与编码层相连。如图3所示,共享的编码层由多层Transformer编码器构成。
步骤S103,将所述处理后的样本语料输入所述预设分类模型并利用预设的损失函数进行训练,得到情感分类模型,所述情感分类模型用于对输入的待分类语料进行属性级情感分类。
为了获取属性相关的句子表示,本申请采取构造辅助句的方式,将属性信息与句子的原始文本相结合。即对于句子及其对应的属性,首先将其处理为适用于BERT模型的输入格式:,其中表示针对属性构造的辅助疑问句,然后将此语句对输入BERT模型,得到句子与属性相关的向量表示。最后将向量表示输入一个Softmax分类器,得到句子针对属性的情感概率分布。
属性级情感分类任务的损失函数定义为
如图2,篇章级情感分类模块采用共享的编码层和独立的Softmax层,旨在判断篇章文本的整体情感极性。首先将篇章级文本处理为的格式,然后输入共享BERT模型进行编码,得到篇章文本的向量表示,最后将向量表示输入一个Softmax分类器,得到篇章文本的情感概率分布。
篇章级情感分类任务的损失函数定义为:
如图2,上下句情感连贯性判断模块包括编码层和Softmax层,旨在识别连续的上下分句和之间是否存在明显的情感冲突。首先将句子对处理为的格式,然后输入共享的BERT编码层进行编码,得到句子对的向量表示,最后将向量表示输入Softmax分类器,得到句子对的情感连贯性概率分布。
上下句情感连贯性判断的损失函数定义为:
最后,将主任务(属性级情感分类)和辅助任务(篇章级情感分类、上下句情感连贯性判断)的损失函数进行线性组合,作为多任务联合学习方法的损失函数:
在使用样本语料和预设的损失函数进行训练之后,模型具有良好的识别精度,能够给出高质量的预测信息,可以实现语料的情感分类。
可选地,可以使用测试数据对模型进行测试,参考下表1所示的训练后的基础BERT模型和本申请的多任务网络情感分类模型在正确率以及F值方面的对比结果。根据表1可以看出,经过训练后的多任务网络情感分类模型高出约百分之2正确率,F值也有百分之2的提高。可见,本发明具有较高的分类正确率。
表1
综上所述,本实施例提供的基于多任务网络的属性及情感分类方法及装置,通过将主任务与两个辅助任务进行联合学习,可以充分挖掘篇章文本中的情感信息,有效地提高属性级情感分类的性能。
图4是本申请一个实施例提供的基于多任务网络的属性及情感分类装置。该装置至少包括以下几个模块:语料预处理模块410、模型构建模块420、模型训练模块430。
语料预处理模块410,用于对样本语料进行预训练;
模型构建模块420,用于构建多任务网络的属性级情感分类模型;
模型训练模块430,用于训练多任务网络的属性级情感分类模型。
相关细节参考上述方法实施例。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,对本领域的普通技术人员而言,能够理解本申请的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本申请的说明的情况下运用他们的基本编程技能就能实现的。
因此,本申请的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本申请的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本申请,并且存储有这样的程序产品的存储介质也构成本申请。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。
还需要指出的是,在本申请的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
除非另作定义,权利要求书和说明书中使用的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“一个”或者“一”等类似词语并不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的元件或者物件及其等同元件,并不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,也不限于是直接的还是间接的连接。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种基于多任务网络的属性级情感分类方法,其包括:
获取情感分类样本语料并对语料进行预处理,得到处理后的样本语料;
构建预设分类模型,所述预设分类模型包括属性级情感分类主任务网络、篇章级情感分类辅助任务网络、上下句情感连贯性判断辅助任务网络,所述主任务网络和辅助任务网络由共享的编码层和与编码层相连的各独立分类层构成;
将所述处理后的样本语料输入所述预设分类模型并利用预设的损失函数进行训练,得到情感分类模型,所述情感分类模型用于对输入的待分类语料进行属性级情感分类。
2.根据权利要求1所述的方法,其中所述样本语料包括属性级情感分类样本语料和篇章级情感分类样本语料。
3.根据权利要求1所述的方法,其中所述预处理包括分割处理和标注处理。
4.根据权利要求1所述的方法,其中所述编码层为BERT,所述分类层为Softmax。
5.根据权利要求1所述的方法,其中所述损失函数包括属性级情感分类主任务损失函数、篇章级情感分类辅助任务网络损失函数、上下句情感连贯性判断辅助任务损失函数和多任务联合学习方法损失函数。
10.一种基于多任务网络的属性级情感分类装置,包括:
语料预处理模块:用于对样本语料进行预处理;
模型构建模块:构建多任务网络的属性级情感分类模型;
模型训练:训练多任务网络的属性级情感分类模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110628590.2A CN113297352B (zh) | 2021-06-07 | 2021-06-07 | 基于多任务网络的属性级情感分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110628590.2A CN113297352B (zh) | 2021-06-07 | 2021-06-07 | 基于多任务网络的属性级情感分类方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113297352A true CN113297352A (zh) | 2021-08-24 |
CN113297352B CN113297352B (zh) | 2024-01-16 |
Family
ID=77327262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110628590.2A Active CN113297352B (zh) | 2021-06-07 | 2021-06-07 | 基于多任务网络的属性级情感分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113297352B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113849651A (zh) * | 2021-09-28 | 2021-12-28 | 平安科技(深圳)有限公司 | 基于文档级情感倾向的情感分类方法、装置、设备及介质 |
CN115982368A (zh) * | 2023-03-14 | 2023-04-18 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
CN110222827A (zh) * | 2019-06-11 | 2019-09-10 | 苏州思必驰信息科技有限公司 | 基于文本的抑郁判定网络模型的训练方法 |
CN110489554A (zh) * | 2019-08-15 | 2019-11-22 | 昆明理工大学 | 基于位置感知互注意力网络模型的属性级情感分类方法 |
US20200167419A1 (en) * | 2018-11-27 | 2020-05-28 | Sap Se | Exploiting document knowledge for aspect-level sentiment classification |
CN111368545A (zh) * | 2020-02-28 | 2020-07-03 | 北京明略软件系统有限公司 | 一种基于多任务学习的命名实体识别方法和装置 |
CN111414476A (zh) * | 2020-03-06 | 2020-07-14 | 哈尔滨工业大学 | 一种基于多任务学习的属性级情感分析方法 |
CN112395417A (zh) * | 2020-11-18 | 2021-02-23 | 长沙学院 | 基于深度学习的网络舆情演化仿真方法及系统 |
-
2021
- 2021-06-07 CN CN202110628590.2A patent/CN113297352B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200167419A1 (en) * | 2018-11-27 | 2020-05-28 | Sap Se | Exploiting document knowledge for aspect-level sentiment classification |
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
CN110222827A (zh) * | 2019-06-11 | 2019-09-10 | 苏州思必驰信息科技有限公司 | 基于文本的抑郁判定网络模型的训练方法 |
CN110489554A (zh) * | 2019-08-15 | 2019-11-22 | 昆明理工大学 | 基于位置感知互注意力网络模型的属性级情感分类方法 |
CN111368545A (zh) * | 2020-02-28 | 2020-07-03 | 北京明略软件系统有限公司 | 一种基于多任务学习的命名实体识别方法和装置 |
CN111414476A (zh) * | 2020-03-06 | 2020-07-14 | 哈尔滨工业大学 | 一种基于多任务学习的属性级情感分析方法 |
CN112395417A (zh) * | 2020-11-18 | 2021-02-23 | 长沙学院 | 基于深度学习的网络舆情演化仿真方法及系统 |
Non-Patent Citations (4)
Title |
---|
XIAO CHEN.ET.AL.: "Aspect sentiment classification with document-level sentiment preference modeling", 《PROCEEDINGS OF THE 58TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》, pages 3667 * |
王欢;吴成东;迟剑宁;于晓升;胡倩;: "联合多任务学习的人脸超分辨率重建", 中国图象图形学报, no. 02 * |
葛海柱;孔芳;: "基于多任务学习的汉语基本篇章单元和主述位联合识别", 中文信息学报, no. 01 * |
邹纪云;许云峰;: "基于辅助模态监督训练的情绪识别神经网络", 河北科技大学学报, no. 05 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113849651A (zh) * | 2021-09-28 | 2021-12-28 | 平安科技(深圳)有限公司 | 基于文档级情感倾向的情感分类方法、装置、设备及介质 |
CN113849651B (zh) * | 2021-09-28 | 2024-04-09 | 平安科技(深圳)有限公司 | 基于文档级情感倾向的情感分类方法、装置、设备及介质 |
CN115982368A (zh) * | 2023-03-14 | 2023-04-18 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
CN115982368B (zh) * | 2023-03-14 | 2023-08-15 | 北京匠数科技有限公司 | 一种文本分类的方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113297352B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ishaq et al. | Aspect-based sentiment analysis using a hybridized approach based on CNN and GA | |
CN111339255B (zh) | 目标情感分析的方法、模型训练方法、介质和设备 | |
CN110705206B (zh) | 一种文本信息的处理方法及相关装置 | |
Cai et al. | nCoder+: a semantic tool for improving recall of nCoder coding | |
Das et al. | Emotion classification in a resource constrained language using transformer-based approach | |
Zhao et al. | ZYJ123@ DravidianLangTech-EACL2021: Offensive language identification based on XLM-RoBERTa with DPCNN | |
CN114238577B (zh) | 融合多头注意力机制的多任务学习情感分类方法 | |
Lopes et al. | An AutoML-based approach to multimodal image sentiment analysis | |
CN113297352A (zh) | 基于多任务网络的属性级情感分类方法及装置 | |
Wu et al. | BERT for sentiment classification in software engineering | |
Xu et al. | Multi-task legal judgement prediction combining a subtask of the seriousness of charges | |
Gandhi et al. | Multimodal sentiment analysis: review, application domains and future directions | |
CN115129807A (zh) | 基于自注意的社交媒体主题评论的细粒度分类方法及系统 | |
Zarzour et al. | Sentiment analysis based on deep learning methods for explainable recommendations with reviews | |
Xie et al. | A novel attention based CNN model for emotion intensity prediction | |
Wang et al. | MT-TCCT: Multi-task learning for multimodal emotion recognition | |
Novais et al. | Facial emotions classification supported in an ensemble strategy | |
Panahandeh Nigjeh et al. | Leveraging ParsBERT for cross-domain polarity sentiment classification of Persian social media comments | |
Nouhaila et al. | Arabic sentiment analysis based on 1-D convolutional neural network | |
Deepak et al. | Automatic image captioning system using a deep learning approach | |
CN115186085A (zh) | 回复内容处理方法以及媒体内容互动内容的交互方法 | |
Sumathi et al. | Sentiment classification on Tamil and Telugu text using RNNs and Transformers | |
CN114330285A (zh) | 语料处理方法、装置、电子设备及计算机可读存储介质 | |
He | Recent works for sentiment analysis using machine learning and lexicon based approaches | |
Cheraghi et al. | Towards Web-Based Automation: A Comparative Analysis of Feature Extraction Approaches and Applications for Quality Control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |