CN115544260A - 用于文本情感分析的对比优化编解码模型及方法 - Google Patents
用于文本情感分析的对比优化编解码模型及方法 Download PDFInfo
- Publication number
- CN115544260A CN115544260A CN202211545575.2A CN202211545575A CN115544260A CN 115544260 A CN115544260 A CN 115544260A CN 202211545575 A CN202211545575 A CN 202211545575A CN 115544260 A CN115544260 A CN 115544260A
- Authority
- CN
- China
- Prior art keywords
- text
- model
- vector
- loss
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 64
- 238000005457 optimization Methods 0.000 title claims abstract description 60
- 238000004458 analytical method Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 113
- 230000011218 segmentation Effects 0.000 claims abstract description 28
- 238000012512 characterization method Methods 0.000 claims abstract description 25
- 230000003044 adaptive effect Effects 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000011478 gradient descent method Methods 0.000 claims abstract description 10
- 238000000926 separation method Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 5
- 230000008014 freezing Effects 0.000 claims description 5
- 238000007710 freezing Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000005728 strengthening Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000013433 optimization analysis Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 229940088594 vitamin Drugs 0.000 claims description 3
- 229930003231 vitamin Natural products 0.000 claims description 3
- 235000013343 vitamin Nutrition 0.000 claims description 3
- 239000011782 vitamin Substances 0.000 claims description 3
- 150000003722 vitamin derivatives Chemical class 0.000 claims description 3
- 238000012549 training Methods 0.000 description 11
- 238000012360 testing method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000007787 long-term memory Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了用于文本情感分析的对比优化编解码模型及方法,包括:将通过预处理分词模块预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;对特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失,有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析;实现一文多义文本的语义分离、有效提升文本分析精确度。
Description
技术领域
本发明涉及文本情感分析技术领域,具体涉及一种用于文本情感分析的对比优化编解码模型及方法。
背景技术
文本情感分析为自然语言处理中的关键任务之一,其目的是利用模型提取文本感情倾向,为后续的处理、研判和决策提供支撑。传统文本情感分析方法主要分为基于规则模版与基于机器学习两种:基于规则模版的方法需要针对特定任务构建规则模版,泛化性较差且可移植性较低:基于机器学习的方法需要构造合适的特征与分类器,可以获得较好的灵活性与精准度。但该方法需要构造高质量的特征工程,特征选取质量直接决定最终效果,需要较高的成本与精力。
针对传统方法的不足,现阶段主要采用深度学习方法进行文本情感分析。通过构建大规模深度神经网络,可以获得更强的特征学习与上下文语义感知能力。但由于中文文本存在一文多义与语义模糊,现阶段主流的深度学习模型无法准确分离一文多义文本的情感倾向;且目前的方法忽视了整体语义关系与词元原始特征的结合,只关注整体语义关系或词元原始特征,限制了语义模糊文本的特征提取;同时无法将上下文语义关系进行有效互补与融合,影响了文本情感分析的准确度。
发明内容
因此,本发明为了解决现有技术中的以上缺陷,提供一种用于文本情感分析的对比优化编解码模型与方法,以实现一文多义文本的语义分离,同时增强整体语义与词元特征的结合,以及提高模型对模糊语义的捕捉能力。
一方面,本发明提供一种用于文本情感分析的对比优化编解码模型,包括:
编码对比层:通过预处理分词模块对文本进行预处理分词,将通过自注意力模块和前馈编码模块将预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化层:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;
解码输出层;将特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失;以及
优化分析层:有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
另一发明,本发明提供一种用于文本情感分析的对比优化编解码方法,包括:
数据集构建阶段:构建待分析文本的文本分类数据集并进行标签化;
编码对比阶段:将通过预处理分词模块预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化阶段:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;
解码输出阶段:对特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失,
优化分析阶段:监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
与现有技术相比,本发明的有益效果是:
本发明通过中文文本索引字典对信息文本进行分词和数字索引转化处理;进而使用注意力机制与前馈编码模块将数字索引转化为相应的的序列表征向量;随后通过构建正负样本对实施有监督对比学习,计算有监督对比学习损失;接着将序列表征向量输入至自适应特征强化层从左至右、从右至左分别进行特征强化与提取得到局部特征向量,将两个局部特征向量进行自适应加权求和,得到特征强化向量送至解码输出层;然后解码输出层通过特征降维与归一化指数计算得到最终分类结果;接着使用交叉熵函数计算分类损失;随后通过联合损失与小批量随机梯度下降优化模型各项参数;最后优化完毕后冻结参数不再更新,用模型对输入的信息文本进行分析。
本发明利用单字级特征作为模型输入,有效避免分词错误带来的不利影响;通过有监督对比优化模型编码能力,实现一文多义文本的语义分离;同时通过设计一种自适应提取序列前后特征的长短期记忆网络进行局部特征强化与上下文语义关系融合,增强整体语义与词元特征的结合,提高模型对模糊语义的捕捉能力,有效提升信息文本分析精确度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的用于文本情感分析的对比优化编解码方法流程示意图;
图2为本发明的用于文本情感分析的对比优化编解码模型示意图;
图3为本发明的自注意力模块示意图;
图4为本发明的前馈编码模块示意图;
图5为本发明的实验效果图,其中(a)为普通编码模型与本发明提供的用于文本情感分析的对比优化编解码模型的测试精度对比图,(b)为普通编码模型与本发明提供的用于文本情感分析的对比优化编解码模型的训练损失对比图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
如图1所示,本实施例提供一种用于文本情感分析的对比优化编解码方法,其包括:
数据集构建:构建待分析文本的文本分类数据集并进行标签化;
编码对比阶段:将通过预处理分词模块预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化阶段:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;
解码输出阶段:对特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失,
优化分析阶段:有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
在本实施例中,利用单字级特征作为模型输入,有效避免分词错误带来的不利影响;并通过有监督对比优化模型编码能力,实现一文多义文本的语义分离;同时通过设计一种自适应提取序列前后特征的长短期记忆网络进行局部特征强化与上下文语义关系融合,增强整体语义与词元特征的结合,提高模型对模糊语义的捕捉能力,有效提升信息文本分析精确度。
具体地,所述数据集构建包括:
S0:构建待分析文本的文本分类数据集,并进行标签化:将消极情绪文本标注为0,积极情绪文本标注为1;将标签设置完毕的数据集按比例划分为训练集、验证集与测试集,具体地,训练集:验证集:测试集=7:2:1,训练集用于模型训练优化各项参数,验证集用于训练阶段评估训练效果,测试集用于对模型进行测试检验。
所述预处理分词阶段包括:
S1: 通过预处理分词模块对文本进行预处理分词得到文本序列;所述预处理分词为:选取同一批量大小中最长的文本长度作为本批量的固定长度,将其他不足固定长度的文本补0至固定长度。在本实施例中,优选批量最大长度为512个字,若超出最大长度则舍弃多余部分文本。
表1 同一序列使用不同丢弃率的编码示例
进一步地,在所述解码输出阶段时,所述解码输出层用于将特征强化向量进行解码,得到解码结果,其中,其中,为信息文本批量大
小,为序列字符长度,为词向量维度,为信息文本标签类别数量;在本实施例中优选
为2,并优选为768,最终输出模型判定的文本情感类别:
进一步地,在所述优化分析阶段时,包括:
S5.3:冻结更新优化完毕的模型参数,使用模型对输入的信息文本进行情感分析。
在本实施例中,当接收到待分析文本后,首先使用待分析文本的训练集对该对比优化编解码参数进优选,优化后冻结更新优化完毕的模型参数,使用具有该优化模型参数的对比优化编解码对接收到待分析文本的测试集进行测试分析,可知本发明的模型在实现文本情感分析的同时通过自适应提取序列前后特征的长短期记忆网络进行局部特征强化与上下文语义关系融合,增强整体语义与词元特征的结合,提高模型对模糊语义的捕捉能力。
也就是说,该用于文本情感分析的对比优化编解码方法,通过中文文本索引字典对信息文本进行分词和数字索引转化处理,使用自注意力模块与前馈编码模块将数字索引转化为相应的的序列表征向量,随后通过构建正负样本对实施有监督对比学习,计算有监督对比学习损失;接着将序列表征向量输入至自适应特征强化层从左至右、从右至左分别进行特征强化与提取得到局部特征向量,将两个局部特征向量进行自适应加权求和,得到特征强化向量送至解码输出层;然后解码输出层通过特征降维与归一化指数计算得到最终分类结果,再使用交叉熵函数计算分类损失;通过联合损失与小批量随机梯度下降优化模型各项参数;最后优化完毕后冻结参数不再更新,用模型对输入的信息文本进行分析。
实施例2
如图2所示,本实施例提供一种用于文本情感分析的对比优化编解码模型,其包括:
编码对比层:通过预处理分词模块对文本进行预处理分词,将通过自注意力模块和前馈编码模块将预处理后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化层:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;以及
解码输出层;将特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失;
优化分析层:有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
具体地,所述编码对比层包括:构建待分析文本的文本分类数据集并进行标签化,对文本进行预处理分词得到文本序列的预处理分词阶段;以及将预处理后的文本编码为序列表征向量,并计算有监督对比学习损失的编码对比阶段;
其中,所述编码对比阶段包括:
进一步,如图4所示,所述前馈编码模块将注意力序列作为输入,进行维度转化
与随机丢弃;根据不同的丢弃率()对同一注意力序列进行两次编码得到序列表
征向量与,计算如公式(6)-(7)所示。其中为具有单隐藏层的全连接
层,丢弃率大小依据经验设置,本实施例优选设置丢弃率为与。
所述解码输出层的解码输出阶段包括:
所述优化分析包括:
S5.3:冻结更新优化完毕的模型参数,使用模型对输入的信息文本进行情感分析
本实施例所述的用于文本情感分析的对比优化编解码模型用于实现实施例1所述的用于文本情感分析的对比优化编解码方法,本分析模型利用单字级特征作为模型输入,有效避免分词错误带来的不利影响;通过有监督对比优化模型编码能力,实现一文多义文本的语义分离;同时通过设计一种自适应提取序列前后特征的长短期记忆网络进行局部特征强化与上下文语义关系融合,增强整体语义与词元特征的结合,提高模型对模糊语义的捕捉能力,有效提升信息文本分析精确度。
对比例
如图5(a)所示,该图为测试精度实验结果示意图,其中,横坐标为训练轮次,纵坐标为精准度,连续线条为本发明所述的用于文本情感分析的对比优化编解码模型的实验结果,断点线条为现有技术中的普通编解码模型的实验结果;如图5(b)所示,该图为训练损失实验结果示意图,其中,横坐标为训练轮次,纵坐标为损失值,连续线条为本发明所述的用于文本情感分析的对比优化编解码模型的实验结果,断点线条为现有技术中的普通编解码模型的实验结果。对比可知,本发明提供的用于文本情感分析的对比优化编解码模型的精确度和损失要明显优于普通编解码模型;实验证明本发明的用于文本情感分析的对比优化编解码模型具有更好的语义提取与分析能力。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (8)
1.用于文本情感分析的对比优化编解码模型,其特征在于,包括:
编码对比层:通过预处理分词模块对文本进行预处理分词,通过自注意力模块和前馈编码模块将预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化层:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;
解码输出层;将特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失;以及
优化分析层:有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
2.根据权利要求1所述的用于文本情感分析的对比优化编解码模型,其特征在于,所述编码对比层包括:对文本进行预处理分词得到文本序列的预处理分词阶段;以及将预处理后的文本编码为序列表征向量,并计算有监督对比学习损失的编码对比阶段;
其中,所述编码对比阶段包括:
8.用于文本情感分析的对比优化编解码方法,其特征在于,包括
数据集构建阶段:构建待分析文本的文本分类数据集并进行标签化;
编码对比阶段:将通过预处理分词模块预处理分词后的文本编码为序列表征向量,并计算有监督对比学习损失;
自适应特征强化阶段:对序列表征向量进行局部语义抽取与强化,得到相应的特征强化向量;
解码输出阶段:对特征强化向量进行解码,得到解码结果并最终输出模型判定的文本情感类别,并对模型判定的文本情感类别与数据集标签计算分类损失,
优化分析阶段:有监督对比学习损失和分类损失的联合损失为模型联合优化损失,通过模型联合优化损失与小批量随机梯度下降方法更新模型各项参数矩阵与自适应系数后,使用优化模型对输入的文本进行情感分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545575.2A CN115544260B (zh) | 2022-12-05 | 2022-12-05 | 用于文本情感分析的对比优化编解码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545575.2A CN115544260B (zh) | 2022-12-05 | 2022-12-05 | 用于文本情感分析的对比优化编解码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115544260A true CN115544260A (zh) | 2022-12-30 |
CN115544260B CN115544260B (zh) | 2023-04-25 |
Family
ID=84721722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211545575.2A Active CN115544260B (zh) | 2022-12-05 | 2022-12-05 | 用于文本情感分析的对比优化编解码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115544260B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117633239A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
CN118277575A (zh) * | 2024-06-04 | 2024-07-02 | 湖南工商大学 | 一种用于文本情感分析的集成对比方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156854A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN112765358A (zh) * | 2021-02-23 | 2021-05-07 | 西安交通大学 | 一种基于噪声标签学习的纳税人行业分类方法 |
US20210326660A1 (en) * | 2020-04-21 | 2021-10-21 | Google Llc | Supervised Contrastive Learning with Multiple Positive Examples |
CN113569559A (zh) * | 2021-07-23 | 2021-10-29 | 北京智慧星光信息技术有限公司 | 短文本实体情感分析方法、系统、电子设备及存储介质 |
CN114358201A (zh) * | 2022-01-11 | 2022-04-15 | 平安科技(深圳)有限公司 | 基于文本的情感分类方法和装置、计算机设备、存储介质 |
CN114529758A (zh) * | 2022-01-25 | 2022-05-24 | 哈尔滨工业大学 | 基于对比学习和多头自注意力机制的多模态情感分析方法 |
CN114925205A (zh) * | 2022-06-09 | 2022-08-19 | 西北工业大学 | 基于对比学习的gcn-gru文本分类方法 |
CN115034228A (zh) * | 2022-06-29 | 2022-09-09 | 苏州思萃人工智能研究所有限公司 | 一种用于情感分析模型的优化方法 |
US20220343139A1 (en) * | 2021-04-15 | 2022-10-27 | Peyman PASSBAN | Methods and systems for training a neural network model for mixed domain and multi-domain tasks |
CN115391520A (zh) * | 2022-07-22 | 2022-11-25 | 浙江树人学院 | 一种文本情感分类方法、系统、装置及计算机介质 |
-
2022
- 2022-12-05 CN CN202211545575.2A patent/CN115544260B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156854A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
US20210326660A1 (en) * | 2020-04-21 | 2021-10-21 | Google Llc | Supervised Contrastive Learning with Multiple Positive Examples |
CN112765358A (zh) * | 2021-02-23 | 2021-05-07 | 西安交通大学 | 一种基于噪声标签学习的纳税人行业分类方法 |
US20220343139A1 (en) * | 2021-04-15 | 2022-10-27 | Peyman PASSBAN | Methods and systems for training a neural network model for mixed domain and multi-domain tasks |
CN113569559A (zh) * | 2021-07-23 | 2021-10-29 | 北京智慧星光信息技术有限公司 | 短文本实体情感分析方法、系统、电子设备及存储介质 |
CN114358201A (zh) * | 2022-01-11 | 2022-04-15 | 平安科技(深圳)有限公司 | 基于文本的情感分类方法和装置、计算机设备、存储介质 |
CN114529758A (zh) * | 2022-01-25 | 2022-05-24 | 哈尔滨工业大学 | 基于对比学习和多头自注意力机制的多模态情感分析方法 |
CN114925205A (zh) * | 2022-06-09 | 2022-08-19 | 西北工业大学 | 基于对比学习的gcn-gru文本分类方法 |
CN115034228A (zh) * | 2022-06-29 | 2022-09-09 | 苏州思萃人工智能研究所有限公司 | 一种用于情感分析模型的优化方法 |
CN115391520A (zh) * | 2022-07-22 | 2022-11-25 | 浙江树人学院 | 一种文本情感分类方法、系统、装置及计算机介质 |
Non-Patent Citations (2)
Title |
---|
ZHENGYAN LI;YICHENG ZOU: "Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training", 《PROCEEDINGS OF THE 2021 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 * |
程艳;尧磊波等: "基于注意力机制的多通道CNN和BiGRU的文本情感倾向性分析", 《计算机研究与发展》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117633239A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
CN117633239B (zh) * | 2024-01-23 | 2024-05-17 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
CN118277575A (zh) * | 2024-06-04 | 2024-07-02 | 湖南工商大学 | 一种用于文本情感分析的集成对比方法及装置 |
CN118277575B (zh) * | 2024-06-04 | 2024-08-20 | 湖南工商大学 | 一种用于文本情感分析的集成对比方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115544260B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108717574B (zh) | 一种基于连词标记和强化学习的自然语言推理方法 | |
CN112214599B (zh) | 基于统计学和预训练语言模型的多标签文本分类方法 | |
CN110609897B (zh) | 一种融合全局和局部特征的多类别中文文本分类方法 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
AU2020100710A4 (en) | A method for sentiment analysis of film reviews based on deep learning and natural language processing | |
CN112667818B (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN110717334A (zh) | 基于bert模型和双通道注意力的文本情感分析方法 | |
CN115544260A (zh) | 用于文本情感分析的对比优化编解码模型及方法 | |
CN110502626B (zh) | 一种基于卷积神经网络的方面级情感分析方法 | |
CN114757182A (zh) | 一种改进训练方式的bert短文本情感分析方法 | |
CN107688576B (zh) | 一种cnn-svm模型的构建及倾向性分类方法 | |
CN110489750A (zh) | 基于双向lstm-crf的缅甸语分词及词性标注方法及装置 | |
CN112861524A (zh) | 一种基于深度学习的多层次中文细粒度情感分析方法 | |
CN111309918A (zh) | 一种基于标签关联性的多标签文本分类方法 | |
CN113723083B (zh) | 基于bert模型的带权消极监督文本情感分析方法 | |
CN114372465A (zh) | 基于Mixup和BQRNN的法律命名实体识别方法 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN113254582A (zh) | 一种基于预训练模型的知识驱动对话方法 | |
CN107967337B (zh) | 一种基于情感极性增强语义的跨领域情感分析方法 | |
CN113779966A (zh) | 一种基于注意力的双向cnn-rnn深度模型的蒙文情感分析方法 | |
Chen et al. | Learning a general clause-to-clause relationships for enhancing emotion-cause pair extraction | |
CN116384379A (zh) | 一种基于深度学习的中文临床术语标准化方法 | |
WO2023159759A1 (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 | |
CN115730067A (zh) | 基于短文本与复杂语义符号的多通道情感分类方法及设备 | |
CN114692610A (zh) | 关键词确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |