CN117592514A - 评论文本观点预测方法、系统及设备和存储介质 - Google Patents
评论文本观点预测方法、系统及设备和存储介质 Download PDFInfo
- Publication number
- CN117592514A CN117592514A CN202410076556.2A CN202410076556A CN117592514A CN 117592514 A CN117592514 A CN 117592514A CN 202410076556 A CN202410076556 A CN 202410076556A CN 117592514 A CN117592514 A CN 117592514A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- comment text
- quadruple
- text
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012360 testing method Methods 0.000 claims description 58
- 238000012549 training Methods 0.000 claims description 42
- 230000008451 emotion Effects 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 23
- 230000009467 reduction Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000011056 performance test Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种评论文本观点预测方法、系统及设备和存储介质,属于人工智能技术领域,通过先利用小规模的高质量的标注的第一评论文本加指令词的方式对大语言模型进行观点抽取和情感句还原这两个相反的下游任务训练,将无标注的第二评论文本输入训练后的模型中,得到第二评论文本的观点四元组,再将第二评论文本的观点四元组回输入训练后的模型得到重构评论文本,通过计算重构评论文本与第二评论文本之间的损失,使模型通过损失蒸馏出语义知识和情感知识,并进行学习,最终达到使用无标注的数据对模型进行无监督训练的效果达到减少高昂的数据标注成本的同时,能够使用小样本进行半监督学习的方式,在最终效果上提升原始方法的准确率。
Description
技术领域
本发明属于人工智能技术领域,具体涉及一种评论文本观点预测方法、系统及设备和存储介质。
背景技术
网络电商平台成为了获取商品的主要渠道之一。由此产生了大量的在线商品评论文本,这些评论中蕴含了丰富的用户观点及情感信息,对于市场研究和消费者行为分析具有重要的价值。但是这些海量的评论具有数据体量巨大、价值密度低的特点,传统的方法无法获取其价值。因此观点分析(情感分类)技术应运而生,它通过对文本进行观点的提取并获取文本作者对其情感极性以达到对海量评论文本的高效实时信息反馈。
早期的观点分析研究主要集中在词汇级别,它通常无法处理复杂的语言环境,近年来,随着深度学习技术的发展,情感分析的研究方向发生了变化,情感分析已经能够更好地理解语言的复杂性和多样性。同时,大语言模型的诞生,使得情感分析能够依托于大模型取得更优异的结果。
但是大语言模型是由数据驱动的,它能够有效的对商品评论文本进行文本属性观点预测的前提是需要大量的高质量的标注文本,但是其标注成本非常高昂,目前的标注数据集的标注量不足,易导致商品评论文本属性观点预测性能不高,预测准确率低等情况出现。
发明内容
基于以上现有的评论文本观点预测现状,本发明提供一种评论文本观点预测方法、系统及设备和存储介质,用以克服现有技术中存在的至少一个技术问题。
为实现上述目的,本发明提供一种评论文本观点预测方法,包括:
将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,以及将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
将无标注的第二评论文本和所述第一指令词输入所述初级观点预测模型,得到所述第二评论文本的第二观点四元组;
将所述第二观点四元组和所述第二指令词输入所述初级观点预测模型,得到重构评论文本;
根据计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失,对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型;
通过将标注的测试评论文本以及与所述测试评论文本的标注对应的观点四元组作为模型性能测试数据,对所述中级观点预测模型进行性能指标测试,当所述性能指标测试满足预设性能指标要求时,得到观点预测模型;
利用所述观点预测模型对待预测的评论文本进行观点预测。
为了解决上述问题,本发明还提供一种评论文本观点预测系统,所述系统包括:
下游训练模块,用于将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,以及将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
第一输入模块,用于将无标注的第二评论文本和所述第一指令词输入所述初级观点预测模型,得到所述第二评论文本的第二观点四元组;
第二输入模块,用于将所述第二观点四元组和所述第二指令词输入所述初级观点预测模型,得到重构评论文本;
参数调整模块,用于根据计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失,对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型;
测试模块,用于通过将标注的测试评论文本以及与所述测试评论文本的标注对应的观点四元组作为模型性能测试数据,对所述中级观点预测模型进行性能指标测试,当所述性能指标测试满足预设性能指标要求时,得到观点预测模型;
观点预测模块,用于利用所述观点预测模型对待预测的评论文本进行观点预测。
为了解决上述问题,本发明还提供一种电子设备,电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的评论文本观点预测方法中的步骤。
为了解决上述问题,本发明还提供一种计算机可读存储介质,计算机可读存储介质中存储有至少一个指令,至少一个指令被电子设备中的处理器执行时实现上述的评论文本观点预测方法。
本发明提供的评论文本观点预测方法、系统及设备和存储介质,通过先利用小规模的高质量的标注的第一评论文本加指令词的方式对大语言模型进行正向观点抽取和反向情感句还原的下游任务训练,将无标注的第二评论文本输入训练后的模型中,得到第二观点四元组,再将第二观点四元组回输入训练后的模型得到重构评论文本,通过重构评论文本与第二评论文本之间的语义损失,使模型通过损失蒸馏出语义知识和情感知识,并进行学习,最终达到使用无标注的数据对模型进行无监督训练的效果,以实现电商的评论文本的观点四元组预测的方法,达到减少高昂的数据标注成本的同时,能够使用小样本进行半监督学习的方式,在最终效果上提升原始方法的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的评论文本观点预测方法的流程示意图;
图2为本发明一实施例提供的评论文本观点预测系统的模块示意图;
图3为本发明一实施例提供的实现评论文本观点预测方法的电子设备的内部结构示意图;
图4为本发明一实施例提供的电商用户评论的观点四元组提取的实例图;
图5为本发明一实施例提供的对大语言模型进行第一参数调整的实例图;
图6为本发明一实施例提供的对大语言模型同时进行正向和反向的下游任务训练的实例图;
图7为本发明一实施例提供的语义损失的实例图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
基于上述现有技术中存在的问题,本发明主要提供一种评论文本观点预测方法、系统及设备和存储介质,其主要目的在于能够解决现有技术中,数据驱动大语言模型时需要大量的高质量的标注文本,目前的标注数据集不足,而导致商品评论文本属性观点预测性能不高的问题。
图1为本发明一实施例提供的评论文本观点预测方法的流程示意图。该方法可以由一个系统执行,该系统可以由软件和/或硬件实现。
图1对评论文本观点预测方法进行了整体性的描述。如图1所示,在本实施例中,评论文本观点预测方法包括步骤S110~ S160。
步骤S110、将标注的第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,以及将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型。
具体的,通过利用小规模的高质量标注的第一评论文本,以赋予不同的指令词的方式对大语言模型进行正向和反向的下游任务训练,以使大语言模型具备根据第一指令词和第二指令词进行两个不同的操作(任务处理),从而得到初级观点预测模型。
其中,大语言模型是由高质量的文本语料库预训练而来,其本身就蕴含着海量的知识,但是其知识是隐式的、非结构化的,需要以数据为驱动引导大语言模型获得进行下游任务的能力。一般来说,数据的质量决定了大语言模型在下游任务上的表现,所以驱动大语言模型的数据在本身需要高质量的同时也需要高质量的标注,这就造成了数据成本高昂的特点。本发明使用少量的高质量标注的第一评论文本以及对应的观点四元组作为引导,对大语言模型进行微调,以使大语言模型能够根据第一指令词(提示词)和第二指令词(提示词)/>完成两个下游任务(/>和/>),即对于输入的用户评论文本输出所有的观点四元组,以及根据观点四元组输出对应的包含观点四元组的评论文本。由于大语言模型为本领域中现有的模型,因此不再对大语言模型的具体结构进行赘述。
作为本发明的一个可选实施例,在将第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,对大语言模型进行正向观点抽取的下游任务训练之前,还包括:
从第一评论文本中抽取代表评论观点的观点四元组;其中,观点四元组包括:方面实体、观点实体、方面类别和情感极性;
建立标注的第一评论文本与观点四元组的对应关系;以及
在将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型进行反向情感句还原的下游任务训练之前,还包括:
基于观点四元组,构成与第一评论文本含义相同的同义文本集合;
建立同义文本集合与观点四元组的对应关系。
具体的,如图4所示,对于电商平台的商品,用户给出的评价文本一般来说包含以下有用信息:方面实体、观点实体、方面类别、情感极性。其中,方面实体存在于评论文本中,是评论文本的一部分,它是用户评价的主体,是用户购买的商品的整体或是该商品的部分属性;观点实体同样存在于评论文本中,是评论文本的一部分,它是用户对方面实体的评价内容,是用户对于该商品整体或部分属性的主观感受;由于方面实体在信息抽取中并不可控,同样类别的方面用户可以用不同的称呼进行指代,所以观点抽取任务需要对方面实体进行抽象化表示,被称为方面类别。方面类别是任务开始前提前设定好的,所有的方面实体应该都被不同的方面类别涵盖,并且对于任意方面实体都能找到唯一的方面类别。由于网络评论文本的随意性,在实际评论中会出现隐式方面实体的特殊情况,例如在玩具电动车商品中出现评论:“真快呀!”的用户评论。该评论没有方面实体,只有观点实体,这种情感被称为隐式方面实体。但是隐式方面实体是可以根据观点实体判断出方面类别的,在上述情况中,方面类别可以表示为“车辆性能”,方面类别和方面实体被统称为方面,用户对方面表达的观点实体根据满意的程度被分为“正”、“中”、“负”三种情感,它们被称为情感极性。值得注意的是方面与观点实体共同出现,是方面-观点对,没有方面的观点是没有意义的。例如观点实体是“快”,但是在形容“车辆性能”和“电池”这两个不同的方面时表现出的情感极性正好相反。所以在用户观点抽取任务中需要提取方面-观点对,最终抽取的结果应该是{方面实体、观点实体、方面类别、情感极性}的观点四元组。
例如,给定含有个字符的用户评论文本/>,本发明需要预测所有的观点四元组/>。其中,方面实体(/>)和观点实体(/>)由原文本/>中连续的字符组成,当出现隐式方面实体时/>;方面类别(/>)为提前设置的互不包含的全类别属性;情感极性(/>)为“正”、“中”、“负”三个类别中的一个。
将观点四元组与第一评论文本建立对应的关系,便于后续对大语言模型的下游任务的训练。
大语言模型模型能够执行的正向观点抽取的下游任务训练实际与本发明的最终任务已经统一,但是由于训练该任务的数据规模较小,无法完全让大语言模型内的隐式知识提供驱动,所以需要进行接下来的步骤。通过设计一个与/>完全相反的任务(即反向情感句还原的下游任务训练)。为了防止模型作弊,所以将第一评论文本处理成同义文本,由于同一文本可以有多个,所以可以组成一个同义文本集合,然后建立同义文本集合与观点四元组的对应关系,即同义文本集合中的每个同义文本均包含同一观点四元组。
作为本发明的一个可选实施例,在将第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,对大语言模型进行正向观点抽取的下游任务训练的过程中,
将输出的观点四元组按照预设句式组合规则,排列为包含观点四元组的输出语句;
在将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型进行反向情感句还原的下游任务训练的过程中,
将观点四元组按照预设句式组合规则,排列为包含观点四元组的输入语句,并将输入语句与所述第二指令词作为输入。
具体的,由于大语言模型LLM是文本到文本(text2text)的类型,所以在模型下游任务训练时,可按照预设句式组合规则将观点四元组组合成语句的形式。由此可将和/>的任务描述成如下形式:
其中,表示按照预设句式组合规则将观点四元组组合成的语句,通过/>能够批量的转化成为观点四元组,/>表示大语言模型,/>表示第一指令词(提示词),表示第一评论文本,/>表示观点四元组,/>表示把语句转化为观点四元组的符号,/>表示同义文本,/>表示第二指令词(提示词)。
作为本发明的一个可选实施例,对大语言模型的正向观点抽取的下游任务训练和反向情感句还原的下游任务训练是同时进行的。
具体的,将正向的下游任务训练设定为,将反向的下游任务训练设定为为,为了防止模型在学习/>的过程中出现灾难性遗忘的情况,所以需要同时对和/>进行训练学习,通过不同的指令词(第一指令词/>和第二指令词)达到在同一个模型中进行提示微调。如图6所示。
作为本发明的一个可选实施例,在将标注的第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,以及将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型的过程中,
通过第一评论文本中标注的观点四元组与作为输出的观点四元组之间的交叉熵损失,对大语言模型进行第一参数调整,以使大语言模型根据第一指令词和第二指令词做出相应的指令操作;其中,
第一评论文本中标注的观点四元组与作为输出的观点四元组之间的交叉熵损失的计算公式如下:
;
其中,表示交叉熵损失,N表示大语言模型的词汇表大小,/>表示评论文本中标注的观点四元组的分布,/>表示大语言模型在词汇表中对观点四元组的预测值。
具体的,在上,由于需要大语言模型按照规则进行输出,并且输出的结果基于输入为确定内容,所以需要使用交叉熵损失作为这一步的损失函数。如图5所示,通过交叉熵损失对大语言模型进行微调,以使大语言模型根据第一指令词和第二指令词做出相应的指令操作。
步骤S120、将无标注的第二评论文本和第一指令词输入初级观点预测模型,得到第二评论文本的第二观点四元组。
具体的,由于初级观点预测模型经过下游任务训练后,能够根据指令词(提示词)进行对应的任务处理,所以将无标注的第二评论文本和第一指令词输入初级观点预测模型,初级观点预测模型根据第一指令词,输出第二评论文本的第二观点四元组。
步骤S130、将第二观点四元组和第二指令词输入初级观点预测模型,得到重构评论文本。
具体的,将第二观点四元组和第二指令词输入初级观点预测模型,将得到重构评论文本,以用于后续的通过对初级观点预测模型的损失,蒸馏出语义知识和情感知识。
步骤S140、根据计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失,对初级观点预测模型进行第二参数调整,得到中级观点预测模型。
具体的,在上述步骤S120和步骤S130过程中,存在一定的语义损失和交叉熵损失,所以可使用损失函数,语义损失优选为余弦相似度损失函数。如图7所示。对重构评论文本与第二评论文本,计算文本相似度的损失函数,让初级观点预测模型通过损失蒸馏出语义知识和情感知识,并学习到它们,最终达到使用无标注的数据对初级观点预测模型进行无监督训练的效果,以实现电商评论文本情感四元组预测的方法。
作为本发明的一个可选实施例,根据计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失,对初级观点预测模型进行第二参数调整,得到中级观点预测模型包括:
计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失;其中,
语义损失的计算公式如下:
;
其中,表示语义损失,/>表示以句子向量化方式表示的第二评论文本,/>表示以句子向量化方式表示的重构评论文本,/>表示以句子向量化方式表示的第二评论文本的欧几里得范数,/>表示以句子向量化方式表示的重构评论文本的欧几里得范数;
交叉熵损失的计算公式如下:
;
其中,表示重构评论文本与第二评论文本之间的交叉熵损失,/>表示第二评论文本中第/>个位置的中文字符,/>表示重构评论文本中第/>个位置的中文字符;N表示大语言模型的词汇表大小;
基于预设损失平衡公式,根据重构评论文本与第二评论文本之间的语义损失和交叉熵损失对初级观点预测模型进行第二参数调整,得到中级观点预测模型;其中,预设损失平衡公式为:
其中,表示交叉熵损失与语义损失按照比例相加之和,/>和/>表示平衡交叉熵损失与语义损失的超参数。
具体的,通过预设损失平衡公式使初级观点预测模型兼顾交叉熵损失和损失蒸馏过程中的语义损失,对其参数进行再次调整,以得到中级观点预测模型。
步骤S150、通过将标注的测试评论文本以及与测试评论文本的标注对应的观点四元组作为模型性能测试数据,对中级观点预测模型进行性能指标测试,当性能指标测试满足预设性能指标要求时,得到观点预测模型。
具体的,由于与本发明最终想要实现的任务目标一致,所以以的结果为标度计算最终的效果,通过标注的测试评论文本对中级观点预测模型进行性能指标测试,可通过预设性能指标阈值的方式,当性能指标测试得到的性能值大于等于预设性能指标阈值,即可证明中级观点预测模型符合要求,由此得到观点预测模型。其中,标注的测试评论文本可采用与第一评论文本相同的文本,从而进一步节约标注成本。
作为本发明的一个可选实施例,通过将标注的测试评论文本以及与测试评论文本的标注对应的观点四元组作为模型性能测试数据,对中级观点预测模型进行性能指标测试,当性能指标测试满足预设性能指标要求时,得到观点预测模型包括:
将测试评论文本输入中级观点预测模型中,得到输出的预测观点四元组;
将预测观点四元组作为预测值,将与测试评论文本的标注对应的观点四元组作为真实值;
根据预测值和真实值对中级观点预测模型的性能指标进行计算,得到性能指标值;其中,性能指标值的计算公式如下:
其中,表示预测值,/>表示将测试评论文本转化为观点四元组的符号,/>表示中级观点预测模型,/>表示第一指令词,/>表示测试评论文本,/>表示中级观点预测模型预测的精准率,/>表示预测值与真实值的匹配的个数,/>表示真实值中的观点四元组的个数,/>表示中级观点预测模型的召回率,/>表示预测值中观点四元组的个数,/>表示性能指标值;
当性能指标值满足预设性能指标要求时,得到观点预测模型。
具体的,可将F1值作为最终的性能指标值,F1一般为分数,从而代表中级观点预测模型的精准率以及召回率均符合要求时,得到观点预测模型。其中,表示预测值与真实值的匹配的个数,需要四元组中所有元组都相同才被视为匹配。例如,真实的观点四元祖是[[电动车加速,快,车辆性能,正];[耗电,快,电池,负]],通过中级观点预测模型预测到的是[[电动车加速,快,电池,正];[耗电,快,电池,负]],此时hit的值为1,表示预测值匹配到了一个真实值。
步骤S160、利用观点预测模型对待预测的评论文本进行观点预测。
具体的,将待预测的评论文本与第一指令词一同输入观点预测模型中,观点预测模型输出对应的观点四元组,从而得到该待预测的评论文本的预测观点。
需要说明的是,本发明提供的评论文本观点预测方法可以用于电商的评论文本的观点预测也可以用于其它方面的评论文本的观点预测,如影视、歌曲等的观点预测,并不限于上述示例的电商的评论观点预测。
如图2所示,本发明提供一种评论文本观点预测系统200,本发明可以安装于电子设备中。根据实现的功能,该评论文本观点预测系统200可以包括下游训练模块210、第一输入模块220、第二输入模块230、参数调整模块240、测试模块250、观点预测模块260。本发明单元也可以称之为模块,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
下游训练模块210,用于将标注的第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,以及将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
第一输入模块220,用于将无标注的第二评论文本和第一指令词输入初级观点预测模型,得到第二评论文本的第二观点四元组;
第二输入模块230,用于将第二观点四元组和第二指令词输入初级观点预测模型,得到重构评论文本;
参数调整模块240,用于根据计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失,对初级观点预测模型进行第二参数调整,得到中级观点预测模型;
测试模块250,用于通过将标注的测试评论文本以及与测试评论文本的标注对应的观点四元组作为模型性能测试数据,对中级观点预测模型进行性能指标测试,当性能指标测试满足预设性能指标要求时,得到观点预测模型;
观点预测模块260,用于利用观点预测模型对待预测的评论文本进行观点预测。
本发明提供的评论文本观点预测系统200,通过先利用小规模的高质量的标注的第一评论文本加指令词的方式对大语言模型进行正向和反向的下游任务训练,将无标注的第二评论文本输入训练后的模型中,得到第二观点四元组,再将第二观点四元组回输入训练后的模型得到重构评论文本,通过重构评论文本与第二评论文本之间的语义损失,使模型通过损失蒸馏出语义知识和情感知识,并进行学习,最终达到使用无标注的数据对模型进行无监督训练的效果,以实现电商的评论文本的观点四元组预测的方法,达到减少高昂的数据标注成本的同时,能够使用小样本进行半监督学习的方式,在最终效果上提升原始方法的准确率。
如图3所示,本发明提供一种评论文本观点预测方法的电子设备3。
该电子设备3可以包括处理器30、存储器31和总线,还可以包括存储在存储器31中并可在所述处理器30上运行的计算机程序,如评论文本观点预测程序32。存储器31还可以既包括评论文本观点预测系统的内部存储单元也包括外部存储设备。存储器31不仅可以用于存储安装于应用软件及各类数据,例如评论文本观点预测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
其中,所述存储器31至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器31在一些实施例中可以是电子设备3的内部存储单元,例如该电子设备3的移动硬盘。所述存储器31在另一些实施例中也可以是电子设备3的外部存储设备,例如电子设备3上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(SecureDigital, SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括电子设备3的内部存储单元也包括外部存储设备。所述存储器31不仅可以用于存储安装于电子设备3的应用软件及各类数据,例如评论文本观点预测方法代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器30在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器30是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器31内的程序或者模块(例如评论文本观点预测程序等),以及调用存储在所述存储器31内的数据,以执行电子设备3的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器31以及至少一个处理器30等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备3的限定,可以包括比图3示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备3还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理系统与所述至少一个处理器30逻辑相连,从而通过电源管理系统实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备3还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备3还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备3与其他电子设备之间建立通信连接。
可选地,该电子设备3还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备3中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在发明申请范围上并不受此结构的限制。
所述电子设备3中的所述存储器31存储的评论文本观点预测程序32是多个指令的组合,在所述处理器30中运行时,可以实现:
步骤S110、将标注的第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,以及将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
步骤S120、将无标注的第二评论文本和第一指令词输入初级观点预测模型,得到第二评论文本的第二观点四元组;
步骤S130、将第二观点四元组和第二指令词输入初级观点预测模型,得到重构评论文本;
步骤S140、根据计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失,对初级观点预测模型进行第二参数调整,得到中级观点预测模型;
步骤S150、通过将标注的测试评论文本以及与测试评论文本的标注对应的观点四元组作为模型性能测试数据,对中级观点预测模型进行性能指标测试,当性能指标测试满足预设性能指标要求时,得到观点预测模型;
步骤S160、利用观点预测模型对待预测的评论文本进行观点预测。
具体地,所述处理器30对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或系统、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还提供一种计算机可读存储介质,所述存储介质可以是非易失性的,也可以是易失性的,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现:
步骤S110、将标注的第一评论文本和第一指令词作为输入,将与第一评论文本中的标注对应的观点四元组作为输出,以及将观点四元组和第二指令词作为输入,将与第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
步骤S120、将无标注的第二评论文本和第一指令词输入初级观点预测模型,得到第二评论文本的第二观点四元组;
步骤S130、将第二观点四元组和第二指令词输入初级观点预测模型,得到重构评论文本;
步骤S140、根据计算重构评论文本与第二评论文本之间的语义损失和交叉熵损失,对初级观点预测模型进行第二参数调整,得到中级观点预测模型;
步骤S150、通过将标注的测试评论文本以及与测试评论文本的标注对应的观点四元组作为模型性能测试数据,对中级观点预测模型进行性能指标测试,当性能指标测试满足预设性能指标要求时,得到观点预测模型;
步骤S160、利用观点预测模型对待预测的评论文本进行观点预测。
具体地,所述计算机程序被处理器执行时具体实现方法可参考实施例评论文本观点预测方法中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或系统也可以由一个单元或系统通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种评论文本观点预测方法,其特征在于,包括如下步骤:
将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,以及将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
将无标注的第二评论文本和所述第一指令词输入所述初级观点预测模型,得到所述第二评论文本的第二观点四元组;
将所述第二观点四元组和所述第二指令词输入所述初级观点预测模型,得到重构评论文本;
根据计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失,对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型;
通过将标注的测试评论文本以及与所述测试评论文本的标注对应的观点四元组作为模型性能测试数据,对所述中级观点预测模型进行性能指标测试,当所述性能指标测试满足预设性能指标要求时,得到观点预测模型;
利用所述观点预测模型对待预测的评论文本进行观点预测。
2.根据权利要求1所述的评论文本观点预测方法,其特征在于,在将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,对大语言模型进行正向观点抽取的下游任务训练之前,还包括:
从所述第一评论文本中抽取代表评论观点的观点四元组;其中,所述观点四元组包括:方面实体、观点实体、方面类别和情感极性;
建立所述第一评论文本与所述观点四元组的对应关系;以及
在将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型进行反向情感句还原的下游任务训练之前,还包括:
基于所述观点四元组,构成与所述第一评论文本含义相同的同义文本集合;
建立所述同义文本集合与所述观点四元组的对应关系。
3.根据权利要求1所述的评论文本观点预测方法,其特征在于,在将第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,对大语言模型进行正向观点抽取的下游任务训练的过程中,
将输出的观点四元组按照预设句式组合规则,排列为包含所述观点四元组的输出语句;
在将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型进行反向情感句还原的下游任务训练的过程中,
将所述观点四元组按照所述预设句式组合规则,排列为包含所述观点四元组的输入语句,并将所述输入语句与所述第二指令词作为输入。
4.根据权利要求1所述的评论文本观点预测方法,其特征在于,对所述大语言模型的正向观点抽取的下游任务训练和反向情感句还原的下游任务训练是同时进行的。
5.根据权利要求1所述的评论文本观点预测方法,其特征在于,在将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,以及将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型的过程中,
通过所述第一评论文本中标注的观点四元组与作为输出的观点四元组之间的交叉熵损失,对大语言模型进行第一参数调整,以使所述大语言模型根据所述第一指令词和所述第二指令词做出相应的指令操作;其中,
所述第一评论文本中标注的观点四元组与作为输出的观点四元组之间的交叉熵损失的计算公式如下:
;
其中,表示交叉熵损失,N表示大语言模型的词汇表大小,/>表示第一评论文本中标注的观点四元组的分布,/>表示大语言模型在词汇表中对观点四元组的预测值。
6.根据权利要求1所述的评论文本观点预测方法,其特征在于,所述根据计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失,对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型包括:
计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失;其中,
所述语义损失的计算公式如下:
;
其中,表示语义损失,/>表示以句子向量化方式表示的第二评论文本,表示以句子向量化方式表示的重构评论文本,
表示以句子向量化方式表示的第二评论文本的欧几里得范数,
表示以句子向量化方式表示的重构评论文本的欧几里得范数;
所述交叉熵损失的计算公式如下:
;
其中,表示重构评论文本与第二评论文本之间的交叉熵损失,/>表示第二评论文本中第i个位置的中文字符,/>表示重构评论文本中第i个位置的中文字符;N表示大语言模型的词汇表大小;
基于预设损失平衡公式,根据重构评论文本与第二评论文本之间的语义损失和交叉熵损失对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型;其中,所述预设损失平衡公式为:
,
其中,表示交叉熵损失与语义损失按照比例相加之和,/>和/>表示平衡交叉熵损失与语义损失的超参数。
7.根据权利要求1所述的评论文本观点预测方法,其特征在于,所述通过将标注的测试评论文本以及与所述测试评论文本的标注对应的观点四元组作为模型性能测试数据,对所述中级观点预测模型进行性能指标测试,当所述性能指标测试满足预设性能指标要求时,得到观点预测模型包括:
将测试评论文本输入所述中级观点预测模型中,得到输出的预测观点四元组;
将所述预测观点四元组作为预测值,将与所述测试评论文本的标注对应的观点四元组作为真实值;
根据所述预测值和所述真实值对所述中级观点预测模型的性能指标进行计算,得到性能指标值;其中,所述性能指标值的计算公式如下:
;
其中,表示预测值,/>表示将测试评论文本转化为观点四元组的符号,/>表示中级观点预测模型,/>表示第一指令词,/>表示测试评论文本,/>表示中级观点预测模型预测的精准率,/>表示预测值与真实值的匹配的个数,/>表示真实值中的观点四元组的个数,/>表示中级观点预测模型的召回率,/>表示预测值中观点四元组的个数,/>表示性能指标值;
当所述性能指标值满足预设性能指标要求时,得到观点预测模型。
8.一种评论文本观点预测系统,其特征在于,所述系统包括:
下游训练模块,用于将标注的第一评论文本和第一指令词作为输入,将与所述第一评论文本中的标注对应的观点四元组作为输出,以及将所述观点四元组和第二指令词作为输入,将与所述第一评论文本的同义文本作为输出,对大语言模型分别进行正向观点抽取和反向情感句还原的下游任务训练,得到初级观点预测模型;
第一输入模块,用于将无标注的第二评论文本和所述第一指令词输入所述初级观点预测模型,得到所述第二评论文本的第二观点四元组;
第二输入模块,用于将所述第二观点四元组和所述第二指令词输入所述初级观点预测模型,得到重构评论文本;
参数调整模块,用于根据计算所述重构评论文本与所述第二评论文本之间的语义损失和交叉熵损失,对所述初级观点预测模型进行第二参数调整,得到中级观点预测模型;
测试模块,用于通过将标注的测试评论文本以及与所述测试评论文本的标注对应的观点四元组作为模型性能测试数据,对所述中级观点预测模型进行性能指标测试,当所述性能指标测试满足预设性能指标要求时,得到观点预测模型;
观点预测模块,用于利用所述观点预测模型对待预测的评论文本进行观点预测。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一所述的评论文本观点预测方法中的步骤。
10.一种计算机可读存储介质,存储有至少一个指令,其特征在于,所述至少一个指令被电子设备中的处理器执行时实现如权利要求1至7中任一所述的评论文本观点预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410076556.2A CN117592514B (zh) | 2024-01-19 | 2024-01-19 | 评论文本观点预测方法、系统及设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410076556.2A CN117592514B (zh) | 2024-01-19 | 2024-01-19 | 评论文本观点预测方法、系统及设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117592514A true CN117592514A (zh) | 2024-02-23 |
CN117592514B CN117592514B (zh) | 2024-03-26 |
Family
ID=89920507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410076556.2A Active CN117592514B (zh) | 2024-01-19 | 2024-01-19 | 评论文本观点预测方法、系统及设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117592514B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249764A1 (en) * | 2007-03-01 | 2008-10-09 | Microsoft Corporation | Smart Sentiment Classifier for Product Reviews |
WO2023160472A1 (zh) * | 2022-02-22 | 2023-08-31 | 华为技术有限公司 | 一种模型训练方法及相关设备 |
CN116756318A (zh) * | 2023-06-24 | 2023-09-15 | 复旦大学 | 基于数据增强和自训练的属性级情感四元组预测系统和方法 |
CN117312559A (zh) * | 2023-09-26 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 基于树结构信息感知的方面级情感四元组抽取方法及系统 |
CN117313736A (zh) * | 2023-08-03 | 2023-12-29 | 中国科学院自动化研究所 | 评论文本的隐式需求识别方法及装置 |
-
2024
- 2024-01-19 CN CN202410076556.2A patent/CN117592514B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249764A1 (en) * | 2007-03-01 | 2008-10-09 | Microsoft Corporation | Smart Sentiment Classifier for Product Reviews |
WO2023160472A1 (zh) * | 2022-02-22 | 2023-08-31 | 华为技术有限公司 | 一种模型训练方法及相关设备 |
CN116756318A (zh) * | 2023-06-24 | 2023-09-15 | 复旦大学 | 基于数据增强和自训练的属性级情感四元组预测系统和方法 |
CN117313736A (zh) * | 2023-08-03 | 2023-12-29 | 中国科学院自动化研究所 | 评论文本的隐式需求识别方法及装置 |
CN117312559A (zh) * | 2023-09-26 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 基于树结构信息感知的方面级情感四元组抽取方法及系统 |
Non-Patent Citations (5)
Title |
---|
CHAO WANG等: "Hierarchical Semantic Representations of Online News Comments for Emotion Tagging Using Multiple Information Sources", DATABASE SYSTEMS FOR ADVANCED APPLICATIONS, 22 March 2017 (2017-03-22), pages 121 - 136, XP047407435, DOI: 10.1007/978-3-319-55699-4_8 * |
FULIAN YIN等: "Neural TV program recommendation with multi-source heterogeneous data", ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE: THE INTERNATIONAL JOURNAL OF INTELLIGENT REAL-TIME AUTOMATION, 31 December 2023 (2023-12-31), pages 105807 - 105816 * |
MINH LUAN NGUYEN: "Leveraging Emotional Consistency for Semi-supervised Sentiment Classification", ADVANCES IN KNOWLEDGE DISCOVERY AND DATA MINING, 12 April 2016 (2016-04-12), pages 369 - 381, XP047340285, DOI: 10.1007/978-3-319-31753-3_30 * |
刘少辉: "手机评论观点信息抽取系统的研究与实现", 中国优秀硕士学位论文全文数据库 信息科技辑, 15 May 2021 (2021-05-15), pages 3 - 5 * |
赵睿: "基于深度学习的多方面用户评价观点挖掘及自动摘要研究", 中国优秀硕士学位论文全文数据库 信息科技辑, 15 February 2023 (2023-02-15), pages 3 - 5 * |
Also Published As
Publication number | Publication date |
---|---|
CN117592514B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230016365A1 (en) | Method and apparatus for training text classification model | |
Niu et al. | Multi-modal multi-scale deep learning for large-scale image annotation | |
CN109241524B (zh) | 语义解析方法及装置、计算机可读存储介质、电子设备 | |
CN110705206B (zh) | 一种文本信息的处理方法及相关装置 | |
CN111814454B (zh) | 一种社交网络上的多模态网络欺凌检测模型 | |
CN112559687B (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN112380343A (zh) | 问题解析方法、装置、电子设备及存储介质 | |
CN111695354A (zh) | 基于命名实体的文本问答方法、装置及可读存储介质 | |
CN110795544B (zh) | 内容搜索方法、装置、设备和存储介质 | |
CN114357127A (zh) | 基于机器阅读理解及常用问题解答模型的智能问答方法 | |
CN112699686A (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN112052424B (zh) | 一种内容审核方法及装置 | |
CN111626042A (zh) | 指代消解方法及装置 | |
CN111597807B (zh) | 分词数据集生成方法、装置、设备及其存储介质 | |
CN115238115A (zh) | 基于中文数据的图像检索方法、装置、设备及存储介质 | |
Wang et al. | Image captioning based on deep learning methods: A survey | |
CN117592514B (zh) | 评论文本观点预测方法、系统及设备和存储介质 | |
CN117112743A (zh) | 文本自动生成问题的可回答性评估方法、系统及存储介质 | |
CN116739001A (zh) | 基于对比学习的文本关系提取方法、装置、设备及介质 | |
CN116628162A (zh) | 语义问答方法、装置、设备及存储介质 | |
CN116341646A (zh) | Bert模型的预训练方法、装置、电子设备及存储介质 | |
CN114911940A (zh) | 文本情感识别方法及装置、电子设备、存储介质 | |
CN115292492A (zh) | 意图分类模型的训练方法、装置、设备及存储介质 | |
CN113515935A (zh) | 一种标题生成方法、装置、终端及介质 | |
CN117744595B (zh) | 隐喻识别方法、系统及设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |