CN112101042B - 文本情绪识别方法、装置、终端设备和存储介质 - Google Patents
文本情绪识别方法、装置、终端设备和存储介质 Download PDFInfo
- Publication number
- CN112101042B CN112101042B CN202010961758.7A CN202010961758A CN112101042B CN 112101042 B CN112101042 B CN 112101042B CN 202010961758 A CN202010961758 A CN 202010961758A CN 112101042 B CN112101042 B CN 112101042B
- Authority
- CN
- China
- Prior art keywords
- text
- target
- category
- scene
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 136
- 238000012360 testing method Methods 0.000 claims description 69
- 238000004590 computer program Methods 0.000 claims description 15
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 18
- 230000007935 neutral effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 230000008451 emotion Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请适用于人工智能技术领域,提供了一种文本情绪识别方法、装置、终端设备和存储介质,方法包括:将每个目标场景下的各个目标文本输入至已有的训练模型中,获取各个目标文本对应的目标预测类别;根据目标预测类别,在每个目标场景中获取属于目标类别的第一文本;获取属于非目标类别且属于非目标场景下的第二文本;将第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别。采用上述方法使用目标场景下的第一文本和非目标场景下的第二文本对已有的模型进行训练得到目标模型,在保证目标模型对文本进行情绪识别时准确率的前提下,减少模型的训练时间。
Description
技术领域
本申请属于人工智能技术领域,尤其涉及一种文本情绪识别方法、装置、终端设备和存储介质。
背景技术
现有技术中,为了减少人工处理的工作量,常常使用已有的训练模型对各类应用场景下的文本进行情绪识别及分类。然而,由于各个应用场景下的文本,与当时训练模型的训练文本的语句、语料存在很大区别,使用预训练好的模型,对各个应用场景下的文本进行分类准确率较低。
发明内容
本申请实施例提供了一种文本情绪识别方法、装置、终端设备和存储介质,可以解决使用已有的训练模型对特定应用场景下的文本进行识别和分类时,准确率较低的问题。
第一方面,本申请实施例提供了一种文本情绪识别方法,包括:
将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别;
根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本;
获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本;
将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别。
在一实施例中,在将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的预测类别之前,还包括:
获取每个测试场景下的多个文本;
将所述每个测试场景下的多个文本分别输入至所述已有的训练模型中,得到所述每个测试场景下的多个文本的初始预测类别;
根据所述初始预测类别,从多个测试场景中确定多个目标场景。
在一实施例中,根据所述初始预测类别,从多个测试场景中确定多个目标场景,包括:
根据所述初始预测类别,分别确定所述每个测试场景下的多个文本中属于所述目标预测类别的文本个数,以及确定所述每个测试场景下包含的初始预测类别的文本总个数;
计算属于所述目标预测类别的文本个数,在对应所述测试场景下的初始预测类别的文本总个数的占比值;
根据所述每个测试场景对应的占比值选取预设个数的所述目标场景,其中,所述目标场景对应的占比值高于其他测试场景对应的占比值。
在一实施例中,所述目标预测类别包括预测积极类别和预测消极类别;
所述根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本,包括:
在所述每个目标场景下的各个目标文本中,分别获取所述目标文本属于所述预测积极类别的第一预测文本,和所述目标文本属于所述预测消极类别的第二预测文本;
获取所述每个目标场景对应的目标文本中,各个目标文本对应的真实类别;其中,所述真实类别包括真实积极类别和真实消极类别;
在所述第一预测文本中,将所述预测积极类别与所述真实积极类别均一致的文本,作为第一目标文本,并将所述预测消极类别与所述真实消极类别均一致的文本,作为第二目标文本;
将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本;其中,所述目标类别包括积极类别和消极类别。
在一实施例中,在将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本之后,还包括:
接收用户输入的积极类别词汇与消极类别词汇;
根据所述积极类别词汇,在所述每个目标场景下的各个目标文本中,查找包含所述积极类别词汇的第三目标文本;
根据所述消极类别词汇,在所述每个目标场景下的各个文本中,查找包含所述消极类别词汇的第四目标文本;
将所述第一目标文本与所述第三目标文本作为所述第一文本中的积极类别文本,并将所述第二目标文本与所述第四目标文本作为所述第一文本中的消极类别文本。
在一实施例中,所述将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别,包括:
将所述每个目标场景对应的所述第一文本,输入至文本增强模型中进行文本数据增强,得到增强后的第一文本;
将所述第二文本,以及所述增强后的第一文本输入至已有的训练模型中,对所述训练模型的模型参数进行调整得到目标模型。
在一实施例中,在将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别之后,还包括:
将所述待识别的文本的情绪识别结果上传至区块链中。
第二方面,本申请实施例提供了一种文本情绪识别装置,包括:
输入模块,用于将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别;
第一获取模块,用于根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本;
第二获取模块,用于获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本;
识别模块,用于将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面任一项所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的方法。
本申请实施例提供的一种文本情绪识别方法,根据已有的训练模型,使用目标场景下且属于目标类别的第一文本,以及非目标场景下且属于非目标类别的第二文本作为训练数据,对已有的训练模型进行调整,使得训练得到的目标模型对不同类别的文本识别更加充分,提升目标模型的识别性能和泛化能力,且可以达到减少目标模型的训练时间的目的。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种文本情绪识别方法的实现流程图;
图2是本申请另一实施例提供的一种文本情绪识别方法的实现流程图;
图3是本申请另一实施例提供的一种文本情绪识别方法的S203的一种实现方式示意图;
图4是本申请一实施例提供的一种文本情绪识别方法的S102的一种实现方式示意图;
图5是本申请一实施例提供的一种文本情绪识别方法的S102的另一种实现方式示意图;
图6是本申请一实施例提供的一种文本情绪识别方法的S104的一种实现方式示意图;
图7是本申请实施例提供的一种文本情绪识别装置的结构框图;
图8是本申请实施例提供的一种终端设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例所涉及的文本情绪识别方法,可以由控制设备或终端(以下称“终端设备”)执行。
请参阅图1,图1示出了本申请实施例提供的一种文本情绪识别方法的实现流程图,该方法包括如下步骤:
S101、将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别。
在应用中,上述目标场景下的各个目标文本可以为单独的中文文本、英文文本或者其他语言的文本,也可以为任意语言结合的文本,对此不作限定。上述目标场景可以为特定应用场景下的具体场景。具体的,特定应用场景可以为面试场景、游戏互动场景等。对于特定应用场景为面试场景时,该场景通常为提问者与回答者的提问与回答场景。此时,目标场景可具体为:在面试场景中,提问者提出一个面试问题,回答者回答面试问题的场景。而对应的所有回答者关于该同一个面试问题进行回答的内容,均作为是目标场景下的各个目标文本。其中,对于不同回答者的回答内容,其可以是一个字“对”、“错”,也可以是一个词“是的”、“不是的”,也可以是一句话,或者一段话,对此不作限定。
在应用中,预测类别具体可以分为预测积极类别、预测消极类别和预测中性类别,该文本的标签类别可以在一定程度上显示回答者的情绪。例如,对于包含“喜欢”、“开心”、“满意”等词的文本,则可以判定回答者此时处于积极类别情绪。若对于包含“辛苦”、“困难”、“难受”等词的文本,则可以判定回答者此时处于消极类别情绪。在本实施例中,上述目标预测类别具体包含预测类别中的预测积极类别和预测消极类别。
在应用中,上述已有的训练模型可以为现有技术中常用的文本情绪分类模型。示例性的,可以为通过对大数据进行训练得到的文本情绪分类模型,例如,基于Transformer机制的BERT模型,该模型是基于已有的文本大数据进行训练得出,充分利用了注意力机制,对于自然语言处理领域效果显著。
在具体应用中,对于根据已有的BERT模型对目标文本进行类别分类具体可为:若目标文本为“今天很高兴”,则可首先使用已有的词向量库对这句话进行特征向量表示。其中,词向量库中可预先按照顺序赋予每个字对应一个数字编号,让所有的文字都对应固定的编号1,2,3,....,对此不作限定。例如,词向量库中第一个字为“我”,则“我”字对应的词向量数据为“1”,则上述“今天很高兴”对应的词向量特征可以表示为[2、3、4、5、6]。若是要提取预设维度的词向量特征,而文本字数不足,则可对于不足字数的文本可用特殊向量进行表示,其中特殊向量可以为数字0、或者特殊字符等。之后将词向量特征输入至训练模型中进行处理输出结果,输出的结果为训练模型预测目标文本为积极类别、消极类别、中性类别的概率值。例如,其分别对应为“积极类别”的概率值(A)、“消极类别”的概率值(B)和“中性类别”的概率(C)。若A=0.8,B=0.1和C=0.1,则选取三个数值中的最大值对应的类别作为的该目标文本的目标预测类别,即判定当前目标文本为“积极类别”。
其中,对于一个词或一句话可按上述方式进行词向量特征表示,对于一段话,包含多句话,则需要对文本中的标点符号进行清洗,得到处理后的测试场景对应的文本。另外,对于文本中同时包含有多种语言的文本,例如,在使用中文语言回答问题时,用了某个单词、或某句英文进行回复,则可将英文转换成中文进行词特征向量表示,对此不作限定。
S102、根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本。
上述S101中已说明一个目标场景对应的所有文本为不同的回答者关于同一个问题的回答,因此,回答该问题时的情绪可能各有不同。另外,上述目标类别具体为积极类别和消极类别。可知,在每个目标场景中获取属于目标类别的第一文本,则具体可以为根据目标场景中各个目标文本的目标预测类别,将目标预测类别中属于积极类别和消极类别的文本,作为第一文本。即可认为上述中性类别属于非目标类别,属于非目标类别的文本则不进行获取。
S103、获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本。
上述第一文本为在目标场景下,获取的积极类别的文本、以及消极类别的文本均属于第一文本。因此,可认为上述非目标类别即为中性类别,且属于非目标场景下的文本。可以理解为不是属于特定应用场景下的公开文本。例如,可以是公开的微博文本,或者是已经公开的评论数据集的文本。为快速获取第二文本,可将上述已公开的文本输入至已有的训练模型中进行分类,获取属于中性类别的第二文本。另外,为保证获取的第二文本均属于中性类别,可在此基础上由人工对预测属于中性类别的第二文本进行筛选。或者,第二文本可以全部为人工预先根据公开的文本,进行挑选并存储在数据库中的第二文本,在需要获取第二文本时,可直接从数据库中进行获取,对此不作限定。
S104、将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别。
在应用中,上述将第一文本和第二文本输入至已有的训练模型,目的在于中性文本来源于非特定应用场景下的文本,在对已有的训练模型进行模型训练时,可一定程度上的保证使用训练数据进行预测识别分类的准确性。
在应用中,上述目标模型为针对目标场景下的文本进行训练得到的模型,因此,对于属于目标场景下的待识别的文本进行情绪识别时,识别准确度更高。
在应用中,上述对训练模型的模型参数进行调整具体可为:已有的训练模型预先训练出的一种学习参数w和偏置向量b,作用是用来计算文本在特征空间的向量表示。而后根据该计算得到的向量来表示预测该文本属于每种类别的概率,根据这个概率可以计算模型训练的损失函数,通过迭代的训练减少损失,提升模型效果。
示例性的,对于输入的积极类别的文本,训练模型先获取该文本的词向量特征,而后将该词向量特征输入至神经网络训练后,输出关于“积极类别”的概率值(A)=0.8。之后与预先设置的当前文本属于积极类别的真实值(A1)=1进行计算平方差,得到训练损失,根据训练损失迭代更新训练模型中关于积极类别的的模型参数(学习参数w和偏置向量b)。其中,计算训练损失可以为losscls=(A1i-Ai)2,其中,A1i中为第i个积极文本的预测类别,Ai为第i个积极文本的已知类别。其中,对于模型参数调整可以为:使用训练损失的损失值对神经网络模型的最后一层的学习参数进行求偏导步骤,并如W新=W旧-η*c,其中c为根据学习参数和训练损失计算得到的偏导值,W旧为神经网络模型网络中最后一层的学习参数,最后根据计算出的偏导值更新模型内部的学习参数,W新更新后的学习参数,η为学习效率,是神经网络模型设定的初始值,在迭代过程中学习效率保持不变,而后逐步前推计算每层学习参数。
在应用中,上述第一文本与第二文本均具有多个,将所有第一文本与第二文本同时输入到训练模型中进行训练,直到训练损失收敛得到最终的目标模型。其中,训练模型在每次对第一文本和第二文本进行迭代训练后,都可计算一次迭代训练中所有训练文本的训练损失,并根据训练损失对模型参数进行一次调整。此外,输入到训练模型中的训练文本不包含重复文本。上述训练损失收敛可以为,设定固定的迭代训练次数,达到该次数即停止训练;或设定若在连续几次的迭代训练后模型的文本分类效果未提升,则停止训练,对此不作限定。之后结束模型训练,并将当前的训练模型作为已调整后的目标模型。
在本实施例,通过根据已有的训练模型,使用目标场景下且属于目标类别的第一文本,以及非目标场景下且属于非目标类别的第二文本作为训练数据,对已有的训练模型进行调整,使得训练得到的目标模型对不同类别的文本识别更加充分,提升目标模型的识别性能和泛化能力,且可以达到减少目标模型的训练时间的目的。
请参阅图2,在S101将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别之前,还包括如下步骤S201-S203,详述如下:
S201、获取每个测试场景下的多个文本。
在应用中,上述S101已说明目标场景可以为特定应用场景下的具体场景,且对特定应用场景具有解释。可认为该测试场景即为上述特定应用场景,对此不再进行说明。
S202、将所述每个测试场景下的多个文本分别输入至所述已有的训练模型中,得到所述每个测试场景下的多个文本的初始预测类别。
S203、根据所述初始预测类别,从多个测试场景中确定多个目标场景。
在应用中,将每个测试场景下的多个文本分别输入至已有的训练模型中,得到每个测试场景下的多个文本的初始预测类别。具体的,可参照上述S101中将每个目标场景下的各个目标文本输入至已有的训练模型中,获取各个目标文本对应的目标预测类别。该步骤与上述S101步骤类似,对此不再进行说明。
在应用中,在获取到每个测试场景中各个文本的初始预测类别后,可具体根据初始预测类别中属于目标类别的个数进行筛选。具体的,从每个测试场景中挑选10000个文本输入至训练模型中,可对应得到10000个属于积极类别、消极类别或中性类别的标签分类,分别统计积极类别与消极类别的标签数量,挑选数量最多的多个测试场景作为目标场景。
在本实施例中,在面对多个测试场景时,先通过已有的训练模型对各个文本进行初步分类,根据分类结果筛选出目标场景。可使得筛选出的目标场景包含的各个目标文本相比于其余测试场景下的文本,可以更好的被训练模型识别,使训练得到的目标模型对文本识别更加充分,提升目标模型的识别性能和泛化能力。
参照图3,在一实施例中,S203所述根据所述初始预测类别,从多个测试场景中确定多个目标场景可以包括如下子步骤:
S301、根据所述初始预测类别,分别确定所述每个测试场景下的多个文本中属于所述目标预测类别的文本个数,以及确定所述每个测试场景下包含的初始预测类别的文本总个数。
S302、计算属于所述目标预测类别的文本个数,在对应所述测试场景下的初始预测类别的文本总个数的占比值。
S303、根据所述每个测试场景对应的占比值选取预设个数的所述目标场景,其中,所述目标场景对应的占比值高于其他测试场景对应的占比值。
在应用中,上述目标预测类别包括积极类别和消极类别,若存在中性类别,则中性类别即为非目标标签类别。上述预设个数可以根据实际情况选择,例如,在所有测试场景中选择3个目标场景。其中,对于每个测试场景的所有文本的数量可以采用相同数量,也可以采用不同数量。
示例性的,对于每个测试场景下的文本的总数量若是相同,则在将文本输入至训练模型中进行标签分类时,只需统计属于目标预测类别的个数,将所有测试场景对应的目标预测类别的个数,排在前三的测试场景定为目标场景。若对于每个测试场景下包含的文本的总数量不同,则每个测试场景下的预测类别的总个数即为文本的总数量,则计算统计的目标预测类别的个数,与预测类别总个数的占比值,将占比值排在前三的测试场景定为目标场景。
在本实施例中,通过已有的训练模型分别对各个测试场景下的文本进行初步分类,确定每个测试场景下的多个文本中属于目标预测类别的文本个数,以及确定每个测试场景下包含的文本总个数,根据目标预测类别的文本个数与文本总个数的占比值的大小筛选出目标场景。可使得筛选出的目标场景包含的各个目标文本相比于其余测试场景下的文本,可以更好的被训练模型识别,使训练得到的目标模型对文本识别更加充分,提升目标模型的识别性能和泛化能力。
请参阅图4,在一实施例中,所述目标预测类别包括预测积极类别和预测消极类别;S102根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本可以包括如下子步骤S401-S403:
S401、在所述每个目标场景下的各个目标文本中,分别获取所述目标文本属于所述预测积极类别的第一预测文本,和所述目标文本属于所述预测消极类别的第二预测文本。
S402、获取所述每个目标场景对应的目标文本中,各个目标文本对应的真实类别;其中,所述真实类别包括真实积极类别和真实消极类别。
S403、在所述第一预测文本中,将所述预测积极类别与所述真实积极类别均一致的文本,作为第一目标文本,并将所述预测消极类别与所述真实消极类别均一致的文本,作为第二目标文本;
S404、将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本;其中,所述目标类别包括积极类别和消极类别。
在应用中,上述每个目标场景下的各个目标文本在输入已有的训练模型后,均会输出对应的预测类别。因此,可根据预测类别对目标文本进行区分。然而,已有训练模型在对目标场景下的各个目标文本进行预测分类时,由于已有的训练模型对特定应用场景下的文本分类进行识别时具有一定的误差,分类的准确率较低,存在许多预测类别与真实类别存在差异的文本。因此,在已有的训练模型对该目标场景下的每个目标文本进行预测分类后,将预测分类结果为预测积极类别的目标文本作为第一预测文本。再根据每个第一预测文本的真实类别,将真实类别为积极类别的文本作为第一目标文本。同样的,第二目标文本为已有的训练模型对该文本的预测分类为预测消极类别,且该文本的真实类别同样为消极类别。
在本实施例中,通过根据已有的训练模型,对每个目标场景对应的目标文本进行预测,将预测目标类别和真实类别均一致的文本作为第一文本进行模型训练,以使得用于训练的第一文本可以更好的被训练模型进行识别,实现训练得到的目标模型对不同类别的文本识别更加充分的效果,提升目标模型的识别性能和泛化能力。
请参阅图5,在S404在将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本之后,还包括如下步骤S501-S504:
S501、接收用户输入的积极类别词汇与消极类别词汇。
S502、根据所述积极类别词汇,在所述每个目标场景下的各个目标文本中,查找包含所述积极类别词汇的第三目标文本。
在应用中,上述积极类别词汇包括但不限定“喜欢”,“开心”,“满意”等词,在接收到用户输入的关键词后,可对目标场景下的所有文本进行查询,并根据关键词定位搜索文本,将搜索的文本作为第三目标文本。为避免存在特殊情况,如搜索的文本可能包含“不喜欢”、“不高兴”等词,其虽然包含积极类别词汇,但实际属于消极类别文本。因此,可将搜索到的文本同样与真实类别进行比较,之后将积极类别词汇与真实类别均一致的文本作为第三目标文本。另外,上述搜索的文本为目标场景下的所有文本,而为了避免第三目标文本与第一目标文本出现重合的情况,可将出现重合的第三目标文本进行剔除,重新查找新的文本作为第三目标文本,对此不作限定。同样的,上述第四目标文本的获取方式与第三目标文本的获取方式一致,对此不再详细描述。
S503、根据所述消极类别词汇,在所述每个目标场景下的各个文本中,查找包含所述消极类别词汇的第四目标文本;
S504、将所述第一目标文本与所述第三目标文本作为所述第一文本中的积极类别文本,并将所述第二目标文本与所述第四目标文本作为所述第一文本中的消极类别文本。
在应用中,上述第四目标文本的获取方式与第三目标文本的获取方式一致,对此不再详细描述。
在其他应用中,用于训练的积极类别文本的数量与消极类别文本的数量可以为1:1。即上述第一文本中的积极类别文本与上述第一文本中的消极类别文本的数量一致,其比例可为1:1。然而,对于第一目标文本的数量与第二目标文本的数量,以及第三目标文本的数量与第四目标文本的数量,其均可以一致,也可以不一致,对此不作限定。且第一文本的数量与第二文本的数量的比值可以为1:1,或者1:N(N为大于1的整数),对此不作限定。即第二文本的数量为第一文本数量的N倍。其目的在于:中性文本的表达方式较为多样,而含有情绪的文本的表达方式相对较为单一。因此,选择非特定场景下的中性类别文本能够扩充中性文本的文本多样性,充分表达中性文本这一大类的特征,在对训练模型进行训练时,可更好的起到提升训练模型的分类效果的作用。
在本实施例中,为了更快速的获取到第一文本,可根据输入的积极类别词汇与消极类别词汇,对每个目标场景下的各个文本进行查询,获取相应的第三目标文本以及第四目标文本,以达到减少获取用于训练的第一文本的时间。
请参阅图6,S104将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别可以包括如下子步骤S601-S602:
S601、将所述每个目标场景对应的所述第一文本,输入至文本增强模型中进行文本数据增强,得到增强后的第一文本。
S602、将所述第二文本,以及所述增强后的第一文本输入至已有的训练模型中,对所述训练模型的模型参数进行调整得到目标模型。
在应用中,因目标场景下获取到的积极类别的文本数量,和与消极类别的文本数量可能不足,即用于模型训练的第一文本的数量不足,使得训练得到的目标模型对文本特征的识别性能差。因此,需通过上述文本增强模型增加积极类别的文本数量和消极类别的文本数量。具体的,文本增强的过程可基于Bert做数据增强(Conditional BERTContextual Augmentation)实现的。文本增强可较为直观地理解为通过对原有文本进行同义词替换、随机插入、删除词语等增大训练数据量的过程。在文本增强模型中具体体现为:在第一文本输入的过程中,同时输入第一文本的真实类别。文本增强模型可根据第一文本的真实类别,可为第一文本预测可以替换的文本词,从而使得第一文本的表达方式更加多样,使其可扩充为不同表达但语义相近的文本。即可认为文本增强模型强化了第一文本的文本特征,增强了目标模型对第一文本的识别与认知。
示例性的,对于积极类别文本:“今天很高兴”,可以替换为“今天很开心”、“今天很欢乐”等文本。具体的,可获取目标场景下80个积极类别文本使用文本增强模型进行数据增强,在每个积极类别文本的基础上,再扩展出49个积极类别文本,可对应得到4000个包含积极类别文本。同理,使用上述方式可同样对消极类别文本进行文本增强,对此不再进行说明。
在本实施例中,通过将第一文本输入至文本增强模型中,根据第一文本的真实类别,使文本增强模型可以根据真实类别对其进行扩展,得到不同表达但语义相近的多个第一文本,将第二文本以及增强后的第一文本作为训练数据,训练已有的训练模型得到目标模型。使得目标模型对文本识别的更加充分。
在一实施例中,在S104将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别之后还包括:
将所述待识别的文本的情绪识别结果上传至区块链中。
在本申请的所有实施例中,基于终端设备得到对应的文本情绪识别方案,具体来说,文本情绪识别方案由终端设备进行处理得到。将文本情绪识别方案上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该文本情绪识别方案,以便查证文本情绪识别方案是否被篡改。本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
请参阅图7,图7是本申请实施例提供的一种文本情绪识别装置的结构框图。本实施例中该移动终端包括的各单元用于执行图1至图4对应的实施例中的各步骤。具体请参阅图1至图6以及图1至图6所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。参见图7,文本情绪识别装置700包括:输入模块710、第一获取模块720、第二获取模块730和识别模块740,其中:
输入模块710,用于将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别。
第一获取模块720,用于根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本。
第二获取模块730,用于获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本。
识别模块740,用于将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别。
作为本申请一实施例,文本情绪识别装置700还包括:
第三获取模块,用于获取每个测试场景下的多个文本。
输入模块,用于将所述每个测试场景下的多个文本分别输入至所述已有的训练模型中,得到所述每个测试场景下的多个文本的初始预测类别。
确定模块,用于根据所述初始预测类别,从多个测试场景中确定多个目标场景。
作为本申请一实施例,确定模块还用于:
根据所述初始预测类别,分别确定所述每个测试场景下的多个文本中属于所述目标预测类别的文本个数,以及确定所述每个测试场景下包含的初始预测类别的文本总个数;
计算属于所述目标预测类别的文本个数,在对应所述测试场景下的初始预测类别的文本总个数的占比值;
根据所述每个测试场景对应的占比值选取预设个数的所述目标场景,其中,所述目标场景对应的占比值高于其他测试场景对应的占比值。
作为本申请一实施例,所述目标预测类别包括预测积极类别和预测消极类别;第一获取模块720还用于:
在所述每个目标场景下的各个目标文本中,分别获取所述目标文本属于所述预测积极类别的第一预测文本,和所述目标文本属于所述预测消极类别的第二预测文本;
获取所述每个目标场景对应的目标文本中,各个目标文本对应的真实类别;其中,所述真实类别包括真实积极类别和真实消极类别;
在所述第一预测文本中,将所述预测积极类别与所述真实积极类别均一致的文本,作为第一目标文本,并将所述预测消极类别与所述真实消极类别均一致的文本,作为第二目标文本;
将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本;其中,所述目标类别包括积极类别和消极类别。
作为本申请一实施例,第一获取模块720还用于:
接收用户输入的积极类别词汇与消极类别词汇;
根据所述积极类别词汇,在所述每个目标场景下的各个目标文本中,查找包含所述积极类别词汇的第三目标文本;
根据所述消极类别词汇,在所述每个目标场景下的各个文本中,查找包含所述消极类别词汇的第四目标文本;
将所述第一目标文本与所述第三目标文本作为所述第一文本中的积极类别文本,并将所述第二目标文本与所述第四目标文本作为所述第一文本中的消极类别文本。
作为本申请一实施例,识别模块740还用于:
将所述每个目标场景对应的所述第一文本,输入至文本增强模型中进行文本数据增强,得到增强后的第一文本;
将所述第二文本,以及所述增强后的第一文本输入至已有的训练模型中,对所述训练模型的模型参数进行调整得到目标模型。
作为本申请一实施例,文本情绪识别装置700还包括:
上传模块,用于将所述待识别的文本的情绪识别结果上传至区块链中。
应当理解的是,图7示出的文本情绪识别装置的结构框图中,各单元/模块用于执行图1至图6对应的实施例中的各步骤,而对于图1至图6对应的实施例中的各步骤已在上述实施例中进行详细解释,具体请参阅图1至图6以及图1至图6所对应的实施例中的相关描述,此处不再赘述。
图8是本申请另一实施例提供的一种终端设备的结构框图。如图8所示,该实施例的终端设备80包括:处理器81、存储器82以及存储在所述存储器82中并可在所述处理器81上运行的计算机程序83,例如文本情绪识别方法的程序。处理器81执行所述计算机程序83时实现上述各个文本情绪识别方法各实施例中的步骤,例如图1所示的S101至S104。或者,所述处理器81执行所述计算机程序83时实现上述图7对应的实施例中各单元的功能,例如,图7所示的单元710至740的功能,具体请参阅图7对应的实施例中的相关描述。
示例性的,所述计算机程序83可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器82中,并由所述处理器81执行,以完成本申请。所述一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序83在所述终端设备80中的执行过程。例如,所述计算机程序83可以被分割成输入单元、第一获取单元、第一获取单元以及识别单元,各单元具体功能如上所述。
所述终端设备可包括,但不仅限于,处理器81、存储器82。本领域技术人员可以理解,图8仅仅是终端设备80的示例,并不构成对终端设备80的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器81可以是中央处理单元,还可以是其他通用处理器、数字信号处理器、专用集成电路、现成可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器82可以是所述终端设备80的内部存储单元,例如终端设备80的硬盘或内存。所述存储器82也可以是所述终端设备80的外部存储设备,例如所述终端设备80上配备的插接式硬盘,智能存储卡,安全数字卡,闪存卡等。进一步地,所述存储器82还可以既包括所述终端设备80的内部存储单元也包括外部存储设备。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (7)
1.一种文本情绪识别方法,其特征在于,包括:
将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别;
根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本;
获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本;
将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别;
在将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的预测类别之前,还包括:
获取每个测试场景下的多个文本;
将所述每个测试场景下的多个文本分别输入至所述已有的训练模型中,得到所述每个测试场景下的多个文本的初始预测类别;
根据所述初始预测类别,从多个测试场景中确定多个目标场景;
根据所述初始预测类别,从多个测试场景中确定多个目标场景,包括:
根据所述初始预测类别,分别确定所述每个测试场景下的多个文本中属于所述目标预测类别的文本个数,以及确定所述每个测试场景下包含的初始预测类别的文本总个数;
计算属于所述目标预测类别的文本个数,在对应所述测试场景下的初始预测类别的文本总个数的占比值;
根据所述每个测试场景对应的占比值选取预设个数的所述目标场景,其中,所述目标场景对应的占比值高于其他测试场景对应的占比值;
所述目标预测类别包括预测积极类别和预测消极类别;
所述根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本,包括:
在所述每个目标场景下的各个目标文本中,分别获取所述目标文本属于所述预测积极类别的第一预测文本,和所述目标文本属于所述预测消极类别的第二预测文本;
获取所述每个目标场景对应的目标文本中,各个目标文本对应的真实类别;其中,所述真实类别包括真实积极类别和真实消极类别;
在所述第一预测文本中,将所述预测积极类别与所述真实积极类别均一致的文本,作为第一目标文本,并将所述预测消极类别与所述真实消极类别均一致的文本,作为第二目标文本;
将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本;其中,所述目标类别包括积极类别和消极类别。
2.如权利要求1所述的文本情绪识别方法,其特征在于,在将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本之后,还包括:
接收用户输入的积极类别词汇与消极类别词汇;
根据所述积极类别词汇,在所述每个目标场景下的各个目标文本中,查找包含所述积极类别词汇的第三目标文本;
根据所述消极类别词汇,在所述每个目标场景下的各个文本中,查找包含所述消极类别词汇的第四目标文本;
将所述第一目标文本与所述第三目标文本作为所述第一文本中的积极类别文本,并将所述第二目标文本与所述第四目标文本作为所述第一文本中的消极类别文本。
3.如权利要求1或2所述的文本情绪识别方法,其特征在于,所述将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别,包括:
将所述每个目标场景对应的所述第一文本,输入至文本增强模型中进行文本数据增强,得到增强后的第一文本;
将所述第二文本,以及所述增强后的第一文本输入至已有的训练模型中,对所述训练模型的模型参数进行调整得到目标模型。
4.如权利要求3所述的文本情绪识别方法,其特征在于,在将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别之后,还包括:
将所述待识别的文本的情绪识别结果上传至区块链中。
5.一种文本情绪识别装置,其特征在于,包括:
输入模块,用于将每个目标场景下的各个目标文本输入至已有的训练模型中,获取所述各个目标文本对应的目标预测类别,所述目标预测类别包括预测积极类别和预测消极类别;
第一获取模块,用于根据所述目标预测类别,在所述每个目标场景中获取属于目标类别的第一文本;
第二获取模块,用于获取第二文本,其中,所述第二文本属于非目标类别,且属于非目标场景下的文本;
识别模块,用于将所述第一文本和第二文本输入至已有的训练模型中,对训练模型的模型参数进行调整得到目标模型,并根据所述目标模型对待识别的文本进行情绪识别;
所述文本情绪识别装置还包括:
第三获取模块,用于获取每个测试场景下的多个文本;
输入模块,用于将所述每个测试场景下的多个文本分别输入至所述已有的训练模型中,得到所述每个测试场景下的多个文本的初始预测类别;
确定模块,用于根据所述初始预测类别,从多个测试场景中确定多个目标场景;
所述确定模块,用于根据所述初始预测类别,分别确定所述每个测试场景下的多个文本中属于所述目标预测类别的文本个数,以及确定所述每个测试场景下包含的初始预测类别的文本总个数;
计算属于所述目标预测类别的文本个数,在对应所述测试场景下的初始预测类别的文本总个数的占比值;
根据所述每个测试场景对应的占比值选取预设个数的所述目标场景,其中,所述目标场景对应的占比值高于其他测试场景对应的占比值;
所述第一获取模块,还用于在所述每个目标场景下的各个目标文本中,分别获取所述目标文本属于所述预测积极类别的第一预测文本,和所述目标文本属于所述预测消极类别的第二预测文本;
获取所述每个目标场景对应的目标文本中,各个目标文本对应的真实类别;其中,所述真实类别包括真实积极类别和真实消极类别;
在所述第一预测文本中,将所述预测积极类别与所述真实积极类别均一致的文本,作为第一目标文本,并将所述预测消极类别与所述真实消极类别均一致的文本,作为第二目标文本;
将所述第一目标文本与第二目标文本作为属于所述目标类别的第一文本;其中,所述目标类别包括积极类别和消极类别。
6.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010961758.7A CN112101042B (zh) | 2020-09-14 | 2020-09-14 | 文本情绪识别方法、装置、终端设备和存储介质 |
PCT/CN2021/091079 WO2022052484A1 (zh) | 2020-09-14 | 2021-04-29 | 文本情绪识别方法、装置、终端设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010961758.7A CN112101042B (zh) | 2020-09-14 | 2020-09-14 | 文本情绪识别方法、装置、终端设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101042A CN112101042A (zh) | 2020-12-18 |
CN112101042B true CN112101042B (zh) | 2024-09-17 |
Family
ID=73752421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010961758.7A Active CN112101042B (zh) | 2020-09-14 | 2020-09-14 | 文本情绪识别方法、装置、终端设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112101042B (zh) |
WO (1) | WO2022052484A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101042B (zh) * | 2020-09-14 | 2024-09-17 | 平安科技(深圳)有限公司 | 文本情绪识别方法、装置、终端设备和存储介质 |
CN112732910B (zh) * | 2020-12-29 | 2024-04-16 | 华南理工大学 | 跨任务文本情绪状态评估方法、系统、装置及介质 |
CN113705678B (zh) * | 2021-08-28 | 2023-04-28 | 重庆理工大学 | 利用词屏蔽数据增强与对抗学习的特定目标情感分析方法 |
CN113792146A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于人工智能的文本分类方法、装置、电子设备及介质 |
CN113901823A (zh) * | 2021-10-22 | 2022-01-07 | 平安科技(深圳)有限公司 | 命名实体识别方法、装置、存储介质及终端设备 |
CN114116965A (zh) * | 2021-11-08 | 2022-03-01 | 竹间智能科技(上海)有限公司 | 评论文本的观点提取方法以及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108922564A (zh) * | 2018-06-29 | 2018-11-30 | 北京百度网讯科技有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
CN109918642A (zh) * | 2019-01-23 | 2019-06-21 | 重庆恢恢信息技术有限公司 | 基于委员会查询的主动学习框架的情感分析方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156766B (zh) * | 2015-03-25 | 2020-02-18 | 阿里巴巴集团控股有限公司 | 文本行分类器的生成方法及装置 |
US10481861B2 (en) * | 2016-08-30 | 2019-11-19 | Google Llc | Using user input to adapt search results provided for presentation to the user |
CN110019770A (zh) * | 2017-07-24 | 2019-07-16 | 华为技术有限公司 | 训练分类模型的方法与装置 |
CN108334605B (zh) * | 2018-02-01 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN109471938B (zh) * | 2018-10-11 | 2023-06-16 | 平安科技(深圳)有限公司 | 一种文本分类方法及终端 |
CN109684478B (zh) * | 2018-12-18 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 分类模型训练方法、分类方法及装置、设备和介质 |
CN110162627B (zh) * | 2019-04-28 | 2022-04-15 | 平安科技(深圳)有限公司 | 数据增量方法、装置、计算机设备及存储介质 |
CN110288019A (zh) * | 2019-06-21 | 2019-09-27 | 北京百度网讯科技有限公司 | 图像标注方法、装置和存储介质 |
CN110413788B (zh) * | 2019-07-30 | 2023-01-31 | 携程计算机技术(上海)有限公司 | 会话文本的场景类别的预测方法、系统、设备和存储介质 |
CN112101042B (zh) * | 2020-09-14 | 2024-09-17 | 平安科技(深圳)有限公司 | 文本情绪识别方法、装置、终端设备和存储介质 |
-
2020
- 2020-09-14 CN CN202010961758.7A patent/CN112101042B/zh active Active
-
2021
- 2021-04-29 WO PCT/CN2021/091079 patent/WO2022052484A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108922564A (zh) * | 2018-06-29 | 2018-11-30 | 北京百度网讯科技有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
CN109918642A (zh) * | 2019-01-23 | 2019-06-21 | 重庆恢恢信息技术有限公司 | 基于委员会查询的主动学习框架的情感分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022052484A1 (zh) | 2022-03-17 |
CN112101042A (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112101042B (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
CN111859960B (zh) | 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质 | |
WO2020228376A1 (zh) | 文本处理方法、模型训练方法和装置 | |
US11803758B2 (en) | Adversarial pretraining of machine learning models | |
US11227118B2 (en) | Methods, devices, and systems for constructing intelligent knowledge base | |
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN118349673A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN113627447B (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
CN111930942B (zh) | 文本分类方法、语言模型训练方法、装置及设备 | |
CN114565104A (zh) | 语言模型的预训练方法、结果推荐方法及相关装置 | |
CN110377733B (zh) | 一种基于文本的情绪识别方法、终端设备及介质 | |
CN113326374B (zh) | 基于特征增强的短文本情感分类方法及系统 | |
US11003950B2 (en) | System and method to identify entity of data | |
CN114579746B (zh) | 一种优化的高精度文本分类方法及装置 | |
CN113761868B (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN112257841A (zh) | 图神经网络中的数据处理方法、装置、设备及存储介质 | |
CN116821307B (zh) | 内容交互方法、装置、电子设备和存储介质 | |
US20230368003A1 (en) | Adaptive sparse attention pattern | |
CN113704508A (zh) | 多媒体信息识别方法、装置、电子设备及存储介质 | |
US11914630B2 (en) | Classifier determination through label function creation and unsupervised learning | |
CN115129863A (zh) | 意图识别方法、装置、设备、存储介质和计算机程序产品 | |
CN115552414A (zh) | 用于文本分类的装置和方法 | |
CN112149389A (zh) | 简历信息结构化处理方法、装置、计算机设备和存储介质 | |
CN111476037B (zh) | 文本处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |