CN111859980A - 讽刺类型的文本识别方法、装置、设备及计算机可读介质 - Google Patents

讽刺类型的文本识别方法、装置、设备及计算机可读介质 Download PDF

Info

Publication number
CN111859980A
CN111859980A CN202010549951.XA CN202010549951A CN111859980A CN 111859980 A CN111859980 A CN 111859980A CN 202010549951 A CN202010549951 A CN 202010549951A CN 111859980 A CN111859980 A CN 111859980A
Authority
CN
China
Prior art keywords
text
neural network
network model
processed
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010549951.XA
Other languages
English (en)
Other versions
CN111859980B (zh
Inventor
李秋丹
刘春阳
彭鑫
张丽
曾大军
张旭
刘贺静
王鹏
王林子
陈志鹏
贾玉改
张翔宇
解峥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
National Computer Network and Information Security Management Center
Original Assignee
Institute of Automation of Chinese Academy of Science
National Computer Network and Information Security Management Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science, National Computer Network and Information Security Management Center filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202010549951.XA priority Critical patent/CN111859980B/zh
Publication of CN111859980A publication Critical patent/CN111859980A/zh
Application granted granted Critical
Publication of CN111859980B publication Critical patent/CN111859980B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及一种讽刺类型的文本识别方法、装置、设备及计算机可读介质。该方法包括:获取待处理文本,待处理文本来自于社交媒体网络平台;采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型。本申请从多个维度捕获词间关联特征,并从讽刺文本的情感倾向转换出发,挖掘词语间的冲突性,进而充分体现句子中地所蕴含的讽刺含义,最终准确、合理地识别讽刺文本。

Description

讽刺类型的文本识别方法、装置、设备及计算机可读介质
技术领域
本申请涉及文本识别技术领域,尤其涉及一种讽刺类型的文本识别方法、装置、设备及计算机可读介质。
背景技术
随着互联网的高速发展,世界变得越来越小,不同地区、不同国家的人可以在互联网上一同讨论一个热点事件。互联网的虚拟性也给了许多人表达观点的机会,其中,讽刺是一种特殊的表达方式,在互联网中也充斥着大量含有讽刺意味的话语,正确理解讽刺含义对于体会文本的深层次语义具有重要作用。
目前,讽刺检测工作大多基于深度学习方法提取特征,例如Ghosh等人提出了融合CNN和RNN的神经网络模型,结合文本语句进行语义建模(GhoshA,Veale T.Frackingsarcasm using neural network[C]//Proceedings of the 7th workshop oncomputational approaches to subjectivity,sentiment and social mediaanalysis.2016:161-169.);Poria等人基于预训练的卷积神经网络模型,提取情感特征和人格特征并进行特征融合,继而使用支持向量机分类器进行讽刺预测(
Figure BDA0002542088100000011
T,HabernalI,Hong J.Sarcasm detection on czech and english twitter[C]//Proceedings ofCOLING 2014,the 25th International Conference on Computational Linguistics:Technical Papers.2014:213-223.);Devamanyu Hazarika等人提出了CASCADE混合模型,该模型提取句子文本特征和上下文信息特征,其中包括文本主题信息、文本用户个性信息和用户文体风格信息,融合上述特征得到总体特征进行讽刺检测(Hazarika D,Poria S,Gorantla S,et al.Cascade:Contextual sarcasm detection in online discussionforums[J].arXiv preprint arXiv:1805.06413,2018.)。
但是,目前的相关技术中,研究词间的相关性的方法比较单一,且讽刺检测的效果不准确。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请提供了一种讽刺类型的文本识别方法、装置、设备及计算机可读介质,以解决上述“研究词间相关性的方法单一,讽刺检测不准确”的技术问题。
第一方面,本申请提供了一种讽刺类型的文本识别方法,包括:获取待处理文本,待处理文本来自于社交媒体网络平台;采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型,识别结果用于指示待处理文本是否为目标类型,目标类型为讽刺类型。
可选地,采用多种方式提取待处理文本的目标特征信息包括:将待处理文本转换为词向量;采用多种方式确定相邻词向量之间的多个第一情绪对立参数;融合多个第一情绪对立参数,得到相邻词向量之间的第二情绪对立参数;在得到所有相邻词向量之间的第二情绪对立参数的情况下,利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量;获取各个词向量与对应注意力向量的乘积的和,得到词语冲突性特征,目标特征信息包括词语冲突性特征。
可选地,采用多种方式确定相邻词向量之间的多个第一情绪对立参数包括:采用获取相邻词向量之间的均值、哈达玛乘积、L1距离及L2距离的方式确定多个第一情绪对立参数;融合多个第一情绪对立参数,得到相邻词向量之间的第二情绪对立参数包括:获取第一神经网络模型学习到的第一权重参数,第一权重参数是在采用训练数据训练得到第一神经网络模型的过程中针对多种方式训练达到的局部最优值;将多个第一情绪对立参数与对应第一权重参数的乘积的和作为第二情绪对立参数;利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量包括:通过对矩阵进行最大池化运算确定注意力向量。
可选地,采用多种方式提取待处理文本的目标特征信息还包括:采用长短期记忆神经网络提取待处理文本的文本结构化特征,目标特征信息包括文本结构化特征。
可选地,根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型包括:将词语冲突性特征和/或文本结构化特征作为第一神经网络模型的输入;获取第一神经网络模型输出的识别结果,识别结果为指示待处理文本的文本类型的预测值;在预测值大于预设阈值的情况下将待处理文本的文本类型确定为目标类型。
可选地,根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型之前,该方法还包括:通过训练数据对第二神经网络模型内各网络层中的参数进行初始化,得到第三神经网络模型,第二神经网络模型为全连接前馈神经网络模型;在第三神经网络模型对测试数据的识别准确度达到目标阈值的情况下,将第三神经网络模型作为第一神经网络模型;在第三神经网络模型对测试数据的识别准确度未达到目标阈值的情况下,继续使用训练数据对第三神经网络模型进行训练,以调整第三神经网络模型内各网络层中的参数的数值,直至第三神经网络模型对测试数据的识别准确度达到目标阈值。
可选地,在训练过程中,该方法还包括:利用二元交叉熵函数初始化第二神经网络模型的损失函数,并采用L2正则化的方式减小训练数据的过拟合,损失函数为:
Figure BDA0002542088100000041
其中,yi是实际标签值,
Figure BDA0002542088100000042
是预测输出值,||θ||L2是模型参数的L2范数,λ为正则化系数,N为训练样本的数量。
第二方面,本申请提供了一种讽刺类型的文本识别装置,包括:获取模块,用于获取待处理文本,待处理文本来自于社交媒体网络平台;提取模块,用于采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;确定模块,用于根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型,识别结果用于指示待处理文本是否为目标类型,目标类型为讽刺类型。
第三方面,本申请提供了一种计算机设备,包括存储器、处理器,存储器中存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述第一方面任一项方法的步骤。
第四方面,本申请还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,程序代码使处理器执行上述第一方面任一方法。
本申请实施例提供的上述技术方案与相关技术相比具有如下优点:
本申请通过获取待处理文本;采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型的技术方案,从多个维度捕获词间关联特征,并从讽刺文本的情感倾向转换出发,挖掘词语间的冲突性特征,进而充分体现句子中地所蕴含地讽刺含义,最终准确、合理地识别讽刺文本。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为根据本申请实施例提供的一种可选的讽刺类型的文本识别方法硬件环境示意图;
图2为根据本申请实施例提供的一种可选的讽刺类型的文本识别方法流程图;
图3为根据本申请实施例提供的一种可选的讽刺类型的文本识别装置框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本申请的说明,其本身并没有特定的意义。因此,“模块”与“部件”可以混合地使用。
首先,在对本申请实施例进行描述的过程中出现的部分名词或者术语适用于如下解释:
人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型,在工程与学术界也常直接简称为“神经网络”或类神经网络,可模仿动物神经网络行为特征,是进行分布式并行信息处理的算法数学模型,这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
前馈神经网络(Feedforward Neural Network,FNN),简称前馈网络,是人工神经网络的一种。前馈神经网络采用一种单向多层结构。其中每一层包含若干个神经元。在此种神经网络中,各神经元可以接收前一层神经元的信号,并产生输出到下一层。第0层叫输入层,最后一层叫输出层,其他中间层叫做隐含层(或隐藏层、隐层)。隐层可以是一层。也可以是多层。整个网络中无反馈,信号从输入层向输出层单向传播。其中,全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。
损失函数(loss function),在训练神经网络的过程中,因为希望神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断的调整,直到神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objectivefunction),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么神经网络的训练就变成了尽可能缩小这个loss的过程。
长短时记忆网络LSTM(Long Short Term Memory Network,LSTM)。LSTM是一种特殊的循环神经网络,具有能够处理长期信息的能力,解决“长期依赖”的问题,比如在文本处理中能够利用很宽范围的上下文信息来判断下一个词的概率。LSTM在各种各样的问题中都取得了较好的效果,现在正在被更广泛地使用。
相关技术中,讽刺检测工作大多基于深度学习方法提取特征,如融合CNN和RNN的神经网络模型,结合文本语句进行语义建模;又如基于卷积神经网络模型,提取情感特征和人格特征并进行特征融合,继而使用支持向量机分类器进行讽刺预测;又如提取句子文本特征和上下文信息特征,其中包括文本主题信息、文本用户个性信息和用户文体风格信息,融合上述特征得到总体特征进行讽刺检测。但是相关技术中研究词间相关性的方法比较单一,且不能从情感倾向的角度出发,讽刺检测的效果不合理、不准确。
为了解决背景技术中提及的问题,根据本申请实施例的一方面,提供了一种讽刺类型的文本识别方法的实施例。
可选地,在本申请实施例中,上述讽刺类型的文本识别方法可以应用于如图1所示的由终端101和服务器103所构成的硬件环境中。如图1所示,服务器103通过网络与终端101进行连接,可用于为终端或终端上安装的客户端提供服务,可在服务器上或独立于服务器设置数据库105,用于为服务器103提供数据存储服务,上述网络包括但不限于:广域网、城域网或局域网,终端101包括但不限于PC、手机、平板电脑等。
本申请实施例中的一种方法可以由服务器103来执行,还可以是由服务器103和终端101共同执行,如图2所示,该方法可以包括以下步骤:
步骤S202,获取待处理文本,待处理文本来自于社交媒体网络平台。
本申请实施例中,上述的待处理文本可以是英文、中文等语言的文本,上述社交媒体网络平台可以是微博、论坛、博客等互联网中用户相对集中的平台。
步骤S204,采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示。
本申请实施例中,上述多种方式为从多个维度捕获词间的关联特征,目标特征信息可以是多个维度获取的特征的加权和。作为优选,在处理讽刺文本时,从多个维度提取词间冲突性特征,能够更加突出文本中的讽刺含义,从而更加合理地进行讽刺文本识别,提升讽刺检测效果。
步骤S206,根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型,识别结果用于指示待处理文本是否为目标类型,目标类型为讽刺类型。
本申请实施例中,上述神经网络模型可以是全连接前馈神经网络模型;标记信息至少标识出训练数据中是否具有讽刺含义,即训练数据是否为讽刺类型的文本。类似地,识别结果至少为训练数据的文本类型属于讽刺类型的概率,用来指示是否为讽刺类型。
在本申请的技术方案中,考虑到讽刺是一种特殊的表达方式,其含义比较隐晦,且具有一定的情感倾向,因此本申请采用多种方式,从多个维度提取词语间的关联特征,作为优选可以提取词语间的冲突性特征,可以解决相关技术中的讽刺检测不合理、不准确的技术问题,进而达到提高讽刺检测合理性、准确性的技术效果。
本申请提出了一种从多个维度捕获词语间关联特征,并为各个关联特征赋予权重进行融合,得到目标特征信息的方法,下面结合图2所示的步骤,以讽刺文本的特征提取和融合为例,进一步详述本申请的技术方案。
讽刺是一种特殊的情感表达方式,具有隐晦且存在情感倾向,因此从多个维度提取词语间的关联特征,能够通过词语间的冲突性充分体现出文本的情感倾向,从而更加合理、准确地进行讽刺类文本的文本识别。
可选地,步骤S204提供的技术方案中,采用多种方式提取待处理文本的目标特征信息可以包括以下步骤:
步骤1,将待处理文本转换为词向量。
本申请实施例中,可以通过word2vector的方式将待处理文本转换为词向量,常用的可以是word embedding编码实现将文本转换为词向量,embedding在数学上表示一个映射,其目标就是将单词映射到多维向量空间,得到单词的向量表示。除此之外,还可以采用one-hot编码方式将单词编码为词向量表示。
在采用embedding或one-hot对单词进行编码前,还需要将待处理文本进行分词,以英文和中文为例加以简单说明。对于英文,计算机可以很简单的得到想要的分词结果,因为英文是以词为单位的,词和词之间是靠空格隔开,而中文则需要应用自然语言处理技术。例如,英文句子I am a student,用中文则为:“我是一个学生”。计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词。把中文的汉字序列切分成有意义的词,就是中文分词。中文分词可以采用基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法,分词方法技术上已经较为成熟,在此不再赘述。
步骤2,采用多种方式确定相邻词向量之间的多个第一情绪对立参数。
本申请实施例中,对于讽刺文本而言,准确捕获词语间的情感倾向至关重要,体现讽刺意味的词语之间存在不同的情感倾向,根据不同情感倾向的差异能够体现讽刺的程度,而采用一种方式即从一个维度提取的特征不能够全面的反映出情感倾向,因此本申请采用多种方式,即从多个维度提取词语的情感倾向的特征,即第一情绪对立参数,来更加全面的反映出情感倾向,从而充分体现文本中蕴含的讽刺意味。
步骤3,融合多个第一情绪对立参数,得到相邻词向量之间的第二情绪对立参数。
本申请实施例中,第一情绪对立参数为单一维度提取的特征参数,为了更加符合实际,为各种方式获取的第一情绪对立参数赋予不同的权重,融合得到两个词之间的综合的情感倾向的特征,即第二情绪对立参数。
步骤4,在得到所有相邻词向量之间的第二情绪对立参数的情况下,利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量。
本申请实施例中,不同的词语体现的讽刺意味不同,其综合的情感倾向的特征即第二情绪对立参数也不相同,通过每个词语的第二情绪对立参数可以确定该词在整个文本句子中表示讽刺意味的权重,即注意力向量。
步骤5,获取各个词向量与对应注意力向量的乘积的和,得到词语冲突性特征,目标特征信息包括词语冲突性特征。
在得到句子中各个词语的注意力向量之后,将各个词语的词向量与对应的注意力向量相乘,再将整个句子中所有词相乘的结果进行相加,得到整个句子的冲突性特征,该冲突性特征即可表示该文本句子中蕴含的讽刺意味。
可见,采用本申请的技术方案,从体现讽刺意味的情感倾向性出发,从多个维度提取体现情感倾向的特征即第一情绪对立参数,并根据合适的权重融合得到词语综合的情感倾向的特征即第二情绪对立参数,进而确定各个词语在整个句子中体现讽刺意味的权重即注意力向量,最后将词向量和与之对应的注意力向量融合得到整个句子的冲突性特侦,能够通过词语间的冲突性充分体现出文本的情感倾向,从而更加合理、准确地进行讽刺类文本的文本识别。
可选地,上述采用多种方式确定相邻词向量之间的多个第一情绪对立参数可以包括:
采用获取相邻词向量之间的均值、哈达玛乘积、L1距离及L2距离的方式确定多个第一情绪对立参数。
本申请实施例中,对句子中出现的单词两两组对,融合多种计算方式,得到第一情绪对立参数s。具体地,对于单词wi与单词wj,二者间的第一情绪对立参数sij通过融合以下四种方式确定:
sij1=(wi+wj)/2
sij2=wi*wj
sij3=||wi-wj||L1
sij4=||wi-wj||L2
多个维度提取词语间的情感倾向性特征能够合理、全面的体现出词语间的情感倾向的差异。
可选地,上述融合多个第一情绪对立参数,得到相邻词向量之间的第二情绪对立参数可以包括以下步骤:
步骤1,获取第一神经网络模型学习到的第一权重参数,第一权重参数是在采用训练数据训练得到第一神经网络模型的过程中针对多种方式训练达到的局部最优值;
步骤2,将多个第一情绪对立参数与对应第一权重参数的乘积的和作为第二情绪对立参数。
本申请实施例中,第一权重参数为训练模型时通过不断的训练优化达到的局部最优值。利用注意力机制,为四种方式确定的第一情绪对立参数分别赋予权重求和,作为综合的情感倾向的特征,即第二情绪对立参数:
Figure BDA0002542088100000121
其中,at为待学习的模型注意力权重参数。
可选地,上述利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量可以包括:
通过对矩阵进行最大池化运算确定注意力向量。
本申请实施例中,输入模型的句子长度为l,确定得到所有单词对的第二情绪对立参数sij,便可以得到一个维度为l×l的对称矩阵s。对矩阵s进行逐行最大池化运算,可以得到注意力向量a:
a=softmax(maxrows)
其中,a为l维的向量,表示句中每个单词的内部注意力权重。maxrow表示矩阵s的行最大值。
上述获取各个词向量与对应注意力向量的乘积的和,得到词语冲突性特征包括:
基于注意力向量a计算句子{w1,w2,…,wl}的加权和表示,得到词语冲突性特征va
Figure BDA0002542088100000131
本申请还提出了一种利用长短期记忆神经网络,得到目标特征信息的方法,下面结合图2所示的步骤,进一步详述本申请的技术方案。
可选地,步骤S204提供的技术方案中,采用多种方式提取待处理文本的目标特征信息还可以包括:
采用长短期记忆神经网络提取待处理文本的文本结构化特征,目标特征信息包括文本结构化特征。
本申请实施例中,文本的结构化特征信息对于理解语义信息至关重要,将上下文词语间的依赖关系融合进模型当中,能够获得更有效的文本语义表示。作为优选,本申请技术方案采用长短期记忆神经网络(LSTM)建模句子词语间的依赖关系,提取句子的文本结构化特征,能够有效地学习文本的长期依赖性。预设句子的最大长度为l,对于时刻t,LSTM编码方式如下:
ht=LSTM(ht-1,wt)
其中ht为d维的当前时刻t的隐含输出,wt为当前时刻t的输入,ht-1为上一时刻t-1的隐含输出,d为LSTM编码器隐藏单元的大小。
本申请实施例选取输入句子的最后时刻的隐含输出hl,作为句子的文本结构化特征vc,即:
vc=hl
本申请提出了一种利用训练好的神经网络模型对目标特征信息进行识别,根据识别结果确定待处理文本的文本类型的方法,下面结合图2所示的步骤,进一步详述本申请的技术方案。
可选地,步骤S206提供的技术方案中,根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型可以包括以下步骤:
步骤1,将词语冲突性特征和/或文本结构化特征作为第一神经网络模型的输入;
步骤2,获取第一神经网络模型输出的识别结果,识别结果为指示待处理文本的文本类型的预测值;
步骤3,在预测值大于预设阈值的情况下将待处理文本的文本类型确定为目标类型。
本申请实施例中,文本结构化特征包含着句子的上下文信息,对于语义理解至关重要;词语冲突性特征则蕴含着句子中潜在的冲突性信息,这是讽刺性表达的直观体现。综上,融合上述两种特征对于讽刺检测任务具有积极意义。
本申请实施例中,可以基于所提取的文本结构化特征
Figure BDA0002542088100000141
和词语冲突性特征
Figure BDA0002542088100000142
将上述两种特征信息进行融合,得到句子总体特征,目标特征信息包括上述两种特征信息的融合,句子总体特征v:
v=ReLU(Wz([va;vc])+bz)
其中,Wz为全连接前馈神经网络的权重矩阵,bz为全连接前馈神经网络的偏移量,二者为模型待学习的参数。ReLU为用于增强模型表达能力的激活函数。
基于句子总体特征v,可以采用全连接前馈神经网络将特征映射至一维输出空间中,并使用sigmoid函数作为激活函数:
Figure BDA0002542088100000151
Figure BDA0002542088100000152
其中,Wf为全连接前馈神经网络的权重矩阵,bf为全连接前馈神经网络的偏移量,二者为模型待学习的参数。经过sigmoid函数计算后得到输出结果
Figure BDA0002542088100000153
即模型预测该句子为讽刺文本的概率值。基于预测概率
Figure BDA0002542088100000154
对句子进行判定,若概率值小于0.5,则判定该句子不属于讽刺类型的文本,反之,则判定该句子属于讽刺类型的文本。
本申请还提出了一种训练本申请实施例所用的第一神经网络模型的方法。
可选地,根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型之前,该方法还包括:通过训练数据对第二神经网络模型内各网络层中的参数进行初始化,得到第三神经网络模型,第二神经网络模型为全连接前馈神经网络模型;在第三神经网络模型对测试数据的识别准确度达到目标阈值的情况下,将第三神经网络模型作为第一神经网络模型;在第三神经网络模型对测试数据的识别准确度未达到目标阈值的情况下,继续使用训练数据对第三神经网络模型进行训练,以调整第三神经网络模型内各网络层中的参数的数值,直至第三神经网络模型对测试数据的识别准确度达到目标阈值。
本申请实施例中,可以获取多个文本作为训练样本,每个训练样本中包括该训练样本的文本类型标签,可以是0和1,0表示不属于讽刺类型的文本,作为负样本,1表示属于讽刺类型的文本,作为正样本。还可以是包括该训练数据中的情感倾向标签,标记在情感倾向转换的词对之间。利用多个训练样本的中文本类型标签和/或情感倾向标签初始化第二神经网络模型,得到第三神经网络模型,并训练该第三神经网络模型,直至该第三神经网络模型收敛,得到第一神经网络模型。
可选地,上述训练该第三神经网络模型,直至该第三神经网络模型收敛还可以包括:
分别将每一个训练样本输入第三神经网络模型,得到文本类型的训练预测值;
根据多个训练预测值和对应的训练样本中的实际文本类型之间的差异确定损失值;
利用多个损失值修正第三神经网络模型,直至第三神经网络模型输出结果的精度达到目标阈值。
可选地,在训练过程中,为了训练模型中的参数,可以利用二元交叉熵函数初始化第二神经网络模型的损失函数,并采用L2正则化的方式减小训练数据的过拟合,损失函数为:
Figure BDA0002542088100000161
其中,yi是实际标签值,
Figure BDA0002542088100000162
是预测输出值,||θ||L2是模型参数的L2范数,λ为正则化系数,N为训练样本的数量。
本申请通过获取待处理文本;采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型的技术方案,从多个维度捕获词间关联特征,并从讽刺文本的情感倾向转换出发,挖掘词语间的冲突性特征,进而充分体现句子中地所蕴含地讽刺含义,最终准确、合理地识别讽刺文本。
根据本申请实施例的又一方面,如图3所示,提供了一种讽刺类型的文本识别装置,包括:获取模块301,用于获取待处理文本,待处理文本来自于社交媒体网络平台;提取模块303,用于采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;确定模块305,用于根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型,识别结果用于指示待处理文本是否为目标类型,目标类型为讽刺类型。
需要说明的是,该实施例中的图像获取模块301可以用于执行本申请实施例中的步骤S202,该实施例中的图像筛选模块303可以用于执行本申请实施例中的步骤S204,该实施例中的图像处理模块305可以用于执行本申请实施例中的步骤S206。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
可选地,该讽刺类型的文本识别装置,还包括:转换模块,用于将待处理文本转换为词向量;第一情绪对立参数确定模块,用于采用多种方式确定相邻词向量之间的多个第一情绪对立参数;融合模块,用于融合多个第一情绪对立参数,得到相邻词向量之间的第二情绪对立参数;注意力向量确定模块,用于在得到所有相邻词向量之间的第二情绪对立参数的情况下,利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量;词语冲突性特征获取模块,用于获取各个词向量与对应注意力向量的乘积的和,得到词语冲突性特征,目标特征信息包括词语冲突性特征。
可选地,该第一情绪对立参数确定模块,还用于采用获取相邻词向量之间的均值、哈达玛乘积、L1距离及L2距离的方式确定多个第一情绪对立参数;该融合模块,还用于获取第一神经网络模型学习到的第一权重参数,第一权重参数是在采用训练数据训练得到第一神经网络模型的过程中针对多种方式训练达到的局部最优值;将多个第一情绪对立参数与对应第一权重参数的乘积的和作为第二情绪对立参数;该注意力向量确定模块,还用于利用所有第二情绪对立参数组成的矩阵确定待处理文本中各个词向量的注意力向量包括:通过对矩阵进行最大池化运算确定注意力向量。
可选地,该讽刺类型的文本识别装置,还包括:文本结构化特征提取模块,用于采用长短期记忆神经网络提取待处理文本的文本结构化特征,目标特征信息包括文本结构化特征。
可选地,该讽刺类型的文本识别装置,还包括:输入模块,用于将词语冲突性特征和/或文本结构化特征作为第一神经网络模型的输入;识别结果获取模块,用于获取第一神经网络模型输出的识别结果,识别结果为指示待处理文本的文本类型的预测值;文本类型确定模块,用于在预测值大于预设阈值的情况下将待处理文本的文本类型确定为目标类型。
可选地,该讽刺类型的文本识别装置,还包括:第一训练模块,用于通过训练数据对第二神经网络模型内各网络层中的参数进行初始化,得到第三神经网络模型,第二神经网络模型为全连接前馈神经网络模型;第二训练模块,用于在第三神经网络模型对测试数据的识别准确度达到目标阈值的情况下,将第三神经网络模型作为第一神经网络模型;第三训练模块,用于在第三神经网络模型对测试数据的识别准确度未达到目标阈值的情况下,继续使用训练数据对第三神经网络模型进行训练,以调整第三神经网络模型内各网络层中的参数的数值,直至第三神经网络模型对测试数据的识别准确度达到目标阈值。
可选地,该讽刺类型的文本识别装置,还包括:损失函数初始化模块,用于利用二元交叉熵函数初始化第二神经网络模型的损失函数,并采用L2正则化的方式减小训练数据的过拟合,损失函数为:
Figure BDA0002542088100000191
其中,yi是实际标签值,
Figure BDA0002542088100000192
是预测输出值,||θ||L2是模型参数的L2范数,λ为正则化系数,N为训练样本的数量。
根据本申请实施例的又一方面还提供了一种计算机设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述步骤。
上述计算机设备中的存储器、处理器通过通信总线和通信接口进行通信。所述通信总线可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application SpecificIntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
根据本申请实施例的又一方面还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质。
可选地,在本申请实施例中,计算机可读介质被设置为存储用于所述处理器执行以下步骤的程序代码:
获取待处理文本,待处理文本来自于社交媒体网络平台;
采用多种方式提取待处理文本的目标特征信息,目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;
根据第一神经网络模型对目标特征信息的识别结果确定待处理文本的文本类型,第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,标记信息用于标记训练数据是否为目标类型,识别结果用于指示待处理文本是否为目标类型,目标类型为讽刺类型。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本申请实施例在具体实现时,可以参阅上述各个实施例,具有相应的技术效果。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种讽刺类型的文本识别方法,其特征在于,包括:
获取待处理文本,其中,所述待处理文本来自于社交媒体网络平台;
采用多种方式提取所述待处理文本的目标特征信息,其中,所述目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;
根据第一神经网络模型对所述目标特征信息的识别结果确定所述待处理文本的文本类型,其中,所述第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,所述标记信息用于标记所述训练数据是否为目标类型,所述识别结果用于指示所述待处理文本是否为所述目标类型,所述目标类型为讽刺类型。
2.根据权利要求1所述的方法,其特征在于,采用多种方式提取所述待处理文本的目标特征信息包括:
将所述待处理文本转换为词向量;
采用多种方式确定相邻词向量之间的多个第一情绪对立参数;
融合所述多个第一情绪对立参数,得到所述相邻词向量之间的第二情绪对立参数;
在得到所有所述相邻词向量之间的所述第二情绪对立参数的情况下,利用所有所述第二情绪对立参数组成的矩阵确定所述待处理文本中各个词向量的注意力向量;
获取所述各个词向量与对应所述注意力向量的乘积的和,得到词语冲突性特征,其中,所述目标特征信息包括所述词语冲突性特征。
3.根据权利要求2所述的方法,其特征在于,
采用多种方式确定相邻词向量之间的多个第一情绪对立参数包括:
采用获取所述相邻词向量之间的均值、哈达玛乘积、L1距离及L2距离的方式确定所述多个第一情绪对立参数;
融合所述多个第一情绪对立参数,得到所述相邻词向量之间的第二情绪对立参数包括:
获取所述第一神经网络模型学习到的第一权重参数,其中,所述第一权重参数是在采用所述训练数据训练得到所述第一神经网络模型的过程中针对所述多种方式训练达到的局部最优值;
将所述多个第一情绪对立参数与对应所述第一权重参数的乘积的和作为所述第二情绪对立参数;
利用所有所述第二情绪对立参数组成的矩阵确定所述待处理文本中各个词向量的注意力向量包括:
通过对所述矩阵进行最大池化运算确定所述注意力向量。
4.根据权利要求2所述的方法,其特征在于,采用多种方式提取所述待处理文本的目标特征信息还包括:
采用长短期记忆神经网络提取所述待处理文本的文本结构化特征,其中,所述目标特征信息包括所述文本结构化特征。
5.根据权利要求4所述的方法,其特征在于,根据第一神经网络模型对所述目标特征信息的识别结果确定所述待处理文本的文本类型包括:
将所述词语冲突性特征和/或所述文本结构化特征作为所述第一神经网络模型的输入;
获取所述第一神经网络模型输出的识别结果,其中,所述识别结果为指示所述待处理文本的所述文本类型的预测值;
在所述预测值大于预设阈值的情况下将所述待处理文本的所述文本类型确定为所述目标类型。
6.根据权利要求1至5中任意一项所述的方法,其特征在于,根据第一神经网络模型对所述目标特征信息的识别结果确定所述待处理文本的文本类型之前,所述方法还包括:
通过所述训练数据对所述第二神经网络模型内各网络层中的参数进行初始化,得到第三神经网络模型,其中,所述第二神经网络模型为全连接前馈神经网络模型;
在所述第三神经网络模型对测试数据的识别准确度达到目标阈值的情况下,将所述第三神经网络模型作为所述第一神经网络模型;
在所述第三神经网络模型对所述测试数据的识别准确度未达到所述目标阈值的情况下,继续使用所述训练数据对所述第三神经网络模型进行训练,以调整所述第三神经网络模型内各网络层中的参数的数值,直至所述第三神经网络模型对所述测试数据的识别准确度达到所述目标阈值。
7.根据权利要求6所述的方法,其特征在于,在训练过程中,所述方法还包括:
利用二元交叉熵函数初始化所述第二神经网络模型的损失函数,并采用L2正则化的方式减小所述训练数据的过拟合,其中,所述损失函数为:
Figure FDA0002542088090000031
其中,yi是实际标签值,
Figure FDA0002542088090000032
是预测输出值,||θ||L2是模型参数的L2范数,λ为正则化系数,N为训练样本的数量。
8.一种讽刺类型的文本识别装置,其特征在于,包括:
获取模块,用于获取待处理文本,其中,所述待处理文本来自于社交媒体网络平台;
提取模块,用于采用多种方式提取所述待处理文本的目标特征信息,其中,所述目标特征信息为从特征集合中选择出来的多个特征信息的加权和表示;
确定模块,用于根据第一神经网络模型对所述目标特征信息的识别结果确定所述待处理文本的文本类型,其中,所述第一神经网络模型是采用具有标记信息的训练数据对第二神经网络模型进行训练后得到的,所述标记信息用于标记所述训练数据是否为目标类型,所述识别结果用于指示所述待处理文本是否为所述目标类型,所述目标类型为讽刺类型。
9.一种计算机设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7任一项所述的方法的步骤。
10.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1至7任一所述方法。
CN202010549951.XA 2020-06-16 2020-06-16 讽刺类型的文本识别方法、装置、设备及计算机可读介质 Active CN111859980B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010549951.XA CN111859980B (zh) 2020-06-16 2020-06-16 讽刺类型的文本识别方法、装置、设备及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010549951.XA CN111859980B (zh) 2020-06-16 2020-06-16 讽刺类型的文本识别方法、装置、设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN111859980A true CN111859980A (zh) 2020-10-30
CN111859980B CN111859980B (zh) 2024-04-09

Family

ID=72987954

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010549951.XA Active CN111859980B (zh) 2020-06-16 2020-06-16 讽刺类型的文本识别方法、装置、设备及计算机可读介质

Country Status (1)

Country Link
CN (1) CN111859980B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580366A (zh) * 2020-11-30 2021-03-30 科大讯飞股份有限公司 情绪识别方法以及电子设备、存储装置
CN113158656A (zh) * 2020-12-25 2021-07-23 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN117556802A (zh) * 2024-01-12 2024-02-13 碳丝路文化传播(成都)有限公司 一种基于大语言模型的用户画像方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226580A (zh) * 2013-04-02 2013-07-31 西安交通大学 一种面向交互文本的话题识别方法
US8515828B1 (en) * 2012-05-29 2013-08-20 Google Inc. Providing product recommendations through keyword extraction from negative reviews
CN108305641A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
US20190122101A1 (en) * 2017-10-20 2019-04-25 Asapp, Inc. Fast neural network implementations by increasing parallelism of cell computations
CN109766435A (zh) * 2018-11-06 2019-05-17 武汉斗鱼网络科技有限公司 弹幕类别识别方法、装置、设备及存储介质
CN110033029A (zh) * 2019-03-22 2019-07-19 五邑大学 一种基于多模态情感模型的情感识别方法和装置
CN110990531A (zh) * 2019-11-28 2020-04-10 北京声智科技有限公司 一种文本情感识别方法及装置
CN111143549A (zh) * 2019-06-20 2020-05-12 东华大学 一种基于主题的舆情情感演化的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515828B1 (en) * 2012-05-29 2013-08-20 Google Inc. Providing product recommendations through keyword extraction from negative reviews
CN103226580A (zh) * 2013-04-02 2013-07-31 西安交通大学 一种面向交互文本的话题识别方法
CN108305641A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
US20190122101A1 (en) * 2017-10-20 2019-04-25 Asapp, Inc. Fast neural network implementations by increasing parallelism of cell computations
CN109766435A (zh) * 2018-11-06 2019-05-17 武汉斗鱼网络科技有限公司 弹幕类别识别方法、装置、设备及存储介质
CN110033029A (zh) * 2019-03-22 2019-07-19 五邑大学 一种基于多模态情感模型的情感识别方法和装置
CN111143549A (zh) * 2019-06-20 2020-05-12 东华大学 一种基于主题的舆情情感演化的方法
CN110990531A (zh) * 2019-11-28 2020-04-10 北京声智科技有限公司 一种文本情感识别方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QINGLIANG MIAO等: "Fine-Grained Opinion Mining by Integrating Multiple Review Source", 《JOURNAL OF THE AMERCIAN SOCIETY FOR INFORMATION SCIENCE AND TECHNOLOGY》, vol. 61, no. 11, 19 July 2010 (2010-07-19), pages 2288 - 2299 *
刘丹: "情感文本的识别与分类算法的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, 15 January 2020 (2020-01-15), pages 138 - 2503 *
包红云等: "面向微博的热点事件情感分析方法", 《计算机科学》, vol. 39, no. 1, 15 April 2013 (2013-04-15), pages 226 - 2628 *
张庆林等: "基于对抗学习的讽刺识别研究", 《北京大学学报(自然科学版)》, vol. 55, no. 1, 22 August 2018 (2018-08-22), pages 29 - 36 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580366A (zh) * 2020-11-30 2021-03-30 科大讯飞股份有限公司 情绪识别方法以及电子设备、存储装置
CN113158656A (zh) * 2020-12-25 2021-07-23 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN113158656B (zh) * 2020-12-25 2024-05-14 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN117556802A (zh) * 2024-01-12 2024-02-13 碳丝路文化传播(成都)有限公司 一种基于大语言模型的用户画像方法、装置、设备及介质
CN117556802B (zh) * 2024-01-12 2024-04-05 碳丝路文化传播(成都)有限公司 一种基于大语言模型的用户画像方法、装置、设备及介质

Also Published As

Publication number Publication date
CN111859980B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
US20230100376A1 (en) Text sentence processing method and apparatus, computer device, and storage medium
CN110609891B (zh) 一种基于上下文感知图神经网络的视觉对话生成方法
CN111371806B (zh) 一种Web攻击检测方法及装置
CN108960073B (zh) 面向生物医学文献的跨模态图像模式识别方法
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
WO2023024412A1 (zh) 基于深度学习模型的视觉问答方法及装置、介质、设备
CN112364638B (zh) 一种基于社交文本的人格识别方法
CN111859980B (zh) 讽刺类型的文本识别方法、装置、设备及计算机可读介质
CN113392209B (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN111626362A (zh) 图像处理方法、装置、计算机设备和存储介质
CN111159485A (zh) 尾实体链接方法、装置、服务器及存储介质
CN111475622A (zh) 一种文本分类方法、装置、终端及存储介质
Xiao et al. Multi-sensor data fusion for sign language recognition based on dynamic Bayesian network and convolutional neural network
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
WO2023179429A1 (zh) 一种视频数据的处理方法、装置、电子设备及存储介质
CN113961666B (zh) 关键词识别方法、装置、设备、介质及计算机程序产品
CN114298287A (zh) 基于知识蒸馏的预测方法和装置、电子设备、存储介质
CN114358201A (zh) 基于文本的情感分类方法和装置、计算机设备、存储介质
CN116578688A (zh) 基于多轮问答的文本处理方法、装置、设备及存储介质
Das et al. A deep sign language recognition system for Indian sign language
CN114691864A (zh) 文本分类模型训练方法及装置、文本分类方法及装置
CN114880427A (zh) 基于多层级注意力机制的模型、事件论元抽取方法及系统
CN114444476A (zh) 信息处理方法、装置和计算机可读存储介质
CN111859979A (zh) 讽刺文本协同识别方法、装置、设备及计算机可读介质
CN111723572A (zh) 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant