CN112749275B - 一种数据处理方法以及设备 - Google Patents

一种数据处理方法以及设备 Download PDF

Info

Publication number
CN112749275B
CN112749275B CN202010441254.2A CN202010441254A CN112749275B CN 112749275 B CN112749275 B CN 112749275B CN 202010441254 A CN202010441254 A CN 202010441254A CN 112749275 B CN112749275 B CN 112749275B
Authority
CN
China
Prior art keywords
vector
text
target
emotion
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010441254.2A
Other languages
English (en)
Other versions
CN112749275A (zh
Inventor
刘巍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010441254.2A priority Critical patent/CN112749275B/zh
Publication of CN112749275A publication Critical patent/CN112749275A/zh
Application granted granted Critical
Publication of CN112749275B publication Critical patent/CN112749275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例公开一种数据处理方法以及设备,其中方法包括如下步骤:获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;根据所述词向量生成目标文本对应的第一文本向量;根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量;根据所述第三文本向量,生成所述目标词汇的情感概率向量;根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。采用本申请,可以提高预测文本中词汇的情感类别的准确性。

Description

一种数据处理方法以及设备
技术领域
本申请涉及互联网技术领域,尤其涉及一种数据处理方法以及设备。
背景技术
近年来,目标情感分析预测作为情感分析任务,已成为自然语言处理领域的研究热点之一。目标情感分析需要针对文本中不同的目标词汇来分析其情感极性,这不仅依赖于文本的上下文信息,同时也要考虑文本中不同目标的情感信息。例如句子“Good foodbut dreadful service at that restaurant”,目标词“food”是积极情感,而目标词“service”则是消极情感。所以在同一个文本中不同的目标词可能会出现相反的情感极性。传统的情感分析方法中,文本中词汇的词向量的生成没有考虑单词之间相对位置的关系,同时,词向量可能非常长,同一句子中的不同目标往往被预测为相同的情感极性,导致目标情感分析结果的准确性大大降低。
发明内容
本申请实施例提供一种数据处理方法以及设备,可以提高预测文本中词汇的情感类别的准确性。
本申请实施例一方面提供了一种数据处理方法,可包括:
获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;
根据所述词向量生成目标文本对应的第一文本向量;
根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量;
根据所述第三文本向量,生成所述目标词汇的情感概率向量;
根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
其中,所述获取目标文本中的词汇的词向量,包括:
将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量。
其中,所述根据所述词向量生成目标文本对应的第一文本向量,包括:
将所述目标文本中的词汇的词向量作为卷积层的输入,通过卷积层进行卷积处理;
将所述卷积处理后的词向量通过全连接层,生成与词向量的维度相同的第一文本向量。
其中,所述根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,包括:
将所述第一文本向量和目标词向量相加,得到第二文本向量,所述第二文本向量与所述词向量的维度相同;
将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果;
将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量;
所述分类网络模型包括第一块结构和第二块结构。
其中,所述将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果,包括:
将第二文本向量作为第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量;
将所述第一待处理文本向量与所述第二文本向量相加得到第一向量卷积结果。
其中,所述将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量,包括:
将所述第一向量卷积结果作为第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量;
将所述第二待处理文本向量与所述第一向量卷积结果相加得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量。
其中,所述根据所述第三文本向量,生成所述目标词汇的情感概率向量,包括:
将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;
根据所述分量对应的情感概率确定所述目标词汇的情感概率向量。
其中,所述根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别,包括:
当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别;
当所述情感概率向量为多维向量时,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
本申请实施例一方面提供了一种数据处理设备,可包括:
词向量获取单元,用于获取目标文本中的词汇的词向量;
目标词汇获取单元,用于从目标文本中获取具有情感特征的目标词汇;
第一文本向量生成单元,用于根据所述词向量生成目标文本对应的第一文本向量;
第三文本向量生成单元,用于根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量;
情感概率向量生成单元,用于根据所述第三文本向量,生成所述目标词汇的情感概率向量;
情感类别确定单元,用于根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
其中,所述词向量获取单元具体用于:
将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量。
其中,所述第一文本向量生成单元具体用于:
将所述目标文本中的词汇的词向量作为卷积层的输入,通过卷积层进行卷积处理;
将所述卷积处理后的词向量通过全连接层,生成与词向量的维度相同的第一文本向量。
其中,所述第三文本向量生成单元,包括:
第二文本向量生成子单元,用于将所述第一文本向量和目标词向量相加,得到第二文本向量,所述第二文本向量与所述词向量的维度相同;
第一卷积结果生成子单元,用于将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果;
第二卷积结果生成子单元,用于将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量;
所述分类网络模型包括第一块结构和第二块结构。
其中,所述第一卷积结果生成子单元具体用于:
将第二文本向量作为第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量;
将所述第一待处理文本向量与所述第二文本向量相加得到第一向量卷积结果。
其中,所述第二卷积结果生成子单元具体用于:
将所述第一向量卷积结果作为第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量;
将所述第二待处理文本向量与所述第一向量卷积结果相加得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量。
其中,所述情感概率向量生成单元具体用于:
将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;
根据所述分量对应的情感概率确定所述目标词汇的情感概率向量。
其中,所述情感类别确定单元具体用于:
当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别;
当所述情感概率向量为多维向量时,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
本申请实施例一方面提供了一种计算机可读存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
本申请实施例一方面提供了一种计算机设备,包括处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
在本申请实施例中,通过获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;根据所述词向量生成目标文本对应的第一文本向量,进一步根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,根据所述第三文本向量,生成所述目标词汇的情感概率向量,最后根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。不同的目标词汇在目标文本中所处的位置不同,与目标文本对应的词向量生成的向量进行卷积处理,得到不同的向量卷积结果,避免了同一目标文本中的不同目标被预测为相同的情感极性,提高了预测文本中词汇的情感类别的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种数据处理的系统架构图;
图2是本申请实施例提供的一种数据处理方法的流程示意图;
图3是本申请实施例提供的一种数据处理方法的流程示意图;
图4a是本申请实施例提供的一种数据处理的场景示意图;
图4b是本申请实施例提供的一种块结构的结构示意图;
图5是本申请实施例提供的一种数据处理设备的结构示意图;
图6是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,是本发明实施例提供的一种数据处理的系统架构图。服务器10f通过交换机10e和通信总线10d与用户终端集群建立连接,用户终端集群可包括:用户终端10a、用户终端10b、...、用户终端10c。数据库10g中存储了分类网络模型,服务器10f获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇,根据所述词向量生成目标文本对应的第一文本向量,进一步根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果,服务器10f将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量,根据所述第三文本向量,生成所述目标词汇的情感概率向量,最后根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
所述用户终端包括:平板电脑、智能手机、个人电脑(PC)、笔记本电脑、掌上电脑等终端设备。
请参见图2,为本申请实施例提供了一种数据处理方法的流程示意图。如图2所示,本申请实施例的所述方法可以包括以下步骤S101-步骤S105。
S101,获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;
具体的,数据处理设备获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇,可以理解的是,所述数据处理设备可以是图1中的服务器10f,所述目标文本为包括多个词汇的一段文字,目标文本可以是各种语言类型的文字,具体的可以是中文或者是英文,词向量是将来自词汇表的单词或短语映射到实数生成向量的过程,每个词汇对应一个词向量,可以通过神经网络或者是词汇的共生矩阵生成词汇对应的词向量,生成词向量的模型包括:Glove模型、skip-gram模型、CBOW模型等,目标文本中词向量的维度均相同,所述目标词汇为目标文本中的具有情感特征的词汇,目标词汇是选择的用于预测情感类别的词汇,目标文本中目标词汇可以有多个。
S102,根据所述词向量生成目标文本对应的第一文本向量;
具体的,数据处理设备根据所述词向量生成目标文本对应的第一文本向量,可以理解的是,根据目标文本中每个词汇的词向量生成目标文本对应的第一文本向量,所述第一文本向量与词向量的维度相同,具体的,可以将目标文本中每个词汇的词向量作为卷积神经网络的输入,对目标文本的词向量进行卷积处理,通过卷积神经网络输出与词向量维度相同的向量,将所述向量作为目标文本对应的第一文本向量,所述第一文本向量中包含目标文本中所有词向量的特征信息。
S103,根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量;
具体的,数据处理设备根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,可以理解的是,所述第二文本向量是由第一文本向量和目标词汇的目标词向量生成的,具体可以是将第一文本向量和目标词向量相加生成第二文本向量,将第二文本向量输入网络分类模型中进行卷积处理,得到向量卷积结果,所述网络分类模型可以是分类模型中的RESNET模型,RESNET模型中包括多个块结构,每个块结构均可对向量进行卷积处理得到向量卷积结果,前一个块结构的输出为后一个块结构的输入,最后一个块结构的输出为整个网络分类模型的输出,向量卷积结果可以为任意一个块结构的输出,最后根据第二文本向量和向量卷积结果生成第三文本向量。
S104,根据所述第三文本向量,生成所述目标词汇的情感概率向量;
具体的,数据处理设备根据所述第三文本向量,生成所述目标词汇的情感概率向量,可以理解的是,所述第三文本向量用于生成目标词汇的情感概率向量,具体可以通过逻辑回归函数将第三文本向量映射至0至1的概率分布内,具体可以采用softmax函数,将第三文本向量中的分量映射为0至1之间的实数,并且归一化处理,第三文本向量中各分量对应的实数的和为1,将通过softmax函数处理后的第三文本向量确定为所述目标词汇的情感概率向量,所述情感概率向量可以为一维或者多维。
S105,根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
具体的,数据处理设备根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别,可以理解的是,根据所述情感概率向量和情感概率向量的向量维度确定所述目标词汇在所述目标文本中的情感类别,当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别,当所述情感概率向量为多维向量时,情感概率向量的每一个分量对应一个情感类别,根据选择的分量确定情感类别,具体的,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
在本申请实施例中,通过获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;根据所述词向量生成目标文本对应的第一文本向量,进一步根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,根据所述第三文本向量,生成所述目标词汇的情感概率向量,最后根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。不同的目标词汇在目标文本中所处的位置不同,与目标文本对应的词向量生成的向量进行卷积处理,得到不同的向量卷积结果,避免了同一目标文本中的不同目标被预测为相同的情感极性,提高了预测文本中词汇的情感类别的准确性。
请参见图3,为本申请实施例提供了一种数据处理方法的流程示意图。如图3所示,本申请实施例的所述方法可以包括以下步骤S201-步骤S208。
S201,将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量。
具体的,数据处理设备将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量,可以理解的是,所述词向量转换模型是经过训练后的模型,具体可以是Glove模型、skip-gram模型、CBOW模型,以Glove模型进行说明,将所述目标文本输入转换模型,采用一个检测窗口获取目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数生成目标文本的共现矩阵,共现矩阵是任意两个词汇在在同一个检测窗口中出现的次数,检测窗口的长度是固定的,根据所述共现矩阵和转换模型输出目标文本中的词汇的词向量。
S202,从目标文本中获取具有情感特征的目标词汇;
具体的,数据处理设备从目标文本中获取具有情感特征的目标词汇,可以理解的是,所述目标词汇为目标文本中的具有情感特征的词汇,目标词汇是选择的用于预测情感类别的词汇,目标文本中目标词汇可以有多个。
S203,将所述目标文本中的词汇的词向量作为卷积层的输入,通过卷积层进行卷积处理;将所述卷积处理后的词向量通过全连接层,生成与词向量的维度相同的第一文本向量。
具体的,数据处理设备将所述目标文本中的词汇的词向量作为卷积层的输入,通过卷积层进行卷积处理,将所述卷积处理后的词向量通过全连接层,生成与词向量的维度相同的第一文本向量,可以理解的是,将目标文本中每个词汇的词向量作为卷积神经网络的输入,对目标文本的词向量进行卷积处理,将所述卷积处理后的词向量通过全连接层进行处理,通过全连接层可以输出的向量的维度与词向量维度相同,将卷积神经网络的输出作为目标文本对应的第一文本向量,所述第一文本向量中包含目标文本中所有词向量的特征信息。
S204,将所述第一文本向量和目标词向量相加,得到第二文本向量,所述第二文本向量与所述词向量的维度相同;
具体的,数据处理设备将所述第一文本向量和目标词向量相加,得到第二文本向量,可以理解的是,第一文本向量和目标词向量的维度相同,通过向量的加法生成得到第二文本向量,所述第二文本向量与所述目标词向量的维度相同。
S205,将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果;
具体的,数据处理设备将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果,可以理解的是,所述网络分类模型可以是分类模型中的RESNET模型,所述分类网络模型包括第一块结构和第二块结构,将第二文本向量作为分类网络模型中第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,通过标准化处理,可以提高RESNET模型的稳定性,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量,将所述第一待处理文本向量与所述第二文本向量相加得到第一向量卷积结果。
S206,将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量;
具体的,数据处理设备将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量,可以理解的是,将所述第一向量卷积结果作为分类网络模型中的第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量,将所述第二待处理文本向量与所述第一向量卷积结果相加得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量。
需要说明的是,所述分类网络模型中不仅仅限于包括两个块结构,也可以包括两个以上的块结构,当分类网络模型中包括两个以上的块结构时,在得到第二向量卷积结果之后,将第二向量卷积结果作为后续块结构的输入,将最后一个块结构的输出的向量卷积结果确定为第三文本向量。
S207,将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;根据所述分量对应的情感概率确定所述目标词汇的情感概率向量。
具体的,数据处理设备将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;根据所述分量对应的情感概率确定所述目标词汇的情感概率向量,可以理解的是,具体可以采用softmax函数,将第三文本向量中的分量映射为0至1之间的实数,并且归一化处理,第三文本向量中各分量对应的实数的和为1,具体的,将所述第三文本向量的分量进行指数运算,生成每个分量的指数运算结果,计算每个分量的指数运算结果与所有分量的运算结果之和的比值,将每个分量的比值确定为所述分量对应的情感概率,根据所述分量对应的情感概率确定所述目标词汇的情感概率向量,所述情感概率向量可以为一维或者多维。
S208,当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别;当所述情感概率向量为多维向量时,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
具体的,当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别,例如,情感概率向量为0.8,情感类别对应的特征分数区间为0-5,则情感概率向量映射至特征分数区间的特征分数为4,若特征分数区间处于3-5的范围,情感类别为积极,则上述目标词汇的情感类别为积极。
当所述情感概率向量为多维向量时,情感概率向量的每一个分量对应一个情感类别,根据选择的分量确定情感类别,具体的,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别,例如,情感概率向量为[0.90.05 0.05],情感概率向量中第一分量对应的情感类别为积极,第二分量对应的情感类别为中立,第三分量对应的情感类别为消极,则上述情感概率向量的分量的最大值为第一分量,则目标词汇的情感类别为积极。
在本申请实施例中,通过获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;根据所述词向量生成目标文本对应的第一文本向量,进一步根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,根据所述第三文本向量,生成所述目标词汇的情感概率向量,最后根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。不同的目标词汇在目标文本中所处的位置不同,与目标文本对应的词向量生成的向量进行卷积处理,得到不同的向量卷积结果,避免了同一目标文本中的不同目标被预测为相同的情感极性,提高了预测文本中词汇的情感类别的准确性。
下面将结合图4a,为本申请实施例提供的具体实施场景进行说明,如图4a所示。目标文本中包括n个词汇,每个词汇通过词嵌入层得到词汇对应的词向量,词汇1的词向量为的词向量1,词汇2的词向量为的词向量2,词汇n的词向量为的词向量n,目标文本中的目标词汇对应的词向量为目标词向量,将词向量1、词向量2、...词向量n通过卷积层的卷积处理生成第一文本向量,将第一文本向量和目标词向量相加生成第二文本向量,将第二文本向量输入至分类网络模型中的块结构1进行卷积处理,得到第一向量卷积结果,将第一向量卷积结果输入至分类网络模型中的块结构2进行卷积处理,得到第二向量卷积结果,将第二向量卷积结果作为后续块结构的输入,将块结构n输出的向量卷积结果确定为第三文本向量,采用softmax函数,将第三文本向量中的分量映射为0至1之间的实数,生成所述目标词汇的情感概率向量,根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。请参见图4b,为本申请实施例提供了一种块结构的结构示意图明,如图4b所示,以块结构1进行说明,将输入的第二文本向量通过卷积层进行卷积处理,通过批标准化层的标准化处理和激活函数得到待处理向量,将待处理向量与第二文本向量相加作为块结构1的输出。
下面通过实验数据对本发明中的方法进行检验:
表1不同的情感分析方法在不同的数据集中测试的正确率
如表1所示,表1中包括五种情感分析方法“ATAE_LSTM”、“CNN”、“GCN”、“GCAE”以及本申请中的方法和四个数据集“Restaurant-Large”、“Restaurant-Large-Hard”、“Restaurant-2014”和“Restaurant-2014-Hard”,从表中可以看出本申请中的方法相比其他方法,在各数据集中对目标词进行情感分析的正确率均是最高的,采用本申请中的方法可以提高预测文本中词汇的情感类别的准确性。
请参见图5,为本申请实施例提供了一种数据处理设备的结构示意图。所述数据处理设备可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该数据处理设备为一个应用软件;该设备可以用于执行本申请实施例提供的方法中的相应步骤。如图5所示,本申请实施例的所述数据处理设备1可以包括:词向量获取单元11、目标词汇获取单元12、第一文本向量生成单元13、第三文本向量生成单元14、情感概率向量生成单元15、情感类别确定单元16。
词向量获取单元11,用于获取目标文本中的词汇的词向量;
目标词汇获取单元12,用于从目标文本中获取具有情感特征的目标词汇;
第一文本向量生成单元13,用于根据所述词向量生成目标文本对应的第一文本向量;
第三文本向量生成单元14,用于根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量;
情感概率向量生成单元15,用于根据所述第三文本向量,生成所述目标词汇的情感概率向量;
情感类别确定单元16,用于根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
所述词向量获取单元11具体用于:
将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量。
所述第一文本向量生成单元13具体用于:
将所述目标文本中的词汇的词向量作为卷积层的输入,通过卷积层进行卷积处理;
将所述卷积处理后的词向量通过全连接层,生成与词向量的维度相同的第一文本向量。
请参见图5,本申请实施例的所述第三文本向量生成单元14可以包括:第二文本向量生成子单元141、第一卷积结果生成子单元142、第二卷积结果生成子单元143;
第二文本向量生成子单元141,用于将所述第一文本向量和目标词向量相加,得到第二文本向量,所述第二文本向量与所述词向量的维度相同;
第一卷积结果生成子单元142,用于将第二文本向量输入至分类网络模型中的第一块结构进行卷积处理,得到第一向量卷积结果;
第二卷积结果生成子单元143,用于将所述第一向量卷积结果输入至分类网络模型中的第二块结构进行卷积处理,得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量;
所述分类网络模型包括第一块结构和第二块结构。
所述第一卷积结果生成子单元142具体用于:
将第二文本向量作为第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量;
将所述第一待处理文本向量与所述第二文本向量相加得到第一向量卷积结果。
所述第二卷积结果生成子单元143具体用于:
将所述第一向量卷积结果作为第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量;
将所述第二待处理文本向量与所述第一向量卷积结果相加得到第二向量卷积结果,将所述第二向量卷积结果确定为第三文本向量。
所述情感概率向量生成单元15具体用于:
将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;
根据所述分量对应的情感概率确定所述目标词汇的情感概率向量。
所述情感类别确定单元16具体用于:
当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别;
当所述情感概率向量为多维向量时,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
在本申请实施例中,通过获取目标文本中的词汇的词向量,从目标文本中获取具有情感特征的目标词汇;根据所述词向量生成目标文本对应的第一文本向量,进一步根据所述第一文本向量和所述目标词汇的目标词向量生成第二文本向量,对所述第二文本向量进行卷积处理,得到向量卷积结果,根据所述第二文本向量和所述向量卷积结果,生成第三文本向量,根据所述第三文本向量,生成所述目标词汇的情感概率向量,最后根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。不同的目标词汇在目标文本中所处的位置不同,与目标文本对应的词向量生成的向量进行卷积处理,得到不同的向量卷积结果,避免了同一目标文本中的不同目标被预测为相同的情感极性,提高了预测文本中词汇的情感类别的准确性。
请参见图6,为本申请实施例提供了一种计算机设备的结构示意图。如图6所示,所述计算机设备1000可以包括:至少一个处理器1001,例如CPU,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图6所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及数据处理应用程序。
在图6所示的计算机设备1000中,网络接口1004可提供网络通讯功能,用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的数据处理应用程序,以实现上述图2-图4b任一个所对应实施例中对所述数据处理方法的描述,在此不再赘述。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图2-图4b任一个所对应实施例中对所述数据处理方法的描述,也可执行前文图5所对应实施例中对所述数据处理设备的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且所述计算机可读存储介质中存储有前文提及的数据处理设备所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图2-图4b任一个所对应实施例中对所述数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。作为示例,程序指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行,分布在多个地点且通过通信网络互连的多个计算设备可以组成区块链系统。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。

Claims (7)

1.一种数据处理方法,其特征在于,包括:
获取目标文本中的词汇的词向量,从所述目标文本中获取具有情感特征的目标词汇;
将所述目标文本中的词汇的词向量作为卷积神经网络的输入,对所述目标文本中的词汇的词向量进行卷积处理,通过所述卷积神经网络输出与词向量维度相同的第一文本向量;
将所述第一文本向量和所述目标词汇的目标词向量相加,得到第二文本向量,将所述第二文本向量作为分类网络模型所包含的n个块结构中的第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量,将所述第一待处理文本向量和所述第二文本向量相加得到第一向量卷积结果;
将所述第一向量卷积结果作为所述分类网络模型中的第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量,将所述第二待处理文本向量和所述第一向量卷积结果相加得到第二向量卷积结果,将所述分类网络模型中的第n个块结构对应的向量卷积结果确定为第三文本向量;n为大于1的整数;所述分类网络模型中的任一个块结构包括输入、卷积层、批标准化层、激活函数以及输出;
根据所述第三文本向量,生成所述目标词汇的情感概率向量;
根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
2.根据权利要求1所述的方法,其特征在于,所述获取目标文本中的词汇的词向量,包括:
将所述目标文本输入词向量转换模型,统计目标文本中的词汇在检测窗口中出现的次数,通过所述词汇在检测窗口中出现的次数和词向量转换模型生成目标文本中的词汇的词向量。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第三文本向量,生成所述目标词汇的情感概率向量,包括:
将所述第三文本向量的分量进行指数运算,根据所述分量的指数运算结果生成所述第三文本向量的分量对应的情感概率;
根据所述分量对应的情感概率确定所述目标词汇的情感概率向量。
4.根据权利要求1所述的方法,其特征在于,所述根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别,包括:
当所述情感概率向量为一维向量时,将所述情感概率向量映射至情感类别对应的特征分数区间,生成情感概率向量对应的特征分数,根据所述特征分数确定所述目标词汇在所述目标文本中的情感类别;
当所述情感概率向量为多维向量时,获取所述情感概率向量中分量的最大值,根据所述最大值确定所述目标词汇在所述目标文本中的情感类别。
5.一种数据处理设备,其特征在于,包括:
词向量获取单元,用于获取目标文本中的词汇的词向量;
目标词汇获取单元,用于从所述目标文本中获取具有情感特征的目标词汇;
第一文本向量生成单元,用于将所述目标文本中的词汇的词向量作为卷积神经网络的输入,对所述目标文本中的词汇的词向量进行卷积处理,通过所述卷积神经网络输出与词向量维度相同的第一文本向量;
第三文本向量生成单元,用于将所述第一文本向量和所述目标词汇的目标词向量相加,得到第二文本向量,将所述第二文本向量作为分类网络模型所包含的n个块结构中的第一块结构的输入,将所述第二文本向量通过卷积处理,对通过卷积处理后的第二文本向量进行标准化处理,将标准化处理后的第二文本向量通过全连接层生成第一待处理文本向量,将所述第一待处理文本向量和所述第二文本向量相加得到第一向量卷积结果;
所述第三文本向量生成单元,还用于将所述第一向量卷积结果作为所述分类网络模型中的第二块结构的输入,将所述第一向量卷积结果通过卷积处理,对通过卷积处理后的所述第一向量卷积结果进行标准化处理,将标准化处理后的所述第一向量卷积结果通过全连接层生成第二待处理文本向量,将所述第二待处理文本向量和所述第一向量卷积结果相加得到第二向量卷积结果,将所述分类网络模型中的第n个块结构对应的向量卷积结果确定为第三文本向量;n为大于1的整数;所述分类网络模型中的任一个块结构包括输入、卷积层、批标准化层、激活函数以及输出;
情感概率向量生成单元,用于根据所述第三文本向量,生成所述目标词汇的情感概率向量;
情感类别确定单元,用于根据所述情感概率向量确定所述目标词汇在所述目标文本中的情感类别。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1-4任一项所述的方法。
7.一种计算机设备,其特征在于,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1-4任意一项的方法步骤。
CN202010441254.2A 2020-05-22 2020-05-22 一种数据处理方法以及设备 Active CN112749275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010441254.2A CN112749275B (zh) 2020-05-22 2020-05-22 一种数据处理方法以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010441254.2A CN112749275B (zh) 2020-05-22 2020-05-22 一种数据处理方法以及设备

Publications (2)

Publication Number Publication Date
CN112749275A CN112749275A (zh) 2021-05-04
CN112749275B true CN112749275B (zh) 2024-05-14

Family

ID=75645207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010441254.2A Active CN112749275B (zh) 2020-05-22 2020-05-22 一种数据处理方法以及设备

Country Status (1)

Country Link
CN (1) CN112749275B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536815A (zh) * 2018-04-08 2018-09-14 北京奇艺世纪科技有限公司 一种文本分类方法及装置
CN109753566A (zh) * 2019-01-09 2019-05-14 大连民族大学 基于卷积神经网络的跨领域情感分析的模型训练方法
WO2019105134A1 (zh) * 2017-11-30 2019-06-06 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
WO2019174423A1 (zh) * 2018-03-16 2019-09-19 北京国双科技有限公司 实体情感分析方法及相关装置
CN110377740A (zh) * 2019-07-22 2019-10-25 腾讯科技(深圳)有限公司 情感极性分析方法、装置、电子设备及存储介质
CN111143567A (zh) * 2019-12-30 2020-05-12 成都数之联科技有限公司 一种基于改进神经网络的评论情感分析方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168952B (zh) * 2017-05-15 2021-06-04 北京百度网讯科技有限公司 基于人工智能的信息生成方法和装置
CN107133202A (zh) * 2017-06-01 2017-09-05 北京百度网讯科技有限公司 基于人工智能的文本校验方法和装置
US20200073485A1 (en) * 2018-09-05 2020-03-05 Twitter, Inc. Emoji prediction and visual sentiment analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019105134A1 (zh) * 2017-11-30 2019-06-06 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
WO2019174423A1 (zh) * 2018-03-16 2019-09-19 北京国双科技有限公司 实体情感分析方法及相关装置
CN108536815A (zh) * 2018-04-08 2018-09-14 北京奇艺世纪科技有限公司 一种文本分类方法及装置
CN109753566A (zh) * 2019-01-09 2019-05-14 大连民族大学 基于卷积神经网络的跨领域情感分析的模型训练方法
CN110377740A (zh) * 2019-07-22 2019-10-25 腾讯科技(深圳)有限公司 情感极性分析方法、装置、电子设备及存储介质
CN111143567A (zh) * 2019-12-30 2020-05-12 成都数之联科技有限公司 一种基于改进神经网络的评论情感分析方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
卷积神经网络下的Twitter文本情感分析;王煜涵;张春云;赵宝林;袭肖明;耿蕾蕾;崔超然;;数据采集与处理;20180915(第05期);第921-927页 *
基于BERT-CNN的电商评论情感分析;史振杰;董兆伟;庞超逸;张百灵;孙立辉;;智能计算机与应用;20200201(第02期);第7-11页 *
基于序列卷积网络的Twitter情感分类;高巍 等;计算机工程与设计;第1314-1319页 *
基于改进的卷积记忆神经网络的文本情感分类;陈可嘉;郑晶晶;;武汉理工大学学报(信息与管理工程版);20200215(第01期);第86-92页 *
陈云霁 等.智能计算系统.北京:机械工业出版社,2020,第66-70页. *

Also Published As

Publication number Publication date
CN112749275A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN108959246B (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
US11640515B2 (en) Method and neural network system for human-computer interaction, and user equipment
WO2020182122A1 (zh) 用于生成文本匹配模型的方法和装置
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN109033068B (zh) 基于注意力机制的用于阅读理解的方法、装置和电子设备
CN108427707B (zh) 人机问答方法、装置、计算机设备和存储介质
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
JP2021089705A (ja) 翻訳品質を評価するための方法と装置
US20210294972A1 (en) Data processing method and pronoun resolution neural network training method
CN112100354B (zh) 人机对话方法、装置、设备及存储介质
CN108595629B (zh) 用于答案选择系统的数据处理方法及应用
CN110765785B (zh) 基于神经网络的中英翻译方法、及其相关设备
WO2021189951A1 (zh) 文本搜索方法、装置、计算机设备和存储介质
CN115438166A (zh) 基于关键词和语义的搜索方法、装置、设备及存储介质
CN112926308B (zh) 匹配正文的方法、装置、设备、存储介质以及程序产品
CN111339308B (zh) 基础分类模型的训练方法、装置和电子设备
CN113434636A (zh) 基于语义的近似文本搜索方法、装置、计算机设备及介质
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
KR102608867B1 (ko) 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램
CN111460117A (zh) 对话机器人意图语料生成方法、装置、介质及电子设备
CN110727769A (zh) 语料库生成方法及装置、人机交互处理方法及装置
CN113239697B (zh) 实体识别模型训练方法、装置、计算机设备及存储介质
CN114281996A (zh) 长文本分类方法、装置、设备及存储介质
WO2023116572A1 (zh) 一种词句生成方法及相关设备
CN116680401A (zh) 文档处理方法、文档处理装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40049234

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant