CN114519353A - 模型的训练方法、情感消息生成方法和装置、设备、介质 - Google Patents

模型的训练方法、情感消息生成方法和装置、设备、介质 Download PDF

Info

Publication number
CN114519353A
CN114519353A CN202210160985.9A CN202210160985A CN114519353A CN 114519353 A CN114519353 A CN 114519353A CN 202210160985 A CN202210160985 A CN 202210160985A CN 114519353 A CN114519353 A CN 114519353A
Authority
CN
China
Prior art keywords
emotion
preliminary
neural network
message
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210160985.9A
Other languages
English (en)
Other versions
CN114519353B (zh
Inventor
舒畅
陈又新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210160985.9A priority Critical patent/CN114519353B/zh
Priority to PCT/CN2022/090670 priority patent/WO2023159759A1/zh
Publication of CN114519353A publication Critical patent/CN114519353A/zh
Application granted granted Critical
Publication of CN114519353B publication Critical patent/CN114519353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本实施例提供一种模型的训练方法、情感消息生成方法和装置、设备、介质,属于人工智能技术领域。包括:获取对话数据集,将对话数据进行预处理得到初步数据集;通过预设的情感分类器对初步数据集进行情感标注得到初步情感标签;通过第一神经网络对初步数据集和初步情感标签进行初步编码得到初步编码向量;通过第二神经网络对初步编码向量进行解码得到目标情感消息;根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。通过进行情感标注处理的数据集训练初步情感标签,并通过情感回复的多样性需求对神经网络模型进行初步编码和解码处理,以训练得到情感生成模型,使情感生成模型能够针对问题消息生成不同情感的目标情感消息。

Description

模型的训练方法、情感消息生成方法和装置、设备、介质
技术领域
本公开实施例涉及人工智能技术领域,尤其涉及一种模型的训练方法、情感消息生成方法和装置、设备、介质。
背景技术
随着人工智能技术的发展,聊天机器人的使用率也逐渐提升,其中聊天机器人能够根据用户输入的问题消息自动生成相应的应答消息。目前的聊天机器人主要是通过参照上一轮对话的情感特征,生成与之对应情感的情感消息。但是,由于只能固定的情感特征,这一方式往往使得生成的情感消息的情感比较单一。
发明内容
本公开实施例的主要目的在于提出一种模型的训练方法、情感消息生成方法和装置、设备、介质,通过训练神经网络模型,能够使神经网络模型生成多种情感的情感消息。
为实现上述目的,本公开实施例的第一方面提出了一种模型的训练方法,用于训练情感消息生成模型,训练方法包括:
获取对话数据集;
对所述对话数据集进行预处理,得到初步数据集;
通过预设的情感分类器对所述初步数据集进行情感标注处理,得到初步情感标签;
将所述初步数据集和所述初步情感标签输入至预设的神经网络模型;其中,所述神经网络模型包括第一神经网络和第二神经网络;
通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量;
通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息;
根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型。
在一些实施例,所述初步编码向量包括分词编码向量和情感标签向量;所述通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量,包括:
对所述初步数据集进行分词处理,得到至少两个分词数据;
将每一所述多个分词数据输入至所述第一神经网络进行第一编码处理,得到至少两个所述分词编码向量;
将所述初步情感标签输入至所述第一神经网络进行第二编码处理,得到所述情感标签向量。
在一些实施例,所述通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息,包括:
获取预先训练好的多个参考情感标签;
将所述分词编码向量和所述情感标签向量输入至所述第二神经网络,以使所述第二神经网络根据所述参考情感标签对所述分词编码向量进行解码处理及对所述情感标签向量进行解码处理,得到对应所述参考情感标签的多个初步分词;
根据所述多个初步分词,得到所述目标情感消息。
在一些实施例,所述根据所述多个初步分词,得到所述目标情感消息,包括:
获取预设分词类别;
根据所述预设分词类别对所述初步分词进行类别划分,得到所述初步分词的词类别和标量权重;
将所述初步分词输入至预设的分词分类器进行分类处理,得到分词概率;
根据所述标量权重和所述分词概率进行概率计算,得到生成概率;
获取最大的生成概率所对应的所述初步分词,作为目标分词;
根据所述目标分词,得到所述目标情感消息。
在一些实施例,所述第二神经网络包括多层门控循环单元,所述根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型,包括:
根据所述情感标签向量、所述目标情感消息和预设的注意力机制向量,对每一层的所述门控循环单元的隐藏状态向量进行情感约束处理,得到多个目标情感向量;
根据所述多个目标情感向量对所述神经网络模型的损失函数进行计算,得到目标损失值;
使用反向传播算法最小化所述目标损失值,以更新所述神经网络模型的模型参数,得到所述情感消息生成模型。
本公开实施例的第二方面提出了一种情感消息生成方法,用于生成目标情感消息,包括:
获取原始问题消息;
将所述原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息;其中,所述目标情感消息为应答情感消息,所述情感消息生成模型如本公开实施例第一方面实施例任一项所述的训练方法训练得到。
本公开实施例的第三方面提出了一种模型的训练装置,用于训练情感消息生成模型,包括:
第一获取模块:用于获取对话数据集;
预处理模块:用于对所述对话数据集进行预处理,得到初步数据集;
标注模块:用于通过预设的情感分类器对所述初步数据集进行情感标注处理,得到初步情感标签;
输入模块:用于将所述初步数据集和所述初步情感标签输入至预设的神经网络模型;其中,所述神经网络模型包括第一神经网络和第二神经网络;
编码模块:用于通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量;
解码模块:用于通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息;
训练模块:用于根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型。
本公开实施例的第四方面提出了一种情感消息生成装置,用于生成目标情感消息,包括:
第二获取模块:用于获取原始问题消息;
消息生成模块:用于将所述原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息;所述情感消息生成模型如本公开实施例第一方面实施例任一项所述的训练方法训练得到。
本公开实施例的第五方面提出了一种计算机设备,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有程序,所述程序被所述处理器执行时所述处理器用于执行如本公开实施例第一方面实施例任一项所述的方法或如本公开实施例第二方面实施例任一项所述的方法。
本公开实施例的第六方面提出了一种存储介质,该存储介质为计算机可读存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如本公开实施例第一方面实施例任一项所述的方法或如本公开实施例第二方面实施例任一项所述的方法。
本公开实施例提出的模型的训练方法、情感消息生成方法和装置、设备、介质,通过获取对话数据集;对对话数据集进行预处理,得到初步数据集;通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;将初步数据集和初步情感标签输入至预设的神经网络模型;其中,神经网络模型包括第一神经网络和第二神经网络;通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。本公开实施例通过进行情感标注处理的数据集训练初步情感标签,并通过情感回复的多样性需求对神经网络模型进行初步编码和解码处理,以训练得到情感生成模型,使情感生成模型能够针对问题消息生成不同情感的目标情感消息。
附图说明
图1是本公开实施例提供的模型的训练方法的流程图;
图2是图1中的步骤S150的流程图;
图3是图1中的步骤S160的流程图;
图4是图3中的步骤S163的流程图;
图5是图1中的步骤S170的流程图;
图6是本公开实施例提供的情感消息生成方法的流程图;
图7是本公开实施例提供的模型的训练装置的模块结构框图;
图8是本公开实施例提供的情感消息生成装置的模块结构框图;
图9是本公开实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
循环神经网络(Recurrent Neural Network,RNN):RNN是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network),其中双向循环神经网络(BidirectionalRNN,Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理(Natural Language Processing,NLP),例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报。引入了卷积神经网络(Convolutional Neural Network,CNN)构筑的循环神经网络可以处理包含序列输入的计算机视觉问题。
门控循环单元(Gate Recurrent Unit,GRU):GRU是循环神经网络(RNN)中的一种门控机制,与其他门控机制相似,其旨在解决标准RNN中的梯度消失/爆炸问题并同时保留序列的长期信息。GRU在许多诸如语音识别的序列任务上与LSTM同样出色,不过它的参数比LSTM少,仅包含一个重置门(reset gate)和一个更新门(update gate)。
编码(encoder):编码,就是将输入序列转化成一个固定长度的向量;解码(decoder),就是将之前生成的固定向量再转化成输出序列;其中,输入序列可以是文字、语音、图像、视频;输出序列可以是文字、图像。
编码器-解码器(Encoder-Decoder):Encoder-Decoder是深度学习中常见的模型框架,很多常见的应用都是利用编码-解码框架设计的,Encoder和Decoder部分可以是任意文字、语音、图像和视频数据等,基于Encoder-Decoder可以设计出各种各样的模型。
HanLP:是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析、命名实体识别、短语提取、拼音转换、简繁转换等等。
jieba分词器:jieba分词器也叫结巴分词器,是一种开源分词器;中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块,在进行中文自然语言处理时,通常需要先进行分词,其中,常用jieba分词器进行分词;jieba分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG),再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。jieba分词支持三种分词模式:第一种是精确模式,该精确模式试图将句子最精确地切开,适合文本分析:第二种是全模式,该全模式是把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;第三种是搜索引擎模式,该搜索引擎模式是在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
Analyzer分词器:Analyzer分词器是专门处理分词的组件,一般包括三部分:Character Filters、Tokenizer(按照规则切分为单词)、Token Filters;其中,CharacterFilters主要用于处理原始文本,例如去除html、特殊字符;Tokenizer用于按照规则切分为单词;Token Filters用于将切分的单词加工,包括小写、删除stopwords(停用词),增加同义词等。
BERT(Bidirectional Encoder Representation from Transformers)模型:BERT模型进一步增加词向量模型泛化能力,充分描述字符级、词级、句子级甚至句间关系特征,基于Transformer构建而成。BERT中有三种embedding,即Token Embedding,SegmentEmbedding,Position Embedding;其中Token Embeddings是词向量,第一个单词是CLS标志,可以用于之后的分类任务;Segment Embeddings用来区别两种句子,因为预训练不光做LM还要做以两个句子为输入的分类任务;Position Embeddings,这里的位置词向量不是transfor中的三角函数,而是BERT经过训练学到的。但BERT直接训练一个positionembedding来保留位置信息,每个位置随机初始化一个向量,加入模型训练,最后就得到一个包含位置信息的embedding,最后这个position embedding和word embedding的结合方式上,BERT选择直接拼接。
Softmax分类器:Softmax分类器为逻辑回归分类器面对多个分类的一般化归纳,输出的是属于不同类别的概率值。
反向传播:反向传播的大致原理为,将训练集数据输入到神经网络的输入层,经过神经网络的隐藏层,最后达到神经网络的输出层并输出结果;由于神经网络的输出结果与实际结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层;在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。
梯度下降(Gradient Descent):Gradient Descent是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果需要求解损失函数的最大值,这时就需要用梯度上升法来迭代。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。
激活函数(Activation functions):激活函数对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中,在神经元中,输入的inputs通过加权,求和后,还被作用了一个函数,这个函数就是激活函数,引入激活函数是为了增加神经网络模型的非线性。
随着人工智能技术的发展,聊天机器人的使用率也逐渐提升,其中聊天机器人能够根据用户输入的问题消息自动生成相应的应答消息。目前的聊天机器人主要是通过参照上一轮对话的情感特征,生成与之对应情感的情感消息。但是,由于聊天机器人只能固定的情感特征,这一方式往往使得生成的情感消息始终只有一种情感。
基于此,本公开实施例提出一种模型的训练方法、情感消息生成方法和装置、设备、介质,通过获取对话数据集;对对话数据集进行预处理,得到初步数据集;通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;将初步数据集和初步情感标签输入至预设的神经网络模型;其中,神经网络模型包括第一神经网络和第二神经网络;通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。本公开实施例通过进行情感标注处理的数据集训练初步情感标签,并通过情感回复的多样性需求对神经网络模型进行初步编码和解码处理,以训练得到情感生成模型,使情感生成模型能够针对问题消息生成不同情感的目标情感消息。
本公开实施例提供模型的训练方法、情感消息生成方法和装置、计算机设备、存储介质,具体通过如下实施例进行说明,首先描述本公开实施例中的模型的训练方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本公开实施例提供的模型的训练方法,涉及人工智能领域。本公开实施例提供的模型的训练方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现模型的训练方法的应用等,但并不局限于以上形式。
本公开实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
参照图1,根据本公开实施例第一方面实施例的模型的训练方法,包括但不限于包括步骤S110至步骤S170。
步骤S110,获取对话数据集;
步骤S120,对对话数据集进行预处理,得到初步数据集;
步骤S130,通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;
步骤S140,将初步数据集和初步情感标签输入至预设的神经网络模型;
步骤S150,通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;
步骤S160,通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;
步骤S170,根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。
在一些实施例的步骤S110中,获取对话数据集,在实际应用中,对话数据集可通过对各类社交网络中进行收集得到,其中,对话数据集可包含中英文,对话数据集包括多句对话。
在一些实施例的步骤S120中,将对话数据集进行预处理,得到初步数据集,由于一开始收集到的对话数据集还不符合模型训练的要求,所以在将对话数据集输入至神经网络模型之前,需要将对话数据集进行数据清洗,得到符合模型训练要求的初步数据集。
在一些实施例中,将对话数据集进行预处理的过程如下,需要理解的是,下面描述仅是示例性说明,而不是对本申请的具体限制。
步骤一:将对话数据集中的繁体字转换成简体字。
步骤二:通过预设的正则表达式过滤掉对话数据集中的一些特殊字符,例如“#”、“¥”、“@”和“&”等。
步骤三:将对话数据集中的全角标点符号转换成半角标点符号。
步骤四:将对话数据中超过预设个数的重叠字进行折叠,例如将“哈哈哈哈哈哈”折叠成“哈哈”。
步骤五:过滤掉对话数据集中的表情以及颜文字符号。
其中,步骤二、步骤三、步骤四和步骤五最好按照以上顺序执行,如果顺序打乱,则可能影响对话数据集的表达程度。对话数据集经过预处理之后,形成初步数据集,其中,初步数据集包括多条对话,每一条对话都包含问题(post)和回复(response),以形成pair对。
在一些实施例的步骤S130中,通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签。其中,预设的情感分类器是已经训练好的多类别分类器,用于对初步数据集进行情感分类,并根据情感分类的类型对初步数据集进行标注处理,得到初步情感标签。例如,初步数据集中某条对话数据为“保持微笑,事情总会变得越来越好的”,通过初步情感标签可将其分类为“开心”,也即该对话数据的初步情感标签,并对该对话数据进行情感标注,用于后续对神经网络模型进行训练。经过情感分类器对初步数据进行情感标注处理后,初步数据集的每一条对话都包含post、response以及对应的初步情感标签,以形成pair对。
在一些实施例中,情感分类器对初步数据集进行情感分类的的过程如下,需要理解的是,下面描述仅是示例性说明,而不是对本申请的具体限制。
步骤一:对初步数据集进行分词,得到多个分词数据。
步骤二:将分词数据输入至BERT模型进行编码得到对应的分词向量。其中,该BERT模型并不是传统的BERT模型,而是经过预先训练后得到的,并且使用NLPCC2013情感分类语料集和NLPCC2014情感分类语料集对数据进行微调,以此对BERT模型进行进一步的训练。
步骤三:将所有的分词向量进行向量拼接,得到一个拼接向量。
步骤四:将拼接向量输入至一个前馈神经网络后,使用softmax激活函数进行多类别分类,得到对应的初步情感标签。
在一些实施例的步骤S140中,将初步数据集和初步情感标签输入至预设的神经网络模型。其中,神经网络模型包括第一神经网络和第二神经网络。
在一些实施例的步骤S150中,通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量。
在一些实施例的步骤S160中,通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息,其中,目标情感消息为多条不同情感类型的应答消息。
在一些实施例的步骤S170中,根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型,训练好的情感消息生成模型能够在给定问题时,生成多种情感的应答消息。
在一些实施例中,初步编码向量包括分词编码向量和情感标签向量,如图2所示,步骤S150具体包括但不限于步骤S151至步骤S153。
步骤S151,对初步数据集进行分词处理,得到至少两个分词数据;
步骤S152,将每一分词数据输入至第一神经网络进行第一编码处理,得到至少两个分词编码向量;
步骤S153,将初步情感标签输入至第一神经网络进行第二编码处理,得到情感标签向量。
在一些实施例的步骤S151中,对初步数据集进行分词处理,得到多个分词数据。换句话说,需要将初步数据集的句子准确切割为一个个词语,即句子的自动分词。在实际应用中,可以利用HanLP分词工具、Analyzer分词器和jieba分词器等分词工具给初步数据集,更进一步地,是对初步数据集中的post进行分词。具体地,利用jieba分词器对原始文本数据进行分词的原理为:首先,加载预先存储的字典,生成树。接着,给定待分词的句子(原始文本数据中的每个句子),使用正则表达式获取连续的中文字符和英文字符,切分成短语列表,对每个短语使用DAG(查字典)和动态规划,得到最大概率路径,对DAG中那些没有在字典中查到的字,组合成一个新的片段短语,使用HMM模型(隐马尔科夫模型)进行分词,即识别字典外的新词。例如,对“保持微笑,事情总会变得越来越好的”进行分词而得到的多个分词数据,可以为“保持/微笑/事情/总会/变得/越来越好/的”。
在一些实施例的步骤S152中,将多个分词数据输入至第一神经网络进行第一编码处理,得到多个分词编码向量。具体地,将每个分词数据按照顺序逐一输入第一神经网络进行编码。需要说明的是,在实际应用中,第一神经网络即编码器使用的是GRU。
在一些实施例的步骤S153中,为了能够在解码过程中生成不同情感的目标情感消息,在编码过程中还需要将初步情感标签输入到第一神经网络进行编码。
在一些实施例中,如图3所示,步骤S160具体包括但不限于步骤S161至步骤S163。
步骤S161,获取预先训练好的多个参考情感标签;
步骤S162,将分词编码向量和情感标签向量输入至第二神经网络,以使第二神经网络根据参考情感标签对分词编码向量进行解码处理及对情感标签向量进行解码处理,得到对应参考情感标签的多个初步分词;
步骤S163,根据多个初步分词,得到目标情感消息。
在一些实施例的步骤S161中,获取预先训练好的多个参考情感标签。其中,参考情感标签包括但不限于生气、厌恶、开心、喜欢和难过。
在实际应用中,为了训练初步情感标签,可以随机初始化一个情感矩阵,例如6×256的情感矩阵,其中,6代表了6个不同情感类别,256是每一个情感类别的特征向量维度。在初始化情感矩阵之后,使用梯度下降和误差反转的方法对情感矩阵中的参数进行训练,在情感消息生成模型生成的时候,会根据训练好的6个情感特征分别生成对应的情感回复,所以达到了输入一句话,输出六句不同情感回复的目的。
在一些实施例的步骤S162中,将分词编码向量和情感标签向量输入至第二神经网络,以使第二神经网络根据参考情感标签对分词编码向量进行解码,并对情感标签向量进行解码,得到对应参考情感标签的多个初步分词。需要说明的是,在实际应用中,第二神经网络即解码器使用的是GRU。
具体地,第二神经网络的输入有:第一神经网络编码后的得到的分词编码向量(或者第二神经网络在隐藏层的状态输出)、预设的注意力机制向量和上一时刻生成的初步分词的词向量和第一神经网络编码后得到的情感标签向量,通过获取第二神经网络输出的动态的情感标签向量,即动态情感向量,能够生成不同情感的目标情感消息。其中,在第二神经网络中,每一层得到的隐藏层状态输出如公式(1)所示,用于传递动态情感向量:
st=GRU(st-1,[ct;e(yt-1);ve]) (1)
其中,St-1为解码时第一时刻t为编码器的输出,St为第二时刻t+1及之后所有时刻时为解码器前一时刻的隐藏层状态输出。中括号代表了情感信息向量ve,注意力机制的特征(自注意力机制向量)ct,以及上一时刻生成的词向量e(yt-1)。
在一些实施例中,动量门控是第二神经网络在解码时使用的,本公开实施例的动量门控使用sigmoid激活函数,包括重置门和更新门两个门,其中重置门可表示为gr:readgate,更新门可表示为gw:write gate。重置门的计算过程是把上一时刻生成的词向量,上一时刻隐藏层的状态向量St-1,当前注意力机制向量三者拼接起来,和W进行相乘,再经过sigmoid激活函数,得到重置门的值。将重置门的值与动态情感向量矩阵进行同位相乘,算出当前时刻的动态情感向量。再拼接上注意力机制向量ct,上一时刻生成词的词向量e(yt-1)形成新的向量,与上一时刻隐藏层的状态向量St-1一起输入进GRU,得到当前时刻隐藏层状态向量St。把St与另一个W相乘,算出更新门的值。再把更新门的值与上一时刻的动态情感向量同位相乘得到下一时刻的动态情感向量,由此完成解码而生成多个初步分词的过程,也完成情感动量在生成词的过程中每一时刻的传递。
需要说明的是,W为可训练的参数权重矩阵,上述提到的两个W性质相同,但是包含的数值不同。W泛指所有的学习矩阵,该矩阵里全是浮点数,刚开始的数值都是随机的,通过训练神经网络模型,使用剃度下降误差反向传播的方法去更新里面的数值,达到训练的效果。
具体地,t时刻的重置门的值由下列公式(2)进行求解得到:
Figure BDA0003513994710000121
其中,
Figure BDA0003513994710000122
表示t时刻重置门的值,
Figure BDA0003513994710000123
表示可训练的参数权重矩阵,st表示t时刻的GRU单元中隐藏层的状态输出。
具体地,t+1时刻的情感动态向量通过公式(3)得到:
Figure BDA0003513994710000124
其中,
Figure BDA0003513994710000125
表示t+1时刻的情感动态向量,
Figure BDA0003513994710000126
表示t时刻的情感动态向量,
Figure BDA0003513994710000127
表示t时刻重置门的值。
具体地,t时刻的GRU单元中隐藏层的状态输出通过公式(4)得到:
Figure BDA0003513994710000128
其中,st表示t时刻的GRU单元中隐藏层的状态输出,ct表示注意力机制向量,e(yt-1)表示t-1时刻生成分词的词向量,
Figure BDA0003513994710000129
表示t时刻的情感动态向量。
需要说明的是,本申请实施例在情感标签信息中使用了动量门控技术。一般技术都是在每次回复句子中词语生成的时候,使用固定的情感信息特征。但句子表达中,词与词之间包含的情感信息是不同的,所以动量门控能够达到区分情感的特点。同时,每个情感类别e都有一个内部情绪状态。在每一步,情绪状态都会衰减一定量。一旦解码完成,情绪状态量应该衰减到0,表示情感是被完全表达的。
在一些实施例的步骤S163中,根据多个初步分词,得到目标情感消息。具体地,对每一参考情感标签对应的多个初步分词进行组合,得到目标情感消息。
在一些实施例中,如图4所示,步骤S163具体包括但不限于步骤S1631至步骤S1636。
步骤S1631,获取预设分词类别;
步骤S1632,根据预设分词类别对初步分词进行类别划分,得到初步分词的词类别和标量权重;
步骤S1633,将初步分词输入至预设的分词分类器进行分类处理,得到分词概率;
步骤S1634,根据标量权重和分词概率进行概率计算,得到生成概率;
步骤S1635,获取最大的生成概率所对应的初步分词,作为目标分词;
步骤S1636,根据目标分词,得到目标情感消息。
在一些实施例的步骤S1631中,获取预设分词类别。预设分词类别包括情绪词和普通词,其中,情绪词包括形容词和副词等,普通词包括名词和助词等。本公开实施例通过给情绪词和普通词分配不同的产生概率,使神经网络模型能够产生更明确的情感表达。其中,对于每个预设分词类别,都设置有不同的标量权重α,其中标量权重α∈[0,1],对于情绪词的标量权重会设置得高一些,对于普通词的标量权重会设置得低一些,目的是为了使神经网络模型生成的目标情感消息更加具备浓厚的情绪或者陈述表达。通过设置标量权重能够均衡考虑初步分词中的情感词和普通词,以生成最终的目标分词。
在一些实施例的步骤S1632中,根据预设分词类别对初步分词进行类别划分,得到初步分词的词类别和标量权重,换句话说,要判断初步分词是情绪词还是普通词,以此给初步分词分配对应的标量权重。
在一些实施例的步骤S1633中,将初步分词输入至预设的分词分类器进行分类处理,得到分词概率。具体地,在通过第二神经网络生成初步分词时,会同时对两个不同类型的初步分词使用Softmax分类器或者Softmax函数,计算这两个初步分词的分词概率。
在一些实施例的步骤S1634中,根据标量权重和分词概率进行概率计算,得到生成概率。具体地,将步骤S1635中计算得到的每个分词概率与对应的标量权重α相乘,最终计算得出初步分词的生成概率。
在一些实施例的步骤S1635和步骤S1636中,选取生成概率最大的初步分词,作为目标分词。确定同一类情感对应的目标分词之后,将所有的目标分词进行组合,生成目标情感消息。
在一些实施例中,第二神经网络包括多层门控循环单元,如图5所示,步骤S170具体包括但不限于步骤S171至步骤S173。
步骤S171,根据情感标签向量、目标情感消息和预设的注意力机制向量,对每一层的门控循环单元的隐藏状态向量进行情感约束处理,得到多个目标情感向量;
步骤S172,根据多个目标情感向量对神经网络模型的损失函数进行计算,得到目标损失值;
步骤S173,使用反向传播算法最小化目标损失值,以更新神经网络模型的模型参数,得到情感消息生成模型。
在一些实施例的步骤S171中,根据情感标签向量、目标情感消息和预设的注意力机制向量,对每一层的GRU单元的隐藏状态向量进行情感约束处理,得到多个目标情感向量,具体地,在第二神经网络进行解码的得到初步分词的过程中,还能够利用GRU的特性,求出每一层的GRU单元每个时刻的目标情感向量,即动态情感向量(可通过上述第二神经网络进行解码的步骤S162得到),依据这多个目标情感向量和初步数据集对应的情感信息作为参考信息,就能够在解码过程中生成不同情感的目标情感消息。
在一些实施例的步骤S172和步骤S173中,根据多个目标情感向量对神经网络模型的损失函数,例如交叉熵损失函数等进行计算,得到目标损失值,并使用反向传播算法最小化目标损失值,以更新神经网络模型的模型参数,得到情感消息生成模型。
本公开实施例提出的模型的训练方法,通过获取对话数据集;对对话数据集进行预处理,得到初步数据集;通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;将初步数据集和初步情感标签输入至预设的神经网络模型;其中,神经网络模型包括第一神经网络和第二神经网络;通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。本公开实施例通过进行情感标注处理的数据集训练初步情感标签,并通过情感回复的多样性需求对神经网络模型进行初步编码和解码处理,以训练得到情感生成模型,使情感生成模型能够针对问题消息生成不同情感的目标情感消息。
参照图6,本公开实施例还提供一种情感消息生成方法,用于生成目标情感消息,包括:
步骤S210,获取原始问题消息;
步骤S220,将原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息。
在一些实施例的步骤S210中,获取原始问题消息,即需要进行应答的消息,例如“糟糕的一天,因为交通情况我迟到了”。
在一些实施例的步骤S220中,将原始问题消息输入至情感消息生成模型进行消息生成处理,消息生成模型可根据不同情感生成不同的目标情感消息。其中,目标情感消息为应答情感消息,情感消息生成模型根据如本公开第一方面实施例任一项的训练方法训练得到。在实际应用中,根据原始问题消息“糟糕的一天,因为交通情况我迟到了”可生成的应答情感消息如下,喜欢类型的应答情感消息为:“我会永远支持你”,开心类型的应答情感消息为“保持微笑!事情将会变得越来越好”,伤心类型的应答情感消息为:“这真是太难过了”,厌恶类型的应答情感消息为:“有时候生活就是烂透了”,生气类型的应答消息为:“这交通真是太糟糕了”,能够实现输入一句话,生成不同情感的应答情感消息,满足情感回复的多样性需求。
本公开实施例还提供一种模型的训练装置,用于训练情感消息生成模型,如图7所示,可以实现上述模型的训练方法,该训练装置包括:第一获取模块、预处理模块320、标注模块330、输入模块340、编码模块350、解码模块360和训练模块370,第一获取模块用于获取对话数据集;预处理模块320用于对对话数据集进行预处理,得到初步数据集;标注模块330用于通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;输入模块340用于将初步数据集和初步情感标签输入至预设的神经网络模型;其中,神经网络模型包括第一神经网络和第二神经网络;编码模块350用于通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;解码模块360用于通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;训练模块370用于根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。
本公开实施例的模型的训练装置用于执行上述实施例中的模型的训练方法,其具体处理过程与上述实施例中的模型的训练方法相同,此处不再一一赘述。
本公开实施例还提供一种情感消息生成装置,用于生成目标情感消息,如图8所示,可以实现上述情感消息生成方法,该情感消息生成装置包括:第二获取模块410和消息生成模块420,其中,第二获取模块410用于获取原始问题消息;消息生成模块420用于将原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息;情感消息生成模型根据如本公开第一方面实施例的训练方法训练得到。
本公开实施例的情感消息生成装置用于执行上述实施例中的情感消息生成方法,其具体处理过程与上述实施例中的情感消息生成方法相同,此处不再一一赘述。
本公开实施例还提供了一种计算机设备,包括:
至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如本公开实施例第一方面实施例的训练方法或如本公开实施例第二方面实施例中的情感消息生成方法。
下面结合图9对计算机设备的硬件结构进行详细说明。该计算机设备包括:处理器510、存储器520、输入/输出接口530、通信接口540和总线550。
处理器510,可以采用通用的CPU(Central Processin Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本公开实施例所提供的技术方案;
存储器520,可以采用ROM(Read Only Memory,只读存储器)、静态存储设备、动态存储设备或者RAM(Random Access Memory,随机存取存储器)等形式实现。存储器520可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器520中,并由处理器510来调用执行本公开实施例的模型的训练方法或者执行本公开实施例的情感消息生成方法;
输入/输出接口530,用于实现信息输入及输出;
通信接口540,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和
总线550,在设备的各个组件(例如处理器510、存储器520、输入/输出接口530和通信接口540)之间传输信息;
其中处理器510、存储器520、输入/输出接口530和通信接口540通过总线550实现彼此之间在设备内部的通信连接。
本公开实施例还提供一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行本公开实施例的模型的训练方法或者执行本公开实施例的情感消息生成方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本公开实施例提出的模型的训练方法、情感消息生成方法和装置、设备、介质,通过获取对话数据集;对对话数据集进行预处理,得到初步数据集;通过预设的情感分类器对初步数据集进行情感标注处理,得到初步情感标签;将初步数据集和初步情感标签输入至预设的神经网络模型;其中,神经网络模型包括第一神经网络和第二神经网络;通过第一神经网络对初步数据集和初步情感标签进行初步编码处理,得到初步编码向量;通过第二神经网络对初步编码向量进行解码处理,得到目标情感消息;根据目标情感消息对神经网络模型进行训练处理,得到情感消息生成模型。本公开实施例通过进行情感标注处理的数据集训练初步情感标签,并通过情感回复的多样性需求对神经网络模型进行初步编码和解码处理,以训练得到情感生成模型,使情感生成模型能够针对问题消息生成不同情感的目标情感消息。
本公开实施例描述的实施例是为了更加清楚的说明本公开实施例的技术方案,并不构成对于本公开实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本公开实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1、图2、图3、图4、图5和图6中示出的技术方案并不构成对本公开实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本公开实施例的优选实施例,并非因此局限本公开实施例的权利范围。本领域技术人员不脱离本公开实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本公开实施例的权利范围之内。

Claims (10)

1.一种模型的训练方法,其特征在于,用于训练情感消息生成模型,所述训练方法包括:
获取对话数据集;
对所述对话数据集进行预处理,得到初步数据集;
通过预设的情感分类器对所述初步数据集进行情感标注处理,得到初步情感标签;
将所述初步数据集和所述初步情感标签输入至预设的神经网络模型;其中,所述神经网络模型包括第一神经网络和第二神经网络;
通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量;
通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息;
根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型。
2.根据权利要求1所述的训练方法,其特征在于,所述初步编码向量包括分词编码向量和情感标签向量;所述通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量,包括:
对所述初步数据集进行分词处理,得到至少两个分词数据;
将每一所述分词数据输入至所述第一神经网络进行第一编码处理,得到至少两个所述分词编码向量;
将所述初步情感标签输入至所述第一神经网络进行第二编码处理,得到所述情感标签向量。
3.根据权利要求2所述的训练方法,其特征在于,所述通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息,包括:
获取预先训练好的多个参考情感标签;
将所述分词编码向量和所述情感标签向量输入至所述第二神经网络,以使所述第二神经网络根据所述参考情感标签对所述分词编码向量进行解码处理及对所述情感标签向量进行解码处理,得到对应所述参考情感标签的多个初步分词;
根据所述多个初步分词,得到所述目标情感消息。
4.根据权利要求3所述的训练方法,其特征在于,所述根据所述多个初步分词,得到所述目标情感消息,包括:
获取预设分词类别;
根据所述预设分词类别对所述初步分词进行类别划分,得到所述初步分词的词类别和标量权重;
将所述初步分词输入至预设的分词分类器进行分类处理,得到分词概率;
根据所述标量权重和所述分词概率进行概率计算,得到生成概率;
获取最大的生成概率所对应的所述初步分词,作为目标分词;
根据所述目标分词,得到所述目标情感消息。
5.根据权利要求4所述的训练方法,其特征在于,所述第二神经网络包括多层门控循环单元,所述根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型,包括:
根据所述情感标签向量、所述目标情感消息和预设的注意力机制向量,对每一层的所述门控循环单元的隐藏状态向量进行情感约束处理,得到多个目标情感向量;
根据所述多个目标情感向量对所述神经网络模型的损失函数进行计算,得到目标损失值;
使用反向传播算法最小化所述目标损失值,以更新所述神经网络模型的模型参数,得到所述情感消息生成模型。
6.一种情感消息生成方法,其特征在于,用于生成目标情感消息,包括:
获取原始问题消息;
将所述原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息;所述情感消息生成模型根据如权利要求1至5任一项所述的训练方法训练得到。
7.一种模型的训练装置,其特征在于,用于训练情感消息生成模型,包括:
第一获取模块:用于获取对话数据集;
预处理模块:用于对所述对话数据集进行预处理,得到初步数据集;
标注模块:用于通过预设的情感分类器对所述初步数据集进行情感标注处理,得到初步情感标签;
输入模块:用于将所述初步数据集和所述初步情感标签输入至预设的神经网络模型;其中,所述神经网络模型包括第一神经网络和第二神经网络;
编码模块:用于通过所述第一神经网络对所述初步数据集和所述初步情感标签进行初步编码处理,得到初步编码向量;
解码模块:用于通过所述第二神经网络对所述初步编码向量进行解码处理,得到目标情感消息;
训练模块:用于根据所述目标情感消息对所述神经网络模型进行训练处理,得到情感消息生成模型。
8.一种情感消息生成装置,其特征在于,用于生成目标情感消息,包括:
第二获取模块:用于获取原始问题消息;
消息生成模块:用于将所述原始问题消息输入至情感消息生成模型进行消息生成处理,得到目标情感消息;其中,所述目标情感消息为应答情感消息,所述情感消息生成模型根据如权利要求1至5任一项所述的训练方法训练得到。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时所述处理器用于执行:
如权利要求1至5中任一项所述的训练方法;或
如权利要求6所述的情感消息生成方法。
10.一种存储介质,所述存储介质为计算机可读存储介质,其特征在于,所述计算机可读存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行:
如权利要求1至5中任一项所述的训练方法;或
如权利要求6所述的情感消息生成方法。
CN202210160985.9A 2022-02-22 2022-02-22 模型的训练方法、情感消息生成方法和装置、设备、介质 Active CN114519353B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210160985.9A CN114519353B (zh) 2022-02-22 2022-02-22 模型的训练方法、情感消息生成方法和装置、设备、介质
PCT/CN2022/090670 WO2023159759A1 (zh) 2022-02-22 2022-04-29 模型的训练方法、情感消息生成方法和装置、设备、介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210160985.9A CN114519353B (zh) 2022-02-22 2022-02-22 模型的训练方法、情感消息生成方法和装置、设备、介质

Publications (2)

Publication Number Publication Date
CN114519353A true CN114519353A (zh) 2022-05-20
CN114519353B CN114519353B (zh) 2023-07-25

Family

ID=81598959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210160985.9A Active CN114519353B (zh) 2022-02-22 2022-02-22 模型的训练方法、情感消息生成方法和装置、设备、介质

Country Status (2)

Country Link
CN (1) CN114519353B (zh)
WO (1) WO2023159759A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011612A (zh) * 2023-08-16 2023-11-07 海南省新超豪信息技术有限公司 一种中药材ai识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法
CN110609899A (zh) * 2019-08-29 2019-12-24 成都信息工程大学 一种基于改进bert模型的特定目标情感分类方法
US20200167419A1 (en) * 2018-11-27 2020-05-28 Sap Se Exploiting document knowledge for aspect-level sentiment classification
CN111414476A (zh) * 2020-03-06 2020-07-14 哈尔滨工业大学 一种基于多任务学习的属性级情感分析方法
CN111563164A (zh) * 2020-05-07 2020-08-21 成都信息工程大学 一种基于图神经网络的特定目标情感分类方法
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563628A (zh) * 2018-03-07 2018-09-21 中山大学 基于hred和内外记忆网络单元的情感对话生成方法
CN109800295A (zh) * 2019-01-11 2019-05-24 南京信息工程大学 基于情感词典和词概率分布的情感会话生成方法
CN110427490B (zh) * 2019-07-03 2021-11-09 华中科技大学 一种基于自注意力机制的情感对话生成方法与装置
CN112434143B (zh) * 2020-11-20 2022-12-09 西安交通大学 基于gru单元隐藏状态约束的对话方法、存储介质及系统
CN112905776B (zh) * 2021-03-17 2023-03-31 西北大学 一种情感对话模型构建方法、情感对话系统及方法
CN113254625B (zh) * 2021-07-15 2021-11-16 国网电子商务有限公司 一种基于交互融合的情感对话生成方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法
US20200167419A1 (en) * 2018-11-27 2020-05-28 Sap Se Exploiting document knowledge for aspect-level sentiment classification
CN110609899A (zh) * 2019-08-29 2019-12-24 成都信息工程大学 一种基于改进bert模型的特定目标情感分类方法
CN111414476A (zh) * 2020-03-06 2020-07-14 哈尔滨工业大学 一种基于多任务学习的属性级情感分析方法
CN111563164A (zh) * 2020-05-07 2020-08-21 成都信息工程大学 一种基于图神经网络的特定目标情感分类方法
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011612A (zh) * 2023-08-16 2023-11-07 海南省新超豪信息技术有限公司 一种中药材ai识别方法

Also Published As

Publication number Publication date
CN114519353B (zh) 2023-07-25
WO2023159759A1 (zh) 2023-08-31

Similar Documents

Publication Publication Date Title
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
US11501182B2 (en) Method and apparatus for generating model
CN109359297B (zh) 一种关系抽取方法及系统
CN111967266A (zh) 中文命名实体识别模型及其构建方法和应用
CN113127624B (zh) 问答模型的训练方法及装置
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
WO2023134083A1 (zh) 基于文本的情感分类方法和装置、计算机设备、存储介质
WO2023137911A1 (zh) 基于小样本语料的意图分类方法、装置及计算机设备
CN114676234A (zh) 一种模型训练方法及相关设备
CN111241828A (zh) 情感智能识别方法、装置及计算机可读存储介质
CN109271636B (zh) 词嵌入模型的训练方法及装置
CN116661805B (zh) 代码表示的生成方法和装置、存储介质及电子设备
CN108268629B (zh) 基于关键词的图像描述方法和装置、设备、介质
CN116578688A (zh) 基于多轮问答的文本处理方法、装置、设备及存储介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN114881042A (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN116049387A (zh) 一种基于图卷积的短文本分类方法、装置、介质
CN116258137A (zh) 文本纠错方法、装置、设备和存储介质
Mathur et al. A scaled‐down neural conversational model for chatbots
CN108875024B (zh) 文本分类方法、系统、可读存储介质及电子设备
Yao Attention-based BiLSTM neural networks for sentiment classification of short texts
CN114519353B (zh) 模型的训练方法、情感消息生成方法和装置、设备、介质
CN113779244B (zh) 文档情感分类方法、装置、存储介质以及电子设备
Wakchaure et al. A scheme of answer selection in community question answering using machine learning techniques
Kandi Language Modelling for Handling Out-of-Vocabulary Words in Natural Language Processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant