CN111339278A - 训练话术生成模型、生成应答话术的方法和装置 - Google Patents

训练话术生成模型、生成应答话术的方法和装置 Download PDF

Info

Publication number
CN111339278A
CN111339278A CN202010130638.2A CN202010130638A CN111339278A CN 111339278 A CN111339278 A CN 111339278A CN 202010130638 A CN202010130638 A CN 202010130638A CN 111339278 A CN111339278 A CN 111339278A
Authority
CN
China
Prior art keywords
word
intention
keyword
answer
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010130638.2A
Other languages
English (en)
Other versions
CN111339278B (zh
Inventor
王子豪
刘佳
崔恒斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010130638.2A priority Critical patent/CN111339278B/zh
Publication of CN111339278A publication Critical patent/CN111339278A/zh
Application granted granted Critical
Publication of CN111339278B publication Critical patent/CN111339278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本说明书实施例提供一种训练话术生成模型、生成应答话术的方法和装置。训练话术生成模型的方法包括:针对用户与人工客服的第一历史对话,得到第一意图关键词对应的第一应答话术;将第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,话术生成模型包括编码器和解码器,编码器根据位置关系以及第一意图关键词中的各字对第一意图关键词进行编码,得到第一意图关键词对应的第一语义向量,并将第一语义向量输入到解码器进行多次迭代解码,得到话术预测结果;根据第一应答话术和话术预测结果,对话术生成模型进行训练。能够在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。

Description

训练话术生成模型、生成应答话术的方法和装置
技术领域
本说明书一个或多个实施例涉及计算机领域,尤其涉及训练话术生成模型、生成应答话术的方法和装置。
背景技术
随着互联网和服务业的发展,越来越多的公司需要通过在线或者热线的方式服务自己的客户群体,这就积累了大量的人工对话记录。服务日志中含有很多有用的信息,例如用户意图、优质服务话术等。希望能够从大量的人工对话记录中挖掘出优质话术,供运营人员为机器人配置使用,但是运营人员在配置话术的时候并不一定清楚好的话术是什么样子,并且运营人员从大量的人工对话记录中筛选优质话术的工作量极大,运营效率低。
因此,希望能有改进的方案,能够在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
发明内容
本说明书一个或多个实施例描述了一种训练话术生成模型、生成应答话术的方法和装置,能够在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
第一方面,提供了一种训练话术生成模型的方法,方法包括:
针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词;
将所述第一历史对话中的客服对话作为所述第一意图关键词对应的第一应答话术,以得到一组训练样本;
将一组训练样本中的所述第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果;
根据所述第一应答话术和所述话术预测结果,确定预测损失;
以最小化预测损失为目标对所述话术生成模型进行训练。
在一种可能的实施方式中,所述对所述话术生成模型进行训练,包括:
对所述话术生成模型进行分阶段训练,得到各阶段分别对应的训练后的话术生成模型;其中,各阶段对应不同的训练样本集合;
依据所述话术生成模型在给定验证集上面的困惑度指标,从各阶段分别对应的训练后的话术生成模型中选择最优的话术生成模型,作为训练后的话术生成模型。
在一种可能的实施方式中,所述多次迭代解码包括初次迭代解码,所述初次迭代解码,包括:
将缺省向量作为初始位置对应的向量,将第一语义向量作为所述上次迭代中的输出,确定所述话术预测结果中的第一个字。
在一种可能的实施方式中,所述编码器基于转换器(transformer)单元形成,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
对所述第一意图关键词中各个字进行嵌入,得到各个字的嵌入向量;
根据各个字的位置,得到各个字的位置向量;
根据各个字的嵌入向量和位置向量,得到各个字的编码向量;
根据注意力机制,对各个字的编码向量进行若干次加权综合,得到所述第一语义向量。
在一种可能的实施方式中,所述编码器为基于时序的神经网络,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
将所述第一意图关键词中的各个字依次输入所述神经网络,所述神经网络根据当前时刻的输入和前一时刻的输出,确定当前输出,所述第一语义向量为所述神经网络处理所述第一意图关键词中最后一个字后输出的向量。
在一种可能的实施方式中,所述将所述第一语义向量输入到所述解码器进行多次迭代解码,包括:
所述解码器将已得到的第一位置的输出存储于解码词表中;
所述解码器确定第二位置的输出时,所述第二位置为所述第一位置的下一位置,确定所述第二位置对应的各候选字的初始概率值,查询所述解码词表,对于所述解码词表中存在的字,将各候选字的初始概率值调整为对应的调整概率值,依据各候选字的调整概率值确定所述第二位置输出的解码字,并将该解码字加入到所述解码词表中。
第二方面,提供了一种生成应答话术的方法,方法包括:
针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词;
将所述第二意图关键词以字为单位按照各字的位置关系输入第一方面所述的方法预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
在一种可能的实施方式中,所述构成所述第二意图关键词对应的第二应答话术之后,所述方法还包括:
获取已建立的话术集合,所述话术集合中包括多个意图关键词和多个候选话术,各意图关键词与各候选话术之间具有对应关系;
确定所述第二应答话术与各候选话术之间的各相似度;
若各相似度均小于预先设定的相似度阈值,则将所述第二应答话术加入所述话术集合中,作为所述第二意图关键词对应的候选话术。
第三方面,提供了一种训练话术生成模型的装置,装置包括:
关键词抽取单元,用于针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词;
样本组合单元,用于将所述第一历史对话中的客服对话作为所述关键词抽取单元得到的第一意图关键词对应的第一应答话术,以得到一组训练样本;
话术预测单元,用于将所述样本组合单元得到的一组训练样本中的第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果;
损失确定单元,用于根据所述第一应答话术和所述话术预测单元得到的话术预测结果,确定预测损失;
模型训练单元,用于以最小化所述损失确定单元确定的预测损失为目标对所述话术生成模型进行训练。
第四方面,提供了一种生成应答话术的装置,装置包括:
关键词抽取单元,用于针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词;
话术生成单元,用于将所述关键词抽取单元得到的第二意图关键词以字为单位按照各字的位置关系输入第三方面所述的装置预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一或第二方面的方法。
第六方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一或第二方面的方法。
通过本说明书实施例提供的方法和装置,首先针对用户与人工客服的历史对话,得到表征用户意图的意图关键词与应答话术组成的训练样本,基于上述训练样本训练由编码器和解码器组成的话术生成模型,后续可以针对用户与人工客服的历史对话,提取意图关键词,将该意图关键词输入预先训练的话术生成模型,得到该意图关键词对应的应答话术。由上可见,本说明书实施例利用用户与人工客服的历史对话训练话术生成模型,从而使训练后的话术生成模型能够根据意图关键词生成优质应答话术,不需要运营人员从大量历史对话中进行挑选,在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本说明书披露的一个实施例的实施场景示意图;
图2示出根据一个实施例的训练话术生成模型的方法流程图;
图3示出根据一个实施例的话术生成模型的结构示意图;
图4示出根据一个实施例的生成应答话术的方法流程图;
图5示出根据一个实施例的话术集合生成过程示意图;
图6示出根据一个实施例的训练话术生成模型的装置的示意性框图;
图7示出根据一个实施例的生成应答话术的装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
图1为本说明书披露的一个实施例的实施场景示意图。该实施场景涉及训练话术生成模型,以及根据意图关键词,利用训练后的话术生成模型生成该意图关键词对应的应答话术。参照图1,本说明书实施例可以先根据用户与人工客服的历史对话得到训练样本,再利用得到的训练样本训练话术生成模型。具体地,可以对针对用户与人工客服的历史对话,对该历史对话中的用户对话,进行关键词抽取以得到该历史对话中的表征用户意图的意图关键词;将该历史对话中的客服对话作为上述意图关键词对应的应答话术,以得到一组训练样本。
可以理解的是,本说明书实施例,利用用户与人工客服的历史对话训练话术生成模型,从而能够根据意图关键词,利用训练后的话术生成模型生成该意图关键词对应的应答话术。这种方式不需要运营人员从大量历史对话中进行挑选,在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
图2示出根据一个实施例的训练话术生成模型的方法流程图,该方法可以基于图1所示的实施场景。如图2所示,该实施例中训练话术生成模型的方法包括以下步骤:
步骤21,针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词。可以理解的是,所述第一历史对话中的表征用户意图的意图关键词数量可能为一个或多个。
在一个示例中,对于已有的人工客服的对话日志,先通过预处理模块对原始对话进行预处理,主要是将原始对话中的人名、地名、数字、电话、邮箱等通过模型的方式做归一化处理,统一用特殊字符代替。接着,用户和客服的对话会进行关键词抽取,通过词频逆文本频率指数(term frequency–inverse document frequency,tf-idf)或者textrank的方式提取出每轮对话中用户的意图关键词,关键词的数量可以不固定也可只固定为给定数目。其中,tf-idf是一种用于信息检索与数据挖掘的常用加权技术。
步骤22,将所述第一历史对话中的客服对话作为所述第一意图关键词对应的第一应答话术,以得到一组训练样本。可以理解的是,训练样本为意图关键词-客服对话的句子对形式。
在一个示例中,第一历史对话包括用户对话1和客服对话1,针对用户对话1进行关键词提取得到意图关键词1,则意图关键词1和客服对话1可以作为一组训练样本。
在另一个示例中,第一历史对话包括用户对话1和客服对话1,针对用户对话1进行关键词提取得到意图关键词1和意图关键词2,则意图关键词1和客服对话1可以作为一组训练样本,意图关键词2和客服对话1可以作为另一组训练样本。
步骤23,将一组训练样本中的所述第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果。可以理解的是,话术预测结果可能与第一应答话术不同。
在一个示例中,所述多次迭代解码包括初次迭代解码,所述初次迭代解码,包括:
将缺省向量作为初始位置对应的向量,将第一语义向量作为所述上次迭代中的输出,确定所述话术预测结果中的第一个字。
在一个示例中,所述编码器基于转换器(transformer)单元形成,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
对所述第一意图关键词中各个字进行嵌入,得到各个字的嵌入向量;
根据各个字的位置,得到各个字的位置向量;
根据各个字的嵌入向量和位置向量,得到各个字的编码向量;
根据注意力机制,对各个字的编码向量进行若干次加权综合,得到所述第一语义向量。
基于该示例,所述解码器也可以基于转换器(transformer)单元形成。
在另一个示例中,所述编码器为基于时序的神经网络,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
将所述第一意图关键词中的各个字依次输入所述神经网络,所述神经网络根据当前时刻的输入和前一时刻的输出,确定当前输出,所述第一语义向量为所述神经网络处理所述第一意图关键词中最后一个字后输出的向量。
基于该示例,所述解码器也可以为基于时序的神经网络。
在一个示例中,所述将所述第一语义向量输入到所述解码器进行多次迭代解码,包括:
所述解码器将已得到的第一位置的输出存储于解码词表中;
所述解码器确定第二位置的输出时,所述第二位置为所述第一位置的下一位置,确定所述第二位置对应的各候选字的初始概率值,查询所述解码词表,对于所述解码词表中存在的字,将各候选字的初始概率值调整为对应的调整概率值,依据各候选字的调整概率值确定所述第二位置输出的解码字,并将该解码字加入到所述解码词表中。
步骤24,根据所述第一应答话术和所述话术预测结果,确定预测损失。可以理解的是,可以基于预先确定的损失函数确定该预测损失,该预测损失可以但不限于为交叉熵损失。
步骤25,以最小化预测损失为目标对所述话术生成模型进行训练。可以理解的是,训练过程即调整模型参数的过程。
在一个示例中,所述对所述话术生成模型进行训练,包括:
对所述话术生成模型进行分阶段训练,得到各阶段分别对应的训练后的话术生成模型;其中,各阶段对应不同的训练样本集合;
依据所述话术生成模型在给定验证集上面的困惑度指标,从各阶段分别对应的训练后的话术生成模型中选择最优的话术生成模型,作为训练后的话术生成模型。
图3示出根据一个实施例的话术生成模型的结构示意图。参照图3,该模型整体是序列到序列seq2seq的结构,包括编码器和解码器,k1、k2、k3可以代表意图关键词各位置的字。对每一条训练样本,即意图关键词-客服对话的句子对,编码器对意图关键词做编码,解码器去解码对应的客服对话,损失函数通过softmax来做交叉熵损失。其中,在这里使用基于转换器的双向编码器表示(bidirectional encoder representation fromtransformers,BERT)做整体的编码和解码,即对意图关键词使用BERT做短语级别的编码,得到意图关键词的语义表示向量,基于该语义表示向量解码得到相应的应答话术。
其中,在解码时,可以将BERT的解码改成语言模型预训练(generative pre-training of a language model,GPT)的形式,即在每一步解码的时候,覆盖(mask)掉后面的内容,只能看到之前的内容。在模型做推断(inference)时,对于每个时序的解码输出会参考解码词表,对于解码词表中已经存在的字,会降低此次待解码的字概率值,并将当前解码字加入到解码词表中,在下一个位置解码的时候使用。目的是降低生成句子中出现冗余的内容,提升句子丰富度,实验也证明了模型的有效性。
需要说明的是,编码器和解码器除了可以采用BERT的网络结构,还可以采用其他的网络结构,例如,长短期记忆(long short-term memory,LSTM)网络、门控循环神经(gated recurrent unit,GRU)网络等。
图4示出根据一个实施例的生成应答话术的方法流程图,该方法可以基于图1所示的实施场景,以及图2所示的训练话术生成模型的方法,以及图3所示的话术生成模型。如图4所示,该实施例中生成应答话术的方法包括以下步骤:
步骤41,针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词。
其中,关键词抽取的方式可以与模型训练过程中相同,在此不做赘述。
步骤42,将所述第二意图关键词以字为单位按照各字的位置关系输入图2所述的方法预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
可以理解的是,模型使用过程中与模型训练过程中解码器的输入不同,具体可以参考seq2seq模型的原理,在此不做赘述。
在一个示例中,所述构成所述第二意图关键词对应的第二应答话术之后,所述方法还包括:
获取已建立的话术集合,所述话术集合中包括多个意图关键词和多个候选话术,各意图关键词与各候选话术之间具有对应关系;
确定所述第二应答话术与各候选话术之间的各相似度;
若各相似度均小于预先设定的相似度阈值,则将所述第二应答话术加入所述话术集合中,作为所述第二意图关键词对应的候选话术。
图5示出根据一个实施例的话术集合生成过程示意图。参照图5,整体是在迭代中产生并丰富话术集合,不断从服务日志中抽取意图关键词以表示用户意图,形成意图集合,并输入到话术生成模型中,生成出一系列候选话术。通过相似度判断,跟已有话术生成集合做过滤,去掉相似的话术并合并到已有话术生成集合中,如果当前生成的话术都被过滤掉了则迭代结束,否则继续迭代。迭代结束后,话术生成集合会经过运营审核,供运营人员审核和修改,最终形成可用的话术集合。
可以理解的是,该话术集合可以应用于由用户主动发起的与机器人客服的对话中,也可以应用于由机器人客服主动发起的与用户的对话中。
通过本说明书实施例提供的方法,首先针对用户与人工客服的历史对话,得到表征用户意图的意图关键词与应答话术组成的训练样本,基于上述训练样本训练由编码器和解码器组成的话术生成模型,后续可以针对用户与人工客服的历史对话,提取意图关键词,将该意图关键词输入预先训练的话术生成模型,得到该意图关键词对应的应答话术。由上可见,本说明书实施例利用用户与人工客服的历史对话训练话术生成模型,从而使训练后的话术生成模型能够根据意图关键词生成优质应答话术,不需要运营人员从大量历史对话中进行挑选,在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
根据另一方面的实施例,还提供一种训练话术生成模型的装置,该装置用于执行本说明书实施例提供的训练话术生成模型的方法。图6示出根据一个实施例的训练话术生成模型的装置的示意性框图。如图6所示,该装置600包括:
关键词抽取单元61,用于针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词;
样本组合单元62,用于将所述第一历史对话中的客服对话作为所述关键词抽取单元61得到的第一意图关键词对应的第一应答话术,以得到一组训练样本;
话术预测单元63,用于将所述样本组合单元62得到的一组训练样本中的第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果;
损失确定单元64,用于根据所述第一应答话术和所述话术预测单元63得到的话术预测结果,确定预测损失;
模型训练单元65,用于以最小化所述损失确定单元64确定的预测损失为目标对所述话术生成模型进行训练。
可选地,作为一个实施例,所述模型训练单元65,具体用于:
对所述话术生成模型进行分阶段训练,得到各阶段分别对应的训练后的话术生成模型;其中,各阶段对应不同的训练样本集合;
依据所述话术生成模型在给定验证集上面的困惑度指标,从各阶段分别对应的训练后的话术生成模型中选择最优的话术生成模型,作为训练后的话术生成模型。
可选地,作为一个实施例,所述多次迭代解码包括初次迭代解码,所述初次迭代解码,包括:
将缺省向量作为初始位置对应的向量,将第一语义向量作为所述上次迭代中的输出,确定所述话术预测结果中的第一个字。
可选地,作为一个实施例,所述编码器基于转换器(transformer)单元形成,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
对所述第一意图关键词中各个字进行嵌入,得到各个字的嵌入向量;
根据各个字的位置,得到各个字的位置向量;
根据各个字的嵌入向量和位置向量,得到各个字的编码向量;
根据注意力机制,对各个字的编码向量进行若干次加权综合,得到所述第一语义向量。
可选地,作为一个实施例,所述编码器为基于时序的神经网络,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
将所述第一意图关键词中的各个字依次输入所述神经网络,所述神经网络根据当前时刻的输入和前一时刻的输出,确定当前输出,所述第一语义向量为所述神经网络处理所述第一意图关键词中最后一个字后输出的向量。
可选地,作为一个实施例,所述将所述第一语义向量输入到所述解码器进行多次迭代解码,包括:
所述解码器将已得到的第一位置的输出存储于解码词表中;
所述解码器确定第二位置的输出时,所述第二位置为所述第一位置的下一位置,确定所述第二位置对应的各候选字的初始概率值,查询所述解码词表,对于所述解码词表中存在的字,将各候选字的初始概率值调整为对应的调整概率值,依据各候选字的调整概率值确定所述第二位置输出的解码字,并将该解码字加入到所述解码词表中。
根据另一方面的实施例,还提供一种生成应答话术的装置,该装置用于执行本说明书实施例提供的生成应答话术的方法。图7示出根据一个实施例的生成应答话术的装置的示意性框图。如图7所示,该装置700包括:
关键词抽取单元71,用于针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词;
话术生成单元72,用于将所述关键词抽取单元71得到的第二意图关键词以字为单位按照各字的位置关系输入图6所述的装置预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
可选地,作为一个实施例,所述装置还包括:集合迭代单元,用于:
在所述话术生成单元构成所述第二意图关键词对应的第二应答话术之后,获取已建立的话术集合,所述话术集合中包括多个意图关键词和多个候选话术,各意图关键词与各候选话术之间具有对应关系;
确定所述第二应答话术与各候选话术之间的各相似度;
若各相似度均小于预先设定的相似度阈值,则将所述第二应答话术加入所述话术集合中,作为所述第二意图关键词对应的候选话术。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2或图4所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2或图4所描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (18)

1.一种训练话术生成模型的方法,所述方法包括:
针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词;
将所述第一历史对话中的客服对话作为所述第一意图关键词对应的第一应答话术,以得到一组训练样本;
将一组训练样本中的所述第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果;
根据所述第一应答话术和所述话术预测结果,确定预测损失;
以最小化预测损失为目标对所述话术生成模型进行训练。
2.如权利要求1所述的方法,其中,所述对所述话术生成模型进行训练,包括:
对所述话术生成模型进行分阶段训练,得到各阶段分别对应的训练后的话术生成模型;其中,各阶段对应不同的训练样本集合;
依据所述话术生成模型在给定验证集上面的困惑度指标,从各阶段分别对应的训练后的话术生成模型中选择最优的话术生成模型,作为训练后的话术生成模型。
3.如权利要求1所述的方法,其中,所述多次迭代解码包括初次迭代解码,所述初次迭代解码,包括:
将缺省向量作为初始位置对应的向量,将第一语义向量作为所述上次迭代中的输出,确定所述话术预测结果中的第一个字。
4.如权利要求1所述的方法,其中,所述编码器基于转换器单元形成,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
对所述第一意图关键词中各个字进行嵌入,得到各个字的嵌入向量;
根据各个字的位置,得到各个字的位置向量;
根据各个字的嵌入向量和位置向量,得到各个字的编码向量;
根据注意力机制,对各个字的编码向量进行若干次加权综合,得到所述第一语义向量。
5.如权利要求1所述的方法,其中,所述编码器为基于时序的神经网络,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
将所述第一意图关键词中的各个字依次输入所述神经网络,所述神经网络根据当前时刻的输入和前一时刻的输出,确定当前输出,所述第一语义向量为所述神经网络处理所述第一意图关键词中最后一个字后输出的向量。
6.如权利要求1所述的方法,其中,所述将所述第一语义向量输入到所述解码器进行多次迭代解码,包括:
所述解码器将已得到的第一位置的输出存储于解码词表中;
所述解码器确定第二位置的输出时,所述第二位置为所述第一位置的下一位置,确定所述第二位置对应的各候选字的初始概率值,查询所述解码词表,对于所述解码词表中存在的字,将各候选字的初始概率值调整为对应的调整概率值,依据各候选字的调整概率值确定所述第二位置输出的解码字,并将该解码字加入到所述解码词表中。
7.一种生成应答话术的方法,所述方法包括:
针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词;
将所述第二意图关键词以字为单位按照各字的位置关系输入权利要求1所述的方法预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
8.如权利要求7所述的方法,其中,所述构成所述第二意图关键词对应的第二应答话术之后,所述方法还包括:
获取已建立的话术集合,所述话术集合中包括多个意图关键词和多个候选话术,各意图关键词与各候选话术之间具有对应关系;
确定所述第二应答话术与各候选话术之间的各相似度;
若各相似度均小于预先设定的相似度阈值,则将所述第二应答话术加入所述话术集合中,作为所述第二意图关键词对应的候选话术。
9.一种训练话术生成模型的装置,所述装置包括:
关键词抽取单元,用于针对用户与人工客服的第一历史对话,对所述第一历史对话中的用户对话,进行关键词抽取以得到所述第一历史对话中的表征用户意图的第一意图关键词;
样本组合单元,用于将所述第一历史对话中的客服对话作为所述关键词抽取单元得到的第一意图关键词对应的第一应答话术,以得到一组训练样本;
话术预测单元,用于将所述样本组合单元得到的一组训练样本中的第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,得到所述第一意图关键词对应的第一语义向量,并将所述第一语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的所述第一应答话术中当前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成话术预测结果;
损失确定单元,用于根据所述第一应答话术和所述话术预测单元得到的话术预测结果,确定预测损失;
模型训练单元,用于以最小化所述损失确定单元确定的预测损失为目标对所述话术生成模型进行训练。
10.如权利要求9所述的装置,其中,所述模型训练单元,具体用于:
对所述话术生成模型进行分阶段训练,得到各阶段分别对应的训练后的话术生成模型;其中,各阶段对应不同的训练样本集合;
依据所述话术生成模型在给定验证集上面的困惑度指标,从各阶段分别对应的训练后的话术生成模型中选择最优的话术生成模型,作为训练后的话术生成模型。
11.如权利要求9所述的装置,其中,所述多次迭代解码包括初次迭代解码,所述初次迭代解码,包括:
将缺省向量作为初始位置对应的向量,将第一语义向量作为所述上次迭代中的输出,确定所述话术预测结果中的第一个字。
12.如权利要求9所述的装置,其中,所述编码器基于转换器单元形成,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
对所述第一意图关键词中各个字进行嵌入,得到各个字的嵌入向量;
根据各个字的位置,得到各个字的位置向量;
根据各个字的嵌入向量和位置向量,得到各个字的编码向量;
根据注意力机制,对各个字的编码向量进行若干次加权综合,得到所述第一语义向量。
13.如权利要求9所述的装置,其中,所述编码器为基于时序的神经网络,所述编码器根据所述位置关系以及所述第一意图关键词中的各字对所述第一意图关键词进行编码,包括:
将所述第一意图关键词中的各个字依次输入所述神经网络,所述神经网络根据当前时刻的输入和前一时刻的输出,确定当前输出,所述第一语义向量为所述神经网络处理所述第一意图关键词中最后一个字后输出的向量。
14.如权利要求9所述的装置,其中,所述将所述第一语义向量输入到所述解码器进行多次迭代解码,包括:
所述解码器将已得到的第一位置的输出存储于解码词表中;
所述解码器确定第二位置的输出时,所述第二位置为所述第一位置的下一位置,确定所述第二位置对应的各候选字的初始概率值,查询所述解码词表,对于所述解码词表中存在的字,将各候选字的初始概率值调整为对应的调整概率值,依据各候选字的调整概率值确定所述第二位置输出的解码字,并将该解码字加入到所述解码词表中。
15.一种生成应答话术的装置,所述装置包括:
关键词抽取单元,用于针对用户与人工客服的第二历史对话,对所述第二历史对话中的用户对话,进行关键词抽取以得到所述第二历史对话中的表征用户意图的第二意图关键词;
话术生成单元,用于将所述关键词抽取单元得到的第二意图关键词以字为单位按照各字的位置关系输入权利要求9所述的装置预先训练的话术生成模型,所述话术生成模型包括编码器和解码器,所述编码器根据所述位置关系以及所述第二意图关键词中的各字对所述第二意图关键词进行编码,得到所述第二意图关键词对应的第二语义向量,并将所述第二语义向量输入到所述解码器进行多次迭代解码,每次迭代解码包括,根据本次迭代中输入的之前位置的字对应的向量,以及解码器在上次迭代中针对之前位置的处理结果,确定针对下一位置的字的预测结果;针对各个位置的字的预测结果构成所述第二意图关键词对应的第二应答话术。
16.如权利要求15所述的装置,其中,所述装置还包括:集合迭代单元,用于:
在所述话术生成单元构成所述第二意图关键词对应的第二应答话术之后,获取已建立的话术集合,所述话术集合中包括多个意图关键词和多个候选话术,各意图关键词与各候选话术之间具有对应关系;
确定所述第二应答话术与各候选话术之间的各相似度;
若各相似度均小于预先设定的相似度阈值,则将所述第二应答话术加入所述话术集合中,作为所述第二意图关键词对应的候选话术。
17.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-8中任一项的所述的方法。
18.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-8中任一项的所述的方法。
CN202010130638.2A 2020-02-28 2020-02-28 训练话术生成模型、生成应答话术的方法和装置 Active CN111339278B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010130638.2A CN111339278B (zh) 2020-02-28 2020-02-28 训练话术生成模型、生成应答话术的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010130638.2A CN111339278B (zh) 2020-02-28 2020-02-28 训练话术生成模型、生成应答话术的方法和装置

Publications (2)

Publication Number Publication Date
CN111339278A true CN111339278A (zh) 2020-06-26
CN111339278B CN111339278B (zh) 2023-03-31

Family

ID=71181947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010130638.2A Active CN111339278B (zh) 2020-02-28 2020-02-28 训练话术生成模型、生成应答话术的方法和装置

Country Status (1)

Country Link
CN (1) CN111339278B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质
CN112182161A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于用户对话历史的个性化对话生成方法和系统
CN112732911A (zh) * 2020-12-30 2021-04-30 平安科技(深圳)有限公司 基于语义识别的话术推荐方法、装置、设备及存储介质
CN112989046A (zh) * 2021-03-18 2021-06-18 中国平安人寿保险股份有限公司 实时话术预判方法、装置、计算机设备和存储介质
CN113012822A (zh) * 2021-03-23 2021-06-22 同济大学 一种基于生成式对话技术的医疗问答系统
CN113032563A (zh) * 2021-03-22 2021-06-25 山西三友和智慧信息技术股份有限公司 一种基于人工遮掩关键词的正则化文本分类微调方法
CN115017870A (zh) * 2022-05-30 2022-09-06 平安科技(深圳)有限公司 一种闭环的话术扩写方法、装置、计算机设备及存储介质
WO2022206091A1 (zh) * 2021-03-30 2022-10-06 京东科技控股股份有限公司 用于生成数据的方法和装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161624A1 (en) * 2015-12-02 2017-06-08 Gluru Limited System and method for intelligent resource ranking and retrieval
US20180060301A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
US20180113852A1 (en) * 2016-10-21 2018-04-26 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input
WO2019076286A1 (zh) * 2017-10-20 2019-04-25 阿里巴巴集团控股有限公司 一种语句的用户意图识别方法和装置
CN110046230A (zh) * 2018-12-18 2019-07-23 阿里巴巴集团控股有限公司 生成推荐话术集合的方法、推荐话术的方法和装置
CN110083692A (zh) * 2019-04-22 2019-08-02 齐鲁工业大学 一种金融知识问答的文本交互匹配方法及装置
CN110196901A (zh) * 2019-06-28 2019-09-03 北京百度网讯科技有限公司 对话系统的构建方法、装置、计算机设备和存储介质
CN110287283A (zh) * 2019-05-22 2019-09-27 中国平安财产保险股份有限公司 意图模型训练方法、意图识别方法、装置、设备及介质
US20190325079A1 (en) * 2018-04-24 2019-10-24 Rovi Guides, Inc. Systems and methods for updating search results based on a conversation
CN110516050A (zh) * 2019-07-15 2019-11-29 上海文思海辉金信软件有限公司 一种基于知识图谱的多路径训练场景的构建方法
CN110647621A (zh) * 2019-09-27 2020-01-03 支付宝(杭州)信息技术有限公司 机器人客服引导对话中选择话术的方法和装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161624A1 (en) * 2015-12-02 2017-06-08 Gluru Limited System and method for intelligent resource ranking and retrieval
US20180060301A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
US20180113852A1 (en) * 2016-10-21 2018-04-26 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input
WO2019076286A1 (zh) * 2017-10-20 2019-04-25 阿里巴巴集团控股有限公司 一种语句的用户意图识别方法和装置
US20190325079A1 (en) * 2018-04-24 2019-10-24 Rovi Guides, Inc. Systems and methods for updating search results based on a conversation
CN110046230A (zh) * 2018-12-18 2019-07-23 阿里巴巴集团控股有限公司 生成推荐话术集合的方法、推荐话术的方法和装置
CN110083692A (zh) * 2019-04-22 2019-08-02 齐鲁工业大学 一种金融知识问答的文本交互匹配方法及装置
CN110287283A (zh) * 2019-05-22 2019-09-27 中国平安财产保险股份有限公司 意图模型训练方法、意图识别方法、装置、设备及介质
CN110196901A (zh) * 2019-06-28 2019-09-03 北京百度网讯科技有限公司 对话系统的构建方法、装置、计算机设备和存储介质
CN110516050A (zh) * 2019-07-15 2019-11-29 上海文思海辉金信软件有限公司 一种基于知识图谱的多路径训练场景的构建方法
CN110647621A (zh) * 2019-09-27 2020-01-03 支付宝(杭州)信息技术有限公司 机器人客服引导对话中选择话术的方法和装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质
CN112182161A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于用户对话历史的个性化对话生成方法和系统
CN112182161B (zh) * 2020-09-30 2023-10-31 中国人民大学 一种基于用户对话历史的个性化对话生成方法和系统
CN112732911A (zh) * 2020-12-30 2021-04-30 平安科技(深圳)有限公司 基于语义识别的话术推荐方法、装置、设备及存储介质
CN112732911B (zh) * 2020-12-30 2023-10-10 平安科技(深圳)有限公司 基于语义识别的话术推荐方法、装置、设备及存储介质
CN112989046A (zh) * 2021-03-18 2021-06-18 中国平安人寿保险股份有限公司 实时话术预判方法、装置、计算机设备和存储介质
CN112989046B (zh) * 2021-03-18 2023-07-21 中国平安人寿保险股份有限公司 实时话术预判方法、装置、计算机设备和存储介质
CN113032563A (zh) * 2021-03-22 2021-06-25 山西三友和智慧信息技术股份有限公司 一种基于人工遮掩关键词的正则化文本分类微调方法
CN113032563B (zh) * 2021-03-22 2023-07-14 山西三友和智慧信息技术股份有限公司 一种基于人工遮掩关键词的正则化文本分类微调方法
CN113012822A (zh) * 2021-03-23 2021-06-22 同济大学 一种基于生成式对话技术的医疗问答系统
WO2022206091A1 (zh) * 2021-03-30 2022-10-06 京东科技控股股份有限公司 用于生成数据的方法和装置
CN115017870A (zh) * 2022-05-30 2022-09-06 平安科技(深圳)有限公司 一种闭环的话术扩写方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN111339278B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
CN111339278B (zh) 训练话术生成模型、生成应答话术的方法和装置
JP7464621B2 (ja) 音声合成方法、デバイス、およびコンピュータ可読ストレージ媒体
JP6916264B2 (ja) 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体
US11080591B2 (en) Processing sequences using convolutional neural networks
CN109785824B (zh) 一种语音翻译模型的训练方法及装置
CN113439301A (zh) 使用序列到序列映射在模拟数据与语音识别输出之间进行协调
WO2017114172A1 (zh) 一种发音词典的构建方法及装置
CN113168828A (zh) 基于合成数据训练的会话代理管线
CN111177324B (zh) 基于语音识别结果进行意图分类的方法和装置
CN111210807B (zh) 语音识别模型训练方法、系统、移动终端及存储介质
CN111930914B (zh) 问题生成方法和装置、电子设备以及计算机可读存储介质
CN114038447A (zh) 语音合成模型的训练方法、语音合成方法、装置及介质
CN110853628A (zh) 一种模型训练方法、装置、电子设备及存储介质
CN112131359A (zh) 一种基于图形化编排智能策略的意图识别方法及电子设备
CN115641543A (zh) 一种多模态抑郁情绪识别方法及装置
CN114023300A (zh) 一种基于扩散概率模型的中文语音合成方法
JP2022549893A (ja) 過去の入力に選択的に注意を向けるための注意ベースのニューラルネットワークの拡張
CN113450761A (zh) 一种基于变分自编码器的并行语音合成方法和装置
CN115269836A (zh) 意图识别方法及装置
CN113947072A (zh) 一种文本纠错方法及文本纠错装置
CN113793599A (zh) 语音识别模型的训练方法和语音识别方法及装置
CN114974218A (zh) 语音转换模型训练方法及装置、语音转换方法及装置
CN115346520A (zh) 语音识别的方法、装置、电子设备和介质
CN115132170A (zh) 语种分类方法、装置及计算机可读存储介质
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant