CN115081459A - 口语文本生成方法、装置、设备及存储介质 - Google Patents
口语文本生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115081459A CN115081459A CN202210874171.1A CN202210874171A CN115081459A CN 115081459 A CN115081459 A CN 115081459A CN 202210874171 A CN202210874171 A CN 202210874171A CN 115081459 A CN115081459 A CN 115081459A
- Authority
- CN
- China
- Prior art keywords
- text
- spoken
- written
- intention
- spoken language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本公开提供一种口语文本生成方法、装置、设备及存储介质。该方法包括:获取原始书面文本、文本意图及口语特征向量,并输入到口语文本生成模块中;对原始书面文本及文本意图进行拼接得到文本意图对,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;将书面文本语义向量及口语特征向量输入到口语文本解码器,进行编码得到口语文本语义向量;利用口语文本生成器对口语文本语义向量进行解码得到口语文本;将原始书面文本和口语文本输入到语义一致性打分模块中进行打分,将一致性打分结果大于预设阈值的口语文本作为生成的口语文本。本公开能够生成通顺、语义清晰的口语文本,生成的口语文本可用于训练神经网络,提升对话系统的性能。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种口语文本生成方法、装置、设备及存储介质。
背景技术
随着自然语言技术的不断发展,智能音箱、智能机器人、语音助手、自动客服等越来越多的智能问答系统和对话系统在生活中发挥作用。智能问答系统和对话系统等产品以人机语音交互方式为主,通常是先获取用户输入的语音信息,通过语音识别技术将语音转换成文本,再通过语义理解技术识别用户的文本意图。意图识别作为对话系统中的重要部分,对于保证用户的使用体验有着至关重要的作用。
现有技术中,当前业内普遍使用规则模版和深度学习结合的方法来实现意图识别的功能,这种方法在基于大量数据以及人为设置的特征模板下,能够较好的理解用户的真正意图。然而,在实际的口语对话场景中,用户的表述往往与书面文本不同,经常出现包括结巴、拖长音、语序颠倒、增加插入语在内的口语习惯。这种口语习惯具有非常多的变化,因此传统的规则模版往往花费非常多的资源也不能很好地覆盖;同时业内的口语文本的数据集较少,且存在语句不通顺,语义不清晰等问题,因此神经网络也无法精准地对这种口语文本进行意图识别,更无法提升对话系统的性能。
发明内容
有鉴于此,本公开实施例提供了一种口语文本生成方法、装置、设备及存储介质,以解决现有技术存在的口语文本数据集少,口语文本的语句不通顺,语义不清晰,生成的口语文本无法用于训练神经网络,无法提升对话系统性能的问题。
本公开实施例的第一方面,提供了一种口语文本生成方法,包括:获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;对原始书面文本以及文本意图进行拼接得到文本意图对,将文本意图对作为口语文本生成模块中的书面文本编码器的输入,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;将书面文本语义向量以及口语特征向量作为口语文本生成模块中的口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;将口语文本语义向量作为口语文本生成模块中的口语文本生成器的输入,利用口语文本生成器对口语文本语义向量进行解码,得到与原始书面文本对应的口语文本;将原始书面文本以及口语文本输入到预先训练好的语义一致性打分模块中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。
本公开实施例的第二方面,提供了一种口语文本生成装置,包括:获取模块,被配置为获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;编码模块,被配置为对原始书面文本以及文本意图进行拼接得到文本意图对,将文本意图对作为口语文本生成模块中的书面文本编码器的输入,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;解码模块,被配置为将书面文本语义向量以及口语特征向量作为口语文本生成模块中的口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;生成模块,被配置为将口语文本语义向量作为口语文本生成模块中的口语文本生成器的输入,利用口语文本生成器对口语文本语义向量进行解码,得到与原始书面文本对应的口语文本;打分模块,被配置为将原始书面文本以及口语文本输入到预先训练好的语义一致性打分模块中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。
本公开实施例的第三方面,提供了一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;对原始书面文本以及文本意图进行拼接得到文本意图对,将文本意图对作为口语文本生成模块中的书面文本编码器的输入,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;将书面文本语义向量以及口语特征向量作为口语文本生成模块中的口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;将口语文本语义向量作为口语文本生成模块中的口语文本生成器的输入,利用口语文本生成器对口语文本语义向量进行解码,得到与原始书面文本对应的口语文本;将原始书面文本以及口语文本输入到预先训练好的语义一致性打分模块中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。本公开将意图作为额外信息引入到口语文本生成任务中,能够生成通顺、语义清晰的口语化文本,生成的口语文本可以用于训练神经网络,从而提升对话系统的性能,本公开在由书面文本生成口语文本的任务中,取得了良好的效果。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例涉及的口语文本生成系统的整体结构示意图;
图2是本公开实施例提供的口语文本生成方法的流程示意图;
图3是本公开实施例提供的修改前的对话服务解码器的注意力矩阵的结构示意图;
图4是本公开实施例提供的修改后的对话服务解码器的注意力矩阵的结构示意图;
图5是本公开实施例提供的口语文本生成模块的结构示意图;
图6是本公开实施例提供的语义一致性打分模块的结构示意图;
图7是本公开实施例提供的口语文本生成装置的结构示意图;
图8是本公开实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
鉴于前述背景技术中的技术问题,本公开提出了一种结合意图的口语化文本生成方法,利用书面文本以及书面文本对应的意图,通过口语特征遮掩语言模型任务、意图识别任务、通顺语句判断任务、以及对BERT模型进行预训练,得到语义编码模块和解码模块;结合语义信息打分模块和文本生成模块,生成通顺、语义清晰的口语化文本,生成的口语文本可以用于训练神经网络,提升对话系统的性能。
下面结合附图对本公开实施例所涉及系统的整体架构进行说明。图1是本公开实施例涉及的口语文本生成系统的整体结构示意图,如图1所示,该口语文本生成系统具体可以包括以下内容:
本公开实施例的口语文本生成系统包括融入意图的口语文本生成模块以及语义一致性打分模块,将书面文本、意图类别以及口语特征向量输入到的口语文本生成系统中之后,首先将书面文本、意图类别以及口语特征向量作为融入意图的口语文本生成模块的输入,利用融入意图的口语文本生成模块进行口语文本的预测,从而生成与书面文本相对应的口语文本,最后将书面文本及其对应的口语文本作为语义一致性打分模块的输入,利用语义一致性打分模块对书面文本及其对应的口语文本进行语义的一致性打分,将一致性打分结果高于预设阈值的书面文本所对应的口语文本作为生成的口语文本,将最终生成的全部口语文本进行输出。
图2是本公开实施例提供的口语文本生成方法的流程示意图。图2的口语文本生成方法可以由服务器执行。如图2所示,该口语文本生成方法具体可以包括:
S201,获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;
S202,对原始书面文本以及文本意图进行拼接得到文本意图对,将文本意图对作为口语文本生成模块中的书面文本编码器的输入,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;
S203,将书面文本语义向量以及口语特征向量作为口语文本生成模块中的口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;
S204,将口语文本语义向量作为口语文本生成模块中的口语文本生成器的输入,利用口语文本生成器对口语文本语义向量进行解码,得到与原始书面文本对应的口语文本;
S205,将原始书面文本以及口语文本输入到预先训练好的语义一致性打分模块中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。
具体地,本公开实施例的原始书面文本是指在实际的应用场景中,基于预设的口语对话场景下的对话系统所产生的书面文本,例如在酒店客房服务的口语对话场景中,对话系统所产生的书面文本就可以认为是在酒店客房服务场景下,通过对用户的语音对话进行识别得到的文本。一般而言,对话系统所产生的书面文本将存储在对话系统的数据库中,因此当需要生成该对话场景下的口语化文本时,需要先从对话系统的数据库中获取一些在实际对话场景中产生的书面文本,将这些书面文本作为用于生成口语化文本的原始数据(即原始书面文本)。
进一步地,本公开实施例的口语文本生成模块和语义一致性打分模块均是采用BERT模型框架所生成的预训练模型。BERT(Bidirectional Encoder Representation fromTransformers)是一种预训练的语言表征模型,BERT采用了Transformer Encoder block进行连接,它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征,BERT模型是一个典型的双向编码模型。
根据本公开实施例提供的技术方案,本公开通过获取原始书面文本并确定文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;对原始书面文本以及文本意图进行拼接得到文本意图对,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;将书面文本语义向量以及口语特征向量作为口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;利用口语文本生成器对口语文本语义向量进行解码,得到口语文本;将原始书面文本和口语文本输入到语义一致性打分模块中进行打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。本公开将意图作为额外信息引入到口语文本生成任务中,能够生成通顺、语义清晰的口语化文本,生成的口语文本可以用于训练神经网络,从而提升对话系统的性能,本公开在由书面文本生成口语文本的任务中,取得了良好的效果。
在一些实施例中,获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,包括:从预设场景的对话系统的数据库中采集多个书面文本,将采集到的多个书面文本作为原始书面文本,为每个原始书面文本匹配对应的文本意图,并基于预设的口语特征生成口语特征向量。
具体地,在生成特定对话场景下的口语文本之前,需要先从该特定对话场景的对话系统的数据库中采集一些书面文本作为原始的书面文本数据,例如以酒店客房服务场景为例,客人在通过客房电话机与前台或者与酒店服务应用程序进行人机通话时,对客人使用客房电话机所发出的语音信号进行识别,得到客人的语音文本,将语音文本以书面文本的方式保存在数据库中,比如存储在对话系统的云平台数据库中。除此之外,在对语音信号进行识别得到书面文本之后,还可以利用预先配置的文本意图识别算法对书面文本的意图进行识别,得到每个原始书面文本对应的文本意图。
在一些实施例中,在对口语文本生成模块进行训练之前,该方法还包括:获取历史对话场景下产生的书面文本以及书面文本对应的意图,利用预设的口语特征规则,对书面文本进行处理得到多个口语文本,并确定每个口语文本与书面文本之间的差异内容,以及口语特征规则对应的口语特征;为每个书面文本以及该书面文本对应的多个口语文本,分别进行句子的通顺性以及语义的一致性进行标记,将书面文本、口语文本以及语义的一致性进行整理生成第一训练集;选取一定比例的书面文本以及书面文本对应的口语文本,并结合书面文本与口语文本之间的差异内容、书面文本对应的意图、以及句子的通顺性生成第二训练集;选取另一比例的句子通顺的数据生成第三训练集,其中句子通顺的数据中包含书面文本、口语文本、意图以及口语特征。
具体地,在对融入意图的口语生成模块以及语义一致性打分模块进行训练之前,首先生成用于模型训练的数据,根据从特定对话场景的对话系统的数据库中采集到的多个书面文本,确定每个书面文本对应的意图,即收集对话中的书面文本以及对应的意图,并将书面文本及意图组成文本-意图对,例如收集到的书面文本为“给我送一瓶矿泉水。”,文本意图为“送物”,那么该文本-意图对为(“给我送一瓶矿泉水。”“送物”),本公开实施例在实际应用中收集了50万个书面文本-意图对。
进一步地,针对每一种预设的口语特征设置对应的口语特征规则,口语特征包括但不限于以下特征:结巴、拖长音、语序颠倒、增加插入语等,口语特征规则是根据口语特征所设计的自动生成口语文本的规则,例如当口语特征为增加插入语时,设计的口语特征规则可以包括:在句子的主语和谓语、谓语和宾语间以一定概率从插入语库【就是,那个,然后,等】随机抽取一个插入语进行填充。
进一步地,对于每条书面文本数据,利用上述实施例设计的口语特征规则进行训练数据的扩充,得到多条口语文本数据,同时记录下每条口语文本数据与书面文本的差异内容,以及口语特征规则对应的口语特征;另外,对于每条书面文本数据及其对应的多条口语文本数据,通过人工标记的方式生成口语文本是否通顺,以及句子语义与原书面文本是否一致的信息。
进一步地,从前面获取到的原始数据以及人工标记的数据中,选择70%的文本T、差异内容D、意图I以及句子是否通顺F组成新的数据集,将由上述数据所组成的全部数据集作为第二训练集,第二训练集用于融入意图的口语文本生成模块的预训练。
进一步地,从剩余的30%数据中,选择句子通顺的文本数据,将句子通顺的文本数据对应的书面文本、口语文本、意图I以及口语特征R组成新的数据集,将由上述数据所组成的全部数据集作为第三训练集,第三训练集用于融入意图的口语文本生成模块的正式训练。
在一些实施例中,利用第二训练集分别对书面文本编码器和口语文本解码器进行预训练;其中,书面文本编码器采用预训练的BERT模型,采用以下方式对书面文本编码器对应的BERT模型进行预训练,包括:在基于口语特征遮掩语言模型任务作为预训练任务对书面文本编码器进行预训练时,将第二训练集中每一条文本数据中的差异内容,随机选择一定比例的单词进行替换,对于每一个被替换的单词,按照一定的概率进行掩码,并且按照另一概率替换成其他单词;在基于意图识别任务作为预训练任务对书面文本编码器进行预训练时,将第二训练集中的每一条文本数据以及文本的意图,按照一定的概率将文本的意图修改为其他意图;将文本及意图组成的文本意图数据,以及文本及其他意图组成的文本意图数据,分别作为意图识别任务的输入,利用意图识别任务对文本意图数据的进行预测,判断文本与意图和/或其他意图是否匹配。
具体地,本公开实施例的融入意图的口语文本生成模块由书面文本编码器、口语文本解码器和口语文本生成器组成。口语文本生成模块的训练过程包括预训练和正式训练,在预训练中仅对书面文本编码器和口语文本解码器进行训练,书面文本编码器使用了以口语特征遮掩语言模型任务与意图识别任务作为预训练的BERT模型。
进一步地,BERT官方模型为了学习语义信息,使用了两个任务作为预训练,即现有的BERT模型的预训练中引入了以下两大核心任务:引入Masked LM(带MASK的语言模型训练)以及引入Next Sentence Prediction(下句话的预测任务)。下面对现有的BERT模型的预训练任务进行说明,具体可以包括以下内容:
在第一个预训练任务中,即随机静态掩码的语言模型训练中,对于每一个序列随机选择15%的Tokens(文本中出现的所有词的个数)替换成[MASK](即掩码);对于每一个被替换的Token,80%的时间替换成[MASK],10%的时间不变,10%的时间替换成其他词,预训练的任务为对被替换的词进行预测;
在第二个预训练任务中,即下个句子的预测任务中,通过输入一对句子A和B,判断A和B两个句子是否连续,预训练时50%的数据为连续,50%为非连续。
进一步地,为了适应本公开技术方案,本公开实施例对BERT模型的预训练任务进行了调整,在BERT官方模型的预训练任务中,例如基于随机静态掩码的模型训练任务中,被替换成掩码的词为随机选择的,而在本公开实施例的BERT模型的预训练任务中,希望模型能够更加关注具有口语特征的单词。因此本公开提出了基于口语特征遮掩语言模型任务作为预训练任务。该基于口语特征遮掩语言模型的预训练任务的内容如下:
不同于传统的随机静态掩码的模型训练任务中随机选择15%单词进行掩码的训练方式,本公开实施例将第二训练集中每一条文本数据中的差异内容,随机选择50%进行替换,对于每一个被替换的Token(即差异内容对应的单词),80%的时间替换成[MASK],10%的时间不变,10%的时间替换成其他单词。
另外,下个句子预测任务更关注句子语义顺序的信息,而在本公开的任务中并不涉及长文本中多个句子的顺序关系。同时,在口语场景中,同样的口语特征不同意图下可能代表不同的语义信息,例如“就是那个wifi密码是多少”中的“就是那个”并不涵盖语义信息,而“充电器就是那个苹果的”中的“就是那个”则代表句子后半部分是对前半部分的解释。因此,本公开希望模型更加关注语句本身的意图信息,因此提出意图识别任务作为预训练任务,替代原有的下个句子预测任务。该基于意图识别的预训练任务的内容如下:
对于第二训练集的每一条文本数据及其对应的意图,在进行预训练时,有50%的概率将意图修改为其他意图,将文本与意图作为意图识别任务的输入,利用意图识别任务对输入进行预测,判断文本与意图是否匹配。
在一些实施例中,口语文本解码器采用预训练的BERT模型,采用以下方式对口语文本解码器对应的BERT模型进行预训练,包括:在基于通顺语句判断任务作为预训练任务对口语文本解码器进行预训练时,对第二训练集中的每一条文本数据,根据句子是否通顺,抽取相同数量的正负样本,将正负样本作为通顺语句判断任务的输入,利用通顺语句判断任务对正负样本进行预测,判断文本是否通顺;其中,在利用口语文本解码器的注意力矩阵进行口语特征的学习时,基于预定的软编码向量缩放融合方法,将离散的口语特征向量进行缩放和软编码,将软编码口语特征矩阵融入到注意力矩阵中,以便让模型学习口语特征的信息。
具体地,口语文本解码器使用了以口语特征遮掩语言模型任务与通顺语句判断任务作为预训练的BERT模型。其中,基于口语特征遮掩语言模型任务作为预训练任务时,预训练过程与上述书面文本编码器的预训练中基于口语特征遮掩语言模型的预训练任务的内容相同,在此不再赘述。
进一步地,由于增加口语特征可能导致对破坏句子的句法结构,导致文本不通顺,因此本公开提出了通顺语句判断任务取代原有的下个句子预测任务对BERT模型进行预训练。该基于通顺语句判断的预训练任务的内容如下:
对于第二训练集中的文本数据,根据句子是否通顺F,抽取相同数量的正负样本,其中,将句子通顺的文本数据作为正样本,将句子不通顺的文本数据作为负样本。将正负样本作为通顺语句判断任务的输入,利用通顺语句判断任务对输入进行预测,判断文本是否通顺。
特别说明地,为了更好地将口语特征向量增加到书面语义向量中,本公开没有采取传统的向量拼接方法,而是对口语文本解码器计算注意力矩阵的方法进行修改,增加了软编码向量缩放融合方法,将离散的口语特征向量进行缩放和软编码,融入到注意力矩阵中,从而让模型可以更好地学习口语特征的信息。下面对本公开实施例的软编码向量缩放融合方法的实现过程描述如下:
对于填充后口语特征矩阵PR的每一行,进行软编码得到i行j列的软编码口语特征矩阵SPR。
BERT模型本身并不适用于文本生成相关的任务,原因在于在模型内部的Transformer单元是基于自注意力机制,即计算句子的每一时刻的信息和句子各个时刻的信息(包括该时刻本身)的相关性得到注意力矩阵,从而对句子的语义信息进行计算。然而,在文本生成的相关任务中,句子中较前时刻的信息与较后时刻的信息不应存在相关性。因此本公开在使用BERT模型参数进行初始化的基础上,对对话服务解码器的注意力矩阵进行修改。图3是本公开实施例提供的修改前的对话服务解码器的注意力矩阵的结构示意图,图4是本公开实施例提供的修改后的对话服务解码器的注意力矩阵的结构示意图,如图3和图4所示,与修改前的对话服务解码器的注意力矩阵相比,本公开实施例通过将较前时刻的信息和较后时刻的信息之间的相关性进行掩盖,使得每个时刻的信息只与出现之前时刻的信息有相关性。
实际实验中发现,在最后的解码过程中经常遇到口语特征重复生成的问题,即反复生成同一个口语特征单词或者单词序列,例如(我那个那个那个)。因此本公开对束搜索算法进行优化,在每次预测单词时,将已经出现过的口语特征单词概率降低,降低幅度与口语特征单词已经出现过的次数成反比,同时增加非口语特征词概率。计算方式如下:
总词表由口语特征词表W与非口语特征词表N组成,已经预测出现过的口语特征单词列表为,原本预测单词为口语特征单词w的概率为,若w已经出现过c次,则修改后预测单词为w的概率。根据每个口语特征词的概率变化,计算非口语特征词的缩放比例:;对于每个非口语特征词,计算概率。
在一些实施例中,在对书面文本编码器和口语文本解码器进行预训练之后,利用第三训练集对预训练后的书面文本编码器和口语文本解码器分别进行正式训练,以便调整模型的参数,并利用第三训练集对口语文本生成器进行正式训练,基于正式训练后的书面文本编码器、口语文本解码器及口语文本生成器组成训练后的口语文本生成模块。
具体地,在利用第二训练集分别对书面文本编码器和口语文本解码器进行预训练之后,预训练后的书面文本编码器和口语文本解码器,以及未经预训练的口语文本生成器共同组成了预训练后的融入意图的口语文本生成模块。下面结合附图对口语文本生成模块的结构进行说明,图5是本公开实施例提供的口语文本生成模块的结构示意图,如图5所示,该口语文本生成模块具体可以包括以下内容:
将书面文本、意图I、口语特征R作为口语文本生成模块的输入,将书面文本与意图I进行文本拼接,经过书面文本编码器进行编码,得到书面文本语义向量U;将书面文本语义向量U与口语特征R(使用one-hot向量的方式存储)作为输入,经过口语文本解码器进行解码,得到口语文本语义向量;口语文本生成器将口语文本语义向量进行解码,得到口语文本。
在一些实施例中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,包括:利用语义一致性打分模块中的编码器分别对原始书面文本以及口语文本进行编码,得到书面文本语义向量和口语文本语义向量,基于书面文本语义向量以及口语文本语义向量进行余弦相似度计算,当余弦相似度得分大于预设阈值时,将原始书面文本对应的口语文本进行保留,否则,将原始书面文本对应的口语文本舍弃,将最终保留的全部口语文本作为口语文本的生成结果。
具体地,语义一致性打分模块用于对原始书面文本以及利用口语文本生成模块输出的口语文本进行相似度打分,根据相似度打分结果确定最终保留的口语文本。下面结合附图对语义一致性打分模块的结构进行说明,图6是本公开实施例提供的语义一致性打分模块的结构示意图,如图6所示,该语义一致性打分模块具体可以包括以下内容:
将书面文本与口语文本作为语义一致性打分模块的输入,语义一致性打分模块输出两条文本数据对应的语义一致性打分结果,如果打分结果高于设置的阈值(比如阈值设置为0.9)则认为两条文本语义相同,将高于阈值时对应的口语文本进行保留,反之将口语文本进行舍弃。在实际应用中,语义一致性打分模块使用第一训练集的(书面文本、口语文本、语义是否一致C)数据进行训练。共享参数的编码器由一对孪生BERT网络组成,从BERT网络的原始权重初始化。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图7是本公开实施例提供的口语文本生成装置的结构示意图。如图7所示,该口语文本生成装置包括:
获取模块701,被配置为获取用于生成口语文本的原始书面文本,并确定原始书面文本对应的文本意图以及口语特征向量,将原始书面文本、文本意图以及口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;
编码模块702,被配置为对原始书面文本以及文本意图进行拼接得到文本意图对,将文本意图对作为口语文本生成模块中的书面文本编码器的输入,利用书面文本编码器对文本意图对进行编码,得到书面文本语义向量;
解码模块703,被配置为将书面文本语义向量以及口语特征向量作为口语文本生成模块中的口语文本解码器的输入,利用口语文本解码器进行编码,得到口语文本语义向量;
生成模块704,被配置为将口语文本语义向量作为口语文本生成模块中的口语文本生成器的输入,利用口语文本生成器对口语文本语义向量进行解码,得到与原始书面文本对应的口语文本;
打分模块705,被配置为将原始书面文本以及口语文本输入到预先训练好的语义一致性打分模块中,利用语义一致性打分模块对原始书面文本与口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的原始书面文本对应的口语文本作为生成的口语文本。
在一些实施例中,图7的获取模块701从预设场景的对话系统的数据库中采集多个书面文本,将采集到的多个书面文本作为原始书面文本,为每个原始书面文本匹配对应的文本意图,并基于预设的口语特征生成口语特征向量。
在一些实施例中,图7的训练模块706在对口语文本生成模块进行训练之前,获取历史对话场景下产生的书面文本以及书面文本对应的意图,利用预设的口语特征规则,对书面文本进行处理得到多个口语文本,并确定每个口语文本与书面文本之间的差异内容,以及口语特征规则对应的口语特征;为每个书面文本以及该书面文本对应的多个口语文本,分别进行句子的通顺性以及语义的一致性进行标记,将书面文本、口语文本以及语义的一致性进行整理生成第一训练集;选取一定比例的书面文本以及书面文本对应的口语文本,并结合书面文本与口语文本之间的差异内容、书面文本对应的意图、以及句子的通顺性生成第二训练集;选取另一比例的句子通顺的数据生成第三训练集,其中句子通顺的数据中包含书面文本、口语文本、意图以及口语特征。
在一些实施例中,图7的训练模块706利用第二训练集分别对书面文本编码器和口语文本解码器进行预训练;其中,书面文本编码器采用预训练的BERT模型,在基于口语特征遮掩语言模型任务作为预训练任务对书面文本编码器进行预训练时,将第二训练集中每一条文本数据中的差异内容,随机选择一定比例的单词进行替换,对于每一个被替换的单词,按照一定的概率进行掩码,并且按照另一概率替换成其他单词;在基于意图识别任务作为预训练任务对书面文本编码器进行预训练时,将第二训练集中的每一条文本数据以及文本的意图,按照一定的概率将文本的意图修改为其他意图;将文本及意图组成的文本意图数据,以及文本及其他意图组成的文本意图数据,分别作为意图识别任务的输入,利用意图识别任务对文本意图数据的进行预测,判断文本与意图和/或其他意图是否匹配。
在一些实施例中,图7的训练模块706在基于通顺语句判断任务作为预训练任务对口语文本解码器进行预训练时,对第二训练集中的每一条文本数据,根据句子是否通顺,抽取相同数量的正负样本,将正负样本作为通顺语句判断任务的输入,利用通顺语句判断任务对正负样本进行预测,判断文本是否通顺;其中,在利用口语文本解码器的注意力矩阵进行口语特征的学习时,基于预定的软编码向量缩放融合方法,将离散的口语特征向量进行缩放和软编码,将软编码口语特征矩阵融入到注意力矩阵中,以便让模型学习口语特征的信息。
在一些实施例中,图7的训练模块706在对书面文本编码器和口语文本解码器进行预训练之后,利用第三训练集对预训练后的书面文本编码器和口语文本解码器分别进行正式训练,以便调整模型的参数,并利用第三训练集对口语文本生成器进行正式训练,基于正式训练后的书面文本编码器、口语文本解码器及口语文本生成器组成训练后的口语文本生成模块。
在一些实施例中,图7的打分模块705利用语义一致性打分模块中的编码器分别对原始书面文本以及口语文本进行编码,得到书面文本语义向量和口语文本语义向量,基于书面文本语义向量以及口语文本语义向量进行余弦相似度计算,当余弦相似度得分大于预设阈值时,将原始书面文本对应的口语文本进行保留,否则,将原始书面文本对应的口语文本舍弃,将最终保留的全部口语文本作为口语文本的生成结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图8是本公开实施例提供的电子设备8的结构示意图。如图8所示,该实施例的电子设备8包括:处理器801、存储器802以及存储在该存储器802中并且可以在处理器801上运行的计算机程序803。处理器801执行计算机程序803时实现上述各个方法实施例中的步骤。或者,处理器801执行计算机程序803时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序803可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器802中,并由处理器801执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序803在电子设备8中的执行过程。
电子设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备8可以包括但不仅限于处理器801和存储器802。本领域技术人员可以理解,图8仅仅是电子设备8的示例,并不构成对电子设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
处理器801可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器802可以是电子设备8的内部存储单元,例如,电子设备8的硬盘或内存。存储器802也可以是电子设备8的外部存储设备,例如,电子设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器802还可以既包括电子设备8的内部存储单元也包括外部存储设备。存储器802用于存储计算机程序以及电子设备所需的其它程序和数据。存储器802还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (10)
1.一种口语文本生成方法,其特征在于,包括:
获取用于生成口语文本的原始书面文本,并确定所述原始书面文本对应的文本意图以及口语特征向量,将所述原始书面文本、所述文本意图以及所述口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;
对所述原始书面文本以及所述文本意图进行拼接得到文本意图对,将所述文本意图对作为所述口语文本生成模块中的书面文本编码器的输入,利用所述书面文本编码器对所述文本意图对进行编码,得到书面文本语义向量;
将所述书面文本语义向量以及所述口语特征向量作为所述口语文本生成模块中的口语文本解码器的输入,利用所述口语文本解码器进行编码,得到口语文本语义向量;
将所述口语文本语义向量作为所述口语文本生成模块中的口语文本生成器的输入,利用所述口语文本生成器对所述口语文本语义向量进行解码,得到与所述原始书面文本对应的口语文本;
将所述原始书面文本以及所述口语文本输入到预先训练好的语义一致性打分模块中,利用所述语义一致性打分模块对所述原始书面文本与所述口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的所述原始书面文本对应的所述口语文本作为生成的口语文本。
2.根据权利要求1所述的方法,其特征在于,所述获取用于生成口语文本的原始书面文本,并确定所述原始书面文本对应的文本意图以及口语特征向量,包括:
从预设场景的对话系统的数据库中采集多个书面文本,将采集到的所述多个书面文本作为原始书面文本,为每个所述原始书面文本匹配对应的文本意图,并基于预设的口语特征生成口语特征向量。
3.根据权利要求1所述的方法,其特征在于,在对所述口语文本生成模块进行训练之前,所述方法还包括:
获取历史对话场景下产生的书面文本以及所述书面文本对应的意图,利用预设的口语特征规则,对所述书面文本进行处理得到多个口语文本,并确定每个所述口语文本与所述书面文本之间的差异内容,以及所述口语特征规则对应的口语特征;
为每个所述书面文本以及该书面文本对应的多个口语文本,分别进行句子的通顺性以及语义的一致性进行标记,将所述书面文本、所述口语文本以及所述语义的一致性进行整理生成第一训练集;
选取一定比例的所述书面文本以及所述书面文本对应的口语文本,并结合所述书面文本与所述口语文本之间的差异内容、所述书面文本对应的意图、以及所述句子的通顺性生成第二训练集;
选取另一比例的句子通顺的数据生成第三训练集,其中所述句子通顺的数据中包含所述书面文本、所述口语文本、所述意图以及所述口语特征。
4.根据权利要求3所述的方法,其特征在于,利用所述第二训练集分别对所述书面文本编码器和所述口语文本解码器进行预训练;
其中,所述书面文本编码器采用预训练的BERT模型,采用以下方式对所述书面文本编码器对应的BERT模型进行预训练,包括:
在基于口语特征遮掩语言模型任务作为预训练任务对所述书面文本编码器进行预训练时,将所述第二训练集中每一条文本数据中的差异内容,随机选择一定比例的单词进行替换,对于每一个被替换的单词,按照一定的概率进行掩码,并且按照另一概率替换成其他单词;
在基于意图识别任务作为预训练任务对所述书面文本编码器进行预训练时,将所述第二训练集中的每一条文本数据以及文本的意图,按照一定的概率将所述文本的意图修改为其他意图;
将所述文本及意图组成的文本意图数据,以及所述文本及其他意图组成的文本意图数据,分别作为意图识别任务的输入,利用意图识别任务对所述文本意图数据的进行预测,判断所述文本与意图和/或其他意图是否匹配。
5.根据权利要求4所述的方法,其特征在于,所述口语文本解码器采用预训练的BERT模型,采用以下方式对所述口语文本解码器对应的BERT模型进行预训练,包括:
在基于通顺语句判断任务作为预训练任务对所述口语文本解码器进行预训练时,对所述第二训练集中的每一条文本数据,根据句子是否通顺,抽取相同数量的正负样本,将所述正负样本作为通顺语句判断任务的输入,利用通顺语句判断任务对所述正负样本进行预测,判断文本是否通顺;
其中,在利用所述口语文本解码器的注意力矩阵进行口语特征的学习时,基于预定的软编码向量缩放融合方法,将离散的口语特征向量进行缩放和软编码,将软编码口语特征矩阵融入到注意力矩阵中,以便让模型学习口语特征的信息。
6.根据权利要求4所述的方法,其特征在于,在对所述书面文本编码器和所述口语文本解码器进行预训练之后,利用所述第三训练集对预训练后的所述书面文本编码器和所述口语文本解码器分别进行正式训练,以便调整模型的参数,并利用所述第三训练集对口语文本生成器进行正式训练,基于正式训练后的书面文本编码器、口语文本解码器及口语文本生成器组成训练后的口语文本生成模块。
7.根据权利要求1所述的方法,其特征在于,所述利用所述语义一致性打分模块对所述原始书面文本与所述口语文本之间进行语义的一致性打分,包括:
利用所述语义一致性打分模块中的编码器分别对所述原始书面文本以及所述口语文本进行编码,得到书面文本语义向量和口语文本语义向量,基于所述书面文本语义向量以及口语文本语义向量进行余弦相似度计算,当所述余弦相似度得分大于预设阈值时,将所述原始书面文本对应的所述口语文本进行保留,否则,将所述原始书面文本对应的所述口语文本舍弃,将最终保留的全部口语文本作为口语文本的生成结果。
8.一种口语文本生成装置,其特征在于,包括:
获取模块,被配置为获取用于生成口语文本的原始书面文本,并确定所述原始书面文本对应的文本意图以及口语特征向量,将所述原始书面文本、所述文本意图以及所述口语特征向量组成的数据集输入到预先训练好的口语文本生成模块中;
编码模块,被配置为对所述原始书面文本以及所述文本意图进行拼接得到文本意图对,将所述文本意图对作为所述口语文本生成模块中的书面文本编码器的输入,利用所述书面文本编码器对所述文本意图对进行编码,得到书面文本语义向量;
解码模块,被配置为将所述书面文本语义向量以及所述口语特征向量作为所述口语文本生成模块中的口语文本解码器的输入,利用所述口语文本解码器进行编码,得到口语文本语义向量;
生成模块,被配置为将所述口语文本语义向量作为所述口语文本生成模块中的口语文本生成器的输入,利用所述口语文本生成器对所述口语文本语义向量进行解码,得到与所述原始书面文本对应的口语文本;
打分模块,被配置为将所述原始书面文本以及所述口语文本输入到预先训练好的语义一致性打分模块中,利用所述语义一致性打分模块对所述原始书面文本与所述口语文本之间进行语义的一致性打分,将一致性打分结果大于预设阈值的所述原始书面文本对应的所述口语文本作为生成的口语文本。
9.一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210874171.1A CN115081459B (zh) | 2022-07-25 | 2022-07-25 | 口语文本生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210874171.1A CN115081459B (zh) | 2022-07-25 | 2022-07-25 | 口语文本生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115081459A true CN115081459A (zh) | 2022-09-20 |
CN115081459B CN115081459B (zh) | 2022-11-11 |
Family
ID=83243808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210874171.1A Active CN115081459B (zh) | 2022-07-25 | 2022-07-25 | 口语文本生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115081459B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190294676A1 (en) * | 2018-03-23 | 2019-09-26 | Servicenow, Inc. | Written-modality prosody subsystem in a natural language understanding (nlu) framework |
US20200184307A1 (en) * | 2018-12-11 | 2020-06-11 | Adobe Inc. | Utilizing recurrent neural networks to recognize and extract open intent from text inputs |
CN112733554A (zh) * | 2020-12-23 | 2021-04-30 | 深圳市爱科云通科技有限公司 | 口语文本处理方法、装置、服务器及可读存储介质 |
-
2022
- 2022-07-25 CN CN202210874171.1A patent/CN115081459B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190294676A1 (en) * | 2018-03-23 | 2019-09-26 | Servicenow, Inc. | Written-modality prosody subsystem in a natural language understanding (nlu) framework |
US20200184307A1 (en) * | 2018-12-11 | 2020-06-11 | Adobe Inc. | Utilizing recurrent neural networks to recognize and extract open intent from text inputs |
CN112733554A (zh) * | 2020-12-23 | 2021-04-30 | 深圳市爱科云通科技有限公司 | 口语文本处理方法、装置、服务器及可读存储介质 |
Non-Patent Citations (2)
Title |
---|
刘娇 等: "人机对话系统中意图识别方法综述", 《计算机工程与应用》 * |
王堃 等: "端到端对话系统意图语义槽联合识别研究综述", 《计算机工程与应用》 * |
Also Published As
Publication number | Publication date |
---|---|
CN115081459B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN109785824B (zh) | 一种语音翻译模型的训练方法及装置 | |
CN111198937B (zh) | 对话生成及装置、计算机可读存储介质、电子设备 | |
CN113205817B (zh) | 语音语义识别方法、系统、设备及介质 | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
WO2021072875A1 (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111625634B (zh) | 词槽识别方法及装置、计算机可读存储介质、电子设备 | |
CN111966800B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN112463942B (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
CN111611346A (zh) | 一种基于动态语义编码和双注意力的文本匹配方法及装置 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
CN115293132A (zh) | 虚拟场景的对话处理方法、装置、电子设备及存储介质 | |
CN112349294A (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN115394321A (zh) | 音频情感识别方法、装置、设备、存储介质及产品 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
CN117592564A (zh) | 问答交互方法、装置、设备及介质 | |
CN112686060A (zh) | 文本翻译方法、装置、电子设备和存储介质 | |
CN115376547B (zh) | 发音评测方法、装置、计算机设备和存储介质 | |
CN113421551A (zh) | 语音识别方法、装置、计算机可读介质及电子设备 | |
CN116958343A (zh) | 面部动画生成方法、装置、设备、介质及程序产品 | |
CN115081459B (zh) | 口语文本生成方法、装置、设备及存储介质 | |
CN113593534B (zh) | 针对多口音语音识别的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |