CN113012680B - 一种语音机器人用话术合成方法及装置 - Google Patents

一种语音机器人用话术合成方法及装置 Download PDF

Info

Publication number
CN113012680B
CN113012680B CN202110234664.4A CN202110234664A CN113012680B CN 113012680 B CN113012680 B CN 113012680B CN 202110234664 A CN202110234664 A CN 202110234664A CN 113012680 B CN113012680 B CN 113012680B
Authority
CN
China
Prior art keywords
stored
synthesis
dialogs
speech
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110234664.4A
Other languages
English (en)
Other versions
CN113012680A (zh
Inventor
周伟东
亓凯凯
刘凯
喻凌
刘华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Taiji Huabao Technology Co ltd
Original Assignee
Beijing Taiji Huabao Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Taiji Huabao Technology Co ltd filed Critical Beijing Taiji Huabao Technology Co ltd
Priority to CN202110234664.4A priority Critical patent/CN113012680B/zh
Publication of CN113012680A publication Critical patent/CN113012680A/zh
Application granted granted Critical
Publication of CN113012680B publication Critical patent/CN113012680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种语音机器人用话术合成方法及装置。所述语音机器人用话术合成方法包括:获取预存话术库,所述预存话术库中包括多个预存话术;判断每个所述预存话术是否为预合成话术,若是,则在所述语音机器人与使用者对话前对预合成话术进行预合成。本申请的语音机器人用话术合成方法通过对预存话术进行判断,从而获取需要进行预合成的预存话术,从而相对于传统的全部合成的方式,节省了成本,而相对于全部对话过程中合成的方式,提高了响应速度,并且通过合成成本来进行评价,可以最大程度的实现利益最大化。

Description

一种语音机器人用话术合成方法及装置
技术领域
本申请涉及语音机器人语音合成技术领域,具体涉及一种语音机器人用话术合成方法以及语音机器人用话术合成装置。
背景技术
在语音机器人领域,语音合成的方案有大致分为两类,一是选择在对话前把话术全部合成,二是在通话过程中合成。但是,这两种方式都有很大的缺点,比如,在对话前合成,如果流程很大,话术很多,就会造成合成的语音话术有大量用不到的,会造成资源的浪费;在通话中合成,如果话术比较长,合成速度就会很慢,从而导致对话中感觉机器人反应慢的问题。
因此,希望有一种技术方案来解决或至少减轻现有技术的上述不足。
发明内容
本发明的目的在于提供一种语音机器人用话术合成方法以解决上述至少一方面的问题。
本发明的一个方面,提供一种语音机器人用话术合成方法,
所述语音机器人用话术合成方法包括:
获取预存话术库,所述预存话术库中包括多个预存话术;
判断每个所述预存话术是否为预合成话术,若是,则
在所述语音机器人与使用者对话前对预合成话术进行预合成。
可选地,所述判断每个所述预存话术是否为预合成话术包括:
判断每个所述预存话术的单词数量数据;
判断所述单词数量数据是否超过长短句阈值,若是,则
判断超过所述长短句阈值的预存话术是否为热点话术,若是,所述预存话术为预合成话术。
可选地,获取每个所述预存话术的合成成本;
获取合成成本预设阈值;
分别判断每个所述预存话术的合成成本是否超过合成成本预设阈值,若是,则将超过所述预设阈值的预存话术设定为预合成话术。
可选地,所述获取每个所述预存话术的合成成本包括:
获取每个所述预存话术的单词数量数据、每个所述预存话术的使用数据;
获取单词数量权重表以及使用权重表;
根据所述预存话术的单词数量数据以及所述单词数量权重表获取该预存话术的单词权重值;
根据所述预存话术的使用数据以及所述使用权重表获取该预存话术的使用权重值;
将所述单词权重值以及所述使用权重值之和作为该预存话术的合成成本。
可选地,所述语音机器人用话术合成方法进一步包括:
根据所述预存话术库中的各个预存话术生成话术关系图,所述话术关系图中的至少一个预存话术与其他预存话术中的至少一个具有单向映射关系,所述单向映射关系表示在调用一个预存话术时,与该预存话术具有单向映射关系的预存话术具有被调用的可能性;
在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为一个,则对与该所述预合成话术具有单向映射关系的预存话术进行预合成。
可选地,所述语音机器人用话术合成方法包括:
在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成。
可选地,所述在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成包括:
获取使用者的语音信息;
获取情感评分模型;
根据使用者的语音信息以及情感评分模型,获取使用者的情感评分;
根据情感评分模型,获取各个预存话术的情感评分,选择情感评分与所述使用者的情感评分在情感评分预设阈值内的预存话术进行预合成。
可选地,所述在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的进行预合成包括:
获取与该所述热点话术具有单向映射关系的各个预存话术的合成成本;
获取合成成本阈值内的预存话术进行预合成。
可选地,所述根据使用者的语音信息以及情感评分模型,获取使用者的情感评分包括:
识别所述使用者的语音信息,从而获取语音信息所对应的文字信息、语速信息以及音量信息;
根据所述情感评分模型、文字信息、语速信息以及所述音量信息获取使用者的情感评分。
本申请还提供了一种语音机器人用话术合成装置,所述语音机器人用话术合成装置包括:
预存话术库获取模块,所述预存话术库获取模块用于获取预存话术库,所述预存话术库中包括多个预存话术;
预合成话术判断模块,所述预合成话术判断模块用于判断每个所述预存话术是否为预合成话术;
预合成模块,所述预合成模块用于在所述语音机器人与使用者对话前对预合成话术进行预合成。
本申请还提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的语音机器人用话术合成方法。
本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时能够实现如上所述的语音机器人用话术合成方法。
有益效果
本申请的语音机器人用话术合成方法通过对预存话术进行判断,从而获取需要进行预合成的预存话术,从而相对于传统的全部合成的方式,节省了成本,而相对于全部对话过程中合成的方式,提高了响应速度,并且通过合成成本来进行评价,可以最大程度的实现利益最大化。
附图说明
图1是本申请一实施例的语音机器人用话术合成方法的流程示意图。
图2是一种电子设备,用于实现图1所示的语音机器人用话术合成方法。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本申请一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本申请的实施例进行详细说明。
图1是本申请一实施例的语音机器人用话术合成方法的流程示意图。
如图1所示的所述语音机器人用话术合成方法包括:
步骤1:获取预存话术库,所述预存话术库中包括多个预存话术;
步骤2:判断每个所述预存话术是否为预合成话术,若是,则
步骤3:在所述语音机器人与使用者对话前对预合成话术进行预合成。
采用这种方式,具有如下优点:
1)传统合成中全部使用预先合成造成资源浪费问题
2)预先合成如果量比较大,合成所花费时间长的问题
3)话术在对话中合成,由于话术太长导致机器人反应慢的问题。
在一个实施例中,判断每个预存话术是否为预合成话术包括:
判断每个预存话术的单词数量数据;
判断单词数量数据是否超过长短句阈值,若是,则
判断超过长短句阈值的预存话术是否为热点话术,若是,预存话术为预合成话术。
在该实施例中,热点话术是对话术使用的频率的一个抽象,在话术表中,添加一个是否为热点话术的标识,根据下面的方法来添加标识:
1.如何生成标识
相同流程的所有对话中,利用数据分析,计算出每个话术在所有有效对话总话术的百分比。当某个话术占比大于设置的热点话术阈值时,就认为是热点话术。然后标记话术表中的话术。
2.默认标识
在对话初期,对话量还不是很大的时候,可以由人工根据实际情况默认添加一些热点话术。
3.热点话术阈值管理
阈值由人工根据实际情况,适当的去调整。
在本实施例中,判断每个所述预存话术是否为预合成话术包括:
获取每个预存话术的合成成本;
获取合成成本预设阈值;
分别判断每个预存话术的合成成本是否超过合成成本预设阈值,若是,则将超过合成成本预设阈值的预存话术设定为预合成话术。
在一个实施例中,获取每个预存话术的合成成本包括:
获取每个预存话术的单词数量;
获取每个预存话术的使用频率;
获取每个所述预存话术的使用概率。
在一个实施例中,合成成本考虑上述三个问题,即1、该话术的单词数量是不是比较多,若单词数量比较多,那么在具体合成过程中耗时较多,不适宜在对话过程中合成,2、该预存话术的使用频率,即当使用频率较高的情况下,最好能够提前合成;3、该预存话术的使用概率,当使用概率较高时,最好能够提前合成。
在本实施例中,获取每个所述预存话术的合成成本包括获取每个预存话术的单词数量数据、每个预存话术的使用数据;
获取单词数量权重表以及使用权重表;
根据预存话术的单词数量数据以及单词数量权重表获取该预存话术的单词权重值;
根据预存话术的使用数据以及所述使用权重表获取该预存话术的使用权重值;
将所述单词权重值以及所述使用权重值之和作为该预存话术的合成成本。
举例来说,单词数量权重表如下:
单词数量权重nw
数量n<5 权重:0
数量8>n>=5 权重:1
数量12>n>=8 权重:2
数量15>n>=12 权重:3
数量n>=15 权重:4
数量范围可以根据实际情况调整。
使用权重表如下:
使用频率权重fw
频率分级
频率f>=90% 权重:4
频率90%>f>=70% 权重:3
频率70%>f>=50% 权重:2
频率50%>f>=30% 权重:1
频率f<30% 权重:0
频率范围可以根据实际情况调整
合成成本判断:
合成成本w=nw+fw。
合成成本预设阈值为w>=6,即当w>=6时,判断该预存话术为预合成话术。
在本实施例中,语音机器人用话术合成方法进一步包括:
根据预存话术库中的各个预存话术生成话术关系图,话术关系图中的至少一个预存话术与其他预存话术中的至少一个具有单向映射关系,单向映射关系表示在调用一个预存话术时,与该预存话术具有单向映射关系的预存话术具有被调用的可能性。
在本实施例中,可以手动去设置上述的映射关系,也可以通过机器学习的方法去设置。
在本实施例中,语音机器人用话术合成方法进一步包括:
在语音机器人与使用者对话过程中,当预合成话术被调用时,获取与该预合成话术具有单向映射关系的预存话术,若与该预合成话术具有单向映射关系的预存话术的数量为一个,则对与该预合成话术具有单向映射关系的预存话术进行预合成。
若与该所述热点话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成。
在本实施例中,在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成包括:
获取使用者的语音信息;
获取情感评分模型;
根据使用者的语音信息以及情感评分模型,获取使用者的情感评分;
根据情感评分模型,获取各个预存话术的情感评分,选择情感评分与使用者的情感评分在情感评分预设阈值内的预存话术进行预合成。
在本实施例中,根据使用者的语音信息以及情感评分模型,获取使用者的情感评分包括:识别使用者的语音信息,从而获取语音信息所对应的文字信息、语速信息以及音量信息;
根据情感评分模型、文字信息、语速信息以及音量信息获取使用者的情感评分。
举例来说,根据ASR识别结果所获得的文字信息的长度判断用户情感,用L表示:
L<5 权重为:1
5<L<10 权重为:2
L>10 权重为:3
根据语速信息判断,用S表示(速度已通过算法用0–10来递进表示)
S>8:权重为:1
5<S<=8:权重为:2
S<=5:权重为:3
根据音量信息大小,用V表示(音量已通过算法用0-10来递进表示)
7<V<=10:权重为:1
5<V<=7:权重为:2
V<=5:权重为:3
当我们把情感评分模型W=L+S+V;
在本实施例中,根据情感评分模型,获取各个预存话术的情感评分包括:
为每个预存话术预设语速以及音量,从而获得S以及V;
获取每个预存话术的长度从而获取L;
通过每个预存话术的S、V以及L,从而虎丘每个预存话术的情感评分,从而选择情感评分与使用者的情感评分在情感评分预设阈值内的预存话术进行预合成。
举例来说,获取使用者的情感评分为8分,即W等于8,此时,我们获取各个预存话术的情感评分,并获取情感评分预设阈值,例如,情感评分预设阈值为2,则获取预存话术中的评分为6到10之间的预存话术进行预合成。
通过这种方式,可以通过判断使用者的情感的方式来选择相应的预存话术,这样可以更具有人性化,并且更可能回答别人需要知道的问题。
在另一个实施例中,在语音机器人与使用者对话过程中,当热点话术被调用时,获取与该热点话术具有单向映射关系的预存话术,若与该热点话术具有单向映射关系的预存话术的数量为多个时,选择至少一个预存话术进行预合成包括:
获取与该热点话术具有单向映射关系的各个预存话术的评分;
获取评分阈值内的预存话术进行预合成。
通过评分的方式进行预合成,采用这种方式,可以一边对话一边进行后续的对话的话术合成,从而可以在不浪费资源的情况下进一步减少响应时间。
本申请还提供了一种语音机器人用话术合成装置,所述语音机器人用话术合成装置包括预存话术库获取模块、预合成话术判断模块以及预合成模块,预存话术库获取模块用于获取预存话术库,所述预存话术库中包括多个预存话术;预合成话术判断模块用于判断每个所述预存话术是否为预合成话术;预合成模块用于在所述语音机器人与使用者对话前对预合成话术进行预合成。
需要说明的是,前述对方法实施例的解释说明也适用于本实施例的系统,此处不再赘述。
本申请还提供了一种电子设备,包括存储器、处理器以及存储在存储器中并能够在处理器上运行的计算机程序,处理器执行计算机程序时实现如上的语音机器人用话术合成方法。
本申请还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时能够实现如上的语音机器人用话术合成方法。
图2是能够实现根据本申请一个实施例提供的语音机器人用话术合成方法的电子设备的示例性结构图。
如图2所示,电子设备包括输入设备501、输入接口502、中央处理器503、存储器504、输出接口505以及输出设备506。其中,输入接口502、中央处理器503、存储器504以及输出接口505通过总线507相互连接,输入设备501和输出设备506分别通过输入接口502和输出接口505与总线507连接,进而与电子设备的其他组件连接。具体地,输入设备504接收来自外部的输入信息,并通过输入接口502将输入信息传送到中央处理器503;中央处理器503基于存储器504中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器504中,然后通过输出接口505将输出信息传送到输出设备506;输出设备506将输出信息输出到电子设备的外部供用户使用。
也就是说,图2所示的电子设备也可以被实现为包括:存储有计算机可执行指令的存储器;以及一个或多个处理器,该一个或多个处理器在执行计算机可执行指令时可以实现结合图1描述的语音机器人用话术合成方法。
在一个实施例中,图2所示的电子设备可以被实现为包括:存储器504,被配置为存储可执行程序代码;一个或多个处理器503,被配置为运行存储器504中存储的可执行程序代码,以执行上述实施例中的语音机器人用话术合成方法。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动,媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数据多功能光盘(DVD)或其他光学存储、磁盒式磁带、磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
此外,显然“包括”一词不排除其他单元或步骤。装置权利要求中陈述的多个单元、模块或装置也可以由一个单元或总装置通过软件或硬件来实现。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,模块、程序段、或代码的一部分包括一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地标识的方框实际上可以基本并行地执行,他们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或总流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
在本实施例中所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现装置/终端设备的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
在本实施例中,装置/终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减。本申请虽然以较佳实施例公开如上,但其实并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此,本申请的保护范围应当以本申请权利要求所界定的范围为准。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (9)

1.一种语音机器人用话术合成方法,其特征在于,所述语音机器人用话术合成方法包括:
获取预存话术库,所述预存话术库中包括多个预存话术;
判断每个所述预存话术是否为预合成话术,若是,则
在所述语音机器人与使用者对话前对预合成话术进行预合成;
所述判断每个所述预存话术是否为预合成话术包括:
判断每个所述预存话术的单词数量数据;
判断所述单词数量数据是否超过长短句阈值,若是,则
判断超过所述长短句阈值的预存话术是否为热点话术,若是,所述预存话术为预合成话术。
2.如权利要求1所述的语音机器人用话术合成方法,其特征在于,所述判断每个所述预存话术是否为预合成话术包括:
获取每个所述预存话术的合成成本;
获取合成成本预设阈值;
分别判断每个所述预存话术的合成成本是否超过合成成本预设阈值,若是,则将超过所述合成成本预设阈值的预存话术设定为预合成话术。
3.如权利要求2所述的语音机器人用话术合成方法,其特征在于,所述获取每个所述预存话术的合成成本包括:
获取每个所述预存话术的单词数量数据、每个所述预存话术的使用数据;
获取单词数量权重表以及使用权重表;
根据所述预存话术的单词数量数据以及所述单词数量权重表获取该预存话术的单词权重值;
根据所述预存话术的使用数据以及所述使用权重表获取该预存话术的使用权重值;
将所述单词权重值以及所述使用权重值之和作为该预存话术的合成成本。
4.如权利要求3所述的语音机器人用话术合成方法,其特征在于,所述语音机器人用话术合成方法进一步包括:
根据所述预存话术库中的各个预存话术生成话术关系图,所述话术关系图中的至少一个预存话术与其他预存话术中的至少一个具有单向映射关系,所述单向映射关系表示在调用一个预存话术时,与该预存话术具有单向映射关系的预存话术具有被调用的可能性;
在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为一个,则对与该所述预合成话术具有单向映射关系的预存话术进行预合成。
5.如权利要求4所述的语音机器人用话术合成方法,其特征在于,所述语音机器人用话术合成方法包括:
在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成。
6.如权利要求5所述的语音机器人用话术合成方法,其特征在于,所述在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的预存话术进行预合成包括:
获取使用者的语音信息;
获取情感评分模型;
根据使用者的语音信息以及情感评分模型,获取使用者的情感评分;
根据情感评分模型,获取各个预存话术的情感评分,选择情感评分与所述使用者的情感评分在情感评分预设阈值内的预存话术进行预合成。
7.如权利要求5所述的语音机器人用话术合成方法,其特征在于,所述在所述语音机器人与使用者对话过程中,当所述预合成话术被调用时,获取与该所述预合成话术具有单向映射关系的预存话术,若与该所述预合成话术具有单向映射关系的预存话术的数量为多个时,选择至少一个具有单向映射关系的进行预合成包括:
获取与该所述热点话术具有单向映射关系的各个预存话术的合成成本;
获取合成成本阈值内的预存话术进行预合成。
8.如权利要求7所述的语音机器人用话术合成方法,其特征在于,所述根据使用者的语音信息以及情感评分模型,获取使用者的情感评分包括:
识别所述使用者的语音信息,从而获取语音信息所对应的文字信息、语速信息以及音量信息;
根据所述情感评分模型、文字信息、语速信息以及所述音量信息获取使用者的情感评分。
9.一种语音机器人用话术合成装置,其特征在于,所述语音机器人用话术合成装置包括:
预存话术库获取模块,所述预存话术库获取模块用于获取预存话术库,所述预存话术库中包括多个预存话术;
预合成话术判断模块,所述预合成话术判断模块用于判断每个所述预存话术是否为预合成话术;
预合成模块,所述预合成模块用于在所述语音机器人与使用者对话前对预合成话术进行预合成;其中,
所述判断每个所述预存话术是否为预合成话术包括:
判断每个所述预存话术的单词数量数据;
判断所述单词数量数据是否超过长短句阈值,若是,则
判断超过所述长短句阈值的预存话术是否为热点话术,若是,所述预存话术为预合成话术。
CN202110234664.4A 2021-03-03 2021-03-03 一种语音机器人用话术合成方法及装置 Active CN113012680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110234664.4A CN113012680B (zh) 2021-03-03 2021-03-03 一种语音机器人用话术合成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110234664.4A CN113012680B (zh) 2021-03-03 2021-03-03 一种语音机器人用话术合成方法及装置

Publications (2)

Publication Number Publication Date
CN113012680A CN113012680A (zh) 2021-06-22
CN113012680B true CN113012680B (zh) 2021-10-15

Family

ID=76403650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110234664.4A Active CN113012680B (zh) 2021-03-03 2021-03-03 一种语音机器人用话术合成方法及装置

Country Status (1)

Country Link
CN (1) CN113012680B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145719B (zh) * 2019-12-31 2022-04-05 北京太极华保科技股份有限公司 将中英混合及语气标签化的数据标注方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108806665A (zh) * 2018-09-12 2018-11-13 百度在线网络技术(北京)有限公司 语音合成方法和装置
CN110047463A (zh) * 2019-01-31 2019-07-23 北京捷通华声科技股份有限公司 一种语音合成方法、装置和电子设备
CN110647621A (zh) * 2019-09-27 2020-01-03 支付宝(杭州)信息技术有限公司 机器人客服引导对话中选择话术的方法和装置
CN110706701A (zh) * 2019-10-08 2020-01-17 百度在线网络技术(北京)有限公司 语音技能推荐方法、装置、设备及存储介质
CN110782869A (zh) * 2019-10-30 2020-02-11 标贝(北京)科技有限公司 语音合成方法、装置、系统和存储介质
CN111210816A (zh) * 2019-12-16 2020-05-29 北京淇瑀信息科技有限公司 一种智能语音配置管理方法、装置及电子设备
CN111986649A (zh) * 2020-08-28 2020-11-24 普强时代(珠海横琴)信息技术有限公司 一种tts系统的混合加速合成方法
CN112035615A (zh) * 2020-08-31 2020-12-04 康键信息技术(深圳)有限公司 线上问诊数据处理方法、装置和计算机设备
CN112349270A (zh) * 2020-10-28 2021-02-09 北京奇保信安科技有限公司 一种智能开场白语音生成方法、装置和电子设备
CN112420038A (zh) * 2020-10-28 2021-02-26 深圳创维-Rgb电子有限公司 一种自适应场景判断的智能语音播报方法、装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130066632A1 (en) * 2011-09-14 2013-03-14 At&T Intellectual Property I, L.P. System and method for enriching text-to-speech synthesis with automatic dialog act tags
JP2017021125A (ja) * 2015-07-09 2017-01-26 ヤマハ株式会社 音声対話装置
CN109523986B (zh) * 2018-12-20 2022-03-08 百度在线网络技术(北京)有限公司 语音合成方法、装置、设备以及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108806665A (zh) * 2018-09-12 2018-11-13 百度在线网络技术(北京)有限公司 语音合成方法和装置
CN110047463A (zh) * 2019-01-31 2019-07-23 北京捷通华声科技股份有限公司 一种语音合成方法、装置和电子设备
CN110647621A (zh) * 2019-09-27 2020-01-03 支付宝(杭州)信息技术有限公司 机器人客服引导对话中选择话术的方法和装置
CN110706701A (zh) * 2019-10-08 2020-01-17 百度在线网络技术(北京)有限公司 语音技能推荐方法、装置、设备及存储介质
CN110782869A (zh) * 2019-10-30 2020-02-11 标贝(北京)科技有限公司 语音合成方法、装置、系统和存储介质
CN111210816A (zh) * 2019-12-16 2020-05-29 北京淇瑀信息科技有限公司 一种智能语音配置管理方法、装置及电子设备
CN111986649A (zh) * 2020-08-28 2020-11-24 普强时代(珠海横琴)信息技术有限公司 一种tts系统的混合加速合成方法
CN112035615A (zh) * 2020-08-31 2020-12-04 康键信息技术(深圳)有限公司 线上问诊数据处理方法、装置和计算机设备
CN112349270A (zh) * 2020-10-28 2021-02-09 北京奇保信安科技有限公司 一种智能开场白语音生成方法、装置和电子设备
CN112420038A (zh) * 2020-10-28 2021-02-26 深圳创维-Rgb电子有限公司 一种自适应场景判断的智能语音播报方法、装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dialogue context sensitive HMM-based speech synthesis;Pirros Tsiakoulis;《2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)》;20140714;全文 *
基于自然语言处理的人机对话调控机器人设计;叶健辉;《中国科技信息》;20201231;第63-65页 *

Also Published As

Publication number Publication date
CN113012680A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN108630193B (zh) 语音识别方法及装置
CN110472224B (zh) 服务质量的检测方法、装置、计算机设备和存储介质
CN109840052B (zh) 一种音频处理方法、装置、电子设备及存储介质
US6990446B1 (en) Method and apparatus using spectral addition for speaker recognition
CN109376363A (zh) 一种基于耳机的实时语音翻译方法及装置
CN112614510B (zh) 一种音频质量评估方法及装置
CN114385800A (zh) 语音对话方法和装置
CN111883113A (zh) 一种语音识别的方法及装置
CN113012680B (zh) 一种语音机器人用话术合成方法及装置
CN116631412A (zh) 一种通过声纹匹配判断语音机器人的方法
CN113112992A (zh) 一种语音识别方法、装置、存储介质和服务器
CN108831503B (zh) 一种口语评测方法及装置
CN111292725B (zh) 一种语音解码方法及装置
CN112712793A (zh) 语音交互下基于预训练模型的asr纠错方法及相关设备
CN112908315A (zh) 一种基于声音特征和语音识别的问答意图判断方法
CN111640450A (zh) 多人声音频处理方法、装置、设备及可读存储介质
CN112102807A (zh) 语音合成方法、装置、计算机设备和存储介质
CN114842849B (zh) 语音对话检测方法及装置
CN113099043A (zh) 客户服务的控制方法、装置和计算机可读存储介质
KR102408455B1 (ko) 음성 인식 학습을 위한 음성 데이터 합성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102395399B1 (ko) 음성 인식 학습을 위한 음성 데이터 분해 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN111970311B (zh) 会话切分方法、电子设备及计算机可读介质
CN114420136A (zh) 一种声纹识别模型训练的方法、装置以及存储介质
CN111899738A (zh) 对话生成方法、装置及存储介质
CN113506565A (zh) 语音识别的方法、装置、计算机可读存储介质与处理器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant