CN112599116A - 语音识别模型训练方法和语音识别联邦训练系统 - Google Patents
语音识别模型训练方法和语音识别联邦训练系统 Download PDFInfo
- Publication number
- CN112599116A CN112599116A CN202011561503.8A CN202011561503A CN112599116A CN 112599116 A CN112599116 A CN 112599116A CN 202011561503 A CN202011561503 A CN 202011561503A CN 112599116 A CN112599116 A CN 112599116A
- Authority
- CN
- China
- Prior art keywords
- training
- speech recognition
- user
- model
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
Abstract
本发明公开一种语音识别模型训练方法,包括:基于通用语音识别样本集训练初始化通用语音识别模型;基于第一自适应语音识别样本集训练所述初始化通用语音识别模型得到第一用户语音识别模型;基于第一自适应语音识别样本集和第一声学环境信息训练第一用户语音合成模型;基于所述第一用户语音合成模型所生成的合成音频更新所述初始化通用语音识别模型得到新的通用语音识别模型,用于训练第二用户语音识别模型。本发明引入“语音合成模块”,通过它来记忆“通用/用户数据”的信息。通过引入声学环境信息,表征不同的说话人、噪声环境、语速等信息,可以增加模拟生成数据的泛化能力,提升训练效果,提高训练效率。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种语音识别模型训练方法和语音识别联邦训练系统。
背景技术
声学模型自训练技术是指,通过将声学模型的优化训练能力以界面化或者接口的方式开放给用户(使用者),使得用户能够利用自己已完成标注的数据进行声学模型的调优。该类技术的提供者,如阿里、微软等,均是通过提供平台或接口,让用户具有自主优化语音识别模型中声学模型的能力,用户只需要按要求上传待优化场景的语音和对应标注文本,即可自主完成模型的优化。
在赋能用户能够自主完成语音识别声学模型训练后,也产生了新的需求。一方面我们不单希望用户能够利用自己的数据进行模型的优化,同时也希望这些优化能够被从用户的私有化环境中拿出,作用于我们的通用模型,而以往由于数据安全的问题,我们不能够直接拿到用户的数据,这样的优化操作通常不可实现。另一方面,通用模型也在不断的优化提升中,虽然我们可以定期将优化更新的通用模型通过部署到用户环境的方式,让用户能够享受到这些提升,但是由于用于训练这些通用模型的数据通常不包含用户私有场景的数据,用户还需要用自有的数据再次对新部署的模型进行自训练,这样会额外增加训练工作。
发明内容
本发明实施例提供一种语音识别模型训练方法和语音识别联邦训练系统,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种语音识别模型训练方法,该方法包括:
基于通用语音识别样本集训练初始化通用语音识别模型;
基于第一自适应语音识别样本集训练所述初始化通用语音识别模型得到第一用户语音识别模型;
基于第一自适应语音识别样本集和第一声学环境信息训练第一用户语音合成模型;
基于所述第一用户语音合成模型所生成的合成音频更新所述初始化通用语音识别模型得到新的通用语音识别模型,用于训练第二用户语音识别模型。
第二方面,本发明实施例提供一种语音识别联邦训练系统,其特征在于,用于执行权利要求1-7中任一项所述的语音识别模型训练方法,所述系统包括:
用户模型环境模块,用于基于通用语音识别模型进行自适应训练,以得到用户语音识别模型;
交互缓存模块,用于根据合成文本和参数化的声学环境信息训练得到语音合成模型;
通用模型环境模块,用于基于通用语音识别样本集训练初始化通用语音识别模型,并随语音合成模型的增量更新而更新所述初始化通用语音识别模型。
第三方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项语音识别模型训练方法。
第四方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明上述任一项语音识别模型训练方法。
第五方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项语音识别模型训练方法。
本发明实施例的有益效果在于:引入“语音合成模块”,该语音合成模块承担着“数据海绵系统”的角色,通过它来记忆“通用/用户数据”(即,通用/自适应语音识别样本集)的信息。使用通用/用户数据对(语音和文本)训练该语音合成模型,其可以“记忆”和“存储”语音识别数据的特性。通过引入声学环境信息,表征不同的说话人、噪声环境、语速等信息,可以增加模拟生成数据的泛化能力,提升训练效果。在以后的训练中进行更加“安全”和有效率的增量学习,提高训练效率和效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的语音识别模型训练方法的一实施例的流程图;
图2为本发明的语音识别模型训练方法的另一实施例的流程图;
图3为本发明的语音识别联邦训练系统的一实施例的原理框图
图4为本发明的电子设备的一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
如图1所示,本发明的实施例提供一种语音识别模型训练方法,所述方法包括:
S10、基于通用语音识别样本集训练初始化通用语音识别模型。
S20、基于第一自适应语音识别样本集训练所述初始化通用语音识别模型得到第一用户语音识别模型。
S30、基于第一自适应语音识别样本集和第一声学环境信息训练第一用户语音合成模型。
示例性地,将所述第一自适应语音识别样本集中的合成文本和所述第一声学环境信息作为输入,将对应于所述合成文本的合成音频作为目标输出进行训练得到第一用户语音合成模型。
S40、基于所述第一用户语音合成模型所生成的合成音频更新所述初始化通用语音识别模型得到新的通用语音识别模型,用于训练第二用户语音识别模型。
本实施例中引入第一语音合成模块,该语音合成模块承担着“数据海绵系统”的角色,通过它来记忆“通用/用户数据”(即,通用/自适应语音识别样本集)的信息。使用通用/用户数据对(语音和文本对)训练该语音合成模型,其可以“记忆”和“存储”语音识别数据的特性。通过引入声学环境信息,表征不同的说话人、噪声环境、语速等信息,可以增加模拟生成数据的泛化能力,提升训练效果。在以后的训练中进行更加“安全”和有效率的增量学习,提高训练效率和效果。
如图2所示,在本发明的语音识别模型训练方法的一实施例中,还包括以下步骤:
S50、基于第二自适应语音识别样本集训练所述新的通用语音识别模型得到第二用户语音识别模型。
S60、基于第二自适应语音识别样本集和第二声学环境信息训练第二用户语音合成模型。
示例性地,将所述第二自适应语音识别样本集中的合成文本和所述第二声学环境信息作为输入,将对应于所述合成文本的合成音频作为目标输出进行训练得到第二用户语音合成模型。
S70、基于所述第二用户语音合成模型所生成的合成音频更新所述新的通用语音识别模型,用于训练其它用户语音识别模型。
在本实施例中,在进行通用模型训练以及用户在自己的环境中进行自训练的时候,首先利用与训练语音识别系统(ASR)相同的音频和对应标注文本,结合参数化的声学环境信息(例如,对音频提取i-vector),训练一个“数据海绵系统”(例如,第一语音合成模型和第二语音合成模型),后续该系统在给定文本和参数化的声学环境信息的情况下可以合成目标语音。
在我们的环境中训练的“数据海绵系统”可以部署到用户的私有化环境中,在用户环境中训练的“数据海绵系统”可以被拷贝到我们的通用训练环境中。同时由于不存在任何显式数据的交互,数据安全得到了保障。在用户自训练和我们通用模型优化的阶段,可以使用相应的“数据海绵系统”产生缺失的场景类似模拟数据,进行增量学习,保障优化效果。
在一些实施例中,第一声学环境信息和第二声学环境信息分别包括说话人特征信息、噪声环境信息和语速特征信息中的至少一种。
在一些实施例中,第一用户语音合成模型为至少对应于说话人特征信息、噪声环境信息和语速特征信息之一的语音合成模型。
在一些实施例中,第二用户语音合成模型为至少对应于说话人特征信息、噪声环境信息和语速特征信息之一的语音合成模型。
如图3所示为本发明的语音识别联邦训练系统的一实施例的原理框图,该语音识别联邦训练系统能够执行前述任一实施例所述的语音识别模型训练方法,在该实施例中该系统包括:
用户模型环境模块310,用于基于通用语音识别模型进行自适应训练,以得到用户语音识别模型;
交互缓存模块320,用于根据合成文本和参数化的声学环境信息训练得到语音合成模型;
通用模型环境模块330,用于基于通用语音识别样本集训练初始化通用语音识别模型,并随语音合成模型的增量更新而更新所述初始化通用语音识别模型。
如图3所示,多个“数据海绵系统”(例如来自不同客户的“数据海绵系统”)构成的交互BUF(即,交互缓存模块320)、通用模型环境模块、用户模型环境模块共同构成了我们的语音识别联邦学习系统。在训练通用模型时除了使用通用音频数据外,还会增加不同用户“数据海绵系统”产生的模拟数据;同样在用户训练自己的模型时,也可以将用于通用模型优化的多个“数据海绵”利用起来。整个过程没有显式数据的交互,达到安全、高效的优化模型的目的。
引入用于通用模型和用户模型之间进行识别优化数据交互的“数据海绵系统”,在解决数据安全问题的情况下,可以实现通用模型和用户模型之间的数据信息双向传递。
首先不同于“加密存储部分通用/用户数据,并在用户自训练/通用训练阶段与其它数据进行混合”这种方法。我们引入一套特别设计的“语音合成系统”,该语音合成系统承担着“数据海绵系统”的角色,我们通过它来记忆“通用/用户数据”的信息。我们使用通用/用户数据对(语音和文本)训练该语音合成系统,我们认为其可以“记忆”和“存储”ASR数据的特性。
通过引入参数化的声学环境信息,表征不同的说话人、噪声环境、语速等信息。我们可以增加模拟生成数据的泛化能力,提升训练效果。在以后的训练中进行更加“安全”和有效率的增量学习,提高训练效率和效果。
我们在合成模型中引入参数化的声学环境信息,表征不同的说话人、噪声环境、语速等信息。在进行训练的增量学习时,可以使用该“语音合成系统”生成模拟数据,在解决训练效果问题的同时,不引入数据安全问题。
本发明实施例解决了通用模型和用户私有化模型联邦学习时的数据安全问题,且提高了训练效率,使得过往不可实现的用户在私有化的调优和通用模型联合优化变得可实现。通过该方面将会改变过往以提供识别服务加自训练工具为主的对外售卖方式,通过联邦学习的交互优化建立起更具粘性的用户关系。将会引导建立相关行业标准。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项语音识别模型训练方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项语音识别模型训练方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行语音识别模型训练方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现语音识别模型训练方法。
图4是本申请另一实施例提供的执行语音识别模型训练方法的电子设备的硬件结构示意图,如图4所示,该设备包括:
一个或多个处理器410以及存储器420,图4中以一个处理器410为例。
执行语音识别模型训练方法的设备还可以包括:输入装置430和输出装置440。
处理器410、存储器420、输入装置430和输出装置440可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器420作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的语音识别模型训练方法对应的程序指令/模块。处理器410通过运行存储在存储器420中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例语音识别模型训练方法。
存储器420可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音识别模型训练装置的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器420可选包括相对于处理器410远程设置的存储器,这些远程存储器可以通过网络连接至语音识别模型训练装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可接收输入的数字或字符信息,以及产生与语音识别模型训练装置的用户设置以及功能控制有关的信号。输出装置440可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器420中,当被所述一个或者多个处理器410执行时,执行上述任意方法实施例中的语音识别模型训练方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种语音识别模型训练方法,所述方法包括:
基于通用语音识别样本集训练初始化通用语音识别模型;
基于第一自适应语音识别样本集训练所述初始化通用语音识别模型得到第一用户语音识别模型;
基于第一自适应语音识别样本集和第一声学环境信息训练第一用户语音合成模型;
基于所述第一用户语音合成模型所生成的合成音频更新所述初始化通用语音识别模型得到新的通用语音识别模型,用于训练第二用户语音识别模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于第二自适应语音识别样本集训练所述新的通用语音识别模型得到第二用户语音识别模型;
基于第二自适应语音识别样本集和第二声学环境信息训练第二用户语音合成模型;
基于所述第二用户语音合成模型所生成的合成音频更新所述新的通用语音识别模型,用于训练其它用户语音识别模型。
3.根据权利要求1所述的方法,其特征在于,所述基于第一自适应语音识别样本集和第一声学环境信息训练第一用户语音合成模型包括:
将所述第一自适应语音识别样本集中的合成文本和所述第一声学环境信息作为输入,将对应于所述合成文本的合成音频作为目标输出进行训练得到第一用户语音合成模型。
4.根据权利要求2所述的方法,其特征在于,所述基于第二自适应语音识别样本集和第二声学环境信息训练第二用户语音合成模型包括:
将所述第二自适应语音识别样本集中的合成文本和所述第二声学环境信息作为输入,将对应于所述合成文本的合成音频作为目标输出进行训练得到第二用户语音合成模型。
5.根据权利要求1所述的方法,其特征在于,所述第一声学环境信息和所述第二声学环境信息分别包括说话人特征信息、噪声环境信息和语速特征信息中的至少一种。
6.根据权利要求5所述的方法,其特征在于,所述第一用户语音合成模型为至少对应于说话人特征信息、噪声环境信息和语速特征信息之一的语音合成模型。
7.根据权利要求5所述的方法,其特征在于,所述第二用户语音合成模型为至少对应于说话人特征信息、噪声环境信息和语速特征信息之一的语音合成模型。
8.一种语音识别联邦训练系统,其特征在于,用于执行权利要求1-7中任一项所述的语音识别模型训练方法,所述系统包括:
用户模型环境模块,用于基于通用语音识别模型进行自适应训练,以得到用户语音识别模型;
交互缓存模块,用于根据合成文本和参数化的声学环境信息训练得到语音合成模型;
通用模型环境模块,用于基于通用语音识别样本集训练初始化通用语音识别模型,并随语音合成模型的增量更新而更新所述初始化通用语音识别模型。
9.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任意一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-7中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011561503.8A CN112599116B (zh) | 2020-12-25 | 2020-12-25 | 语音识别模型训练方法和语音识别联邦训练系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011561503.8A CN112599116B (zh) | 2020-12-25 | 2020-12-25 | 语音识别模型训练方法和语音识别联邦训练系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112599116A true CN112599116A (zh) | 2021-04-02 |
CN112599116B CN112599116B (zh) | 2022-07-08 |
Family
ID=75202055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011561503.8A Active CN112599116B (zh) | 2020-12-25 | 2020-12-25 | 语音识别模型训练方法和语音识别联邦训练系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112599116B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284484A (zh) * | 2021-05-24 | 2021-08-20 | 百度在线网络技术(北京)有限公司 | 模型训练方法及装置、语音识别方法和语音合成方法 |
CN113793604A (zh) * | 2021-09-14 | 2021-12-14 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140236593A1 (en) * | 2011-09-23 | 2014-08-21 | Zhejiang University | Speaker recognition method through emotional model synthesis based on neighbors preserving principle |
CN104538031A (zh) * | 2014-12-15 | 2015-04-22 | 北京云知声信息技术有限公司 | 智能语音服务开发云平台及方法 |
CN107993650A (zh) * | 2017-11-30 | 2018-05-04 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108806667A (zh) * | 2018-05-29 | 2018-11-13 | 重庆大学 | 基于神经网络的语音与情绪的同步识别方法 |
CN109887484A (zh) * | 2019-02-22 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于对偶学习的语音识别与语音合成方法及装置 |
CN110556100A (zh) * | 2019-09-10 | 2019-12-10 | 苏州思必驰信息科技有限公司 | 端到端语音识别模型的训练方法及系统 |
CN111009233A (zh) * | 2019-11-20 | 2020-04-14 | 泰康保险集团股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111754985A (zh) * | 2020-07-06 | 2020-10-09 | 上海依图信息技术有限公司 | 一种语音识别模型的训练以及语音识别的方法和装置 |
-
2020
- 2020-12-25 CN CN202011561503.8A patent/CN112599116B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140236593A1 (en) * | 2011-09-23 | 2014-08-21 | Zhejiang University | Speaker recognition method through emotional model synthesis based on neighbors preserving principle |
CN104538031A (zh) * | 2014-12-15 | 2015-04-22 | 北京云知声信息技术有限公司 | 智能语音服务开发云平台及方法 |
CN107993650A (zh) * | 2017-11-30 | 2018-05-04 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108806667A (zh) * | 2018-05-29 | 2018-11-13 | 重庆大学 | 基于神经网络的语音与情绪的同步识别方法 |
CN109887484A (zh) * | 2019-02-22 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于对偶学习的语音识别与语音合成方法及装置 |
CN110556100A (zh) * | 2019-09-10 | 2019-12-10 | 苏州思必驰信息科技有限公司 | 端到端语音识别模型的训练方法及系统 |
CN111009233A (zh) * | 2019-11-20 | 2020-04-14 | 泰康保险集团股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111754985A (zh) * | 2020-07-06 | 2020-10-09 | 上海依图信息技术有限公司 | 一种语音识别模型的训练以及语音识别的方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284484A (zh) * | 2021-05-24 | 2021-08-20 | 百度在线网络技术(北京)有限公司 | 模型训练方法及装置、语音识别方法和语音合成方法 |
CN113284484B (zh) * | 2021-05-24 | 2022-07-26 | 百度在线网络技术(北京)有限公司 | 模型训练方法及装置、语音识别方法和语音合成方法 |
CN113793604A (zh) * | 2021-09-14 | 2021-12-14 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
CN113793604B (zh) * | 2021-09-14 | 2024-01-05 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112599116B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330522B (zh) | 用于更新深度学习模型的方法、装置及系统 | |
CN106328126B (zh) | 远场语音识别处理方法及装置 | |
US20170046124A1 (en) | Responding to Human Spoken Audio Based on User Input | |
CN112599116B (zh) | 语音识别模型训练方法和语音识别联邦训练系统 | |
CN110489101A (zh) | 接口模拟方法、系统、介质和电子设备 | |
Sledziewski et al. | A DSL-based approach to software development and deployment on cloud | |
US8562434B2 (en) | Method and system for sharing speech recognition program profiles for an application | |
US10248441B2 (en) | Remote technology assistance through dynamic flows of visual and auditory instructions | |
WO2017044415A1 (en) | System and method for eliciting open-ended natural language responses to questions to train natural language processors | |
CN110795939A (zh) | 文本处理方法、装置 | |
CN101405761A (zh) | 服务序列中的变换的声明 | |
CN105302925A (zh) | 推送语音搜索数据的方法和装置 | |
CN109358833B (zh) | 一种音频播放方法及系统、一种计算设备及存储介质 | |
CN110379228A (zh) | 一种在线编程教学方法和系统 | |
US20220366913A1 (en) | Systems and method for third party natural language understanding service integration | |
CN111933118B (zh) | 进行语音识别优化的方法、装置及应用其的智能语音对话系统 | |
US20230177263A1 (en) | Identifying chat correction pairs for trainig model to automatically correct chat inputs | |
CN109299231B (zh) | 对话状态跟踪方法、系统、电子设备及存储介质 | |
CN108616416B (zh) | 基于教学软件的学生端接入方法、教师端、系统及介质 | |
Byalpi | Alexa based Real-Time Attendance System | |
CN110600021A (zh) | 室外智能语音交互方法、装置和系统 | |
CN111031141B (zh) | 用于实现语音技能的定制化配置的方法及服务器 | |
CN112738441A (zh) | 一种讲解视频自动生成方法、装置、电子设备及存储介质 | |
US11074090B2 (en) | Virtual action-based troubleshooter | |
CN112965593A (zh) | 基于ai算法实现多模态控制数字人交互方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |