CN113571036A - 一种低质数据的自动化合成方法、装置及电子设备 - Google Patents

一种低质数据的自动化合成方法、装置及电子设备 Download PDF

Info

Publication number
CN113571036A
CN113571036A CN202110683248.2A CN202110683248A CN113571036A CN 113571036 A CN113571036 A CN 113571036A CN 202110683248 A CN202110683248 A CN 202110683248A CN 113571036 A CN113571036 A CN 113571036A
Authority
CN
China
Prior art keywords
data
sample
text information
quality
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110683248.2A
Other languages
English (en)
Other versions
CN113571036B (zh
Inventor
马达标
李晴覃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Qiyue Information Technology Co Ltd
Original Assignee
Shanghai Qiyue Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Qiyue Information Technology Co Ltd filed Critical Shanghai Qiyue Information Technology Co Ltd
Priority to CN202110683248.2A priority Critical patent/CN113571036B/zh
Publication of CN113571036A publication Critical patent/CN113571036A/zh
Application granted granted Critical
Publication of CN113571036B publication Critical patent/CN113571036B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种低质数据的自动化合成方法、装置及电子设备,涉及语音技术领域,包括获取低质音频数据;对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;对所述发音数据进行语音识别,得到所述发音数据的文本信息;输入所述文本信息至预先训练的声学模型,得到合成的音频数据。本申请具有在保证全自动化的情形下对收集到的低质量音频数据进行语音合成任务的功能。

Description

一种低质数据的自动化合成方法、装置及电子设备
技术领域
本发明涉及语音技术领域,尤其涉及一种低质数据的自动化合成方法、装置及电子设备。
背景技术
自动化低质数据语音合成系统是指,在保证全自动化的情形下,能对收集到的低质量音频数据进行语音合成任务的系统。
低质音频数据质量较低,主要有三个问题:噪音;无语音标注文本(即这段音频的文字内容);混有大量无关音色音频。其中无语音标注文本的音频,通常需要由ASR系统对音频进行识别产出识别文本,但一般情况下ASR系统识别的准确率不会是100%,甚至会很低,造成合成系统的结果出现大量坏例。因此,通常情况下需要人工介入,人工标注出正确文本,然后再进行语音合成任务。
因此,提出一种低质数据的自动化合成方法、装置及电子设备。
发明内容
本说明书提供一种低质数据的自动化合成方法、装置及电子设备,可实现在保证全自动化的情形下对收集到的低质量音频数据进行语音合成任务的功能。
本申请提供的一种低质数据的自动化合成方法采用如下的技术方案,包括:
获取低质音频数据;
对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
对所述发音数据进行语音识别,得到所述发音数据的文本信息;
输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
可选的,所述声学模型的训练方法包括:
构建声学模型,并获取多个样本低质音频数据;
对所述样本低质音频数据分别进行噪音分离,得到相应的样本发音数据和样本噪音数据;
基于所述样本噪音数据去除所述样本发音数据的背景噪音,得到去除背景噪音的样本发音数据;
对所述样本发音数据分别进行语音识别,得到所述样本发音数据的样本文本信息;
根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型。
可选的,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,包括:
获取各个所述样本发音数据的声纹特征矢量;
根据所述声纹特征矢量对所述样本发音数据进行聚类;
选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练。
可选的,所述选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练,包括:
获取聚类结果中数量最多的一类的所述样本发音数据作为第一数据;
获取所述第一数据的信噪比,和所述第一数据对应的文本数据的置信度量;
根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据;
通过所述第二数据和所述第二数据对应的文本信息,对所述声学模型进行训练。
可选的,所述根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据,包括:
基于所述置信度量对所述第一数据进行升序/降序排名,得到与所述置信度量的升序/降序排名结果成正比的第一分数;
基于所述信噪比对所述第一数据进行升序/降序排名,得到与所述信噪比的升序/降序排名结果成正比的第二分数;
结合所述第一分数和所述第二分数对所述第一数据进行升序排名;
选取排名靠前的N个第一数据,作为第二数据。
可选的,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型,包括:
获取高质音频数据和高质音频数据的高质文本信息;
将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征;
将所述样本声学特征与相对应的样本发音数据进行对比,判断所述样本声学特征与相对应的样本发音数据是否相似;
将所述高质声学特征与相对应的高质音频数据进行对比,判断述高质声学特征与相对应的高质音频数据是否相似;
当所述样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且所述高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,所述声学模型收敛,得到训练完成的声学模型。
可选的,所述将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征,包括:
通过所述高质文本信息对所述样本文本信息进行修正、补充,得到修正、补充的样本文本数据,其中,修正、补充后的所述样本文本信息与所述高质文本信息具有相同的分布。
本申请提供的一种低质数据的自动化合成装置采用如下的技术方案,包括:
获取模块,用于获取低质音频数据;
分离模块,用于对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
去噪模块,用于基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
语音识别模块,用于对所述发音数据进行语音识别,得到所述发音数据的文本信息;
合成模块,用于输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
可选的,所述合成模块的声学模型包括:
获取子模块,用于构建声学模型,并获取多个样本低质音频数据;
分离子模块,用于对所述样本低质音频数据分别进行噪音分离,得到相应的样本发音数据和样本噪音数据;
去噪子模块,用于基于所述样本噪音数据去除所述样本发音数据的背景噪音,得到去除背景噪音的样本发音数据;
语音识别子模块,用于对所述样本发音数据分别进行语音识别,得到所述样本发音数据的样本文本信息;
合成子模块,用于根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型。
可选的,所述合成子模块包括:
第一获取单元,用于获取各个所述样本发音数据的声纹特征矢量;
聚类单元,用于根据所述声纹特征矢量对所述样本发音数据进行聚类;
选取单元,用于选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练。
可选的,所述选取单元,用于获取聚类结果中数量最多的一类的所述样本发音数据作为第一数据;获取所述第一数据的信噪比,和所述第一数据对应的文本数据的置信度量;根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据;通过所述第二数据和所述第二数据对应的文本信息,对所述声学模型进行训练。
可选的,所述选取单元,具体用于基于所述置信度量对所述第一数据进行升序/降序排名,得到与所述置信度量的升序/降序排名结果成正比的第一分数;基于所述信噪比对所述第一数据进行升序/降序排名,得到与所述信噪比的升序/降序排名结果成正比的第二分数;结合所述第一分数和所述第二分数对所述第一数据进行升序排名;选取排名靠前的N个第一数据,作为第二数据。
可选的,所述合成子模块包括:
第二获取单元,用于获取高质音频数据和高质音频数据的高质文本信息;
第三获取单元,用于将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征;
判断单元,用于将所述样本声学特征与相对应的样本发音数据进行对比,判断所述样本声学特征与相对应的样本发音数据是否相似;
对比单元,用于将所述高质声学特征与相对应的高质音频数据进行对比,判断述高质声学特征与相对应的高质音频数据是否相似;
训练单元,用于当所述样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且所述高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,所述声学模型收敛,得到训练完成的声学模型。
可选的,所述第三获取单元用于通过所述高质文本信息对所述样本文本信息进行修正、补充,得到修正、补充的样本文本数据,其中,修正、补充后的所述样本文本信息与所述高质文本信息具有相同的分布。
本说明书还提供一种电子设备,其中,该电子设备包括:
处理器;以及,
存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行上述任一项方法。
本说明书还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现上述任一项方法。
本发明中,通过收集得到低质音频数据,低质音频数据通过切割分离模型分离出发音数据和噪音数据,利用通过分离切割模型分离出来噪音数据,再通过去噪模块,结合噪音数据将发音数据中的背景噪音去除,得到较纯净的发音数据。发音数据通过语音识别模型得到发音数据的文本信息,将低质音频数据对应的文本信息输入至预先训练的声学模型,即可通过预先训练的声学模型得到低质音频数据对应的文本信息的准确的音频数据。
附图说明
图1为本说明书实施例提供的一种低质数据的自动化合成方法的原理示意图;
图2为本说明书实施例提供的一种训练声学模型的流程示意图;
图3为本说明书实施例提供的一种低质数据的自动化合成装置的结构示意图;
图4为本说明书实施例提供的一种电子设备的结构示意图;
图5为本说明书实施例提供的一种计算机可读介质的原理示意图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
以下结合附图1-5对本申请作进一步详细说明。
本说明书实施例提供一种低质数据的自动化合成方法,包括:
获取低质音频数据;
对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
对所述发音数据进行语音识别,得到所述发音数据的文本信息;
输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
在本说明书实施例中,通过收集得到低质音频数据,低质音频数据通过切割分离模型分离出发音数据和噪音数据,利用通过分离切割模型分离出来噪音数据,再通过去噪模块,结合噪音数据将发音数据中的背景噪音去除,得到较纯净的发音数据。发音数据通过语音识别模型得到发音数据的文本信息,将低质音频数据对应的文本信息输入至预先训练的声学模型,即可通过预先训练的声学模型得到低质音频数据对应的文本信息的准确的音频数据。
现在将参考附图更全面地描述本发明的示例性实施例。然而,示例性实施例能够以多种形式实施,且不应被理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例能够使得本发明更加全面和完整,更加便于将发明构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的元件、组件或部分,因而将省略对它们的重复描述。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的特征、结构、特性或其他细节不排除可以以合适的方式结合在一个或更多其他的实施例中。
在对于具体实施例的描述中,本发明描述的特征、结构、特性或其他细节是为了使本领域的技术人员对实施例进行充分理解。但是,并不排除本领域技术人员可以实践本发明的技术方案而没有特定特征、结构、特性或其他细节的一个或更多。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
术语“和/或”或者“及/或”包括相关联的列出项目中的任一个或多者的所有组合。
图1为本说明书实施例提供的一种低质数据的自动化合成方法的原理示意图,该方法可以包括:
S101:获取低质音频数据。
在本说明书实施例中,通过收集得到低质音频数据,低质体现在:有大量背景噪音;无音频标准文本;可能混有大量其它音色的音频。例如:从客服通话系统中提取的客服端通话音频。
S102:对所述低质音频数据进行噪音分离,得到发音数据和噪音数据。
在本说明书实施例中,低质音频数据通过切割分离模型分离出发音数据和噪音数据。切割分离模型包括VAD(Voice Activity Detection,静音抑制,又称语音活动侦测)模块,VAD是一个将较长的低质音频数据中的发音数据和噪音数据切割出来的过程。在本说明书实施例中的VAD模块可使用开源模块,或者使用私有的模块,例如:VAD模块有Python库等。
S103:基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据。
在本说明书实施例中,利用通过分离切割模型分离出来噪音数据,再通过去噪模块,结合噪音数据将发音数据中的背景噪音去除,得到较纯净的发音数据。在本说明书实施例中的去噪模块可使用开源模块,或者使用私有的模块,例如:去噪模块有Python库等。
S104:对所述发音数据进行语音识别,得到所述发音数据的文本信息。
在本说明书实施例中,发音数据通过语音识别模型得到发音数据的文本信息。语音识别模型包括ASR(Automatic Speech Recognition,自动语音识别技术)模块,ASR是语音识别的逆过程,识别发音数据的文字内容。ASR模块的主要流程为:将发音数据与声学特征相匹配,匹配成功,则将发音数据输入声学模块,再输入解码器,结合语言模块,得到不完全准确的发音数据的文本信息。其中,声学模块、语言模块和解码器在本说明书实施例中均为已经训练好或调试好的开源模块。在本说明书实施例中,ASR模块可使用开源模块,或者使用私有的模块,例如:ASR模块可使用Kaldi(Kaldi是当前最流行的开源语音识别工具,它使用WFST来实现解码算法)进行训练等。
S105:输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
在本说明书实施例中,将低质音频数据对应的文本信息输入至预先训练的声学模型,即可通过预先训练的声学模型得到低质音频数据对应的文本信息的准确的音频数据。
在本说明书实施例中,所述声学模型的训练方法包括:
构建声学模型,并获取多个样本低质音频数据;
对所述样本低质音频数据分别进行噪音分离,得到相应的样本发音数据和样本噪音数据;
基于所述样本噪音数据去除所述样本发音数据的背景噪音,得到去除背景噪音的样本发音数据;
对所述样本发音数据分别进行语音识别,得到所述样本发音数据的样本文本信息;
根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型。
在本说明书实施例中,通过收集得到多个样本低质音频数据,低质体现在:有大量背景噪音;无音频标准文本;可能混有大量其它音色的音频。例如:从客服通话系统中提取的客服端通话音频。样本低质音频数据通过切割分离模型分离出样本发音数据和样本噪音数据。切割分离模型包括VAD模块,VAD是一个将较长的样本低质音频数据中的样本发音数据和样本噪音数据切割出来的过程。在本说明书实施例中的VAD模块可使用开源模块,或者使用私有的模块,例如:VAD模块有Python库等。利用通过分离切割模型分离出来样本噪音数据,再通过去噪模块,结合样本噪音数据将样本发音数据中的背景噪音去除,得到较纯净的样本发音数据。在本说明书实施例中的去噪模块可使用开源模块,或者使用私有的模块,例如:去噪模块有Python库等。
样本发音数据通过语音识别模型得到样本发音数据的文本信息。语音识别模型包括ASR模块,ASR是语音识别的逆过程,识别发音数据的文字内容。ASR模块的主要流程为:将样本发音数据与声学特征相匹配,匹配成功,则将样本发音数据输入声学模块,再输入解码器,结合语言模块,得到不完全准确的样本发音数据的文本信息。其中,声学模块、语言模块和解码器在本说明书实施例中均为已经训练好或调试好的开源模块。在本说明书实施例中,ASR模块可使用开源模块,或者使用私有的模块,例如:ASR模块可使用Kaldi进行训练等。
将样本低质音频数据对应的文本信息输入至预先训练的声学模型,即可通过预先训练的声学模型得到样本低质音频数据对应的文本信息的准确的样本音频数据。
在本说明书实施例中,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,包括:
获取各个所述样本发音数据的声纹特征矢量;
根据所述声纹特征矢量对所述样本发音数据进行聚类;
选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练。
在本说明书实施例中,将样本发音数据输入至声纹模块,将得到样本发音数据对应的声纹特征矢量,声纹特征矢量即声纹特征向量,声纹特征矢量可以是随时间变化的声纹特征组成的向量,一个样本发音数据对应一个声纹特征矢量。根据声纹特征矢量,样本发音数据和对应的文本信息经过聚类方法,得到分类结果,选取分类结果中样本发音数据和对应的文本信息数量最多的一类作为主要类别,属于主要类别的样本发音数据和对应的文本信息参与到声学模型的训练中。在本说明书实施例中的聚类方法可为DBSCAN(Density-Based Spatial Clustering of Applications with Noise,聚类算法)方法、K均值聚类方法,DBSCAN方法是一个比较有代表性的基于密度的聚类算法,K均值聚类方法是一种迭代求解的聚类分析算法,其步骤是,预将数据分为K组,则随机选取K个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类,也可为其它方法。
在本说明书实施例中,所述选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练,包括:
获取聚类结果中数量最多的一类的所述样本发音数据作为第一数据;
获取所述第一数据的信噪比,和所述第一数据对应的文本数据的置信度量;
根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据;
通过所述第二数据和所述第二数据对应的文本信息,对所述声学模型进行训练。
在本说明书实施例中,根据声纹特征矢量,样本发音数据和对应的文本信息经过聚类的方法,得到分类结果,选取分类结果中样本发音数据和对应的文本信息数量最多的一类作为第一数据。将第一数据输入切割分离模型还可以得到第一数据的信噪比,信噪比指的是音频数据中有效信号的能量与背景噪音能量的相对大小。将第一数据输入语音识别模型还可以得到置信度量,置信度量也称为可靠度,或置信水平、置信系数,即在抽样对总体参数作出估计时,由于样本的随机性,其结论总是不确定的。因此,采用一种概率的陈述方法,也就是数理统计中的区间估计法,即估计值与总体参数在一定允许的误差范围以内,其相应的概率有多大,这个相应的概率称作置信度。在本书明书实施例中的置信度量可为对发音数据进行语音识别,得到发音数据的文本信息的数量或者种类越少,识别的准确度越准确,置信度量越高。置信度量也可为对样本发音数据进行语音识别,得到的样本发音数据的文本信息与标准的样本发音数据的文本信息进行比对,越相似置信度量越高。结合信噪比和置信度量根据规则筛选模型筛选第一数据,得到第二数据。第二数据和第二数据对应的文本信息参与到声学模型的训练中。
在本说明书实施例中,所述根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据,包括:
基于所述置信度量对所述第一数据进行升序/降序排名,得到与所述置信度量的升序/降序排名结果成正比的第一分数;
基于所述信噪比对所述第一数据进行升序/降序排名,得到与所述信噪比的升序/降序排名结果成正比的第二分数;
结合所述第一分数和所述第二分数对所述第一数据进行升序排名;
选取排名靠前的N个第一数据,作为第二数据。
在本说明书实施例中,按照置信度量对第一数据进行升序排名,排名越靠前得到的第一分数越高,按照信噪比对第一数据进行升序排名,排名越靠前得到的第二分数越高,将第一分数和第二分数加权相加按照升序排名,排名越靠第一数据对应的分数和越高,选取排名靠前的N个第一数据,作为第二数据;也可按照置信度量对第一数据进行降序排名,排名越靠后得到的第一分数越高,按照信噪比对第一数据进行降序排名,排名越靠后得到的第二分数越高,将第一分数和第二分数加权相加按照升序排名,排名越靠第一数据对应的分数和越高,选取排名靠前的N个第一数据,作为第二数据。
在本说明书实施例中,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型,包括:
获取高质音频数据和高质音频数据的高质文本信息;
将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征;
将所述样本声学特征与相对应的样本发音数据进行对比,判断所述样本声学特征与相对应的样本发音数据是否相似;
将所述高质声学特征与相对应的高质音频数据进行对比,判断述高质声学特征与相对应的高质音频数据是否相似;
当所述样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且所述高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,所述声学模型收敛,得到训练完成的声学模型。
在本说明书实施例中,高质音频数据是一批大量的音频数据,高质音频数据的高质文本信息标注准确,主要是用来知识迁移到样本发音数据及样本文本信息。高质音频数据及高质文本信息在系统中是不变的、恒定的一批数据。例如:可以选择在数据公司购买的高质音频数据及高质文本信息。将样本文本信息与高质文本信息输入声学模型,分别得到相对应的样本声学特征和高质声学特征。将样本声学特征与相对应的样本发音数据进行对比,将高质声学特征与相对应的高质音频数据进行对比,当样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件时,声学模型收敛,得到训练完成的声学模型;当样本声学特征与相对应的样本发音数据相似的数量不符合第一预设条件,或者,高质声学特征与相对应的高质音频数据相似的数量不符合第二预设条件,调整声学模型中的参数,通过调整后的声学模型重新得到样本声学特征和高质声学特征,直至样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,得到训练完成的声学模型。
第一预设条件可为样本声学特征与相对应的样本发音数据相似的数量达到一个预设阀值,或者数量在总数量中的占比值;第二预设条件可为高质声学特征与相对应的高质音频数据相似的数量达到一个预设阀值,或者数量在总数量中的占比值。由于高质音频数据是特意引入用于构建训练模型的数据,而且高质音频数据相比较于低质音频数据可以更有效的被识别,所以,在一个优选方案中,在预设条件为预设阀值时,第二预设条件对应的预设阀值要大于或等于第一预设条件对应的预设阀值;在预设条件为占比值时,第二预设条件对应的占比值要大于或等于第一预设条件对应的占比值,相较于低质音频数据,对高质音频数据设置更高的模型收敛条件,保证训练得到的声学模型符合实际应用需求。
当样本声学特征与相对应的样本发音数据相似的数量不符合第一预设条件,或者,高质声学特征与相对应的高质音频数据相似的数量不符合第二预设条件,调整声学模型中的参数,调整的次数可限定,当调整的次数超过预设次数时,可以停止声学模型的训练,或者,更换建立声学模型的机器学习算法,例如:卷积神经网络算法建立的声学模型、深度前馈网络算法建立的声学模型、线性因子建立的声学模型、支持向量机算法建立的声学模型等。
图2为本说明书实施例提供的一种训练声学模型的流程示意图,该方法包括:
通过所述高质文本信息对所述样本文本信息进行修正、补充,得到修正、补充的样本文本数据,其中,修正、补充后的所述样本文本信息与所述高质文本信息具有相同的分布。
在本说明书实施例中,高质文本信息和样本文本信息同时输入给编码器和解码器,高质文本信息将会对样本文本信息进行修正、补充。由于高质音频数据是特意引入的数据,高质文本信息相较于样本文本信息的完整度更高,因此,通过对比高质文本信息与样本文本信息的相似度,通过相似度大于预设相似度阈值的高质文本信息对样本文本信息进行修正、补充。或者,由于文字存在同音字的问题,计算高质文本信息与样本文本信息之间的相似度可能存在一定差异,因此,通过计算高质音频数据与样本音频数据之间的相似度,来作为高质文本信息与样本文本信息之间的相似度,通过相似度大于预设相似度阈值的高质文本信息对样本文本信息进行修正、补充。在本说明书实施例中,相似度的计算方法包括但不限于:欧式距离算法、向量余弦值或者动态时间规整算法。
在本说明书实施例中,高质文本信息和样本文本信息由解码器输出,其中经过GRL(Gradient reverse layer,梯度反转层)和判别网络,使得解码器的输出对于修正、补充后的样本文本信息与高质文本信息具有相同的分布。再分别通过相对应的次级解码器输出,样本文本信息的次级解码器将预测出样本文本信息的声学特征,高质文本信息的次级解码器将预测出高质文本信息的声学特征。在本说明书实施例中的编码器能得到原数据的精髓,然后再创建一个小的神经网络学习这个精髓的数据,不仅减少了神经网络的负担,而且同样能达到很好的效果。在本说明书实施例中的解码器在训练的时候是要将精髓信息解压成原始信息。在本说明书实施例中GRL为在训练时将梯度符号进行反转的操作,通常配合判别网络使用,目的是使解码器输出的分布对于修正、补充后的样本文本信息与高质文本信息都是统一的。
图3本说明书实施例提供的一种低质数据的自动化合成装置的结构示意图,该装置可以包括:
获取模块,用于获取低质音频数据;
分离模块,用于对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
去噪模块,用于基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
语音识别模块,用于对所述发音数据进行语音识别,得到所述发音数据的文本信息;
合成模块,用于输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
在本说明书实施例中,所述合成模块的声学模型包括:
获取子模块,用于构建声学模型,并获取多个样本低质音频数据;
分离子模块,用于对所述样本低质音频数据分别进行噪音分离,得到相应的样本发音数据和样本噪音数据;
去噪子模块,用于基于所述样本噪音数据去除所述样本发音数据的背景噪音,得到去除背景噪音的样本发音数据;
语音识别子模块,用于对所述样本发音数据分别进行语音识别,得到所述样本发音数据的样本文本信息;
合成子模块,用于根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型。
在本说明书实施例中,所述合成子模块包括:
第一获取单元,用于获取各个所述样本发音数据的声纹特征矢量;
聚类单元,用于根据所述声纹特征矢量对所述样本发音数据进行聚类;
选取单元,用于选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练。
在本说明书实施例中,所述选取单元,用于获取聚类结果中数量最多的一类的所述样本发音数据作为第一数据;获取所述第一数据的信噪比,和所述第一数据对应的文本数据的置信度量;根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据;通过所述第二数据和所述第二数据对应的文本信息,对所述声学模型进行训练。
在本说明书实施例中,所述选取单元,具体用于基于所述置信度量对所述第一数据进行升序/降序排名,得到与所述置信度量的升序/降序排名结果成正比的第一分数;基于所述信噪比对所述第一数据进行升序/降序排名,得到与所述信噪比的升序/降序排名结果成正比的第二分数;结合所述第一分数和所述第二分数对所述第一数据进行升序排名;选取排名靠前的N个第一数据,作为第二数据。
在本说明书实施例中,所述所述合成子模块包括:
第二获取单元,用于获取高质音频数据和高质音频数据的高质文本信息;
第三获取单元,用于将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征;
判断单元,用于将所述样本声学特征与相对应的样本发音数据进行对比,判断所述样本声学特征与相对应的样本发音数据是否相似;
对比单元,用于将所述高质声学特征与相对应的高质音频数据进行对比,判断述高质声学特征与相对应的高质音频数据是否相似;
训练单元,用于当所述样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且所述高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,所述声学模型收敛,得到训练完成的声学模型。
在本说明书实施例中,所述第三获取单元,用于通过所述高质文本信息对所述样本文本信息进行修正、补充,得到修正、补充的样本文本数据,其中,修正、补充后的所述样本文本信息与所述高质文本信息具有相同的分布。
在本说明书实施例中,通过收集得到低质音频数据,低质音频数据通过切割分离模型分离出发音数据和噪音数据,利用通过分离切割模型分离出来噪音数据,再通过去噪模块,结合噪音数据将发音数据中的背景噪音去除,得到较纯净的发音数据。发音数据通过语音识别模型得到发音数据的文本信息,将低质音频数据对应的文本信息输入至预先训练的声学模型,即可通过预先训练的声学模型得到低质音频数据对应的文本信息的准确的音频数据。
本发明实施例的装置的功能已经在上述的方法实施例中进行了描述,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
基于同一发明构思,本说明书实施例还提供一种电子设备。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图4为本说明书实施例提供的一种电子设备的结构示意图。下面参照图4来描述根据本发明该实施例的电子设备300。图4显示的电子设备300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备300以通用计算设备的形式表现。电子设备300的组件可以包括但不限于:至少一个处理单元310、至少一个存储单元320、连接不同系统组件(包括存储单元320和处理单元310)的总线330、显示单元340等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元310执行,使得所述处理单元310执行本说明书上述处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元310可以执行如图1所示的步骤。
所述存储单元320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)3201和/或高速缓存存储单元3202,还可以进一步包括只读存储单元(ROM)3203。
所述存储单元320还可以包括具有一组(至少一个)程序模块3205的程序/实用工具3204,这样的程序模块3205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备300也可以与一个或多个外部设备400(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备300交互的设备通信,和/或与使得该电子设备300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口350进行。并且,电子设备300还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器360可以通过总线330与电子设备300的其它模块通信。应当明白,尽管图4中未示出,可以结合电子设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。当所述计算机程序被一个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:如图1所示的方法。
图5为本说明书实施例提供的一种计算机可读介质的原理示意图。
实现图1所示方法的计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种低质数据的自动化合成方法,其特征在于,包括:
获取低质音频数据;
对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
对所述发音数据进行语音识别,得到所述发音数据的文本信息;
输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
2.如权利要求1所述的方法,其特征在于,所述声学模型的训练方法包括:
构建声学模型,并获取多个样本低质音频数据;
对所述样本低质音频数据分别进行噪音分离,得到相应的样本发音数据和样本噪音数据;
基于所述样本噪音数据去除所述样本发音数据的背景噪音,得到去除背景噪音的样本发音数据;
对所述样本发音数据分别进行语音识别,得到所述样本发音数据的样本文本信息;
根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型。
3.如权利要求1-2所述的方法,其特征在于,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,包括:
获取各个所述样本发音数据的声纹特征矢量;
根据所述声纹特征矢量对所述样本发音数据进行聚类;
选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练。
4.如权利要求1-3所述的方法,其特征在于,所述选取聚类结果中数量最多的一类的所述样本发音数据和相对应的样本文本信息,对所述声学模型进行训练,包括:
获取聚类结果中数量最多的一类的所述样本发音数据作为第一数据;
获取所述第一数据的信噪比,和所述第一数据对应的文本数据的置信度量;
根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据;
通过所述第二数据和所述第二数据对应的文本信息,对所述声学模型进行训练。
5.如权利要求1-4所述的方法,其特征在于,所述根据所述信噪比和所述置信度量对所述第一数据进行筛选,得到第二数据,包括:
基于所述置信度量对所述第一数据进行升序/降序排名,得到与所述置信度量的升序/降序排名结果成正比的第一分数;
基于所述信噪比对所述第一数据进行升序/降序排名,得到与所述信噪比的升序/降序排名结果成正比的第二分数;
结合所述第一分数和所述第二分数对所述第一数据进行升序排名;
选取排名靠前的N个第一数据,作为第二数据。
6.如权利要求1-5所述的方法,其特征在于,所述根据所述样本发音数据和所述样本文本信息,对所述声学模型进行训练,得到训练完成的声学模型,包括:
获取高质音频数据和高质音频数据的高质文本信息;
将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征;
将所述样本声学特征与相对应的样本发音数据进行对比,判断所述样本声学特征与相对应的样本发音数据是否相似;
将所述高质声学特征与相对应的高质音频数据进行对比,判断述高质声学特征与相对应的高质音频数据是否相似;
当所述样本声学特征与相对应的样本发音数据相似的数量符合第一预设条件,且所述高质声学特征与相对应的高质音频数据相似的数量符合第二预设条件,所述声学模型收敛,得到训练完成的声学模型。
7.如权利要求1-6所述的方法,其特征在于,所述将所述样本文本信息与所述高质文本信息输入所述声学模型,分别得到相对应的样本声学特征和高质声学特征,包括:
通过所述高质文本信息对所述样本文本信息进行修正、补充,得到修正、补充的样本文本数据,其中,修正、补充后的所述样本文本信息与所述高质文本信息具有相同的分布。
8.一种低质数据的自动化合成装置,其特征在于,包括:
获取模块,用于获取低质音频数据;
分离模块,用于对所述低质音频数据进行噪音分离,得到发音数据和噪音数据;
去噪模块,用于基于所述噪音数据去除所述发音数据的背景噪音,得到去除背景噪音的发音数据;
语音识别模块,用于对所述发音数据进行语音识别,得到所述发音数据的文本信息;
合成模块,用于输入所述文本信息至预先训练的声学模型,得到合成的音频数据。
9.一种电子设备,其中,该电子设备包括:处理器;以及,存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行根据权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现权利要求1-7中任一项所述的方法。
CN202110683248.2A 2021-06-18 2021-06-18 一种低质数据的自动化合成方法、装置及电子设备 Active CN113571036B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110683248.2A CN113571036B (zh) 2021-06-18 2021-06-18 一种低质数据的自动化合成方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110683248.2A CN113571036B (zh) 2021-06-18 2021-06-18 一种低质数据的自动化合成方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN113571036A true CN113571036A (zh) 2021-10-29
CN113571036B CN113571036B (zh) 2023-08-18

Family

ID=78162442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110683248.2A Active CN113571036B (zh) 2021-06-18 2021-06-18 一种低质数据的自动化合成方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN113571036B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999440A (zh) * 2022-05-24 2022-09-02 北京百度网讯科技有限公司 虚拟形象生成方法、装置、设备、存储介质以及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097288A (ja) * 1996-09-25 1998-04-14 Oki Electric Ind Co Ltd 背景雑音除去装置及び音声認識装置
WO2002017299A1 (en) * 2000-08-21 2002-02-28 Conexant Systems, Inc. Method for noise robust classification in speech coding
CN101989431A (zh) * 2009-07-31 2011-03-23 深圳富泰宏精密工业有限公司 噪音消除装置及方法
CN110136692A (zh) * 2019-04-30 2019-08-16 北京小米移动软件有限公司 语音合成方法、装置、设备及存储介质
CN110265052A (zh) * 2019-06-24 2019-09-20 秒针信息技术有限公司 收音设备的信噪比确定方法、装置、存储介质及电子装置
CN112382266A (zh) * 2020-10-30 2021-02-19 北京有竹居网络技术有限公司 一种语音合成方法、装置、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097288A (ja) * 1996-09-25 1998-04-14 Oki Electric Ind Co Ltd 背景雑音除去装置及び音声認識装置
WO2002017299A1 (en) * 2000-08-21 2002-02-28 Conexant Systems, Inc. Method for noise robust classification in speech coding
CN101989431A (zh) * 2009-07-31 2011-03-23 深圳富泰宏精密工业有限公司 噪音消除装置及方法
CN110136692A (zh) * 2019-04-30 2019-08-16 北京小米移动软件有限公司 语音合成方法、装置、设备及存储介质
CN110265052A (zh) * 2019-06-24 2019-09-20 秒针信息技术有限公司 收音设备的信噪比确定方法、装置、存储介质及电子装置
CN112382266A (zh) * 2020-10-30 2021-02-19 北京有竹居网络技术有限公司 一种语音合成方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999440A (zh) * 2022-05-24 2022-09-02 北京百度网讯科技有限公司 虚拟形象生成方法、装置、设备、存储介质以及程序产品

Also Published As

Publication number Publication date
CN113571036B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
WO2021174757A1 (zh) 语音情绪识别方法、装置、电子设备及计算机可读存储介质
CN106683680B (zh) 说话人识别方法及装置、计算机设备及计算机可读介质
CN106297800B (zh) 一种自适应的语音识别的方法和设备
CN108305618B (zh) 语音获取及搜索方法、智能笔、搜索终端及存储介质
CN110600002B (zh) 语音合成方法、装置及电子设备
CN115357719B (zh) 基于改进bert模型的电力审计文本分类方法及装置
CN111177186A (zh) 基于问题检索的单句意图识别方法、装置和系统
JP2021081713A (ja) 音声信号を処理するための方法、装置、機器、および媒体
CN113780418B (zh) 一种数据的筛选方法、系统、设备和存储介质
US10529337B2 (en) Symbol sequence estimation in speech
CN113571036B (zh) 一种低质数据的自动化合成方法、装置及电子设备
CN111460224B (zh) 评论数据的质量标注方法、装置、设备及存储介质
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
CN111966798A (zh) 一种基于多轮K-means算法的意图识别方法、装置和电子设备
CN112885379A (zh) 客服语音评估方法、系统、设备及存储介质
CN116680385A (zh) 基于人工智能的对话问答方法、装置、计算机设备及介质
CN110910905B (zh) 静音点检测方法及装置、存储介质、电子设备
CN110083807B (zh) 合同的修改影响自动预测方法、装置、介质及电子设备
CN110968690B (zh) 词语的聚类划分方法和装置、设备以及存储介质
US20230359837A1 (en) Multilingual summarization of episodes using longformers
CN113987114B (zh) 一种基于语义分析的地址匹配方法、装置和电子设备
CN116994612A (zh) 音频情感的确定方法、装置及计算机设备
CN118351828A (zh) 基于人工智能的语音合成方法、装置、计算机设备及介质
CN113571041A (zh) 语音识别文本处理方法、装置和电子设备
CN113780323A (zh) 样本数据处理方法、装置、存储介质与电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant