CN107680586A - 远场语音声学模型训练方法及系统 - Google Patents

远场语音声学模型训练方法及系统 Download PDF

Info

Publication number
CN107680586A
CN107680586A CN201710648047.2A CN201710648047A CN107680586A CN 107680586 A CN107680586 A CN 107680586A CN 201710648047 A CN201710648047 A CN 201710648047A CN 107680586 A CN107680586 A CN 107680586A
Authority
CN
China
Prior art keywords
training data
voice training
far field
data
near field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710648047.2A
Other languages
English (en)
Other versions
CN107680586B (zh
Inventor
李超
孙建伟
李先刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710648047.2A priority Critical patent/CN107680586B/zh
Publication of CN107680586A publication Critical patent/CN107680586A/zh
Priority to US16/051,672 priority patent/US20190043482A1/en
Application granted granted Critical
Publication of CN107680586B publication Critical patent/CN107680586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请提供一种远场语音声学模型训练方法及系统,所述方法包括:将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数据,其中所述远场语音训练数据是对近场语音训练数据进行数据增强处理得到的;使用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型。能够避免现有技术中录制远场语音数据需要花费大量的时间成本和经济成本的问题;既减少了获取远场语音数据的时间和经济成本,又改善了远场语音识别效果。

Description

远场语音声学模型训练方法及系统
【技术领域】
本申请涉及人工智能领域,尤其涉及一种远场语音声学模型训练方法及 系统。
【背景技术】
人工智能(Artificial Intelligence;AI),是研究、开发用于模拟、 延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人 工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新 的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、 语音识别、图像识别、自然语言处理和专家系统等。
随着人工智能的不断发展,语音交互作为最自然的交互方式日益推广, 人们对于语音识别服务的需求越来越多,智能音箱,智能电视,智能冰箱, 越来越多的智能产品出现在了大众消费品市场。这一批智能设备的登场将语 音识别服务从进场逐渐迁移到了远场。目前,近场语音识别已经能够达到很 高的识别率,但是远场语音识别,尤其是说话人距离麦克风3至5米的距离, 由于噪声和/或混响等干扰因素的影响,识别率远远低于近场语音识别。远场 识别性能之所以下降如此明显,是由于在远场场景下,语音信号幅度过低, 噪声和/或混响等其他干扰因素凸显,而目前语音识别系统中的声学模型通常 是由近场语音数据训练生成,识别数据和训练数据的不匹配导致远场语音识 别率迅速下降。
因此,远场语音识别算法研究面临的第一个问题就是如何获得大量的数 据。现在主要采用录制数据的方法来获得远场的数据。为了开发语音识别服 务,往往需要在不同的房间不同的环境里耗费大量的时间和人力录制大量的 数据,才能保证算法的性能,而这需要花费大量的时间成本和经济成本,并 浪费了大量的近场训练数据。
【发明内容】
本申请的多个方面提供一种远场语音声学模型训练方法及系统,用以减 少获取远场语音数据的时间和经济成本,改善远场语音识别效果。
本申请的一方面,提供一种远场语音声学模型训练方法,其特征在于,包 括:
将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数 据,其中所述远场语音训练数据是对近场语音训练数据进行数据增强处理得到 的;
使用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述对近场语音训练数据进行数据增强处理包括:
估计远场环境下的冲激响应函数;
利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述对滤波处理后得到的数据进行加噪处理包括:
选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声 数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数 据包括:
对近场语音训练数据进行切分,得到N份近场语音训练数据,所述N为 正整数;
将远场语音训练数据分别与N份近场语音训练数据进行混合,得到N份 混合语音训练数据,每一份混合语音训练数据分别用于所述训练深度神经网 络过程中的一次迭代。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述利用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型包 括:
对所述混合语音训练数据进行预处理和特征提取,获取语音特征向量;
将语音特征向量作为深度神经网络的输入,语音训练数据中的语音标识 作为深度神经网络的输出,训练得到远场识别声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,通 过不断迭代调整所述深度神经网络的参数,每次迭代中,将加噪远场语音训 练数据与切分后的近场语音训练数据进行混合并打散,训练深度神经网络。
本申请的另一方面,提供一种远场语音声学模型训练系统,其特征在于, 包括:
混合语音训练数据生成单元,用于将近场语音训练数据与远场语音训练 数据进行混合,生成混合语音训练数据,其中所述远场语音训练数据是对近 场语音训练数据进行数据增强处理得到的;
训练单元,用于使用所述混合语音训练数据训练深度神经网络,生成远场 识别声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述系统还包括数据增强单元,用于对所述对近场语音训练数据进行数据增强处 理:
估计远场环境下的冲激响应函数;
利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述数据增强党员在估计远场环境下的冲激响应函数时,具体执行:
采集远场环境下的多路冲激响应函数;
将所述多路冲激响应函数进行合并,得到所述远场环境下的冲激响应函 数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述数据增强单元在对滤波处理后得到的数据进行加噪处理时,具体执行:
选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声 数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述混合语音训练数据生成单元具体用于:
对近场语音训练数据进行切分,得到N份近场语音训练数据,所述N为 正整数;
将远场语音训练数据分别与N份近场语音训练数据进行混合,得到N份 混合语音训练数据,每一份混合语音训练数据分别用于所述训练深度神经网 络过程中的一次迭代。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述训练单元具体用于:
对所述混合语音训练数据进行预处理和特征提取,获取语音特征向量;
将语音特征向量作为深度神经网络的输入,语音训练数据中的语音标识 作为深度神经网络的输出,训练得到远场识别声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所 述训练子单元具体用于,通过不断迭代调整所述深度神经网络的参数,每次 迭代中,将加噪远场语音训练数据与切分后的近场语音训练数据进行混合并 打散,训练深度神经网络。
本申请的另一方面,提供一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或 多个处理器实现任一上述的方法。
本申请的另一方面,提供一种计算机可读存储介质,其上存储有计算机 程序,其特征在于,该程序被处理器执行时实现任一上述的方法。
由所述技术方案可知,采用本实施例提供的技术方案,能够避免现有技 术中获取远场语音数据需要花费大量的时间成本和经济成本的问题;减少获 取远场语音数据的时间,降低成本。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有 技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的 附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造 性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的远场语音声学模型训练方法的流程示意图;
图2为本申请一实施例提供的远场语音声学模型训练方法中对近场语音 训练数据进行数据增强处理的流程示意图;
图3为本申请一实施例提供的远场语音声学模型训练方法中使用近场语 音训练数据对远场语音训练数据进行混合,生成混合语音训练数据的流程示 意图;
图4为本申请一实施例提供的远场语音声学模型训练方法中利用所述混 合语音训练数据训练深度神经网络,生成远场识别声学模型的流程示意图;
图5为本申请另一实施例提供的远场语音声学模型训练系统的结构示意 图;
图6为本申请另一实施例提供的远场语音声学模型训练系统中混合语音 训练数据生成单元的结构示意图;
图7为本申请另一实施例提供的远场语音声学模型训练系统中训练单元 的结构示意图;
图8为适于用来实现本发明实施例的示例性计算机系统/服务器的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申 请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述, 显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于 本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获 得的全部其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表 示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A 和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联 对象是一种“或”的关系。
图1为本申请一实施例提供的远场语音声学模型训练方法的流程图,如 图1所示,包括以下步骤:
101、将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训 练数据,其中所述远场语音训练数据是对近场语音训练数据进行数据增强处理 得到的;
102、使用所述混合语音训练数据训练深度神经网络,生成远场识别声学 模型。
图2为本发明远场语音声学模型训练方法中所述对近场语音训练数据进 行数据增强处理的流程图,如图2所示,所述对近场语音训练数据进行数据 增强处理可以包括:
201、估计远场环境下的冲激响应函数;
202、利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
203、对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
在本实施例的一种实施方式中,所述估计远场环境下的冲激响应函数包 括:
采集远场环境下的多路冲激响应函数;将所述多路冲激响应函数进行合 并,得到所述远场环境下的冲激响应函数。
例如,利用一个独立的高保真音箱A(不是目标测试音箱)来播放从0到 16000Hz渐变的扫频信号作为远场声源,然后利用不同位置的目标测试音箱B 来收集到这个扫频信号的录音,通过数字信号处理理论得到多路冲激响应函 数。所述多路冲激响应函数能够模拟声源通过空间传输和/或房间反射等影 响,到达目标测试音箱B时的最终结果。
在本实施例的一种实施方式中,远场声源和不同位置的目标测试音箱B 的组合数量不少于50个;将多路冲激响应函数进行合并,如加权平均处理, 得到远场环境下的冲激响应函数;所述远场环境下的冲激响应函数能够模拟 远场环境的混响效应。
在本实施例的一种实施方式中,所述利用所述冲激响应函数,对近场语 音训练数据进行滤波处理包括:
对所述冲激响应函数和近场语音训练数据进行时域卷积运算或者频域相 乘运算。
其中,由于近场语音识别的使用非常广泛,已经积累了很多的近场语音 训练数据。因此,可以使用已有的近场语音训练数据。需要指出的是,所述 近场语音训练数据可以包括语音标识,所述语音标识可以用于区别基本语音 元素,上述语音标识可以以各种形式表示,如字母、数字、符号、文字等等。
所述近场语音训练数据为纯净的数据,即在安静环境下采集的语音识别 训练数据。
可选的,在使用时,可以是使用已有的所有近场语音训练数据。或者, 也可以是从已有的所有近场语音训练数据中进行筛选,选择出部分近场语音 训练数据。具体的筛选准则可以预先设置,例如,随机选择或者满足预设准 则的最优化方式选择。通过选择已有的所有数据或者选择部分数据,可以根 据实际需求选择数据规模,满足不同的实际需求。
可以将合并冲激响应函数作为滤波器函数,利用远场环境下的冲激响应 函数对所述近场语音训练数据进行滤波运算,例如时域卷积或者频域相乘运 算,以模拟远场环境的混响效应的影响。
真实的远场采集到的语音是含有大量噪声的,因此为了能够更好的模拟 远场语音训练数据,需要对滤波处理后得到的数据进行加噪处理。
所述对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据可 以包括:选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声 数据。
例如,噪声数据的类型需要和具体的产品应用场景相集合,大部分音箱 产品在室内使用,噪声主要是电视、电冰箱、抽油烟机、空调、洗衣机等设 备的噪声。需要提前采集这些噪声并进行拼接处理,得到纯噪声段。
采集大量的实际应用场景中噪声环境下的噪声数据,所述噪声数据中不 含语音段,即为非语音段;或截取所述噪声数据的非语音段。
从所有非语音段中预先筛选出持续时间超过预定阈值且平稳的非语音 段。
将筛选出的非语音段拼接为纯噪声段。
在纯噪声段中随机截取与模拟纯净远场语音训练数据的时长相等的噪声 片段。
创建噪声的信噪比SNR分布函数;例如,采用的类似瑞利分布的分布函数:
通过调整期望μ和标准差σ来得到更好符合预期的概率密度曲线;再将其 离散化,例如SNR变化粒度是1dB,那么需要将每个1dB内的概率密度曲线做 积分,得到每个dB的概率。
按照信噪比SNR将截取出的噪声片段与所述滤波处理后得到的数据进行 信号叠加从而得到远场语音训练数据。
通过上述步骤得到的远场语音训练数据既通过冲激响应函数的引入,模拟 了远场混响效应,又通过加噪处理的引入,模拟了实际的噪声环境,而这两点, 恰好是远场识别与近场识别的两个最重要的不同点。
但是,通过上述步骤得到的远场语音训练数据的分布和真实录制的远场语 音训练数据存在偏差。为了能够不让模型过分拟合到仿真数据,需要进行一定 的正则化。防止过拟合最有效的方法是增加训练集合,训练集合越大过拟合概 率越小。
图3为本发明远场语音声学模型训练方法中所述将近场语音训练数据与 远场语音训练数据进行混合,生成混合语音训练数据的流程图,如图3所示, 所述将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练 数据可以包括:
301、对近场语音训练数据进行切分,得到N份近场语音训练数据,所述N 为正整数。
确定加噪远场语音训练数据和近场语音训练数据的混合比例,即确定对远 场识别声学模型进行训练过程中,每次迭代需要的近场语音训练数据的数量; 例如,训练中,每次迭代使用全量的加噪远场语音训练数据N1条,加噪远场语 音训练数据与近场语音训练数据的比例是1:a,那么每次迭代需要近场语音训 练数据N2=a*N1条。总共有近场语音训练数据M条,可以将近场语音训练数 据切分为N=floor(M/N2)块。其中,floor()是向下取整的算子。
302、将远场语音训练数据分别与N份近场语音训练数据进行混合,得到N 份混合语音训练数据,每一份混合语音训练数据分别用于所述训练深度神经网 络过程中的一次迭代。
每一次迭代,需要将全量的加噪远场语音训练数据与确定混合比例的近场 语音训练数据进行混合,并且充分打散。例如,每次迭代会将全部N1条加噪远 场语音训练数据和第(i%N)份,即第(i%N)个N2条近场语音训练数据进行混 合,并且打散。这里,i表示训练的迭代次数,%是取余数操作。
图4为本发明远场语音声学模型训练方法中利用所述混合语音训练数据 训练深度神经网络,生成远场识别声学模型的流程图,如图4所示,所述利 用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型可以包 括:
401、获取所述混合语音训练数据的语音特征向量;
所述语音特征向量是对所述混合语音训练数据进行预处理和特征提取后 获得的包括语音特征的数据集。对所述混合语音训练数据的预处理包括对所 述混合语音训练数据的采样量化、预加重、加窗分帧、以及端点检测。经过 预处理后,所述混合语音训练数据的高频分辨率被提高,所述混合语音训练 数据变得更加平滑,方便了所述混合语音训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数从上 述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快 速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后, 可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能 量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能 量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法, 通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以 所生成的参数作为特征参数,生成特征向量。
402、将语音特征向量作为输入,语音标识作为输出,训练得到远场识别 声学模型。
将所述语音特征向量从所述深度神经网络的输入层输入,得到所述深度 神经网络的输出概率,根据所述输出概率与期望输出概率之间的误差调整所 述深度神经网络的参数。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述 输入层用于根据输入所述深度神经网络的语音特征向量计算输入至最底层的 隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输 入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据 本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述 加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示 输入的语音特征向量是所述输出单元对应的语音标识的概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的语音特征 向量计算输出至最底层的隐层的输出值。将所述语音特征向量输入至所述输 入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的语音 特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收 来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一 层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出 至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,每个输出层的输出单元的数量与语音所 包括的语音标识的个数相同。所述输出单元接收来自于最上层隐层中的隐层 单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入 值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所 述输出概率表示输入声学模型的语音特征向量属于所述输出单元所对应的语 音标识的概率。
在根据不同的输出单元的输出概率判断所述语音特征向量是哪个语音标 识后,经过其他附加模块的处理,可以输出所述语音特征向量对应的文本数 据。
在确定了所述远场识别声学模型的结构,即所述深度神经网络的结构以 后,需要确定所述深度神经网络的参数,即各层的加权值;所述加权值包括 所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。 也就是说,需要对所述深度神经网络进行训练。计算所述输出概率与所述期 望输出概率之间的误差,并根据所述深度神经网络的输出概率与所述期望输 出概率之间的误差调整所述深度神经网络的参数。
所述参数调整的过程是通过不断迭代实现的,在迭代的过程中,不断修 正参数更新策略的参数设置并对迭代的收敛性进行判断,直至迭代收敛则停 止迭代过程。其中,N份混合语音训练数据中的每一份混合语音训练数据分 别用于所述训练深度神经网络过程中的一次迭代。
在本实施例的一个优选实施方式中,采用最速下降算法作为利用所述输 出概率与所述期望输出概率之间的误差调整所述深度神经网络的加权值的算 法。
在生成远场识别声学模型之后,还可以包括以下步骤:根据所述远场识别 声学模型进行远场识别。
本实施例提供的远场语音声学模型训练方法利用已有的近场语音训练数据 作为数据源产生远场语音训练数据,通过对远场语音训练数据的正则化处理, 可以防止声学模型过拟合到模拟远场训练数据;既节省了大量的录音成本,又 显著地改善了远场识别效果。该方法可用于任何远场识别任务中,对远场识别 性能具有明显地改善。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表 述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描 述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同 时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属 于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有 详述的部分,可以参见其他实施例的相关描述。
图5为本申请一实施例提供的远场语音声学模型训练系统的结构图,如 图5所示,包括:
混合语音训练数据生成单元51,用于将近场语音训练数据与远场语音训 练数据进行混合,生成混合语音训练数据,其中所述远场语音训练数据是对 近场语音训练数据进行数据增强处理得到的;
训练单元52,用于使用所述混合语音训练数据训练深度神经网络,生成远 场识别声学模型。
其中,所述系统还包括数据增强单元,用于对近场语音训练数据进行数 据增强处理:
估计远场环境下的冲激响应函数;
利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
所述数据增强单元在估计远场环境下的冲激响应函数时,具体执行:
采集远场环境下的多路冲激响应函数;
将所述多路冲激响应函数进行合并,得到所述远场环境下的冲激响应函 数。
所述数据增强单元在对滤波处理后得到的数据进行加噪处理时,具体执 行:
选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声 数据。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁所述,所 述数据增强单元对近场语音训练数据进行数据增强处理的工作流程可以参考 前述方法实施例中的对应过程,在此不再赘述。
所述对近场语音训练数据进行数据增强处理得到的远场语音训练数据的分 布和真实录制的远场语音训练数据存在偏差。为了能够不让模型过分拟合到仿 真数据,需要进行一定的正则化。防止过拟合最有效的方法是增加训练集合, 训练集合越大过拟合概率越小。
图6为本发明远场语音声学模型训练系统中所述混合语音训练数据生成 单元51的结构图,如图6所示,所述混合语音训练数据生成单元51可以包 括:
切分子单元61,用于对近场语音训练数据进行切分,得到N份近场语音训 练数据,所述N为正整数。
确定加噪远场语音训练数据和近场语音训练数据的混合比例,即确定对远 场识别声学模型进行训练过程中,每次迭代需要的近场语音训练数据的数量; 例如,训练中,每次迭代使用全量的加噪远场语音训练数据N1条,加噪远场语 音训练数据与近场语音训练数据的比例是1:a,那么每次迭代需要近场语音训 练数据N2=a*N1条。总共有近场语音训练数据数据M条,可以将近场语音训 练数据切分为N=floor(M/N2)块。其中,floor()是向下取整的算子。
混合子单元62,用于将远场语音训练数据分别与N份近场语音训练数据进 行混合,得到N份混合语音训练数据,每一份混合语音训练数据分别用于所述 训练深度神经网络过程中的一次迭代。
每一次迭代,需要将全量的加噪远场语音训练数据与确定混合比例的近场 语音训练数据进行混合,并且充分打散。例如,每次迭代会将全部N1条加噪远 场语音训练数据和第(i%N)份,即第(i%N)个N2条近场语音训练数据进行混 合,并且打散。这里,i表示训练的迭代次数,%是取余数操作。
图7为本发明远场语音声学模型训练系统中所述训练单元52的结构图, 如图7所示,所述训练单元52可以包括:
语音特征向量获取子单元71,用于获取所述混合语音训练数据的语音特 征向量;
所述语音特征向量是对所述混合语音训练数据进行预处理和特征提取后 获得的包括语音特征的数据集。例如,
对所述混合语音训练数据的预处理包括对所述混合语音训练数据的采样 量化、预加重、加窗分帧、以及端点检测。经过预处理后,所述混合语音训 练数据的高频分辨率被提高,所述混合语音训练数据变得更加平滑,方便了 所述混合语音训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数从上 述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快 速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后, 可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能 量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能 量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法, 通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以 所生成的参数作为特征参数,生成特征向量。
训练子单元72,用于将语音特征向量作为输入,语音标识作为输出,训 练得到远场识别声学模型。
将所述语音特征向量从所述深度神经网络的输入层输入,得到所述深度 神经网络的输出概率,根据所述输出概率与期望输出概率之间的误差调整所 述深度神经网络的参数。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述 输入层用于根据输入所述深度神经网络的语音特征向量计算输入至最底层的 隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输 入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据 本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述 加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示 输入的语音特征向量是所述输出单元对应的语音标识的概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的语音特征 向量计算输出至最底层的隐层的输出值。将所述语音特征向量输入至所述输 入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的语音 特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收 来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一 层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出 至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,每个输出层的输出单元的数量与语音所 包括的语音标识的个数相同。所述输出单元接收来自于最上层隐层中的隐层 单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入 值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所 述输出概率表示输入声学模型的语音特征向量属于所述输出单元所对应的语 音标识的概率。
在根据不同的输出单元的输出概率判断所述语音特征向量是哪个语音标 识后,经过其他附加模块的处理,可以输出所述语音特征向量对应的文本数 据。
在确定了所述远场识别声学模型的结构,即所述深度神经网络的结构以 后,需要确定所述深度神经网络的参数,即各层的加权值;所述加权值包括 所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。 也就是说,需要对所述深度神经网络进行训练。
当利用混合语音训练数据训练深度神经网络时,将混合语音训练数据从 所述深度神经网络的输入层输入至所述深度神经网络,得到所述深度神经网 络的输出概率,计算所述输出概率与所述期望输出概率之间的误差,并根据 所述深度神经网络的输出概率与所述期望输出概率之间的误差调整所述深度 神经网络的参数。
所述参数调整的过程是通过不断迭代实现的,在迭代的过程中,不断修 正参数更新策略的参数设置并对迭代的收敛性进行判断,直至迭代收敛则停 止迭代过程。其中,N份混合语音训练数据中的每一份混合语音训练数据分 别用于所述训练深度神经网络过程中的一次迭代。
所述远场语音声学模型训练系统还可以包括以下单元:识别单元,用于根 据所述远场识别声学模型进行远场识别。
本实施例提供的远场语音声学模型训练系统利用已有的近场语音训练数据 作为数据源产生模拟远场语音训练数据,通过对模拟远场语音训练数据的正则 化处理,可以防止声学模型过拟合到模拟远场训练数据;既节省了大量的录音 成本,又显著地改善了远场识别效果。实验证明,该系统可用于任何远场识别 任务中,对远场识别性能具有明显地改善。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描 述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应 过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置, 可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的, 例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外 的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或 一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或 直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连 接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作 为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方, 或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或 者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中, 也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单 元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件 功能单元的形式实现。
图8示出了适于用来实现本发明实施方式的示例性计算机系统/服务器 012的框图。图8显示的计算机系统/服务器012仅仅是一个示例,不应对本 发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统/服务器012以通用计算设备的形式表现。计算 机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理 单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理 单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储 器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任 意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体 系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频 电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质 可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非 易失性介质,可移动的和不可移动的介质。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质 可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非 易失性介质,可移动的和不可移动的介质。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在 例如存储器028中,这样的程序模块042包括——但不限于——操作系统、 一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个 或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描 述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、 指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外 部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务 器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或 多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。 这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务 器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN), 广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配 器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白, 尽管图8中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软 件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱 动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行本发 明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质 被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多 个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径 不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算 机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者 计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、 磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组 合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个 或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、 只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式 紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意 合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序 的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合 使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数 据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用 多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组 合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机 可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、 装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括— —但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的 计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如 Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言 或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地 在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部 分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远 程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例 如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其 限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术 人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或 者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技 术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (14)

1.一种远场语音声学模型训练方法,其特征在于,包括:
将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数据,其中所述远场语音训练数据是对近场语音训练数据进行数据增强处理得到的;
使用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型。
2.根据权利要求1所述的方法,其特征在于,所述对近场语音训练数据进行数据增强处理包括:
估计远场环境下的冲激响应函数;
利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
3.根据权利要求2所述的方法,其特征在于,所述估计远场环境下的冲激响应函数包括:
采集远场环境下的多路冲激响应函数;
将所述多路冲激响应函数进行合并,得到所述远场环境下的冲激响应函数。
4.根据权利要求2所述的方法,其特征在于,所述对滤波处理后得到的数据进行加噪处理包括:
选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声数据。
5.根据权利要求1所述的方法,其特征在于,所述将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数据包括:
对近场语音训练数据进行切分,得到N份近场语音训练数据,所述N为正整数;
将远场语音训练数据分别与N份近场语音训练数据进行混合,得到N份混合语音训练数据,每一份混合语音训练数据分别用于所述训练深度神经网络过程中的一次迭代。
6.根据权利要求1所述的方法,其特征在于,所述利用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型包括:
对所述混合语音训练数据进行预处理和特征提取,获取语音特征向量;
将语音特征向量作为深度神经网络的输入,语音训练数据中的语音标识作为深度神经网络的输出,训练得到远场识别声学模型。
7.一种远场语音声学模型训练系统,其特征在于,包括:
混合语音训练数据生成单元,用于将近场语音训练数据与远场语音训练数据进行混合,生成混合语音训练数据,其中所述远场语音训练数据是对近场语音训练数据进行数据增强处理得到的;
训练单元,用于使用所述混合语音训练数据训练深度神经网络,生成远场识别声学模型。
8.根据权利要求7所述的系统,其特征在于,所述系统还包括:
数据增强单元,用于对近场语音训练数据进行如下数据增强处理:
估计远场环境下的冲激响应函数;
利用所述冲激响应函数,对近场语音训练数据进行滤波处理;
对滤波处理后得到的数据进行加噪处理,得到远场语音训练数据。
9.根据权利要求8所述的系统,其特征在于,所述数据增强单元在估计远场环境下的冲激响应函数时,具体执行:
采集远场环境下的多路冲激响应函数;
将所述多路冲激响应函数进行合并,得到所述远场环境下的冲激响应函数。
10.根据权利要求9所述的系统,其特征在于,所述数据增强单元在对滤波处理后得到的数据进行加噪处理时,具体执行:
选取噪声数据;
利用信噪比SNR分布函数,在所述滤波处理后得到的数据中叠加所述噪声数据。
11.根据权利要求7所述的系统,其特征在于,所述混合语音训练数据生成单元具体用于:
对近场语音训练数据进行切分,得到N份近场语音训练数据,所述N为正整数;
将远场语音训练数据分别与N份近场语音训练数据进行混合,得到N份混合语音训练数据,每一份混合语音训练数据分别用于所述训练深度神经网络过程中的一次迭代。
12.根据权利要求7所述的系统,其特征在于,所述训练单元具体用于:
对所述混合语音训练数据进行预处理和特征提取,获取语音特征向量;
将语音特征向量作为深度神经网络的输入,语音训练数据中的语音标识作为深度神经网络的输出,训练得到远场识别声学模型。
13.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN201710648047.2A 2017-08-01 2017-08-01 远场语音声学模型训练方法及系统 Active CN107680586B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710648047.2A CN107680586B (zh) 2017-08-01 2017-08-01 远场语音声学模型训练方法及系统
US16/051,672 US20190043482A1 (en) 2017-08-01 2018-08-01 Far field speech acoustic model training method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710648047.2A CN107680586B (zh) 2017-08-01 2017-08-01 远场语音声学模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN107680586A true CN107680586A (zh) 2018-02-09
CN107680586B CN107680586B (zh) 2020-09-29

Family

ID=61134222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710648047.2A Active CN107680586B (zh) 2017-08-01 2017-08-01 远场语音声学模型训练方法及系统

Country Status (2)

Country Link
US (1) US20190043482A1 (zh)
CN (1) CN107680586B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108538303A (zh) * 2018-04-23 2018-09-14 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108922517A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 训练盲源分离模型的方法、装置及存储介质
CN109378010A (zh) * 2018-10-29 2019-02-22 珠海格力电器股份有限公司 神经网络模型的训练方法、语音去噪方法及装置
CN109616100A (zh) * 2019-01-03 2019-04-12 百度在线网络技术(北京)有限公司 语音识别模型的生成方法及其装置
CN109841218A (zh) * 2019-01-31 2019-06-04 北京声智科技有限公司 一种针对远场环境的声纹注册方法及装置
CN110162610A (zh) * 2019-04-16 2019-08-23 平安科技(深圳)有限公司 机器人智能应答方法、装置、计算机设备及存储介质
CN110349571A (zh) * 2019-08-23 2019-10-18 北京声智科技有限公司 一种基于连接时序分类的训练方法及相关装置
CN110428845A (zh) * 2019-07-24 2019-11-08 厦门快商通科技股份有限公司 合成音频检测方法、系统、移动终端及存储介质
EP3573049A1 (en) * 2018-05-24 2019-11-27 Dolby Laboratories Licensing Corp. Training of acoustic models for far-field vocalization processing systems
CN110807909A (zh) * 2019-12-09 2020-02-18 深圳云端生活科技有限公司 一种雷达和语音处理组合控制的方法
CN111179909A (zh) * 2019-12-13 2020-05-19 航天信息股份有限公司 一种多麦远场语音唤醒方法及系统
CN111401671A (zh) * 2019-01-02 2020-07-10 中国移动通信有限公司研究院 一种精准营销中衍生特征计算方法、装置和可读存储介质
CN111785282A (zh) * 2019-04-03 2020-10-16 阿里巴巴集团控股有限公司 一种语音识别方法及装置和智能音箱
CN111933164A (zh) * 2020-06-29 2020-11-13 北京百度网讯科技有限公司 语音处理模型的训练方法、装置、电子设备和存储介质
CN111951786A (zh) * 2019-05-16 2020-11-17 武汉Tcl集团工业研究院有限公司 声音识别模型的训练方法、装置、终端设备及介质
CN112151080A (zh) * 2020-10-28 2020-12-29 成都启英泰伦科技有限公司 一种录制和处理训练语料的方法
WO2021013255A1 (zh) * 2019-07-24 2021-01-28 华为技术有限公司 一种声纹识别方法及装置
CN112288146A (zh) * 2020-10-15 2021-01-29 北京沃东天骏信息技术有限公司 页面显示方法、装置、系统、计算机设备以及存储介质
WO2021027132A1 (zh) * 2019-08-12 2021-02-18 平安科技(深圳)有限公司 一种音频处理方法、装置及计算机存储介质
CN113870896A (zh) * 2021-09-27 2021-12-31 动者科技(杭州)有限责任公司 基于时频图和卷积神经网络的运动声音判假方法、装置
WO2023051622A1 (zh) * 2021-09-28 2023-04-06 乐鑫信息科技(上海)股份有限公司 提升远场语音交互性能的方法和远场语音交互系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108346436B (zh) * 2017-08-22 2020-06-23 腾讯科技(深圳)有限公司 语音情感检测方法、装置、计算机设备及存储介质
CN108335694B (zh) * 2018-02-01 2021-10-15 北京百度网讯科技有限公司 远场环境噪声处理方法、装置、设备和存储介质
WO2019243633A1 (de) * 2018-06-22 2019-12-26 iNDTact GmbH Sensoranordnung, verwendung der sensoranordnung und verfahren zum erfassen von körperschall
JP6718182B1 (ja) * 2019-05-08 2020-07-08 株式会社インタラクティブソリューションズ 誤変換辞書作成システム
US20210035563A1 (en) * 2019-07-30 2021-02-04 Dolby Laboratories Licensing Corporation Per-epoch data augmentation for training acoustic models
US11227579B2 (en) 2019-08-08 2022-01-18 International Business Machines Corporation Data augmentation by frame insertion for speech data
CN112634877B (zh) * 2019-10-09 2022-09-23 北京声智科技有限公司 一种远场语音模拟方法及装置
CN111243573B (zh) * 2019-12-31 2022-11-01 深圳市瑞讯云技术有限公司 一种语音训练方法及装置
US11361749B2 (en) * 2020-03-11 2022-06-14 Nuance Communications, Inc. Ambient cooperative intelligence system and method
CN111354374A (zh) * 2020-03-13 2020-06-30 北京声智科技有限公司 语音处理方法、模型训练方法及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101595452A (zh) * 2006-12-22 2009-12-02 Step实验室公司 近场矢量信号增强
WO2015099927A1 (en) * 2013-12-24 2015-07-02 Intel Corporation Audio data detection with a computing device
CN105427860A (zh) * 2015-11-11 2016-03-23 百度在线网络技术(北京)有限公司 远场语音识别方法和装置
CN106328126A (zh) * 2016-10-20 2017-01-11 北京云知声信息技术有限公司 远场语音识别处理方法及装置
US20170148438A1 (en) * 2015-11-20 2017-05-25 Conexant Systems, Inc. Input/output mode control for audio processing
CN106782504A (zh) * 2016-12-29 2017-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101595452A (zh) * 2006-12-22 2009-12-02 Step实验室公司 近场矢量信号增强
WO2015099927A1 (en) * 2013-12-24 2015-07-02 Intel Corporation Audio data detection with a computing device
CN105427860A (zh) * 2015-11-11 2016-03-23 百度在线网络技术(北京)有限公司 远场语音识别方法和装置
US20170148438A1 (en) * 2015-11-20 2017-05-25 Conexant Systems, Inc. Input/output mode control for audio processing
CN106328126A (zh) * 2016-10-20 2017-01-11 北京云知声信息技术有限公司 远场语音识别处理方法及装置
CN106782504A (zh) * 2016-12-29 2017-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TOM KO ET AL.: "《A study on data augmentation of reverberant speech for robust speech recognition》", 《 2017 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
刘悦: "《基于近场的麦克风阵列语音增强方法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108538303A (zh) * 2018-04-23 2018-09-14 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108538303B (zh) * 2018-04-23 2019-10-22 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
EP3573049A1 (en) * 2018-05-24 2019-11-27 Dolby Laboratories Licensing Corp. Training of acoustic models for far-field vocalization processing systems
CN108922517A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 训练盲源分离模型的方法、装置及存储介质
CN109378010A (zh) * 2018-10-29 2019-02-22 珠海格力电器股份有限公司 神经网络模型的训练方法、语音去噪方法及装置
CN111401671B (zh) * 2019-01-02 2023-11-21 中国移动通信有限公司研究院 一种精准营销中衍生特征计算方法、装置和可读存储介质
CN111401671A (zh) * 2019-01-02 2020-07-10 中国移动通信有限公司研究院 一种精准营销中衍生特征计算方法、装置和可读存储介质
CN109616100A (zh) * 2019-01-03 2019-04-12 百度在线网络技术(北京)有限公司 语音识别模型的生成方法及其装置
CN109841218B (zh) * 2019-01-31 2020-10-27 北京声智科技有限公司 一种针对远场环境的声纹注册方法及装置
CN109841218A (zh) * 2019-01-31 2019-06-04 北京声智科技有限公司 一种针对远场环境的声纹注册方法及装置
CN111785282A (zh) * 2019-04-03 2020-10-16 阿里巴巴集团控股有限公司 一种语音识别方法及装置和智能音箱
CN110162610A (zh) * 2019-04-16 2019-08-23 平安科技(深圳)有限公司 机器人智能应答方法、装置、计算机设备及存储介质
CN111951786A (zh) * 2019-05-16 2020-11-17 武汉Tcl集团工业研究院有限公司 声音识别模型的训练方法、装置、终端设备及介质
CN110428845A (zh) * 2019-07-24 2019-11-08 厦门快商通科技股份有限公司 合成音频检测方法、系统、移动终端及存储介质
CN112289325A (zh) * 2019-07-24 2021-01-29 华为技术有限公司 一种声纹识别方法及装置
WO2021013255A1 (zh) * 2019-07-24 2021-01-28 华为技术有限公司 一种声纹识别方法及装置
WO2021027132A1 (zh) * 2019-08-12 2021-02-18 平安科技(深圳)有限公司 一种音频处理方法、装置及计算机存储介质
CN110349571A (zh) * 2019-08-23 2019-10-18 北京声智科技有限公司 一种基于连接时序分类的训练方法及相关装置
CN110349571B (zh) * 2019-08-23 2021-09-07 北京声智科技有限公司 一种基于连接时序分类的训练方法及相关装置
CN110807909A (zh) * 2019-12-09 2020-02-18 深圳云端生活科技有限公司 一种雷达和语音处理组合控制的方法
CN111179909A (zh) * 2019-12-13 2020-05-19 航天信息股份有限公司 一种多麦远场语音唤醒方法及系统
CN111179909B (zh) * 2019-12-13 2023-01-10 航天信息股份有限公司 一种多麦远场语音唤醒方法及系统
CN111933164A (zh) * 2020-06-29 2020-11-13 北京百度网讯科技有限公司 语音处理模型的训练方法、装置、电子设备和存储介质
CN112288146A (zh) * 2020-10-15 2021-01-29 北京沃东天骏信息技术有限公司 页面显示方法、装置、系统、计算机设备以及存储介质
CN112151080A (zh) * 2020-10-28 2020-12-29 成都启英泰伦科技有限公司 一种录制和处理训练语料的方法
CN113870896A (zh) * 2021-09-27 2021-12-31 动者科技(杭州)有限责任公司 基于时频图和卷积神经网络的运动声音判假方法、装置
WO2023051622A1 (zh) * 2021-09-28 2023-04-06 乐鑫信息科技(上海)股份有限公司 提升远场语音交互性能的方法和远场语音交互系统
CN113921007B (zh) * 2021-09-28 2023-04-11 乐鑫信息科技(上海)股份有限公司 提升远场语音交互性能的方法和远场语音交互系统

Also Published As

Publication number Publication date
US20190043482A1 (en) 2019-02-07
CN107680586B (zh) 2020-09-29

Similar Documents

Publication Publication Date Title
CN107680586A (zh) 远场语音声学模型训练方法及系统
CN107481731A (zh) 一种语音数据增强方法及系统
CN107481717A (zh) 一种声学模型训练方法及系统
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
WO2021043015A1 (zh) 语音识别方法及装置、神经网络训练方法及装置
CN107610709A (zh) 一种训练声纹识别模型的方法及系统
CN108269569A (zh) 语音识别方法和设备
CN109272989A (zh) 语音唤醒方法、装置和计算机可读存储介质
CN112820315B (zh) 音频信号处理方法、装置、计算机设备及存储介质
CN108463848A (zh) 用于多声道语音识别的自适应音频增强
CN107785029A (zh) 目标语音检测方法及装置
CN109639479B (zh) 基于生成对抗网络的网络流量数据增强方法及装置
CN113436643B (zh) 语音增强模型的训练及应用方法、装置、设备及存储介质
CN107068161A (zh) 基于人工智能的语音降噪方法、装置和计算机设备
CN102723082A (zh) 基于保持语音信息的单耳音频处理系统和方法
US20210343305A1 (en) Using a predictive model to automatically enhance audio having various audio quality issues
US20240071402A1 (en) Method and apparatus for processing audio data, device, storage medium
CN114974280A (zh) 音频降噪模型的训练方法、音频降噪的方法及装置
CN114283795A (zh) 语音增强模型的训练、识别方法、电子设备和存储介质
CN114338623B (zh) 音频的处理方法、装置、设备及介质
CN113345460B (zh) 音频信号处理方法、装置、设备及存储介质
Kothapally et al. Skipconvgan: Monaural speech dereverberation using generative adversarial networks via complex time-frequency masking
CN114792524B (zh) 音频数据处理方法、装置、程序产品、计算机设备和介质
CN111696520A (zh) 智能配音方法、装置、介质及电子设备
CN113555032A (zh) 多说话人场景识别及网络训练方法、装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant