CN108766418A - 语音端点识别方法、装置及设备 - Google Patents
语音端点识别方法、装置及设备 Download PDFInfo
- Publication number
- CN108766418A CN108766418A CN201810509977.4A CN201810509977A CN108766418A CN 108766418 A CN108766418 A CN 108766418A CN 201810509977 A CN201810509977 A CN 201810509977A CN 108766418 A CN108766418 A CN 108766418A
- Authority
- CN
- China
- Prior art keywords
- frame
- audio
- voice
- starting point
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明提供一种语音端点识别方法、装置及设备。本发明的方法,通过分别用起点训练集和终点训练集训练循环神经网络得到起点识别模型和终点识别模型,根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,可以在保证对起点帧识别的准确性尽可能高的同时,不影响终点帧识别的延迟时间;根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,可以在保证对终点帧识别延迟尽可能短的同时,不影响起点帧识别的准确性,从而可以在提高起点帧识别的准确性的同时,缩短终点帧识别的延迟时间。
Description
技术领域
本发明涉及语音识别领域,尤其涉及一种语音端点识别方法、装置及设备。
背景技术
随着语音搜索业务的不断普及,越来越多的人开始使用自己的语音作为交互的手段。用户通过移动终端将输入的音频上传到服务器,服务器根据该音频进行语音识别。在语音交互中,准确地识别出语音的起点和终点是语音识别的重要部分。
现有技术中采用语音活性检测(Voice Activity Detector,简称VAD)模型来判断语音的起点和终点。在语音识别中,要求对语音起点检测的准确度尽可能高,语音终点的延迟尽可能短。现有的VAD模型通过对起点和终点采用完全相同的处理模型进行识别,要么对起点的识别不准确,出现起点的误检和漏检,导致系统性能下降;要么对终点识别延迟时间太长,导致响应用户的延迟过长。
发明内容
本发明提供一种语音端点识别方法、装置及设备,用以解决现有的VAD模型通过对起点和终点采用完全相同的处理模型进行识别,要么对起点的识别不准确,出现起点的误检和漏检,导致系统性能下降;要么对终点识别延迟时间太长,导致响应用户的延迟过长的问题。
本发明的一个方面是提供一种语音端点识别方法,包括:
提取待检测音频的各音频帧的声学特征;
根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,所述起点识别模型是用起点训练集对神经网络训练得到的;
根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,所述终点识别模型是用终点训练集对神经网络训练得到的。
本发明的另一个方面是提供一种语音端点识别装置,包括:
特征提取模块,用于提取待检测音频的各音频帧的声学特征;
起点识别模块,用于根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,所述起点识别模型是用起点训练集对神经网络训练得到的;
终点识别模块,用于根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,所述终点识别模型是用终点训练集对神经网络训练得到的。
本发明的另一个方面是提供一种计算机设备,包括:
存储器,处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,
所述处理器运行所述计算机程序时实现上述所述的语音端点识别方法。
本发明的另一个方面是提供一种计算机可读存储介质,存储有计算机程序,
所述计算机程序被处理器执行时实现上述所述的语音端点识别方法。
本发明提供的语音端点识别方法、装置及设备,通过分别用起点训练集和终点训练集训练循环神经网络得到起点识别模型和终点识别模型,根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,可以在保证对起点帧识别的准确性尽可能高的同时,不影响终点帧识别的延迟时间;根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,可以在保证对终点帧识别延迟尽可能短的同时,不影响起点帧识别的准确性,从而可以在提高起点帧识别的准确性的同时,缩短终点帧识别的延迟时间。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1为本发明实施例一提供的语音端点识别方法流程图;
图2为本发明实施例二提供的语音端点识别方法流程图;
图3为本发明实施例三提供的确定起点训练集的流程图;
图4为本发明实施例三提供的确定终点训练集的流程图;
图5为本发明实施例四提供的语音端点识别装置的结构示意图;
图6为本发明实施例六提供的语音端点识别装置的结构示意图;
图7为本发明实施例七提供的计算机设备的结构示意图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
首先对本发明所涉及的名词进行解释:
语音活性检测(Voice Activity Detector,简称VAD):又称语音活动检测、语音端点检测、语音边界检测,是一种从音频信号流里识别和消除长时间的静音段的技术。
后验概率(A Posteriori Probability):是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。后验概率是指在得到“结果”的信息后重新修正的概率,是“执果寻因”问题中的"果"。
先验概率(A Priori Probability):是指根据以往经验和分析得到的概率,如全概率公式,它往往作为“由因求果”问题中的“因”出现。先验概率是通过古典概率模型加以定义的,故又称为古典概率。
声学特征的提取:是语音识别的一个重要环节。声学特征的提取既是一个信息大幅度压缩的过程,也是一个信号解卷过程,目的是使模式划分器能更好地划分。由于语音信号的时变特性,特征提取必须在一小段语音信号上进行,也即进行短时分析。这一段被认为是平稳的分析区间称之为帧,帧与帧之间的偏移通常取帧长的1/2或1/3。通常要对信号进行预加重以提升高频,对信号加窗以避免短时语音段边缘的影响。
此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。在以下各实施例的描述中,“多个”的含义是两个以上,除非另有明确具体的限定。
下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
实施例一
图1为本发明实施例一提供的语音端点识别方法流程图。本发明实施例针对现有的VAD模型通过对起点和终点采用完全相同的处理模型进行识别,要么对起点的识别不准确,出现起点的误检和漏检,导致系统性能下降;要么对终点识别延迟时间太长,导致响应用户的延迟过长的问题,提供了语音端点识别方法。如图1所示,该方法具体步骤如下:
步骤S101、提取待检测音频的各音频帧的声学特征。
本实施例中,首选获取待检测音频的各音频帧,分别提取各音频帧的声学特征。
其中,该声学特征可以是梅尔频率倒谱系数(Mel Frequency CepstralCoefficient,简称MFCC)、感知线性预测(Perceptual Linear Predictive,简称PLP)等等。
步骤S102、根据各音频帧的声学特征和起点识别模型,识别出各音频帧中的语音起点帧,起点识别模型是用起点训练集对神经网络训练得到的。
本实施例中,起点训练集中包括至少一组起点训练数据,一组起点训练数据包括一条起点训练音频的各帧的声学特征和标注信息。终点训练集包括至少一组终点训练数据,一组终点训练数据包括一条终点训练音频的各帧的声学特征和标注信息。
在实际应用中,本实施例包括两个阶段:训练阶段和检测阶段。
训练阶段为在对待检测音频的端点进行识别之前,训练得到起点识别模型和终点识别模型的过程。训练阶段具体包括:
预先获取语音识别的训练预料,训练预料是在实际使用中真实的语音材料,包括多个样本音频。例如,训练预料可以包括1万条用户录入的音频,每条音频大约几秒钟的长度。对训练预料中的每一条样本音频进行分帧处理,得到多个音频帧,采用预设的特征提取方法提取各音频帧的声学特征,并获取每个音频帧的标注信息。
截取该条样本音频的前第一时长的第一音频段,该第一音频段包括该条样本音频的语音起点;将该第一音频段作为一条起点训练音频,将该第一音频段内的各音频帧的声学特征和标注信息作为该条起点训练音频对应的一组起点训练数据,添加到起点训练集中。
截取该条样本音频的最后的第二时长的第二音频段,该第二音频段包括该条样本音频的语音终点;将该第二音频段作为一条终点训练音频,将该第二音频段内的各音频帧的声学特征和标注信息作为该条终点训练音频对应的一组终点训练数据,添加到终点训练集中。
此处采用起点识别模型和终点识别模型是通过不同的训练数据集对循环神经网络训练得到的。可以使用起点训练集对循环神经网络模型进行训练得到起点识别模型,使用终点训练集对循环神经网络模型进行训练得到终点识别模型。
利用起点训练集对神经网络进行训练,得到起点识别模型,利用终点训练集对神经网络进行训练,得到终点识别模型。
在检测阶段,通过步骤S101-S103,提取待检测音频的各音频帧的声学特征,并根据待检测音频的各音频帧的声学特征以及起点识别模型和终点识别模型,分别识别出待检测音频的语音起点帧和语音终点帧,从而可以确定待检测音频的语音起点和语音终点。
在获取到各音频帧的声学特征之后,该步骤中,根据各音频帧的声学特征和起点识别模型,可以识别出各音频帧中的语音起点帧。
可选的,可以将各音频帧的声学特征依次输入起点识别模型,根据起点识别模型的输出值确定当前的音频帧是否为待检测音频的语音起点帧;若当前的音频帧是语音起点帧,则继续将下一帧输入起点识别模型,以确定下一帧是否为待检测音频的语音起点帧,直至确定语音起点帧时,停止将后续的音频帧输入起点识别模型。
步骤S103、根据各音频帧的声学特征和终点识别模型,识别出各音频帧中的语音终点帧,终点识别模型是用终点训练集对神经网络训练得到的。
在获取到各音频帧的声学特征之后,该步骤中,根据各音频帧的声学特征和终点识别模型,可以识别出各音频帧中的语音终点帧。
可选的,可以在识别出语音起点帧之后,将待检测音频的语音起点帧之后的各音频帧依次输入终点识别模型,根据终点识别模型的输出值确定当前的音频帧是否是待检测音频的语音终点帧;若当前的音频帧是语音终点帧,则继续将下一帧输入终点识别模型,以确定下一帧是否为待检测音频的语音终点帧,直至确定语音终点帧时,停止将后续的音频帧输入终点识别模型。
另外,在本实施例的另一实施方式中,还可以将各音频帧按照时间先后顺序倒序地将各帧依次输入终点识别模型,先识别出待检测音频的语音终点帧,然后将语音终点帧之前的音频帧继续依次输入起点识别模型,识别出待检测音频的语音起点帧,本实施例对于识别语音起点帧和语音终点帧的先后顺序不做具体限定。
本发明实施例通过分别用起点训练集和终点训练集训练循环神经网络得到起点识别模型和终点识别模型,根据各音频帧的声学特征和起点识别模型,识别出各音频帧中的语音起点帧,可以在保证对起点帧识别的准确性尽可能高的同时,不影响终点帧识别的延迟时间;根据各音频帧的声学特征和终点识别模型,识别出各音频帧中的语音终点帧,可以在保证对终点帧识别延迟尽可能短的同时,不影响起点帧识别的准确性,从而可以在提高起点帧识别的准确性的同时,缩短终点帧识别的延迟时间。
实施例二
图2为本发明实施例二提供的语音端点识别方法流程图。在上述实施例一的基础上,本实施例中,可以将各音频帧的声学特征依次输入起点识别模型,根据起点识别模型的输出值确定当前的音频帧是否为待检测音频的语音起点帧,若当前的音频帧是语音起点帧,则继续将下一帧输入起点识别模型,以确定下一帧是否为待检测音频的语音起点帧,直至确定语音起点帧时,停止将后续的音频帧输入起点识别模型;在识别出语音起点帧之后,将待检测音频的语音起点帧之后的各音频帧依次输入终点识别模型,根据终点识别模型的输出值确定当前的音频帧是否是待检测音频的语音终点帧;若当前的音频帧是语音终点帧,则继续将下一帧输入终点识别模型,以确定下一帧是否为待检测音频的语音终点帧,直至确定语音终点帧时,停止将后续的音频帧输入终点识别模型。如图2所示,该方法具体步骤如下:
步骤S201、提取待检测音频的各音频帧的声学特征。
该步骤与上述步骤S101一致,此处不再赘述。
步骤S202、获取第一目标帧。
本实施例中,按照待检测音频中各音频帧的时间先后,将各音频帧的声学特征依次作为第一目标帧,通过步骤S203-S206对第一目标帧进行起点识别处理。
步骤S203、将第一目标帧的声学特征输入起点识别模型,计算第一目标帧是有效语音的概率值。
起点识别模型为循环神经网络模型,起点识别模型用于根据输入的第一目标帧的声学特征,计算并输出第一目标帧是有效语音的概率值。
可选的,第一目标帧是有效语音的概率值可以是第一目标帧是有效语音的后验概率值。
步骤S204、根据第一目标帧是有效语音的概率值与第一阈值的大小,确定第一目标帧是否是有效语音。
该步骤具体可以采用如下方式实现:
比较第一目标帧是有效语音的概率值与第一阈值的大小;若第一目标帧是有效语音的概率值大于第一阈值,则确定该第一目标帧是有效语音;若第一目标帧是有效语音的概率值小于或者等于第一阈值,则确定该第一目标帧不是有效语音。
其中,第一阈值可以由技术人员根据实际需要进行设定,本实施例此处不做具体限定。
步骤S205、若第一目标帧是有效语音,将第一目标帧确定为语音起点帧。
该步骤中,若第一目标帧是有效语音,则说明第一目标帧是待检测音频中出现的第一个是有效语音的音频帧,将第一目标帧作为语音起点帧。
可选的,将第一目标帧确定为语音起点帧之后,还可以将语音起点帧的起始时刻作为待检测音频的语音起点。
在该步骤中确定语音起点帧之后,继续执行步骤S207-S211,从后续的各音频帧中确定语音终点帧。
步骤S206、若第一目标帧不是有效语音,将下一帧作为新的第一目标帧。
若第一目标帧不是有效语音,则说明还未出现待检测音频中的第一个是有效语音的音频帧,将下一个音频帧作为新的第一目标帧,继续对新的第一目标帧执行步骤S203-S206,对新的第一目标帧进行起点识别处理。
步骤S207、获取第二目标帧。
在确定语音起点帧之后,将语音起点帧之后的音频帧依次作为第二目标帧,通过后续步骤S207-S211对第二目标帧进行终点识别处理。
步骤S208、将第二目标帧的声学特征输入终点识别模型,计算第二目标帧是有效语音的概率值。
终点识别模型为循环神经网络模型,终点识别模型用于根据输入的第二目标帧的声学特征,计算并输出第二目标帧是有效语音的概率值。
可选的,第二目标帧是有效语音的概率值可以是第二目标帧是有效语音的后验概率值。
步骤S209、根据第二目标帧是有效语音的概率值与第二阈值的大小,确定第二目标帧是否是有效语音,第二阈值小于第一阈值。
该步骤具体可以采用如下方式实现:
比较第二目标帧是有效语音的概率值与第二阈值的大小;若第二目标帧是有效语音的概率值大于第二阈值,则确定该第二目标帧是有效语音;若第二目标帧是有效语音的概率值小于或者等于第二阈值,则确定该第二目标帧不是有效语音。
其中,第二阈值小于第一阈值。例如,第一阈值可以为0.6,第二阈值可以为0.4。
第二阈值可以由技术人员根据实际需要进行设定,本实施例此处不做具体限定。
步骤S210、若第二目标帧不是有效语音,将第二目标帧确定为语音终点帧。
该步骤中,若第二目标帧不是有效语音,则说明第二目标帧是待检测音频中在起点语音帧之后出现的第一个不是有效语音的音频帧,将第二目标帧确定为语音终点帧。
可选的,将第二目标帧确定为语音终点帧之后,还可以将语音终点帧的起始时刻作为待检测音频的语音终点。
步骤S211、若第二目标帧是有效语音,将下一帧作为新的第二目标帧。
若第二目标帧是有效语音,则说明待检测音频中在语音起点帧之后还未出现不是有效语音的音频帧,将下一个音频帧作为新的第二目标帧,继续对新的第二目标帧执行步骤S208-S211,对新的第二目标帧进行终点识别处理。
通过步骤S208-S211对新的第二目标帧进行终点识别处理。
本发明实施例中,将各音频帧的声学特征依次输入起点识别模型,根据起点识别模型的输出值确定当前的音频帧是否为待检测音频的语音起点帧,若当前的音频帧是语音起点帧,则继续将下一帧输入起点识别模型,以确定下一帧是否为待检测音频的语音起点帧,直至确定语音起点帧时,停止将后续的音频帧输入起点识别模型;在识别出语音起点帧之后,将待检测音频的语音起点帧之后的各音频帧依次输入终点识别模型,根据终点识别模型的输出值确定当前的音频帧是否是待检测音频的语音终点帧;若当前的音频帧是语音终点帧,则继续将下一帧输入终点识别模型,以确定下一帧是否为待检测音频的语音终点帧,直至确定语音终点帧时,停止将后续的音频帧输入终点识别模型,可以提高语音端点识别的效率。
实施例三
图3为本发明实施例三提供的确定起点训练集的流程图;图4为本发明实施例三提供的确定终点训练集的流程图。在上述实施例一或者实施例二的基础上,本实施例中,在对待检测音频的端点进行识别之前,需要预先获取起点训练集和终点训练集,使用起点训练集和终点训练集分别对循环神经网络进行训练得到起点识别模型和终点识别模型,这一阶段为模型的训练阶段,具体包括准备训练数据、确定起点训练集和终点训练集和模型训练三个阶段。
本实施例中,起点训练集中包括至少一组起点训练数据,一组起点训练数据包括一条起点训练音频的各帧的声学特征和标注信息。终点训练集包括至少一组终点训练数据,一组终点训练数据包括一条终点训练音频的各帧的声学特征和标注信息。
其中,标注信息为第一属性值或者第二属性值,标注信息用于标注该样本是否为有效语音。标注信息为第一属性值表示音频帧为无效语音,标注信息为第二属性值表示音频帧为有效语音,第二属性值与第一属性值不同。
例如,第一属性值为0,第二属性值为1;或者第一属性值为“N”,第二属性值为“Y”等。本实施例对于第一属性值和第二属性值具体数据结构不做具体限定。
可选的,一条起点训练音频对应的一组起点训练数据可以采用{X,Y}的结构进行存储,其中X为该组起点训练数据中各音频帧的声学特征按照时间先后顺序排列成的序列,X可以称为该组起点训练数据的特征序列;Y为该组起点训练数据中各音频帧的标注按照与特征序列一致的顺序排列成的序列,Y可以称为该组起点训练数据的标注序列。
可选的,音频帧的标注信息可以采用人工标注,或者采用语音识别中的机器强制对齐的方式获的,本实施例对于音频帧的标注方法不做具体限定。
准备训练数据阶段包括:预先获取语音识别的训练预料,训练预料是在实际使用中真实的语音材料,包括多个样本音频。例如,训练预料可以包括1万条用户录入的音频,每条音频大约几秒钟的长度。对训练预料中的每一条样本音频进行分帧处理,得到多个音频帧,采用预设的特征提取方法提取各音频帧的声学特征,并获取每个音频帧的标注信息。
在训练阶段中,提取音频帧的声学特征采用与检测阶段中提取待检测音频的各音频帧的声学特征相同的特征提取方法实现,以提高对音频帧的识别的准确性。
可选的,对于训练预料中的某一段音频的分帧处理的方法可以采用与检测阶段中对待检测音频的分帧处理同样的方式实现,以提高对音频帧的识别的准确性。
由于语音信号的时变特性,声学特征提取必须在一小段语音信号上进行,也即进行短时分析。这一段被认为是平稳的分析区间称之为帧,帧与帧之间的偏移通常取帧长的1/2或1/3左右。对于训练预料中的某一段音频,可以每间隔预设时长提取一帧,每帧的帧长为预设帧长,对该段音频进行分帧处理,得到多个音频帧。
例如,可以每间隔预设时长提取一帧,每帧的帧长为预设帧长,对该段音频进行分帧处理,得到多个音频帧。可选的,预设时长可以为10毫秒,预设帧长可以为25毫秒。
确定起点训练集和终点训练集阶段包括:对于训练预料中的任意一条样本音频,截取该条样本音频的前第一时长的第一音频段,该第一音频段包括该条样本音频的语音起点;将该第一音频段作为一条起点训练音频,将该第一音频段内的各音频帧的声学特征和标注信息作为该条起点训练音频对应的一组起点训练数据,添加到起点训练集中。截取该条样本音频的最后的第二时长的第二音频段,该第二音频段包括该条样本音频的语音终点;将该第二音频段作为一条终点训练音频,将该第二音频段内的各音频帧的声学特征和标注信息作为该条终点训练音频对应的一组终点训练数据,添加到终点训练集中。
本实施例中,如图3所示,确定起点训练集具体可以采用如下步骤实现:
步骤S301、获取样本音频的各帧的声学特征和标注信息。
步骤S302、根据样本音频的各帧的标注信息,确定样本音频中的语音起始时刻,语音起始时刻之后第一预设时长内的音频段为有效语音段。
其中,第一预设时长为在确定语音起点时用于保证语音起点的置信度的延迟时间。第一预设时长可以由技术人员根据实际需要设定的,本实施例对于第一预设时长的值不做具体限定。例如第一预设时长可以为20帧的时长。
根据各帧的标注信息,可以确定样本音频中第一个出现的标注信息为第二属性值的帧,可以确定该帧为有效语音帧。通常样本音频中会有噪声的波动,不可以直接将该帧的起始时刻作为样本音频的语音起始时刻,而是预先设定一个第一预设时长的时间延迟,若该帧起始时刻之后的第一预设时长内的帧均为有效音语音,也即是持续出现了第一预设时长的有效语音,那么可以将该帧的起始时刻作为样本音频的语音起始时刻。
步骤S303、将样本音频的第一时刻之前的帧的标注信息设置为第一属性值,第一时刻=语音起始时刻+第一预设时长。
为了保证语音起点的足够的置信度,将语音起始时刻之后第一预设时长的结束时刻作为该样本音频的语音起点,也即是将第一时刻作为样本音频的语音起点。该步骤中,将样本音频的第一时刻之前的帧的标注信息设置为第一属性值,也即是将样本音频的语音起点之前的帧标注为无效语音。
步骤S304、将样本音频的第一时刻与第二时刻之间的帧的标注信息设置为第二属性值。
其中第二预设时刻在第一时刻之后,第二时刻与第一时刻至少间隔第一预设时长。
可选的,第二时刻=第一时刻+第一预设时长。
为了保证语音起点的足够的置信度,将语音起始时刻之后第一预设时长的结束时刻作为该样本音频的语音起点,也即是将第一时刻作为样本音频的语音起点。这样可以避免语音起点的误报。
该步骤中,将样本音频的第一时刻之后的帧的标注信息设置为第二属性值,也即是将样本音频的语音起点之后的帧标注为有效语音。
为了提高语音起点模型的准确度,截取该样本音频的前第一时长的第一音频段作为一条起点训练音频。这条起点训练音频为该样本音频自起始时刻起至第二时刻为止的音频段。
步骤S305、将样本音频的第二时刻之前的帧的声学特征和标注信息作为一组起点训练数据,添加到起点训练集中。
本实施例中,如图4所示,确定终点训练集具体可以采用如下步骤实现:
步骤S401、获取样本音频的各帧的声学特征和标注信息。
步骤S402、据样本音频的各帧的声学特征和标注信息,确定样本音频中的语音结束时刻,语音结束时刻之后第二预设时长内的音频段是无效语音段,第二预设时长小于第一预设时长。
其中,第二预设时长为在确定语音终点时用于保证语音终点的置信度的延迟时间。第二预设时长小于第一预设时长。第二预设时长可以由技术人员根据实际需要设定的,本实施例对于第二预设时长的值不做具体限定。
另外,在语音起始时刻,用户正在说话,并不需要系统的任何回应,第一预设时长越长,起点识别模型的置信度就越高;但是在语音结束时刻之后,用户等待系统及时地响应,对语音终点的识别需要平衡模型置信度和响应速度,因此第一预设时长可以设置得稍长一些,第二预设时长设置的稍短一些。例如,第一预设时长可以为20帧的时长,第二预设时长可以为10帧的时长。
根据各帧的标注信息,可以确定样本音频中最后一个出现的标注信息为第二属性值的帧,可以确定该帧为有效语音,该帧之后的帧为无效语音。与确定样本帧的语音起点同理,预先设定一个第二预设时长的时间延迟,若该帧结束时刻之后的第二预设时长内的帧均为无效音语音,也即是持续出现了第二预设时长的有效语音,那么可以将该帧的结束时刻作为样本音频的语音结束时刻。
步骤S403、将样本音频的第三时刻之后的帧的标注信息设置为第一属性值,第三时刻=语音结束时刻+第二预设时长。
为了保证语音起点的置信度,将语音结束时刻之后第二预设时长的结束时刻作为该样本音频的语音终点,也即是将第三时刻作为样本音频的语音终点。该步骤中,将样本音频的第三时刻之后的帧的标注信息设置为第二属性值,也即是将样本音频的语音终点之后的帧标注为无效语音。
步骤S404、将样本音频的第四时刻与第三时刻之间的帧的标注信息设置为第一属性值,第四时刻=第三时刻-第二预设时长。
其中第二预设时刻在第一时刻之后,第二时刻与第一时刻至少间隔第一预设时长。
可选的,第二时刻=第一时刻+第一预设时长。
为了保证语音终点的置信度,将语音结束时刻之后第二预设时长的结束时刻作为该样本音频的语音终点,也即是将第三时刻作为样本音频的语音终点。这样可以避免语音终点的误报。
该步骤中,将样本音频的第三时刻之前的帧的标注信息设置为第二属性值,也即是将样本音频的语音终点之前的帧标注为有效语音。
为了提高语音终点模型的准确度,截取该样本音频的最后第二时长的第二音频段作为一条终点训练音频。这条终点训练音频为该样本音频自第四时刻起至结束时刻为止的音频段。
步骤S405、将样本音频的第四时刻之后的帧的声学特征和标注信息作为一组终点训练数据,添加到终点训练集中。
在确定起点训练集和终点训练集之后,在模型训练阶段,可以使用起点训练集对循环神经网络模型进行训练得到起点识别模型,使用终点训练集对循环神经网络模型进行训练得到终点识别模型。
可选的,采用的循环神经网络可以为LSTM(Long Short Term)网络,或者GRU(Gated Recurrent Unit)网络,或者其他循环神经网络。
可选的,起点识别模型和终点识别模型可以通过对同一类型的循环神经网络训练得到,也可以通过对两个不同类型的循环神经网络训练得到。
优选地,可以通过起点训练集和终点训练集分别对GRU网络进行训练得到起点识别模型和终点识别模型,以提高起点识别模型和终点识别模型的运算效率。
可选的,在对循环神经网络模型进行训练时,分别采用起点训练集和终点训练集,以softmax函数为激活函数,以交叉熵为代价函数对循环神经网络模型进行训练。
本实施例中,循环神经网络模型的输出层包括两个输出节点,一个输出节点的值表示音频帧是有效语音的概率信息;另一个输出节点的值表示音频帧是无效语音的概率信息。
另外,在本实施例的另一实施方式中,在识别出待检测音频的语音起点帧和语音终点帧之后,还可以将语音起点帧的起始时刻作为待检测音频的语音起点,将语音终点帧的起始时刻作为待检测音频的语音终点;截取待检测音频的语音起点和语音终点之间的第一音频段,将第一音频段发送给语音识别设备,从而可以只将有效语音段发送给语音识别设备,可以提高语音识别设备的处理效率。
可选的,在截取待检测音频的语音起点和语音终点之间的第一音频段之后,还可以获取语音起点之前的第三预设时长的第二音频段,将第二音频段和第一音频段发送给语音识别设备,第三预设时长大于第一预设时长,以消除第一预设时长的延迟的影响。
可选的,在确定语音起点帧之后,可以将待检测音频中在语音起点帧之前第三预设时长内的音频帧进行缓存。例如,第一预设时长为20帧的时长,第三预设时长可以为40帧的时长。
本发明实施例通过对于训练预料中的任意一条样本音频,通过预设设定的第一预设时长,确定样本音频中的语音起始时刻之后第一预设时长的第一时刻作为样本音频的语音起点,截取该条样本音频的前第一时长的第一音频段,将包括该条样本音频的语音起点的第一音频段内的各音频帧的声学特征和标注信息作为该条起点训练音频对应的一组起点训练数据,添加到起点训练集中,通过起点训练集训练得到的起点识别模型的置信度高,可以提高语音起点识别的准确性。同理,通过预设设定的第二预设时长,确定样本音频中的语音结束时刻之前第二预设时长的第三时刻作为样本音频的语音终点,截取该条样本音频的最后的包括语音终点的第二音频段,将该第二音频段内的各音频帧的声学特征和标注信息作为该条终点训练音频对应的一组终点训练数据,添加到终点训练集中,设置第二预设时长小于第一预设时长,可以平行终点识别模型的置信度和响应时间。
实施例四
图5为本发明实施例四提供的语音端点识别装置的结构示意图。本发明实施例提供的语音端点识别装置可以执行语音端点识别方法实施例提供的处理流程。如图5所示,该装置50包括:特征提取模块501,起点识别模块502和终点识别模块503。
具体地,特征提取模块501用于提取待检测音频的各音频帧的声学特征。
起点识别模块502用于根据各音频帧的声学特征和起点识别模型,识别出各音频帧中的语音起点帧,起点识别模型是用起点训练集对神经网络训练得到的。
终点识别模块503用于根据各音频帧的声学特征和终点识别模型,识别出各音频帧中的语音终点帧,终点识别模型是用终点训练集对神经网络训练得到的。
其中,起点训练集包括至少一组起点训练数据,一组起点训练数据包括一条起点训练音频的各帧的声学特征和标注信息。
终点训练集包括至少一组终点训练数据,一组终点训练数据包括一条终点训练音频的各帧的声学特征和标注信息。
标注信息为第一属性值或者第二属性值,第一属性值用于标注帧为无效语音,第二属性值用于标注帧为有效语音。
本发明实施例提供的装置可以具体用于执行上述实施例一所提供的方法实施例,具体功能此处不再赘述。
本发明实施例通过分别用起点训练集和终点训练集训练循环神经网络得到起点识别模型和终点识别模型,根据各音频帧的声学特征和起点识别模型,识别出各音频帧中的语音起点帧,可以在保证对起点帧识别的准确性尽可能高的同时,不影响终点帧识别的延迟时间;根据各音频帧的声学特征和终点识别模型,识别出各音频帧中的语音终点帧,可以在保证对终点帧识别延迟尽可能短的同时,不影响起点帧识别的准确性,从而可以在提高起点帧识别的准确性的同时,缩短终点帧识别的延迟时间。
实施例五
在上述实施例四的基础上,本实施例中,起点识别模块还用于:
将各音频帧的声学特征依次作为第一目标帧,对第一目标帧进行以下起点识别处理:将第一目标帧的声学特征输入起点识别模型,计算第一目标帧是有效语音的概率值;根据第一目标帧是有效语音的概率值与第一阈值的大小,确定第一目标帧是否是有效语音;若第一目标帧不是有效语音,将下一个音频帧作为新的第一目标帧,对新的第一目标帧进行起点识别处理;若第一目标帧是有效语音,将第一目标帧确定为语音起点帧。
起点识别模块还用于:
将语音起点帧之后的音频帧依次作为第二目标帧,对第二目标帧进行以下终点识别处理:将第二目标帧的声学特征输入终点识别模型,计算第二目标帧是有效语音的概率值;根据第二目标帧是有效语音的概率值与第二阈值的大小,确定第二目标帧是否是有效语音,第二阈值小于第一阈值;若第二目标帧是有效语音,将下一个音频帧作为新的第二目标帧,对新的第二目标帧进行终点识别处理;若第二目标帧不是有效语音,将第二目标帧确定为语音终点帧。
本发明实施例提供的装置可以具体用于执行上述实施例二所提供的方法实施例,具体功能此处不再赘述。
本发明实施例中,将各音频帧的声学特征依次输入起点识别模型,根据起点识别模型的输出值确定当前的音频帧是否为待检测音频的语音起点帧,若当前的音频帧是语音起点帧,则继续将下一帧输入起点识别模型,以确定下一帧是否为待检测音频的语音起点帧,直至确定语音起点帧时,停止将后续的音频帧输入起点识别模型;在识别出语音起点帧之后,将待检测音频的语音起点帧之后的各音频帧依次输入终点识别模型,根据终点识别模型的输出值确定当前的音频帧是否是待检测音频的语音终点帧;若当前的音频帧是语音终点帧,则继续将下一帧输入终点识别模型,以确定下一帧是否为待检测音频的语音终点帧,直至确定语音终点帧时,停止将后续的音频帧输入终点识别模型,可以提高语音端点识别的效率。
实施例六
图6为本发明实施例六提供的语音端点识别装置的结构示意图。在上述实施例五的基础上,本实施例中,如图6所示,该装置50还包括:训练集确定模块504。
具体的,训练集确定模块504用于:
获取样本音频的各帧的声学特征和标注信息;根据样本音频的各帧的标注信息,确定样本音频中的语音起始时刻,语音起始时刻之后第一预设时长内的音频段为有效语音段;将样本音频的第一时刻之前的帧的标注信息设置为第一属性值,第一时刻=语音起始时刻+第一预设时长;将样本音频的第一时刻与第二时刻之间的帧的标注信息设置为第二属性值,第二时刻=第一时刻+第一预设时长;将样本音频的第二时刻之前的帧的声学特征和标注信息作为一组起点训练数据,添加到起点训练集中。
训练集确定模块504还用于:
获取样本音频的各帧的声学特征和标注信息;据样本音频的各帧的标注信息,确定样本音频中的语音结束时刻,语音结束时刻之后第二预设时长内的音频段是无效语音段,第二预设时长小于第一预设时长;将样本音频的第三时刻之后的帧的标注信息设置为第一属性值,第三时刻=语音结束时刻+第二预设时长;将样本音频的第四时刻与第三时刻之间的帧的标注信息设置为第二属性值,第四时刻=第三时刻-第二预设时长;将样本音频的第四时刻之后的帧的声学特征和标注信息作为一组终点训练数据,添加到终点训练集中。
可选的,该装置50还可以包括:提交模块。
提交模块用于:将语音起点帧的起始时刻作为待检测音频的语音起点;将语音终点帧的起始时刻作为待检测音频的语音终点;截取待检测音频的语音起点和语音终点之间的第一音频段;将第一音频段发送给语音识别设备。
可选的,提交模块还用于:
获取语音起点之前的第三预设时长的第二音频段,将第二音频段和第一音频段发送给语音识别设备,第三预设时长大于第一预设时长。
本发明实施例提供的装置可以具体用于执行上述实施例三所提供的方法实施例,具体功能此处不再赘述。
本发明实施例通过对于训练预料中的任意一条样本音频,通过预设设定的第一预设时长,确定样本音频中的语音起始时刻之后第一预设时长的第一时刻作为样本音频的语音起点,截取该条样本音频的前第一时长的第一音频段,将包括该条样本音频的语音起点的第一音频段内的各音频帧的声学特征和标注信息作为该条起点训练音频对应的一组起点训练数据,添加到起点训练集中,通过起点训练集训练得到的起点识别模型的置信度高,可以提高语音起点识别的准确性。同理,通过预设设定的第二预设时长,确定样本音频中的语音结束时刻之前第二预设时长的第三时刻作为样本音频的语音终点,截取该条样本音频的最后的包括语音终点的第二音频段,将该第二音频段内的各音频帧的声学特征和标注信息作为该条终点训练音频对应的一组终点训练数据,添加到终点训练集中,设置第二预设时长小于第一预设时长,可以平行终点识别模型的置信度和响应时间。
实施例七
图7为本发明实施例七提供的计算机设备的结构示意图。如图7所示,该设备70包括:处理器701,存储器702,以及存储在存储器702上并可由处理器701执行的计算机程序。
处理器701在执行存储在存储器702上的计算机程序时实现上述任一方法实施例提供的语音端点识别方法。
本发明实施例通过分别用起点训练集和终点训练集训练循环神经网络得到起点识别模型和终点识别模型,根据各音频帧的声学特征和起点识别模型,识别出各音频帧中的语音起点帧,可以在保证对起点帧识别的准确性尽可能高的同时,不影响终点帧识别的延迟时间;根据各音频帧的声学特征和终点识别模型,识别出各音频帧中的语音终点帧,可以在保证对终点帧识别延迟尽可能短的同时,不影响起点帧识别的准确性,从而可以在提高起点帧识别的准确性的同时,缩短终点帧识别的延迟时间。
另外,本发明实施例还提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述任一方法实施例提供的语音端点识别方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求书指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求书来限制。
Claims (18)
1.一种语音端点识别方法,其特征在于,包括:
提取待检测音频的各音频帧的声学特征;
根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,所述起点识别模型是用起点训练集对神经网络训练得到的;
根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,所述终点识别模型是用终点训练集对神经网络训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,所述起点识别模型是用起点训练集对神经网络训练得到的,包括:
将所述各音频帧的声学特征依次作为第一目标帧,对所述第一目标帧进行以下起点识别处理:
将所述第一目标帧的声学特征输入所述起点识别模型,计算所述第一目标帧是有效语音的概率值;
根据所述第一目标帧是有效语音的概率值与第一阈值的大小,确定所述第一目标帧是否是有效语音;
若所述第一目标帧不是有效语音,将下一个音频帧作为新的第一目标帧,对所述新的第一目标帧进行所述起点识别处理;
若所述第一目标帧是有效语音,将所述第一目标帧确定为语音起点帧。
3.根据权利要求2所述的方法,其特征在于,所述根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,所述终点识别模型是用终点训练集对神经网络训练得到的,还包括:
将所述语音起点帧之后的音频帧依次作为第二目标帧,对所述第二目标帧进行以下终点识别处理:
将所述第二目标帧的声学特征输入所述终点识别模型,计算所述第二目标帧是有效语音的概率值;
根据所述第二目标帧是有效语音的概率值与第二阈值的大小,确定所述第二目标帧是否是有效语音,所述第二阈值小于所述第一阈值;
若所述第二目标帧是有效语音,将下一个音频帧作为新的第二目标帧,对所述新的第二目标帧进行所述终点识别处理;
若所述第二目标帧不是有效语音,将所述第二目标帧确定为语音终点帧。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述起点训练集包括至少一组起点训练数据,一组起点训练数据包括一条起点训练音频的各帧的声学特征和标注信息;
所述终点训练集包括至少一组终点训练数据,一组终点训练数据包括一条终点训练音频的各帧的声学特征和标注信息;
标注信息为第一属性值或者第二属性值,第一属性值用于标注帧为无效语音,第二属性值用于标注帧为有效语音。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取样本音频的各帧的声学特征和标注信息;
根据所述样本音频的各帧的标注信息,确定所述样本音频中的语音起始时刻,所述语音起始时刻之后第一预设时长内的音频段为有效语音段;
将所述样本音频的第一时刻之前的帧的标注信息设置为第一属性值,所述第一时刻=所述语音起始时刻+所述第一预设时长;
将所述样本音频的所述第一时刻与第二时刻之间的帧的标注信息设置为第二属性值,所述第二时刻=所述第一时刻+所述第一预设时长;
将所述样本音频的所述第二时刻之前的帧的声学特征和标注信息作为一组起点训练数据,添加到所述起点训练集中。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取样本音频的各帧的声学特征和标注信息;
据所述样本音频的各帧的标注信息,确定所述样本音频中的语音结束时刻,所述语音结束时刻之后第二预设时长内的音频段是无效语音段,所述第二预设时长小于所述第一预设时长;
将所述样本音频的第三时刻之后的帧的标注信息设置为第一属性值,所述第三时刻=所述语音结束时刻+所述第二预设时长;
将所述样本音频的第四时刻与所述第三时刻之间的帧的标注信息设置为第二属性值,所述第四时刻=所述第三时刻-所述第二预设时长;
将所述样本音频的所述第四时刻之后的帧的声学特征和标注信息作为一组终点训练数据,添加到所述终点训练集中。
7.根据权利要求5所述的方法,其特征在于,在确定所述待检测音频的语音起点帧和语音终点帧之后,还包括:
将所述语音起点帧的起始时刻作为所述待检测音频的语音起点;
将所述语音终点帧的起始时刻作为所述待检测音频的语音终点;
截取所述待检测音频的语音起点和语音终点之间的第一音频段;
将所述第一音频段发送给语音识别设备。
8.根据权利要求7所述的方法,其特征在于,在所述截取所述待检测音频的语音起点和语音终点之间的第一音频段之后,还包括:
获取所述语音起点之前的第三预设时长的第二音频段,将所述第二音频段和所述第一音频段发送给语音识别设备,所述第三预设时长大于所述第一预设时长。
9.一种语音端点识别装置,其特征在于,包括:
特征提取模块,用于提取待检测音频的各音频帧的声学特征;
起点识别模块,用于根据所述各音频帧的声学特征和起点识别模型,识别出所述各音频帧中的语音起点帧,所述起点识别模型是用起点训练集对神经网络训练得到的;
终点识别模块,用于根据所述各音频帧的声学特征和终点识别模型,识别出所述各音频帧中的语音终点帧,所述终点识别模型是用终点训练集对神经网络训练得到的。
10.根据权利要求9所述的装置,其特征在于,所述起点识别模块还用于:
将所述各音频帧的声学特征依次作为第一目标帧,对所述第一目标帧进行以下起点识别处理:
将所述第一目标帧的声学特征输入所述起点识别模型,计算所述第一目标帧是有效语音的概率值;
根据所述第一目标帧是有效语音的概率值与第一阈值的大小,确定所述第一目标帧是否是有效语音;
若所述第一目标帧不是有效语音,将下一个音频帧作为新的第一目标帧,对所述新的第一目标帧进行所述起点识别处理;
若所述第一目标帧是有效语音,将所述第一目标帧确定为语音起点帧。
11.根据权利要求10所述的装置,其特征在于,所述终点识别模块还用于:
将所述语音起点帧之后的音频帧依次作为第二目标帧,对所述第二目标帧进行以下终点识别处理:
将所述第二目标帧的声学特征输入所述终点识别模型,计算所述第二目标帧是有效语音的概率值;
根据所述第二目标帧是有效语音的概率值与第二阈值的大小,确定所述第二目标帧是否是有效语音,所述第二阈值小于所述第一阈值;
若所述第二目标帧是有效语音,将下一个音频帧作为新的第二目标帧,对所述新的第二目标帧进行所述终点识别处理;
若所述第二目标帧不是有效语音,将所述第二目标帧确定为语音终点帧。
12.根据权利要求9-11任一项所述的装置,其特征在于,所述起点训练集包括至少一组起点训练数据,一组起点训练数据包括一条起点训练音频的各帧的声学特征和标注信息;
所述终点训练集包括至少一组终点训练数据,一组终点训练数据包括一条终点训练音频的各帧的声学特征和标注信息;
标注信息为第一属性值或者第二属性值,第一属性值用于标注帧为无效语音,第二属性值用于标注帧为有效语音。
13.根据权利要求12所述的装置,其特征在于,所述装置还包括训练集确定模块,所述训练集确定模块用于:
获取样本音频的各帧的声学特征和标注信息;
根据所述样本音频的各帧的标注信息,确定所述样本音频中的语音起始时刻,所述语音起始时刻之后第一预设时长内的音频段为有效语音段;
将所述样本音频的第一时刻之前的帧的标注信息设置为第一属性值,所述第一时刻=所述语音起始时刻+所述第一预设时长;
将所述样本音频的所述第一时刻与第二时刻之间的帧的标注信息设置为第二属性值,所述第二时刻=所述第一时刻+所述第一预设时长;
将所述样本音频的所述第二时刻之前的帧的声学特征和标注信息作为一组起点训练数据,添加到所述起点训练集中。
14.根据权利要求13所述的装置,其特征在于,所述训练集确定模块还用于:
获取样本音频的各帧的声学特征和标注信息;
据所述样本音频的各帧的标注信息,确定所述样本音频中的语音结束时刻,所述语音结束时刻之后第二预设时长内的音频段是无效语音段,所述第二预设时长小于所述第一预设时长;
将所述样本音频的第三时刻之后的帧的标注信息设置为第一属性值,所述第三时刻=所述语音结束时刻+所述第二预设时长;
将所述样本音频的第四时刻与所述第三时刻之间的帧的标注信息设置为第二属性值,所述第四时刻=所述第三时刻-所述第二预设时长;
将所述样本音频的所述第四时刻之后的帧的声学特征和标注信息作为一组终点训练数据,添加到所述终点训练集中。
15.根据权利要求13所述的装置,其特征在于,所述装置还包括提交模块,所述提交模块用于:
将所述语音起点帧的起始时刻作为所述待检测音频的语音起点;
将所述语音终点帧的起始时刻作为所述待检测音频的语音终点;
截取所述待检测音频的语音起点和语音终点之间的第一音频段;
将所述第一音频段发送给语音识别设备。
16.根据权利要求15所述的装置,其特征在于,所述提交模块还用于:
获取所述语音起点之前的第三预设时长的第二音频段,将所述第二音频段和所述第一音频段发送给语音识别设备,所述第三预设时长大于所述第一预设时长。
17.一种计算机设备,其特征在于,包括:
存储器,处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,
所述处理器运行所述计算机程序时实现如权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其特征在于,存储有计算机程序,
所述计算机程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810509977.4A CN108766418B (zh) | 2018-05-24 | 2018-05-24 | 语音端点识别方法、装置及设备 |
JP2018244352A JP6800946B2 (ja) | 2018-05-24 | 2018-12-27 | 音声区間の認識方法、装置及び機器 |
US16/236,267 US10847179B2 (en) | 2018-05-24 | 2018-12-28 | Method, apparatus and device for recognizing voice endpoints |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810509977.4A CN108766418B (zh) | 2018-05-24 | 2018-05-24 | 语音端点识别方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108766418A true CN108766418A (zh) | 2018-11-06 |
CN108766418B CN108766418B (zh) | 2020-01-14 |
Family
ID=64005880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810509977.4A Active CN108766418B (zh) | 2018-05-24 | 2018-05-24 | 语音端点识别方法、装置及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10847179B2 (zh) |
JP (1) | JP6800946B2 (zh) |
CN (1) | CN108766418B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545193A (zh) * | 2018-12-18 | 2019-03-29 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109616097A (zh) * | 2019-01-04 | 2019-04-12 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、设备及存储介质 |
CN109887511A (zh) * | 2019-04-24 | 2019-06-14 | 武汉水象电子科技有限公司 | 一种基于级联dnn的语音唤醒优化方法 |
CN110085214A (zh) * | 2019-02-28 | 2019-08-02 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
CN110995938A (zh) * | 2019-12-13 | 2020-04-10 | 上海优扬新媒信息技术有限公司 | 数据处理方法和装置 |
EP3671742A1 (en) * | 2018-12-18 | 2020-06-24 | Yandex Europe AG | Methods of and electronic devices for identifying a user utterance from a digital audio signal |
CN111524503A (zh) * | 2020-04-15 | 2020-08-11 | 上海明略人工智能(集团)有限公司 | 音频数据的处理方法、装置、音频识别设备和存储介质 |
CN112435691A (zh) * | 2020-10-12 | 2021-03-02 | 珠海亿智电子科技有限公司 | 在线语音端点检测后处理方法、装置、设备及存储介质 |
CN112530424A (zh) * | 2020-11-23 | 2021-03-19 | 北京小米移动软件有限公司 | 语音处理方法及装置、电子设备、存储介质 |
CN112882394A (zh) * | 2021-01-12 | 2021-06-01 | 北京小米松果电子有限公司 | 设备控制方法、控制装置及可读存储介质 |
CN116364062A (zh) * | 2023-05-30 | 2023-06-30 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置及车辆 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11854566B2 (en) | 2018-06-21 | 2023-12-26 | Magic Leap, Inc. | Wearable system speech processing |
CN109545192B (zh) * | 2018-12-18 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
JP2022522748A (ja) | 2019-03-01 | 2022-04-20 | マジック リープ, インコーポレイテッド | 発話処理エンジンのための入力の決定 |
US11328740B2 (en) | 2019-08-07 | 2022-05-10 | Magic Leap, Inc. | Voice onset detection |
US11917384B2 (en) | 2020-03-27 | 2024-02-27 | Magic Leap, Inc. | Method of waking a device using spoken voice commands |
CN113689847A (zh) * | 2020-05-18 | 2021-11-23 | 阿里巴巴集团控股有限公司 | 语音交互方法、装置及语音芯片模组 |
KR20220010259A (ko) | 2020-07-17 | 2022-01-25 | 삼성전자주식회사 | 음성 신호 처리 방법 및 장치 |
CN111862951B (zh) * | 2020-07-23 | 2024-01-26 | 海尔优家智能科技(北京)有限公司 | 语音端点检测方法及装置、存储介质、电子设备 |
CN112309432A (zh) * | 2020-10-27 | 2021-02-02 | 暨南大学 | 一种基于数据驱动的音符起始点检测方法 |
CN113314153B (zh) * | 2021-06-22 | 2023-09-01 | 北京华捷艾米科技有限公司 | 语音端点检测的方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120072211A1 (en) * | 2010-09-16 | 2012-03-22 | Nuance Communications, Inc. | Using codec parameters for endpoint detection in speech recognition |
CN104409080A (zh) * | 2014-12-15 | 2015-03-11 | 北京国双科技有限公司 | 语音端点检测方法和装置 |
CN105118502A (zh) * | 2015-07-14 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音识别系统的端点检测方法及系统 |
CN106611598A (zh) * | 2016-12-28 | 2017-05-03 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
CN107527630A (zh) * | 2017-09-22 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置和计算机设备 |
CN108010515A (zh) * | 2017-11-21 | 2018-05-08 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04198997A (ja) * | 1990-11-29 | 1992-07-20 | Oki Electric Ind Co Ltd | 音声認識方法 |
JPH1124692A (ja) * | 1997-07-01 | 1999-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 音声波の有音/休止区間判定方法およびその装置 |
US6370500B1 (en) * | 1999-09-30 | 2002-04-09 | Motorola, Inc. | Method and apparatus for non-speech activity reduction of a low bit rate digital voice message |
US20080040110A1 (en) * | 2005-08-08 | 2008-02-14 | Nice Systems Ltd. | Apparatus and Methods for the Detection of Emotions in Audio Interactions |
US8756061B2 (en) * | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
JP6275606B2 (ja) * | 2014-09-17 | 2018-02-07 | 株式会社東芝 | 音声区間検出システム、音声始端検出装置、音声終端検出装置、音声区間検出方法、音声始端検出方法、音声終端検出方法およびプログラム |
US10121471B2 (en) * | 2015-06-29 | 2018-11-06 | Amazon Technologies, Inc. | Language model speech endpointing |
US10235991B2 (en) * | 2016-08-09 | 2019-03-19 | Apptek, Inc. | Hybrid phoneme, diphone, morpheme, and word-level deep neural networks |
US10255910B2 (en) * | 2016-09-16 | 2019-04-09 | Apptek, Inc. | Centered, left- and right-shifted deep neural networks and their combinations |
US10347244B2 (en) * | 2017-04-21 | 2019-07-09 | Go-Vivace Inc. | Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response |
JP6392950B1 (ja) * | 2017-08-03 | 2018-09-19 | ヤフー株式会社 | 検出装置、検出方法、および検出プログラム |
JP6716513B2 (ja) * | 2017-08-29 | 2020-07-01 | 日本電信電話株式会社 | 音声区間検出装置、その方法、及びプログラム |
-
2018
- 2018-05-24 CN CN201810509977.4A patent/CN108766418B/zh active Active
- 2018-12-27 JP JP2018244352A patent/JP6800946B2/ja active Active
- 2018-12-28 US US16/236,267 patent/US10847179B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120072211A1 (en) * | 2010-09-16 | 2012-03-22 | Nuance Communications, Inc. | Using codec parameters for endpoint detection in speech recognition |
CN104409080A (zh) * | 2014-12-15 | 2015-03-11 | 北京国双科技有限公司 | 语音端点检测方法和装置 |
CN105118502A (zh) * | 2015-07-14 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音识别系统的端点检测方法及系统 |
CN106611598A (zh) * | 2016-12-28 | 2017-05-03 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
CN107527630A (zh) * | 2017-09-22 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置和计算机设备 |
CN108010515A (zh) * | 2017-11-21 | 2018-05-08 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11145305B2 (en) | 2018-12-18 | 2021-10-12 | Yandex Europe Ag | Methods of and electronic devices for identifying an end-of-utterance moment in a digital audio signal |
EP3671742A1 (en) * | 2018-12-18 | 2020-06-24 | Yandex Europe AG | Methods of and electronic devices for identifying a user utterance from a digital audio signal |
CN109545193B (zh) * | 2018-12-18 | 2023-03-14 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109545193A (zh) * | 2018-12-18 | 2019-03-29 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109616097A (zh) * | 2019-01-04 | 2019-04-12 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、设备及存储介质 |
CN110085214A (zh) * | 2019-02-28 | 2019-08-02 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
CN109887511A (zh) * | 2019-04-24 | 2019-06-14 | 武汉水象电子科技有限公司 | 一种基于级联dnn的语音唤醒优化方法 |
CN110995938A (zh) * | 2019-12-13 | 2020-04-10 | 上海优扬新媒信息技术有限公司 | 数据处理方法和装置 |
CN110995938B (zh) * | 2019-12-13 | 2022-04-26 | 度小满科技(北京)有限公司 | 数据处理方法和装置 |
CN111524503B (zh) * | 2020-04-15 | 2023-01-17 | 上海明略人工智能(集团)有限公司 | 音频数据的处理方法、装置、音频识别设备和存储介质 |
CN111524503A (zh) * | 2020-04-15 | 2020-08-11 | 上海明略人工智能(集团)有限公司 | 音频数据的处理方法、装置、音频识别设备和存储介质 |
CN112435691A (zh) * | 2020-10-12 | 2021-03-02 | 珠海亿智电子科技有限公司 | 在线语音端点检测后处理方法、装置、设备及存储介质 |
CN112435691B (zh) * | 2020-10-12 | 2024-03-12 | 珠海亿智电子科技有限公司 | 在线语音端点检测后处理方法、装置、设备及存储介质 |
CN112530424A (zh) * | 2020-11-23 | 2021-03-19 | 北京小米移动软件有限公司 | 语音处理方法及装置、电子设备、存储介质 |
CN112882394A (zh) * | 2021-01-12 | 2021-06-01 | 北京小米松果电子有限公司 | 设备控制方法、控制装置及可读存储介质 |
CN116364062A (zh) * | 2023-05-30 | 2023-06-30 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置及车辆 |
Also Published As
Publication number | Publication date |
---|---|
JP6800946B2 (ja) | 2020-12-16 |
US10847179B2 (en) | 2020-11-24 |
JP2019204073A (ja) | 2019-11-28 |
CN108766418B (zh) | 2020-01-14 |
US20190362741A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108766418A (zh) | 语音端点识别方法、装置及设备 | |
US10176811B2 (en) | Neural network-based voiceprint information extraction method and apparatus | |
US11749414B2 (en) | Selecting speech features for building models for detecting medical conditions | |
JP6933264B2 (ja) | ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体 | |
CN106057206B (zh) | 声纹模型训练方法、声纹识别方法及装置 | |
TWI321313B (en) | Apparatus and method to reduce recognization errors through context relations among dialogue turns | |
CN108417201B (zh) | 单信道多说话人身份识别方法及系统 | |
CN106611604B (zh) | 一种基于深度神经网络的自动语音叠音检测方法 | |
CN110782872A (zh) | 基于深度卷积循环神经网络的语种识别方法及装置 | |
CN108648769A (zh) | 语音活性检测方法、装置及设备 | |
CN109256135A (zh) | 一种端到端说话人确认方法、装置及存储介质 | |
CN109036471B (zh) | 语音端点检测方法及设备 | |
US10573311B1 (en) | Generating self-support metrics based on paralinguistic information | |
Levitan et al. | Combining Acoustic-Prosodic, Lexical, and Phonotactic Features for Automatic Deception Detection. | |
US20180308501A1 (en) | Multi speaker attribution using personal grammar detection | |
CN109410956A (zh) | 一种音频数据的对象识别方法、装置、设备及存储介质 | |
CN108986798A (zh) | 语音数据的处理方法、装置及设备 | |
WO2020019831A1 (zh) | 特定人群识别方法、电子装置及计算机可读存储介质 | |
CN108877812B (zh) | 一种声纹识别方法、装置及存储介质 | |
US20170011734A1 (en) | Method for system combination in an audio analytics application | |
WO2020062679A1 (zh) | 一种基于深度学习的端到端说话人分割方法及系统 | |
JP2020160425A (ja) | 評価システム、評価方法、及びコンピュータプログラム。 | |
Liu et al. | Learning salient features for speech emotion recognition using CNN | |
CN111785302A (zh) | 说话人分离方法、装置及电子设备 | |
CN112687291B (zh) | 一种发音缺陷识别模型训练方法以及发音缺陷识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |