CN105529028B - 语音解析方法和装置 - Google Patents
语音解析方法和装置 Download PDFInfo
- Publication number
- CN105529028B CN105529028B CN201510903049.2A CN201510903049A CN105529028B CN 105529028 B CN105529028 B CN 105529028B CN 201510903049 A CN201510903049 A CN 201510903049A CN 105529028 B CN105529028 B CN 105529028B
- Authority
- CN
- China
- Prior art keywords
- detected
- voice signal
- voice
- mute
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000009432 framing Methods 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims abstract description 7
- 230000008859 change Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 8
- 230000002452 interceptive effect Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 206010027476 Metastases Diseases 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009401 metastasis Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本发明提出一种语音解析方法和装置,其中,方法包括:S1、接收输入的待检测语音信号;S2、分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果;S3、根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点;S4、计算待检测语音信号的置信度信息;S5、解析待检测语音信号的语义信息;以及S6、根据置信度信息和语义信息获取待检测语音信号对应的语音解析结果。本发明实施例的语音解析方法和装置,能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
Description
技术领域
本发明涉及语音识别技术领域,特别涉及一种语音解析方法和装置。
背景技术
随着人机信息交互技术的发展,语音识别技术显示出其重要性。在语音识别系统中,语音端点检测是语音识别中的关键技术之一。语音端点检测是指在连续声音信号中找出语音部分的起始点和终止点。端点检测准确与否,会直接影响到语音识别系统的性能。如果端点切分出现错误,则会导致漏识别或者误识别等情况的发生,进而可导致语音识别结果不准确。
目前,传统的语音端点检测方法主要是获取时域或频域能量,并与给定的阈值进行比较,从而判断出语音的起始点和终止点。端点检测的一般过程为:1、分帧提取语音特征,计算时域或频域能量;2、将能量值与阈值比较,判断语音起始点;3、若找到语音起始点,则继续向后取能量值与阈值比较,判断语音是否结束;4、若找到语音结束点,则终止查找,返回结果。
然而,在实现本发明的过程中发明人发现上述方法至少存在以下问题:当对一段语音进行语音端点检测时,在非平稳噪声、较低信噪比环境下,所检测的语音端点的准确率较低,影响语音识别系统的性能,可能会被误判为噪声,导致用户使用体验差。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种语音解析方法,该方法能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
本发明的第二个目的在于提出一种语音解析装置。
为实现上述目的,本发明第一方面实施例的语音解析方法,包括:S1、接收输入的待检测语音信号;S2、分帧提取所述待检测语音信号的语音特征信息,根据所述语音特征信息和声学模型生成所述待检测语音信号的识别结果;S3、根据所述识别结果和预设静音检测算法初步检测出所述待检测语音信号的语音端点;S4、计算所述待检测语音信号的置信度信息;S5、解析所述待检测语音信号的语义信息;以及S6、根据所述置信度信息和所述语义信息获取所述待检测语音信号对应的语音解析结果。
本发明实施例的语音解析方法,通过分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果,再根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点,然后基于置信度信息和语义信息获取待检测语音信号对应的语音解析结果,在复杂的环境噪声场景,能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
为实现上述目的,本发明第二方面实施例的语音解析装置,包括:接收模块,用于接收输入的待检测语音信号;识别模块,用于分帧提取所述待检测语音信号的语音特征信息,根据所述语音特征信息和声学模型生成所述待检测语音信号的识别结果;检测模块,用于根据所述识别结果和预设静音检测算法初步检测出所述待检测语音信号的语音端点;计算模块,用于计算所述待检测语音信号的置信度信息;解析模块,用于解析所述待检测语音信号的语义信息;以及获取模块,用于根据所述置信度信息和所述语义信息获取所述待检测语音信号对应的语音解析结果。
本发明实施例的语音解析装置,通过分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果,再根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点,然后基于置信度信息和语义信息获取待检测语音信号对应的语音解析结果,在复杂的环境噪声场景,能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
附图说明
图1是根据本发明一个实施例的语音解析方法的流程图;
图2是根据本发明一个实施例的检测语音起始点和语音结束点的流程图;
图3是根据本发明一个实施例的语音解析装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的语音解析方法和装置。
图1是根据本发明一个实施例的语音解析方法的流程图。
如图1所示,该语音解析方法包括:
S1,接收输入的待检测语音信号。
具体地,可接收用户通过麦克风等输入装置输入的待检测语音信号,如“帮忙查询一下北京天气。”。
S2,分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果。
具体地,在接收到待检测语音信号后,可对待检测语音信号进行分帧处理,并提取每帧待检测语音信号的语音特征信息。其中,语音特征信息可包括梅尔频率倒谱系数(MelFrequency Cepstrum Coefficient,简称MFCC),以及MFCC的一阶差分和二阶差分等信息。例如:可将用户输入的语音信号分成若干个以25毫秒为单位的语音帧。
在生成语音特征信息之后,可基于声学模型计算每帧待检测语音信号在每个建模单元上的似然值,然后通过动态规划算法,可以得到最优状态转移序列及其对应的词序列,并将所得到的最优状态转移序列及其对应的词序列作为识别结果。
其中,建模单元为经音素决策树聚类后的三音子状态。基于声学模型,可以获得待检测语音信号在每个建模单元上的状态输出概率,状态输出概率和状态转移概率用于计算路径扩展时每条路径的累积似然值。其中,状态转移概率是声学模型中预先训练好的,状态转移概率是进行路径扩展时状态与状态之间进行跳转的概率值。
为了提高声学识别的准确性和效率,可使用基于神经网络(DNN,Deep NeuralNetworks)的声学模型对语音特征信息进行识别。其中,DNN声学模型可通过对大量语音数据进行训练获得。
S3,根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点。
其中,上述静音检测算法可以包括但不限于基于识别结果最优词序列的静音检测算法。
S4,计算待检测语音信号的置信度信息。
具体地,可根据识别结果、待检测语音信号的语音端点和待检测语音信号的信噪比计算待检测语音信号的置信度信息。
进一步而言,可基于识别结果,计算语音端点之间的每个词的声学后验概率。
其中,计算语音端点之间的第k个词的声学后验概率的公式:
其中Pk(X)为待检测语音信号中第k个词的声学后验概率,pt(mk|x)为第t帧时该词对应建模单元的似然值,为第t帧时所有建模单元的似然值和,Tk(X)为该词的持续时长。
在计算出声学后验概率后,可根据语音端点之间的每个词的声学后验概率和信噪比计算每个词对应的置信度信息。
具体地,针对语音端点之间的每个词,可基于当前词的短时能量值Ek(X)和输入语音的噪声能量评估值N(X),计算当前词的信噪比SNRk(X)=Ek(X)/N(X)。
在计算出当前词的信噪比后,可基于当前词的声学后验概率和信噪比,计算出当前词的置信度CMk(X)=w*Pk(X)+(1-w)*SNRk(X),其中0≤w≤1,w为权重系数,w的取值由声学后验概率和信噪比决定。
然后,可根据以下公式计算语音信号对应的置信度:
其中,tn(x)表示第n个词的持续时间长,CMn(x)表示第n个词的置信度。
最后,再对每个词对应的置信度信息进行求和计算,并获取待检测语音信号的置信度信息。
S5、解析待检测语音信号的语义信息。
S6、根据置信度信息和语义信息获取待检测语音信号对应的语音解析结果。
具体地,可结合置信度信息和语义信息,综合判断待检测语音信号是否被解析成功。举例来说,在人机交互的过程中,假设输入的当前语音的置信度为90分,超过了预设的置信度阈值80分,则可确定当前语音为有效语音输入;而同时可对当前语音进行语义解析,再结合上下文的语境,确定当前语音与上下文无关。虽然当前语音为有效输入,并非噪音,但是解析出的语义与上下文无关,则可向用户反馈如“请确认当前语音是否正确”等提示信息。
再例如:当前语音的置信度为40分,低于预设的置信度阈值80分,则可确定当前语音为无效语音输入,可能是噪音;而同时对当前语音进行语义解析,再结合上下文的语境,确定当前语音与上下文有关,则可向用户反馈如“声音太小,请重新输入”等提示信息。
当然,如果当前语音的置信度大于预设的置信度阈值,且经过语义解析后,确定与上下文相关,则可确定当前语音解析正确,并可向用户反馈相应的语句与用户进行交互。举例来说,用户输入“请帮忙推荐一本历史小说”,其置信度为90分,大于预设阈值80分,说明其为有效输入,并且用户之前输入的上文信息为“我想买一本书”,结合语义解析,可确定当前语音输入与上文信息相关,则能够准确定位用户的意图,向用户反馈符合其需求的信息,从而更加流畅地实现人机交互。
通过置信度信息和语义信息两个维度对待检测语音信号进行判定,可有效地判定待检测语音信号是否被解析正确,提高人机交互时回复语句的准确性,提升用户使用体验。
下面详细说明一下,根据识别结果和基于识别结果最优词序列的静音检测算法初步检测出待检测语音信号的语音起始点和语音结束点的具体过程。如图2所示,可包括以下步骤:
S31,根据识别结果确定当前时刻待检测语音信号的最优词序列,并检测最优词序列的尾部输出词是否为静音。
具体地,在获得待检测语音信号的识别结果后,可根据输出词序列累积的似然值大小,获得当前时刻待检测语音信号的最优词序列。例如,当前待检测语音为“我们”,在待检测语音前后均有静音,当前待检测语音对应的输出词序列的形式为:静音->语音->语音->静音。
其中,需要说明的是,随着输入语音的增加,最优词序列随着累积似然值变化而不断变化。
S32,若尾部输出词为静音,则记录在静音之前,且距离静音最近的输出词的结束时间点。
S33,进一步检测结束时间点在后续N帧待检测语音输入后是否发生变化,若结束时间点保持不变,则进入语音尾部静音检测的中间状态。
其中,N为正整数。
具体地,在检测到结束时间点保持N帧语音数据输入没有发生变化,则可进入语音尾部静音检测的中间状态。
S34,检测当前状态是否处于中间状态,若处于中间状态,则计算结束时间点之后静音的长度,并进一步判断静音的长度是否大于预设阈值,若大于,则静音检测成功,并根据最优词序列确定待检测语音信号的语音起始点,并将结束时间点作为待检测语音信号的语音结束点。
其中,预设阈值可设置为500ms,即在判断出尾部静音的长度大于500ms后,可确定静音检测成功,此时,可根据最优词序列确定待检测语音信号中的语音起始点,以及将结束时间点作为待检测语音信号的语音结束点。
S35,若结束时间点在静音检测成功之前发生变化,则重复执行步骤S31至S34。
其中,需要说明的是,最优词序列中会有对应每个词持续时长的信息,每个词与多帧语音信号对应,每个词对应的时长等于多帧待检测语音信号的时长之和。
本发明实施例的语音解析方法,通过分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果,再根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点,然后基于置信度信息和语义信息获取待检测语音信号对应的语音解析结果,在复杂的环境噪声场景,能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
为了实现上述实施例,本发明还提出一种语音解析装置。
图3是根据本发明一个实施例的语音解析装置的结构示意图。
如图3所示,该语音解析装置包括接收模块110、识别模块120、检测模块130、计算模块140、解析模块150和获取模块160,其中:
接收模块110可用于接收输入的待检测语音信号。具体地,可接收用户通过麦克风等输入装置输入的待检测语音信号,如“帮忙查询一下北京天气。”。
识别模块120可用于分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果。具体地,在接收到待检测语音信号后,可对待检测语音信号进行分帧处理,并提取每帧待检测语音信号的语音特征信息。其中,语音特征信息可包括梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,简称MFCC),以及MFCC的一阶差分和二阶差分等信息。例如:可将用户输入的语音信号分成若干个以25毫秒为单位的语音帧。
在生成语音特征信息之后,可基于声学模型计算每帧待检测语音信号在每个建模单元上的似然值,然后通过动态规划算法,可以得到最优状态转移序列及其对应的词序列,并将所得到的最优状态转移序列及其对应的词序列作为识别结果。
其中,建模单元为经音素决策树聚类后的三音子状态。基于声学模型,可以获得待检测语音信号在每个建模单元上的状态输出概率,状态输出概率和状态转移概率用于计算路径扩展时每条路径的累积似然值。其中,状态转移概率是声学模型中预先训练好的,状态转移概率是进行路径扩展时状态与状态之间进行跳转的概率值。
为了提高声学识别的准确性和效率,可使用基于神经网络(DNN,Deep NeuralNetworks)的声学模型对语音特征信息进行识别。其中,DNN声学模型可通过对大量语音数据进行训练获得。
检测模块130可用于根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点。其中,上述静音检测算法可以包括但不限于基于识别结果最优词序列的静音检测算法。
其中,检测模块可包括确定单元131、记录单元132、第一检测单元133和第二检测单元134。
确定单元131可根据识别结果确定当前时刻待检测语音信号的最优词序列,并检测最优词序列的尾部输出词是否为静音。具体地,在获得待检测语音信号的识别结果后,可根据输出词序列累积的似然值大小,获得当前时刻待检测语音信号的最优词序列。例如,当前待检测语音为“我们”,在待检测语音前后均有静音,当前待检测语音对应的输出词序列的形式为:静音->语音->语音->静音。其中,需要说明的是,随着输入语音的增加,最优词序列随着累积似然值变化而不断变化。
记录单元132用于在当尾部输出词为静音时,记录在静音之前,且距离静音最近的输出词的结束时间点。
第一检测单元133用于进一步检测结束时间点在后续N帧待检测语音信号输入后是否发生变化。如果结束时间点保持不变,则可进入语音尾部静音检测的中间状态。其中,N是为预设正整数。
第二检测单元134用于检测当前状态是否处于中间状态。如果处于中间状态,则可计算结束时间点之后静音的长度,并进一步判断静音的长度是否大于预设阈值。若大于预设阈值,则静音检测成功。然后可根据最优词序列确定待检测语音信号的语音起始点,并将结束时间点作为待检测语音信号的语音结束点。其中,预设阈值可设置为500ms,即在判断出尾部静音的长度大于500ms后,可确定静音检测成功,此时,可根据最优词序列确定待检测语音信号中的语音起始点,以及将结束时间点作为待检测语音信号的语音结束点。
其中,需要说明的是,最优词序列中会有对应每个词持续时长的信息,每个词与多帧语音信号对应,每个词对应的时长等于多帧待检测语音信号的时长之和。
计算模块140用于计算待检测语音信号的置信度信息。具体地,可根据识别结果、待检测语音信号的语音端点和待检测语音信号的信噪比计算待检测语音信号的置信度信息。
进一步而言,可基于识别结果,计算语音端点之间的每个词的声学后验概率。
其中,计算语音端点之间的第k个词的声学后验概率的公式:
其中Pk(X)为待检测语音信号中第k个词的声学后验概率,pt(mk|x)为第t帧时该词对应建模单元的似然值,为第t帧时所有建模单元的似然值和,Tk(X)为该词的持续时长。
在计算出声学后验概率后,可根据语音端点之间的每个词的声学后验概率和信噪比计算每个词对应的置信度信息。
具体地,针对语音端点之间的每个词,可基于当前词的短时能量值Ek(X)和输入语音的噪声能量评估值N(X),计算当前词的信噪比SNRk(X)=Ek(X)/N(X)。
在计算出当前词的信噪比后,可基于当前词的声学后验概率和信噪比,计算出当前词的置信度CMk(X)=w*Pk(X)+(1-w)*SNRk(X),其中0≤w≤1,w为权重系数,w的取值由声学后验概率和信噪比决定。
然后,可根据以下公式计算语音信号对应的置信度:
其中,tn(x)表示第n个词的持续时间长,CMn(x)表示第n个词的置信度。
最后,再对每个词对应的置信度信息进行求和计算,并获取待检测语音信号的置信度信息。
解析模块150用于解析待检测语音信号的语义信息。
获取模块160用于根据置信度信息和语义信息获取待检测语音信号对应的语音解析结果。具体地,可结合置信度信息和语义信息,综合判断待检测语音信号是否被解析成功。举例来说,在人机交互的过程中,假设输入的当前语音的置信度为90分,超过了预设的置信度阈值80分,则可确定当前语音为有效语音输入;而同时可对当前语音进行语义解析,再结合上下文的语境,确定当前语音与上下文无关。虽然当前语音为有效输入,并非噪音,但是解析出的语义与上下文无关,则可向用户反馈如“请确认当前语音是否正确”等提示信息。
再例如:当前语音的置信度为40分,低于预设的置信度阈值80分,则可确定当前语音为无效语音输入,可能是噪音;而同时对当前语音进行语义解析,再结合上下文的语境,确定当前语音与上下文有关,则可向用户反馈如“声音太小,请重新输入”等提示信息。
当然,如果当前语音的置信度大于预设的置信度阈值,且经过语义解析后,确定与上下文相关,则可确定当前语音解析正确,并可向用户反馈相应的语句与用户进行交互。举例来说,用户输入“请帮忙推荐一本历史小说”,其置信度为90分,大于预设阈值80分,说明其为有效输入,并且用户之前输入的上文信息为“我想买一本书”,结合语义解析,可确定当前语音输入与上文信息相关,则能够准确定位用户的意图,向用户反馈符合其需求的信息,从而更加流畅地实现人机交互。
通过置信度信息和语义信息两个维度对待检测语音信号进行判定,可有效地判定待检测语音信号是否被解析正确,提高人机交互时回复语句的准确性,提升用户使用体验。
本发明实施例的语音解析装置,通过分帧提取待检测语音信号的语音特征信息,根据语音特征信息和声学模型生成待检测语音信号的识别结果,再根据识别结果和预设静音检测算法初步检测出待检测语音信号的语音端点,然后基于置信度信息和语义信息获取待检测语音信号对应的语音解析结果,在复杂的环境噪声场景,能够准确地识别语音的有效性,以及通过语义解析,确定语义是否与上下文相关,提高了语音识别系统的性能,使得多轮对话交互过程更加流畅,提升用户使用体验。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,″计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (6)
1.一种语音解析方法,其特征在于,包括以下步骤:
S1、接收输入的待检测语音信号;
S2、分帧提取所述待检测语音信号的语音特征信息,根据所述语音特征信息和声学模型生成所述待检测语音信号的识别结果;
S3、根据所述识别结果和预设静音检测算法初步检测出所述待检测语音信号的语音端点;
S4、计算所述待检测语音信号的置信度信息;
S5、解析所述待检测语音信号的语义信息;以及
S6、根据所述置信度信息和所述语义信息获取所述待检测语音信号对应的语音解析结果;
所述计算所述待检测语音信号的置信度信息,具体包括:
根据所述识别结果、所述待检测语音信号的语音端点和所述待检测语音信号的信噪比计算所述待检测语音信号的置信度信息;
所述根据所述识别结果、所述待检测语音信号的语音端点和所述待检测语音信号的信噪比计算所述待检测语音信号的置信度信息,具体包括:
基于所述识别结果,计算所述语音端点之间的每个词的声学后验概率;
根据所述语音端点之间的每个词的声学后验概率和信噪比计算每个词对应的置信度信息;
对所述每个词对应的置信度信息进行求和计算,并获取所述待检测语音信号的置信度信息。
2.如权利要求1所述的方法,其特征在于,所述预设静音检测算法包括基于识别结果最优词序列的静音检测算法。
3.如权利要求2所述的方法,其特征在于,所述根据所述识别结果和预设静音检测算法初步检测出所述待检测语音信号的语音端点,具体包括:
S31、根据所述识别结果确定当前时刻所述待检测语音信号的最优词序列,并检测所述最优词序列的尾部输出词是否为静音;
S32、若所述尾部输出词为静音,则记录在所述静音之前,且距离所述静音最近的输出词的结束时间点;
S33、进一步检测所述结束时间点在后续N帧待检测语音信号输入后是否发生变化,若所述结束时间点保持不变,则进入语音尾部静音检测的中间状态,其中,N为正整数;
S34、检测当前状态是否处于所述中间状态,若处于所述中间状态,则计算所述结束时间点之后静音的长度,并进一步判断静音的长度是否大于预设阈值,若大于,则静音检测成功,并根据所述最优词序列确定所述待检测语音信号的语音起始点,并将所述结束时间点作为所述待检测语音信号的语音结束点;
S35,若所述结束时间点在静音检测成功之前发生变化,则重复执行所述步骤S31至S34。
4.一种语音解析装置,其特征在于,包括:
接收模块,用于接收输入的待检测语音信号;
识别模块,用于分帧提取所述待检测语音信号的语音特征信息,根据所述语音特征信息和声学模型生成所述待检测语音信号的识别结果;
检测模块,用于根据所述识别结果和预设静音检测算法初步检测出所述待检测语音信号的语音端点;
计算模块,用于计算所述待检测语音信号的置信度信息;
解析模块,用于解析所述待检测语音信号的语义信息;以及
获取模块,用于根据所述置信度信息和所述语义信息获取所述待检测语音信号对应的语音解析结果;
所述计算模块,用于:
根据所述识别结果、所述待检测语音信号的语音端点和所述待检测语音信号的信噪比计算所述待检测语音信号的置信度信息;
所述计算模块,还用于:
基于所述识别结果,计算所述语音端点之间的每个词的声学后验概率;
根据所述语音端点之间的每个词的声学后验概率和信噪比计算每个词对应的置信度信息;
对所述每个词对应的置信度信息进行求和计算,并获取所述待检测语音信号的置信度信息。
5.如权利要求4所述的装置,其特征在于,所述预设静音检测算法包括基于识别结果最优词序列的静音检测算法。
6.如权利要求5所述的装置,其特征在于,所述检测模块,包括:
确定单元,用于根据所述识别结果确定当前时刻所述待检测语音信号的最优词序列,并检测所述最优词序列的尾部输出词是否为静音;
记录单元,用于当所述尾部输出词为静音时,记录在所述静音之前,且距离所述静音最近的输出词的结束时间点;
第一检测单元,用于进一步检测所述结束时间点在后续N帧待检测语音信号输入后是否发生变化,若所述结束时间点保持不变,则进入语音尾部静音检测的中间状态,其中,N是为预设正整数;
第二检测单元,用于检测当前状态是否处于所述中间状态,若处于所述中间状态,则计算所述结束时间点之后静音的长度,并进一步判断静音的长度是否大于预设阈值,若大于,则静音检测成功,并根据所述最优词序列确定所述待检测语音信号的语音起始点,并将所述结束时间点作为所述待检测语音信号的语音结束点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510903049.2A CN105529028B (zh) | 2015-12-09 | 2015-12-09 | 语音解析方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510903049.2A CN105529028B (zh) | 2015-12-09 | 2015-12-09 | 语音解析方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105529028A CN105529028A (zh) | 2016-04-27 |
CN105529028B true CN105529028B (zh) | 2019-07-30 |
Family
ID=55771205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510903049.2A Active CN105529028B (zh) | 2015-12-09 | 2015-12-09 | 语音解析方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105529028B (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106100771B (zh) * | 2016-06-16 | 2018-07-03 | 苏州科达科技股份有限公司 | 一种双向时延检测方法及装置 |
CN107785018A (zh) * | 2016-08-31 | 2018-03-09 | 科大讯飞股份有限公司 | 多轮交互语义理解方法和装置 |
CN109916423A (zh) * | 2017-12-12 | 2019-06-21 | 上海博泰悦臻网络技术服务有限公司 | 智能导航设备及其路线规划方法、及无人驾驶车辆 |
CN109920407A (zh) * | 2017-12-12 | 2019-06-21 | 上海博泰悦臻网络技术服务有限公司 | 智能终端及其饮食搜寻方法、及无人驾驶车辆 |
CN108055406B (zh) * | 2017-12-27 | 2020-12-25 | 广东小天才科技有限公司 | 一种通信消息的交互方法及移动终端 |
CN110118563A (zh) * | 2018-02-05 | 2019-08-13 | 上海博泰悦臻电子设备制造有限公司 | 导航终端及其导航地图数据更新方法、及无人驾驶车辆 |
CN110118565A (zh) * | 2018-02-05 | 2019-08-13 | 上海博泰悦臻电子设备制造有限公司 | 导航终端、导航地图数据在线编辑方法、及无人驾驶车辆 |
CN110219544A (zh) * | 2018-03-02 | 2019-09-10 | 上海博泰悦臻网络技术服务有限公司 | 智能车辆及其车窗智能控制方法 |
CN108731699A (zh) * | 2018-05-09 | 2018-11-02 | 上海博泰悦臻网络技术服务有限公司 | 智能终端及其基于语音的导航路线重新规划方法、及车辆 |
CN110889566A (zh) * | 2018-08-21 | 2020-03-17 | 上海博泰悦臻网络技术服务有限公司 | 车联网服务器、车辆及车辆配件保养服务推送方法 |
CN110852774A (zh) * | 2018-08-21 | 2020-02-28 | 上海博泰悦臻网络技术服务有限公司 | 基于启动画面的车载广告推送方法、车联网终端及车辆 |
CN110875059B (zh) * | 2018-08-31 | 2022-08-05 | 深圳市优必选科技有限公司 | 收音结束的判断方法、装置以及储存装置 |
CN110970029A (zh) * | 2018-09-28 | 2020-04-07 | 上海博泰悦臻电子设备制造有限公司 | 车辆、车机设备及基于语音语义识别的车载语音交互方法 |
CN109273000B (zh) * | 2018-10-11 | 2023-05-12 | 河南工学院 | 一种语音识别方法 |
CN111669708A (zh) * | 2019-03-07 | 2020-09-15 | 上海博泰悦臻网络技术服务有限公司 | 车辆、车机设备及其基于车联网紧急情况的应急导航方法 |
CN110136707B (zh) * | 2019-04-22 | 2021-03-02 | 云知声智能科技股份有限公司 | 一种用于进行多设备自主决策的人机交互系统 |
CN113823282A (zh) * | 2019-06-26 | 2021-12-21 | 百度在线网络技术(北京)有限公司 | 语音处理方法、系统和装置 |
CN112151073A (zh) * | 2019-06-28 | 2020-12-29 | 北京声智科技有限公司 | 一种语音处理方法、系统、设备及介质 |
CN112435660A (zh) * | 2019-08-08 | 2021-03-02 | 上海博泰悦臻电子设备制造有限公司 | 车辆控制方法、系统及车辆 |
CN113160854A (zh) * | 2020-01-22 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 语音交互系统、相关方法、装置及设备 |
CN111583912A (zh) * | 2020-05-26 | 2020-08-25 | 阳光保险集团股份有限公司 | 语音端点检测方法、装置以及电子设备 |
CN112397067A (zh) * | 2020-11-13 | 2021-02-23 | 重庆长安工业(集团)有限责任公司 | 一种武器装备的语音操控终端 |
CN112466280B (zh) * | 2020-12-01 | 2021-12-24 | 北京百度网讯科技有限公司 | 语音交互方法、装置、电子设备和可读存储介质 |
CN112885370B (zh) * | 2021-01-11 | 2024-05-31 | 广州欢城文化传媒有限公司 | 一种声音卡片有效性检测方法及装置 |
CN113225624A (zh) * | 2021-04-08 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 一种语音识别耗时确定方法和装置 |
US11838340B2 (en) * | 2021-09-20 | 2023-12-05 | International Business Machines Corporation | Dynamic mute control for web conferencing |
CN114299957A (zh) * | 2021-11-29 | 2022-04-08 | 北京百度网讯科技有限公司 | 声纹分离方法、装置、电子设备以及存储介质 |
CN114283840B (zh) * | 2021-12-22 | 2023-04-18 | 天翼爱音乐文化科技有限公司 | 一种指令音频生成方法、系统、装置与存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101030369B (zh) * | 2007-03-30 | 2011-06-29 | 清华大学 | 基于子词隐含马尔可夫模型的嵌入式语音识别方法 |
CN101609672B (zh) * | 2009-07-21 | 2011-09-07 | 北京邮电大学 | 一种语音识别语义置信特征提取的方法和装置 |
JP6066354B2 (ja) * | 2011-07-01 | 2017-01-25 | 日本電気株式会社 | 信頼度計算の方法及び装置 |
CN104978963A (zh) * | 2014-04-08 | 2015-10-14 | 富士通株式会社 | 语音识别装置、方法以及电子设备 |
CN104391673A (zh) * | 2014-11-20 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 语音交互方法和装置 |
CN104464723B (zh) * | 2014-12-16 | 2018-03-20 | 科大讯飞股份有限公司 | 一种语音交互方法及系统 |
CN105096952A (zh) * | 2015-09-01 | 2015-11-25 | 联想(北京)有限公司 | 一种语音识别的辅助处理方法和服务器 |
-
2015
- 2015-12-09 CN CN201510903049.2A patent/CN105529028B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105529028A (zh) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105529028B (zh) | 语音解析方法和装置 | |
CN105118502B (zh) | 语音识别系统的端点检测方法及系统 | |
CN110364143B (zh) | 语音唤醒方法、装置及其智能电子设备 | |
CN103971685B (zh) | 语音命令识别方法和系统 | |
US7693713B2 (en) | Speech models generated using competitive training, asymmetric training, and data boosting | |
CN105261357B (zh) | 基于统计模型的语音端点检测方法及装置 | |
US8140330B2 (en) | System and method for detecting repeated patterns in dialog systems | |
CN106940998A (zh) | 一种设定操作的执行方法及装置 | |
Ananthapadmanabha et al. | Detection of the closure-burst transitions of stops and affricates in continuous speech using the plosion index | |
CN104575490A (zh) | 基于深度神经网络后验概率算法的口语发音评测方法 | |
CN104681036A (zh) | 一种语言音频的检测系统及方法 | |
CN101246685A (zh) | 计算机辅助语言学习系统中的发音质量评价方法 | |
CN105374352A (zh) | 一种语音激活方法及系统 | |
US11308946B2 (en) | Methods and apparatus for ASR with embedded noise reduction | |
Ryant et al. | Highly accurate mandarin tone classification in the absence of pitch information | |
CN106782508A (zh) | 语音音频的切分方法和语音音频的切分装置 | |
CN104464755A (zh) | 语音评测方法和装置 | |
CN106653002A (zh) | 一种文字直播方法及平台 | |
Prathosh et al. | Estimation of voice-onset time in continuous speech using temporal measures | |
CN116665649A (zh) | 基于韵律特征的合成语音检测方法 | |
Tabibian | A survey on structured discriminative spoken keyword spotting | |
Chen et al. | System and keyword dependent fusion for spoken term detection | |
Staš et al. | Language model adaptation for Slovak LVCSR | |
CN107039046A (zh) | 一种基于特征融合的语音声效模式检测方法 | |
Seppi et al. | Template-Based Automatic Speech Recognition Meets Prosody. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |