CN101373593B - 语音分析设备和语音分析方法 - Google Patents
语音分析设备和语音分析方法 Download PDFInfo
- Publication number
- CN101373593B CN101373593B CN2008101350647A CN200810135064A CN101373593B CN 101373593 B CN101373593 B CN 101373593B CN 2008101350647 A CN2008101350647 A CN 2008101350647A CN 200810135064 A CN200810135064 A CN 200810135064A CN 101373593 B CN101373593 B CN 101373593B
- Authority
- CN
- China
- Prior art keywords
- fundamental tone
- relative fundamental
- difference
- frequency characteristic
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 256
- 238000004590 computer program Methods 0.000 title description 9
- 238000012545 processing Methods 0.000 claims abstract description 67
- 230000033764 rhythmic process Effects 0.000 claims description 96
- 238000000034 method Methods 0.000 claims description 79
- 239000011159 matrix material Substances 0.000 claims description 63
- 230000008569 process Effects 0.000 claims description 51
- 230000008859 change Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 5
- 230000000052 comparative effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 35
- 230000004044 response Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003750 conditioning effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 108091092195 Intron Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010205 computational analysis Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种语音分析设备、语音分析方法和计算机程序,其中该语音分析设备分析语音信息的韵律特性并输出韵律辨别结果,该语音分析设备包括:输入单元,其输入语音信息;声学分析单元,其计算相对基音变化量;以及辨别单元,其执行语音辨别处理,其中,该声学分析单元计算当前模板相对基音差,判定当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,当该值不小于所述阈值时计算相邻相对基音差,当该相邻相对基音差等于或小于预先设置的容限值时,执行将当前模板相对基音差加上或减去八度音的修正处理,以通过应用所述相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
Description
相关申请的交叉引用
本发明包含与2007年7月25日向日本专利局递交的日本专利申请JP 2007-193931相关的主题,其全部内容通过引用合并于此。
技术领域
本发明涉及语音分析设备、语音分析方法和计算机程序,具体涉及一种语音分析设备、语音分析方法和计算机程序,其适合在基于输入语音的韵律特性来执行辨别时使用。
背景技术
近年来,语音识别技术得以广泛应用。相关技术中的语音识别技术是对语音中所包括的信息中的、与音韵相关的信息(在下文中称为“音韵信息”)进行识别的技术。在常见的语音识别技术中,作为包括在语音中的、除了音韵信息之外的信息,与韵律相关的信息(在下文中称为“韵律信息”)并没有总是得到积极的使用。
然而,存在使用韵律信息的相关技术,例如,使用韵律信息来适当地确定句子的基本块之间的边界位置的技术是公知的(例如,参照JP-A-04-66999(专利文献1))。
发明内容
然而,在上述专利文献1中描述的相关技术中,韵律信息辅助地用于改进语音识别技术的准确性,并且韵律信息中包括的各种信息并未得到清楚地辨别。
在人类语音中,存在这样的一些情况:在这些情况下,难以仅仅通过音韵信息来进行辨别。例如,在日本,从音韵信息的观点来看,表示肯定意图的语音“un”和表示否定意图的语音“uun”是相同的语音。在这种 情况下,难以仅仅通过包括在语音中的音韵信息来辨别肯定意图和否定意图,并且必须基于所谓的韵律信息来执行该辨别,其中该韵律信息例如是“语调模式”或“音韵持续时间”信息。
当在语音信号处理中进行与语调相关的处理时,广泛使用对基音频率(或基音周期)的检测。然而,存在以下问题:在对基音频率的检测中,由于噪声等的影响而易于发生误差。此外,在耳语声或具有低基音特性的语音中,在对基音频率的检测中易于发生误差。在易于发生基音频率的检测误差的情况下,或者对于易于发生检测误差的主体,难以基于韵律信息来执行辨别。
本发明致力于解决上述问题,并且期望有效地检测基音频率并基于输入语音的韵律特性来执行具有高可靠性的语音识别,即使是在具有较大噪声影响的语音、耳语声或具有低基音特性的语音的情况下。
本发明人已经提出了(日本专利申请No.2006-161370)一种根据相对基音变化量来执行韵律辨别的方法,其中相对基音变化量是基于输入语音的时间上不同的两个频率特性之间的变化而获得的。
在日本专利申请No.2006-161370中提出的方法中,当基于输入语音的韵律特性来执行辨别时,对相对基音变化量进行计算,并且基于该相对基音变化量来执行识别处理,其中相对基音变化量是基于输入语音的时间上不同的两个频率特性之间的频率方向变化而获得的。
通过使用时间上不同的两个频率特性之间的相对基音变化量来执行韵律辨别,从而使得即使在具有较大的噪声影响的语音、耳语声或具有低基音特性的语音的情况下也能实现鲁棒的辨别,其中,基音频率提取在相关技术中是难以实现的。
此外,本发明人已经提出了(日本专利申请No.2006-325780)一种方法,在该方法中,所述两个频率特性中的一个频率特性是固定的。根据该方法,可以找到适当的具有连续性的相对基音模式,即使在输入语音中包括无音声或无声的音段的情况下,该相对基音模式也与通过一般的基音频率检测所找到的基音模式相同。
在上述通过固定一个频率特性来得到相对基音变化量的相关技术的方法中,所谓双基音或半基音的问题有时会以与一般的检测基音频率的方法相同的方式而发生。该双基音或半基音的问题是这样的问题:由于与是适当基音频率的两倍或一半的频率相对应的分量强于与语音信号中的要 检测的原始适当基音频率相对应的分量,因此错误地检测到该与是适当基音频率的两倍或一半的频率相对应的分量。
本发明致力于解决上述问题,通过本发明的实施例的配置,期望提供一种语音分析设备、语音分析方法以及计算机程序,其能够通过以下方式来实现非常可靠的语音识别:同时计算根据与预先准备的模板频率特性的比较的相对基音差以及根据与时间上相邻的帧的频率特性的比较的相对基音差,更具体地,当作为原始基音频率的整数比的提取误差似乎发生在根据与模板频率特性的比较的相对基音差中时,考虑根据与时间上相邻的帧的比较的相对基音差,对提取误差进行修正。
根据本发明的实施例,一种语音分析设备,其分析语音信息的韵律特性并输出韵律辨别结果,该语音分析设备包括:输入单元,其执行语音信息的输入;声学分析单元,其分析各个分析帧的频率特性,并计算作为各个分析帧的频率特性的变化信息的相对基音变化量,其中所述各个分析帧是与从输入单元输入的语音信息相关的、按时间序列设置的分析帧;以及辨别单元,其基于声学分析单元所产生的相对基音变化量来执行语音辨别处理,其中,所述声学分析单元计算当前模板相对基音差,其中该当前模板相对基音差是当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差;所述声学分析单元判定当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中该先前模板相对基音差是时间上在所述当前分析帧之前的先前帧的频率特性与模板频率特性之间的相对基音差;当该值不小于所述阈值时,所述声学分析单元计算相邻相对基音差,该相邻相对基音差是当前分析帧的频率特性与先前帧的频率特性之间的相对基音差;当该相邻相对基音差等于或小于预先设置的容限值时,所述声学分析单元执行将当前模板相对基音差加上或减去八度音的修正处理,以通过应用修正的所述当前模板相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
此外,在根据本发明的实施例的语音分析设备中,所述声学分析单元通过以下方式来计算相对基音变化量:当先前模板相对基音差与当前模板相对基音差之间的差值绝对值等于或小于预定阈值时,应用当前模板相对基音差作为当前分析帧的相对基音差。
此外,在根据本发明的实施例的语音分析设备中,所述声学分析单元通过以下方式来计算相对基音变化量:当先前模板相对基音差与当前模板相对基音差之间的差值绝对值不小于预定阈值、并且相邻相对基音差不小 于预先设置的容限值时,应用当前模板相对基音差作为当前分析帧的相对基音差。
此外,在根据本发明的实施例的语音分析设备中,所述声学分析单元计算定义用于计算相对基音差的两个频率特性之间的关系的互相关矩阵,并计算与以下偏移量相对应的值以作为相对基音差:连接该互相关矩阵的构成数据的值的峰值位置的棱线相对于该互相关矩阵的主对角线的偏移量。
此外,在根据本发明的实施例的语音分析设备中,所述声学分析单元产生频率特性信息,其中,该频率特性信息是在对数频率轴上表示的,并且当所述阈值为T且所述容限值为δ时,执行应用由以下公式定义的阈值和容限值的处理:
T=log(2)-δ
此外,在根据本发明的实施例的语音分析设备中,所述辨别单元通过将与预先存储在存储单元中的韵律辨别单位词典相对应的参数和声学分析单元所产生的相对基音变化量数据进行比较,执行语音辨别处理。
此外,在根据本发明的实施例的语音分析设备中,所述辨别单元根据应用DP(动态规划)匹配、神经网络、HMM(隐马尔可夫模型)中的任意一个的处理来执行语音辨别处理。
此外,在根据本发明的实施例的语音分析设备中,该语音分析设备还包括:语音识别单元,其输出与来自输入单元的输入语音数据相对应的文本信息以作为语音识别结果;以及结果选择单元,其通过应用辨别单元的辨别结果以及语音识别单元的辨别结果来输出语音识别结果。
此外,在根据本发明的实施例的语音分析设备中,作为语音识别单元中的语音识别结果与存储在特定词存储单元中的特定词之间的比较结果,当该语音识别结果对应于特定词时,结果选择单元输出添加有辨别单元中所辨别出的韵律辨别结果的语音识别结果,以及当该语音识别结果不对应于特定词时,结果选择单元将该语音识别结果按原样输出。
根据根发明的实施例,一种语音分析方法,其在语音分析设备中分析语音信息的韵律特性并输出韵律辨别结果,该语音分析方法包括以下步骤:通过输入单元来执行语音信息的输入;通过声学分析单元分析各个分析帧的频率特性,并计算作为各个分析帧的频率特性的变化信息的相对基音变化量,其中所述各个分析帧是与从输入单元输入的语音信息相关的、 按时间序列设置的分析帧;以及通过辨别单元基于声学分析单元所产生的相对基音变化量来执行语音辨别处理,其中,通过声学分析单元执行的步骤包括以下步骤:计算当前模板相对基音差,其中该当前模板相对基音差是当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差;判定当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中该先前模板相对基音差是时间上在所述当前分析帧之前的先前帧的频率特性与模板频率特性之间的相对基音差;当该值不小于所述阈值时,计算相邻相对基音差,其中该相邻相对基音差是当前分析帧的频率特性与先前帧的频率特性之间的相对基音差;当该相邻相对基音差等于或小于预先设置的容限值时,执行将当前模板相对基音差加上或减去八度音的修正处理,以通过应用修正的所述当前模板相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
此外,在根据本发明的实施例的语音分析方法中,所述声学分析单元所执行的步骤是以下步骤:当先前模板相对基音差与当前模板相对基音差之间的差值绝对值等于或小于预定阈值时,通过应用当前模板相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
此外,在根据本发明的实施例的语音分析方法中,所述声学分析单元所执行的步骤是以下步骤:当先前模板相对基音差与当前模板相对基音差之间的差值绝对值不小于预定阈值、并且相邻相对基音差不小于预先设置的容限值时,通过应用当前模板相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
此外,在根据本发明的实施例的语音分析方法中,所述声学分析单元所执行的步骤包括以下步骤:计算定义用于计算相对基音差的两个频率特性之间的关系的互相关矩阵,并计算与以下偏移量相对应的值以作为相对基音差:连接该互相关矩阵的构成数据的值的峰值位置的棱线相对于该互相关矩阵的主对角线的偏移量。
此外,在根据本发明的实施例的语音分析方法中,所述声学分析单元所执行的步骤包括以下步骤:产生频率特性信息,其中,该频率特性信息是在对数频率轴上表示的,并且当所述阈值为T且所述容限值为δ时,执行应用以下公式所定义的阈值和容限值的处理:
T=log(2)-δ
此外,在根据本发明的实施例的语音分析方法中,所述辨别单元所执行的步骤是以下步骤:通过将与预先存储在存储单元中的韵律辨别单位词典相对应的参数和声学分析单元所产生的相对基音变化量数据进行比较,来执行语音辨别处理。
此外,在根据本发明的实施例的语音分析方法中,所述辨别单元所执行的步骤是以下步骤:根据应用DP(动态规划)匹配、神经网络、HMM(隐马尔可夫模型)中的任意一个的处理来执行语音辨别处理。
此外,在根据本发明的实施例的语音分析方法中,所述语音分析方法还包括以下步骤:由语音识别单元输出与来自输入单元的输入语音数据相对应的文本信息以作为语音识别结果;以及由结果选择单元通过应用辨别单元的辨别结果以及语音识别单元的辨别结果来输出语音识别结果。
此外,在根据本发明的实施例的语音分析方法中,所述结果选择单元所执行的步骤是以下步骤:作为语音识别单元中的语音识别结果与存储在特定词存储单元中的特定词之间的比较结果,当该语音识别结果对应于特定词时,输出添加有辨别单元中所辨别出的韵律辨别结果的语音识别结果,或者当该语音识别结果不对应于特定词时,将该语音识别结果按原样输出。
根据本发明的实施例,一种计算机程序,其允许语音分析设备分析语音信息的韵律特性和输出韵律辨别结果,所述计算机程序包括以下步骤:允许输入单元执行语音信息的输入;允许声学分析单元分析各个分析帧的频率特性并计算作为各个分析帧的频率特性的变化信息的相对基音变化量,其中所述各个分析帧是与从输入单元输入的语音信息相关的、按时间序列设置的分析帧;以及允许辨别单元基于声学分析单元所产生的相对基音变化量来执行语音辨别处理,其中,声学分析单元所执行的步骤包括以下步骤:计算当前模板相对基音差,该当前模板相对基音差是当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差;判定当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中该先前模板相对基音差是时间上在所述当前分析帧之前的先前帧的频率特性与模板频率特性之间的相对基音差;当该值不小于所述阈值时,计算相邻相对基音差,该相邻相对基音差是当前分析帧的频率特性与先前帧的频率特性之间的相对基音差;以及当该相邻相对基音差等于或小于预先设置的容限值时,执行将当前模板相对基音差加上或减去八度音的修正处理,以通过应用该相对基音差作为当前分析帧的相对基音差来计算相对基音变化量。
根据本发明的实施例的计算机程序是与例如可执行各种程序代码的通用计算机系统相关的计算机程序,该计算机程序可通过记录介质、通信介质以计算机可读形式来提供。这种程序是以计算机可读的形式来提供的,从而在计算机系统上实现了根据该程序的处理。
通过基于稍后描述的本发明的实施例或附图的更详细说明,本发明的另外的其它特性和优点将变得清楚。本说明书中的系统指的是多个设备的逻辑集合,并且具有各自配置的设备不一定位于同一壳体中。
根据本发明的实施例的配置,在基于输入语音的韵律特性来执行辨别的韵律辨别处理中,根据与从输入语音产生的分析帧相对应的频率特性和模板频率特性之间的比较来提取第一相对基音差,以及根据所述分析帧的频率特性与先前帧的频率特性之间的比较来计算第二相对基音差,并且考虑到相邻帧之间的相对基音的连续性,基于这两个相对基音差来执行对所述相对基音差的修正处理。根据该配置,可以消除双基音或半基音提取误差,从而能够实现非常准确和鲁棒的韵律辨别。
附图说明
图1是示出了根据本发明的实施例的语音分析设备的配置示例的框图;
图2是示出了根据本发明的实施例的语音分析设备中的韵律辨别单元的配置示例的框图;
图3A和图3B是示出了正常语音和耳语声的频率特性的图示;
图4是说明韵律辨别单元中的频率特性分析单元的处理序列的流程图;
图5A-图5C是示出了韵律辨别单元中的频率特性分析单元的特定示例的图示;
图6是说明韵律辨别单元中的相对基音变化量计算单元的基本处理序列的流程图;
图7是说明基于两个频率特性而产生的互相关矩阵的图示;
图8是以图形方式表示基于两个频率特性而产生的互相关矩阵、并说明相对基音差的图示;
图9是说明基于一个频率特性而产生的自相关矩阵的图示;
图10是以图形方式表示基于一个频率特性而产生的自相关矩阵、并说明棱线和主对角线的图示;
图11A和图11B是以图形方式表示基于模板频率特性和分析帧的频率特性而产生的互相关矩阵、并说明相对基音差的图示;
图12是说明模板频率特性的配置示例的图示;
图13A和图13B是说明在相对基音变化量的计算中发生的双基音提取误差的示例的图示;
图14是示出发生了双基音提取误差的一个分析帧的频率特性的示例的图示;
图15是说明关于发生了双基音提取误差的一个分析帧中的模板频率特性的互相关矩阵的示例的图示;
图16是说明关于在发生了双基音提取误差的一个分析帧之前一帧的分析帧的频率特性的互相关矩阵的示例的图示;
图17是说明根据本发明的实施例的语音分析设备中的相对基音变化量计算单元的处理序列的流程图;
图18A和图18B是说明通过相对基音变化量计算单元的处理而产生的相对基音变化量数据的示例的图示;以及
图19是说明根据本发明的实施例的语音分析设备的处理序列的流程图。
具体实施方式
在下文中,将参照附图详细描述应用本发明的具体实施例。首先将说明系统配置和整个处理流程,接下来将详细说明声学分析单元的内部处理。
图1是示出了应用本发明的语音分析设备11的配置的框图。语音分析设备11包括输入单元31、韵律辨别单元32、语音识别单元33、结果选择单元34、特定词存储单元35、以及输出单元36。
输入单元31接收例如通过麦克风等获得的语音信号或从另一设备提供的语音信号的输入。
韵律辨别单元32执行对输入的语音信号的韵律辨别处理。韵律指的是难以以文本表达的语音信息特性,例如语调、语速变化以及大小变化(size variation)。稍后将描述韵律辨别单元32的韵律辨别处理的细节。
语音识别单元33执行对输入的语音信号的语音识别处理。在这种情况下,可以执行任何公知的语音识别处理。
当语音识别单元33的处理结果是记录在特定词存储单元35中的特定词时,结果选择单元34向输出单元36输出添加有韵律辨别单元32的韵律辨别结果的语音识别结果,并且当语音识别单元33的处理结果不是记录在特定词存储单元35中的特定词时,结果选择单元34将语音识别单元33的处理结果按原样提供给输出单元36。
特定词存储单元35记录用于语音识别单元33的处理的特定词信息。具体地,将通过使用诸如“un”之类的韵律应当被识别的特定词存储在特定词存储单元35中。
输出单元36将从结果选择单元34提供的语音识别结果输出至外部,也就是说,该单元提供以下指示:在屏幕上显示结果、将结果作为声音而输出、以及此外的通过使用识别结果来操作另一设备。
该实施例具有这样的配置:在该配置中,包括有两个操作单元即韵律辨别单元32和语音识别单元33,并且在结果选择单元34处对这两个处理单元的处理结果进行选择,但是,具有这样的设置也是优选的:在该设置中,仅仅输出韵律辨别单元32的辨别结果,并且仅仅具有韵律辨别单元32,而不具有语音识别单元33。
接下来,将说明语音分析设备11的操作。在图1中,从输入单元31输入的语音被提供给韵律辨别单元32和语音识别单元33。在韵律辨别单元32和语音识别单元33的每个单元中,针对输入的语音数据执行处理,结果,基于输入的语音数据的韵律模式而辨别的语音类型(或用户的语音意图)作为韵律辨别结果而从韵律辨别单元32输出,并且与输入的语音数据相对应的文本信息作为语音识别结果而从语音识别单元33输出。这些韵律辨别结果和语音识别结果被提供给结果选择单元34。
在结果选择单元34中,将所提供的语音识别结果与存储在特定词存储单元35中的特定词进行比较,当该语音识别结果与特定词相一致时,将韵律辨别结果添加到该语音识别结果或与该语音识别结果相结合以从输出单元36输出。当语音识别结果并不与任何特定词相一致时,将语音 识别结果按原样从输出单元36输出。
例如,“un”被设置为特定词,当基于韵律辨别单元32中的韵律辨别结果而辨别了三种语音类型即表示肯定的“un”、表示否定的“uun”和表示疑问的“un?”时,与肯定、否定或疑问的语音类型(用户的语音意图)中的任一个相关的信息被添加到与特定词“un”相关的识别结果。
还优选地是,例如,韵律辨别单元32分析所提供的语音,并将语音的类型辨别为“肯定”、“否定”、“疑问”以及“其它”中的任一个,其中“其它”意味着该语音属于除了这三个类型之外的其它类型。当“其它”被提供作为韵律辨别结果时,结果选择单元34仅输出来自语音识别单元33的语音识别结果,而当韵律辨别结果是“肯定”、“否定”和“疑问”中的任一个时,结果选择单元34输出添加有来自韵律辨别单元32的韵律辨别结果的、来自语音识别单元33的语音识别结果。在这种情况下,可以省略特定词存储单元35。
图2是示出了图1的韵律辨别单元32的配置的框图。图2所示的韵律辨别单元32包括输入单元51、声学分析单元52、辨别单元53、参数存储单元54和输出单元55。
如上文所述,图1的配置是这样的配置:在该配置中,包括有两个处理单元即韵律辨别单元32和语音识别单元33,并且在结果选择单元34处对这两个处理单元的处理结果进行选择,但是,在仅包括有韵律辨别单元32而没有语音识别单元33的设置的情况下,图2所示的配置将形成语音分析设备的整个配置。
在图2所示的配置中,输入单元51从图1所示的输入单元31输入语音信号,例如,该输入单元31包括:诸如麦克风之类的用于输入语音信号的设备、对输入信号进行放大的放大器、将输入信号转换为数字信号的模数转换器等等。在输入单元51中,在例如以16kHz对输入信号进行采样之后,该信号被传送给声学分析单元52。
声学分析单元52从输入的语音信号中提取对于识别所需的特征量,将该特征量传送给辨别单元53。稍后将描述该实施例中的声学分析单元52的内部处理。
在辨别单元53中,通过使用参数存储单元54中的参数来执行对未知的语音数据的识别处理,其中该参数是基于通过对用于学习的语音数据执行声学分析所获得的特征量而预先创建的。
在这种情况下,对未知语音数据的识别处理是这样的处理:针对输入的语音信号,从给定韵律辨别单位词典选择与输入相对应的韵律辨别单位。利用DP(动态规划)匹配、神经网络、HMM(隐马尔可夫模型)等的方法被用作识别方法。
DP匹配是这样的方法:在该方法中,预先地根据通过分析每个语音信号所获得的特征量来计算被称为模板的标准模式以作为参数,该参数被记录在参数存储单元54中,并将未知语音的特征量与每个参数相比较,以找到被确定为最接近的参数。为了吸收语速变化,可以利用这样的方法,即根据被称为动态时间弯曲的技术来伸缩时间轴,以最小化相对于该模板的失真。
神经网络被配置成根据模仿人脑构造的网络模型来执行识别,其中,预先通过学习过程来确定路径的权重系数作为参数,并且这些参数被存储在参数存储单元54中。基于通过向该网络输入未知语音的特征量而获得的输出,计算相对于韵律辨别单位词典中的每个韵律辨别单位的距离,以确定与该输入的语音信号相对应的韵律辨别单位。
HMM被配置成根据概率模型来执行识别,其中针对基于学习数据的状态转移模型,确定转移概率和输出符号概率,以便根据针对未知语音的特征量而言每个模型的发生概率来确定韵律辨别单位。
如上文所述,辨别单元53中的识别处理包括学习过程和识别过程。在学习过程中,预先根据学习数据确定的参数,即模板、网络模型中的权重系数、概率模型的统计参数等等被计算和存储在参数存储单元54中。
在识别过程中,在执行了对输入的未知语音信号的声学分析之后,根据识别方法对给定韵律辨别单位词典中的各个韵律辨别单位执行距离或发生概率的评分,并且选择具有最高得分的单位或多个顶部单位作为识别结果。
在辨别单元53中获得的识别结果被传送给输出单元55。输出单元55提供以下指示:在屏幕上显示所传送的识别结果或者将所传送的识别结果作为声音而输出、以及此外的通过使用该识别结果来操作另一设备。
相关技术中对基音频率的检测基于以下前提:作为语音中的一个声带振动周期的基音周期的时间长度(或者以基音周期的倒数表示的基音频率)是被唯一地确定的。唯一地确定基音频率的处理意味着:在与语音相对应的频率特性的分布中计算存在于最低频率处的峰值分量的中心频率。
下面将参照图3A和图3B来说明检测基音频率的处理示例。图3A示出了正常语音的频率特性,图3B示出了耳语声的频率特性。例如,在如图3A所示的正常语音的频率特性的情况下,频率“fp”对应于基音频率。然而,在语音被混合在噪声中的情况下,或者在具有低基音特性的语音如耳语声的情况下,如上文所述的相关技术中的确定基音频率的处理将会难以进行。例如,在如图3B所示的耳语声的频率特性的情况下,难以检测存在于最低频率处的峰值分量的中心频率。
相应地,在韵律辨别单元32中,即使在难以检测诸如图3B所示的耳语声之类的基音频率的情况下,也可以避免取决于频率特性的峰值特性的处理,其中通过使用相对基音变化量来唯一地确定正确的基音频率,从而鲁棒地捕捉到语调变化。
在过去的基音频率检测中,与语音相对应的频率特性被取作一个特征量分布,并且从一个分布中提取期望的特征量(基音频率),而在韵律辨别单元32中,直接得到变化量而不确定基音频率,对表示基音频率及其变化范围的基音变化范围进行归一化的处理不是必需的。
上述处理主要是通过在声学分析单元52中执行的处理来实现的。在下文中将会详细说明声学分析单元52的具体配置和操作。
<声学分析单元的内部处理>
如图2所示,声学分析单元52包括频率特性分析单元61和相对基音变化量计算单元62。
频率特性分析单元61执行从输入的语音信号到频率特性的变换处理。将参照图4所示的流程图来说明频率特性分析单元61中的具体处理流程。
首先,频率特性分析单元61使用诸如FFT(快速傅立叶变换)分析之类的时频变换处理来将输入的语音信号变换到频域中,以获得一般的频率特性。图5A示出了频率特性的示例。
接下来,该过程进行至图4所示的流程图的步骤S32,在该步骤S32中,将一般频率特性中的频率轴进行对数化,从而变换成对数频率轴上的频率特性。图5B示出了对数频率轴上的频率特性的示例。
接下来,该过程进行至图4所示的流程图的步骤S33,在该步骤S33中,在该对数频率轴上的频率特性中仅仅取出期望频域部分,并且将结果作为频率特性分析单元的结果而输出。图5C例示了从图5B的频率特性 中仅提取了期望频域部分的频率特性。
如上文所述,图5C所示的频率特性是作为频率特性分析单元61中的分析结果而获得的,并且该频率特性被传送给相对基音变化量计算单元62。频率特性分析单元61按照预定的固定时间间隔来产生如图5C所示的频率特性,也就是说,在与从输入单元输入的语音信息相关的、按时间序列设置的每个分析帧,顺序地将所述频率特性输出至相对基音变化量计算单元62。
接下来,将参照图6所示的流程图来说明相对基音变化量计算单元62中的处理示例。图6所示的流程是对相对基音变化量计算单元62中的处理的概述。根据本发明的实施例的语音分析设备的相对基音变化量计算单元62还执行遵循稍后将描述的图17所示的流程的处理,该处理将图6所示的流程作为基本处理。
下面将说明图6的流程。首先,在图6所示的流程图的步骤S41中,相对基音变化量计算单元62通过使用两个频率特性来计算频率特性之间的互相关矩阵。
在根据本发明的实施例的语音分析设备中,应用以下两个不同频率特性的组合来计算互相关矩阵。
(a)时间上不同的分析帧中的两个频率特性,
(b)分析帧中的频率特性和固定的模板频率特性
在稍后的章节中将详细说明(b)的处理。这里将说明(a)的情况,在(a)的情况下是时间上不同的分析帧中的两个频率特性。从上述频率特性分析单元61传送的、时间上不同的分析帧中的两个频率特性由列向量X、Y表示,并且该列向量的维数由N表示。这些列向量X、Y由以下公式1、2表示,此时,如公式3所示,互相关矩阵M是由向量X和转置向量YT的乘积表示的矩阵。
X=(x1,x2,...xN)T 公式(1)
Y=(y1,y2,...yN)T 公式(2)
M=X×YT 公式(3)
图7示出了由上述公式(公式3)表示的互相关矩阵M。在图7中,示出了互相关矩阵M73,当时间上不同的分析帧中的两个频率特性是A71、B72时,进一步地,当频率特性A71是列向量X且频率特性B72 是列向量Y时,该互相关矩阵满足上述关系表达式(公式3)。这两个频率特性A71和B72是与时间上不同的分析帧相对应的频率特性,分别对应于参照图5C所说明的频率特性。
也就是说,这些频率特性对应于这样的数据(图5c):在该数据中仅仅取对数频率轴上的频率特性(图5B)中的期望频域部分,其中该对数频率轴是通过将一般频率特性(图5A)中的频率轴进行对数化而获得的,该一般频率特性是通过根据诸如FFT(快速傅立叶变换)分析之类的时频变换处理来执行到频域的变换而获得的。在图7所示的频率特性A71中,横轴是对数频率轴,在该对数频率轴中频率从左向右增加。在频率特性B72中,频率从上向下增加。
当包括在图7所示的互相关矩阵M73中的数值以图形的方式被显示成根据数值而改变密度(对比度)时,该矩阵M73可被示出为如图8所示的互相关矩阵M75。
作为比较示例,当两个频率特性相同时,也就是说,分别地,在图9中示出了通过仅使用表示所述频率特性之一的列向量X来计算出的自相关矩阵81,在图10中示出了自相关矩阵82,在该自相关矩阵82中以图形方式显示了自相关矩阵81。
如从图9和图10可以看出的,通过仅仅一个频率特性而获得的自相关矩阵是对称矩阵,并且根据频率特性的幅度的平方而计算出的向量(功率谱)对应于该自相关矩阵的主对角线83。与该自相关矩阵中除了主对角线之外的对角线方向分量相比,该功率谱将是连接频率特性的各个峰值(的平方)的棱线83。
另一方面,在参照图7和图8所说明的时间上不同的分析帧中的两个频率特性之间的互相关矩阵中,如图8所示,棱线77位于从矩阵的主对角线76偏移的对角线方向分量处。
如图8所示,该棱线在根据时间上不同的分析帧中的两个频率特性而获得的互相关矩阵中从主对角线偏移的原因是:在两个频率特性中基音频率分别不同。各个频率特性中的峰值分量的频率位置几乎位于每个基音频率的整数倍的位置。在时间上不同的分析帧中的两个频率特性中,分析帧之间的基音频率不同。在根据具有不同基音频率的两个频率特性而获得的互相关矩阵(频率轴采用对数表示)中,连接两个频率特性之间的对应的各峰值的棱线出现在与该互相关矩阵的主对角线相平行地偏移的对角线 方向分量上。该棱线相对于主对角线的偏差或偏移量对应于两个频率特性之间的基音频率(对数值)的差。
也就是说,在根据时间上不同的分析帧中的两个频率特性而获得的互相关矩阵中,计算棱线相对于主对角线的偏移量,从而计算分析帧之间的对数基音频率的差(称为“相对基音差”),而不计算各个分析帧中的基音频率。该相对基音差是图8所示的相对基音差。
例如,作为时间上不同的分析帧中的两个频率特性,可以使用时间上相邻的相应两个分析帧中的频率特性。例如,当以预定的时间间隔来设置分析帧时,可以计算时间上相邻的各个分析帧之间的相对基音差。
声学分析单元52的相对基音变化量计算单元62计算定义用于计算上述相对基音差的两个频率特性之间的关系的互相关矩阵,并计算与以下偏移量相对应的值以作为相对基音差:连接该互相关矩阵的构成数据中的值的峰值位置的棱线相对于该互相关矩阵的主对角线的偏移量。
然后,在期望数量的分析帧中对相邻分析帧之间的相对基音差进行积分(integrate),以计算期望数量的分析帧中的相对基音变化量。作为在这种情况下决定期望数量的帧的方法,可以参考辨别单元53中的学习过程中的辨别准确度。
在上述示例中,使用时间上不同的分析帧中的两个频率特性来计算相对基音差,然而,还优选地是,允许用于计算相对基音差的两个频率特性中的(要被比较的)一个频率特性是固定的频率特性,并且允许另一频率特性是基于要输入的语音波形而产生的每个分析帧的频率特性,从而基于该固定的频率特性以及该要测量的分析帧的频率特性来计算相对基音差。
例如,作为固定的频率特性,可以使用预先准备并存储在语音分析设备的存储器中的模板型频率特性数据(称为“模板频率特性”)。
图11B示出了模板频率特性,分析帧的频率特性以及通过这两个频率特性而计算出的互相关矩阵(密度表示)的示例。为了进行比较,在图11A中示出了与参照图7和图8所说明的时间上不同的分析帧中的频率特性相关的互相关矩阵。
在图11B中示出了模板频率特性101、作为测量结果从一个分析帧获得的频率特性102、以及这两个频率特性101、102的互相关矩阵(密度表示)103。模板频率特性101是创建仿真频率特性的数据,其中与基本基音相关的谐波分量的大小线性地衰减,如图12所示,将特定基音频率 (300Hz)作为基本基音。例如,这种仿真数据可被应用为模板。
如图11B所示,可以通过使用根据模板频率特性101和分析帧的频率特性102而计算出的互相关矩阵103来计算相对基音差。
如上文所述,在根据具有不同基音频率的两个频率特性而获得的互相关矩阵(频率轴采用对数表示)中,连接两个频率特性之间的对应的各峰值的棱线112出现在该互相关矩阵中平行地从主对角线111偏移的对角线方向分量上。棱线112相对于主对角线111的偏差或偏移量将是两个频率特性之间的基音频率(对数值)的差,即相对基音差。
在图11B所示的示例的情况下,计算相对于绝对基准(在这种情况下是300Hz)的相对基音差,因此可以最终计算正常的基音频率。
如上所述执行声学分析单元52中的内部处理,并且提取相对基音差作为用于辨别的特征量。
此外,在计算上述相对基音差的方法中,存在如下情况:在该情况下,有时会如同一般的基音频率提取方法一样地发生诸如双基音或半基音之类的提取误差。
图13A和图13B示出了在获得相对基音差作为特征量的方法中的双基音提取误差的产生示例。图13A示出了与词的语音相对应的语音波形,图13B示出了与图13A所示的语音波形相对应的基音模式。每个图示中的横轴是时间轴,并且图13B的图示中的纵轴是基音频率[Hz]。
图13B的图示中示出的每个标记“0”示出了在每个分析帧测量的基音频率。一般地,基音频率在每个分析帧平滑地变化。因此,图13B所示的分离的数据121、122可能是由于双基音提取误差而产生的数据。
图14部分地示出了一个分析帧的频率特性的示例,其中发生了双基音提取误差。如从图14可以看出的,与原始基音频率相对应的谐波结构出现在该频率特性上,其中与两倍于原始基音频率的频率相对应的峰值分量132大于与原始基音频率相对应的峰值分量13l。当获得峰值分量132作为基音频率时,图13B所示的数据121、122出现,并且难以执行正确的分析。
图15是示出了图14所示的分析帧的频率特性与模板频率特性(在这种情况下作为基准的基音频率是100Hz)之间的互相关矩阵的视图。也就是说,示出了分析帧中的频率特性151、模板频率特性152、以及通过这两个频率特性而获得的互相关矩阵153,在该频率特性151中,如图14 所示,与两倍于原始基音频率的频率相对应的峰值分量132大于与原始基音频率相对应的峰值分量131。
在互相关矩阵153中示出了连接两个频率特性之间的对应的各峰值的棱线161。棱线161示出了与两倍于原始基音频率的频率相对应的位置,并且正确的棱线应当是接近于图15中的对角线163的第二棱线162的位置。
当通过应用示出了与两倍于原始基音频率的频率相对应的位置的棱线161、以上述方式计算了相对基音差时,可以计算该图示中所示的相对基音差171。然而,应当根据原始基音差来计算出的实际的相对基音差应当是作为该图示中所示的棱线162和对角线163之间的偏移量的相对基音差172。
如上文所述在分析帧的频率特性中n倍频率的峰值分量大于原始基音频率的峰值分量的情况下,根据互相关矩阵而计算出的相对基音差,即对棱线与主对角线之间的偏移量的确定有时是不正确的。
本发明致力于解决上述问题,并且在本发明的实施例中:
(a)根据分析帧的频率特性与模板频率特性之间的比较的第一相对基音差,
(b)根据时间上相邻的部分的频率特性之间的比较的第二相对基音差。
计算上述(a)和(b)的两个相对基音差,并且通过使用这两种相对基音差来确定地检测原始基音频率的峰值分量,从而获得正确的相对基音频率。
图16示出了特定分析帧的频率特性201(与频率特性151相同)、与该分析帧相关的先前分析帧的频率特性202、以及根据这两个频率特性而计算出的互相关矩阵203,其中该频率特性202例如是一帧之前的频率特性202。
在图16所示的互相关矩阵203中,通过连接与各频率特性的峰值相对应的点而形成的棱线将是图16所示的棱线211。图16所示的虚线212未被选择为棱线。当选择图16所示的棱线211并计算相对于对角线的偏移量时,可以计算正确的相对基音差。由此可以看出,通过在时间上相邻的部分中的频率特性之间的比较,在相对基音差中不会发生双基音提取误差。
当计算互相关矩阵时,在两个频率特性的相应包络的类似点中,帧的频率特性与相邻帧的频率特性之间的相似性高于该帧的频率特性与模板频率特性之间的相似性。
接下来,将参照图17所示的流程图来说明根据本发明的实施例的语音分析设备中的处理序列,即,双基音/半基音修正处理序列。图17所示的流程与图2所示的韵律辨别单元32中的声学分析单元52的处理相对应,其主要是在相对基音变化量计算单元62中的处理。
在语音分析设备的存储单元(存储器)中存储有模板频率特性数据。相对基音变化量计算单元62从存储单元(存储器)中获得模板频率特性数据,进一步地,以预先设置的分析时间间隔顺序地输入在频率特性分析单元61中产生的分析帧中的频率特性,以执行遵循图17所示的流程的处理。
首先,在步骤S101中,根据新输入的分析帧的频率特性和模板频率来计算第一互相关矩阵,并计算所计算出的互相关矩阵中的棱线与对角线之间的偏移量,从而将该量作为第一相对基音差(在下文中称为模板相对基音差)。例如,在图15所示的示例中,计算模板相对基音差以作为相对基音差171。
接下来,在步骤S102中,计算在步骤S101中计算出的当前分析帧的模板相对基音差与对应于一帧之前的分析帧的模板相对基音差之间的差。
接下来,在步骤S103中,判定这两个相对基音差之间的差的绝对值是否等于或小于预定阈值。当该值等于或小于该阈值时,该过程结束,并且在步骤S101中计算的模板相对基音差被确定为要应用于相对基音变化量计算处理的相对基音差。
在步骤S103中,当判定了在步骤S102中计算的两个相对基音差之间的差的绝对值不小于预定阈值时,该过程进行至步骤S104。
作为要在步骤S103中应用的阈值,例如,应用通过加上或减去与对应于一个八度音的对数值相关的特定容限值而计算出的值。例如,根据以下公式(公式4)来计算该阈值:
T=log(2)-δ(公式4)
注意:T:阈值
δ:容限值
在步骤S104中,根据当前分析帧的频率特性与一帧之前的分析帧的频率特性之间的互相关矩阵,计算第二相对基音差(在下文中称为相邻相对基音差)。该差对应于例如在图16的互相关矩阵203中检测到的棱线211与对角线(对应于图16中的棱线211)之间的偏移量。
接下来,在步骤S105中,判定在步骤S104中计算出的相邻相对基音差是否等于或小于上述公式4中示出的容限值(δ)。当该差等于或小于该容限值时,该过程进行至步骤S106。
当在步骤S104中计算出的相邻相对基音差不小于公式4中所示出的容限值(δ)时,该过程结束,并且在步骤S101中计算出的模板相对基音差被确定为要应用于相对基音变化量计算处理的相对基音差。
另一方面,在步骤S105中,当判定了在步骤S104中计算出的相邻相对基音差等于或小于公式4中所示出的容限值(δ)时,该过程进行至步骤S106。在这种情况下,在步骤S101中计算出的模板相对基音差被确定为作为误差的接近于双基音或半基音的相对基音差,并计算模板相对基音差,其中通过将步骤S101中计算出的模板相对基音差加上或减去与一个八度音相对应的对数值(在双基音时减去一个八度音值,在半基音时加上一个八度音值)来修正模板相对基音差,然后,该经修正的模板相对基音差被确定为要应用于相对基音变化量计算处理的相对基音差。
用于双/半基音的修正处理是在图2所示的韵律辨别单元32的相对基音变化量计算单元62中根据上述流程而执行的,并且确定与每个分析帧相对应的相对基音差,即,要应用于相对基音变化量计算处理的相对基音差。
如上文所述,在根据本发明的实施例的语音分析设备11中包括的韵律辨别单元32的声学分析单元52中,计算作为当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差的当前模板相对基音差,并且进一步地判定当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中该先前模板相对基音差是时间上在当前分析帧之前的先前帧的频率特性与模板频率特性之间的相对基音差。当该绝对值不小于该阈值时,计算作为当前分析帧的频率特性与先前帧的频率特性之间的相对基音差的相邻相对基音差,并且当该相邻相对基音差等于或小于预先设置的容限值时,执行将当前模板相对基音差加上或减去八 度音的修正处理,以将该值确定为当前分析帧的相对基音差,然后,通过应用所确定的相对基音差来计算相对基音变化量。
当先前模板相对基音差与当前模板相对基音差之间的差值绝对值等于或小于预定阈值时,或者当先前模板相对基音差与当前模板相对基音差之间的差值绝对值不小于预定阈值、并且相邻相对基音差不小于预先设置的容限值时,当前模板相对基音差被确定为当前分析帧的相对基音差。
根据通过遵循图17所示的流程的处理而确定的各个分析帧中的相对基音差,产生例如图18B所示的相对基音变化量数据。图18A和图18B示出了通过对语音数据(图18A,语音波形)应用遵循图17所示的流程的处理而产生的相对基音变化量数据(图18B,基音模式),其中该语音数据与先前参照图13A和图13B所说明的语音数据相同。
在图18B所示的基音模式中,前面说明的图13B所示的分离的数据121、122没有出现,并且通过增加遵循图17所示的流程的修正处理而消除了双基音提取误差。
因此,根据本发明的实施例的语音分析设备是基于输入语音的韵律特性来执行辨别的韵律辨别设备。在通过使用两个频率特性之间的相对基音变化量来执行辨别的韵律辨别设备中,通过与模板频率特性的比较来提取相对基音差,并且还通过与相邻帧的比较来提取相对基音差,从而通过考虑相邻帧之间的相对基音的连续性来消除双基音或半基音提取误差,结果,可以实现准确且稳定的、通过韵律辨别的语音识别。
参照图3A至图18B所说明的处理是图2所示的韵律辨别单元32中的处理,并且可以仅仅通过韵律辨别单元32中的处理来执行语音识别,但是,还优选地是,遵循前面说明的图1所示的配置而并行地执行现有语音识别单元33中的处理,并且通过选择性地应用经由韵律辨别单元32中的处理而获得的识别结果以及经由现有语音识别单元33中的处理而获得的识别结果,输出最终的识别结果。下面将参照图19所示的流程图来说明在执行这种处理时的处理序列。
图19的流程图是用于说明在图1所示的语音分析设备11中执行的语音识别处理序列的流程。下面将参照图1所示的语音分析设备的配置图来说明图19的流程的各步骤的处理。
首先,在步骤S201中,输入单元31接收语音信号的输入,并将其提供给韵律辨别单元32和语音识别单元33。接下来,在步骤S202中,语 音识别单元33识别所提供的语音信号,获得要提供给结果选择单元34的文本数据。
在步骤S203中,韵律辨别单元32执行参照图2至图18B所说明的韵律辨别处理。在步骤S204中,结果选择单元34接收来自韵律辨别单元32和语音识别单元33的识别结果的提供,判定来自语音识别单元33的识别结果是否对应于存储在特定词存储单元35中的特定词。
在步骤S204中,当该结果不对应于任何特定词时,结果选择单元34在步骤S205中将来自语音识别单元33的识别结果按原样输出至输出单元36以结束处理。
在步骤S204中,该结果对应于特定词,结果选择单元34在步骤S206中将添加有来自韵律辨别单元32的识别结果的、来自语音识别单元33的识别结果输出至输出单元36以结束处理。
此外,例如,韵律辨别单元32分析所提供的语音,并辨别语音的类型为包括“肯定”、“否定”、“疑问”以及“其它”的四种语音类型中的任一个,其中“其它”意味着该语音属于除了前三种语音类型之外的类型,并且当“其它”被提供为韵律辨别结果时,结果选择单元34仅输出来自语音识别单元33的语音识别结果,而当韵律辨别结果为“肯定”、“否定”以及“疑问”中的任一个时,结果选择单元34输出添加有来自语音识别单元33的语音识别结果的、来自韵律辨别单元32的韵律辨别结果。在步骤S204中,结果选择单元34接收来自韵律辨别单元32和语音识别单元33的识别结果的提供,判定该韵律辨别结果是否属于“其它”,而不确定来自语音识别单元33的识别结果是否与特定词相一致。在“其它”的情况下,执行S205的处理,而在除了“其它”之外的类型的情况下,执行步骤S206的处理。
因此,参照具体实施例详细地描述了本发明。然而,本领域的技术人员应当理解,在本发明的要旨的范围内,可以进行各种修改和替换。也就是说,以示例说明的形式公开了本发明,其不应当是限制性的。为了确定本发明的要旨,应当考虑权利要求部分。
可以通过硬件或软件或者二者的组合配置来执行本说明书中所说明的处理系列。在通过软件来执行处理时,可以通过将其中记录有处理序列的程序安装在并入到专用硬件中的计算机的存储器中,或者通过将该程序安装在可执行各种处理的通用计算机中,执行该程序。例如,该程序可以 被预先记录在记录介质中。除了从记录介质安装到计算机之外,可以通过诸如LAN(局域网)或因特网之类的网络来接收该程序,以及可以将该程序安装在诸如内部硬盘之类的记录介质中。
不仅可以根据本说明书中的描述按照时间顺序来执行本说明书中描述的各种处理,而且可以根据执行所述处理的设备的处理能力或者根据需要并行地或单独地执行本说明书中描述的各种处理。本说明书中的系统指的是多个设备的逻辑集合,并且具有各自配置的设备不一定位于同一壳体中。
如上文所述,根据本发明的一个实施例的配置,在基于输入语音的韵律特性而执行辨别的韵律辨别处理中,通过将与根据输入语音所产生的分析帧相对应的频率特性和模板频率特性进行比较,提取第一相对基音差,并且通过将该分析帧的频率特性与先前帧的频率特性进行比较,提取第二相对基音差,并且考虑到相邻帧之间的相对基音的连续性而基于这两个相对基音差来执行对相对基音差的修正处理。根据该配置,可以消除双基音或半基音提取误差,并且可以实现非常准确和鲁棒的韵律辨别。
Claims (18)
1.一种语音分析设备,其分析语音信息的韵律特性并输出韵律辨别结果,所述语音分析设备包括:
输入单元,其执行语音信息的输入;
声学分析单元,其分析各个分析帧的频率特性,并计算作为各个分析帧的频率特性的变化信息的相对基音变化量,其中所述各个分析帧是与从所述输入单元输入的语音信息相关的、按时间序列设置的分析帧;以及
辨别单元,其基于所述声学分析单元所产生的所述相对基音变化量来执行语音辨别处理,以及,
其中,所述声学分析单元计算当前模板相对基音差,其中所述当前模板相对基音差是当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差;所述声学分析单元判定所述当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中所述先前模板相对基音差是时间上在当前分析帧之前的先前帧的频率特性与所述模板频率特性之间的相对基音差;当所述值不小于所述阈值时,所述声学分析单元计算相邻相对基音差,其中所述相邻相对基音差是所述当前分析帧的频率特性与所述先前帧的频率特性之间的相对基音差;当所述相邻相对基音差等于或小于预先设置的容限值时,所述声学分析单元执行将当前模板相对基音差加上或减去八度音的修正处理,以通过应用修正的所述当前模板相对基音差作为所述当前分析帧的相对基音差来计算所述相对基音变化量。
2.根据权利要求1所述的语音分析设备,
其中所述声学分析单元通过以下方式来计算所述相对基音变化量:当所述先前模板相对基音差与所述当前模板相对基音差之间的差值绝对值等于或小于所述预定阈值时,应用所述当前模板相对基音差作为所述当前分析帧的相对基音差。
3.根据权利要求1所述的语音分析设备,
其中所述声学分析单元通过以下方式来计算所述相对基音变化量:当所述先前模板相对基音差与所述当前模板相对基音差之间的差值绝对值不小于所述预定阈值、并且所述相邻相对基音差不小于所述预先设置的容限值时,应用所述当前模板相对基音差作为所述当前分析帧的相对基音差。
4.根据权利要求1所述的语音分析设备,
其中所述声学分析单元计算定义了用于计算所述相对基音差的两个频率特性之间的关系的互相关矩阵,并计算与以下偏移量相对应的值作为所述相对基音差:连接所述互相关矩阵的组成数据的值的峰值位置的棱线相对于所述互相关矩阵的主对角线的偏移量。
5.根据权利要求1所述的语音分析设备,
其中所述声学分析单元产生频率特性信息,其中所述频率特性信息是在对数频率轴上表示的,并且当所述阈值为T且所述容限值为δ时,执行应用由以下公式定义的阈值和容限值的处理:
T=log(2)-δ。
6.根据权利要求1所述的语音分析设备,
其中所述辨别单元通过将与预先存储在存储单元中的韵律辨别单元词典相对应的参数和所述声学分析单元所产生的相对基音变化量数据进行比较,执行语音辨别处理。
7.根据权利要求6所述的语音分析设备,
其中所述辨别单元根据应用动态规划匹配、神经网络、隐马尔可夫模型中的任意一个的处理来执行语音辨别处理。
8.根据权利要求1-7中的任一项所述的语音分析设备,还包括:
语音识别单元,其输出与来自所述输入单元的输入语音数据相对应的文本信息作为语音识别结果;以及
结果选择单元,其通过应用所述辨别单元的辨别结果和所述语音识别单元的辨别结果来输出语音识别结果。
9.根据权利要求8所述的语音分析设备,
其中作为所述语音识别单元中的语音识别结果与存储在特定词存储单元中的特定词之间的比较结果,当所述语音识别结果对应于特定词时,所述结果选择单元输出添加有在所述辨别单元中辨别出的韵律辨别结果的所述语音识别结果,以及当所述语音识别结果不对应于特定词时,所述结果选择单元将所述语音识别结果按原样输出。
10.一种语音分析方法,其在语音分析设备中分析语音信息的韵律特性并输出韵律辨别结果,所述语音分析方法包括以下步骤:
通过输入单元来执行语音信息的输入;
通过声学分析单元,分析各个分析帧的频率特性,并计算作为各个分析帧的频率特性的变化信息的相对基音变化量,其中所述各个分析帧是与从所述输入单元输入的语音信息相关的、按时间序列设置的分析帧;以及
通过辨别单元基于所述声学分析单元所产生的所述相对基音变化量来执行语音辨别处理,以及,
其中,通过所述声学分析单元执行的步骤包括以下步骤:计算当前模板相对基音差,其中所述当前模板相对基音差是当前分析帧的频率特性与预先设置的模板频率特性之间的相对基音差;判定所述当前模板相对基音差与先前模板相对基音差之间的差值绝对值是否等于或小于预定阈值,其中所述先前模板相对基音差是时间上在所述当前分析帧之前的先前帧的频率特性与所述模板频率特性之间的相对基音差;当所述值不小于所述阈值时,计算相邻相对基音差,其中所述相邻相对基音差是所述当前分析帧的频率特性与所述先前帧的频率特性之间的相对基音差;当所述相邻相对基音差等于或小于预先设置的容限值时,执行将所述当前模板相对基音差加上或减去八度音的修正处理,以通过应用修正的所述当前模板相对基音差作为所述当前分析帧的相对基音差来计算所述相对基音变化量。
11.根据权利要求10所述的语音分析方法,
其中所述声学分析单元所执行的步骤是以下步骤:当所述先前模板相对基音差与所述当前模板相对基音差之间的差值绝对值等于或小于所述预定阈值时,通过应用所述当前模板相对基音差作为所述当前分析帧的相对基音差来计算所述相对基音变化量。
12.根据权利要求10所述的语音分析方法,
其中所述声学分析单元所执行的步骤是以下步骤:当所述先前模板相对基音差与所述当前模板相对基音差之间的差值绝对值不小于所述预定阈值、并且所述相邻相对基音差不小于所述预先设置的容限值时,通过应用所述当前模板相对基音差作为所述当前分析帧的相对基音差来计算所述相对基音变化量。
13.根据权利要求10所述的语音分析方法,
其中所述声学分析单元所执行的步骤包括以下步骤:计算定义了用于计算所述相对基音差的两个频率特性之间的关系的互相关矩阵,并计算与以下偏移量相对应的值作为所述相对基音差:连接所述互相关矩阵的构成数据的值的峰值位置的棱线相对于所述互相关矩阵的主对角线的偏移量。
14.根据权利要求10所述的语音分析方法,
其中所述声学分析单元所执行的步骤包括以下步骤:产生频率特性信息,其中,所述频率特性信息是在对数频率轴上表示的,并且当所述阈值为T且所述容限值为δ时,执行应用由以下公式定义的阈值和容限值的处理:
T=log(2)-δ。
15.根据权利要求10所述的语音分析方法,
其中所述辨别单元所执行的步骤是以下步骤:通过将与预先存储在存储单元中的韵律辨别单元词典相对应的参数和所述声学分析单元所产生的相对基音变化量数据进行比较,执行语音辨别处理。
16.根据权利要求15所述的语音分析方法,
其中所述辨别单元所执行的步骤是以下步骤:根据应用动态规划匹配、神经网络、隐马尔可夫模型中的任意一个的处理来执行语音辨别处理。
17.根据权利要求10-16中的任一项所述的语音分析方法,还包括以下步骤:
由语音识别单元输出与来自所述输入单元的输入语音数据相对应的文本信息,以作为语音识别结果;以及
由结果选择单元通过应用所述辨别单元的辨别结果和所述语音识别单元的辨别结果来输出所述语音识别结果。
18.根据权利要求17所述的语音分析方法,
其中所述结果选择单元所执行的步骤是以下步骤:作为所述语音识别单元中的语音识别结果与存储在特定词存储单元中的特定词之间的比较结果,当所述语音识别结果对应于特定词时,输出添加有在所述辨别单元中所辨别出的韵律辨别结果的所述语音识别结果,或者当所述语音识别结果不对应于特定词时,将所述语音识别结果按原样输出。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007-193931 | 2007-07-25 | ||
JP2007193931A JP4882899B2 (ja) | 2007-07-25 | 2007-07-25 | 音声解析装置、および音声解析方法、並びにコンピュータ・プログラム |
JP2007193931 | 2007-07-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101373593A CN101373593A (zh) | 2009-02-25 |
CN101373593B true CN101373593B (zh) | 2011-12-14 |
Family
ID=40296148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101350647A Expired - Fee Related CN101373593B (zh) | 2007-07-25 | 2008-07-25 | 语音分析设备和语音分析方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8165873B2 (zh) |
JP (1) | JP4882899B2 (zh) |
CN (1) | CN101373593B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4599420B2 (ja) * | 2008-02-29 | 2010-12-15 | 株式会社東芝 | 特徴量抽出装置 |
US8990094B2 (en) * | 2010-09-13 | 2015-03-24 | Qualcomm Incorporated | Coding and decoding a transient frame |
US20120143611A1 (en) * | 2010-12-07 | 2012-06-07 | Microsoft Corporation | Trajectory Tiling Approach for Text-to-Speech |
US9129605B2 (en) * | 2012-03-30 | 2015-09-08 | Src, Inc. | Automated voice and speech labeling |
CN102842307A (zh) * | 2012-08-17 | 2012-12-26 | 鸿富锦精密工业(深圳)有限公司 | 利用语音控制的电子装置及其语音控制方法 |
JP2016061970A (ja) * | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
US9548067B2 (en) | 2014-09-30 | 2017-01-17 | Knuedge Incorporated | Estimating pitch using symmetry characteristics |
US9396740B1 (en) * | 2014-09-30 | 2016-07-19 | Knuedge Incorporated | Systems and methods for estimating pitch in audio signals based on symmetry characteristics independent of harmonic amplitudes |
US9922668B2 (en) | 2015-02-06 | 2018-03-20 | Knuedge Incorporated | Estimating fractional chirp rate with multiple frequency representations |
US9870785B2 (en) | 2015-02-06 | 2018-01-16 | Knuedge Incorporated | Determining features of harmonic signals |
US9842611B2 (en) | 2015-02-06 | 2017-12-12 | Knuedge Incorporated | Estimating pitch using peak-to-peak distances |
CN106340295B (zh) * | 2015-07-06 | 2019-10-22 | 无锡天脉聚源传媒科技有限公司 | 一种语音识别结果的接受方法及装置 |
CN105866011B (zh) | 2016-03-31 | 2018-10-26 | 艾康生物技术(杭州)有限公司 | 脉冲基线值计算方法及血球分析仪的粒子计数方法 |
CN109903751B (zh) * | 2017-12-08 | 2023-07-07 | 阿里巴巴集团控股有限公司 | 关键词确认方法和装置 |
RU2711153C2 (ru) | 2018-05-23 | 2020-01-15 | Общество С Ограниченной Ответственностью "Яндекс" | Способы и электронные устройства для определения намерения, связанного с произнесенным высказыванием пользователя |
CN111145778B (zh) * | 2019-11-28 | 2023-04-04 | 科大讯飞股份有限公司 | 音频数据的处理方法、装置、电子设备及计算机存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0764937A2 (en) * | 1995-09-25 | 1997-03-26 | Nippon Telegraph And Telephone Corporation | Method for speech detection in a high-noise environment |
US5704000A (en) * | 1994-11-10 | 1997-12-30 | Hughes Electronics | Robust pitch estimation method and device for telephone speech |
EP0767950B1 (en) * | 1994-06-29 | 2000-10-25 | Telia Ab | Method and device for adapting a speech recognition equipment for dialectal variations in a language |
CN1310839A (zh) * | 1999-05-21 | 2001-08-29 | 松下电器产业株式会社 | 语音识别用的输入语音音程标准化装置 |
CN1729508A (zh) * | 2002-12-27 | 2006-02-01 | 国际商业机器公司 | 跟踪音调信号的方法 |
KR100538985B1 (ko) * | 1996-09-27 | 2006-03-23 | 소니 가부시끼 가이샤 | 음성부호화방법및장치와피치검출방법및장치 |
CN1848240A (zh) * | 2005-04-12 | 2006-10-18 | 佳能株式会社 | 基于离散对数傅立叶变换的基音检测方法、设备和介质 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3603738A (en) * | 1969-07-07 | 1971-09-07 | Philco Ford Corp | Time-domain pitch detector and circuits for extracting a signal representative of pitch-pulse spacing regularity in a speech wave |
US3978287A (en) * | 1974-12-11 | 1976-08-31 | Nasa | Real time analysis of voiced sounds |
US4477925A (en) * | 1981-12-11 | 1984-10-16 | Ncr Corporation | Clipped speech-linear predictive coding speech processor |
JPS58140798A (ja) * | 1982-02-15 | 1983-08-20 | 株式会社日立製作所 | 音声ピツチ抽出方法 |
CA1219079A (en) * | 1983-06-27 | 1987-03-10 | Tetsu Taguchi | Multi-pulse type vocoder |
JPH0754440B2 (ja) * | 1986-06-09 | 1995-06-07 | 日本電気株式会社 | 音声分析合成装置 |
US4860360A (en) * | 1987-04-06 | 1989-08-22 | Gte Laboratories Incorporated | Method of evaluating speech |
US4809334A (en) * | 1987-07-09 | 1989-02-28 | Communications Satellite Corporation | Method for detection and correction of errors in speech pitch period estimates |
JPS6432300A (en) * | 1987-07-28 | 1989-02-02 | Nec Corp | Pitch cycle extraction system and apparatus |
IL84902A (en) * | 1987-12-21 | 1991-12-15 | D S P Group Israel Ltd | Digital autocorrelation system for detecting speech in noisy audio signal |
JPH0466999A (ja) * | 1990-07-04 | 1992-03-03 | Sharp Corp | 文節境界検出装置 |
JP2940835B2 (ja) * | 1991-03-18 | 1999-08-25 | 日本電信電話株式会社 | ピッチ周波数差分特徴量抽出法 |
US5233660A (en) * | 1991-09-10 | 1993-08-03 | At&T Bell Laboratories | Method and apparatus for low-delay celp speech coding and decoding |
JP3450411B2 (ja) * | 1994-03-22 | 2003-09-22 | キヤノン株式会社 | 音声情報処理方法及び装置 |
US5787387A (en) * | 1994-07-11 | 1998-07-28 | Voxware, Inc. | Harmonic adaptive speech coding method and system |
US5699477A (en) * | 1994-11-09 | 1997-12-16 | Texas Instruments Incorporated | Mixed excitation linear prediction with fractional pitch |
US5751905A (en) * | 1995-03-15 | 1998-05-12 | International Business Machines Corporation | Statistical acoustic processing method and apparatus for speech recognition using a toned phoneme system |
CN1155942C (zh) * | 1995-05-10 | 2004-06-30 | 皇家菲利浦电子有限公司 | 具有改进的音调检测的编码语音传输系统和方法 |
US5799276A (en) * | 1995-11-07 | 1998-08-25 | Accent Incorporated | Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals |
US5864795A (en) * | 1996-02-20 | 1999-01-26 | Advanced Micro Devices, Inc. | System and method for error correction in a correlation-based pitch estimator |
WO1998006091A1 (fr) * | 1996-08-02 | 1998-02-12 | Matsushita Electric Industrial Co., Ltd. | Codec vocal, support sur lequel est enregistre un programme codec vocal, et appareil mobile de telecommunications |
JP3006677B2 (ja) * | 1996-10-28 | 2000-02-07 | 日本電気株式会社 | 音声認識装置 |
US5970441A (en) * | 1997-08-25 | 1999-10-19 | Telefonaktiebolaget Lm Ericsson | Detection of periodicity information from an audio signal |
DE69836785T2 (de) * | 1997-10-03 | 2007-04-26 | Matsushita Electric Industrial Co., Ltd., Kadoma | Audiosignalkompression, Sprachsignalkompression und Spracherkennung |
US6219635B1 (en) * | 1997-11-25 | 2001-04-17 | Douglas L. Coulter | Instantaneous detection of human speech pitch pulses |
US7072832B1 (en) * | 1998-08-24 | 2006-07-04 | Mindspeed Technologies, Inc. | System for speech encoding having an adaptive encoding arrangement |
EP1045372A3 (en) * | 1999-04-16 | 2001-08-29 | Matsushita Electric Industrial Co., Ltd. | Speech sound communication system |
US6199036B1 (en) * | 1999-08-25 | 2001-03-06 | Nortel Networks Limited | Tone detection using pitch period |
WO2001078061A1 (en) * | 2000-04-06 | 2001-10-18 | Telefonaktiebolaget Lm Ericsson (Publ) | Pitch estimation in a speech signal |
AU2001258298A1 (en) * | 2000-04-06 | 2001-10-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Pitch estimation in speech signal |
AU2001273904A1 (en) * | 2000-04-06 | 2001-10-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Estimating the pitch of a speech signal using a binary signal |
JP2002149200A (ja) * | 2000-08-31 | 2002-05-24 | Matsushita Electric Ind Co Ltd | 音声処理装置及び音声処理方法 |
AU2001270365A1 (en) * | 2001-06-11 | 2002-12-23 | Ivl Technologies Ltd. | Pitch candidate selection method for multi-channel pitch detectors |
KR100347188B1 (en) * | 2001-08-08 | 2002-08-03 | Amusetec | Method and apparatus for judging pitch according to frequency analysis |
US20030163304A1 (en) * | 2002-02-28 | 2003-08-28 | Fisseha Mekuria | Error concealment for voice transmission system |
JP2003295880A (ja) * | 2002-03-28 | 2003-10-15 | Fujitsu Ltd | 録音音声と合成音声を接続する音声合成システム |
KR100463417B1 (ko) * | 2002-10-10 | 2004-12-23 | 한국전자통신연구원 | 상관함수의 최대값과 그의 후보값의 비를 이용한 피치검출 방법 및 그 장치 |
US7284004B2 (en) * | 2002-10-15 | 2007-10-16 | Fuji Xerox Co., Ltd. | Summarization of digital files |
US7272551B2 (en) * | 2003-02-24 | 2007-09-18 | International Business Machines Corporation | Computational effectiveness enhancement of frequency domain pitch estimators |
US20050086052A1 (en) * | 2003-10-16 | 2005-04-21 | Hsuan-Huei Shih | Humming transcription system and methodology |
US20050091044A1 (en) * | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for pitch contour quantization in audio coding |
US8150683B2 (en) * | 2003-11-04 | 2012-04-03 | Stmicroelectronics Asia Pacific Pte., Ltd. | Apparatus, method, and computer program for comparing audio signals |
EP1605439B1 (en) * | 2004-06-04 | 2007-06-27 | Honda Research Institute Europe GmbH | Unified treatment of resolved and unresolved harmonics |
JP2006084664A (ja) * | 2004-09-15 | 2006-03-30 | Denso Corp | 音声認識装置および音声認識プログラム |
US7788091B2 (en) * | 2004-09-22 | 2010-08-31 | Texas Instruments Incorporated | Methods, devices and systems for improved pitch enhancement and autocorrelation in voice codecs |
JP2006161370A (ja) | 2004-12-06 | 2006-06-22 | Panahome Corp | 外壁構造 |
EP1686561B1 (en) * | 2005-01-28 | 2012-01-04 | Honda Research Institute Europe GmbH | Determination of a common fundamental frequency of harmonic signals |
JP2006325780A (ja) | 2005-05-25 | 2006-12-07 | Pentax Corp | 超音波内視鏡の先端部 |
ATE475170T1 (de) * | 2006-03-20 | 2010-08-15 | Mindspeed Tech Inc | Tonhöhen-track-glättung in offener schleife |
US20080120094A1 (en) * | 2006-11-17 | 2008-05-22 | Nokia Corporation | Seamless automatic speech recognition transfer |
EP1973101B1 (en) * | 2007-03-23 | 2010-02-24 | Honda Research Institute Europe GmbH | Pitch extraction with inhibition of harmonics and sub-harmonics of the fundamental frequency |
US7674970B2 (en) * | 2007-05-17 | 2010-03-09 | Brian Siu-Fung Ma | Multifunctional digital music display device |
CN102227770A (zh) * | 2009-07-06 | 2011-10-26 | 松下电器产业株式会社 | 音质变换装置、音高变换装置及音质变换方法 |
-
2007
- 2007-07-25 JP JP2007193931A patent/JP4882899B2/ja not_active Expired - Fee Related
-
2008
- 2008-07-21 US US12/176,739 patent/US8165873B2/en not_active Expired - Fee Related
- 2008-07-25 CN CN2008101350647A patent/CN101373593B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0767950B1 (en) * | 1994-06-29 | 2000-10-25 | Telia Ab | Method and device for adapting a speech recognition equipment for dialectal variations in a language |
US5704000A (en) * | 1994-11-10 | 1997-12-30 | Hughes Electronics | Robust pitch estimation method and device for telephone speech |
EP0764937A2 (en) * | 1995-09-25 | 1997-03-26 | Nippon Telegraph And Telephone Corporation | Method for speech detection in a high-noise environment |
KR100538985B1 (ko) * | 1996-09-27 | 2006-03-23 | 소니 가부시끼 가이샤 | 음성부호화방법및장치와피치검출방법및장치 |
CN1310839A (zh) * | 1999-05-21 | 2001-08-29 | 松下电器产业株式会社 | 语音识别用的输入语音音程标准化装置 |
CN1729508A (zh) * | 2002-12-27 | 2006-02-01 | 国际商业机器公司 | 跟踪音调信号的方法 |
CN1848240A (zh) * | 2005-04-12 | 2006-10-18 | 佳能株式会社 | 基于离散对数傅立叶变换的基音检测方法、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US20090030690A1 (en) | 2009-01-29 |
CN101373593A (zh) | 2009-02-25 |
JP4882899B2 (ja) | 2012-02-22 |
JP2009031452A (ja) | 2009-02-12 |
US8165873B2 (en) | 2012-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101373593B (zh) | 语音分析设备和语音分析方法 | |
CN109065031B (zh) | 语音标注方法、装置及设备 | |
CN101192405B (zh) | 语音处理设备和语音处理方法 | |
CN108847215B (zh) | 基于用户音色进行语音合成的方法及装置 | |
CN104143324B (zh) | 一种乐音音符识别方法 | |
CN109920449B (zh) | 节拍分析方法、音频处理方法及装置、设备、介质 | |
CN104272382A (zh) | 基于模板的个性化歌唱合成的方法和系统 | |
CN102664016A (zh) | 唱歌评测方法及系统 | |
CN105825852A (zh) | 一种英语口语朗读考试评分方法 | |
CN104992712B (zh) | 能识别音乐自动成谱的方法 | |
CN105427708A (zh) | 一种声乐发音训练系统 | |
CN110599987A (zh) | 基于卷积神经网络的钢琴音符识别算法 | |
CN109979488A (zh) | 基于重音分析的人声转乐谱系统 | |
CN103366759A (zh) | 语音数据的测评方法和装置 | |
CN102592589B (zh) | 一种动态归一化数字特征的语音评分方法与装置 | |
CN106935236A (zh) | 一种钢琴演奏评估方法及系统 | |
CN103413559A (zh) | 音频识别及纠正系统 | |
CN104252872A (zh) | 歌词生成方法和智能终端 | |
Hellmer et al. | Quantifying microtiming patterning and variability in drum kit recordings: A method and some data | |
CN101968958A (zh) | 一种音频数据的比较方法和装置 | |
CN118155591A (zh) | 一种具有引导和评估功能的智能钢琴教学方法及系统 | |
CN111785236A (zh) | 一种基于动机提取模型与神经网络的自动作曲方法 | |
CN202758611U (zh) | 语音数据的测评装置 | |
Saratxaga et al. | Use of harmonic phase information for polarity detection in speech signals. | |
CN103531220B (zh) | 歌词校正方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111214 Termination date: 20130725 |