JP2007316330A - 韻律識別装置及び方法、並びに音声認識装置及び方法 - Google Patents

韻律識別装置及び方法、並びに音声認識装置及び方法 Download PDF

Info

Publication number
JP2007316330A
JP2007316330A JP2006145729A JP2006145729A JP2007316330A JP 2007316330 A JP2007316330 A JP 2007316330A JP 2006145729 A JP2006145729 A JP 2006145729A JP 2006145729 A JP2006145729 A JP 2006145729A JP 2007316330 A JP2007316330 A JP 2007316330A
Authority
JP
Japan
Prior art keywords
identification
input
speech
speech recognition
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006145729A
Other languages
English (en)
Other versions
JP4353202B2 (ja
Inventor
Keiichi Yamada
敬一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006145729A priority Critical patent/JP4353202B2/ja
Priority to US11/805,371 priority patent/US7908142B2/en
Publication of JP2007316330A publication Critical patent/JP2007316330A/ja
Application granted granted Critical
Publication of JP4353202B2 publication Critical patent/JP4353202B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1807Speech classification or search using natural language modelling using prosody or stress

Abstract

【課題】 ノイズ等の影響が大きい場合や、ささやき声やピッチ性が低い音声においても、ピッチ周波数の検出が有効に行え、入力音声の韻律的特徴に基づいて信頼性の高い音声認識を可能とする。
【解決手段】 入力部11からの入力音声を音響分析部12に送り、認識に必要な特徴量を抽出して識別部13に送る。識別部13では、パラメータ記憶部14のパラメータを用いて未知音声データに対する認識処理を行う。音響分析部12では、周波数特性分析部21にて入力音声から周波数特性への変換処理を行い、得られた周波数特性を特徴量分布移動変化量計算部22に送って、周波数特性の自己相関行列から得られる特徴量分布の移動変化量を求め、識別部13に出力する。
【選択図】 図1

Description

本発明は、韻律識別装置及び方法、並びに音声認識装置及び方法に関し、特に、入力音声の韻律的特徴に基づいて識別を行う韻律識別装置及び方法、並びに韻律識別を含む音声認識を行う音声認識装置及び方法に関する。
近年において、音声認識技術が広く利用されてきている。従来の音声認識技術は、基本的に、音声に含まれる情報の内、音韻に関する情報(以下「音韻情報」という。)を認識する技術であり、一般的な音声認識技術では、音声に含まれる音韻以外の情報である韻律に関する情報(以下「韻律情報」という。)については、積極的に利用されているとはあまり言えない。
ここで、韻律情報を利用する従来技術が全くないわけではなく、例えば特許文献1のように、文節境界位置をより適切に決定するために、韻律情報を利用している技術等が知られている。しかしながら、上記特許文献1に記載された従来技術においても、音声認識技術の精度向上のために韻律情報を補助的に利用しているものであり、韻律情報が有するより多様な情報を明に識別するものではない。
特開平04−66999号公報
ところで、人間の発話音声には、音韻情報のみでは識別が困難な場合がある。例えば、日本語の場合、肯定的な意図を表す発話である「うん」と否定的な意図を表す発話である「ううん」では、音韻情報的にはほとんど同じ発話である。このような場合に、音声に含まれる音韻情報のみでは、上記肯定的な意図と否定的な意図とを識別することは困難であり、いわゆる韻律情報、例えば「イントネーションのパターン」や「音韻継続時間」等の情報に基づいて識別を行う必要がある。
音声信号処理においてイントネーションに関する処理を取り扱う場合には、ピッチ周波数(あるいはピッチ周期)の検出が広く利用されている。しかし、ピッチ周波数の検出では、ノイズ等の影響によりエラーが発生しやすいといった問題がある。また、ささやき声やピッチ性が低い音声においても、ピッチ周波数検出のエラーが発生しやすい。このようなピッチ周波数の検出エラーが発生しやすい状況において、あるいは検出エラーが発生しやすい対象に対しては、韻律情報に基づく識別は困難であると言える。
本発明は、このような従来の実情に鑑みて提案されたものであり、ノイズ等の影響が大きい場合や、ささやき声やピッチ性が低い音声においても、ピッチ周波数の検出が有効に行え、入力音声の韻律的特徴に基づいて信頼性の高い音声認識が行えるような韻律識別装置及び方法、並びに音声認識装置及び方法を提供することを目的とする。
本発明は、ピッチ周波数の検出を行うことなしに、入力音声の周波数特性から得られる特徴量分布の移動変化量によって識別を行う。また、前記特徴量分布として、周波数特性の自己相関行列における対角方向の所望の成分を用いる。
すなわち、上述の課題を解決するために、本発明は、入力音声の韻律的特徴に基づいて識別を行う際に、入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量によって識別をなうことを特徴とする。
ここで、上記特徴量分布の移動変化量として、特徴量分布の重心の時間差分を利用することが挙げられ、上記特徴量分布として、入力音声信号の周波数特性の自己相関行列における対角方向の所望の成分を用いることが好ましい。
また、上述の課題を解決するために、本発明は、音声信号を入力し、入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量に基づいて韻律識別を行い、入力音声を音響分析して得られる特徴量に基づいて音声認識を行い、韻律識別出力と音声認識出力とを選択・統合して出力することを特徴とする。
本発明によれば、入力音声の韻律的特徴に基づいて識別を行う際に、入力音声の周波数特性から得られる特徴量分布の移動変化量によって識別を行うことにより、従来ではピッチ周波数の抽出が困難な、ノイズ等の影響が大きい場合や、ささやき声やピッチ性が低い音声の場合等においても、ロバストな識別が可能となる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
まず、システム構成及び全体の処理の流れについて説明し、次に、音響分析部の内部処理についてより詳細に説明する。その後、本発明の実施の形態の韻律識別装置を一般的な音声認識装置と並列に使用する場合について説明する。
<音声認識>
図1は、本発明の実施の形態に用いられる韻律識別装置のシステム構成の一例を概略的に示すブロック図であり、基本的に一般の音声認識装置とほぼ同様の構成となっている。この図1に示す韻律識別装置は、入力部11、音響分析部12、識別部13、及び出力部15を有して構成されている。
入力部11は、マイクなどの音声信号を入力する装置とその入力信号を増幅するアンプ、およびデジタル信号に変換するAD変換器などによって構成される。この入力部11では、入力信号を例えば16kHzでサンプリングした後、音響分析部12へ送る。
音響分析部12では、入力された音声信号から認識に必要な特徴量の抽出を行い、これを識別部13に送る。本実施の形態における音響分析部12の内部処理については、後述する。
識別部13では、予め学習用の音声データを音響分析して得られる特徴量をもとに作成しておいたパラメータ記憶部14のパラメータを用いて、未知音声データに対する認識処理を行う。
ここで、未知音声データに対する認識処理とは、入力された音声信号に対して、与えられた韻律識別単位辞書の中から、入力に対応した韻律識別単位を選び出す処理のことである。この認識手法としては、主なものとして、DP(Dynamic Programming)マッチング、ニューラルネットワーク、HMM(隠れマルコフモデル)などを用いたものが使われる。
DPマッチングは、各音声信号を分析して得られる特徴量からテンプレートと呼ばれる標準パターンを予めパラメータとして求めておき、未知音声の特徴量と比較して最も近いと判定されるものを見つけるという方式である。発話速度の変動を吸収するため、ダイナミックタイムワーピング(dynamic time warping)と呼ばれる手法により、テンプレートとの歪みを最小化するように時間軸の伸縮を行う方法がよく用いられる。
ニューラルネットワークは、人間の脳の構造を模倣するネットワークモデルによって認識を行おうとするもので、学習過程により予めパスの重み係数をパラメータとして決定しておき、そのネットワークに未知音声の特徴量を入力して得られる出力をもとに、韻律識別単位辞書内の各韻律識別単位との距離を求め、入力された音声信号に対応する韻律識別単位を決定しようとするものである。
また、HMMは、確率モデルにより認識を行おうとするものであり、予め状態遷移モデルに対して、その遷移確率と出力シンボル確率を学習データをもとに決定しておき、未知音声の特徴量に対する各モデルの生起確率から韻律識別単位の決定を行おうとする方式である。
以上述べたように、識別部13における認識処理としては、一般に、学習過程と認識過程とを有しており、学習過程としては、予め学習用データから決定されたパラメータ、すなわちテンプレートや、ネットワークモデルの重み係数、確率モデルの統計的パラメータなどを求めておき、これをパラメータ記憶部14に記憶しておく。そして、認識過程では、入力された未知音声信号を音響分析した後、与えられた韻律識別単位辞書の中の韻律識別単位それぞれに対して、その認識手法に応じた距離や生起確率などのスコア付けを行い、そのスコアが最も高いもの、あるいは上位複数個、を認識結果として選び出すということを行う。
このような識別部13にて得られた認識結果を、出力部15に送る。
出力部15では、送信されてきた認識結果を画面に表示したり、音として出力したり、さらには、その認識結果を用いて、他の装置を動作させたりなどの指令を行う。
ところで、従来のピッチ周波数の検出においては、発声における声帯振動の一周期であるピッチ周期の時間長(あるいはそのピッチ周期の逆数で表されるピッチ周波数)を、一意に決定することを前提としている。このピッチ周波数を一意に決定する処理は、発話音声に対応した周波数特性の分布において、最も低域に存在するピーク成分の中心周波数を求めることを意味する。例えば、図2の(A)に示すような通常音声の周波数特性の場合には、周波数fpがピッチ周波数に相当する。
しかしながら、発話音声がノイズに混在している場合や、ささやき声のようなピッチ性の低い発話音声の場合では、上述したような従来のピッチ周波数の決定処理は困難なものとなる。例えば、図2の(B)に示すようなささやき声の周波数特性の場合には、最も低域に存在するピーク成分の中心周波数を検出することが困難である。これは、ピッチ周波数を決定することが周波数特性のピーク性に依存した処理だからとも言える。
これに対して本発明の実施の形態の韻律識別装置では、このようなピッチ周波数の検出が困難な場合においても、特徴量分布の移動変化量を用いることで、適切なピッチ周波数を一意に決定するという周波数特性のピーク性に依存した処理を回避することができ、イントネーションの変化をよりロバストに捉えることができる。
また、従来のピッチ周波数検出では、発話音声に対応した周波数特性を1つの特徴量分布として捉え、その1つの分布から所望の特徴量(ピッチ周波数)を抽出していることとなるが、本発明の実施の形態では、自己相関行列における対角方向の所望の成分を用いることで、1つの周波数特性の移動変化を複数の特徴量分布から多角的に捉えることが可能となり、発話音声におけるイントネーションの変化をより適切に捉えることができる。
このような本発明の実施の形態の特有の処理は、主として上記図1の音響分析部12において行われるものであり、以下、この音響分析部12の具体的な構成及び作用について詳細に説明する。
<音響分析部の内部処理>
本発明の実施の形態の音響分析部12は、図1に示すように、周波数特性分析部21と特徴量分布移動変化量計算部22の2つを有して成る。
周波数特性分析部21では、入力された音声信号から、その周波数特性への変換処理を行う。この周波数特性分析部21における具体的な処理の流れを、図3のフローチャートに沿って説明する。
まず、図3のステップS31において、入力された音声信号を、FFT分析等の時間周波数変換処理によって周波数領域への変換を行い、一般的な周波数特性を得る。この周波数特性の一例を、図4の(A)に示す。
次に、図3のステップS32に進んで、この一般的な周波数特性における周波数軸を対数化することにより、対数周波数軸上での周波数特性に変換する。この対数周波数軸上での周波数特性の一例を図4の(B)に示す。
次に、図3のステップS33に進み、対数周波数軸上での周波数特性において、所望の周波数領域部分のみを取り出し、この結果を周波数特性分析部の結果として出力する。図4の(C)には、上記図4の(B)の周波数特性の内の所望の周波数領域Rwの部分のみを取り出した周波数特性を例示している。
以上説明した周波数特性分析部21における分析の結果としての図4の(C)に示すような周波数特性は、特徴量分布移動変化量計算部22に送られる。
次に、特徴量分布移動変化量計算部22における具体的な処理の流れを、図5のフローチャートに沿って説明する。
特徴量分布移動変化量計算部22では、最初にステップS41で、送られてきた周波数特性を用いて、周波数特性の自己相関行列を計算する。
ここで、上述した周波数特性分析部21から送られてきた周波数特性を、列ベクトルVで表し、その列ベクトルの次数をNとする。この列ベクトルVは、次の式(1)のように表され、この時、自己相関行列Mは、式(2)のように、ベクトルVとVの転置ベクトルV’との積で表される行列である。
Figure 2007316330
Figure 2007316330
上記式(2)で表される自己相関行列Mを、図6に示す。
この自己相関行列Mにおいて下三角行列L(図7の左下側の三角部分)を考えた場合に、下三角行列Lの対角方向のi次の成分(1≦i≦N)は、ベクトルVにおける(i−1+j)次の係数(1≦j≦(N−(i−1)))とj次の係数の積からなるベクトルとなる。
上記下三角行列Lの対角方向のi次の成分を、ベクトルDiで表すと、
Figure 2007316330
で表す式(3)のようになる。
ベクトルVは対数周波数軸上の周波数特性であるので、前記ベクトルDiは、(周波数特性における周波数領域内の)任意の周波数と、その周波数に対して等比な周波数(対数軸上で(i−1)次隣りの周波数)との関係を表していることになる。下三角行列Lにおける対角方向の1次の成分であるベクトルD1、すなわち主対角成分は、周波数特性の振幅の二乗からなるベクトル(パワースペクトル)となる。
周波数特性の自己相関行列Mを計算した後、図5の次のステップS42に進み、自己相関行列Mの下三角行列Lにおいて、対角方向の所望の成分ベクトルDi(i:1以上N以下の任意の数)を取り出し、これらの各ベクトルを識別のための特徴量分布とする。
この特徴量分布の全体を、ベクトルDiの集合Dとして表すとすると、その集合Dは、次の式(4)のようになる。
Figure 2007316330
この特徴量分布の全体、すなわち対角方向の所望の成分ベクトルDiの集合を、図7に模式的に示す。この図7において、対角方向の斜実線(右下がりの実線)a〜d等が、所望の成分ベクトルDiを表している。
このような特徴量分布の一例を、図8及び図9に示す。図8では、対角方向の所望の成分ベクトルの次数として、周波数比が2倍、3倍、4倍となる3つの次数に対応するベクトルa〜cを選んでいる。すなわち、対数周波数軸上においてi次の次数に対応する対数周波数がそれぞれlog(2),log(3),log(4)となる次数である。これらの各成分ベクトルa〜cの特徴量分布を図9の(A)〜(C)に示しており、図9の(A),(B),(C)は、それぞれ対数周波数比が2,3,4の成分ベクトルの特徴量分布を示す。
上記対角方向の所望の成分ベクトルDi における次数iの決定方法としては、上記識別部における学習過程における識別精度を基準とすることができる。つまり、前期識別部における学習過程において、良好な識別精度を得ることができる次数(の組合せ)をもって、所望の成分ベクトルを構成するように次数iを設定することが可能である。
続いて、図5のステップS43に進み、各特徴量分布において、時間に沿った特徴量分布の移動変化量を計算する。
特徴量分布の移動変化量の計算の例としては、まず特徴量分布の重心を計算した上で、処理フレーム間における時間差分を計算する、といった方法が可能である。各特徴量分布の重心位置に対応する次数ci は、次の式(5)によって求められる。
Figure 2007316330
図9の(A),(B),(C)においては、上記特徴量分布の一例における、各特徴量分布の重心位置に対応する次数を、図中の矢印Ca,Cb,Ccにそれぞれ示している。
次に、上記式(5)によって求められた各特徴量分布の重心位置に対応する次数を用いて、処理フレーム間におけるその時間差分を計算する。この時間差分の計算には、一般的な音声認識技術で用いられている、音響パラメータの差分計算方法を利用することができる。この時間差分の計算式の具体例を、次の式(6)、(7)に示す。
Figure 2007316330
Figure 2007316330
これらの式(6)、(7)において、Θは時間差分計算のためのフレーム数(窓幅)を表す。このような式(6)あるいは式(7)により計算された時間差分をパラメータとして図1の識別部13に送り、上述したような音声認識処理を行う。
次に、図10、図11を参照しながら、各特徴量分布の重心位置次数の経時変化と、上記重心位置次数の時間差分の経時変化の具体例について説明する。これらの図10、図11に示す具体例では、領域Raが肯定を表す「うん」を発声した部分、領域Rnが否定を表す「ううん」を発声した部分、領域Rqが疑問を表す「うん?」を発声した部分にそれぞれ対応している。
先ず図10の例では、肯定を表す「うん」(領域Ra)、否定を表す「ううん」(領域Rn)及び疑問を表す「うん?」(領域Rq)の3種類の発話を、通常に発声した場合の音声(ピッチを有する音声)を入力して、各種パラメータを求めている。
図10の(B)は発話音声全体の音声波形データを表し、図10の(A)は、(B)の一部分の波形データを時間軸上拡大して表示している。この(A)から、図10における入力音声が周期性のある音声であることが分かる。
図10の(C)は、(B)に対応したスペクトログラムを表しており、この(C)からも、入力音声がピッチ性を有していることが分かる。
図10の(D)〜(F)は、上記各特徴量分布の重心位置に対応した次数の経時変化を表している。これらの(D),(E),(F)は、周波数比がそれぞれ2倍、3倍、4倍となる成分ベクトルに対応している。
図10の(G),(H),(I)は、図10の(D),(E),(F)から求められた重心位置次数の時間差分の経時変化を表している。上記図1の識別部13に供給される最終的な識別用パラメータは、図10の(G),(H),(I)となる。
図10の(G),(H),(I)においては、グラフの縦軸中央は原点0を表しており、この0を境として、重心位置次数の時間変化が正の値をとる部分は声の高さ(この入力音声の場合では声のピッチ)が上昇していることを表し、逆に負の値をとる部分では声の高さが下降していることを表す。図10の(G),(H),(I)に示すように、肯定、否定、疑問の3種類の発声において、声の高さの上昇及び下降の現れ方が異なっている。
すなわち、図10の(G),(H),(I)において、肯定の意図を表す「うん」の場合(領域Ra)では、主として下降部分Radが現れ、否定の意図を表す「ううん」の場合(領域Rn)では、先に下降部分Rndが現れた後に上昇部分Rnuが現れ、疑問の意図を表す「うん?」の場合(領域Rq)では、主として上昇部分Rquが現れており、これらの間の声の高さの上昇及び下降の現れ方が互いに異なっていることが分かる。このようにして、肯定、否定、疑問の3種類の意図を表す「うん」の発声の違いを識別することができる。
なお、図10の(G),(H),(I)においては、上記重心位置次数の時間差分の経時変化が概ね同様の傾向となっているが、その上昇あるいは下降の程度は、対数周波数比の違いによりそれぞれ異なっている。
ところで、従来のピッチ周波数の検出においては、上記重心位置次数の時間差分と同様の意味を持つピッチ周波数の時間差分は、一つのパラメータとしてしかその経時変化を求めることができない。しかし、本発明の実施の形態に示した重心位置次数の時間差分においては、所望の複数の成分ベクトルを用いることにより、より多面的に特徴的な変化を捉えることが可能となり、従来のピッチ周波数の検出のみでは困難であった発声においても、声の高さの上昇及び下降の変化をより的確に捉えることが可能となる。
次に、図11は、ささやき声を入力とした場合の、図10と同様にして得られる計算結果を図示している。この図11の(A)〜(I)は、上述した図10の(A)〜(I)の各グラフにそれぞれ対応するものである。
上記図10における入力音声は通常の発声であり、音声部分においては有声音としての声帯振動の周期性を有しているが、図11におけるささやき声のような入力音声の場合には、(A)や(C)からも明らかなようにピッチ性が認められず、基本的にはピッチ周波数の検出が非常に困難な場合に相当する。
しかしながら、図11の(G),(H),(I)に示されているように、本発明の実施の形態の手法を用いることによって、このささやき声のような入力音声においても声の高さの上昇及び下降の変化を良好に捉えることができている。
すなわち、図11の(G),(H),(I)の場合も、上記図10の(G),(H),(I)の場合と同様な傾向として、肯定の意図を表す「うん」の場合(領域Ra)では主として下降部分Radが現れ、否定の意図を表す「ううん」の場合(領域Rn)では先に下降部分Rndが現れた後に上昇部分Rnuが現れ、疑問の意図を表す「うん?」の場合(領域Rq)では、主として上昇部分Rquが現れている。
従って、ささやき声の場合でも、肯定、否定、疑問の3種類の意図を表す「うん」の発声の違いを識別することができる。また、発話音声がノイズに混在している場合にも、同様に声の高さの上昇及び下降の変化を良好に捉えることが可能である。
以上のようにして、図1の音響分析部12における内部処理が行われ、識別のための特徴量が抽出され、識別部13に送られる。
ここで、図1の音響分析部12から識別部13に対して特徴量としてのパラメータが送られる際には、ある時刻(ある分析フレーム)t における各特徴量分布の重心位置次数の時間差分が1つにまとめられて、ベクトル形式として出力される。具体的には、音響分析部から出力される情報をベクトルOtとすると、ベクトルOtは、次の式(8)のようになる。
Figure 2007316330
この式(8)において、i(m)(1≦m≦M)は、上記特徴量分布の全体D={Di}、すなわち前記対角方向の所望の成分ベクトルDiの集合を構成する次数iを表しており、集合{Di}を構成する次数の総数をMとしている。
なお、識別部13では、予め学習用の音声データを音響分析して得られる特徴量をもとに作成しておいたパラメータ記憶部14のパラメータを用いて、未知音声データに対する認識処理を行う。この認識部13における認識処理は、一般の音声認識技術を用いることができるため、説明を省略する。
以上説明したような本発明の実施の形態によれば、入力音声の韻律的特徴に基づいて識別を行う韻律識別装置において、入力音声の周波数特性から得られる特徴量分布の移動変化量によって識別を行うことにより、従来ではピッチ周波数の抽出が困難な場合等においても、ロバストな識別を可能とする。
<一般的な音声認識装置と並列に使用する場合>
次に、本発明の実施の形態のシステムを、一般的な音声認識装置と並列に使用する場合について説明する。図12に、本発明の実施の形態システムを一般的な音声認識装置と並列に使用した場合のシステム構成図を、また図13にそのフローチャートを示す。
図12において、入力部51より入力された音声は、上述したような本発明の実施の形態による韻律識別部52と、一般的な音声認識装置から成る音声認識部53の2つの処理部に供給される。これらの韻律識別部52及び音声認識部53のそれぞれにおいて、入力音声データに対して処理が行われ、その結果として、韻律識別部52からは、入力音声データの韻律パターンに基づいて識別された発話タイプ(あるいはユーザの発話意図)が韻律識別結果として出力され、また音声認識部53からは、入力音声データに対応したテキスト情報が音声認識結果として出力される。これら韻律識別結果と音声認識結果は、次に結果選択部54へと与えられる。
結果選択部54では、与えられた音声認識結果と特定単語記憶部55に貯えられている特定単語との比較を行い、音声認識結果が特定単語と一致する場合には、音声認識結果に韻律識別結果が付与あるいは統合され、本システムによる一つの認識結果として、出力部56より出力される。また、音声認識結果が特定単語と一致しない場合には、音声認識結果がそのまま本システムの認識結果として出力部56より出力される。
例えば、特定単語として「うん」が設定されており、韻律識別部52では、肯定を表す「うん」、否定を表す「ううん」及び疑問を表す「うん?」の3種類の発話タイプの識別を行う場合では、特定単語である「うん」に対しては、肯定、否定、疑問のいずれかの発話タイプ(ユーザの発話意図)に関する情報が認識結果に付与されることとなる。
このような動作を、図13のフローチャートと共に説明すると、ステップS61において音声が入力され、ステップS62にて、この入力音声データを、上記韻律識別部52、音声認識部53でそれぞれ処理して結果を出力する。次のステップS63では、上記音声認識部53からの認識結果が上記特定単語と一致するか否かが判別され、NO(一致しない)と判別されたときにはステップS64に進んで、上記音声識別部53による認識結果をそのまま出力する。ステップS63でYES(一致する)と判別されたときには、ステップS65に進み、上記音声識別部53による認識結果に、上記韻律識別部52による認識結果を付与して出力する。
また、他の例として、結果選択部54における処理動作としては、以下のようなものであってもよい。すなわち、韻律識別部52では、「肯定」、「否定」、「疑問」、及び前者3つの発話タイプ以外であることを意味する「その他」から成る4つの発話タイプを識別するものとする。この場合では、結果選択部54に付随する特定単語記憶部を必要とせず、韻律識別結果として「その他」が与えられた時には音声認識部53からの音声認識結果のみを出力し、韻律識別結果が「肯定」、「否定」、「疑問」のいずれかの時には韻律識別部52からの韻律識別結果を音声認識部53からの音声認識結果に付与して出力する。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本発明の実施の形態となる韻律識別装置のシステム構成を概略的に示すブロック図である。 通常音声及びささやき声の周波数特性を示す図である。 本発明の実施の形態の周波数特性分析部における具体的な処理の流れを示すフローチャートである。 本発明の実施の形態の周波数特性分析部での周波数特性の変換処理を示すグラフである。 本発明の実施の形態の特徴量分布移動変化量計算部における具体的な処理の流れを示すフローチャートである。 周波数特性の自己相関行列を示す図である。 周波数特性の自己相関行列の対角方向の成分を示す図である。 周波数特性の自己相関行列を表すグラフ及び自己相関行列の対角方向の成分を示す図である。 周波数特性の自己相関行列の対角方向の成分の内の3つの次数に対応するベクトルの特徴量分布を示す図である。 通常音声の場合の本発明の実施の形態における特徴量分布の重心位置次数の経時変化と重心位置次数の時間差分の経時変化の具体例を示す図である。 ささやき声の場合の本発明の実施の形態における特徴量分布の重心位置次数の経時変化と重心位置次数の時間差分の経時変化の具体例を示す図である。 本発明の実施の形態の韻律識別を一般的な音声認識と並用する場合のシステム構成を概略的に示すブロック図である。 図12の装置の動作を説明するためのフローチャートである。
符号の説明
11,51 入力部、 12 音響分析部、 13 識別部、 14 パラメータ記憶部、 15,56 出力部、 21 周波数特性分析部、 22 特徴量分布移動変化量計算部、 52 韻律識別部、 53 音声認識部、 54 結果選択部、 55 特定単語記憶部

Claims (8)

  1. 入力音声の韻律的特徴に基づいて識別を行う韻律識別装置において、
    入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量を求める音響分析手段と、
    この音響分析手段からの出力に基づいて認識処理を行う識別手段と
    を有することを特徴とする韻律識別装置。
  2. 上記特徴量分布の移動変化量として、特徴量分布の重心の時間差分を利用することを特徴とする請求項1記載の韻律識別装置。
  3. 上記特徴量分布として、入力音声信号の周波数特性の自己相関行列における対角方向の所望の成分を用いることを特徴とする請求項1記載の韻律識別装置。
  4. 入力音声の韻律的特徴に基づいて識別を行う韻律識別方法において、
    入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量を求める音響分析工程と、
    この音響分析工程からの出力に基づいて認識処理を行う識別工程と
    を有することを特徴とする韻律識別方法。
  5. 音声信号を入力する入力手段と、
    この入力手段からの入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量に基づいて韻律識別を行う韻律識別手段と、
    上記入力手段からの入力音声を音響分析して得られる特徴量に基づいて音声認識を行う音声認識手段と、
    上記韻律識別手段からの出力と上記音声認識手段からの出力とを選択・統合して出力する選択手段と
    を有することを特徴とする音声認識装置。
  6. 上記特徴量分布の移動変化量として、特徴量分布の重心の時間差分を利用することを特徴とする請求項5記載の音声認識装置。
  7. 上記特徴量分布として、入力音声信号の周波数特性の自己相関行列における対角方向の所望の成分を用いることを特徴とする請求項5記載の音声認識装置。
  8. 音声信号を入力する入力工程と、
    この入力工程からの入力音声の周波数特性の自己相関行列から得られる特徴量分布の移動変化量に基づいて韻律識別を行う韻律識別工程と、
    上記入力工程からの入力音声を音響分析して得られる特徴量に基づいて音声認識を行う音声認識工程と、
    上記韻律識別工程からの出力と上記音声認識工程からの出力とを選択・統合して出力する選択工程と
    を有することを特徴とする音声認識方法。
JP2006145729A 2006-05-25 2006-05-25 韻律識別装置及び方法、並びに音声認識装置及び方法 Expired - Fee Related JP4353202B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006145729A JP4353202B2 (ja) 2006-05-25 2006-05-25 韻律識別装置及び方法、並びに音声認識装置及び方法
US11/805,371 US7908142B2 (en) 2006-05-25 2007-05-23 Apparatus and method for identifying prosody and apparatus and method for recognizing speech

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006145729A JP4353202B2 (ja) 2006-05-25 2006-05-25 韻律識別装置及び方法、並びに音声認識装置及び方法

Publications (2)

Publication Number Publication Date
JP2007316330A true JP2007316330A (ja) 2007-12-06
JP4353202B2 JP4353202B2 (ja) 2009-10-28

Family

ID=38750621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006145729A Expired - Fee Related JP4353202B2 (ja) 2006-05-25 2006-05-25 韻律識別装置及び方法、並びに音声認識装置及び方法

Country Status (2)

Country Link
US (1) US7908142B2 (ja)
JP (1) JP4353202B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8571862B2 (en) * 2006-11-30 2013-10-29 Ashwin P. Rao Multimodal interface for input of text
US9830912B2 (en) 2006-11-30 2017-11-28 Ashwin P Rao Speak and touch auto correction interface
JP4264841B2 (ja) * 2006-12-01 2009-05-20 ソニー株式会社 音声認識装置および音声認識方法、並びに、プログラム
US8315870B2 (en) * 2007-08-22 2012-11-20 Nec Corporation Rescoring speech recognition hypothesis using prosodic likelihood
US9922640B2 (en) 2008-10-17 2018-03-20 Ashwin P Rao System and method for multimodal utterance detection
WO2014167570A1 (en) * 2013-04-10 2014-10-16 Technologies For Voice Interface System and method for extracting and using prosody features
JP7135896B2 (ja) * 2019-01-28 2022-09-13 トヨタ自動車株式会社 対話装置、対話方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0466999A (ja) 1990-07-04 1992-03-03 Sharp Corp 文節境界検出装置
JPH0822296A (ja) 1994-07-07 1996-01-23 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法
JP3351746B2 (ja) 1997-10-03 2002-12-03 松下電器産業株式会社 オーディオ信号圧縮方法、オーディオ信号圧縮装置、音声信号圧縮方法、音声信号圧縮装置,音声認識方法および音声認識装置
US6873953B1 (en) * 2000-05-22 2005-03-29 Nuance Communications Prosody based endpoint detection
JP4221537B2 (ja) 2000-06-02 2009-02-12 日本電気株式会社 音声検出方法及び装置とその記録媒体
DE10140507A1 (de) 2001-08-17 2003-02-27 Philips Corp Intellectual Pty Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers
JP2004061567A (ja) 2002-07-25 2004-02-26 Nec Engineering Ltd ノイズキャンセラ
JP4357867B2 (ja) 2003-04-25 2009-11-04 パイオニア株式会社 音声認識装置、音声認識方法、並びに、音声認識プログラムおよびそれを記録した記録媒体
US7542903B2 (en) * 2004-02-18 2009-06-02 Fuji Xerox Co., Ltd. Systems and methods for determining predictive models of discourse functions
JP4291728B2 (ja) 2004-04-15 2009-07-08 日本電信電話株式会社 音声認識方法およびこの方法を実施する装置
US20050246165A1 (en) * 2004-04-29 2005-11-03 Pettinelli Eugene E System and method for analyzing and improving a discourse engaged in by a number of interacting agents
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems

Also Published As

Publication number Publication date
US20070276659A1 (en) 2007-11-29
JP4353202B2 (ja) 2009-10-28
US7908142B2 (en) 2011-03-15

Similar Documents

Publication Publication Date Title
JP4264841B2 (ja) 音声認識装置および音声認識方法、並びに、プログラム
US7013276B2 (en) Method of assessing degree of acoustic confusability, and system therefor
JP4882899B2 (ja) 音声解析装置、および音声解析方法、並びにコンピュータ・プログラム
JP4911034B2 (ja) 音声判別システム、音声判別方法及び音声判別用プログラム
Friedland et al. Prosodic and other long-term features for speaker diarization
JP4353202B2 (ja) 韻律識別装置及び方法、並びに音声認識装置及び方法
JP2010020102A (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JP2006171750A (ja) 音声認識のための特徴ベクトル抽出方法
JP5007401B2 (ja) 発音評定装置、およびプログラム
US7627468B2 (en) Apparatus and method for extracting syllabic nuclei
US20030220792A1 (en) Speech recognition apparatus, speech recognition method, and computer-readable recording medium in which speech recognition program is recorded
JP4839970B2 (ja) 韻律識別装置及び方法、並びに音声認識装置及び方法
JP2015055653A (ja) 音声認識装置及び方法、並びに、電子機器
JP5152588B2 (ja) 声質変化判定装置、声質変化判定方法、声質変化判定プログラム
US20230178099A1 (en) Using optimal articulatory event-types for computer analysis of speech
Yavuz et al. A Phoneme-Based Approach for Eliminating Out-of-vocabulary Problem Turkish Speech Recognition Using Hidden Markov Model.
Hasija et al. Recognition of Children Punjabi Speech using Tonal Non-Tonal Classifier
Přibil et al. GMM-based evaluation of emotional style transformation in czech and slovak
JP2010060846A (ja) 合成音声評価システム及び合成音声評価方法
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
JP2003044078A (ja) 発声速度正規化分析を用いた音声認識装置
JP2011180308A (ja) 音声認識装置及び記録媒体
JP3493849B2 (ja) 音声認識装置
JP7159655B2 (ja) 感情推定システムおよびプログラム
JP2006010739A (ja) 音声認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090720

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees