JP3037864B2 - 音声コード化装置及び方法 - Google Patents

音声コード化装置及び方法

Info

Publication number
JP3037864B2
JP3037864B2 JP6021828A JP2182894A JP3037864B2 JP 3037864 B2 JP3037864 B2 JP 3037864B2 JP 6021828 A JP6021828 A JP 6021828A JP 2182894 A JP2182894 A JP 2182894A JP 3037864 B2 JP3037864 B2 JP 3037864B2
Authority
JP
Japan
Prior art keywords
training
vector signal
feature vector
training feature
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6021828A
Other languages
English (en)
Other versions
JPH06274200A (ja
Inventor
アール バール ラリット
エス ゴパラクリシュナン ポナーニ
アラン ピケニ マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH06274200A publication Critical patent/JPH06274200A/ja
Application granted granted Critical
Publication of JP3037864B2 publication Critical patent/JP3037864B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声認識システム等の
音声のコード化に関連する。
【0002】
【従来の技術】音声認識の第1のステップは、発言を測
定することに関与する。音声コード化装置は、例えば、
一連の時間間隔(例えば、10ミリ秒の時間間隔)に、
1つ以上の周波数帯域において発言の振幅を測定する。
音声コード化装置による各測定値は、フィルタに通さ
れ、正規化され或いは操作されて要求された音声情報を
得た上で、結果として音響特徴ベクトルとして記憶され
る。音声認識装置において認識すべき発言から音声エン
コーダによって作り出された音響特徴ベクトルが、単語
の音声モデルと比較され、最もよく一致したモデルが見
つけられる。比較を簡単にするため、音響特徴ベクトル
は、ベクトルの量子化によって連続の変数から離散的変
数に変換される。離散的変数は、それから音声モデルと
比較される。
【0003】プロトタイプ・ベクトルの有限のセットを
提供することによって、音響特徴ベクトルは量子化され
る。各プロトタイプ・ベクトルは、識別子(ラベル)を
有し、1組以上のパラメータ値を持つ。音響特徴ベクト
ルの値は、プロトタイプ・ベクトルのパラメータ値と比
較され、最も近いプロトタイプ・ベクトルを見つける。
最も近いプロトタイプ・ベクトルの識別子(ラベル)
が、音響特徴ベクトルの符号化表示としての出力であ
る。
【0004】例えば、各プロトタイプ値は、プロトタイ
プ・ベクトルに対応している一組の音響特徴ベクトル値
を平均することによって得られる。例えば、音響特徴ベ
クトルは、初期のプロトタイプ・ベクトルのセットを使
用して既知のトレーニング・スクリプトの発言をコード
化し、そして次に、音響特徴ベクトルとトレーニング・
スクリプトの音響モデルの間の最も可能性のある配列を
見つけることによって、プロトタイプ・ベクトルと相関
する。
【0005】しかしながら、各プロトタイプ・ベクトル
に対する単一の平均は、正確にプロトタイプ・ベクトル
をモデル化しないことが分かっている。プロトタイプ・
ベクトルに対応している音響特徴ベクトルのセットを複
数のクラスタに分割することによって得られた区画の混
合から各プロトタイプ・ベクトルが構成されるならば、
よりよいモデルが得られる。
【0006】例えば、プロトタイプ・ベクトルに対応し
ている音響特徴ベクトルのセットは、トレーニング・ス
クリプトにおける各音響特徴ベクトルの前後関係(例え
ば、前後の音、以下文脈)に従ってグループ化される。
各プロトタイプ・ベクトルを適切にモデル化するため
に、各前後関係グループは、互いに近接した音響特徴ベ
クトルのクラスタに分割される(例えばK−手法のクラ
スタリング「K-means」によって)。「クラスタ化アル
ゴリズム(Clustering Algorithms, John A.Hartigan, J
ohn Wiley & Sons, Inc., 1975.)参照」。音響特徴ベク
トルの各クラスタは、区画を形成する。区画を形成して
いる音響特徴ベクトルの平均のような値及び区画を形成
している音響特徴ベクトルの共分散マトリックスによっ
て、各区画が代表される。(簡単のために、共分散マト
リックスの全ての非対角項がゼロに近似される。)
【0007】上に記述された方法において各プロトタイ
プ・ベクトルを適切にモデル化するために、トレーニン
グ・スクリプトの発音から相当な量のトレーニング・デ
ータ(学習データ)が必要とされ、相当な計算資源がト
レーニング・データを分析するために必要とされる。更
に、1人の話し手から他のものへの音響特徴ベクトルの
クラスタの間の相関はなく、従って1人の話し手からの
プロトタイプ・ベクトル・データが、他の話し手のため
のプロトタイプ・ベクトルを生成するために役立てられ
ない。
【0008】更に、音響特徴ベクトルの値をプロトタイ
プ・ベクトルのパラメータ値と比較するするために、音
響特徴ベクトルの値は、プロトタイプ・ベクトルを構成
している全ての区画のパラメータ値に突き合わせられ
て、合成照合得点を生成しなければならない。しかしな
がら、一般に音響特徴ベクトルに最も近い区画に関する
照合得点が全ての区画に対する合成照合点数を左右する
ことが分かっている。従って、プロトタイプの照合得点
は、音響特徴ベクトルに最も近いプロトタイプの1区画
に対する照合得点によって近似することができる。
【0009】
【発明が解決しようとする課題】比較的少ない量のトレ
ーニング・データによって、プロトタイプ・ベクトルが
正確に生成できる音声コード化装置を提供することが本
発明の目的である。本発明のもう1つの目的は、比較的
少ない計算資源の消費によって、プロトタイプ・ベクト
ルが正確に生成できる音声コード化装置を提供すること
である。本発明の更に別の目的は、新しい話し手に対す
るプロトタイプ・ベクトルの区画が、他の話し手の同じ
プロトタイプ・ベクトルの区画と相関することができ、
その結果、多くの他の話し手から得られたプロトタイプ
・ベクトル・データが、新しい話し手に対するプロトタ
イプ・ベクトルを生成するのに役立つような音声コード
化装置を提供することである。更に本発明のもう1つの
目的は、音響特徴の値が、少ない計算量でプロトタイプ
・ベクトルの区画のパラメータ値と比較できる音声コー
ド化装置を提供することである。
【0010】
【課題を解決するための手段】本発明による音声コード
化装置及びその方法は、一連の連続した時間間隔の中で
個々の発言の少くとも1つの特徴値を測定し、特徴値を
表す一連の特徴ベクトル信号を生成する。複数のプロト
タイプ・ベクトル信号が記憶される。各プロトタイプ・
ベクトル信号は、少くとも2区画を有し、識別値を持
つ。各区画は、少くとも1つのパラメーター値を持つ。
【0011】第1の特徴ベクトル信号の特徴値は、各プ
ロトタイプ・ベクトル信号の少くとも1つの区画のパラ
メータ値と比較されて、第1の特徴ベクトル信号及び各
プロトタイプ・ベクトル信号に対するプロトタイプ照合
得点が得られる。少くとも最高のプロトタイプ照合得点
を有するプロトタイプ・ベクトル信号の識別値が、第1
の特徴ベクトル信号のコード化された発言表示信号とし
ての出力である。
【0012】本発明による音声コード化装置及びその方
法は、トレーニング・スクリプトのモデルを記憶させる
ことによって記憶されたプロトタイプ・ベクトル信号を
生成する。トレーニング・スクリプト・モデルは、有限
の要素モデルのセットからの一連の要素モデルで構成さ
れる。トレーニング・スクリプトのトレーニング発言の
少くとも1つの特徴値が一連の連続した時間間隔の各々
に対して測定され、特徴値を表す一連のトレーニング特
徴ベクトル信号を生成する。
【0013】トレーニング・スクリプト・モデルにおけ
る第1の要素モデルに対応しているトレーニング特徴ベ
クトル信号の第1のセットが識別される。少くとも、第
1と第2の基準ベクトル信号が記憶される。各基準ベク
トル信号は、少くとも1つのパラメータ値を持つ。
【0014】第1のセットにおける各トレーニング特徴
ベクトル信号の特徴値が第1の基準ベクトル信号のパラ
メータ値と比較され、各トレーニング特徴ベクトル信号
と第1の基準ベクトル信号に関する第1の近さ得点を得
る。第1のセットにおける各トレーニング特徴ベクトル
信号の特徴値が、同様に第2の基準ベクトル信号のパラ
メーター値と比較され、各トレーニング特徴ベクトル信
号と第2の基準ベクトル信号に対する第2の近さ得点を
得る。第1のセットにおける各トレーニング特徴ベクト
ル信号に関して、トレーニング特徴ベクトル信号に対す
る第1の近さ得点は、トレーニング特徴ベクトル信号に
対する第2の近さ得点と比較され、各トレーニング特徴
ベクトル信号と第1及び第2の基準ベクトル信号に関す
る基準照合得点を得る。
【0015】閾値Qより高い基準照合得点を持つ第1の
セットにおけるトレーニング特徴ベクトルは、第1のサ
ブセットとして記憶される。基準照合得点が閾値Qより
低い第1のセットにおけるトレーニング特徴ベクトル信
号は、第2のサブセットとして記憶される。第1のプロ
トタイプ・ベクトル信号に対する1つ以上の区画値が、
トレーニング特徴ベクトル信号の第1のサブセットから
生成される。第1のプロトタイプ・ベクトル信号に対す
る1つ以上の追加の区画値が、トレーニング特徴ベクト
ル信号の第2のサブセットから生成される。
【0016】本発明の1つの局面において、トレーニン
グ・スクリプトにおける各要素モデルは、トレーニング
・スクリプトにおいて1つ以上の先行あるいは後続のモ
デルから成る文脈を有する。トレーニング特徴ベクトル
信号の第1のセットは、第1の文脈におけるトレーニン
グ・スクリプトにおいて第1の要素モデルに対応する。
【0017】第1の基準ベクトル信号のパラメータ値
は、例えば第2の文脈のトレーニング・スクリプトにお
ける要素モデルに対応するトレーニング特徴ベクトル信
号の第2のセットの特徴値の平均を含むものでもよい。
第2の基準ベクトルのパラメータ値は、第1及び第2の
文脈と異なる第3の文脈のトレーニング・スクリプトに
おける要素モデルに対応するトレーニング特徴ベクトル
信号の第3のセットの特徴値の平均を含むものでもよ
い。
【0018】プロトタイプ・ベクトル信号に対する区画
値は、トレーニング特徴ベクトルの各サブセットを1つ
以上の異なるクラスタにグループ化することによって生
成される。例えば、トレーニング特徴ベクトル信号の第
1のサブセットは、少なくとも第3及び第4の基準ベク
トル信号を記憶することによって、1つ以上の異なるク
ラスタにグループ化される。各基準ベクトル信号は、少
くとも1つのパラメータ値を持つ。第1のサブセットに
おける各トレーニング特徴ベクトル信号の特徴値は、第
3の基準ベクトル信号のパラメータ値と比較され、トレ
ーニング特徴ベクトル信号及び第3の基準ベクトル信号
に対する第3の近さ得点を得る。第1のサブセットにお
ける各トレーニング特徴ベクトル信号の特徴値が、同様
に第4の基準ベクトル信号のパラメータ値に比較され、
トレーニング特徴ベクトル信号および第4の基準ベクト
ル信号に対する第4の近さ得点を得る。第1のサブセッ
トにおける各トレーニング特徴信号に対してトレーニン
グ特徴ベクトル信号に対する第3の近さ得点は、トレー
ニング特徴ベクトル信号に対する第4の近さ得点と比較
され、各トレーニング特徴ベクトル信号および第3及び
第4の基準ベクトル信号に対するサブ基準照合得点を得
る。
【0019】閾値Q’より高いサブ基準照合得点を有す
る第1のサブセットにおけるトレーニング特徴ベクトル
信号は、第1のサブ・サブセットとして記憶される。閾
値Q’より低いサブ基準照合得点を有する第1のサブセ
ットにおけるトレーニング特徴ベクトル信号は、第2の
サブ・サブセットとして記憶される。第1のプロトタイ
プ・ベクトル信号に対する1つ以上の区画値は、トレー
ニング特徴ベクトル信号の第1のサブ・サブセットから
生成される。第1のプロトタイプ・ベクトル信号に対す
る1つ以上の追加の区画値は、トレーニング特徴ベクト
ル信号の第2のサブ・サブセットから生成される。
【0020】例えば、各区画値は、クラスタにおけるト
レーニング特徴値信号の特徴値の平均を含むものでもよ
い。各区画は、更にクラスタにおけるトレーニング特徴
ベクトル信号の特徴値の分散を含むものでもよい。
【0021】閾値Qは、例えば1である。
【0022】例えば、トレーニング・スクリプト・モデ
ルは、一連の音声のモデルを含む。各音声のモデルは、
一連の要素モデルを含む。トレーニング・スクリプト・
モデルにおける各要素モデルは、先行及び後続する音声
モデルの音声の文脈を有する。プロトタイプ・ベクトル
信号を生成するために、第1の基準ベクトル信号は、先
行及び後続する音声モデルの第1の音声の文脈における
第1の要素モデルに対応しているトレーニング特徴ベク
トル信号の平均を含む。第2の基準ベクトル信号は、先
行及び後続する音声モデルの第1の文脈と異なる第2の
音声の文脈における第1の要素モデルに対応しているト
レーニング特徴ベクトル信号の平均を含む。
【0023】発言の少くとも1つの特徴値が、一部マイ
クロフォンで測定される。プロトタイプ・ベクトル信号
は、電子的に読み込み可能なメモリに記憶される。
【0024】本発明による音声コード化装置および方法
において、基準ベクトルの周辺に音響特徴ベクトルをク
ラスタ化することによって、プロトタイプ・ベクトル区
画が、より少ないトレーニング・データおよびより少な
い計算資源で得られる。
【0025】本発明に従って、異なる話し手と相関して
いる基準ベクトルの周辺に音響特徴ベクトルをクラスタ
化することによって(例えば文脈によって相関する)新
しい話し手に対するプロトタイプ・ベクトルの区画は、
他の話し手に対する同じプロトタイプ・ベクトルの区画
と相関することができ、多くの他の話し手から得られた
プロトタイプ・ベクトル・データが、新しい話し手に対
するプロトタイプ・ベクトルを生成するのに役立てられ
る。
【0026】本発明に従って、プロトタイプ・ベクトル
区画を得るために基準ベクトルの周辺に音響特徴ベクト
ルをクラスタ化することによって、音響特徴ベクトルに
最も近いプロトタイプ・ベクトル区画が、より少ない計
算資源によって見つけることができる。
【0027】
【実施例】図1は、本発明に従った音声コード化装置の
1例のブロック・ダイヤグラムである。装置は一連の連
続した時間間隔のそれぞれについて、発言の少くとも1
つの特徴の値を測定するために、音響特徴値測定10を
有し、特徴値を表す一連の特徴ベクトル信号を生成す
る。例えば、音響特徴値測定10は、一連の10ミリ秒
の時間間隔の各々の間に、20の周波数帯域で発言の振
幅を測定する。音声コード化装置による各測定値は、フ
ィルタに通され、正規化され、あるいは別な方法で処理
され、要求された音声情報を得、結果は音響特徴ベクト
ル信号として記憶される。
【0028】音声コード化装置は更に、複数のプロトタ
イプ・ベクトル信号を記憶するために、プロトタイプ・
ベクトル信号記憶12を有する。各プロトタイプ・ベク
トル信号は、少くとも2つの区画を有し、識別値を持
つ。各区画は、少くとも1つのパラメータ値を持つ。
【0029】最初に、記憶12におけるプロトタイプ・
ベクトル信号は、初期プロトタイプ・ベクトル信号記憶
14から得られる。初期プロトタイプ・ベクトル信号
は、例えば米国特許第5,182,773号において記
述された方法によって得られるであろう。各初期プロト
タイプ・ベクトル信号は、1区画だけを有する必要があ
る。
【0030】音声コード化装置は更に、各プロトタイプ
・ベクトル信号の少くとも1区画のパラメータ値に対す
る第1の特徴ベクトル信号の特徴値の近さを比較するた
めに、比較プロセッサ16を含んでおり、第1の特徴ベ
クトル信号および各プロトタイプ・ベクトル信号に対す
るプロトタイプ照合得点を得る。出力ブロック18は、
プロトタイプ照合得点を比較プロセッサ16から受取
り、第1の特徴ベクトル信号のコード化された発言表示
信号として、最高のプロトタイプ照合得点を持っている
プロトタイプ・ベクトル信号の少なくとも識別値を出力
する。
【0031】改訂されたプロトタイプ・ベクトル信号を
生成してプロトタイプ・ベクトル信号記憶12に記憶さ
せ、トレーニング・スクリプトのモデルを記憶するため
に、音声コード化装置は更に、トレーニング・スクリプ
ト・モデル記憶20を含む。トレーニング・スクリプト
・モデルは、要素モデルの有限のセットからの一連の要
素モデルを含む。
【0032】図2は、音素の音響マーコフ・モデルの例
を示す。この例では、音声のモデルPNは、初期状態
i、最終状態Sf および中間の状態S1からS5を有す
る。各状態Si およびS1からS5は、他の状態へ移行
し、或いは同じ状態に戻るための1つ以上の移行経路を
有する。
【0033】各移行は、発生の確率を有し、移行の発生
に関する1つ以上のプロトタイプ・ベクトル信号の識別
値を出力する確率を有する。図2において示された音声
のマーコフ・モデルPNは、4つのタイプの要素モデル
T(0,N)、T(1,N)、T(2,N)およびT
(3,N)を含む。要素モデルT(0,N)によって代
表される各移行は、ヌル(null)移行を表し、プロトタイ
プ・ベクトル信号識別値を出力するゼロの確率を有す
る。音声のマーコフ・モデルPNの要素モデルT(1,
N)によって代表される移行は、1つ以上のプロトタイ
プ・ベクトル信号識別値を出力するゼロでない確率を有
する。要素モデルT(1,N)によってモデル化された
3つの移行のそれぞれは、1つ以上のプロトタイプ・ベ
クトル信号識別値を出力する確率の同じ分布を持つ。同
様に、この例では、要素モデルT(2,N)は、音声の
モデルPN において4つの移行をモデル化し、要素モデ
ルT(3,N)は、音声のマーコフ・モデルPN におい
て3つの移行をモデル化する。
【0034】表1は、トレーニング・スクリプトの一部
とトレーニング・スクリプトのモデルを形成する音声の
モデルの仮説的例を示している。
【0035】
【表1】 この仮説的例において、単語「A」は、音声のモデル
{P1 P82}によってモデル化されている。単語
「speech」は、音声のモデル{Pl9 P5P8
2 P7}によってモデル化されいる。等々。
【0036】音声モデルのパラメータは、音声モデルに
おける移行の発生の確率及び音声モデルの要素モデルに
おける1つ以上のプロトタイプ・ベクトル信号識別値を
出力する確率を含む。パラメータは、多数の異なる話し
手に大くの既知の単語を発言させることによって、更に
例えば、前方・後方アルゴリズムを使用することによっ
て得られる。例えば、「統計的手法による連続音声認識
(Continuous Speech Recognition By Statistical Meth
ods, Frederick Jelinek) IEEE, ボリューム 64, No.
4, 1976年4月, 532-556頁」参照。
【0037】図1に帰って、音声特徴値測定10で測定
した発言が、トレーニング・スクリプト・モデル記憶2
0に記憶したトレーニング・スクリプトのトレーニング
発言であるとき、スイッチ22は、整合プロセッサ24
に、コード化された発言表示信号及びトレーニング・ス
クリプトのトレーニング発言に対応するトレーニング特
徴ベクトル信号を提供する。整合プロセッサ24は、ト
レーニング・スクリプト・モデルにおける第1の要素モ
デルに対応しているトレーニング特徴ベクトル信号の第
1のセットを識別する。
【0038】表2は、表1において示されたトレーニン
グ・スクリプト音声モデルのトレーニング・スクリプト
の要素モデルと整合された1次元トレーニング音声特徴
ベクトルの仮説的例を示している。
【0039】
【表2】 例えば、ビタービ(Viterbi)のアルゴリズムを
使用することによって、音響特徴ベクトルとトレーニン
グ・スクリプトの要素モデルとの整合は得られるであろ
う。例えば、上述の「統計的手法による連続音声認識(C
ontinuous Speech Recognition by Statistical Method
s)」参照。
【0040】表3は、表1のトレーニング・スクリプト
・モデルにおいて、音声モデルP1の第1の要素モデル
T(1,1)に対応している1次元トレーニング特徴ベ
クトルの第1のセットの仮説的例を示している。
【0041】
【表3】 トレーニング・スクリプト・モデルにおける各要素モデ
ルは、トレーニング・スクリプトにおいて1つ以上の先
行または後続のモデル(音声モデルのような)から成る
文脈を有する。本発明の1局面において、トレーニング
特徴ベクトル信号の第1のセットは、第1の文脈におけ
るトレーニング・スクリプトにおいて第1の要素モデル
に対応する。上で、表3の仮説的例において示されるよ
うに、トレーニング音響特徴ベクトルの第1のセット
が、C(Ll2)と指定された仮説的文脈におけるトレ
ーニング・スクリプトの要素モデルT(1,1)に対応
する。
【0042】例えば、トレーニング特徴ベクトル信号の
セットをグループ化するために使われる要素モデルの文
脈特徴は、手作業で選択される。或いは、文脈特徴は、
プロトタイプ・ベクトルに対応する各特徴ベクトル信号
をその文脈で標識をつけ、特徴ベクトルをその文脈に従
ってグループ化して、選択された評価関数を最適化する
ことによって自動的に選択することもできる。
【0043】例えば、要素モデルの文脈は、トレーニン
グ・スクリプトにおいて要素モデルに先行する5個の音
素及び要素モデルに続く5個の音素から構成されてい
る。1つのトレーニング・スクリプトの要素モデルに対
応しているトレーニング音響特徴ベクトルの各セットに
関して、音響特徴ベクトルのセットを2つのサブセット
に分割する数多くの文脈候補に対する疑問がある。例え
ば、文脈候補についての疑問は、「直前の音素は子音か
?」ということである。各候補についての疑問は、疑問
から得られたサブセットの評価関数によって点数がつけ
られる。最も高い得点に対応している候補文脈の疑問が
選択される。
【0044】1つの適当な評価関数Eが式1によって与
えられる。
【0045】
【式1】E=L111)L222) ここで、
【0046】
【式2】 式1において、評価関数Eは、要素モデルに対応してい
る音響特徴ベクトルviの第1のサブセットが要素モデ
ルに対応している見込みL1と、音響特徴ベクトルの第
2のサブセットが要素モデルに対応している見込みL2
の積である。各見込みLaは、サブセットにおける音響
特徴ベクトルのガウス分布N(μa,σa)が生じること
を条件として所与のサブセットにおける各音響特徴ベク
トルviが生じる確率と等しく、ここでμaは、サブセッ
トにおける音響特徴ベクトルの平均であり、σaは、サ
ブセットにおける音響特徴ベクトルの標準偏差である。
【0047】特定の文脈において特定の要素モデルに対
応している音響特徴ベクトルの各サブセット(上に記述
された方法で得られた選択された文脈の疑問に従って)
は、更に候補文脈に関する疑問のもう1つのセットを評
価し、最も良い文脈の疑問を選択することによって分割
される。この方法を使用して、クラスにおける特徴ベク
トルの数が閾値以下(例えば100の特徴ベクトル)に
なるか叉は、サブセットを分割することによる情報の利
得が閾値以下になるまで音響特徴ベクトルの各新しいサ
ブセットが分割される。各サブセットを分割することに
よる利得は、LL12/L1 2として見積もられる。こ
こで、見込みL1 2は、式2から、音響特徴ベクトルの
非分割サブセットの見込みである。閾値は、例えば10
2.5である。一般に、1つの要素モデルに対応している
一組の音響特徴ベクトルは、先行及び後続する音素の3
0の異なる文脈における要素モデルに対応する30のサ
ブセットに分割される。
【0048】図3は、トレーニング・スクリプト・モデ
ルにおける要素モデルの文脈を識別するための仮説的バ
イナリ・デシジョン・ツリーの例をおおまかに示してい
る。デシジョン・ツリーは、ツリーの各ノードNで上に
述べた方法によって選択された文脈の疑問を使用して構
成される。トレーニング・スクリプトにおける要素モデ
ルの特定の発生に関して、尋ねられる次の文脈の疑問
は、前の文脈の疑問が「イエスと答えられているか」或
いは「ノーと答えられているか」に依存する。その文脈
の疑問がデシジョン・ツリーの同じリーフLで終了する
トレーニング・スクリプトにおける全ての要素モデルの
発生は、同じ文脈を持つ。
【0049】図1に帰って、音声コード化装置は更に、
少くとも第1及び第2の基準ベクトル信号を記憶するた
めの基準ベクトル信号記憶26を含む。各基準ベクトル
信号は、少くとも1つのパラメータ値を持つ。
【0050】比較プロセッサ28は、第1のセットにお
ける各トレーニング特徴ベクトル信号の特徴値を第1の
基準ベクトル信号のパラメータ値と比較し、各トレーニ
ング特徴ベクトル信号と第1の基準ベクトル信号に関す
る第1の近さ得点を得る。比較プロセッサ28はまた、
第1のセットにおける各トレーニング特徴ベクトル信号
の特徴値を第2の基準ベクトル信号のパラメータ値と比
較し、各トレーニング特徴ベクトル信号と第2の基準ベ
クトル信号に関する第2の近さ得点を得る。最後に、第
1のセットにおける各トレーニング特徴ベクトル信号に
関して、比較プロセッサ28は、トレーニング特徴ベク
トル信号に関する第1の近さ得点をトレーニング特徴ベ
クトル信号に関する第2の近さ得点と比較し、各トレー
ニング特徴ベクトル信号と第1及び第2の基準ベクトル
信号に関する基準照合得点を得る。
【0051】表3の仮説的例(上記)において、トレー
ニング音響特徴ベクトルは、一次元基準ベクトルA及び
Bと比較され、各トレーニング音響特徴ベクトルと基準
ベクトルA及びBに対する近さ得点を得る。また、この
仮説的例に関して、各トレーニング特徴ベクトルに対す
る基準照合得点が示されている。この例では、基準照合
得点は、基準ベクトルAへの音響特徴ベクトルの近さの
基準ベクトルBへの音響特徴ベクトルの近さに対する比
率と等しい。1次元以上の音響特徴ベクトル及び基準ベ
クトルに関して、近さ得点は、二乗されたユークリッド
距離である。
【0052】トレーニング特徴ベクトル信号記憶30の
第1のサブセットは、第1のセットに閾値Qより良い基
準照合得点を有するトレーニング特徴ベクトル信号を含
む。トレーニング特徴ベクトル信号記憶32の第2のサ
ブセットは、第1のセットに閾値Qより悪い基準照合得
点を有するトレーニング特徴ベクトル信号を含む。
【0053】表3の仮説的例に帰って、仮説的閾値Q=
4に対して、各トレーニング音響特徴ベクトルは、閾値
Q=4より少ない基準照合得点を有するサブセットA
か、或いは閾値Q=4より大きい基準照合得点を有する
サブセットBに割り当てられる。
【0054】その後は、改訂プロトタイプ区画値ゼネレ
ータ34は、トレーニング特徴ベクトル信号の第1のサ
ブセットからの第1のプロトタイプ・ベクトル信号に関
する1つ以上の区画値を生成し、トレーニング特徴ベク
トル信号の第2のサブセットからの第1のプロトタイプ
・ベクトル信号に対する1つ以上の追加の区画値を生成
する。トレーニング特徴ベクトル信号の各サブセット
は、1つ以上の異なるクラスタにグループ化される。
【0055】例えば、各区画値は、クラスタにおいて、
トレーニング特徴ベクトル信号の特徴値の平均を含む。
各区画値は、クラスタにおいて、更にトレーニング特徴
ベクトル信号の特徴値の分散を含む。表4は、表3の仮
説的例における区画A及びBと対応する平均及び分散を
示している。
【0056】
【表4】文脈C(L12)におけるプロトタイプ・ベク
トル信号T(1、1) 平 均 分 数 区画A 26.40 181.84 区画B 72.67 88.56
【0057】図4は、図1の改訂プロトタイプ区画値ゼ
ネレータ34の例のブロック・ダイヤグラムである。基
準ベクトル信号記憶36は、少なくとも第3及び第4の
基準ベクトル信号を記憶する。各基準ベクトル信号は、
少くとも1つのパラメータ値を持つ。比較プロセッサ3
8は、トレーニング特徴ベクトル信号記憶30(図1)
の第1のサブセットにおける各トレーニング特徴ベクト
ル信号の特徴値を第3の基準ベクトル信号のパラメータ
値と比較して、トレーニング特徴ベクトル信号と第3の
基準ベクトル信号に関する第3の近さ得点を得る。比較
プロセッサ38はまた、第1のサブセットにおける各ト
レーニング特徴値信号の特徴値を第4の基準ベクトル信
号のパラメータ値と比較して、トレーニング特徴ベクト
ル信号と第4の基準ベクトル信号に関する第4の近さ得
点を得る。
【0058】第1のサブセットにおける各トレーニング
特徴ベクトル信号に関して、トレーニング特徴ベクトル
信号に対する第3の近さ得点は、トレーニング特徴ベク
トル信号に対する第4の近さ得点と比較されて、各トレ
ーニング特徴ベクトル信号と第3及び第4の基準ベクト
ル信号に関するサブ・基準照合得点を得る。
【0059】第3及び第4の基準ベクトル信号のパラメ
ータ値は、例えば、それぞれ第1及び第2の基準ベクト
ル信号のパラメータ値に同一であってもよい。
【0060】図4を参照すると、更に図1の改訂プロト
タイプ区画値ゼネレータ34は、第1のサブセットに閾
値Q’より高いサブ基準照合得点を有するトレーニング
特徴ベクトル信号を記憶するための特徴ベクトル信号記
憶40の第1のサブ・サブセットを有する。トレーニン
グ特徴ベクトル信号記憶42の第2のサブ・サブセット
は、第1のサブセットに閾値Q’より悪いサブ・基準照
合得点を有するトレーニング特徴ベクトルを記憶する。
【0061】改訂プロトタイプ区画値ゼネレータ44
は、特徴ベクトル信号の第1のサブ・サブセットからの
第1のプロトタイプ・ベクトル信号に対する1つ以上の
区画値を生成し、トレーニング特徴ベクトル信号の第2
のサブ・サブセットからの第1のプロトタイプ・ベクト
ル信号に対する1つ以上の追加の区画値を生成する。
【0062】第1の基準ベクトル信号のパラメータ値
は、例えば、第2の文脈にけるトレーニング・スクリプ
トの要素モデルに対応するトレーニング特徴ベクトル信
号の第2のセットの特徴値の平均を含むものであってよ
い。
【0063】第2の文脈は、第1の文脈と同じであるか
叉は異なるものであってよい。第2の基準ベクトル信号
のパラメータ値は、第1及び第2の文脈と異なる第3の
文脈におけるトレーニング・スクリプトの要素モデルに
対応するトレーニング特徴ベクトル信号の第3のセット
の特徴値の平均を含むものでもよい。
【0064】基準ベクトル信号記憶26及び基準ベクト
ル信号記憶36に記憶された基準ベクトル信号が選択さ
れ、例えば、以下の方法で閾値Qの値が得られる。多数
の単語を含んでいる既知の基準スクリプトは、多数の異
なる話し手によって発言される。基準スクリプトの各要
素モデルに関して、基準スクリプトにおいてその要素モ
デルの各発生に対応している全ての音響特徴ベクトルが
識別される。例えば、その要素モデルの各発生の文脈
は、図3のツリーのようなデシジョン・ツリーを使用し
て同様に識別される。
【0065】基準スクリプトを発した各話し手Sに関し
て、話し手Sに属し、また選択された要素モデルと関連
する音響特徴ベクトルは、基準スクリプトにおいて関連
する要素モデルの発生に従ってグループ化される。各グ
ループGS C(Lj)、は、選択された要素モデル、話し手
S及び文脈C(Lj)と関連する全ての音響特徴ベクト
ルを含む。音響特徴ベクトルの各グループは、グループ
内で音響特徴ベクトルの平均から成る平均ベクトルM
(GS C(Lj))を持つ。
【0066】各話し手Sに属し、グループGS C(Lj)
属する各音響特徴ベクトルXS,i及び文脈の対C(L
k)及びC(Kk’)に関して、比率
【式3】 が計算される。関数Dは、例えば、各音響特徴ベクトル
Xと平均ベクトルM(GS C(Lj))の間の2乗されたユ
ークリッドの距離である。
【0067】文脈の対C(Lk)及びC(Lk’)及び
基準スクリプトの全ての話し手Sに対して前述の式から
得た比率R(XS,i)が、昇順或いは降順に分類され
る。変数SL(H)は分類されたリストの上のH番目の
エレメントを示し、Nはリストのサイズを示す。2から
Nまでの範囲で、全てのインデックスHについて、候補
閾値Qは次のように定義される。
【式4】
【0068】全ての話し手Sについて、グループGS
C(Lj)における各音響特徴ベクトルXは、比率R(X)
が候補閾値Qより大きいか小さいかによって、2組のう
ちの1組に割り当てられる。
【0069】閾値Qに対する候補値から得られた各分割
に関して、分割の利益が上の式1を使用して計算され
る。文脈の対C(Lk)及びC(Lk’)に関して、最
大の利益をもたらす分割を生成したQの値が記憶され
る。同様に分割の利益も記憶される。
【0070】音響特徴ベクトルの同じグループGS
C(Lj)及び各他の文脈対C(Lα)及びC(Lβ)に対
して、Qの最適値が見つけられ、結果として利益Bが見
つけられる。すべての文脈対の間で最大の利益Bmax
有する文脈対C(Lmax)及びC(L’max)及び対応す
る比率Qmaxがそれぞれ基準ベクトル及び基準照合得点
の閾値Qとして選択される。
【0071】音響特徴ベクトルのグループG
S C(Lj)は、それから特徴ベクトルに対する基準照合得
点が、選択された基準照合得点の閾値Qより大きいか或
いは小さいかによって2つのサブセットに分割される。
もし十分なデータと十分な利益があれば、各サブセット
は、更に同じ方法で小分割され、更に多くの基準ベクト
ルに対する更に多くの文脈対を得る。もし利益Bが選択
された利益の閾値を越えないならば、サブセットは小分
割されない。
【0072】新しい話し手に関して、各基準ベクトル
は、新しい話し手によって生成され、基準ベクトルに対
応している文脈におけるトレーニング・スクリプトの要
素モデルに対応する一組のトレーニング特徴ベクトル信
号の特徴値の平均を含む。
【0073】必要な計算の量を減らすために、基準照合
得点の閾値Qは、オプションとして1に設定しても良
い。このことは、候補の基準ベクトルの各対と関連する
最適の閾値に関してサーチをしなくて済む。
【0074】上で述べたように、音響特徴ベクトルとプ
ロトタイプ・ベクトルに対するプロトタイプ照合得点
は、音響特徴ベクトルに最も近いプロトタイプ・ベクト
ルの1区画の照合得点によって近似することができる。
最もよい照合得点を生みそうな区画が、デシジョン・ツ
リーを使用することによって、プロトタイプ・ベクトル
の全ての区画に音響特徴ベクトルを照合するより少ない
計算によって見つけることができる。プロトタイプ・ベ
クトルを区画するのに使われる基準ベクトルの各対は、
デシジョン・ツリーの1つのノードと関連している。図
3と類似であるが「式3の比率R(Xs i k k')がQよ
り大きいか?」の疑問を有するデシジョン・ツリーは、
各ノードで文脈の疑問を置き換える。
【0075】本発明による音声コード化装置において、
比較プロセッサ16、28、及び38及び整合プロセッ
サ24、改訂プロトタイプ区画値ゼネレータ34及び4
4は、適切にプログラムされた特定目的叉は汎用目的の
ディジタル信号プロセッサである。プロトタイプ・ベク
トル信号記憶12及び14、トレーニング特徴ベクトル
信号記憶30、32、40、及び42、トレーニング・
スクリプト・モデル記憶20、及び基準ベクトル信号記
憶26、36は、コンピュータ・メモリである。
【0076】音響特徴値測定の1例が、図5に示されて
いる。測定手段は、発言に対応するアナログ電気信号を
生成するためのマイクロホン46を含む。マイクロホン
46からのアナログ電気信号は、アナログ・ディジタル
変換器48によってデジタル電気信号に変換される。こ
の目的のために、アナログ信号は、例えば20キロヘル
ツの割合でアナログ・ディジタル変換器48によってサ
ンプリングされる。
【0077】ウィンドウ・ゼネレータ50は、10ミリ
秒毎(1センチ秒毎)のアナログ・ディジタル変換器4
8からのディジタル信号を、例えば20ミリ秒間隔のサ
ンプルとして取得する。各20ミリ秒間隔のディジタル
信号サンプルは、例えば20の周波数帯域の各々におけ
るディジタル信号サンプルの振幅を得るためにスペクト
ル解析器52によって分析される。スペクトル解析器5
2はまた、全体の振幅叉は20ミリ秒ディジタル信号サ
ンプルの全体の電力を表す21次元目の信号を生成する
ことが望ましい。スペクトル解析器52は、例えば高速
フーリェ変換プロセッサである。代わりに、20個のバ
ンド・パス・フィルタのバンク(bank)であってもよい。
【0078】スペクトル解析器52によって生成された
21次元ベクトル信号は、編集されて適応ノイズ・キャ
ンセル・プロセッサ54によって、背景ノイズを除去さ
れる。ノイズ・キャンセル・プロセッサ54は、ノイズ
・キャンセル・プロセッサに入力された特徴ベクトルF
(t)からノイズ・ベクトルN(t)を引き算して出力
特徴ベクトルF’(t)を生成する。ノイズ・キャンセ
ル・プロセッサ54は、前の特徴ベクトルF(t‐1)
がノイズ又は無音として識別されたときはいつでも、ノ
イズ・ベクトルN(t)を定期的に更新することによっ
て変化するノイズ・レベルに適応する。ノイズ・ベクト
ルN(t)は、次の式に従って更新される。
【0079】
【式5】 ここで、N(t)は時間tにおけるノイズ・ベクトルで
あり、N(t‐1)は時間(t‐1)におけるノイズ・
ベクトルであり、kは適応ノイズ・キャンセル・モデル
の固定パラメータをであり、F(t‐1)は時間(t‐
1)においてノイズ・キャンセル・プロセッサ54に入
力された特徴ベクトルでノイズ叉は無音を表し、Fp
(t‐1)は、記憶56からの1つの無音又はノイズの
プロトタイプ・ベクトルで、特徴ベクトルF(t‐1)
に最も近い。
【0080】前の特徴ベクトルF(t‐1)は、もし
(a)ベクトルの全体のエネルギが閾値以下であるか、
叉は、(b)適応プロトタイプ・ベクトル記憶58にお
いてもっとも特徴ベクトルに近いプロトタイプ・ベクト
ルが、ノイズ又は無音を表すプロトタイプであるかによ
ってノイズ或いは無音として認識される。特徴ベクトル
の全体のエネルギに関する分析の目的で、閾値は例え
ば、評価される特徴ベクトルの前2秒間に生成された全
ての特徴ベクトル(音声および無音に対応する)の5パ
ーセンタイルである。
【0081】ノイズ・キャンセルの後、特徴ベクトル
F’(t)は、短項平均正規化プロセッサ(short term
mean normalization processor)60によって正規化さ
れ、入力音声の大きさの変化に対して調整される。正規
化プロセッサ60は、21次元特徴ベクトルF'(t)
を正規化し、20次元正規化特徴ベクトルX(t)を生
成する。全体の電力叉は全体の振幅を表す特徴ベクトル
F’(t)の21次元目は、破棄される。時間tにおけ
る正規化特徴ベクトルX(t)の各コンポーネントi
は、対数関数領域において次の式6によって与えられ
る。
【0082】
【式6】Xi(t)=F'i(t)−Z(t) ここで、F'i(t)は、時間tにおける正規化されてな
いベクトルのi番目のコンポーネントであり、Z(t)
は式7および8によるF’(t)およびZ(t−1)の
コンポーネントの加重平均である。
【0083】
【式7】Z(t)=0.9Z(t−1)+0.1M(t) ここで、
【0084】
【式8】 正規化された20次元特徴ベクトルX(t)は、適応ラ
ベラ(labeler)62によって更に処理され、音声の発音
における変化に適応させる。適応された20次元特徴ベ
クトルX’(t)は、20次元適応ベクトルA(t)を適
応ラベラ62の入力に与えられた20次元特徴ベクトル
X(t)から引くことによって生成される。時間tにお
ける適応ベクトルA(t)は、次の式9によって与えら
れる。
【0085】
【式9】 ここで、kは適応ラベル・モデルの固定パラメータであ
り、X(t‐1)は、時間(t‐1)における適応ラベ
ラ62に対する正規化20次元ベクトル入力であり、X
p(t‐1)は、時間(t‐1)において20次元特徴
ベクトルX(t‐1)に最も近い適応プロトタイプ・ベ
クトル(適応プロトタイプ記憶58から)であり、A
(t‐1)は時間(t‐1)における適応ベクトルであ
る。
【0086】適応ラベラ62からの20次元適応特徴ベ
クトル信号X’(t)は、聴覚モデル64に与えられる
のが望ましい。聴覚モデル64は、例えば、人間の聴覚
システムがどのように音声信号を感知するかのモデルを
提供する。聴覚モデルの例は、米国特許第4,980,
918号において述べられている。
【0087】本発明によれば、時間tにおける適応さら
れた特徴ベクトル信号X’(t)の各周波数帯域iに関
して、聴覚モデル64は、式10および11に従って新
しいパラメータEi(t)を計算する:
【0088】
【式10】Ei(t)=K1+K2(X'i(t))(Ni(t−1)) ここで、
【0089】
【式11】Ni(t)=K3×Ni(t−1)−Ei(t−1) 更に、K1、K2 及びK3は、聴覚モデルの固定パラメー
タである。各センチ秒(10ミリ秒)の時間間隔毎に、
聴覚モデル64の出力は、修正された20次元特徴ベク
トル信号である。この特徴ベクトルは、他の20次元の
値の2乗の和の平方根と等しい値を有する21次元目に
よって増大される。
【0090】各センチ秒の時間間隔毎に、コンカチネー
タ66が、1つの現在のセンチ秒時間間隔、4つの先行
するセンチ秒時間間隔、及び4つの後続のセンチ秒時間
間隔を表す9つの21次元特徴ベクトルを連結して、1
つの組み継がれた189次元のベクトルを形成すること
が望ましい。各189次元の組み継がれたベクトルは、
ロテータ68において回転マトリックスを乗じて、組み
継がれたベクトルを回転し、組み継がれたベクトルを5
0次元に減らすことが望ましい。
【0091】ロテータ68において使われる回転マトリ
ックスは、例えば、トレーニング・セッションの間に得
られた一組の189次元の組み継がれたベクトルをM個
のクラスに類別することによって得られるであろう。ト
レーニング・セットにおける全ての組み継がれたベクト
ルに対する共分散マトリックスは、全てのMクラスにお
ける全ての組み継がれたベクトルに対するクラス共分散
マトリックスの範囲内のサンプルの反数を乗じられる。
結果として生ずるマトリックスの最初の50個の固有ベ
クトルは、回転マトリックスを形成する。
【0092】(例えば、L.R.BahlによるIBM
テクニカルディスクロージャ・ブルチン、第32巻、7
番、1989年12月、ページ320及び321「離散
的パラメータ音素に基づくマーコフ単語モデルを使用し
た音声認識システムに対するベクトル量子化手順(Vect
or Quantization Procedure For Speech RecognitionSy
stems Using Discrete Parameter Phoneme-Based Marko
v Word Models)」を参照。
【0093】ウィンドウ・ゼネレータ50、スペクトル
解析器52、適応ノイズ・キャンセル・プロセッサ5
4、短項平均正規化プロセッサ60、適応ラベラ62、
聴覚モデル64、コンカチネータ66、及びロテータ6
8は、適切にプログラムされた特殊目的或いは汎用のデ
ジタル信号プロセッサでよい。プロトタイプ記憶56及
び58は、コンピュータ・メモリである。
【0094】
【発明の効果】本発明により、比較的少ない量のトレー
ニング・データと比較的少ない計算資源の消費によっ
て、プロトタイプ・ベクトルが正確に生成できる音声コ
ード化装置を提供することができ、更に新しい話し手に
対するプロトタイプ・ベクトルの区画が、他の話し手の
同じプロトタイプ・ベクトルの区画と相関することがで
き、その結果、多くの他の話し手から得られたプロトタ
イプ・ベクトル・データが、新しい話し手に対するプロ
トタイプ・ベクトルを生成するのに役立つような音声コ
ード化装置を提供することができる。更に、音響特徴の
値が、少ない計算量でプロトタイプ・ベクトルの区画の
パラメータ値と比較できる音声コード化装置を提供する
ことができる。
【図面の簡単な説明】
【図1】本発明に従った音声コード化装置のブロック・
ダイヤグラム。
【図2】図2は、音素の音響マーコフ(Markov)
モデルの例を示す図。
【図3】トレーニング・スクリプト・モデルにおいて先
行及び後続の音声モデルの文脈に従って、トレーニング
・スクリプト・モデルにおける要素モデルの文脈を識別
するためのデシジョン・ツリーの例を示す図。
【図4】図1の改訂プロトタイプ区画値ゼネレータのブ
ロック・ダイヤグラム。
【図5】図1の音響特徴値測定のブロック・ダイヤグラ
ム。
【符号の説明】
10 音響特徴値測定 12 プロトタイプ・ベクトル信号記憶 16、28、38 比較プロセッサ 24 整合プロセッサ 48 アナログ・ディジタル変換器 50 ウィンドウ・ゼネレータ 52 スペクトル解析器 54 適応ノイズ・キャンセル・プロセッサ 60 平均正規化プロセッサ
フロントページの続き (72)発明者 ポナーニ エス ゴパラクリシュナン アメリカ合衆国 10598 ニューヨーク 州 ヨークタウン ハイツ ラドクリフ ドライブ 3073 (72)発明者 マイケル アラン ピケニ アメリカ合衆国 10404 ニューヨーク 州 ホワイト プレーンズ ラルフ ア ベニュー 118 (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 21/06 H03M 7/30 JICSTファイル(JOIS)

Claims (18)

    (57)【特許請求の範囲】
  1. 【請求項1】要素モデルの有限のセットからの一連の要
    素モデルから構成されるトレーニング・スクリプト・モ
    デルであって、各要素モデルがトレーニング・スクリプ
    トにおいて先行または後続する1以上のモデルから成る
    音響的文脈を有するものを記憶する手段と、 トレーニング・スクリプトのトレーニング発言の少くと
    も1つの特徴値を一連の連続した時間間隔の各々に対し
    て測定し、特徴値を表す一連のトレーニング特徴ベクト
    ル信号を生成する手段と、 トレーニング・スクリプト・モデルにおける第1の要素
    モデルに対応するトレーニング特徴ベクトル信号の第1
    のセットを識別する手段と、 各々少くとも1つのパラメータ値を有する少くとも第1
    及び第2の基準ベクトル信号であって、第1の基準ベク
    トル信号が先行及び後続する音響モデルの第1の音響的
    文脈における第1の要素モデルに対応するトレーニング
    特徴ベクトルの算術的平均を含み、第2の基準ベクトル
    信号が先行及び後続する音響モデルの第2の音響的文脈
    における第1の要素モデルに対応するトレーニング特徴
    ベクトルの算術的平均を含むものを記憶する手段と、 第1の基準ベクトル信号の少なくとも1つのパラメータ
    ー値と、第1のセットにおける各トレーニング特徴ベク
    トル信号の特徴値を比較して、各トレーニング特徴ベク
    トル信号及び第1の基準ベクトル信号に関する第1の近
    さ得点を得る手段と、 第2の基準ベクトル信号の少なくとも1つのパラメータ
    ー値と、第1のセットにおける各トレーニング特徴ベク
    トル信号の特徴値を比較して、各トレーニング特徴ベク
    トル信号及び第2の基準ベクトル信号に関する第2の近
    さ得点を得る手段と、 第1のセットにおける各トレーニング特徴ベクトル信号
    に関して、トレーニング特徴ベクトル信号に対する第1
    の近さ得点を、トレーニング特徴ベクトル信号に対する
    第2の近さ得点と比較して、各トレーニング特徴ベクト
    ル信号と第1及び第2の基準ベクトル信号に対する基準
    照合得点を得る手段と、 第1のセットにおける閾値Qより良い基準照合得点を有
    するトレーニング特徴ベクトル信号の第1のサブセット
    を記憶し、第1のセットにおける閾値Qより悪い基準照
    合得点を有するトレーニング特徴ベクトル信号の第2の
    サブセットを記憶する手段と、 トレーニング特徴ベクトル信号の第1のサブセットから
    の第1のプロトタイプ・ベクトル信号に関する1つ以上
    の区画値を生成し、トレーニング特徴ベクトル信号の第
    2のサブセットからの第1のプロトタイプ・ベクトルに
    対する1つ以上の追加の区画値を生成する手段と、 を備えた音声コード化装置。
  2. 【請求項2】第1の基準ベクトル信号のパラメータ値
    が、第2の文脈におけるトレーニング・スクリプトの要
    素モデルに対応するトレーニング特徴ベクトル信号の第
    2のセットの特徴値の平均を含み、 第2の基準ベクトル信号のパラメータ値が、第1及び第
    2の文脈と異なる第3の文脈におけるトレーニング・ス
    クリプトの要素モデルに対応するトレーニング特徴ベク
    トル信号の第3のセットの特徴値の平均を含む、 ことを特徴とする請求項1に記載の音声コード化装置。
  3. 【請求項3】区画値を生成するための上記手段が、トレ
    ーニング特徴ベクトルの各サブセットを1つ以上の異な
    るクラスタにグループ化する手段を含むことを特徴とす
    る請求項2に記載の音声コード化装置。
  4. 【請求項4】トレーニング特徴ベクトル信号の各サブセ
    ットを、1つ以上の異なるクラスタにグループ化するた
    めの上記手段が、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第3及び第4の基準ベクトル信号を記憶
    する手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第3の基準ベクトル信号のパラメータ値
    と比較し、トレーニング特徴ベクトル信号と第3の基準
    ベクトル信号に関する第3の近さ得点を得る手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第4の基準ベクトル信号のパラメータ値
    と比較して、トレーニング特徴ベクトル信号と第4の基
    準ベクトル信号に対する第4の近さ得点を得る手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号に関して、トレーニング特徴ベクトル信号に対する
    第3の近さ得点を、トレーニング特徴ベクトル信号に対
    する第4の近さ得点と比較して、各トレーニング特徴ベ
    クトル信号と第3及び第4の基準ベクトル信号に対する
    サブ基準照合得点得る手段と、 第1のサブセットにおいて閾値Q’より良いサブ基準照
    合得点を有するトレーニング特徴ベクトル信号の第1の
    サブ・サブセットを記憶し、第1のサブセットにおいて
    閾値Qより悪いサブ基準照合得点を有するトレーニング
    特徴ベクトル信号の第2のサブ・サブセットを記憶し、 上記区画生成手段が、トレーニング特徴ベクトル信号の
    第1のサブ・サブセットからの第1のプロトタイプ・ベ
    クトル信号に対する1つ以上の区画値を生成し、 トレーニング特徴ベクトルの第2のサブ・サブセットか
    らの第1のプロトタイプ・ベクトル信号に対する1つ以
    上の追加の区画値を生成する手段と、 を備えることを特徴とする請求項3に記載の音声コード
    化装置。
  5. 【請求項5】各区画値が、クラスタにおけるトレーニン
    グ特徴ベクトル信号の特徴値の平均を含むことを特徴と
    する請求項4に記載の音声コード化装置。
  6. 【請求項6】上記各区画値が更に、クラスタにおけるト
    レーニング特徴ベクトル信号の特徴値の分散を含むこと
    を特徴とする請求項5に記載の音声コード化装置。
  7. 【請求項7】閾値Qが1に等しいことを特徴とする請求
    項6に記載の音声コード化装置。
  8. 【請求項8】トレーニング・スクリプト・モデルが一連
    の要素モデルを含む一連の音声モデルを有し、トレーニ
    ング・スクリプト・モデルにおける各要素モデルが、先
    行及び後続する音声モデルの音声文脈を有し、 プロトタイプ生成手段は更に第1及び第2の基準ベクト
    ル信号を生成する手段を含み、 第1の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の音声の文脈における第1の要素モデルに対応
    するトレーニング特徴ベクトル信号の平均を含み、 第2の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の文脈と異なる第2の音声の文脈における第1
    の要素モデルに対応するトレーニング特徴ベクトル信号
    の平均を含む、 ことを特徴とする請求項1に記載の音声コード化装置。
  9. 【請求項9】上記測定手段がマイクロフォンを含むこと
    を特徴とする請求項1に記載の音声コード化装置。
  10. 【請求項10】プロトタイプ・ベクトル信号を記憶する
    手段が、電子的に読み込み可能なメモリをから構成され
    ることを特徴とする請求項1に記載の音声コード化装
    置。
  11. 【請求項11】要素モデルの有限のセットからの一連の
    要素モデルから構成されるトレーニング・スクリプト・
    モデルであって、各要素モデルがトレーニング・スクリ
    プトにおいて先行または後続する1以上のモデルから成
    る音響的文脈を有するものを記憶するステップと、 トレーニング・スクリプトのトレーニング発言の少くと
    も1つの特徴値を一連の連続した時間間隔の各々に対し
    て測定し、特徴値を表す一連のトレーニング特徴ベクト
    ル信号を生成するステップと、 トレーニング・スクリプト・モデルにおける第1の要素
    モデルに対応するトレーニング特徴ベクトル信号の第1
    のセットを識別するステップと、 各々少くとも1つのパラメータ値を有する少くとも第1
    及び第2の基準ベクトル信号であって、第1の基準ベク
    トル信号が先行及び後続する音響モデルの第1の音響的
    文脈における第1の要素モデルに対応するトレーニング
    特徴ベクトルの算術的平均を含み、第2の基準ベクトル
    信号が先行及び後続する音響モデルの第2の音響的文脈
    における第1の要素モデルに対応するトレーニング特徴
    ベクトルの算術的平均を含むものを記憶するステップ
    と、 第1の基準ベクトル信号の少なくとも1つのパラメータ
    ー値と、第1のセットにおける各トレーニング特徴ベク
    トル信号の特徴値を比較して、各トレーニング特徴ベク
    トル信号及び第1の基準ベクトル信号に関する第1の近
    さ得点を得るステップと、 第2の基準ベクトル信号の少なくとも1つのパラメータ
    ー値と、第1のセットにおける各トレーニング特徴ベク
    トル信号の特徴値を比較して、各トレーニング特徴ベク
    トル信号及び第2の基準ベクトル信号に関する第2の近
    さ得点を得るステップと、 第1のセットにおける各トレーニング特徴ベクトル信号
    に関して、トレーニング特徴ベクトル信号に対する第1
    の近さ得点を、トレーニング特徴ベクトル信号に対する
    第2の近さ得点と比較して、各トレーニング特徴ベクト
    ル信号と第1及び第2の基準ベクトル信号に対する基準
    照合得点を得るステップと、 第1のセットにおける閾値Qより良い基準照合得点を有
    するトレーニング特徴ベクトル信号の第1のサブセット
    を記憶し、第1のセットにおける閾値Qより悪い基準照
    合得点を有するトレーニング特徴ベクトル信号の第2の
    サブセットを記憶するステップと、 トレーニング特徴ベクトル信号の第1のサブセットから
    の第1のプロトタイプ・ベクトル信号に関する1つ以上
    の区画値を生成し、トレーニング特徴ベクトル信号の第
    2のサブセットからの第1のプロトタイプ・ベクトルに
    対する1つ以上の追加の区画値を生成するステップと、 を備えた音声コード化方法。
  12. 【請求項12】第1の基準ベクトル信号のパラメータ値
    が、第2の文脈におけるトレーニング・スクリプトの要
    素モデルに対応するトレーニング特徴ベクトル信号の第
    2のセットの特徴値の平均を含み、 第2の基準ベクトル信号のパラメータ値が、第1及び第
    2の文脈と異なる第3の文脈におけるトレーニング・ス
    クリプトの要素モデルに対応するトレーニング特徴ベク
    トル信号の第3のセットの特徴値の平均を含む、 ことを特徴とする請求項11に記載の音声コード化方
    法。
  13. 【請求項13】区画値を生成するための上記ステップ
    が、トレーニング特徴ベクトルの各サブセットを1つ以
    上の異なるクラスタにグループ化するステップを含むこ
    とを特徴とする請求項12に記載の音声コード化方法。
  14. 【請求項14】トレーニング特徴ベクトル信号の各サブ
    セットを、1つ以上の異なるクラスタにグループ化する
    ための上記ステップが、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第3及び第4の基準ベクトル信号を記憶
    するステップと、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第3の基準ベクトル信号のパラメータ値
    と比較し、トレーニング特徴ベクトル信号と第3の基準
    ベクトル信号に関する第3の近さ得点を得るステップ
    と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第4の基準ベクトル信号のパラメータ値
    と比較して、トレーニング特徴ベクトル信号と第4の基
    準ベクトル信号に対する第4の近さ得点を得るステップ
    と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号に関して、トレーニング特徴ベクトル信号に対する
    第3の近さ得点を、トレーニング特徴ベクトル信号に対
    する第4の近さ得点と比較して、各トレーニング特徴ベ
    クトル信号と第3及び第4の基準ベクトル信号に対する
    サブ基準照合得点得るためのステップと、 第1のサブセットにおいて閾値Q’より良いサブ基準照
    合得点を有するトレーニング特徴ベクトル信号の第1の
    サブ・サブセットを記憶し、第1のサブセットにおいて
    閾値Q’より悪いサブ基準照合得点を有するトレーニン
    グ特徴ベクトル信号の第2のサブ・サブセットを記憶
    し、 上記区画生成ステップが、トレーニング特徴ベクトル信
    号の第1のサブーサブセットからの第1のプロトタイプ
    ・ベクトル信号に対する1つ以上の区画値を生成し、 トレーニング特徴ベクトルの第2のサブーサブセットか
    らの第1のプロトタイプ・ベクトル信号に対する1つ以
    上の追加の区画値を生成するステップと、 から成ることを特徴とする請求項13に記載の音声コー
    ド化方法。
  15. 【請求項15】各区画値が、クラスタにおけるトレーニ
    ング特徴ベクトル信号の特徴値の平均を含むことを特徴
    とする請求項14に記載の音声コード化方法。
  16. 【請求項16】上記各区画値が更に、クラスタにおける
    トレーニング特徴ベクトル信号の特徴値の分散を含むこ
    とを特徴とする請求項15に記載の音声コード化方法。
  17. 【請求項17】閾値Qが1に等しいことを特徴とする請
    求項16に記載の音声コード化方法。
  18. 【請求項18】トレーニング・スクリプト・モデルが一
    連の要素モデルを含む一連の音声モデルを有し、トレー
    ニング・スクリプト・モデルにおける各要素モデルが、
    先行及び後続する音声モデルの音声文脈を有し、 プロトタイプ生成ステップは更に第1及び第2の基準ベ
    クトル信号を生成するステップを含み、 第1の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の音声の文脈における第1の要素モデルに対応
    するトレーニング特徴ベクトル信号の平均を含み、 第2の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の文脈と異なる第2の音声の文脈における第1
    の要素モデルに対応するトレーニング特徴ベクトル信号
    の平均を含む、 ことを特徴とする請求項11に記載の音声コード化方
    法。
JP6021828A 1993-03-08 1994-01-24 音声コード化装置及び方法 Expired - Fee Related JP3037864B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/028,028 US5497447A (en) 1993-03-08 1993-03-08 Speech coding apparatus having acoustic prototype vectors generated by tying to elementary models and clustering around reference vectors
US08/028,028 1993-03-08

Publications (2)

Publication Number Publication Date
JPH06274200A JPH06274200A (ja) 1994-09-30
JP3037864B2 true JP3037864B2 (ja) 2000-05-08

Family

ID=21841159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6021828A Expired - Fee Related JP3037864B2 (ja) 1993-03-08 1994-01-24 音声コード化装置及び方法

Country Status (3)

Country Link
US (1) US5497447A (ja)
EP (1) EP0615227A3 (ja)
JP (1) JP3037864B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102257784B1 (ko) * 2019-06-19 2021-05-28 나연재 설치가 용이한 파티션 결합구조
KR102471637B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 시공 방법, 조립식 욕실 유니트 제조 방법 및 이에 사용되는 프린팅 시스템
KR102471628B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 및 조립식 인테리어 유니트

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793891A (en) * 1994-07-07 1998-08-11 Nippon Telegraph And Telephone Corporation Adaptive training method for pattern recognition
GB9419388D0 (en) * 1994-09-26 1994-11-09 Canon Kk Speech analysis
JP2980228B2 (ja) * 1994-10-25 1999-11-22 日本ビクター株式会社 音声認識用音響モデル生成方法
US5715367A (en) * 1995-01-23 1998-02-03 Dragon Systems, Inc. Apparatuses and methods for developing and using models for speech recognition
DE19516106C2 (de) * 1995-05-05 2003-04-03 Philips Corp Intellectual Pty Verfahren zum Bestimmen von Referenzwerten
EP0788648B1 (en) * 1995-08-28 2000-08-16 Koninklijke Philips Electronics N.V. Method and system for pattern recognition based on dynamically constructing a subset of reference vectors
US5787394A (en) * 1995-12-13 1998-07-28 International Business Machines Corporation State-dependent speaker clustering for speaker adaptation
JP2982689B2 (ja) * 1996-04-19 1999-11-29 日本電気株式会社 情報量基準を用いた標準パターン作成方式
AU713371B2 (en) * 1996-07-29 1999-12-02 British Telecommunications Public Limited Company Pattern recognition
US5835890A (en) * 1996-08-02 1998-11-10 Nippon Telegraph And Telephone Corporation Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon
US6151575A (en) * 1996-10-28 2000-11-21 Dragon Systems, Inc. Rapid adaptation of speech models
US6212498B1 (en) 1997-03-28 2001-04-03 Dragon Systems, Inc. Enrollment in speech recognition
US6092044A (en) * 1997-03-28 2000-07-18 Dragon Systems, Inc. Pronunciation generation in speech recognition
US5970239A (en) * 1997-08-11 1999-10-19 International Business Machines Corporation Apparatus and method for performing model estimation utilizing a discriminant measure
US5946653A (en) * 1997-10-01 1999-08-31 Motorola, Inc. Speaker independent speech recognition system and method
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6163768A (en) 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition
US6463413B1 (en) * 1999-04-20 2002-10-08 Matsushita Electrical Industrial Co., Ltd. Speech recognition training for small hardware devices
JP3574075B2 (ja) * 2001-02-07 2004-10-06 日本電信電話株式会社 信号検出方法、信号検出装置、記録媒体及びプログラム
US8938390B2 (en) * 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
US10223934B2 (en) 2004-09-16 2019-03-05 Lena Foundation Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
US9355651B2 (en) 2004-09-16 2016-05-31 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US9240188B2 (en) 2004-09-16 2016-01-19 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US7805301B2 (en) * 2005-07-01 2010-09-28 Microsoft Corporation Covariance estimation for pattern recognition
CA2676380C (en) * 2007-01-23 2015-11-24 Infoture, Inc. System and method for detection and analysis of speech
US20100063817A1 (en) * 2007-03-14 2010-03-11 Pioneer Corporation Acoustic model registration apparatus, talker recognition apparatus, acoustic model registration method and acoustic model registration processing program
CN103000172A (zh) * 2011-09-09 2013-03-27 中兴通讯股份有限公司 信号分类方法和装置
KR20140082157A (ko) * 2012-12-24 2014-07-02 한국전자통신연구원 다중 음향 모델을 이용하여 음성을 인식하기 위한 장치 및 그 방법
US9305554B2 (en) * 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
US9589564B2 (en) 2014-02-05 2017-03-07 Google Inc. Multiple speech locale-specific hotword classifiers for selection of a speech locale
WO2019113477A1 (en) 2017-12-07 2019-06-13 Lena Foundation Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness
CN112148880A (zh) * 2020-09-28 2020-12-29 深圳壹账通智能科技有限公司 一种客服对话语料聚类方法、系统、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980918A (en) * 1985-05-09 1990-12-25 International Business Machines Corporation Speech recognition system with efficient storage and rapid assembly of phonological graphs
US4852173A (en) * 1987-10-29 1989-07-25 International Business Machines Corporation Design and construction of a binary-tree system for language modelling
US5033087A (en) * 1989-03-14 1991-07-16 International Business Machines Corp. Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system
US5182773A (en) * 1991-03-22 1993-01-26 International Business Machines Corporation Speaker-independent label coding apparatus
US5313552A (en) * 1991-03-27 1994-05-17 Unisys Corporation Apparatus for quantizing an input group of data samples into one of N quantized groups of data via a process on less than N/2 reference groups of data samples
US5276766A (en) * 1991-07-16 1994-01-04 International Business Machines Corporation Fast algorithm for deriving acoustic prototypes for automatic speech recognition
US5222146A (en) * 1991-10-23 1993-06-22 International Business Machines Corporation Speech recognition apparatus having a speech coder outputting acoustic prototype ranks
US5278942A (en) * 1991-12-05 1994-01-11 International Business Machines Corporation Speech coding apparatus having speaker dependent prototypes generated from nonuser reference data
US5267345A (en) * 1992-02-10 1993-11-30 International Business Machines Corporation Speech recognition apparatus which predicts word classes from context and words from word classes

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102257784B1 (ko) * 2019-06-19 2021-05-28 나연재 설치가 용이한 파티션 결합구조
KR102471637B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 시공 방법, 조립식 욕실 유니트 제조 방법 및 이에 사용되는 프린팅 시스템
KR102471628B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 및 조립식 인테리어 유니트

Also Published As

Publication number Publication date
EP0615227A3 (en) 1996-12-11
JPH06274200A (ja) 1994-09-30
EP0615227A2 (en) 1994-09-14
US5497447A (en) 1996-03-05

Similar Documents

Publication Publication Date Title
JP3037864B2 (ja) 音声コード化装置及び方法
JP2986313B2 (ja) 音声コード化装置及びその方法並びに音声認識装置及びその方法
JP2597791B2 (ja) 音声認識装置及び方法
JP2823469B2 (ja) 文脈依存型音声認識装置および方法
US5033087A (en) Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system
US5267345A (en) Speech recognition apparatus which predicts word classes from context and words from word classes
CN111916111B (zh) 带情感的智能语音外呼方法及装置、服务器、存储介质
EP0788090B1 (en) Transcription of speech data with segments from acoustically dissimilar environments
US5794197A (en) Senone tree representation and evaluation
US5522011A (en) Speech coding apparatus and method using classification rules
US6076053A (en) Methods and apparatus for discriminative training and adaptation of pronunciation networks
EP0545083A2 (en) A speech coding apparatus having speaker dependent prototypes generated from nonuser reference data
EP0504485A2 (en) A speaker-independent label coding apparatus
JP2986037B2 (ja) 音声符号化方法及び装置
US6224636B1 (en) Speech recognition using nonparametric speech models
WO1993013519A1 (en) Composite expert
EP0475759B1 (en) Phoneme discrimination method
US20030097263A1 (en) Decision tree based speech recognition
JP2700143B2 (ja) 音声コーディング装置および方法
Kuah et al. A neural network-based text independent voice recognition system
JPH10149190A (ja) 音声認識方法及び音声認識装置
Lee et al. A Gaussian Selection Method for Multi-mixture HMM based Continuous Speech Recognition
JPH0588693A (ja) 音声認識装置
JPH0627989A (ja) バックグラウンドhmmパラメータ抽出方法およびその方法を用いた音声認識装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees