JPH06274200A - 音声コード化装置及び方法 - Google Patents

音声コード化装置及び方法

Info

Publication number
JPH06274200A
JPH06274200A JP6021828A JP2182894A JPH06274200A JP H06274200 A JPH06274200 A JP H06274200A JP 6021828 A JP6021828 A JP 6021828A JP 2182894 A JP2182894 A JP 2182894A JP H06274200 A JPH06274200 A JP H06274200A
Authority
JP
Japan
Prior art keywords
vector signal
training
feature vector
training feature
prototype
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6021828A
Other languages
English (en)
Other versions
JP3037864B2 (ja
Inventor
Lalit R Bahl
アール バール ラリット
Ponani S Gopalakrishnan
エス ゴパラクリシュナン ポナーニ
Michael A Picheny
アラン ピケニ マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH06274200A publication Critical patent/JPH06274200A/ja
Application granted granted Critical
Publication of JP3037864B2 publication Critical patent/JP3037864B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【目的】音声コード化装置及びその方法を提供する。 【構成】 トレーニング・スクリプトのトレーニング発
言の少くとも1つの特徴値が一連の連続した時間間隔で
測定され、一連のトレーニング特徴ベクトルが生成され
る。トレーニング・スクリプトにおける第1の初歩モデ
ルに対応するトレーニング特徴ベクトルの第1のセット
が識別される。第1のセットにおける各トレーニング特
徴ベクトル信号の特徴値が第1の基準ベクトル信号のパ
ラメータ値と比較されて第1の近さ得点を得、更に、第
2の基準ベクトルのパラメータ値と比較されて各トレー
ニング特徴ベクトルに対する第2の近さ得点を得る。第
1のセットにおける各トレーニング特徴ベクトルに関し
て第1の近さ得点が第2の近さ得点と比較されて基準照
合得点を得る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声認識システム等の
音声のコード化に関連する。
【0002】
【従来の技術】音声認識の第1のステップは、発言を測
定することに関与する。音声コード化装置は、例えば、
一連の時間間隔(例えば、10ミリ秒の時間間隔)に、
1つ以上の周波数帯域において発言の振幅を測定する。
音声コード化装置による各測定値は、フィルタに通さ
れ、正規化され或いは操作されて要求された音声情報を
得た上で、結果として音響特徴ベクトルとして記憶され
る。音声認識装置において認識すべき発言から音声エン
コーダによって作り出された音響特徴ベクトルが、単語
の音声モデルと比較され、最もよく一致したモデルが見
つけられる。比較を簡単にするため、音響特徴ベクトル
は、ベクトルの量子化によって連続の変数から離散的変
数に変換される。離散的変数は、それから音声モデルと
比較される。
【0003】プロトタイプ・ベクトルの有限のセットを
提供することによって、音響特徴ベクトルは量子化され
る。各プロトタイプ・ベクトルは、識別子(ラベル)を
有し、1組以上のパラメータ値を持つ。音響特徴ベクト
ルの値は、プロトタイプ・ベクトルのパラメータ値と比
較され、最も近いプロトタイプ・ベクトルを見つける。
最も近いプロトタイプ・ベクトルの識別子(ラベル)
が、音響特徴ベクトルの符号化表示としての出力であ
る。例えば、各プロトタイプ値は、プロトタイプ・ベク
トルに対応している一組の音響特徴ベクトル値を平均す
ることによって得られる。
【0004】例えば、音響特徴ベクトルは、初期のプロ
トタイプ・ベクトルのセットを使用した既知のトレーニ
ング・スクリプトの発言をコード化し、そして次に、音
響特徴ベクトルとトレーニング・スクリプトの音響モデ
ルの間の最も可能性のある配列を見つけることによっ
て、プロトタイプ・ベクトルと相関する。しかしなが
ら、各プロトタイプ・ベクトルに対する単一の平均は、
正確にプロトタイプ・ベクトルをモデル化しないことが
分かっている。各プロトタイプ・ベクトルがプロトタイ
プ・ベクトルに対応している音響特徴ベクトルのセット
を多くのクラスタに分割することによって得られた区画
の混合から構成されるならば、よりよいモデルが得られ
る。
【0005】例えば、プロトタイプ・ベクトルに対応し
ている音響特徴ベクトルのセットは、トレーニング・ス
クリプトにおける各音響特徴ベクトルの前後関係(例え
ば、前後の音、以下文脈)に従ってグループ化される。
各プロトタイプ・ベクトルを適切にモデル化するため
に、各前後関係グループは、お互いの近くに整理された
音響特徴ベクトルのクラスタに分割される(例えばK−
手法のクラスタリング「K-means」によって)。「クラ
スタ化アルゴリズム(Clustering Algorithms, John A.H
artigan, John Wiley & Sons, Inc., 1975.)参照」。音
響特徴ベクトルの各クラスタは、区画を形成する。区画
を形成している音響特徴ベクトルの平均のような値及び
区画を形成している音響特徴ベクトルの共分散マトリッ
クスによって、各区画が代表される。(簡単のために、
共分散マトリックスの全ての非対角項がゼロに近似され
る。) 上に記述された方法において各プロトタイプ・ベクトル
を適切にモデル化するために、トレーニング・スクリプ
トの発音から相当な量のトレーニング・データ(学習デ
ータ)が必要とされ、相当な計算資源がトレーニング・
データを分析するために必要とされる。更に、1人の話
し手から他のものへの音響特徴ベクトルのクラスタの間
の相関はなく、従って1人の話し手からのプロトタイプ
・ベクトル・データが、他の話し手のためのプロトタイ
プ・ベクトルを生成するために役立てられない。更に、
音響特徴ベクトルの値をプロトタイプ・ベクトルのパラ
メータ値と比較するするために、音響特徴ベクトルの値
は、プロトタイプ・ベクトルを構成している全ての区画
のパラメータ値に突き合わせられて、合成照合得点を生
成しなければならない。
【0006】しかしながら、一般に音響特徴ベクトルに
最も近い区画に関する照合得点が全ての区画に対する合
成照合点数を左右することが分かっている。従って、プ
ロトタイプの照合得点は、音響特徴ベクトルに最も近い
プロトタイプの1区画に対する照合得点によって近似す
ることができる。
【0007】
【発明が解決しようとする課題】比較的少ない量のトレ
ーニング・データによって、プロトタイプ・ベクトルが
正確に生成できる音声コード化装置を提供することが本
発明の目的である。本発明のもう1つの目的は、比較的
少ない計算資源の消費によって、プロトタイプ・ベクト
ルが正確に生成できる音声コード化装置を提供すること
である。本明の更に別の目的は、新しい話し手に対する
プロトタイプ・ベクトルの区画が、他の話し手の同じプ
ロトタイプ・ベクトルの区画と相関することができ、そ
の結果、多くの他の話し手から得られたプロトタイプ・
ベクトル・データが、新しい話し手に対するプロトタイ
プ・ベクトルを生成するのに役立つような音声コード化
装置を提供することである。更に本発明のもう1つの目
的は、音響特徴の値が、少ない計算量でプロトタイプ・
ベクトルの区画のパラメータ値と比較できる音声コード
化装置を提供することである。
【0008】
【課題を解決するための手段】本発明による音声コード
化装置及びその方法は、一連の連続した時間間隔の中で
個々の発言の少くとも1つの特徴値を測定し、特徴値を
表す一連の特徴ベクトル信号を生成する。複数のプロト
タイプ・ベクトル信号が記憶される。各プロトタイプ・
ベクトル信号は、少くとも2区画を有し、識別値を持
つ。各区画は、少くとも1つのパラメーター値を持つ。
第1の特徴ベクトル信号の特徴値は、各プロトタイプ・
ベクトル信号の少くとも1つの区画のパラメータ値と比
較されて、第1の特徴ベクトル信号及び各プロトタイプ
・ベクトル信号に対するプロトタイプ照合得点が得られ
る。少くとも最高のプロトタイプ照合得点を有するプロ
トタイプ・ベクトル信号の識別値が、第1の特徴ベクト
ル信号のコード化された発言表示信号としての出力であ
る。
【0009】本発明による音声コード化装置及びその方
法は、トレーニング・スクリプトのモデルを記憶させる
ことによって記憶されたプロトタイプ・ベクトル信号を
生成する。トレーニング・スクリプト・モデルは、有限
の初歩モデルのセットからの一連の初歩モデルで構成さ
れる。トレーニング・スクリプトのトレーニング発言の
少くとも1つの特徴値が一連の連続した時間間隔の各々
に対して測定され、特徴値を表す一連のトレーニング特
徴ベクトル信号を生成する。トレーニング・スクリプト
・モデルにおける第1の初歩モデルに対応しているトレ
ーニング特徴ベクトル信号の第1のセットが識別され
る。少くとも、第1と第2の基準ベクトル信号が記憶さ
れる。
【0010】各基準ベクトル信号は、少くとも1つのパ
ラメータ値を持つ。第1のセットにおける各トレーニン
グ特徴ベクトル信号の特徴値が第1の基準ベクトル信号
のパラメータ値と比較され、各トレーニング特徴ベクト
ル信号と第1の基準ベクトル信号に関する第1の近さ得
点を得る。第1のセットにおける各トレーニング特徴ベ
クトル信号の特徴値が、同様に第2の基準ベクトル信号
のパラメーター値と比較され、各トレーニング特徴ベク
トル信号と第2の基準ベクトル信号に対する第2の近さ
得点を得る。第1のセットにおける各トレーニング特徴
ベクトル信号に関して、トレーニング特徴ベクトル信号
に対する第1の近さ得点は、トレーニング特徴ベクトル
信号に対する第2の近さ得点と比較され、各トレーニン
グ特徴ベクトル信号と第1及び第2の基準ベクトル信号
に関する基準照合得点を得る。
【0011】閾値Qより高い基準照合得点を持つ第1の
セットにおけるトレーニング特徴ベクトルは、第1のサ
ブセットとして記憶される。基準照合得点が閾値Qより
低い第1のセットにおけるトレーニング特徴ベクトル信
号は、第2のサブセットとして記憶される。第1のプロ
トタイプ・ベクトル信号に対する1つ以上の区画値が、
トレーニング特徴ベクトル信号の第1のサブセットから
生成される。第1のプロトタイプ・ベクトル信号に対す
る1つ以上の追加の区画値が、トレーニング特徴ベクト
ル信号の第2のサブセットから生成される。本発明の1
つの局面において、トレーニング・スクリプトにおける
各初歩モデルは、トレーニング・スクリプトにおいて1
つ以上の先行あるいは後続のモデルから成る文脈を有す
る。
【0012】トレーニング特徴ベクトル信号の第1のセ
ットは、第1の文脈におけるトレーニング・スクリプト
において第1の初歩モデルに対応する。例えば、第1の
基準ベクトル信号のパラメータ値は、第2の文脈のトレ
ーニング・スクリプトにおける初歩モデルに対応するト
レーニング特徴ベクトル信号の第2のセットの特徴値の
平均を含む。第2の基準ベクトルのパラメータ値は、第
1及び第2の文脈と異なる第3の文脈のトレーニング・
スクリプトにおける初歩モデルに対応するトレーニング
特徴ベクトル信号の第3のセットの特徴値の平均を含
む。プロトタイプ・ベクトル信号に対する区画値は、ト
レーニング特徴ベクトルの各サブセットを1つ以上の異
なるクラスタにグループ化することによって生成され
る。例えば、トレーニング特徴ベクトル信号の第1のサ
ブセットは、少なくとも第3及び第4の基準ベクトル信
号を記憶することによって、1つ以上の異なるクラスタ
にグループ化される。
【0013】各基準ベクトル信号は、少くとも1つのパ
ラメータ値を持つ。第1のサブセットにおける各トレー
ニング特徴ベクトル信号の特徴値は、第3の基準ベクト
ル信号のパラメータ値と比較され、トレーニング特徴ベ
クトル信号及び第3の基準ベクトル信号に対する第3の
近さ得点を得る。第1のサブセットにおける各トレーニ
ング特徴ベクトル信号の特徴値が、同様に第4の基準ベ
クトル信号のパラメータ値に比較され、トレーニング特
徴ベクトル信号および第4の基準ベクトル信号に対する
第4の近さ得点を得る。第1のサブセットにおける各ト
レーニング特徴信号に対してトレーニング特徴ベクトル
信号に対する第3の近さ得点は、トレーニング特徴ベク
トル信号に対する第4の近さ得点と比較され、各トレー
ニング特徴ベクトル信号および第3及び第4の基準ベク
トル信号に対するサブ基準照合得点を得る。
【0014】閾値Q’より高いサブ基準照合得点を有す
る第1のサブセットにおけるトレーニング特徴ベクトル
信号は、第1のサブ・サブセットとして記憶される。閾
値Q’より低いサブ基準照合得点を有する第1のサブセ
ットにおけるトレーニング特徴ベクトル信号は、第2の
サブ・サブセットとして記憶される。第1のプロトタイ
プ・ベクトル信号に対する1つ以上の区画値は、トレー
ニング特徴ベクトル信号の第1のサブ・サブセットから
生成される。第1のプロトタイプ・ベクトル信号に対す
る1つ以上の追加の区画値は、トレーニング特徴ベクト
ル信号の第2のサブ・サブセットから生成される。例え
ば、各区画値は、クラスタにおけるトレーニング特徴値
信号の特徴値の平均を含むである。
【0015】各区画は、更にクラスタにおけるトレーニ
ング特徴ベクトル信号の特徴値の分散を含む。閾値Q
は、例えば1である。例えば、トレーニング・スクリプ
ト・モデルは、一連の音声のモデルを含む。各音声のモ
デルは、一連の初歩モデルを含む。トレーニング・スク
リプト・モデルにおける各初歩モデルは、先行及び後続
する音声モデルの音声の文脈を有する。プロトタイプ・
ベクトル信号を生成するために、第1の基準ベクトル信
号は、先行及び後続する音声モデルの第1の音声の文脈
における第1の初歩モデルに対応しているトレーニング
特徴ベクトル信号の平均を含む。第2の基準ベクトル信
号は、先行及び後続する音声モデルの第1の文脈と異な
る第2の音声の文脈における第1の初歩モデルに対応し
ているトレーニング特徴ベクトル信号の平均を含む。発
言の少くとも1つの特徴値が、一部マイクロフォンで測
定される。
【0016】プロトタイプ・ベクトル信号は、電子的に
読み込み可能なメモリに記憶される。本発明による音声
コード化装置および方法において、基準ベクトルの周辺
に音響特徴ベクトルをクラスタ化することによって、プ
ロトタイプ・ベクトル区画が、より少ないトレーニング
・データおよびより少ない計算資源で得られる。本発明
に従って、異なる話し手と相関している基準ベクトルの
周辺に音響特徴ベクトルをクラスタ化することによって
(例えば文脈によって相関する)新しい話し手に対する
プロトタイプ・ベクトルの区画は、他の話し手に対する
同じプロトタイプ・ベクトルの区画と相関することがで
き、多くの他の話し手から得られたプロトタイプ・ベク
トル・データが、新しい話し手に対するプロトタイプ・
ベクトルを生成するのに役立てられる。
【0017】本発明に従って、プロトタイプ・ベクトル
区画を得るために基準ベクトルの周辺に音響特徴ベクト
ルをクラスタ化することによって、音響特徴ベクトルに
最も近いプロトタイプ・ベクトル区画が、より少ない計
算資源によって見つけることができる。
【0018】
【実施例】図1は、本発明に従った音声コード化装置の
1例のブロック・ダイヤグラムである。装置は一連の連
続した時間間隔のそれぞれについて、発言の少くとも1
つの特徴の値を測定するために、音響特徴値測定10を
有し、特徴値を表す一連の特徴ベクトル信号を生成す
る。例えば、音響特徴値測定10は、一連の10ミリ秒
の時間間隔の各々の間に、20の周波数帯域で発言の振
幅を測定する。音声コード化装置による各測定値は、フ
ィルタに通され、正規化され、あるいは別な方法で処理
され、要求された音声情報を得、結果は音響特徴ベクト
ル信号として記憶される。音声コード化装置は更に、複
数のプロトタイプ・ベクトル信号を記憶するために、プ
ロトタイプ・ベクトル信号記憶12を有する。
【0019】各プロトタイプ・ベクトル信号は、少くと
も2つの区画を有し、識別値を持つ。各区画は、少くと
も1つのパラメータ値を持つ。最初に、記憶12におけ
るプロトタイプ・ベクトル信号は、初期プロトタイプ・
ベクトル信号記憶14から得られる。初期プロトタイプ
・ベクトル信号は、例えば米国特許第5,182,77
3号において記述された方法によって得られるであろ
う。各初期プロトタイプ・ベクトル信号は、1区画だけ
を有する必要がある。音声コード化装置は更に、各プロ
トタイプ・ベクトル信号の少くとも1区画のパラメータ
値に対する第1の特徴ベクトル信号の特徴値の近さを比
較するために、比較プロセッサ16を含んでおり、第1
の特徴ベクトル信号および各プロトタイプ・ベクトル信
号に対するプロトタイプ照合得点を得る。
【0020】出力ブロック18は、プロトタイプ照合得
点を比較プロセッサ16から受取り、第1の特徴ベクト
ル信号のコード化された発言表示信号として、最高のプ
ロトタイプ照合得点を持っているプロトタイプ・ベクト
ル信号の少なくとも識別値を出力する。改訂されたプロ
トタイプ・ベクトル信号を生成してプロトタイプ・ベク
トル信号記憶12に記憶させ、トレーニング・スクリプ
トのモデルを記憶するために、音声コード化装置は更
に、トレーニング・スクリプト・モデル記憶20を含
む。トレーニング・スクリプト・モデルは、初歩モデル
の有限のセットからの一連の初歩モデルを含む。
【0021】図2は、音素の音響マーコフ・モデルの例
を示す。この例では、音声のモデルPNは、初期状態
i、最終状態Sfおよび中間の状態S1からS5を有す
る。各状態SiおよびS1からS5は、他の状態へ移行
し、或いは同じ状態に戻るための1つ以上の移行経路を
有する。各移行は、発生の確率を有し、移行の発生に関
する1つ以上のプロトタイプ・ベクトル信号の識別値を
出力する確率を有する。図2において示された音声のマ
ーコフ・モデルPNは、4つのタイプの初歩モデルT
(0,N)、T(1,N)、T(2,N)およびT
(3,N)を含む。
【0022】初歩モデルT(0,N)によって代表され
る各移行は、ヌル(null)移行を表し、プロトタイプ・ベ
クトル信号識別値を出力するゼロの確率を有する。音声
のマーコフ・モデルPNの初歩モデルT(1,N)によ
って代表される移行は、1つ以上のプロトタイプ・ベク
トル信号識別値を出力するゼロでない確率を有する。初
歩モデルT(1,N)によってモデル化された3つの移
行のそれぞれは、1つ以上のプロトタイプ・ベクトル信
号識別値を出力する確率の同じ分布を持つ。同様に、こ
の例では、初歩モデルT(2,N)は、音声のモデルP
Nにおいて4つの移行をモデル化し、初歩モデルT
(3,N)は、音声のマーコフ・モデルPNにおいて3
つの移行をモデル化する。
【0023】表1は、トレーニング・スクリプトの一部
とトレーニング・スクリプトのモデルを形成する音声の
モデルの仮説的例を示している。
【0024】
【表1】 この仮説的例において、単語「A」は、音声のモデル
{P1 P82}によってモデル化されている。単語
「speech」は、音声のモデル{Pl9 P5P8
2 P7}によってモデル化されいる。等々。音声モデ
ルのパラメータは、音声モデルにおける移行の発生の確
率及び音声モデルの初歩モデルにおける1つ以上のプロ
トタイプ・ベクトル信号識別値を出力する確率を含む。
パラメータは、多数の異なる話し手に大くの既知の単語
を発言させることによって、更に例えば、前方・後方ア
ルゴリズムを使用することによって得られる。例えば、
「統計的手法による連続音声認識(Continuous Speech R
ecognition By StatisticalMethods, Frederick Jeline
k) IEEE, ボリューム 64, No. 4, 1976年4月, 532-556
頁」参照。
【0025】図1に帰って、音声特徴値測定10で測定
した発言が、トレーニング・スクリプト・モデル記憶2
0に記憶したトレーニング・スクリプトのトレーニング
発言であるとき、スイッチ22は、整合プロセッサ24
に、トレーニング・スクリプトのトレーニング発言に対
応するコード化された発言表示信号及びトレーニング特
徴ベクトル信号を提供する。整合プロセッサ24は、ト
レーニング・スクリプト・モデルにおける第1の初歩モ
デルに対応しているトレーニング特徴ベクトル信号の第
1のセットを識別する。表2は、表1において示された
トレーニング・スクリプト音声モデルのトレーニング・
スクリプトの初歩モデルと整合された1次元トレーニン
グ音声特徴ベクトルの仮説的例を示している。
【0026】
【表2】 例えば、ビタービ(Viterbi)のアルゴリズムを
使用することによって、音響特徴ベクトルのトレーニン
グ・スクリプトの初歩モデルとの整合は得られるであろ
う。例えば、上述の「統計的手法による連続音声認識(C
ontinuous Speech Recognition by Statistical Method
s)」参照。表3は、表1のトレーニング・スクリプト・
モデルにおいて、音声モデルP1の第1の初歩モデルT
(1,1)に対応している1次元トレーニング特徴ベク
トルの第1のセットの仮説的例を示している。
【0027】
【表3】 トレーニング・スクリプト・モデルにおける各初歩モデ
ルは、トレーニング・スクリプトにおいて1つ以上の先
行または後続のモデル(音声モデルのような)から成る
文脈を有する。本発明の1局面において、トレーニング
特徴ベクトル信号の第1のセットは、第1の文脈におけ
るトレーニング・スクリプトにおいて第1の初歩モデル
に対応する。上で、表3の仮説的例において示されるよ
うに、トレーニング音響特徴ベクトルの第1のセット
が、C(Ll2)と指定された仮説的文脈におけるトレ
ーニング・スクリプトの初歩モデルT(1,1)に対応
する。例えば、トレーニング特徴ベクトル信号のセット
をグループ化するために使われる初歩モデルの文脈特徴
は、手作業で選択される。
【0028】或いは、文脈特徴は、プロトタイプ・ベク
トルに対応する各特徴ベクトル信号をその文脈で標識を
つけ、特徴ベクトルをその文脈に従ってグループ化し
て、選択された評価関数を最適化することによって自動
的に選択することもできる。例えば、初歩モデルの文脈
は、トレーニング・スクリプトにおいて初歩モデルに先
行する5個の音素及び初歩モデルに続く5個の音素から
構成されている。1つのトレーニング・スクリプトの初
歩モデルに対応しているトレーニング音響特徴ベクトル
の各セットに関して、音響特徴ベクトルのセットを2つ
のサブセットに分割する数多くの文脈候補に対する疑問
がある。例えば、文脈候補の疑問は、「直前の音素は一
定の音か?」ということである。
【0029】各候補の疑問は、疑問から得られたサブセ
ットの評価関数によって点数がつけられる。最も高い得
点に対応している候補文脈の疑問が選択される。1つの
適当な評価関数Eが式1によって与えられる。
【0030】
【式1】 ここで、
【0031】
【式2】 式1において、評価関数Eは、初歩モデルに対応してい
る音響特徴ベクトルv iの第1のサブセットの見込みL1
と初歩モデルに対応している音響特徴ベクトルの第2の
サブセットの見込みL2の積である。各見込みLaは、与
えられたサブセットにおける各音響特徴ベクトルviの
確率とサブセットにおける音響特徴ベクトルのガウス分
布N(μa,σa)の積と等しく、ここでμaは、サブセ
ットにおける音響特徴ベクトルの平均であり、σaは、
サブセットにおける音響特徴ベクトルの標準偏差であ
る。特定の文脈において特定の初歩モデルに対応してい
る音響特徴ベクトルの各サブセット(上に記述された方
法で得られた選択された文脈の疑問に従って)は、更に
候補文脈に関する疑問のもう1つのセットを評価し、最
も良い文脈の疑問を選択することによって分割される。
【0032】この方法を使用して、クラスにおける特徴
ベクトルの数が閾値以下(例えば100の特徴ベクト
ル)になるか叉は、サブセットを分割することによる情
報の利得が閾値以下になるまで音響特徴ベクトルの各新
しいサブセットが分割される。各サブセットを分割する
ことによる利得は、L12/L1,2 として見積もられ
る。ここで、見込みL1,2は、式2から、音響特徴ベク
トルの非分割サブセットの見込みである。閾値は、例え
ば102.5である。
【0033】一般に、1つの初歩モデルに対応している
一組の音響特徴ベクトルは、先行及び後続する音素の3
0の異なる文脈における初歩モデルに対応する30のサ
ブセットに分割される。図3は、トレーニング・スクリ
プト・モデルにおける初歩モデルの文脈を識別するため
の仮説的バイナリ・デシジョン・ツリーの例をおおまか
に示している。デシジョン・ツリーは、ツリーの各ノー
ドNで上に述べた方法によって選択された文脈の疑問を
使用して構成される。トレーニング・スクリプトにおけ
る初歩モデルの特定の発生に関して、尋ねられる次の文
脈の疑問は、前の文脈の疑問が「イエスと答えられてい
るか」或いは「ノーと答えられているか」に依存する。
【0034】その文脈の疑問がデシジョン・ツリーの同
じリーフLで終了するトレーニング・スクリプトにおけ
る全ての初歩モデルの発生は、同じ文脈を持つ。図1に
帰って、音声コード化装置は更に、少くとも第1及び第
2の基準ベクトル信号を記憶するための基準ベクトル信
号記憶26を含む。各基準ベクトル信号は、少くとも1
つのパラメータ値を持つ。比較プロセッサ28は、第1
のセットにおける各トレーニング特徴ベクトル信号の特
徴値を第1の基準ベクトル信号のパラメータ値と比較
し、各トレーニング特徴ベクトル信号と第1の基準ベク
トル信号に関する第1の近さ得点を得る。
【0035】比較プロセッサ28はまた、第1のセット
における各トレーニング特徴ベクトル信号の特徴値を第
2の基準ベクトル信号のパラメータ値と比較し、各トレ
ーニング特徴ベクトル信号と第2の基準ベクトル信号に
関する第2の近さ得点を得る。最後に、第1のセットに
おける各トレーニング特徴ベクトル信号に関して、比較
プロセッサ28は、トレーニング特徴ベクトル信号に関
する第1の近さ得点をトレーニング特徴ベクトル信号に
関する第2の近さ得点と比較し、各トレーニング特徴ベ
クトル信号と第1及び第2の基準ベクトル信号に関する
基準照合得点を得る。表3の仮説的例(上記)におい
て、トレーニング音響特徴ベクトルは、一次元基準ベク
トルA及びBと比較され、各トレーニング音響特徴ベク
トルと基準ベクトルA及びBに対する近さ得点を得る。
【0036】また、この仮説的例に関して、各トレーニ
ング特徴ベクトルに対する基準照合得点が示されてい
る。この例では、基準照合得点は、基準ベクトルAへの
音響特徴ベクトルの近さの基準ベクトルBへの音響特徴
ベクトルの近さに対する比率と等しい。1次元以上の音
響特徴ベクトル及び基準ベクトルに関して、近さ得点
は、二乗されたユークリッド距離である。トレーニング
特徴ベクトル信号記憶30の第1のサブセットは、第1
のセットに閾値Qより良い基準照合得点を有するトレー
ニング特徴ベクトル信号を含む。トレーニング特徴ベク
トル信号記憶32の第2のサブセットは、第1のセット
に閾値Qより悪い基準照合得点を有するトレーニング特
徴ベクトル信号を含む。
【0037】表3の仮説的例に帰って、仮説的閾値Q=
4に対して、各トレーニング音響特徴ベクトルは、閾値
Q=4より少ない基準照合得点を有するサブセットA
か、或いは閾値Q=4より大きい基準照合得点を有する
サブセットBに割り当てられる。その後は、改訂プロト
タイプ区画値ゼネレータ34は、トレーニング特徴ベク
トル信号の第1のサブセットからの第1のプロトタイプ
・ベクトル信号に関する1つ以上の区画値を生成し、ト
レーニング特徴ベクトル信号の第2のサブセットからの
第1のプロトタイプ・ベクトル信号に対する1つ以上の
追加の区画値を生成する。
【0038】トレーニング特徴ベクトル信号の各サブセ
ットは、1つ以上の異なるクラスタにグループ化され
る。例えば、各区画値は、クラスタにおいて、トレーニ
ング特徴ベクトル信号の特徴値の平均を含む。各区画値
は、クラスタにおいて、更にトレーニング特徴ベクトル
信号の特徴値の分散を含む。表4は、表3の仮説的例に
おける区画A及びBと対応する平均及び分散を示してい
る。
【0039】
【表4】 図4は、図1の改訂プロトタイプ区画値ゼネレータ34
の例のブロック・ダイヤグラムである。基準ベクトル信
号記憶36は、少なくとも第3及び第4の基準ベクトル
信号を記憶する。各基準ベクトル信号は、少くとも1つ
のパラメータ値を持つ。比較プロセッサ38は、トレー
ニング特徴ベクトル信号記憶30(図1)の第1のサブ
セットにおける各トレーニング特徴ベクトル信号の特徴
値を第3の基準ベクトル信号のパラメータ値と比較し
て、トレーニング特徴ベクトル信号と第3の基準ベクト
ル信号に関する第3の近さ得点を得る。比較プロセッサ
38はまた、第1のサブセットにおける各トレーニング
特徴値信号の特徴値を第4の基準ベクトル信号のパラメ
ータ値と比較して、トレーニング特徴ベクトル信号と第
4の基準ベクトル信号に関する第4の近さ得点を得る。
【0040】第1のサブセットにおける各トレーニング
特徴ベクトル信号に関して、トレーニング特徴ベクトル
信号に対する第3の近さ得点は、トレーニング特徴ベク
トル信号に対する第4の近さ得点と比較されて、各トレ
ーニング特徴ベクトル信号と第3及び第4の基準ベクト
ル信号に関するサブ・基準照合得点を得る。第3及び第
4の基準ベクトル信号のパラメータ値は、例えば、それ
ぞれ第1及び第2の基準ベクトル信号のパラメータ値に
同一である。図4を基準すると、更に図1の改訂プロト
タイプ区画値ゼネレータ34は、第1のサブセットに閾
値Q’より高いサブ基準照合得点を有するトレーニング
特徴ベクトル信号を記憶するための特徴ベクトル信号記
憶40の第1のサブ・サブセットを有する。
【0041】トレーニング特徴ベクトル信号記憶42の
第2のサブ・サブセットは、第1のサブセットに閾値
Q’より悪いサブ・基準照合得点を有するトレーニング
特徴ベクトルを記憶する。改訂プロトタイプ区画値ゼネ
レータ44は、特徴ベクトル信号の第1のサブ・サブセ
ットからの第1のプロトタイプ・ベクトル信号に対する
1つ以上の区画値を生成し、トレーニング特徴ベクトル
信号の第2のサブ・サブセットからの第1のプロトタイ
プ・ベクトル信号に対する1つ以上の追加の区画値を生
成する。第1の基準ベクトル信号のパラメータ値は、例
えば、第2の文脈にけるトレーニング・スクリプトの初
歩モデルに対応するトレーニング特徴ベクトル信号の第
2のセットの特徴値の平均を含む。
【0042】第2の文脈は、第1の文脈と同じであるか
叉は異なる。第2の基準ベクトル信号のパラメータ値
は、第1及び第2の文脈と異なる第3の文脈におけるト
レーニング・スクリプトの初歩モデルに対応するトレー
ニング特徴ベクトル信号の第3のセットの特徴値の平均
を含む。基準ベクトル信号記憶26及び基準ベクトル信
号記憶36に記憶された基準ベクトル信号が選択され、
例えば、以下の方法で閾値Qの値が得られる。多数の単
語を含んでいる既知の基準スクリプトは、多数の異なる
話し手によって発言される。基準スクリプトの各初歩モ
デルに関して、基準スクリプトにおいてその初歩モデル
の各発生に対応している全ての音響特徴ベクトルが識別
される。
【0043】例えば、その初歩モデルの各発生の文脈
は、図3のツリーのようなデシジョン・ツリーを使用し
て同様に識別される。基準スクリプトを発した各話し手
Sに関して、話し手Sに属し、また選択された初歩モデ
ルと関連する音響特徴ベクトルは、基準スクリプトにお
いて関連する初歩モデルの発生に従ってグループ化され
る。各グループGS,C(Lj)は、選択された初歩モデル、
話し手S及び文脈C(Lj)と関連する全ての音響特徴
ベクトルを含む。音響特徴ベクトルの各グループは、グ
ループ内で音響特徴ベクトルの平均から成る平均ベクト
ルM(GS,C(Lj))を持つ。各話し手Sに属し、グルー
プGS,C(Lj)に属する各音響特徴ベクトルXSi及び文脈
の対C(Lk)及びC(Kk’)に関して、比率
【0044】
【式3】 が計算される。関数Dは、例えば、各音響特徴ベクトX
S,iと平均ベクトルM(GS,C)の間の2乗されたユーク
リッドの距離である。文脈の対C(Lk)及びC(L
k’)及び基準スクリプトの全ての話し手Sに対して前
述の式から得た比率R(XS,i)が、昇順或いは降順に
分類される。変数SL(H)は分類されたリストの上の
H番目のエレメントを示し、Nはリストのサイズを示
す。2からNまでの範囲で、全てのインデックスHにつ
いて、候補閾値Qは次のように定義される。
【0045】
【式4】 全ての話し手Sについて、グループGS,C(Lj)における
各音響特徴ベクトルXs ,iは、比率R(X)が候補閾値
Qより大きいか小さいかによって、2組のうちの1組に
割り当てられる。閾値Qに対する候補値から得られた各
分割に関して、分割の利益が上の式1を使用して計算さ
れる。文脈の対C(Lk)及びC(L.k’)に関し
て、最大の利益をもたらす分割を生成したQの値が記憶
される。同様に分割の利益も記憶される。音響特徴ベク
トルの同じグループGS,C(Lj)及び各他の文脈対C(L
α)及びC(Lβ)に対して、Qの最適値が見つけら
れ、結果として利益Bが見つけられる。
【0046】すべての文脈対の間で最大の利益Bmax
有する文脈対C(Lmax)及びC(L’max)及び対応す
る比率Qmaxがそれぞれ基準ベクトル及び基準照合得点
の閾値Qとして選択される。音響特徴ベクトルのグルー
プGS,C(Lj)は、それから特徴ベクトルに対する基準照
合得点が、選択された基準照合得点の閾値Qより大きい
か或いは小さいかによって2つのサブセットに分割され
る。もし十分なデータと十分な利益があれば、各サブセ
ットは、更に同じ方法で小分割され、更に多くの基準ベ
クトルに対する更に多くの文脈対を得る。もし利益Bが
選択された利益の閾値を越えないならば、サブセットは
小分割されない。新しい話し手に関して、各基準ベクト
ルは、新しい話し手によって生成され、基準ベクトルに
対応している文脈におけるトレーニング・スクリプトの
初歩モデルに対応する一組のトレーニング特徴ベクトル
信号の特徴値の平均を含む。
【0047】必要な計算の量を減らすために、基準照合
得点の閾値Qは、オプションとして1に設定しても良
い。このことは、候補の基準ベクトルの各対と関連する
最適の閾値に関してサーチをしなくて済む。上で述べた
ように、音響特徴ベクトルとプロトタイプ・ベクトルに
対するプロトタイプ照合得点は、音響特徴ベクトルに最
も近いプロトタイプ・ベクトルの1区画の照合得点によ
って近似することができる。最もよい照合得点を生みそ
うな区画が、デシジョン・ツリーを使用することによっ
て、プロトタイプ・ベクトルの全ての区画に音響特徴ベ
クトルを照合するより少ない計算によって見つけること
ができる。プロトタイプ・ベクトルを区画するのに使わ
れる基準ベクトルの各対は、デシジョン・ツリーの1つ
のノードと関連している。
【0048】図3と類似であるが「式3の比率R(X
s,i,k,k')がQより大きいか?」の疑問を有するデシジ
ョン・ツリーは、各ノードで文脈の疑問を置き換える。
本発明による音声コード化装置において、比較プロセッ
サ16、28、及び38及び整合プロセッサ24、改訂
プロトタイプ区画値ゼネレータ34及び44は、適切に
プログラムされた特定目的叉は汎用目的のディジタル信
号プロセッサである。プロトタイプ・ベクトル信号記憶
12及び14、トレーニング特徴ベクトル信号記憶3
0、32、40、及び42、トレーニング・スクリプト
・モデル記憶20、及び基準ベクトル信号記憶26、3
6は、コンピュータ・メモリである。音響特徴値測定の
1例が、図5に示されている。
【0049】測定手段は、発言に対応するアナログ電気
信号を生成するためのマイクロホン46を含む。マイク
ロホン46からのアナログ電気信号は、アナログ・ディ
ジタル変換器48によってデジタル電気信号に変換され
る。この目的のために、アナログ信号は、例えば20キ
ロヘルツの割合でアナログ・ディジタル変換器48によ
ってサンプリングされる。ウィンドウ・ゼネレータ50
は、10ミリ秒毎(1センチ秒毎)のアナログ・ディジ
タル変換器48からのディジタル信号を、例えば20ミ
リ秒間隔のサンプルとして取得する。各20ミリ秒間隔
のディジタル信号サンプルは、例えば20の周波数帯域
の各々におけるディジタル信号サンプルの振幅を得るた
めにスペクトル解析器52によって分析される。
【0050】スペクトル解析器52はまた、全体の振幅
叉は20ミリ秒ディジタル信号サンプルの全体の電力を
表す21次元目の信号を生成することが望ましい。スペ
クトル解析器52は、例えば高速フーリェ変換プロセッ
サである。代わりに、20個のバンド・パス・フィルタ
のバンク(bank)であってもよい。スペクトル解析器52
によって生成された21次元ベクトル信号は、編集され
て適応ノイズ・キャンセル・プロセッサ54によって、
背景ノイズを除去される。ノイズ・キャンセル・プロセ
ッサ54は、ノイズ・キャンセル・プロセッサに入力さ
れた特徴ベクトルF(t)からノイズ・ベクトルN
(t)を引き算して出力特徴ベクトルF’(t)を生成
する。
【0051】ノイズ・キャンセル・プロセッサ54は、
前の特徴ベクトルF(t‐1)がノイズ又は無音として
識別されたときはいつでも、ノイズ・ベクトルN(t)
を定期的に更新することによって変化するノイズ・レベ
ルに適応する。ノイズ・ベクトルN(t)は、次の式に
従って更新される。
【0052】
【式5】 ここで、N(t)は時間tにおけるノイズ・ベクトルで
あり、N(t‐1)は時間(t‐1)におけるノイズ・
ベクトルであり、kは適応ノイズ・キャンセル・モデル
の固定パラメータをであり、F(t‐1)は時間(t‐
1)においてノイズ・キャンセル・プロセッサ54に入
力された特徴ベクトルでノイズ叉は無音を表し、Fp
(t‐1)は、記憶56からの1つの無音又はノイズの
プロトタイプ・ベクトルで、特徴ベクトルF(t‐1)
に最も近い。前の特徴ベクトルF(t‐1)は、もし
(a)ベクトルの全体のエネルギが閾値以下であるか、
叉は、(b)適応プロトタイプ・ベクトル記憶58にお
いてもっとも特徴ベクトルに近いプロトタイプ・ベクト
ルが、ノイズ又は無音を表すプロトタイプであるかによ
ってノイズ或いは無音として認識される。
【0053】特徴ベクトルの全体のエネルギに関する分
析の目的で、閾値は例えば、評価される特徴ベクトルの
前2秒間に生成された全ての特徴ベクトル(音声および
無音に対応する)の5パーセンタイルである。ノイズ・
キャンセルの後、特徴ベクトルF’(t)は、短項平均
正規化プロセッサ(short term mean normalization pro
cessor)60によって正規化され、入力音声の大きさの
変化に対して調整される。正規化プロセッサ60は、2
1次元特徴ベクトルF'(t)を正規化し、20次元正
規化特徴ベクトルX(t)を生成する。全体の電力叉は
全体の振幅を表す特徴ベクトルF’(t)の21次元目
は、破棄される。
【0054】時間tにおける正規化特徴ベクトルX
(t)の各コンポーネントiは、対数関数領域において
次の式6によって与えられる。
【0055】
【式6】 ここで、F'i(t)は、時間tにおける正規化されて
ないベクトルのi番目のコンポーネントであり、Z
(t)は式7および8によるF’(t)およびZ(tー
1)のコンポーネントの加重平均である。
【0056】
【式7】 ここで、
【0057】
【式8】 正規化された20次元特徴ベクトルX(t)は、適応ラ
ベラ(labeler)62によって更に処理され、音声の発音
における変化に適応させる。適応された20次元特徴ベ
クトルX’(t)は、20次元適応ベクトルA(t)を
適応ラベラ62の入力に与えられた20次元特徴ベクト
ルX(t)から引くことによって生成される。時間tに
おける適応ベクトルA(t)は、次の式9によって与え
られる。
【0058】
【式9】 ここで、kは適応ラベル・モデルの固定パラメータであ
り、 X(t‐1)は、時間(t‐1)における適
応ラベラ62に対する正規化20次元ベクトル入力であ
り、Xp(t‐1)は、時間(t‐1)において20次
元特徴ベクトルX(t‐1)に最も近い適応プロトタイ
プ・ベクトル(適応プロトタイプ記憶58から)であ
り、A(t‐1)は時間(t‐1)における適応ベクト
ルである。適応ラベラ62からの20次元適応特徴ベク
トル信号X’(t)は、聴覚モデル64に与えられるの
が望ましい。聴覚モデル64は、例えば、人間の聴覚シ
ステムがどのように音声信号を感知するかのモデルを提
供する。聴覚モデルの例は、米国特許第4,980,9
18号において述べられている。
【0059】本発明によれば、時間tにおける適応さら
れた特徴ベクトル信号X’(t)の各周波数帯域iに関
して、聴覚モデル64は、式10および11に従って新
しいパラメータEi(t)を計算する:
【0060】
【式10】 ここで、
【0061】
【式11】 更に、K1、K2及びK3は、聴覚モデルの固定パラメー
タである。各センチ秒(10ミリ秒)の時間間隔毎に、
聴覚モデル64の出力は、修正された20次元特徴ベク
トル信号である。この特徴ベクトルは、他の20次元の
値の2乗の和の平方根と等しい値を有する21次元目に
よって増大される。各センチ秒の時間間隔毎に、コンカ
チネータ66が、1つの現在のセンチ秒時間間隔、4つ
の先行するセンチ秒時間間隔、及び4つの後続のセンチ
秒時間間隔を表す9つの21次元特徴ベクトルを連結し
て、1つの組み継がれた189次元のベクトルを形成す
ることが望ましい。各189次元の組み継がれたベクト
ルは、ロテータ68において回転マトリックスを乗じ
て、組み継がれたベクトルを回転し、組み継がれたベク
トルを50次元に減らすことが望ましい。
【0062】ロテータ68において使われる回転マトリ
ックスは、例えば、トレーニング・セッションの間に得
られた一組の189次元の組み継がれたベクトルをM個
のクラスに類別することによって得られるであろう。ト
レーニング・セットにおける全ての組み継がれたベクト
ルに対する共分散マトリックスは、全てのMクラスにお
ける全ての組み継がれたベクトルに対するクラス共分散
マトリックスの範囲内のサンプルの反数を乗じられる。
結果として生ずるマトリックスの最初の50個の固有ベ
クトルは、回転マトリックスを形成する。
【0063】(例えば、L.R.BahlによるIBM
テクニカルディスクロージャ・ブルチン、第32巻、7
番、1989年12月、ページ320及び321「離散
的パラメータ音素に基づくマーコフ単語モデルを使用し
た音声認識システムに対するベクトル量子化手順(Vect
or Quantization Procedure For Speech RecognitionSy
stems Using Discrete Parameter Phoneme-Based Marko
v Word Models)」を参照) ウィンドウ・ゼネレータ50、スペクトル解析器52、
適応ノイズ・キャンセル・プロセッサ54、短項平均正
規化プロセッサ60、適応ラベラ62、聴覚モデル6
4、コンカチネータ66、及びロテータ68は、適切に
プログラムされた特殊目的或いは汎用のデジタル信号プ
ロセッサでよい。プロトタイプ記憶56及び58は、コ
ンピュータ・メモリである。
【0064】
【発明の効果】本発明により、比較的少ない量のトレー
ニング・データと比較的少ない計算資源の消費によっ
て、プロトタイプ・ベクトルが正確に生成できる音声コ
ード化装置を提供することができ、更に新しい話し手に
対するプロトタイプ・ベクトルの区画が、他の話し手の
同じプロトタイプ・ベクトルの区画と相関することがで
き、その結果、多くの他の話し手から得られたプロトタ
イプ・ベクトル・データが、新しい話し手に対するプロ
トタイプ・ベクトルを生成するのに役立つような音声コ
ード化装置を提供することができる。更に、音響特徴の
値が、少ない計算量でプロトタイプ・ベクトルの区画の
パラメータ値と比較できる音声コード化装置を提供する
ことができる。
【図面の簡単な説明】
【図1】本発明に従った音声コード化装置のブロック・
ダイヤグラム。
【図2】図2は、音素の音響マーコフ(Markov)
モデルの例を示す図。
【図3】トレーニング・スクリプト・モデルにおいて先
行及び後続の音声モデルの文脈に従って、トレーニング
・スクリプト・モデルにおける初歩モデルの文脈を識別
するためのデシジョン・ツリーの例を示す図。
【図4】図1の改訂プロトタイプ区画値ゼネレータのブ
ロック・ダイヤグラム。
【図5】図1の音響特徴値測定のブロック・ダイヤグラ
ム。
【符号の説明】
10 音響特徴値測定 12 プロトタイプ・ベクトル信号記憶 16、28、38 比較プロセッサ 24 整合プロセッサ 48 アナログ・ディジタル変換器 50 ウィンドウ・ゼネレータ 52 スペクトル解析器 54 適応ノイズ・キャンセル・プロセッサ 60 平均正規化プロセッサ
フロントページの続き (72)発明者 ポナーニ エス ゴパラクリシュナン アメリカ合衆国 10598 ニューヨーク州 ヨークタウン ハイツ ラドクリフ ド ライブ 3073 (72)発明者 マイケル アラン ピケニ アメリカ合衆国 10404 ニューヨーク州 ホワイト プレーンズ ラルフ アベニ ュー 118

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 一連の連続した時間間隔で発言の少くと
    も1つの特徴値を測定し、特徴値を表す一連の特徴ベク
    トルを生成する手段と、 各プロトタイプ・ベクトル信号が少くとも2つの区画か
    ら成り、識別値を有し、各区画が少なくとも1つのパラ
    メータ値を有する複数のプロトタイプ・ベクトル信号を
    記憶する手段と、 第1の特徴ベクトル信号の特徴値と各プロトタイプ・ベ
    クトル信号の少くとも1区画のパラメータ値との近さを
    比較して、第1の特徴ベクトル信号と各プロトタイプ・
    ベクトル信号に関するプロトタイプ照合得点を得る手段
    と、 第1の特徴ベクトル信号のコード化された発言表現信号
    として、少くとも最良のプロトタイプ照合得点を有する
    プロトタイプ・ベクトル信号の識別値を出力する手段
    と、 初歩モデルの有限のセットからの一連の初歩モデルから
    構成されるトレーニング・スクリプト・モデルを記憶す
    る手段を有し、記憶されたプロトタイプ・ベクトル信号
    を生成する手段と、 トレーニング・スクリプトのトレーニング発言の少くと
    も1つの特徴値を一連の連続した時間間隔の各々に対し
    て測定し、特徴値を表す一連のトレーニング特徴ベクト
    ルを生成する手段と、 トレーニング・スクリプト・モデルにおける第1の初歩
    モデルに対応するトレーニング特徴ベクトル信号の第1
    のセットを識別する手段と、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第1及び第2の基準ベクトル信号を記憶
    する手段と、 第1の基準ベクトル信号のパラメーター値と、第1のセ
    ットにおける各トレーニング特徴ベクトル信号の特徴値
    を比較して、各トレーニング特徴ベクトル信号及び第1
    の基準ベクトル信号に関する第1の近さ得点を得る手段
    と、 第2の基準ベクトル信号のパラメーター値と、第1のセ
    ットにおける各トレーニング特徴ベクトル信号の特徴値
    を比較して、各トレーニング特徴ベクトル信号及び第2
    の基準ベクトル信号に関する第2の近さ得点を得る手段
    と、 第1のセットにおける各トレーニング特徴ベクトル信号
    に関して、トレーニング特徴ベクトル信号に対する第1
    の近さ得点を、トレーニング特徴ベクトル信号に対する
    第2の近さ得点と比較して、各トレーニング特徴ベクト
    ル信号と第1及び第2の基準ベクトル信号に対する基準
    照合得点を得る手段と、 第1のセットにおける閾値Qより良い基準照合得点を有
    するトレーニング特徴ベクトル信号の第1のサブセット
    を記憶し、第1のセットにおける閾値Qより悪い基準照
    合得点を有するトレーニング特徴ベクトル信号の第2の
    サブセットを記憶する手段と、 トレーニング特徴ベクトル信号の第1のサブセットから
    の第1のプロトタイプ・ベクトル信号に関する1つ以上
    の区画値を生成し、トレーニング特徴ベクトル信号の第
    2のサブセットからの第1のプロトタイプ・ベクトルに
    対する1つ以上の追加の区画値を生成する手段と、を備
    えた音声コード化装置。
  2. 【請求項2】 トレーニング・スクリプトにおける各初
    歩モデルが、トレーニング・スクリプトにおいて1つ以
    上の先行又は後続するモデルから成る文脈を持ち、トレ
    ーニング特徴ベクトル信号の第1のセットが、第1の文
    脈におけるトレーニング・スクリプトの第1の初歩モデ
    ルに対応することを特徴とする請求項1に記載の音声コ
    ード化装置。
  3. 【請求項3】 第1の基準ベクトル信号のパラメータ値
    が、第2の文脈におけるトレーニング・スクリプトの初
    歩モデルに対応するトレーニング特徴ベクトル信号の第
    2のセットの特徴値の平均を含み、 第2の基準ベクトル信号のパラメータ値が、第1及び第
    2の文脈と異なる第3の文脈におけるトレーニング・ス
    クリプトの初歩モデルに対応するトレーニング特徴ベク
    トル信号の第3のセットの特徴値の平均を含む、ことを
    特徴とする請求項2に記載の音声コード化装置。
  4. 【請求項4】 区画値を生成するための上記手段が、ト
    レーニング特徴ベクトルの各サブセットを1つ以上の異
    なるクラスタにグループ化する手段を含むことを特徴と
    する請求項3に記載の音声コード化装置。
  5. 【請求項5】 トレーニング特徴ベクトル信号の各サブ
    セットを、1つ以上の異なるクラスタにグループ化する
    ための上記手段が、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第3及び第4の基準ベクトル信号を記憶
    する手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第3の基準ベクトル信号のパラメータ値
    と比較し、トレーニング特徴ベクトル信号と第3の基準
    ベクトル信号に関する第3の近さ得点を得る手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第4の基準ベクトル信号のパラメータ値
    と比較して、トレーニング特徴ベクトル信号と第4の基
    準ベクトル信号に対する第4の近さ得点を得る手段と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号に関して、トレーニング特徴ベクトル信号に対する
    第3の近さ得点を、トレーニング特徴ベクトル信号に対
    する第4の近さ得点と比較して、各トレーニング特徴ベ
    クトル信号と第3及び第4の基準ベクトル信号に対する
    サブ基準照合得点得る手段と、 第1のサブセットにおいて閾値Q’より良いサブ基準照
    合得点を有するトレーニング特徴ベクトル信号の第1の
    サブ・サブセットを記憶し、第1のサブセットにおいて
    閾値Qより悪いサブ基準照合得点を有するトレーニング
    特徴ベクトル信号の第2のサブ・サブセットを記憶し、 上記区画生成手段が、トレーニング特徴ベクトル信号の
    第1のサブ・サブセットからの第1のプロトタイプ・ベ
    クトル信号に対する1つ以上の区画値を生成し、トレー
    ニング特徴ベクトルの第2のサブ・サブセットからの第
    1のプロトタイプ・ベクトル信号に対する1つ以上の追
    加の区画値を生成する手段と、を備えることを特徴とす
    る請求項4に記載の音声コード化装置。
  6. 【請求項6】 各区画値が、クラスタにおけるトレーニ
    ング特徴ベクトル信号の特徴値の平均を含むことを特徴
    とする請求項5に記載の音声コード化装置。
  7. 【請求項7】 上記各区画値が更に、クラスタにおける
    トレーニング特徴ベクトル信号の特徴値の分散を含むこ
    とを特徴とする請求項6に記載の音声コード化装置。
  8. 【請求項8】 閾値Qが1に等しいことを特徴とする請
    求項7に記載の音声コード化装置。
  9. 【請求項9】 トレーニング・スクリプト・モデルが一
    連の初歩モデルを含む一連の音声モデルを有し、トレー
    ニング・スクリプト・モデルにおける各初歩モデルが、
    先行及び後続する音声モデルの音声文脈を有し、 プロトタイプ生成手段は更に第1及び第2の基準ベクト
    ル信号を生成する手段を含み、 第1の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の音声の文脈における第1の初歩モデルに対応
    するトレーニング特徴ベクトル信号の平均を含み、 第2の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の文脈と異なる第2の音声の文脈における第1
    の初歩モデルに対応するトレーニング特徴ベクトル信号
    の平均を含む、ことを特徴とする請求項1に記載の音声
    コード化装置。
  10. 【請求項10】 上記測定手段がマイクロフォンを含む
    ことを特徴とする請求項1に記載の音声コード化装置。
  11. 【請求項11】 プロトタイプ・ベクトル信号を記憶す
    る手段が、電子的に読み込み可能なメモリをから構成さ
    れることを特徴とする請求項1に記載の音声コード化装
    置。
  12. 【請求項12】 一連の連続した時間間隔で発言の少く
    とも1つの特徴値を測定し、特徴値を表す一連の特徴ベ
    クトルを生成するステップと、 各プロトタイプ・ベクトル信号が少くとも2つの区画か
    ら成り、識別値を有し、各区画が少なくとも1つのパラ
    メータ値を有する複数のプロトタイプ・ベクトル信号を
    記憶するステップと、 第1の特徴ベクトル信号の特徴値と各プロトタイプ・ベ
    クトル信号の少くとも1区画のパラメータ値との近さを
    比較して、第1の特徴ベクトル信号と各プロトタイプ・
    ベクトル信号に関するプロトタイプ照合得点を得るステ
    ップと、 第1の特徴ベクトル信号のコード化された発言表現信号
    として、少くとも最良のプロトタイプ照合得点を有する
    プロトタイプ・ベクトル信号の識別値を出力するステッ
    プと、 初歩モデルの有限のセットからの一連の初歩モデルから
    構成されるトレーニング・スクリプト・モデルを記憶す
    るためのステップを有し、記憶されたプロトタイプ・ベ
    クトル信号を生成するステップと、 トレーニング・スクリプトのトレーニング発言の少くと
    も1つの特徴値を一連の連続した時間間隔の各々に対し
    て測定し、特徴値を表す一連のトレーニング特徴ベクト
    ルを生成するステップと、 トレーニング・スクリプト・モデルにおける第1の初歩
    モデルに対応するトレーニング特徴ベクトル信号の第1
    のセットを識別するステップと、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第1及び第2の基準ベクトル信号を記憶
    するステップと、 第1の基準ベクトル信号のパラメーター値と、第1のセ
    ットにおける各トレーニング特徴ベクトル信号の特徴値
    を比較して、各トレーニング特徴ベクトル信号及び第1
    の基準ベクトル信号に関する第1の近さ得点を得るため
    のステップと、 第2の基準ベクトル信号のパラメーター値と、第1のセ
    ットにおける各トレーニング特徴ベクトル信号の特徴値
    を比較して、各トレーニング特徴ベクトル信号及び第2
    の基準ベクトル信号に関する第2の近さ得点を得るため
    のステップと、 第1のセットにおける各トレーニング特徴ベクトル信号
    に関して、トレーニング特徴ベクトル信号に対する第1
    の近さ得点を、トレーニング特徴ベクトル信号に対する
    第2の近さ得点と比較して、各トレーニング特徴ベクト
    ル信号と第1及び第2の基準ベクトル信号に対する基準
    照合得点を得るステップと、 第1のセットにおける閾値Qより良い基準照合得点を有
    するトレーニング特徴ベクトル信号の第1のサブセット
    を記憶し、第1のセットにおける閾値Qより悪い基準照
    合得点を有するトレーニング特徴ベクトル信号の第2の
    サブセットを記憶するステップと、 トレーニング特徴ベクトル信号の第1のサブセットから
    の第1のプロトタイプ・ベクトル信号に関する1つ以上
    の区画値を生成し、トレーニング特徴ベクトル信号の第
    2のサブセットからの第1のプロトタイプ・ベクトルに
    対する1つ以上の追加の区画値を生成するステップと、 から成る音声コード化方法。
  13. 【請求項13】 トレーニング・スクリプトにおける各
    初歩モデルが、トレーニング・スクリプトにおいて1つ
    以上の先行又は後続するモデルから成る文脈を持ち、ト
    レーニング特徴ベクトル信号の第1のセットが、第1の
    文脈におけるトレーニング・スクリプトの第1の初歩モ
    デルに対応することを特徴とする請求項12に記載の音
    声コード化方法。
  14. 【請求項14】 第1の基準ベクトル信号のパラメータ
    値が、第2の文脈におけるトレーニング・スクリプトの
    初歩モデルに対応するトレーニング特徴ベクトル信号の
    第2のセットの特徴値の平均を含み、 第2の基準ベクトル信号のパラメータ値が、第1及び第
    2の文脈と異なる第3の文脈におけるトレーニング・ス
    クリプトの初歩モデルに対応するトレーニング特徴ベク
    トル信号の第3のセットの特徴値の平均を含む、ことを
    特徴とする請求項13に記載の音声コード化方法。
  15. 【請求項15】 区画値を生成するための上記ステップ
    が、トレーニング特徴ベクトルの各サブセットを1つ以
    上の異なるクラスタにグループ化するステップを含むこ
    とを特徴とする請求項14に記載の音声コード化方法。
  16. 【請求項16】 トレーニング特徴ベクトル信号の各サ
    ブセットを、1つ以上の異なるクラスタにグループ化す
    るための上記ステップが、 各基準ベクトル信号が、少くとも1つのパラメータ値を
    有する少くとも第3及び第4の基準ベクトル信号を記憶
    するステップと、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第3の基準ベクトル信号のパラメータ値
    と比較し、トレーニング特徴ベクトル信号と第3の基準
    ベクトル信号に関する第3の近さ得点を得るステップ
    と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号の特徴値を第4の基準ベクトル信号のパラメータ値
    と比較して、トレーニング特徴ベクトル信号と第4の基
    準ベクトル信号に対する第4の近さ得点を得るステップ
    と、 第1のサブセットにおける各トレーニング特徴ベクトル
    信号に関して、トレーニング特徴ベクトル信号に対する
    第3の近さ得点を、トレーニング特徴ベクトル信号に対
    する第4の近さ得点と比較して、各トレーニング特徴ベ
    クトル信号と第3及び第4の基準ベクトル信号に対する
    サブ基準照合得点得るためのステップと、 第1のサブセットにおいて閾値Q’より良いサブ基準照
    合得点を有するトレーニング特徴ベクトル信号の第1の
    サブ・サブセットを記憶し、第1のサブセットにおいて
    閾値Q’より悪いサブ基準照合得点を有するトレーニン
    グ特徴ベクトル信号の第2のサブ・サブセットを記憶
    し、 上記区画生成ステップが、トレーニング特徴ベクトル信
    号の第1のサブーサブセットからの第1のプロトタイプ
    ・ベクトル信号に対する1つ以上の区画値を生成し、 トレーニング特徴ベクトルの第2のサブーサブセットか
    らの第1のプロトタイプ・ベクトル信号に対する1つ以
    上の追加の区画値を生成するステップと、から成ること
    を特徴とする請求項15に記載の音声コード化方法。
  17. 【請求項17】 各区画値が、クラスタにおけるトレー
    ニング特徴ベクトル信号の特徴値の平均を含むことを特
    徴とする請求項16に記載の音声コード化方法。
  18. 【請求項18】 上記各区画値が更に、クラスタにおけ
    るトレーニング特徴ベクトル信号の特徴値の分散を含む
    ことを特徴とする請求項17に記載の音声コード化方
    法。
  19. 【請求項19】 閾値Qが1に等しいことを特徴とする
    請求項18に記載の音声コード化方法。
  20. 【請求項20】 トレーニング・スクリプト・モデルが
    一連の初歩モデルを含む一連の音声モデルを有し、トレ
    ーニング・スクリプト・モデルにおける各初歩モデル
    が、先行及び後続する音声モデルの音声文脈を有し、 プロトタイプ生成ステップは更に第1及び第2の基準ベ
    クトル信号を生成するステップを含み、 第1の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の音声の文脈における第1の初歩モデルに対応
    するトレーニング特徴ベクトル信号の平均を含み、 第2の基準ベクトル信号は、先行及び後続する音声モデ
    ルの第1の文脈と異なる第2の音声の文脈における第1
    の初歩モデルに対応するトレーニング特徴ベクトル信号
    の平均を含む、ことを特徴とする請求項12に記載の音
    声コード化装置。
JP6021828A 1993-03-08 1994-01-24 音声コード化装置及び方法 Expired - Fee Related JP3037864B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/028,028 US5497447A (en) 1993-03-08 1993-03-08 Speech coding apparatus having acoustic prototype vectors generated by tying to elementary models and clustering around reference vectors
US08/028,028 1993-03-08

Publications (2)

Publication Number Publication Date
JPH06274200A true JPH06274200A (ja) 1994-09-30
JP3037864B2 JP3037864B2 (ja) 2000-05-08

Family

ID=21841159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6021828A Expired - Fee Related JP3037864B2 (ja) 1993-03-08 1994-01-24 音声コード化装置及び方法

Country Status (3)

Country Link
US (1) US5497447A (ja)
EP (1) EP0615227A3 (ja)
JP (1) JP3037864B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236496A (ja) * 2001-02-07 2002-08-23 Nippon Telegr & Teleph Corp <Ntt> 信号検出方法、信号検出装置、記録媒体及びプログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793891A (en) * 1994-07-07 1998-08-11 Nippon Telegraph And Telephone Corporation Adaptive training method for pattern recognition
GB9419388D0 (en) * 1994-09-26 1994-11-09 Canon Kk Speech analysis
JP2980228B2 (ja) * 1994-10-25 1999-11-22 日本ビクター株式会社 音声認識用音響モデル生成方法
US5715367A (en) * 1995-01-23 1998-02-03 Dragon Systems, Inc. Apparatuses and methods for developing and using models for speech recognition
DE19516106C2 (de) * 1995-05-05 2003-04-03 Philips Corp Intellectual Pty Verfahren zum Bestimmen von Referenzwerten
EP0788648B1 (en) * 1995-08-28 2000-08-16 Koninklijke Philips Electronics N.V. Method and system for pattern recognition based on dynamically constructing a subset of reference vectors
US5787394A (en) * 1995-12-13 1998-07-28 International Business Machines Corporation State-dependent speaker clustering for speaker adaptation
JP2982689B2 (ja) * 1996-04-19 1999-11-29 日本電気株式会社 情報量基準を用いた標準パターン作成方式
AU713371B2 (en) * 1996-07-29 1999-12-02 British Telecommunications Public Limited Company Pattern recognition
US5835890A (en) * 1996-08-02 1998-11-10 Nippon Telegraph And Telephone Corporation Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon
US6151575A (en) * 1996-10-28 2000-11-21 Dragon Systems, Inc. Rapid adaptation of speech models
US6212498B1 (en) 1997-03-28 2001-04-03 Dragon Systems, Inc. Enrollment in speech recognition
US6092044A (en) * 1997-03-28 2000-07-18 Dragon Systems, Inc. Pronunciation generation in speech recognition
US5970239A (en) * 1997-08-11 1999-10-19 International Business Machines Corporation Apparatus and method for performing model estimation utilizing a discriminant measure
US5946653A (en) * 1997-10-01 1999-08-31 Motorola, Inc. Speaker independent speech recognition system and method
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6163768A (en) 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition
US6463413B1 (en) * 1999-04-20 2002-10-08 Matsushita Electrical Industrial Co., Ltd. Speech recognition training for small hardware devices
US8938390B2 (en) * 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
US10223934B2 (en) 2004-09-16 2019-03-05 Lena Foundation Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
US9355651B2 (en) 2004-09-16 2016-05-31 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US9240188B2 (en) 2004-09-16 2016-01-19 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US7805301B2 (en) * 2005-07-01 2010-09-28 Microsoft Corporation Covariance estimation for pattern recognition
CA2676380C (en) * 2007-01-23 2015-11-24 Infoture, Inc. System and method for detection and analysis of speech
US20100063817A1 (en) * 2007-03-14 2010-03-11 Pioneer Corporation Acoustic model registration apparatus, talker recognition apparatus, acoustic model registration method and acoustic model registration processing program
CN103000172A (zh) * 2011-09-09 2013-03-27 中兴通讯股份有限公司 信号分类方法和装置
KR20140082157A (ko) * 2012-12-24 2014-07-02 한국전자통신연구원 다중 음향 모델을 이용하여 음성을 인식하기 위한 장치 및 그 방법
US9305554B2 (en) * 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
US9589564B2 (en) 2014-02-05 2017-03-07 Google Inc. Multiple speech locale-specific hotword classifiers for selection of a speech locale
WO2019113477A1 (en) 2017-12-07 2019-06-13 Lena Foundation Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness
KR102257784B1 (ko) * 2019-06-19 2021-05-28 나연재 설치가 용이한 파티션 결합구조
CN112148880A (zh) * 2020-09-28 2020-12-29 深圳壹账通智能科技有限公司 一种客服对话语料聚类方法、系统、设备及存储介质
KR102471628B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 및 조립식 인테리어 유니트
KR102471637B1 (ko) * 2020-11-17 2022-11-29 에이치디씨현대이피 주식회사 조립식 욕실 유니트 시공 방법, 조립식 욕실 유니트 제조 방법 및 이에 사용되는 프린팅 시스템

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980918A (en) * 1985-05-09 1990-12-25 International Business Machines Corporation Speech recognition system with efficient storage and rapid assembly of phonological graphs
US4852173A (en) * 1987-10-29 1989-07-25 International Business Machines Corporation Design and construction of a binary-tree system for language modelling
US5033087A (en) * 1989-03-14 1991-07-16 International Business Machines Corp. Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system
US5182773A (en) * 1991-03-22 1993-01-26 International Business Machines Corporation Speaker-independent label coding apparatus
US5313552A (en) * 1991-03-27 1994-05-17 Unisys Corporation Apparatus for quantizing an input group of data samples into one of N quantized groups of data via a process on less than N/2 reference groups of data samples
US5276766A (en) * 1991-07-16 1994-01-04 International Business Machines Corporation Fast algorithm for deriving acoustic prototypes for automatic speech recognition
US5222146A (en) * 1991-10-23 1993-06-22 International Business Machines Corporation Speech recognition apparatus having a speech coder outputting acoustic prototype ranks
US5278942A (en) * 1991-12-05 1994-01-11 International Business Machines Corporation Speech coding apparatus having speaker dependent prototypes generated from nonuser reference data
US5267345A (en) * 1992-02-10 1993-11-30 International Business Machines Corporation Speech recognition apparatus which predicts word classes from context and words from word classes

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236496A (ja) * 2001-02-07 2002-08-23 Nippon Telegr & Teleph Corp <Ntt> 信号検出方法、信号検出装置、記録媒体及びプログラム

Also Published As

Publication number Publication date
EP0615227A3 (en) 1996-12-11
JP3037864B2 (ja) 2000-05-08
EP0615227A2 (en) 1994-09-14
US5497447A (en) 1996-03-05

Similar Documents

Publication Publication Date Title
JP3037864B2 (ja) 音声コード化装置及び方法
JP2823469B2 (ja) 文脈依存型音声認識装置および方法
JP2986313B2 (ja) 音声コード化装置及びその方法並びに音声認識装置及びその方法
JP2597791B2 (ja) 音声認識装置及び方法
EP0788090B1 (en) Transcription of speech data with segments from acoustically dissimilar environments
US5278942A (en) Speech coding apparatus having speaker dependent prototypes generated from nonuser reference data
CN111916111B (zh) 带情感的智能语音外呼方法及装置、服务器、存储介质
Rabiner et al. HMM clustering for connected word recognition
JP3114975B2 (ja) 音素推定を用いた音声認識回路
US5745873A (en) Speech recognition using final decision based on tentative decisions
US5794197A (en) Senone tree representation and evaluation
US6076053A (en) Methods and apparatus for discriminative training and adaptation of pronunciation networks
JP3110948B2 (ja) 音声符号化装置および方法
JP2986037B2 (ja) 音声符号化方法及び装置
KR20010102549A (ko) 화자 인식 방법 및 장치
Syfullah et al. Efficient vector code-book generation using K-means and Linde-Buzo-Gray (LBG) algorithm for Bengali voice recognition
JP2700143B2 (ja) 音声コーディング装置および方法
Alkhatib et al. Voice identification using MFCC and vector quantization
Yegnanarayana et al. A speaker verification system using prosodic features.
Kuah et al. A neural network-based text independent voice recognition system
Park et al. Discriminative weight training for unit-selection based speech synthesis.
Upadhyay et al. Analysis of different classifier using feature extraction in speaker identification and verification under adverse acoustic condition for different scenario
EP0385124A2 (en) An optimized speech recognition method
Mehmood et al. An overview on speech recognition system and comparative study of its approaches
Vasquez Feature space transformation for speech recognition

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees