JP2000259198A - パターン認識装置および方法、並びに提供媒体 - Google Patents

パターン認識装置および方法、並びに提供媒体

Info

Publication number
JP2000259198A
JP2000259198A JP11057467A JP5746799A JP2000259198A JP 2000259198 A JP2000259198 A JP 2000259198A JP 11057467 A JP11057467 A JP 11057467A JP 5746799 A JP5746799 A JP 5746799A JP 2000259198 A JP2000259198 A JP 2000259198A
Authority
JP
Japan
Prior art keywords
data
state
exist
feature
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11057467A
Other languages
English (en)
Inventor
Hironaga Tsutsumi
洪長 包
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11057467A priority Critical patent/JP2000259198A/ja
Priority to PCT/JP2000/001282 priority patent/WO2000052682A1/ja
Priority to US09/674,583 priority patent/US7280961B1/en
Priority to DE60037486T priority patent/DE60037486T2/de
Priority to EP00906674A priority patent/EP1083544B1/en
Publication of JP2000259198A publication Critical patent/JP2000259198A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Abstract

(57)【要約】 【課題】 音声認識が開始された時から発話が開始され
る時までの時間が長くなるに伴って認識性能が低下する
ことを抑止する。 【解決手段】 無音音響モデル補正部は、音声認識区間
の初期に存在する無音区間Tsを認識するために用いら
れる無音音響モデルを、ノイズ観測区間Tnに含まれる
環境ノイズに基づいて生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、パターン認識装置
および方法、並びに提供媒体に関し、特に、ノイズ環境
下において発話された単語を認識するパターン認識装置
および方法、並びに提供媒体に関する。
【0002】
【従来の技術】従来より、ノイズ環境下において発話さ
れた単語を識別する方法が考案されており、その代表的
な方法としては、PMC(Parallel Model Combination)
法、SS/NSS(Spectral Subtraction/Nonlinear Spectral
Subtraction)法、SFE(StochasticFeature Extraction)
法等が知られている。
【0003】上述したいずれの方法においても、発話音
声に環境ノイズが混在している音声データの特徴量が抽
出され、その特徴量が、予め登録されている複数の単語
に対応する音響モデルのうちのいずれに最も適合するか
が判定されて、最も適合する音響モデルに対応する単語
が認識結果として出力される。
【0004】上述した方法の特徴は、以下の通りであ
る。すなわち、PMC法は、環境ノイズの情報を直接的に
音響モデルに取り込んでいるので認識性能は良いが、計
算コストが高い(高度な演算を必要とするので、装置の
規模が大型化する、処理に要する時間が長い等)。SS/N
SS法は、音声データの特徴量を抽出する段階において、
環境ノイズを除去している。したがって、PMC法よりも
計算コストが低く、現在、多く用いられている方法であ
る。なお、SS/NSS法は、音声データの特徴量をベクトル
として抽出する。SFE法は、SS/NSS法と同様に、ミック
ス信号の特徴量を抽出する段階において、環境ノイズを
除去するが、特徴量を確率分布として抽出する。
【0005】
【発明が解決しようとする課題】ところで、SFE法にお
いては、音声認識の段階で環境ノイズが直接的に反映さ
れていない、すなわち、環境ノイズの情報が直接的に無
音音響モデルに取り込まれていないので、認識性能が劣
る課題があった。
【0006】また、環境ノイズの情報が直接的に無音音
響モデルに取り込まれていないことに起因して、音声認
識が開始された時点から発話が開始されるまでの時間が
長くなるにつれて認識性能が低下する課題があった。
【0007】本発明はこのような状況に鑑みてなされた
ものであり、環境ノイズの情報を用いて無音音響モデル
を補正することにより、音声認識が開始された時から発
話が開始される時までの時間が長くなるに伴って認識性
能が低下することを抑止するようにするものである。
【0008】
【課題を解決するための手段】請求項1に記載のパター
ン認識装置は、入力されるデータのパターンを特徴分布
として抽出する抽出手段と、所定数のモデルを記憶する
記憶手段と、抽出手段が抽出した特徴分布を、所定数の
モデルのうちのいずれかに分類する分類手段と、データ
が入力される直前に入力されたノイズに基づいて、デー
タが存在しない状態に対応するモデルを生成し、記憶手
段に記憶されている対応するものを更新する生成手段と
を含むことを特徴とする。
【0009】請求項6に記載のパターン認識方法は、入
力されるデータのパターンを特徴分布として抽出する抽
出ステップと、所定数のモデルを記憶する記憶ステップ
と、抽出ステップで抽出した特徴分布を、所定数のモデ
ルのうちのいずれかに分類する分類ステップと、データ
が入力される直前に入力されたノイズに基づいて、デー
タが存在しない状態に対応するモデルを生成し、記憶ス
テップで記憶された対応するものを更新する生成ステッ
プとを含むことを特徴とする。
【0010】請求項7に記載の提供媒体は、入力される
データのパターンを特徴分布として抽出する抽出ステッ
プと、所定数のモデルを記憶する記憶ステップと、抽出
ステップで抽出した特徴分布を、所定数のモデルのうち
のいずれかに分類する分類ステップと、データが入力さ
れる直前に入力されたノイズに基づいて、データが存在
しない状態に対応するモデルを生成し、記憶ステップで
記憶された対応するものを更新する生成ステップとをを
含む処理をパターン認識装置に実行させるコンピュータ
が読み取り可能なプログラムを提供することを特徴とす
る。
【0011】請求項1に記載のパターン認識装置、請求
項6に記載のパターン認識方法、および請求項7に記載
の提供媒体においては、入力されるデータのパターンが
特徴分布として抽出され、所定数のモデルが記憶され
て、抽出された特徴分布が、所定数のモデルのうちのい
ずれかに分類される。また、データが入力される直前に
入力されたノイズに基づいて、データが存在しない状態
に対応するモデルが生成されて記憶されている対応する
ものが更新される。
【0012】
【発明の実施の形態】本発明を適用した音声認識装置の
構成例について、図1を参照して説明する。この音声認
識装置において、マイクロフォン1は、認識対象である
発話音声を、環境ノイズとともに集音し、フレーム化部
2に出力する。フレーム化部2は、マイクロフォン1か
ら入力される音声データを、所定の時間間隔(例えば、
10ms)で取り出し、その取り出したデータを、1フレ
ームのデータとして出力する。フレーム化部2が出力す
る1フレーム単位の音声データは、そのフレームを構成
する時系列の音声データそれぞれをコンポーネントとす
る観測ベクトルaとして、ノイズ観測区間抽出部3、お
よび特徴抽出部5に供給される。
【0013】ここで、以下、適宜、第tフレームの音声
データである観測ベクトルを、a(t)と表す。
【0014】ノイズ観測区間抽出部3は、フレーム化部
2から入力されるフレーム化された音声データを所定の
時間(Mフレーム分以上)だけバッファリングしてお
り、図2に示すように、発話スイッチ4がオンとされた
タイミングtbからMフレーム分だけ以前のタイミング
aまでをノイズ観測区間Tnとし、ノイズ観測区間T
nにおけるMフレーム分の観測ベクトルaを抽出して特
徴抽出部5、および無音音響モデル補正部7に出力す
る。
【0015】発話スイッチ4は、ユーザが発話を開始す
るときにユーザ自身がオンとするスイッチである。した
がって、発話スイッチ4がオンとされたタイミングtb
以前(ノイズ観測区間Tn)の音声データには、発話音
声は含まれず、環境ノイズだけが存在する。また、発話
スイッチ4がオンとされたタイミングtbから発話スイ
ッチ4がオフとされるタイミングtdまでは、音声認識
区間とされて、その区間の音声データが音声認識の対象
とされる。
【0016】特徴抽出部5は、ノイズ観測区間抽出部3
から入力されるノイズ観測区間Tnの環境ノイズだけが
存在する音声データに基づいて、フレーム化部2から入
力される、タイミングtb以降の音声認識区間の観測ベ
クトルaから環境ノイズ成分を除去して、その特徴量を
抽出する。すなわち、特徴抽出部5は、例えば、観測ベ
クトルaとしての真(環境ノイズが除去された)の音声
データをフーリエ変換し、そのパワースペクトラムを求
め、そのパワースペクトラムの各周波数成分をコンポー
ネントとする特徴ベクトルyを算出する。なお、パワー
スペクトラムの算出方法は、フーリエ変換によるものに
限定されるものではない。すなわち、パワースペクトラ
ムは、その他、例えば、いわゆるフィルタバンク法など
によって求めることも可能である。
【0017】さらに、特徴抽出部5は、観測ベクトルa
としての音声データに含まれる音声を、その特徴量の空
間(特徴ベクトル空間)に写像したときに得られる、そ
の特徴ベクトル空間上の分布を表すパラメータ(以下、
特徴分布パラメータと記述する)Zを、算出した特徴ベ
クトルyに基づいて算出し、音声認識部6に供給する。
【0018】図3は、図1の特徴抽出部5の詳細な構成
例を示している。フレーム化部2から入力される観測ベ
クトルaは、特徴抽出部5において、パワースペクトラ
ム分析部11に供給される。パワースペクトラム分析部
11では、観測ベクトルaが、例えば、FFT(高速フー
リエ変換)アルゴリズムによってフーリエ変換され、こ
れにより、音声の特徴量であるパワースペクトラムが、
特徴ベクトルとして抽出される。なお、ここでは、1フ
レームの音声データとしての観測ベクトルaが、D個の
コンポーネントからなる特徴ベクトル(D次元の特徴ベ
クトル)に変換されるものとする。
【0019】ここで、第tフレームの観測ベクトルa
(t)から得られる特徴ベクトルをy(t)と表す。ま
た、特徴ベクトルy(t)のうち、真の音声のスペクト
ル成分をx(t)と、環境ノイズのスペクトル成分をu
(t)と表す。この場合、真の音声のスペクトル成分x
(t)は、次式(1)で表される。
【数1】 ただし、ここでは、環境ノイズが不規則な特性を有し、
また、観測ベクトルa(t)としての音声データは、真
の音声成分に環境ノイズを加算したものであると仮定さ
れている。
【0020】一方、ノイズ観測区間抽出部3から入力さ
れる音声データ(環境ノイズ)は、特徴検出部5におい
て、ノイズ特性算出部13に入力される。ノイズ特性算
出部13では、ノイズ観測区間Tnにおける環境ノイズ
の特性が求められる。
【0021】すなわち、ここでは、音声認識区間におけ
る環境ノイズのパワースペクトラムu(t)の分布が、
その音声認識区間の直前のノイズ観測区間Tnにおける
環境ノイズと同一であるとし、さらに、その分布が正規
分布であるとして、ノイズ特性算出部13において、環
境ノイズの平均値(平均ベクトル)と分散(分散マトリ
クス)が求められる。
【0022】なお、平均ベクトルμ’と分散マトリクス
Σ’は、次式(2),(3)にしたがって求めることが
できる。
【数2】 ただし、μ’(i)は、平均ベクトルμ’のi番目のコ
ンポーネントを表す(i=1,2,・・・,D)。ま
た、y(t)(i)は、第tフレームの特徴ベクトルの
i番目のコンポーネントを表す。さらに、Σ’(i,
j)は、分散マトリクスΣ’の、第i行、第j列のコン
ポーネントを表す(j=1,2,・・・,D)。
【0023】ここで、計算量の低減のために、環境ノイ
ズについては、特徴ベクトルyの各コンポーネントが、
互いに無相関であると仮定する。この場合、次式に示す
ように、分散マトリクスΣ’は、対角成分以外は0とな
る。
【数3】
【0024】ノイズ特性算出部13では、以上のように
して、環境ノイズの特性としての平均ベクトルμ’およ
び平均値Σ’が求められ、特徴分布パラメータ算出部1
2に供給される。
【0025】一方、パワースペクトラム分析部11の出
力、すなわち、環境ノイズを含む発話音声の特徴ベクト
ルyは、特徴分布パラメータ算出部12に供給される。
特徴分布パラメータ算出部12では、パワースペクトラ
ム分析部11からの特徴ベクトルy、およびノイズ特性
算出部13からの環境ノイズの特性に基づいて、真の音
声のパワースペクトラムの分布(推定値の分布)を表す
特徴分布パラメータが算出される。
【0026】すなわち、特徴分布パラメータ算出部12
では、真の音声のパワースペクトラムの分布が正規分布
であるとして、その平均ベクトルξと分散マトリクスΨ
が、特徴分布パラメータとして、次式(4)乃至(7)
にしたがって計算される。
【数4】
【数5】
【数6】
【数7】
【0027】ここで、ξ(t)(i)は、第tフレーム
における平均ベクトルξ(t)のi番目のコンポーネン
トを表す。また、E[]は、[]内の平均値を意味す
る。x(t)(i)は、第tフレームにおける真の音声
のパワースペクトラムx(t)のi番目のコンポーネン
トを表す。さらに、u(t)(i)は、第tフレームに
おける環境ノイズのパワースペクトラムのi番目のコン
ポーネントを表し、P(u(t)(i))は、第tフレ
ームにおける環境ノイズのパワースペクトラムのi番目
のコンポーネントがu(t)(i)である確率を表す。
ここでは、環境ノイズの分布として正規分布を仮定して
いるので、P(u(t)(i))は、式(7)に示した
ように表される。
【0028】また、Ψ(t)(i,j)は、第tフレー
ムにおける分散Ψ(t)の、第i行、第j列のコンポー
ネントを表す。さらに、V[]は、[]内の分散を表
す。
【0029】特徴分布パラメータ算出部12では、以上
のようにして、各フレームごとに、平均ベクトルξおよ
び分散マトリクスΨが、真の音声の特徴ベクトル空間上
での分布(ここでは、真の音声の特徴ベクトル空間上で
の分布が正規分布であると仮定した場合の、その分布)
を表す特徴分布パラメータとして求められる。
【0030】その後、音声認識区間の各フレームにおい
て求めた特徴分布パラメータは、音声認識部6に出力さ
れる。すなわち、いま、音声認識区間がTフレームであ
ったとし、そのTフレームそれぞれにおいて求められた
特徴分布パラメータを、z(t)={ξ(t),Ψ
(t)}(t=1,2,・・・,T)と表すと、特徴分
布パラメータ算出部12は、特徴分布パラメータ(系
列)Z={z(1),z(2),・・・,z(T)}
を、音声認識部6に供給する。
【0031】図1に戻る。音声認識部6は、特徴抽出部
5から入力される特徴分布パラメータZを、所定数Kの
音響モデルと1個の無音音響モデルのうちのいずれかに
分類し、その分類結果を、入力された音声の認識結果と
して出力する。すなわち、音声認識部6は、例えば、無
音区間に対応する識別関数(特徴パラメータZが無音音
響モデルに分類されるかを識別するための関数)と、所
定数Kの単語それぞれに対応する識別関数(特徴パラメ
ータZがいずれの音響モデルに分類されるかを識別する
ための関数)とを記憶しており、各音響モデルの識別関
数の値を、特徴抽出部5からの特徴分布パラメータZを
引数として計算する。そして、その関数値が最大である
音響モデル(単語、または無音区間)が認識結果として
出力される。
【0032】図4は、図1の音声認識部6の詳細な構成
例を示している。特徴抽出部5の特徴分布パラメータ算
出部12から入力される特徴分布パラメータZは、識別
関数演算部21−1乃至21−k、および識別関数演算
部21−s、に供給される。識別関数演算部21−k
(k=1,2,・・・,K)は、K個の音響モデルのう
ちのk番目に対応する単語を識別するための識別関数G
k(Z)を記憶しており、特徴抽出部5からの特徴分布
パラメータZを引数として、識別関数Gk(Z)を演算
する。識別関数演算部21−sは、無音音響モデルに対
応する無音区間を識別するための識別関数Gs(Z)を
記憶しており、特徴抽出部5からの特徴分布パラメータ
Zを引数として、識別関数Gs(Z)を演算する。
【0033】なお、音声認識部6では、例えば、HMM(Hi
dden Markov Model)法を用いて、クラスとしての単語ま
たは無音区間の識別(認識)が行われる。
【0034】HMM法について、図5を参照して説明す
る。同図において、HMMは、H個の状態q1乃至qHを有
しており、状態の遷移は、自身への遷移と、右隣の状態
への遷移のみが許されている。また、初期状態は、最も
左の状態q1とされ、最終状態は、最も右の状態qHとさ
れており、最終状態qHからの状態遷移は禁止されてい
る。このように、自身よりも左にある状態への遷移のな
いモデルは、left-to-rightモデルと呼ばれ、音声認識
では、一般に、left-to-rightモデルが用いられる。
【0035】いま、HMMのkクラスを識別するためのモ
デルを、kクラスモデルというとすると、kクラスモデ
ルは、例えば、最初に状態qhにいる確率(初期状態確
率)πk(qh)、ある時刻(フレーム)tにおいて、状
態qiにいて、次の時刻t+1において、状態qjに状態
遷移する確率(遷移確率)ak(qi,qj)、および状
態qiから状態遷移が生じるときに、その状態qiが、特
徴ベクトルOを出力する確率(出力確率)bk(qi
(O)によって規定される(h=1,2,・・・,
H)。
【0036】そして、ある特徴ベクトル系列O1,O2
・・・が与えられた場合、例えば、そのような特徴ベク
トル系列が観測される確率(観測確率)が最も高いモデ
ルのクラスが、その特徴ベクトル系列の認識結果とされ
る。
【0037】ここでは、この観測確率が、識別関数Gk
(Z)によって求められる。すなわち、識別関数G
k(Z)は、特徴分布パラメータ(系列)Z={z1,z
2,・・・,zT}に対する最適状態系列(最適な状態の
遷移のしていき方)において、そのような特徴分布パラ
メータ(系列)Z={z1,z2,・・・,zT}が観測
される確率を求めるものとして、次式(8)で与えられ
る。
【数8】
【0038】ここで、bk’(qi)(zj)は、出力が
jで表される分布であるときの出力確率を表す。状態
遷移時に各特徴ベクトルを出力する確率である出力確率
k(s)(Ot)には、ここでは、例えば、特徴ベクト
ル空間上のコンポーネントに相関がないものとして、正
規分布関数が用いられている。この場合、入力がzt
表される分布であるとき、出力確率bk’(s)(zt
は、平均ベクトルμk(s)と分散マトリクスΣk(s)
とによって規定される確率密度関数Pk m(s)(x)、
および第tフレームの特徴ベクトル(ここでは、パワー
スペクトラム)xの分布を表す確率密度関数Pf(t)
(x)を用いて、次式(9)により求めることができ
る。
【数9】 ただし、式(9)における積分の積分区間は、D次元の
特徴ベクトル空間(ここでは、パワースペクトラム空
間)の全体である。
【0039】また、式(9)において、P(s)(i)
(ξ(t)(i),Ψ(t)(i,i))は、次式(1
0)で表される。
【数10】 ただし、μk(s)(i)は、平均ベクトルμk(s)の
i番目のコンポーネントを、Σk(s)(i,i)は、
分散マトリクスΣk(s)の、第i行第i列のコンポー
ネントを、それぞれ表す。そして、kクラスモデルの出
力確率は、これらによって規定される。
【0040】なお、HMMは、上述したように、初期状態
確率πk(qh)、遷移確率ak(qi,qj)、および出
力確率bk(qi)(O)によって規定されるが、これら
は、学習用の音声データから特徴ベクトルを算出し、そ
の特徴ベクトルを用いて、予め求めることとする。
【0041】ここで、HMMとして、図5に示したものを
用いる場合には、常に、最も左の状態q1から遷移が始
まるので、状態q1に対応する初期状態確率だけが1と
され、他の状態に対応する初期状態確率はすべて0とさ
れる。また、出力確率は、式(9),(10)から明ら
かなように、Ψ(t)(i,i)を0とすると、特徴ベ
クトルの分散を考慮しない場合の連続HMMにおける出力
確率に一致する。
【0042】なお、HMMの学習方法としては、例えば、B
aum-Welchの再推定法などが知られている。
【0043】図4に戻る。識別関数演算部21−k(k
=1,2,・・・,K)は、kクラスモデルについて、
あらかじめ学習により求められている初期状態確率πk
(qh)、遷移確率ak(qi,qj)、および出力確率b
k(qi)(O)によって規定される式(8)の識別関数
k(Z)を記憶しており、特徴抽出部2からの特徴分
布パラメータZを引数として、識別関数Gk(Z)を演
算し、その関数値(上述した観測確率)Gk(Z)を、
決定部22に出力する。識別関数演算部21−sは、無
音音響モデル補正部7から供給される初期状態確率πs
(qh)、遷移確率as(qi,qj)、および出力確率b
s(qi)(O)によって規定される、式(8)の識別関
数Gk(Z)と同様の識別関数Gs(Z)を記憶してお
り、特徴抽出部2からの特徴分布パラメータZを引数と
して、識別関数Gs(Z)を演算し、その関数値(上述
した観測確率)Gs(Z)を、決定部22に出力する。
【0044】決定部22では、識別関数演算部21−1
乃至21−k、および識別関数演算部21−sそれぞれ
からの関数値Gk(Z)(ここでは、関数値Gs(Z)を
含むものとする)に対して、例えば、次式(11)に示
す決定規則を用いて、特徴分布パラメータZ、すなわ
ち、入力された音声が属するクラス(音響モデル)が識
別される。
【数11】 ただし、C(Z)は、特徴分布パラメータZが属するク
ラスを識別する識別操作(処理)を行う関数を表す。ま
た、式(11)の第2式の右辺におけるmaxは、それに
続く関数値Gi(Z)(ただし、ここでは、i=s,
1,2,・・・,K)の最大値を表す。
【0045】決定部22は、式(11)にしたがって、
クラスを決定すると、それを、入力された音声の認識結
果として出力する。
【0046】図1に戻る。無音音響モデル補正部7は、
ノイズ観測区間抽出部3から入力されるノイズ観測区間
Tnの音声データ(環境ノイズ)に基づいて、音声認識
部6に記憶されている無音音響モデルに対応する識別関
数Gs(Z)を生成して音声認識部6に供給する。
【0047】具体的には、無音音響モデル補正部7で
は、ノイズ観測区間抽出部3から入力されるノイズ観測
区間Tnの音声データ(環境ノイズ)のM個のフレーム
の各フレームについて、特徴ベクトルXが観測され、そ
れらの特徴分布が生成される。
【数12】 なお、特徴分布{Fi(X),i=1,2,・・・,
M}は、確率密度関数(Probabilistic Density Functio
n)であるので、以下、無音特徴分布PDFとも記述する。
【0048】次に、無音特徴分布PDFを、次式(13)
に従い、図7に示すように、無音音響モデルに対応する
確率分布Fs(X)に写像する。
【数13】 ただし、Vは無音特徴分布PDF{Fi(X),i=1,
2,・・・,M}を無音音響モデルFs(X)に写像す
る補正関数(写像関数)である。
【0049】この写像は、無音特徴分布PDFの記述によ
って様々な方法が考えられる。例えば、
【数14】 ただし、βi(F1(X),F2(X),・・・,F
M(X),M)は、各無音特徴分布の重み関数であり、
以下、βiと記述する。なお、重み関数βiは、次式(1
6)の条件を満足するものである。
【数15】
【0050】ここで、無音音響モデルの確率分布F
s(X)が正規分布であると仮定し、また、各フレーム
の特徴ベクトルを構成するコンポーネントが無相関であ
ると仮定すれば、無音特徴分布PDF{Fi(X),i=
1,2,・・・,M}の共分散行列Σiは対角線行列と
なる。ただし、この仮定の前提条件は、無音音響モデル
の共分散行列も対角線行列であることである。したがっ
て、各フレームの特徴ベクトルを構成するコンポーネン
トが無相関であれば、無音特徴分布PDF{Fi(X),i
=1,2,・・・,M}は、各コンポーネントに対応す
る平均と分散を持つ正規分布G(Ei,Σi)となる。E
iはFi(X)の期待値であり、ΣiはFi(X)の共分散
行列である。
【0051】さらに、ノイズ観測区間TnのM個のフレ
ームに対応する無音特徴分布の平均をμi、分散をσi 2
と表すことにすれば、無音特徴分布の確率密度関数は、
正規分布G(μi,σi 2)(i=1,2,・・・,M)
と表すことができる。したがって、各フレームに対応す
る平均μi、および分散σi 2を用い、以下に示す様々な
方法によって演算される無音音響モデルの正規分布G
(μs,σs 2)(上述したGs(Z)に相当する)は、図
7に示した無音音響モデルFs(X)の近似分布とな
る。
【0052】無音音響モデルの正規分布G(μs
σs 2)を演算する第1の方法は、無音特徴分布{G(μ
i,σi 2),i=1,2,・・・,M}を用い、次式
(17)に示すように、全てのμiの平均を無音音響モ
デルの平均値μsとし、次式(18)に示すように、全
てのσi 2の平均を無音音響モデルの分散σi 2とする方法
である。
【数16】 ここで、aおよびbは、シミュレーションにより最適な
値が決定される係数である。
【0053】無音音響モデルの正規分布G(μs
σs 2)を演算する第2の方法は、無音特徴分布{G(μ
i,σi 2),i=1,2,・・・,M}の期待値μiのだ
けを用い、次式(19),(20)に従って、無音音響
モデルの平均値μsと、分散σi 2を演算する方法であ
る。
【数17】 ここで、aおよびbは、シミュレーションにより最適な
値が決定される係数である。
【0054】無音音響モデルの正規分布G(μs
σs 2)を演算する第3の方法は、無音特徴分布{G(μ
i,σi 2),i=1,2,・・・,M}の組み合わせに
よって、無音音響モデルの平均値μsと、分散σs 2を演
算する方法である。
【0055】この方法においては、各無音特徴分布G
(μi,σi 2)の確率統計量をXiとする。
【数18】
【0056】ここで、無音音響モデルの正規分布G(μ
s,σs 2)の確率統計量をXsとすれば、確率統計量Xs
は、次式(22)に示すように、確率統計量Xiと重み
関数βiの線形結合で表すことができる。なお、重み関
数βiは式(16)の条件を満足している。
【数19】
【0057】そして、無音音響モデルの正規分布G(μ
s,σs 2)は、次式(23)に示すように表される。
【数20】
【0058】なお、式(23)を一般化するためには、
重み関数βiが、{βi=1/M,i=1,2,・・・,
M}と仮定され、平均値μsと、分散σs 2には、係数が
乗算される。
【数21】 ここで、aおよびbは、シミュレーションにより最適な
値が決定される係数である。
【0059】無音音響モデルの正規分布G(μs
σs 2)を演算する第4の方法では、無音特徴分布{G
(μi,σi 2),i=1,2,・・・,M}の確率統計
量Xiに対応する統計母集団Ωi={fi,j}を仮定す
る。ここで、
【数22】 とすれば、平均値μiは、次式(26)によって得るこ
とができ、分散σi 2は、次式(28)によって得ること
ができる。
【数23】
【0060】式(28)を変形すれば、次式(29)の
関係が成立する。
【数24】
【0061】ここで、統計母集団の和Ω
【数25】 を考慮すれば、式(26)から次式(30),(31)
が導かれ、式(29)から次式(32)乃至(31)が
導かれる。
【数26】
【0062】なお、実際には、式(31)と式(34)
には係数が乗算されて用いられる。
【数27】 ここで、aおよびbは、シミュレーションにより最適な
値が決定される係数である。
【0063】また、次式(27)に示すように、分散σ
s 2に対してだけ、係数を乗算するようにしてもよい。
【数28】
【0064】次に、音声認識装置の動作について説明す
る。
【0065】フレーム化部2には、マイクロフォン1で
集音された音声データ(環境ノイズを含む認識対象の発
話音声)が入力され、そこでは、音声データがフレーム
化され、各フレームの音声データは、観測ベクトルaと
して、ノイズ観測区間抽出部3、および特徴抽出部5に
順次供給される。ノイズ観測区間抽出部3では、発話ス
イッチ4がオンとされたタイミングtb以前のノイズ観
測区間Tnの音声データ(環境ノイズ)が抽出されて特
徴抽出部5および無音音響モデル補正部7に供給され
る。
【0066】特徴抽出部5では、フレーム化部2からの
観測ベクトルaとしての音声データが音響分析され、そ
の特徴ベクトルyが求められる。さらに、特徴抽出部5
では、求められた特徴ベクトルyに基づいて、特徴ベク
トル空間における分布を表す特徴分布パラメータZが算
出され、音声認識部6に供給される。音声認識部6で
は、特徴抽出部5からの特徴分布パラメータを用いて、
無音区間および所定数Kの単語それぞれに対応する音響
モデルの識別関数の値が演算され、その関数値が最大で
ある音響モデルが、音声の認識結果として出力される。
また、音声認識部6では、無音音響モデル補正部7から
入力される無音音響モデルに対応する識別関数を用い
て、それまで記憶されていた無音音響モデルに対応する
識別関数が更新される。
【0067】以上のように、観測ベクトルaとしての音
声データが、その特徴量の空間である特徴ベクトル空間
における分布を表す特徴分布パラメータZに変換される
ので、その特徴分布パラメータは、音声データに含まれ
るノイズの分布特性を考慮したものとなっており、ま
た、無音区間を識別するための無音音響モデルに対応す
る識別関数が、発話直前のノイズ観測区間Tnの音声デ
ータに基づいて更新されているので、音声認識率を大き
く向上させることが可能となる。
【0068】次に、図8は、発話スイッチ4がオンとさ
れてから発話が開始されるまでの無音区間Tsを変化さ
せたときの音声認識率の変化を測定した実験の結果を示
している。
【0069】なお、図8において、曲線aは無音音響モ
デルを補正しない従来の方法による結果を示しており、
曲線bは第1の方法による結果を示しており、曲線cは
第2の方法による結果を示しており、曲線dは第3の方
法による結果を示しており、曲線eは、第4の方法によ
る結果を示している。
【0070】実験の条件は、以下の通りである。認識さ
れる音声データは、高速道路を走行中の車内で集音され
たものである。ノイズ観測区間Tnは、20フレームで
約0.2秒である。無音区間Tsは、0.05秒、0.
1秒、0.2秒、0.3秒、0.5秒とした。音声デー
タの特徴抽出においては、MFCC(Mel-Frequency Cepstra
l Coefficients)ドメインで分析を実施した。認識の対
象とする音声の発話者は、男女4人ずつ計8人であり、
一人当たり303個の単語を離散して発話した。タスク
は大語彙離散日本語で5000ワードである。音響モデ
ルは、HMMであり、良好な音声データを用いて予め学習
されているものである。音声認識においては、Viterbi
サーチ法でビーム幅を3000とした。
【0071】なお、第1、第2、および第4の方法にお
いては、係数aを1.0とし、係数bを0.1とした。
第3の方法においては、係数aを1.0とし、係数bを
1.0とした。
【0072】図8から明らかなように、従来の方法(曲
線a)では、無音区間Tsが長くなるのに伴って音声認
識率が著しく低下しているが、本発明の第1乃至4の方
法(曲線b乃至e)では、無音区間Tsが長くなって
も、音声認識率は、わずかしか低下しない。すなわち、
本発明によれば、無音区間Tsが変化しても、音声認識
率はある程度のレベルを維持することが可能である。
【0073】以上、本発明を適用した音声認識装置につ
いて説明したが、このような音声認識装置は、例えば、
音声入力可能なカーナビゲーション装置、その他各種の
装置に適用可能である。
【0074】なお、本実施の形態では、ノイズの分布特
性を考慮した特徴分布パラメータを求めるようにした
が、このノイズには、例えば、発話を行う環境下におけ
る外部からのノイズの他、例えば、電話回線その他の通
信回線を介して送信されてくる音声の認識を行う場合に
は、その通信回線の特性なども含まれる。
【0075】また、本発明は、音声認識の他、画像認識
その他のパターン認識を行う場合にも適用可能である。
【0076】なお、上記各処理を行うコンピュータプロ
グラムは、磁気ディスク、CD-ROM等の情報記録媒体より
なる提供媒体のほか、インターネット、デジタル衛星な
どのネットワーク提供媒体を介してユーザに提供するこ
とができる。
【0077】
【発明の効果】以上のように、請求項1に記載のパター
ン認識装置、請求項6に記載のパターン認識方法、およ
び請求項7に記載の提供媒体によれば、データが入力さ
れる直前に入力されたノイズに基づいて、データが存在
しない状態に対応するモデルを生成し、記憶されている
対応するものを更新するようにしたので、音声認識が開
始された時から発話が開始される時までの時間が長くな
るに伴って認識性能が低下することを抑止することが可
能となる。
【図面の簡単な説明】
【図1】本発明を適用した音声認識装置の構成例を示す
ブロック図である。
【図2】図1のノイズ観測区間抽出部3の動作を説明す
るための図である。
【図3】図1の特徴抽出部5の詳細な構成例を示すブロ
ック図である。
【図4】図1の音声認識部6の詳細な構成例を示すブロ
ック図である。
【図5】音声認識部6の動作を説明するための図であ
る。
【図6】図1の無音音響モデル補正部7の動作を説明す
るための図である。
【図7】図1の無音音響モデル補正部7の動作を説明す
るための図である。
【図8】本発明を適用した音声認識装置の音声認識実験
の結果を示す図である。
【符号の説明】
1 マイクロフォン, 2 フレーム化部, 3 ノイ
ズ観測区間抽出部,4 発話スイッチ, 5 特徴抽出
部, 6 音声認識部, 7 無音音響モデル補正部

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 入力されるデータの特徴分布を、所定数
    のモデルのうちのいずれかに分類するパターン認識装置
    において、 前記入力されるデータのパターンを特徴分布として抽出
    する抽出手段と、 前記所定数のモデルを記憶する記憶手段と、 前記抽出手段が抽出した特徴分布を、前記所定数のモデ
    ルのうちのいずれかに分類する分類手段と、 前記データが入力される直前に入力されたノイズに基づ
    いて、前記データが存在しない状態に対応する前記モデ
    ルを生成し、前記記憶手段に記憶されている対応するも
    のを更新する生成手段とを含むことを特徴とするパター
    ン認識装置。
  2. 【請求項2】 前記データが存在しない状態の特徴分
    布、および、前記データが存在しない状態に対応する前
    記モデルの確率分布が正規分布である場合、前期生成手
    段は、前記データが存在しない状態に対応する前記モデ
    ルの期待値を、前記データが存在しない状態の特徴分布
    の各コンポーネントに対応する期待値の平均として生成
    し、前記データが存在しない状態に対応する前記モデル
    の分散を、前記データが存在しない状態の特徴分布の各
    コンポーネントに対応する分散の平均として生成するこ
    とを特徴とする請求項1に記載のパターン認識装置。
  3. 【請求項3】 前記データが存在しない状態の特徴分
    布、および、前記データが存在しない状態に対応する前
    記モデルの確率分布が正規分布である場合、前期生成手
    段は、前記データが存在しない状態に対応する前記モデ
    ルの期待値および分散を、前記データが存在しない状態
    の特徴分布の各コンポーネントに対応する期待値の平均
    を用いて生成することを特徴とする請求項1に記載のパ
    ターン認識装置。
  4. 【請求項4】 前記データが存在しない状態の特徴分
    布、および、前記データが存在しない状態に対応する前
    記モデルの確率分布が正規分布である場合、前期生成手
    段は、前記データが存在しない状態に対応する前記モデ
    ルの確率分布を、前記データが存在しない状態の特徴分
    布の各コンポーネントに対応する統計量の線形結合に基
    づいて生成することを特徴とする請求項1に記載のパタ
    ーン認識装置。
  5. 【請求項5】 前記データが存在しない状態の特徴分
    布、および、前記データが存在しない状態に対応する前
    記モデルの確率分布が正規分布である場合、前期生成手
    段は、前記データが存在しない状態に対応する前記モデ
    ルの確率分布を、前記データが存在しない状態の特徴分
    布の各コンポーネントに対応する統計母集団の和に基づ
    いて生成することを特徴とする請求項1に記載のパター
    ン認識装置。
  6. 【請求項6】 入力されるデータの特徴分布を、所定数
    のモデルのうちのいずれかに分類するパターン認識装置
    のパターン認識方法において、 前記入力されるデータのパターンを特徴分布として抽出
    する抽出ステップと、 前記所定数のモデルを記憶する記憶ステップと、 前記抽出ステップで抽出した特徴分布を、前記所定数の
    モデルのうちのいずれかに分類する分類ステップと、 前記データが入力される直前に入力されたノイズに基づ
    いて、前記データが存在しない状態に対応する前記モデ
    ルを生成し、前記記憶ステップで記憶された対応するも
    のを更新する生成ステップとを含むことを特徴とするパ
    ターン認識方法。
  7. 【請求項7】 入力されるデータの特徴分布を、所定数
    のモデルのうちのいずれかに分類するパターン認識装置
    に、 前記入力されるデータのパターンを特徴分布として抽出
    する抽出ステップと、前記所定数のモデルを記憶する記
    憶ステップと、 前記抽出ステップで抽出した特徴分布を、前記所定数の
    モデルのうちのいずれかに分類する分類ステップと、 前記データが入力される直前に入力されたノイズに基づ
    いて、前記データが存在しない状態に対応する前記モデ
    ルを生成し、前記記憶ステップで記憶された対応するも
    のを更新する生成ステップとを含む処理を実行させるコ
    ンピュータが読み取り可能なプログラムを提供すること
    を特徴とする提供媒体。
JP11057467A 1999-03-04 1999-03-04 パターン認識装置および方法、並びに提供媒体 Pending JP2000259198A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP11057467A JP2000259198A (ja) 1999-03-04 1999-03-04 パターン認識装置および方法、並びに提供媒体
PCT/JP2000/001282 WO2000052682A1 (fr) 1999-03-04 2000-03-03 Dispositif et procede permettant la reconnaissance de parole et support fournisseur
US09/674,583 US7280961B1 (en) 1999-03-04 2000-03-03 Pattern recognizing device and method, and providing medium
DE60037486T DE60037486T2 (de) 1999-03-04 2000-03-03 Vorrichtung und Verfahren zur Mustererkennung und Bereitstellungsmedium
EP00906674A EP1083544B1 (en) 1999-03-04 2000-03-03 Pattern recognizing device and method, and providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11057467A JP2000259198A (ja) 1999-03-04 1999-03-04 パターン認識装置および方法、並びに提供媒体

Publications (1)

Publication Number Publication Date
JP2000259198A true JP2000259198A (ja) 2000-09-22

Family

ID=13056503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11057467A Pending JP2000259198A (ja) 1999-03-04 1999-03-04 パターン認識装置および方法、並びに提供媒体

Country Status (5)

Country Link
US (1) US7280961B1 (ja)
EP (1) EP1083544B1 (ja)
JP (1) JP2000259198A (ja)
DE (1) DE60037486T2 (ja)
WO (1) WO2000052682A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156992A (ja) * 2000-11-21 2002-05-31 Sony Corp モデル適応装置およびモデル適応方法、記録媒体、並びに音声認識装置
JP2006184589A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7451085B2 (en) * 2000-10-13 2008-11-11 At&T Intellectual Property Ii, L.P. System and method for providing a compensated speech recognition model for speech recognition
ATE509332T1 (de) * 2005-03-14 2011-05-15 Harman Becker Automotive Sys Automatische erkennung von fahrzeugbetrieb- geräuschsignalen
JP4274221B2 (ja) * 2006-10-02 2009-06-03 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US8069039B2 (en) * 2006-12-25 2011-11-29 Yamaha Corporation Sound signal processing apparatus and program

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56159400U (ja) * 1980-04-24 1981-11-27
US4628529A (en) * 1985-07-01 1986-12-09 Motorola, Inc. Noise suppression system
US4630304A (en) * 1985-07-01 1986-12-16 Motorola, Inc. Automatic background noise estimator for a noise suppression system
US4811404A (en) * 1987-10-01 1989-03-07 Motorola, Inc. Noise suppression system
US5148489A (en) * 1990-02-28 1992-09-15 Sri International Method for spectral estimation to improve noise robustness for speech recognition
JPH05219176A (ja) * 1992-02-07 1993-08-27 Matsushita Electric Ind Co Ltd 音声認識電話機
US5353376A (en) * 1992-03-20 1994-10-04 Texas Instruments Incorporated System and method for improved speech acquisition for hands-free voice telecommunication in a noisy environment
JPH05316186A (ja) * 1992-05-08 1993-11-26 Matsushita Electric Ind Co Ltd 音声認識電話機
US6230128B1 (en) * 1993-03-31 2001-05-08 British Telecommunications Public Limited Company Path link passing speech recognition with vocabulary node being capable of simultaneously processing plural path links
CN1129486A (zh) * 1993-11-30 1996-08-21 美国电报电话公司 通信系统中降低传输噪声的方法
JP2692581B2 (ja) * 1994-06-07 1997-12-17 日本電気株式会社 音響カテゴリ平均値計算装置及び適応化装置
US5839103A (en) * 1995-06-07 1998-11-17 Rutgers, The State University Of New Jersey Speaker verification system using decision fusion logic
US5806034A (en) * 1995-08-02 1998-09-08 Itt Corporation Speaker independent speech recognition method utilizing multiple training iterations
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
US5778342A (en) * 1996-02-01 1998-07-07 Dspc Israel Ltd. Pattern recognition system and method
US6067517A (en) * 1996-02-02 2000-05-23 International Business Machines Corporation Transcription of speech data with segments from acoustically dissimilar environments
US6023676A (en) * 1996-12-12 2000-02-08 Dspc Israel, Ltd. Keyword recognition system and method
US5924065A (en) * 1997-06-16 1999-07-13 Digital Equipment Corporation Environmently compensated speech processing
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6188982B1 (en) * 1997-12-01 2001-02-13 Industrial Technology Research Institute On-line background noise adaptation of parallel model combination HMM with discriminative learning using weighted HMM for noisy speech recognition
US6381571B1 (en) * 1998-05-01 2002-04-30 Texas Instruments Incorporated Sequential determination of utterance log-spectral mean by maximum a posteriori probability estimation
US6418411B1 (en) * 1999-03-12 2002-07-09 Texas Instruments Incorporated Method and system for adaptive speech recognition in a noisy environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156992A (ja) * 2000-11-21 2002-05-31 Sony Corp モデル適応装置およびモデル適応方法、記録媒体、並びに音声認識装置
JP4577543B2 (ja) * 2000-11-21 2010-11-10 ソニー株式会社 モデル適応装置およびモデル適応方法、記録媒体、並びに音声認識装置
JP2006184589A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影方法

Also Published As

Publication number Publication date
WO2000052682A1 (fr) 2000-09-08
DE60037486T2 (de) 2008-12-04
DE60037486D1 (de) 2008-01-31
EP1083544B1 (en) 2007-12-19
EP1083544A1 (en) 2001-03-14
US7280961B1 (en) 2007-10-09
EP1083544A4 (en) 2005-07-20

Similar Documents

Publication Publication Date Title
CN108447490B (zh) 基于记忆性瓶颈特征的声纹识别的方法及装置
JP3584458B2 (ja) パターン認識装置およびパターン認識方法
EP1113419B1 (en) Model adaptive apparatus and model adaptive method, recording medium, and pattern recognition apparatus
KR100908121B1 (ko) 음성 특징 벡터 변환 방법 및 장치
US8515758B2 (en) Speech recognition including removal of irrelevant information
EP1515305A1 (en) Noise adaption for speech recognition
JP2002073072A (ja) モデル適応装置およびモデル適応方法、記録媒体、並びにパターン認識装置
US11837236B2 (en) Speaker recognition based on signal segments weighted by quality
KR101065188B1 (ko) 진화 학습에 의한 화자 적응 장치 및 방법과 이를 이용한 음성인식 시스템
JP4705414B2 (ja) 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体
JP2000259198A (ja) パターン認識装置および方法、並びに提供媒体
JP4577543B2 (ja) モデル適応装置およびモデル適応方法、記録媒体、並びに音声認識装置
JP2000194392A (ja) 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
Shah et al. Novel inter mixture weighted GMM posteriorgram for DNN and GAN-based voice conversion
JP3250604B2 (ja) 音声認識方法および装置
JP5104732B2 (ja) 拡張認識辞書学習装置、これを用いた音声認識システム、その方法及びそのプログラム
JP2002123285A (ja) 話者適応装置および話者適応方法、記録媒体、並びに音声認識装置
JP2001249681A (ja) モデル適応装置およびモデル適応方法、記録媒体、並びにパターン認識装置
Upadhyay et al. Analysis of different classifier using feature extraction in speaker identification and verification under adverse acoustic condition for different scenario
Tashev et al. SPEAKER MODELING BY PREPROCESSING SPEECH SIGNALS
JPH10149190A (ja) 音声認識方法及び音声認識装置
Babu et al. Speech Emotion Recognition Methods
Yamamoto et al. Speech recognition under noisy environments using segmental unit input HMM
Djeghader et al. Hybridization process for text-independent speaker identification based on vector quantization model
JPH11311998A (ja) 特徴抽出装置および方法、パターン認識装置および方法、並びに提供媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091001