JPH07503559A - 子供用音声訓練補助装置 - Google Patents

子供用音声訓練補助装置

Info

Publication number
JPH07503559A
JPH07503559A JP6510846A JP51084694A JPH07503559A JP H07503559 A JPH07503559 A JP H07503559A JP 6510846 A JP6510846 A JP 6510846A JP 51084694 A JP51084694 A JP 51084694A JP H07503559 A JPH07503559 A JP H07503559A
Authority
JP
Japan
Prior art keywords
model
word
training aid
words
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP6510846A
Other languages
English (en)
Inventor
ラツセル,マーテイン・ジエイムズ
シリーズ,ロバート・ウイリアム
ワランス,ジユリー・リン
Original Assignee
イギリス国
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イギリス国 filed Critical イギリス国
Publication of JPH07503559A publication Critical patent/JPH07503559A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/022Demisyllables, biphones or triphones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 子供用音声訓練補助装置 本発明は、子供用音声訓練補助装置に関する。こういう補助装置は、子供の発音 と、正しい発音の表示を与えるための所望値と比較するのに有用である。この表 示が、音声治療の必要な子供達を識別するために、オペレータ、つまり、先生や セラピスト等により使用され、または受け入れ可能になるまで発音を変えるため に子供により使用される。
複雑さや正確度の違う、多くの音声認識装置がある。大部分のものは、−まとま りの記憶した単語の中から1つの単語を識別し、その単語が識別されると、次の ステップを起動し、たとえばスイッチを操作する。多くの音声認識装置は、オペ レータによる大変な訓練を必要とし、少ない単語でしか動作しない。
1つの単語を話すように言われると、多くの子供達は、ウーとかニーといった追 加音を出し、話しに要する時間を変える。さらに、教室の環境には、種々の非音 声型暗雑音があり、ときには、読めない子供のために先生の読む声がする場合も ある。これは音声認識をより難しくする。というのは、非音声音は余分なものと して認識され、捨てられなければならないからである。
多くの市販の音声認識装置は、所望の単語の一部しか話されない時でさえ、一致 を示す場合がある。例えば、’ c++wm17’という単語は、’cow’  、colnt’ 、または’let’ 、または正しく’cos17’と認識さ れる可能性がある。
1つの話し言葉の中の個々の単語は、個々の単語を発音するために単独または組 み合わせで使われうる約40音素、つまり40の異なる音に分解できる。ある音 素は文脈に依存せず、他の音素は文脈に依存する。つまり、音素はそれより以前 および進行中の音素の組み合わせに応じて異なって聞こえる。これらの音素を表 現するために採用された合意事項は、例えば、下記の文献にある。
fll I Lll+ el 11. ’5pec百ic*1ion of S AM phoielictlphxbel(SAMPA)、’ 1nclIld ed in: P Win+ki、 W I Bsrrr & AFoa+1e n(Edl、 ’5appo+l 5ytilsble Itots SAM  proiecl lo+othe「ESPRIT +peeeh and l* ng■gt work、’ The SAM Proiecl。
Depl of Phonelic+、 l1lIiye+5ill CoCo 11e、 London。
本発明は、非音声と雑音に囲まれて、所望の標準に対する完結した音声語の正し さに関する。
本発明によれば、子供の音声訓練補助装置は、その子供が正しく話したか否かを 表示するために、子供の音声と記憶済みの音響モデルと一般の非音声音により生 成された音声とを比較する。
本発明によれば、子供の音声訓練補助装置は、多くの子供達による音声の処理結 果を代表する文脈依存型音素の音響モデルを記憶するための音響モデル記憶、そ の音響モデル記憶から単語の音響モデルを構築するために情報と共に単語の一覧 表を記憶する辞書、一般音声音の音響モデルと共に必要単語の音響モデルを生成 するためのネットワーク生成装置、その必要単語の音響モデルの生成を要求する ための入力手段、子供の発声を受け取る手段、子供の発声を音声の音響モデルと の比較に適した形式に処理する手段、処理済みの子供の発声とその必要単語と一 般的な音声の音響モデルとを比較するための音声パターン照合器、およびその必 要単語の発音の正確性の表示と共に、その子供の発声がその単語であるか否かを 表示する手段を含む。
本訓練補助装置の音響モデルは、隠れマルコフ・モデルである。
一連の特徴ベクトルを形成する連続的時間枠期間内にN次元の特徴ベクトルを提 供するために、子供の発声はN個のチャネルにサンプリングされ、処理される。
音声パターン照合器は、特徴ベクトルの順序の相対的な確率が音響単語モデルと 同じか、または一般音響音声モデルと同じかを計算する。
音声パターン照合器は、その必要単語が連続的な音声の中で認識されるように、 連続的に動作する。
音声パターン照合器は、認識した子供の話した単語の最初と終わりの累計コスト 差を計算し、この差を子供の話した単語の正確性の表示をするために使用する。
また、その訓練補助装置は、子供の話した単語の正確性の表示のために調整可能 な標準を形成の際に、一般音響音声モデルと協力するように準備された可変のペ ナルティ制御も含む。ペナルティ値は、種々の必要単語に関して設定した値に応 じて変化する。さらに、そのペナルティ値は、個々の子供に合うように成人のオ ペレータによって変更される。
その入力手段は各検査面談毎に訓練補助装置に必要単語を入力するためのキーボ ードを含む。
音声訓練補助装置は、必要単語を話すように子供を促すための手段、つまり音声 合成器と拡声器、またはメツセージの表示用画面付きの画像モニタあるいはこれ らすべてを含む。
音声訓練補助装置は、子供の音声の検査結果の記録と、必要単語と正しく話され た単語およびどの程度正しく話されたかの表示の手段を含む。
音響モデルは、1つの単語または一連の部分語モデルと一般音声モデルを加えた モデルであり、音声パターン照合器は、必要単語の分割部分の発声の正しさを表 示する。
子供の発声の時の吃音が、その単語を分割するので、音響単語モデルの前に追加 の音響モデルを含む。
記憶済みの音響モデルは、単語の所定の一覧表から複数の子供達により複数の単 語を記録することにより形成されることが望ましい。これらの記録は、個々の単 語あるいは個々の音素に対する受け入れ可能な、または正しい音の基本的音響モ デルを作るためにオフラインで処理される。子供の連続的リアルタイム検査は、 これらの記録済み基本音響モデルに対して行われ、話者には無関係である。つま り、検査される子供は、当初の記録の部分を提供した子供である必要はない。
教室での使用例では、子供は訓練補助装置に接続されたヘッドホンとマイクロホ ンを着ける。オペレータは、コンピュータ・ターミナルのキーボードから訓練補 助装置に単語または一連の単語を入力する。この操作は、必要単語の音響モデル を用意する。次に、子供はコンピュータ・モニタ画面上の単語を読むか、または 音声合成器の拡声器からの指示を聞くことで必要単語を話すことを促される。そ のかわりに、オペレータは子供が話すべき単語を読むことも可能である。その子 供の全対話は、必要単語の記憶済みの音響モデルおよび一般音響音声モデルと比 較するために訓練補助装置を通過する。単語が正しく話されると、その子供の発 声は音響単語モデルを通過し、モニタ画面または音声合成器による音声で、その 子供に通知される。その単語が、正しく話されないと、その発声は、一般音響音 声モデルを通過し、これが子供とオペレータに表示される。
図面の簡単な説明 本発明は、下記の添付図面を参照しながら、単なる例として説明される。
第1図は音声訓練補助装置のブロック図である。
第2図は第1図の一部である前処理分析器のブロック図である。
第3a図は、話された単語目WE−NIIIE’ に対する第2図の前処理分析 器におけるVFR分析前の信号の概略図である。
第3b図は話された単p’FIVE−NINE’ に対する第2図の前処理分析 器におけるVFR分析後の信号の概略図である。
第4図は一般音声モデルとともに、認識される単語の隠れマルコフ・モデルの音 響モデルの説明図である。
第5図は音響モデル記憶に保持され、文脈依存性音素から得られる単語レベルの 隠れマルコフ・モデルの説明図である。
第6図は3値の隠れマルコフ・モデルの概略図である。
第7図は単語’Tel’ またはlno+を認識するために隠れマルコフ・モデ ルを用いた簡単な音響モデルの概略図である。
第8図は第7図のモデルに対する局部的コスト計算の説明図である。
第9図は第7図のモデルに対する累積コストと経路表の説明図である。
第10a図は第7図のモデルの処理中の累積コストと経路表の説明図である。
第10b図は第7図のモデルの処理後の累積コストと経路表の説明図である。
第11図はオペレータによって聴覚で判断されて、受は入れ可能と受け入れ難い と判断された、話された単語に対する累積単語コストの累積度数分布表である。
第12a図は単語モデルを通過する発声の累積単語コストを比較するために配置 されたモデルの説明図である。
第12b図は一般音声モデルを通過する発声の累積単語コストを比較ト÷央(支 )に配置されたモデルの説明図である。
第13図はオペレータによって聴覚で判断されて、受は入れ可能と受け入れ難い と判断された、話された単語に対する累積単語コスト差の累積度数分布表である 。
第14図は第4図の音響モデルに適用された一般音響音声モデルのペナルティ値 に対する誤り率のグラフである。
第15図は第4図に示したモデル以外の音響モデルである。
第16図は第4図に示したモデル以外の音響モデルである。
第17図は第4図に示したモデル以外の音響モデルである。
第1図に示す音声訓練補助装置は、小型コンピュータとターミナル1、音声合成 器2、音声人カンステム3、および音声パターン照合器4を含む。
コンピユータ1内部には、辞書5、音響モデル記憶6、ネットワーク生成装置7 、および全システムを制御するシステム制御装[8がある。キーボード9とモニ タ10が制御装!!!8に接続されている。
音声入力システム3は、検査される子供が装着するヘッドホン11とマイクロホ ン12を含む。マイクロホン12の出力は、増幅器13で増幅され、前処理分析 器14に供給される。
分析器14は、第2図にさらに詳しく示されており、入力波Siを20.000 HzでサンプリングするDA変換器を含み、その出力を、並列でそのディジタル 信号Siを受け取るNチャネルのフィルタ網16に入れるが、通常、N;27で ある。フィルタ特性の詳細は、下記の表1に示す。
表 1 チャネル番号 中心周波数11+ 帯域幅H!3 .360 120 各N本のチャネルは、それぞれ通常300から500 IT zの周波数で、こ れは大人の50から200 II zの周波数とは対照的であるが、子供の喉頭 からのパルス状出力を平滑化するための平滑回路である。各チャネル出力は、毎 秒100回のサンプリングをされる。つまりサンプリング間隔はlQmsである 。
フィルタ網16の集中出力を、単語’ FIVE−NIME’ に対する第3図 に示す。水平軸は応答時間であり、垂直軸はN個の各チャネルであり(従って下 部により低い周波数を持つ、種々の周波数から成る)、さらに暗さ、つまり濃度 階調は音の強さである。
N個の各フィルタ・チャネルの出力は、10m5毎にサンプリングされる「次元 」である。各10m5の時間枠のために、フィルタ網16の集中出力は、27次 元ベクトル、つまり1つの時間枠にわたる27個の異なる値を表す数の行列であ る。説明の簡略化のために、第3図は14個のフィルタ・チャネルのみを示して いる。第3図に示すように、小区画は音声学的に’ 1. *1. w、 n、  tl、 n、″で表される単語’ FIVE−NIME’ の中の1つの音素 を表す明確な領域を示している。
フィルタ網16の出力17は、第3図に示す各フレームや単語の情報量を減らす ように設置できる可変型フレーム率回路18を通過する。可変型フレーム率(V  F R)分析は、自動音声認識のための固定フレーム率分析を超える改良性能 を得られることが示されているデータ率低減法である(’S 11 Petli B*nd K M Pon1in(、Vx+目ble l5sue 5nsly +i@in the ARMconlinoou+ +peeeh 「ecog IlitioIli7+lu+、Spe!ehComIIunicslion  to、PP 155−162. 1991’ を参照のこと)。その最も単純な 形で、VFRは観測結果からベクトルを除去するために使用される。
現在の観測ベクトルと最も新しい保持データとの間の距離が計算され、この距離 がしきい値T以下であれば、現在の観測ベクトルは排除される。新しい観測ベク トルによりその距離がしきい値を超えると、その新しいベクトルは保存され、最 新の保持ベクトルとなる。VFR分析は一連の類似のベクトルを1つのベクトル に置換し、従って、認識に必要な計算量を低減する。
本図はVFR分析が認識の正確性を改善できることも示している。
第3a図と第3b図は、それぞれVFR分析の前と後のフィルタ網16からの未 処理信号を示す。第3a図に示すように、発声期間内に信号がほぼ均一な時間が ある。その期間内は、瞬間的なM(断面サンプル)を示す信号が生成され、かつ 値の長さはほぼ一定値を保っている。この圧縮が情報の表現に必要なベクトルの 数を低減する。ある場合には、フレーム率圧縮の使用で正確性が低下し、可変型 フレーム率回路がゼロに調整される。つまり、その回路は信号をそのまま通過さ せる。第3b図には、表示されている14個のチャネルの下に圧縮された特徴ベ クトル類に各特徴ベクトルに対する圧縮値を表す追加情報がある。
音1モデル記憶6の中のモデルの過程と一貫性を持たせるか、または異なる音声 音に対応するベクトル間の差を強調するために、直線または非直線変換を用いて 、可変型フレーム率回路19の出力は、変換回路20で変換される。この変換の 例は、デルタ・セブストラル変換である。
シ、=シフ7.し、21. し、7′を時間tでのフィルタ網16からの出力と する。デルタ・セプストラル変換は、下記の段階から成る。
(i) 11幅の正規化: 平均チャネル振幅が次式1で計算され、 各チャネル値ν、1から差し引かれる。この結果、27次元のペクトJしω、と なる。ここで、ω12ν1喝−ν、(i=1・・・・・27)とする。
(11) コサイン変換: 新しい27次元のベクトルX、を得るためにコサイ ン変換Cを使って、値ω、を回転する。ここで、x1=Cω、とする。
(iii ) 切り捨て 9次元の特徴ベクトルxI 、はχ、の下位8要素か ら作成され、その振幅項はν、である。
(lマ) 時間差の追加、18次元のベクトルは、x’ +−+ とX″ 1゜ 、との差てx゛1を増大することにより得られる。
要約、 各フィルタ・チャネルの出力は、10m5毎にサンプリングされる「次 元」である。各10m5の時間枠の間、フィルタ網16の集中出力は、27次元 のベクトルである。変換回路20の出力21は、特徴ベクトルY1とし、順番に 並んだ変換済みベクトルである。
VFR18と変換回路20の順序は変更できる。勿論、可変型フレーム率分析の 間、可変型フレーム率累算数(つまり、保持されたベクトルが交代したベクトル の数)は保持され、追加のチャネルとして特徴ベクトルに追加される(第3b図 の下部参照)。この追加のチャネル・パラメータは、振幅の正規化段では無視さ れ、その後の処理の間も振幅項として同じように処置される。
辞書 辞書5は、小型コンピュータ1のディスクまたは読み取り専用メモリに記憶され る。辞書5は、2つの機能を持つ。システムで使える単語の文字一覧表を含み、 また、音響モデル記憶6にある音響モデルからこれらの単語の音響モデルを構築 するための音素系列を含む。
表2は、単語と関連する音素の数例を示す。
表 2 単語 音素 > 0n ant ) マQn 田川 〉 8日1 +2ten > +Ey++ +evenlh ) I E y n T+ewe+ > sEy@ +etezl ) I E t f l辞書5の中の情報は、初期の準備段階ま たは新しく必要単語入力の際に、キーボード9から人手により入力される。新し い単語の制隈は、これらの新しい単語に対する文脈依存型音素が、既に音響モデ ル記憶6に存在していなければならないことである。
音響モデル記憶−AMS 音響モデル記憶(AMS)6は、小型コンピュータ1のディスクまたは読み取り 専用メモリにファイルとして保持される情報である。AMS 6は、辞書5にあ る単語が転写されている音素の統計的な音響モデルを定義する複数組のパラメー タを含ンでいる。AMS 5は、文脈依存型隠れマルコフ・モデル群(t(MM s)、文脈に依存しないHMMs、1つ以上の無音モデル、および1組の非音声 (B、uam+ 、層b+等)、または雑音モデル(教室の背景雑音)を含む。
AMS 6にある情報は、隠れマルコフ・モデル音素のモデルを得るために以下 に詳述するよぅに、多くの子供達の声を録音し、彼等の音声を処理することによ って得られる。
文脈依り 音素レベル・モデルを用いて良い音声認識性能を得るためには、特定の音素の作 成に応じた音響パターンが、それに先行する音素および後続する複数系列の音素 に大きく依存するという事実を念頭に置く必要がある。これは、文脈依存型音素 モデルの使用により達成される。従って、各音素に対して1つの音響モデルを含 めるよりも、音響モデル記憶は、各音素に幾つかのモデルと各重要文脈に1つの モデルを含む。文脈依存型音素レベル単位の例は3重音であり、これには、1つ の音素の作成における唯一の重要な文脈上の影響は、直前および直後の音素によ るものであるという仮定がある。例えば、単語’Ilk+’(’+it’ )の 中の音素′I′ は、′富′に先行され、′t′ に後続される′1′ に対応 する3重音(1++ k )によって表される。
3重音アプローチの限界は、「給電依存」である。辞書に追加される新しい単語 は、初めの給電の中の単語に存在せず、音響モデル記憶の中のモデルも存在しな い3重音文脈を含む場合がある。この問題は、音素決定木に基づく方法で解決で きる。
この方法に関する解説は、下記の文献にある。
(II L RBzhl !l 直l、’Decition Treet fa t Ph0elalicslRnle+ in Con1inaoa+ 5pe ech、’ P+oc ICASSP 1991. T+oelo。
(21S Downe7 tnd 11 Ras+el、’A Decisio n Tree Apptosch1oT1+klndepsndenl+pc+ chRecognilion、’P+ocInstituteof Acoos lic3 ^ulnmn Con1. Winde+ie+e、 Noy 19 92゜各音素は2値の決定木と関係する。本来、この決定木の端末節は、その音 素の音の実現に同じ影響を持つ等価なりラスの文脈に対応し、文脈依存モデルは これらの端末節電に構築される。
決定木の各非端末節に関係するのは疑問であり、一対の後続する節である。その 2つの後続する節は、その疑問に対する肯定的と否定的な答えとに対応する。疑 問は「−組の音素」と「位置」から成り、「現在の音素に関係する位置にある音 素は、この−組の音素の中の1つですか?」と解釈される。疑問′1p。
1、kl、−1’ は、「現在の音素のすぐ左にある音素は、p、I。
またはkのうちの1つですか?」と解釈される。ある与えられた文脈の中の音素 を関連する決定木の端末節に(つまり、以下で定義された音素レベル隠れマルコ フ・モデル(IIMM)に)割り当てするプロセスは、その音素に対応する決定 木の上節での疑問の適用で始まる。次に、プロセスは、その質問に対する答えが 肯定か否定かに応じて、2つの後続節のうちの1つに移動する。新しい節が端末 節である場合には、文脈中の音素はモデルと関連づけられ、そのプロセスは終了 する。さもなければ、新しい節に対する質問がなされ、そのプロセスは継続する 。
隠れマルコフ・モデルとバウム・ウエルチ論理隠れマルコフ・モデル(HMM) と呼ばれる音響モデルは、文脈中の各音素毎に構築され、音響モデル記憶に記憶 される。
11MMMは、統計モデルである。これは一連のN個の状態から成り、対応する 文脈中の音素を構成している音の系列に対応していると考えることができる。逐 次的構造(つまり、その状態が発生する順序)と継続期間的構造(つまり、その 状態が占有されている時間の長さ)は、状態遷移確率行列により決定される・  ^” [a zl 1.+−+、 Hであり、ここで、at、は、時間i1での 状態が1であり、時間1での状態が1である確率である。
行列Aは、N状態マルコフ過程を定義する。状態と一連の音響特徴ベクトルとを 関係づけるために、各状態1は、確率密度関数1z と関連づけられる。数値す 、f!、)は、音響ベクトルY1が状態1に対応する確率である。通常、b、は 音響ベクトル空間で定義される多変量の正規分布であり、平均ベクトルと共変行 列によりパラメータ化される。
一連の音響ベクトルをY ”!+ 1.、、、、!+ 、、、、、、7丁とし一 連の状態を1 =r、 1.、、、、!+ 、、、、、、IT (II = i 、i = l、、、、、、N)とすると、賛が発生した場合のYと1の結合確率 は下記の式で与えられる。
閘が発生した場合のYの確率P(Y IMI は、下記の式で与えらYを生成し た状態の系列!は、下記の式で与えられる。
認識中の目標は、式(3)を解(ことであり、訓練中の目標は、式(2)を最大 化することである。
訓練の目標は、式(2)を最大化するHMMMを見付けることである。この問題 は、バウム・ウエルチ論理14] を用いて局部的に解くことができる。
闘で代表させたい音声音の発声に対応するHMMMと一連の音響特徴ベクトルが 与えられると、バウム・ウエルチ論理は、P(T IM)≧P(y IMI と いう属性を持った新しいHMMMを定義するための手順を細か< ra定する。
幾つかの訓練過程に適用し、部分的発声が訓練過程の中のどこで開始し、終了す るかという明確な知識なしに、これら複数のHM Mに対応する数系列の音に対 応する訓練過程を用いて一組のHMMを訓練するために(これを埋込み訓練と称 する)、基本的な論理は拡張された。
従って、−組の訓練課程Yが与えられると、−組のHM Mを訓練する典型的な 手順は、下記の通りである。
初期化 最初の評価は、音素毎に1つずつ、−組のHMMM、に対して得られる(これを 単音11 M Mと呼ぶ)。これは幾つかの方法で達成できる。例えば、1つの 方法では、ある与えられたモデルに対応する後続の全音響ベクトルを識別するた めに探索し、個々の副系列をH個の等しい区分に分け、対応する初期モデルの1 番目の状態のパラメータを評価するために個々の副系列にある1番目の区分の中 のベクトルを使うことができる。
単音の再評価−バウム・ウェルチ論理は、P(71L ) >p(rlMl)  という新しい組のモデルM1を生成するために一組の初期モデルと訓練課程に適 用される。M、は、−組の初期モデルとなり、バウム・ウエルチ論理は、Pfr  IL l >P(r IMI )という別の組のモデルM2を生成するために 再び適用される。
この手順は、Pi IM、 l とP(71M、−一の差が、あるしきい値以下 になるまで繰り返される。
文脈依存モデルの初期化: 単音のHM M M +は、−組の文脈依存性HM  Mに対する初期評価値を得るために使用される:ある与えられた音素に対する 個々の文脈依存モデルは、その音素に対する単音のHM Mのパラメータによっ てシードされる。
文脈依存モデルの再評価: バウム・ウェルチ論理は再度繰り返し適用され、P (F IM)が局部的に最適化されるように文脈依存音素レベル・モデルMを生 成するために、文脈依存型音素モデルの初期評価で開始する。集合Mは、音響モ デル記憶で使用される。
訓練材料に不足がある場合には、パラメータ共有を再評価プロセスの中に加える ことが有用である。例えば、各音響モデルの各状態は、共通の「壮大な」共変数 行列を共有することができる。
ネットワーク生成装置 ネットワーク生成装置7は、第4図に示すように、辞i15とAMS 6から関 係あるデータを1つのデータ構造に結合し、これは、音声パターン照合器4によ り処理されるのに適している。
辞書5からの与えられた単語に対して、このデータ構造は、2つの並行な半分に 分けられる。第1のものは、その単語の音響モデルを構成する部分語モデルの系 列を指定する。これは、そのネットワークの単語モデルと呼ばれる。単語モデル の目的は、その単語の受け入れ可能な発音に対応する音声パターンと一致するこ とである。第2のものは、全て並行な約50の文脈依存型単音IT M Mと無 音および非音声HM Mの完全な集合がら成る。
これはネットワークの一般音声部品と呼ばれる。一般音声部品の目的は、その単 語の受け入れ可能な発音ではない発声に対応する音声パターンと一致することで ある。
一般音声モデルは、表3の単音の全てまたは一部から別のHMMを形成する。
表 3 音素 例 音素 例 g good D lhsl 1 11ke v v in 第5図は単語’ 5EVEN’ に対する単語モデル定義をする過程を示す。実 際にはもつと多いが、各音素は1つの3値11 M Mを持つことが共通に示さ れている。辞書に記憶され、上記の表11こ示されているように、音素の順序は 、+、E、マ、nである。
従って、例えば、’ 5EVEN’ に対する3重音の順序は:(+ニーーE) 、IE:s −wl、(w:E n)、(n:v −1である。
’ 5EVEN’ に対する単語レベルI(M Mは、図示のようにAMSから 関連する4つの3重音HM Mを連結して得る。また、図示のように、例えば、 音素ESn、+l二対して選択されなt113重音が存在する。
一般音声モデルは、第4図に示すように、表3に記載されている全てまたは一部 の音素、無音のHMM Eおよび非音声HMMである<;> 、 <?) 、( ??>等から、並列状に形成される。
一般音声モデルは全ての単語に対して同一である。従って、ネットワークのこの 部分は、永続的に記憶されるので、単語モデルだけが個々の新しい単語に対して 構築される必要がある。繰り返すが、本図は、各HM Mにおける幾つかの状態 を図示しているにすぎない。
第4図は単語’ 5EVEN’ の場合に対する完結したネットワークを図示し ている。一般音声モデルが大きくかつ精巧であればあるほど、最終結果は正確に なる。この理由は、子供の音声は短い表にある単一または複数の単語と一致する よりも、第4図に示す完結したネットワークに一致するからである。
音声パターン照合器 音声パターン照合器S PM4の機能は、子供の発声を捉えて、それと第4図に 示すようなモデルと比較することである。
S PM4は、モデルのどの要素が子供の発声と似ているかを計算する。次に、 話された単語がそのモデルまたは一般音声モデルに用意された単語であるか否か をを識別する。さらに、SI’M4は、その子供の発声が所望の標準にどれだけ 近いかの測定値を表示する。これは、記憶されたモデルと話された単語の一致( 相関)に対して点数を与えるシステムとは対照的であり; これらシステムは、 所要の単語の一部のみの正しい発音によって誤判断させられる可能性がある。
子供の発声の単語’ 5EVEN’ に対する一致を説明する前に、より単純な タスクの音声認識に関係する原理に対する参照をする。
第6図は3値HM Mの概略表現である。認識の間、問題は可能性のあるII  M Mモデルのどれが観測された一連の特徴ベクトル(子供の音声)と同一にな る確率が最も高いかを計算することであるが、そのモデルはある系列のベクトル を生じさせる過程の見地から最も容易に説明される。第6図の3つの実線の円は 3つの状態を表す。いかなる時間でも、そのモデルは、3つの状態の内の1つで あると言われている。時間の経過につれて、そのモデルはある状態から別の状態 に遷移する。状態間の遷移は、支障のない遷移を示す矢印つきの細い実線で示さ れる。
第6図に示すモデルで、遷移は状態1から2.2から3、および各状態自身への 回帰のみが支障ないものとされる。この例で、モデルは状態2を通過せずに状態 1から3には変化できない。各遷移は関連する遷移の確率を表す数と関係する。
つまり、数a+、は状態1から状態1への遷移の確率を表す。
モデルが遷移を発生させると、特徴ベクトルが生成される。
その特徴ベクトルは観察できる。その特徴ベクトルの生成を管理するパラメータ は各状態に関連する。実際には、その特徴ベクトルの生成は、特徴ベクトル確率 密度関数の平均と共変数行列を含むb (ilによって特徴づけられるある多次 元ガウス分布に従うと仮定されている。ガウス分布は唯一の可能な分布ではない 。共通な実施戦略は、その観測した特徴ベクトルを数値化して、具体的な分布に 適したblに対するパラメータを使用することである。他の多くの変種が可能で ある。
以上、いかにHM Mは観測できる特徴ベクトルに発生する確率論的な(偶然の 要素を持つ無秩序な)モデルと見られるかを説明した。音声中に認識するために は、モデルと、観測された系列が同じである相対的な確率を計算する必要がある 。直接的に確率を扱うよりも、確率の対数に関係する数値を扱うことが普通であ る。これらの数値を「コスト」という。コストは、任意の特徴ベクトルまたは状 態の組み合わせと関連し、その状態が特徴ベクトル(10msの時間枠に20個 の数値)を発生させる確率に関係する。コストは、局部的コストと呼ばれること もある。コストは特徴ベクトルと状態の順序にも関係する。この例で、コストは 一連の特徴ベクトルが与えられた状態の系列によって生成される確率に関係する 。このコストは、累積コストと呼ばれる。認識論理の機能は、どの系列の状態が 観測された系列の特徴ベクトル(第3b図に示す)に対する最小の累積コストを 発生させるかを見付けることである。この系列は、最良の通路としてよく知られ ている。認識論理はビテルビ(Yilttbi )論理に基づいている。
ビテルビ論理の動作例を第7図に示す。第7図は単語1 、e、l 、1llo ′、および暗雑音モデル、つまり無音1<、>1 というの3つのモデルを認識 するために単純なHMMに基づいた訓練補助装置のための文法図の例を示す。モ デルは一連の部分語単位を連結して構築されるか、または全体の単語モデルであ る。実際にはより多くの状態が使用されるが、単純化のために、各単語モデルは 3つの状態のみを含むものとして示されている。任意の系列の単語1.、、l  、l、olが1つ以上の無音1<、>1 で区切られていれば、文法図は訓練補 助装置がそれらの単語をモデル化することを示している。
第8図は各モデルTel’ 、I、、、およびl<、>l の各状態1から3に 対する局部的コスト表の表現を示している; 各局部的コストの値は空の四角で 表されている。最新の計算結果が右端にある。表の上部が特徴ベクトル系列(第 3図と同一)の表現である。各特徴ベクトルL(10ms毎に測定された音声を 表す)が受け取られると、その特徴ベクトルに対する局部的コスト C0hが、 3つのモデル’7el’ 、’l’、および’<;>’のそれぞれにある3つの 状態の個々について計算される;t+1hはモデルJの状態kに対する時間枠1 で受け取られた特徴ベクトルに対するコストである。これは、算術的には下記の ように表現される ここで、μ1.とσ口1は、モデルjの状態にの部品1に関連したがウス分布の 平均および標準偏差であり、bIkは正規化定数である。別の方法では、各モデ ルに対する局部的コストは、そのモデルから取り出した値と共に、観測された特 徴ベクトル値から計算される。
各局部的コスト、つまり第8図の空の四角で示される数は、次の処理のために一 時的に記憶される。その局部的コスト値は、そのモデルのある状態がある観測さ れた特徴ベクトルを発生させる確率に関係するので、局部的コスト表の数値のパ ターンは、各モデルの各状態がそのモデルの状態間の支障のない遷移または適用 文法に関係なく、観測された特徴ベクトルを発生させる確率を表す。
計算の次の段階は、状態間の結合効果、遷移確率、および適用文法の結合である 。計算のこの段階は、3つのモデル゛7el’、′nO゛、およびl<、>l  に対する累積コストと経路を示す第9図に図示されている; 各状態毎に1つの 空の円は累積コスト値(数字)を表し、状態間の矢印付き直線は、最も可能性の 高い遷移とその開始点を表す。第7図の検査は少数の遷移のみが可能であること を示している。例えば、モデル゛μS′の状態2は前の時間枠で状態2または状 態1からの遷移を受け取ることができるだけである。同様に、モデル’<;>’  の状態1は、(モデルl<、>j の)状態1か、モデルl、、Klの状態3 か、モデルlno+の状態3からの遷移しか受け取れない。
各折しい特徴ベクトルが受け取られると(10ms毎に音声を変換して)、2つ の値が計算される;(1) ある開始点からある状態で終わっている現在の時間 枠まで、状態の最良の(最も確率の高い)系列に対する累積コスト(数字)、お よび(11) ある状態から直前の状態までの遷移(矢印付きの直線)により選 ばれる可能性の高い経路。これらの計算の論理は、ビテルビ論理であり、以下の ように実施される:時間枠1でモデル1の状態kに到るためには、そのシステム は、適用文法と単語または部分語モデルの支障のない遷移で決定され、第7図に 示すように、時間枠i−1に限定された数の状態の1つの状態でなければならな い。時間枠1での状態への最適経路に対する累積コストは、時間i−1での可能 な先発状態から時間iでの考慮中の状態までのどの経路が、最少の累積コストを 与えるかを考慮することで見つけだせる。累積コストは先発状態el−1,1・ 、、に到るための時間枠i−1での累積コストと、モデルの一部であるモデルi の状態kからの遷移確率の対数と、前に計算した局部的コスト C11kとの和 で与えらる。計算式は下記の通りである: C+、1.h =m f n l(C+−+、+、h、+ 十p lkl )  +C++kf3)累積コスト(数字)の値C+1hは、各単語モデルの各状態1 、2、および3に対して計算され、空の円で表された第9図の表に入れられる。
各計算値(1−1,1・ 、・1は、前の累積コストを考慮する特別な状態での 累積コストである。数値p1□は、単語モデルにおける「ペナルティ」、つまり 遷移の重み、または片寄りを表す。数値C11kは、第8図で得て、説明済みの 局部的コストである。数字の桁あぶれを避けるために、数字は計算中は正規化さ れる。
より多くの特徴ベクトルが処理され、表が更新されると、累積コスト値やその関 連経路は、観測された一連の特徴ベクトルと矛盾のない最も可能性の高い系列の 状態の記録を形成する。
第9図の検討により、第7図のモデルの整備により観察された系列の(音声信号 で変換された)特徴ベクトルが通った可能性が最も高い経路が分かる。尋ねられ るべき質問は、無音からモデルl、e、l またはモデル゛no’を通過する観 測された音声の前になされる; もしその観測された音声が1YeI′ モデル を通過したら、発声された単語はlno+であるより1.、、l である方がよ り確実である。
この質問に答えるために、部分的トレースバックとして知られる処理方法を採用 するのが普通である。これは第10a図と10bに図解されていて、第9図と似 てはいるが、第10a図は発声の半ばまで処理され、第10b図はそれよりさら に後の状態である。部分的トレースバックの間、現在の時間枠(右端の空の円の 桁)で終了している全ての経路は、検査される。低い値のコストはその事象の発 生確率の高さを表し: 高いコスト値は殆ど起こり得ない事象を表し、ある場合 には無視されうる。各経路は時間的に遡る状態の系列を表し、関連する累積コス トはその経路が観測された特徴ベクトルを発生させる確率をの状況を表す。その 経路が第10a図の右から左へトレースバックされると、その経路は収束する。
一度、2本の経路が収束すると、トレースバック中には二度と分散することはな いことは証明されている。第1と第2の時間枠、つまり左端の2桁の間で、全経 路が(1)および(b)の印のついた1本の経路に収束している。この領域は解 決済み領域といわれる。時間枠3と10との間に、複数の可能性のある経路があ る。時間枠1oで最も少ない累積コストを持つ経路は、時間枠1oへのデータを 説明するための状態の最も可能性の高い順序を表しているが、より多くの特徴ベ クトルが処理されると、これが最良の経路ではなくなる可能性がある。
第10a図には数値は何も記載されてはいないが、その代わりに、全ての値は空 の円で表されている。つまり、計算された数字の知識無しの検査は、時間枠10 への最も可能性の高い経路を表示しない。従って、より多くの特徴ベクトルが処 理されると、第10a図の時間枠10に見える最良の経路が、変わる可能性があ る。これは’!+ked’ のような単語の発声の間に、単語’I+ked’  と’Isk″に対する単語モデルを用いると発生する可能性がある。その単語が 完了する前にトレースバックが実行されると、単語’tsked’ と’t+に ’ に対するモデルにおける状態の累積コストは同じになりがちである。その発 声が終わった時にのみ、その累積コストの本質的な差が出る。
第10a図で、時間枠7より前の時間枠に対して、全ての可能な経路は、1本の 経路に収束していることが分かる。その論理は、以前の時間枠に対する経路の履 歴を変えることはしないので、点(I)と(blの間の経路の部分は決して変わ らず、信頼できる報告がなされるはずである。この例で、無音モデルは時間枠1 と2の間の特徴ベクトルに対する最も可能性の高い状態の系列であった。
第10b図は少し後のトレースバック過程を示す。解決済み領域は、単語1.、 、I に対するモデルを通過し、以前に単語+no+に対するモデルを通過した 経路には、現在の時間枠20からは到達できない。つまり、発声された単語の開 始は時間枠4のtel で検知されている; 単語の終わりは時間枠(d)で検 知されている;また、発声された単語は、l、、、l であることが見付けられ ている。
残念ながら、この装置はこれ自身では発音の正しさを示すことにはならない。従 って、音声訓練補助装置が音声障害や貧弱な発音の認識用に使われる場合は、追 加処理を含む必要がある。
更に、受は入れ可能と受け入れ不可能の音声の標準または境界を変えられること が望ましい。例えば、貧弱な話者は、最初はより緩い標準が必要で、その後、徐 々に厳しさを加えた標準が必要となる。このような標準は、成人のオペレータま たは音声セラピストの管理の下で変える必要がある。
上記計算中に見付けられた値の1つが、1つの経路が単語モデル″2es’ に あった時間枠に関連する累積コスト C1である。
C−の値は単語モデルのコストといわれる; っまり単語の終子爪fdl での 累積コストは、単語の開始点(cl での累積コストよりすくない。C−の値は そのモデルが観測された系列の特徴ベクトルを発生させる確率に関係するので、 C1の値はその発声がどれ程モデルに近いかの表示値として使える。
第11図は、累積単語コストに対する累積度数分布であり、点線は受け入れ可能 単語に対するデータを示し、実線は受け入れ不可能な単語に対するデータを示す ; 受は入れ可能または受け入れ不可能の決定は、その記録から成人のオペレー タによって行われる。残念ながら、正しく話された平均単語コスト値、に対して 個々の累積単語コスト値C−を比較することによって分かったように、正しい発 音と受け入れ不可能な発音との差は、はんの少ししかない。
累積単語コスト値C−の感度の悪さの1つの原因は、異なった子供達の間の異な った音声器官にある。個々の子供達の音声器官の測定法を作り出し、単語コスト 値c5の測定の基本線に使うことは有用である。
第11図の作成用に取った記録データは、下記のように処理された。第12a図 に示すHM Mが構築された: これは単語HM Mの片側の無音If M M  Lか含んでい・ない。一連の記録された単語は処理され、各単語毎にC−の平 均値が計算された。
さらに、一般音声モデルHMMが、第4図の上部に示されたものと同じく第12 b図に示すように構築された。つまり、それは単語全体を含むのではなく、単に 単音を含むだけである。
この第12b図の一般音声モデルにより、第12a図で使われたものと同一の記 録された単語が、コスト値Cbを得るために処理された: このC1は第12a 図の単語モデルへの類似度を変化させる大量の音素や雑音に対して、発声された 単語を比較することに注意が必要である。個々の発声に対し、C1と05との差 りが計算される。第11図で使用された全データに対するDの値が計算され、C −−C,に対する累積度数分布である第13図に書き込まれた。第13図は、正 しくおよび正しくな(話された言葉の本質的な分離を示す。繰り返すが、録音に おける正しいおよび正しくない単語の選択は、成人の熟練者によって行われる。
C−−Cbの値は、第4図に示す11 M Mで使用される。つまり、単語HM Mと一般音声モデルの両方によって、通過に伴う単語コストが計算される。トレ ースバック計算の終了時に、つまり、第10図において、単語モデルと一般音声 モデルの両方に関係する累積コストがあるが、最低のコストは、どちらの経路が 最も単語モデルまたは一般音声モデルに近いかを表す。さらに、ペナルティコス ト生成装置は、一般音声モデルに追加される;その生成装置は、一般音声モデル を通過するコストに、ある数を加算する。このペナルティコスト生成装置は、間 違った発音に対するシステムの感度を調節するオペレータ用の変数であり、一般 音声モデルのコストにあるコスト値を追加する。
また、異なる単語は正しい認識について同じ正確性を達成するためには、異なる ペナルティ値が必要であることが分がっている。個々の新しい音響単語モデルが 形成されると、そのペナルティ値が適正になるように変更されるように、検索表 が辞書5に用意されている。この事前設定のペナルティは、個々の子供に合うよ うに教師によって設定された任意の値に加算される。
高いペナルティ値は、一般音声モデルよりも単語モデルを通過する特徴ベクトル の確率を増加し、従って、下手に話された単語を受け入れ可能とする確率を増加 する。低いペナルティ値は、一般音声モデルを通過する発声の確率を高めるので 、下手に話された言葉という表示を増加する。
第14図は、第4図のシステムに対するペナルティコスト値の変更の効果を示す 。この場合、音声障害の程度を変えながら子供達は、合計1000語を話した。
成人の熟練者達の研究チームは、個々の単語の発音を受け入れ可能か不可能かを 評価するように依頼された。使用した特定のデータについて見ると、7のペナル ティで、受は入れ可能または不可能というシステムの判定が、70%以上の言葉 について研究チームと一致している。
まとめると、子供の発声は、オペレータが設定した単語モデルを通過する累積単 語コスト間の差を、一般音声モデルを通過する累積コストおよび調整可能なペナ ルティコストの和と比較することにより、受は入れ可能または受け入れ不可能と して計算される。
別のT(MMは、開始時の吃音を考慮に入れるが、または正しく認識された単語 の中の発音の正しさを追加検査するように配置されている。
第15a図は、吃音の量が予期される場合の文法を示す。これは、追加の一般音 声モデルが初期の無音HMMと並列になっている第4図の文法とは違う。この配 置の目的は、吃音と要求した単語の発声を区別するためである。
第16図は、一連の一般音声モデルを持っている所が第4図と相違する。一般音 声モデルの数は、単語モデルの音素の数と等しい。第17図は、個々の音素また は部分語モデルと一般音声モデルとを別々に比較する所が第16図と相違する。
従って、要求した単語の個々の音素または部分語は、一般音声モデルと比較され 、個々の音素または部分語がどれ程正しく発音されたかの表示がなされる。これ は、ある子供にとってどの音素または部分語が問題を引き起こしているかを識別 する診断の補助となる。
こともの音声検査に使う場合、モニタ上にメツセージがプロンプトされるように 、オペレータは小型コンピュータ1にキーボードから単語や言葉を入力する。入 力された単語は、モニタ10上に表示される。次に、オペレータは必要な量のペ ナルティの入力を促される。これら2つの入力は、第4図に示すように記憶され た一般音声モデルと結合するために入力された単語に対する音響単語モデルを形 成するために、訓練補助装置を設定すると、装置は使用可能になる。
子供は、ヘッドホンとマイクロホンを着け、準備完了になると話すように案内さ れる。この案内は、簡単なメツセージ、っまり「私の後で繰り返しなさい。」と か設定単語の’ 1efel″等を話す音声合成器から音声で行なわれる。訓練 補助装置が子供の発声の処理後、さらに「良くできました。」とか「もう一度言 って下さい。」といったメツセージが出される。これに代わって、案内が視覚的 に、つまりキーボード上のキーを押す指示がある場合もない場合もあるが、モニ タ上のメツセージであることもある。他の使用状態では、オペレータが案内をす る、つまり設定された単語を話し、子供に真似をするように言う。そして、オペ レータは子供の発声の正しさを表示した訓練補助装置からの出力を見る。
訓練の終わりに、コンピュータは、各単語に対して計算された正確性と共に、子 供が話した言葉の記録を出力する。この記録は、その後の訓練か治療上の援助か の判断のために、後に使われる。
第4図の音響モデルは、単に1つの単語モデル、つまり’IeマeN’ に対す るものと一般音声モデルだけしか含んでいなかった。計算能力によるが、異なっ た設定単語を認識できるように、1つの単語モデル以上のモデルが用意できる。
これは単語の順序が重要でなくなる利点があるが、各単語は短時間の区切りを入 れて話されなければならない。その代わりであり、かつ好ましいのは、最初の単 語が正しく話された後、第4図の単一単語モデルが新しい単語用に変われるもの である。従って、教師は選ばれた順序で話されるために一連の単語を設定する。
音声訓練補助装置は、音声パターン照合器4が使う新しい単語モデルを構築する のに、約loomsを要する。
Fig、3 (a) ″変fi7″′−44’F (VFR)分析Time叫 (b) rime叫 w−Cb 0 5 10 15 Z) 25 30 35 40バブルモデルペナルティ フロントページの続き (72)発明者 シリーズ、ロバート・ウィリアムイギリス国、ウスターシャー ・ダブリュ・アール・14・3・ピー・ニス、マルバーン、セント・アンドリュ ーズ・ロード、ディー・アール・エイ・マルバーン(番地なし) (72)発明者 ワランス、ジュリー・リンイギリス国、ウスターシャー・ダブ リュ・アール・1・3・エイ・ジー、ウスター、キャスル・ストリート、ヒアフ ォード・ニス・ウスター・カランティ・カランシル(番地なし)

Claims (17)

    【特許請求の範囲】
  1. 1.多数の子供達による音声の処理結果を表す文脈依存性音素の音響モデルを記 憶するための音響モデル記憶装置と、単語の一覧表を、上記音響モデル記憶装置 からこれらの単語の音響モデルを構築するための情報と共に記憶した辞書と、一 般音声音の音響モデルと共に、必要単語の音響モデルを生成するためのネットワ ーク生成装置と、上記の必要単語の音響モデルの生成を要求する入力手段と、子 供の発声を受け取る手段と、 上記の子供の発声を音声の音響モデルとの比較に適した形に処理する手段と、 上記の処理された子供の発声を上記の必要単語と一般音声の上語音響モデルと比 較するための音声パターン照合器と、上記の子供の発声が上記の必要単語である か否かを、その必要単語の発音の正確性の指示と共に示す手段とを含むことを特 徴とする子供用音声訓練補助装置。
  2. 2.音響モデルが隠れマルコフ・モデルであることを特徴とする請求の範囲第1 項に記載の訓練補助装置。
  3. 3.一連の特徴ベクトルを形成する連続的な時間枠の期間内に士つのN次元特徴 ベクトルを供給するために、上記の子供の発声をサンプリングし、N本のチャネ ルに処理することを特徴とする請求の範囲第1項に記載の訓練補助装置。
  4. 4.上記一連の特徴ベクトルが上記音響単語モデルまたは上記音響一般音声モデ ルのどちらかと同一となる相対的確率を、上記音声パターン照合器が計算するこ とを特徴とする請求の範囲第3項に記載の訓練補助装置。
  5. 5.上記音声パターン照合器が連続的に動作し、上記の必要単語が連続音声中で 認識されることを特徴とする請求の範囲第1項に記載の訓練補助装置。
  6. 6.記識された子供の話した単語の開始と終了の間の上記累積コストの差を、上 記音声パターン照合器が計算することを特徴とする請求の範囲第1項に記載の訓 練補助装置。
  7. 7.上記累積コスト差が子供の話した単語の正確性を示すために使用されること を特徴とする請求の範囲第6項に記載の訓練補助装置。
  8. 8.上記一般音声音響モデルと協働して、子供の話した単語の正確性を示すため の、調節可能な標準を形成するように配置された可変型ペナルティ制御をさらに 含むことを特徴とする請求の範囲第1項に記載の訓練補助装置。
  9. 9.異なる必要単語に関連した設定値に応じて、ペナルティ値が変化することを 特徴とする請求の範囲第8項に記載の訓練補助装置。
  10. 10.上記設定ペナルティ値が個々の子供に合わせてオペレータにより変更され ることを特徴とする請求の範囲第9項に記載の訓練補助装置。
  11. 11.各校査セッションの間、必要単語を訓練補助装置に入力するためのキーボ ードを含むことを特徴とする請求の範囲第1項に記載の訓練補助装置。
  12. 12.子供に上記必要単語を話すように促すための手段を含むことを特徴とする 請求の範囲第1項に記載の訓練補助装置。
  13. 13.音声合成器と拡声器を含む促進手段を含むことを特徴とする請求の範囲第 12項に記載の訓練補助装置。
  14. 14.促進手段がメッセージ表示用画面を持つ画像モニタを含むことを特徴とす る請求の範囲第12項に記載の訓練補助装置。
  15. 15.必要単語、正しく話された単語、およびいかに正しく話されたかを示す、 1セッションの子供の音声の結果を記録する手段を含むことを特徴とする請求の 範囲第1項に記載の訓練補助装置。
  16. 16.上記音響単語モデルが、一連の部分単語モデルと一般音声モデルであり、 上記音声パターン照合器が、上記必要単語の発声の正しさを示すことを特徴とす る請求の範囲第1項に記載の訓練補助装置。
  17. 17.上記音響単語モデルが、子供の発声における中断が別に処理されるように 、上記音響単語モデルの前に追加の音響モデルを含むことを特徴とする請求の範 囲第1項に記載の訓練補助装置。
JP6510846A 1992-11-04 1993-11-02 子供用音声訓練補助装置 Ceased JPH07503559A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB929223066A GB9223066D0 (en) 1992-11-04 1992-11-04 Children's speech training aid
GB9223066,3 1992-11-04
PCT/GB1993/002251 WO1994010666A1 (en) 1992-11-04 1993-11-02 Children's speech training aid

Publications (1)

Publication Number Publication Date
JPH07503559A true JPH07503559A (ja) 1995-04-13

Family

ID=10724496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6510846A Ceased JPH07503559A (ja) 1992-11-04 1993-11-02 子供用音声訓練補助装置

Country Status (6)

Country Link
US (2) US5679001A (ja)
EP (1) EP0619911B1 (ja)
JP (1) JPH07503559A (ja)
DE (1) DE69311303T2 (ja)
GB (2) GB9223066D0 (ja)
WO (1) WO1994010666A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337667A (ja) * 2005-06-01 2006-12-14 Ntt Communications Kk 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
JP2007171944A (ja) * 1996-10-02 2007-07-05 Sri Internatl 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム
JP2010175807A (ja) * 2009-01-29 2010-08-12 Kddi Corp 音声認識方法および装置

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009397A (en) * 1994-07-22 1999-12-28 Siegel; Steven H. Phonic engine
US6283760B1 (en) 1994-10-21 2001-09-04 Carl Wakamoto Learning and entertainment device, method and system and storage media therefor
JPH08248975A (ja) * 1995-03-09 1996-09-27 Nec Corp 標準パターン学習装置およびこの装置を使用した音声認識装置
CA2180392C (en) * 1995-07-31 2001-02-13 Paul Wesley Cohrs User selectable multiple threshold criteria for voice recognition
DE69622439T2 (de) * 1995-12-04 2002-11-14 Jared C. Bernstein Verfahren und vorrichtung zur ermittlung von kombinierten informationen aus sprachsignalen für adaptive interaktion in unterricht und prüfung
US5893720A (en) * 1996-03-25 1999-04-13 Cohen; Hannah R. Development language system for infants
US5923323A (en) * 1996-06-26 1999-07-13 Xerox Corporation Method and apparatus for organizing and displaying long lists of data items on a work space of a computer controlled display system
US5766015A (en) * 1996-07-11 1998-06-16 Digispeech (Israel) Ltd. Apparatus for interactive language training
US5865626A (en) * 1996-08-30 1999-02-02 Gte Internetworking Incorporated Multi-dialect speech recognition method and apparatus
GB9619165D0 (en) * 1996-09-13 1996-10-23 British Telecomm Training apparatus and method
US6026359A (en) * 1996-09-20 2000-02-15 Nippon Telegraph And Telephone Corporation Scheme for model adaptation in pattern recognition based on Taylor expansion
WO1998014934A1 (en) * 1996-10-02 1998-04-09 Sri International Method and system for automatic text-independent grading of pronunciation for language instruction
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US5857173A (en) * 1997-01-30 1999-01-05 Motorola, Inc. Pronunciation measurement device and method
US6567787B1 (en) * 1998-08-17 2003-05-20 Walker Digital, Llc Method and apparatus for determining whether a verbal message was spoken during a transaction at a point-of-sale terminal
US7383200B1 (en) 1997-05-05 2008-06-03 Walker Digital, Llc Method and apparatus for collecting and categorizing data at a terminal
GB9716690D0 (en) 1997-08-06 1997-10-15 British Broadcasting Corp Spoken text display method and apparatus for use in generating television signals
AU8995798A (en) * 1997-09-05 1999-03-29 Idioma Ltd. Interactive system for teaching speech pronunciation and reading
AU1193599A (en) * 1997-11-04 1999-05-24 Alcatel Usa Sourcing, L.P. System for entollement of a spoken name dialing service
US5927988A (en) * 1997-12-17 1999-07-27 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI subjects
US7203649B1 (en) * 1998-04-15 2007-04-10 Unisys Corporation Aphasia therapy system
US6016471A (en) * 1998-04-29 2000-01-18 Matsushita Electric Industrial Co., Ltd. Method and apparatus using decision trees to generate and score multiple pronunciations for a spelled word
US6182040B1 (en) * 1998-05-21 2001-01-30 Sony Corporation Voice-synthesizer responsive to panel display message
US6336089B1 (en) * 1998-09-22 2002-01-01 Michael Everding Interactive digital phonetic captioning program
DE19849855C1 (de) * 1998-10-29 2000-04-27 Ibm Verfahren zur automatischen Generierung einer textlichen Äußerung aus einer Bedeutungsrepräsentation durch ein Computersystem
WO2000057386A1 (en) * 1999-03-25 2000-09-28 Planetlingo, Inc. Method and system for computer assisted natural language instruction with adjustable speech recognizer
US20050261907A1 (en) 1999-04-12 2005-11-24 Ben Franklin Patent Holding Llc Voice integration platform
US6408272B1 (en) * 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
DE19918382B4 (de) * 1999-04-22 2004-02-05 Siemens Ag Erstellen eines Referenzmodell-Verzeichnisses für ein sprachgesteuertes Kommunikationsgerät
DE19920501A1 (de) * 1999-05-05 2000-11-09 Nokia Mobile Phones Ltd Wiedergabeverfahren für sprachgesteuerte Systeme mit textbasierter Sprachsynthese
JP2001075964A (ja) * 1999-08-31 2001-03-23 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
EP1139318A4 (en) * 1999-09-27 2002-11-20 Kojima Co Ltd PRONUNCIATION EVALUATION SYSTEM
DE19947359A1 (de) * 1999-10-01 2001-05-03 Siemens Ag Verfahren und Vorrichtung zur Therapiekontrolle und -optimierung bei Sprachstörungen
US6377925B1 (en) 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications
KR100677197B1 (ko) * 2000-01-26 2007-02-05 엘지전자 주식회사 음성 인식 기술 방법
US6928329B1 (en) * 2000-02-29 2005-08-09 Microsoft Corporation Enabling separate chat and selective enablement of microphone
US7240093B1 (en) * 2000-02-29 2007-07-03 Microsoft Corporation Use of online messaging to facilitate selection of participants in game play
JP2001265207A (ja) * 2000-03-17 2001-09-28 Nec Corp 通信教育用のビジネスシステム又は通信教育システム
US6963841B2 (en) * 2000-04-21 2005-11-08 Lessac Technology, Inc. Speech training method with alternative proper pronunciation database
US6847931B2 (en) 2002-01-29 2005-01-25 Lessac Technology, Inc. Expressive parsing in computerized conversion of text to speech
AU2001255560A1 (en) * 2000-04-21 2001-11-07 Lessac Systems, Inc. Speech recognition and training methods and systems
US7280964B2 (en) * 2000-04-21 2007-10-09 Lessac Technologies, Inc. Method of recognizing spoken language with recognition of language color
US6865533B2 (en) * 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
US6644973B2 (en) * 2000-05-16 2003-11-11 William Oster System for improving reading and speaking
DE10034235C1 (de) * 2000-07-14 2001-08-09 Siemens Ag Verfahren zur Spracherkennung und Spracherkenner
US20020115044A1 (en) * 2001-01-10 2002-08-22 Zeev Shpiro System and method for computer-assisted language instruction
US6725198B2 (en) 2001-01-25 2004-04-20 Harcourt Assessment, Inc. Speech analysis system and method
US6732076B2 (en) 2001-01-25 2004-05-04 Harcourt Assessment, Inc. Speech analysis and therapy system and method
WO2002059856A2 (en) * 2001-01-25 2002-08-01 The Psychological Corporation Speech transcription, therapy, and analysis system and method
US20030055640A1 (en) * 2001-05-01 2003-03-20 Ramot University Authority For Applied Research & Industrial Development Ltd. System and method for parameter estimation for pattern recognition
TW556152B (en) * 2002-05-29 2003-10-01 Labs Inc L Interface of automatically labeling phonic symbols for correcting user's pronunciation, and systems and methods
US7752045B2 (en) * 2002-10-07 2010-07-06 Carnegie Mellon University Systems and methods for comparing speech elements
US20040176960A1 (en) * 2002-12-31 2004-09-09 Zeev Shpiro Comprehensive spoken language learning system
US7407384B2 (en) 2003-05-29 2008-08-05 Robert Bosch Gmbh System, method and device for language education through a voice portal server
US20050119894A1 (en) * 2003-10-20 2005-06-02 Cutler Ann R. System and process for feedback speech instruction
KR100704302B1 (ko) * 2003-12-19 2007-04-05 한국전자통신연구원 적응 훈련 기법에 의한 기준 데이터 구축 방법
US20080027731A1 (en) * 2004-04-12 2008-01-31 Burlington English Ltd. Comprehensive Spoken Language Learning System
DE602004014416D1 (de) * 2004-04-20 2008-07-24 France Telecom Spracherkennung durch kontextuelle modellierung der spracheinheiten
US20060053012A1 (en) * 2004-09-03 2006-03-09 Eayrs David J Speech mapping system and method
US20060057545A1 (en) * 2004-09-14 2006-03-16 Sensory, Incorporated Pronunciation training method and apparatus
US9355651B2 (en) 2004-09-16 2016-05-31 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US10223934B2 (en) 2004-09-16 2019-03-05 Lena Foundation Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
US9240188B2 (en) 2004-09-16 2016-01-19 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US8708702B2 (en) * 2004-09-16 2014-04-29 Lena Foundation Systems and methods for learning using contextual feedback
US8078465B2 (en) * 2007-01-23 2011-12-13 Lena Foundation System and method for detection and analysis of speech
US8938390B2 (en) 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
US7258660B1 (en) 2004-09-17 2007-08-21 Sarfati Roy J Speech therapy method
US8521529B2 (en) * 2004-10-18 2013-08-27 Creative Technology Ltd Method for segmenting audio signals
US20060084047A1 (en) * 2004-10-20 2006-04-20 Inventec Corporation System and method of segmented language learning
US20060263752A1 (en) * 2005-04-25 2006-11-23 Michele Moore Teaching method for the rapid acquisition of attractive, effective, articulate spoken english skills
US7657221B2 (en) * 2005-09-12 2010-02-02 Northwest Educational Software, Inc. Virtual oral recitation examination apparatus, system and method
WO2007034478A2 (en) * 2005-09-20 2007-03-29 Gadi Rechlis System and method for correcting speech
KR100744288B1 (ko) * 2005-12-28 2007-07-30 삼성전자주식회사 음성 신호에서 음소를 분절하는 방법 및 그 시스템
TWI312945B (en) * 2006-06-07 2009-08-01 Ind Tech Res Inst Method and apparatus for multimedia data management
KR100883652B1 (ko) * 2006-08-03 2009-02-18 삼성전자주식회사 음성 구간 검출 방법 및 장치, 및 이를 이용한 음성 인식시스템
CA2676380C (en) 2007-01-23 2015-11-24 Infoture, Inc. System and method for detection and analysis of speech
GB2458461A (en) * 2008-03-17 2009-09-23 Kai Yu Spoken language learning system
GB0920480D0 (en) * 2009-11-24 2010-01-06 Yu Kai Speech processing and learning
TWI431563B (zh) * 2010-08-03 2014-03-21 Ind Tech Res Inst 語言學習系統、語言學習方法及其程式產品
US8880399B2 (en) * 2010-09-27 2014-11-04 Rosetta Stone, Ltd. Utterance verification and pronunciation scoring by lattice transduction
US10019995B1 (en) * 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
EP2851895A3 (en) * 2011-06-30 2015-05-06 Google, Inc. Speech recognition using variable-length context
NL2008809C2 (en) * 2012-05-14 2013-11-18 Stichting Katholieke Universtiteit Automated system for training oral language proficiency.
GB2516208B (en) * 2012-10-25 2019-08-28 Azenby Ltd Noise reduction in voice communications
US10381002B2 (en) 2012-10-30 2019-08-13 Google Technology Holdings LLC Voice control user interface during low-power mode
US10373615B2 (en) 2012-10-30 2019-08-06 Google Technology Holdings LLC Voice control user interface during low power mode
US10304465B2 (en) 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
US9584642B2 (en) 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US9336771B2 (en) * 2012-11-01 2016-05-10 Google Inc. Speech recognition using non-parametric models
US9390708B1 (en) * 2013-05-28 2016-07-12 Amazon Technologies, Inc. Low latency and memory efficient keywork spotting
US9183830B2 (en) * 2013-11-01 2015-11-10 Google Inc. Method and system for non-parametric voice conversion
US9177549B2 (en) * 2013-11-01 2015-11-03 Google Inc. Method and system for cross-lingual voice conversion
US8768712B1 (en) 2013-12-04 2014-07-01 Google Inc. Initiating actions based on partial hotwords
US9858922B2 (en) 2014-06-23 2018-01-02 Google Inc. Caching speech recognition scores
US9299347B1 (en) 2014-10-22 2016-03-29 Google Inc. Speech recognition using associative mapping
US9875081B2 (en) 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
CN106548787B (zh) * 2016-11-01 2019-07-09 云知声(上海)智能科技有限公司 优化生词的评测方法及评测系统
US10013971B1 (en) 2016-12-29 2018-07-03 Google Llc Automated speech pronunciation attribution
US10482904B1 (en) 2017-08-15 2019-11-19 Amazon Technologies, Inc. Context driven device arbitration
WO2019113477A1 (en) 2017-12-07 2019-06-13 Lena Foundation Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness
US10896763B2 (en) 2018-01-12 2021-01-19 Koninklijke Philips N.V. System and method for providing model-based treatment recommendation via individual-specific machine learning models
US11288974B2 (en) * 2019-03-20 2022-03-29 Edana Croyle Speech development system
US11282402B2 (en) * 2019-03-20 2022-03-22 Edana Croyle Speech development assembly
CN109872726A (zh) * 2019-03-26 2019-06-11 北京儒博科技有限公司 发音评估方法、装置、电子设备和介质
US20210065691A1 (en) * 2019-08-29 2021-03-04 Microsoft Technology Licensing, Llc Automatic speech sensitivity adjustment feature
US11875797B2 (en) 2020-07-23 2024-01-16 Pozotron Inc. Systems and methods for scripted audio production
US20230335006A1 (en) * 2022-04-14 2023-10-19 Annunciation Corporation Robotic Head For Modeling Articulation Of Speech Sounds

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1051421A (en) * 1963-04-03 1966-12-14 Hitachi Ltd Method and apparatus for observing vocal cord wave
DE2304070C3 (de) * 1973-01-27 1982-03-18 Philips Patentverwaltung Gmbh, 2000 Hamburg Sprachübungsgerät für Taube oder Schwerhörige
DE2349626C2 (de) * 1973-10-03 1984-06-07 Robert Bosch Gmbh, 7000 Stuttgart Sprachaudiometer mit einem Tonwiedergabegerät
DE3852487D1 (de) * 1988-09-30 1995-01-26 Siemens Audiologische Technik Sprachübungsgerät.
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US5202952A (en) * 1990-06-22 1993-04-13 Dragon Systems, Inc. Large-vocabulary continuous speech prefiltering and processing system
GB9021489D0 (en) * 1990-10-03 1990-11-14 Ensigma Ltd Methods and apparatus for verifying the originator of a sequence of operations
JP3050934B2 (ja) * 1991-03-22 2000-06-12 株式会社東芝 音声認識方式
US5212730A (en) * 1991-07-01 1993-05-18 Texas Instruments Incorporated Voice recognition of proper names using text-derived recognition models
JP2662120B2 (ja) * 1991-10-01 1997-10-08 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識装置および音声認識用処理ユニット
CA2080682A1 (en) * 1991-10-18 1993-04-19 Daniel Shichman Translucent cannula
JPH0776878B2 (ja) * 1991-10-31 1995-08-16 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識方法および装置
US5333236A (en) * 1992-09-10 1994-07-26 International Business Machines Corporation Speech recognizer having a speech coder for an acoustic match based on context-dependent speech-transition acoustic models

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007171944A (ja) * 1996-10-02 2007-07-05 Sri Internatl 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム
JP2006337667A (ja) * 2005-06-01 2006-12-14 Ntt Communications Kk 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
JP2010175807A (ja) * 2009-01-29 2010-08-12 Kddi Corp 音声認識方法および装置

Also Published As

Publication number Publication date
WO1994010666A1 (en) 1994-05-11
GB2278708B (en) 1995-12-06
DE69311303T2 (de) 1997-10-30
US5679001A (en) 1997-10-21
EP0619911A1 (en) 1994-10-19
US5791904A (en) 1998-08-11
DE69311303D1 (de) 1997-07-10
EP0619911B1 (en) 1997-06-04
GB9223066D0 (en) 1992-12-16
GB2278708A (en) 1994-12-07
GB9412792D0 (en) 1994-09-28

Similar Documents

Publication Publication Date Title
JPH07503559A (ja) 子供用音声訓練補助装置
JP6989951B2 (ja) スピーチチェイン装置、コンピュータプログラムおよびdnn音声認識・合成相互学習方法
EP0789901B1 (en) Speech recognition
Donovan Trainable speech synthesis
US6366883B1 (en) Concatenation of speech segments by use of a speech synthesizer
US11335324B2 (en) Synthesized data augmentation using voice conversion and speech recognition models
CN111862954B (zh) 一种语音识别模型的获取方法及装置
Arslan et al. Selective training for hidden Markov models with applications to speech classification
US7072750B2 (en) Method and apparatus for rejection of speech recognition results in accordance with confidence level
Amrouche et al. Arabic speech synthesis system based on HMM
Bernstein et al. Speech recognition by computer
Fan et al. Sequence generation error (SGE) minimization based deep neural networks training for text-to-speech synthesis
El Ouahabi et al. Amazigh speech recognition using triphone modeling and clustering tree decision
Prukkanon et al. F0 contour approximation model for a one-stream tonal word recognition system
Arslan Foreign accent classification in American English
JPH11311994A (ja) 情報処理装置および方法、並びに提供媒体
Kessens et al. Improving recognition performance by modelling pronunciation variation.
CN111276130A (zh) 计算机语言认识教育系统的mfcc倒谱系数计算方法
Czap et al. Segmentation the speech of hard of hearing children
Shah et al. Influence of various asymmetrical contextual factors for TTS in a low resource language
JP3357752B2 (ja) パターンマッチング装置
Minematsu et al. The acoustic universal structure in speech and its correlation to para-linguistic information in speech
Pavithran et al. An ASR model for Individuals with Hearing Impairment using Hidden Markov Model
Das et al. A Sentence-Pitch-Contour Model for Indiginous Language (Galo) Using Vector Quantization (VQ) and Hidden Markov Model
Quintana et al. A Direct Speech-to-Speech Neural Network Methodology for Spanish-English Translation

Legal Events

Date Code Title Description
A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20040525