JP2005517216A - 話されたおよび書かれたことばの高速かつパターン認識に支援された書き起こし方法および装置 - Google Patents

話されたおよび書かれたことばの高速かつパターン認識に支援された書き起こし方法および装置 Download PDF

Info

Publication number
JP2005517216A
JP2005517216A JP2003566843A JP2003566843A JP2005517216A JP 2005517216 A JP2005517216 A JP 2005517216A JP 2003566843 A JP2003566843 A JP 2003566843A JP 2003566843 A JP2003566843 A JP 2003566843A JP 2005517216 A JP2005517216 A JP 2005517216A
Authority
JP
Japan
Prior art keywords
text
speech recognition
manually
transcription
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003566843A
Other languages
English (en)
Other versions
JP2005517216A5 (ja
Inventor
テーレン,エリック
クラコフ,ディートリッヒ
ショル,ホルガー
ヴァイベル,ウルリッヒ
ライジンガー,ヨーゼフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005517216A publication Critical patent/JP2005517216A/ja
Publication of JP2005517216A5 publication Critical patent/JP2005517216A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明は話されたおよび書かれたことばの書き起こしのための方法および装置に関する。これにより、そのことばは音声またはテキスト認識をかけられ、書き起こしを得るため、認識結果(ME)はそのことばの人手により生成された書き起こしと組み合わされる。認識結果(ME)の結果として組み合わせにより使用可能となった追加的情報は、書き起こし者が比較的粗雑に、それゆえに速く人手による書き起こしをできるようにする。キーボードを使用しているとき、1つの行のキーを叩くよう制限したり、いくつかのキーストロークを完全に省略することができる。また、人手による書き起こしは、それまでに入力されたテキスト(30)のつづき(31)の示唆により加速される。そのつづきは認識結果(ME)により予測される。

Description

本発明は、話されたおよび書かれた言葉の書き起こしのための方法および装置に関する。この種の書き起こしは、ビジネスおよび私生活の多くの分野で必要となる。例えば、放射線医師は発見したことを口述し、法律家はその主張を口述し、学生はしばしばそのエッセイや論文を最初は手書きする。会議の議事録は、はじめは速記の形を採用して書き取られるだけのことがしばしばある。
さらに処理するために、これらの話されたおよび書かれた言葉を書き起こさなければならない。すなわち、それらからきれいなコピーを作らなければならない。そのため、例えば、タイピスト集団の従業員は、オーディオテープまたはコンピュータファイルとして録音された放射線部門の発見を、文書処理システムに手で入力する。また、秘書は、最初に速記で書き取った上司により口述された手紙を、タイプライターでタイプする。しかし、現代技術のおかげで、今日では、機械処理可能な書き起こしを得るため、テキストを直接コンピュータに入力することは重要ではない。代わりにテキストを、例えばブロック体できれいに手書きしたり、または、例えば一つ一つの単語の間に短いポーズを入れてはっきりと口述したりすることができる。ダウンストリームのテキストまたはスピーチ認識システムが、手で修正する必要がある少しのエラーを例外として、きれいに作られたドラフトを処理することができる。
話されたまたは書かれた元の言葉を直接パターン認識システムに入力するという選択肢もある。このために、様々なメーカからのスピーチおよびテキスト認識システムが、市場で入手可能である。例えば、フィリップス社のFreeSpeechプログラムがある。しかし、これらのパターン認識システムは、話されたおよび書かれた入力がきれいで明瞭であり、システムのパターン認識パラメータが執筆者、言葉の性質、および使用条件に合わせて調整され、または少なくとも合わせられているときにのみ、最適な動作をする。多くの場合はこれと異なり、手書きの文字が明瞭でないとかノイズレベルが高い等の状況においては執筆者によっては問題があるので、パターン認識システムを用いて自動的に作成した書き起こしには、普通、修正の必要なエラーがある。
この種のシステムの認識結果は、一般には、人間によって手で修正される。スピーチ認識システムのいくつかは、この手修正を支援する修正エディタを提供する。例えば、FreeSpeechの修正エディタによると、音声再生と画面上のテキストのマーキングを同期することができる。すなわち、音声信号を再生するとき、その点で認識された単語を画面上でマークする。エラーが見つかったとき、キーボードやマウスにより入力することで、人間の書き起こし者がそのエラーを修正する。
米国特許第US5,855,000号には、特殊バージョンの修正エディターが開示されている。認識のエラーが発見されると、人間の書き起こし者が第2の入力信号でそれを修正する。その第2の入力信号は、パターン認識システムにより修正仮説に変換される。この修正仮説は、新しい仮説を形成するため、元の認識仮説と組み合わされる(新しい仮説を作成するため、認識仮説の少なくとも一部を前記修正仮説と相関させる)。この新しい仮説が最終的に元の認識仮説と置き換わる(新しい仮説で前記発見されたエラーを置き換える)。
話された言葉の書き起こし者が第2の入力信号として使用できる選択肢の一つは、正しく認識されなかったテキストの一節をシステムマイクに向かって(再度)話すことである(言葉の少なくとも一部を再度話すことから作成した修正仮説)。米国特許第5,855,000号の一実施形態は、認識エラーが適切な一節を再話する書き起こし者により発見させる。この繰り返しの認識仮説は、元の認識仮説中に自動的に配置され、書き起こし者による確認に供される(第2のnベストリスト中の各仮説が、主認識の第1の仮説のサブストリングであるかどうかを判断するために、評価される)。
修正仮説を元の認識仮説と組み合わせることによる第2の入力信号の提供と情報の利用によって、米国特許第5,855,000号は、キーボードとマウスを用いる従来の修正入力選択に加えて、書き起こし者にさらなる入力のモダリティを提供する。この入力のモダリティは最初のパターン認識の結果の修正における書き起こし者の生産性を上げることを意図している。
修正エディターとパターン認識システム自体へのこれらのおよび他の知られた改良にもかかわらず、話されたまたは書かれたことばのパターン認識結果を修正する過程は、そのことばを直接人手で書き起こすよりも時間と手間がかかるという問題は、今日でも解決されていない。その理由は、とりわけ、修正過程に必要な高度な注意深さと、修正過程の不連続な構造の両方にある。例えばドイツ語には「ein」と「kein」(英語で「a/one」および「no/none」の意味)ということばがあり、音声認識システムに関する限りこれらのことばは非常に似かよっており、書き起こし者にとっては外観上の違いを見過ごしやすい。正しい一節を追うだけであるが、正しくない一節が見つかったとき、その一節がマークされるかカーソルが置かれ、文字が削除および/または新しく入力される。これにより、パターン認識結果の誤り率が限度を超えると、利用価値がなくなるだけでなく、書き起こし者の作業方法を非効率的にする。そのことばを直接人手で書き起こしていた方がよいかもしれない。
それゆえ、本発明の目的は、人間の書き起こし者が直接人手で書き起こす場合と少なくとも同じ効率で作業できるという意味で、話されたまたは書かれたことばのパターン認識をことばの書き起こしに使用可能とする方法および装置を提供することである。
この目的は、請求項1、2、8、9、10に記載した方法および装置により達成される。これらの方法と装置は、従来技術とは対照的に、パターン認識結果を人手で修正するのではなく、話されたまたは書かれたことばの人手による書き起こしの過程そのものを保持し、パターン認識により支援するという基本的アイデアに基づいている。
これは、例えば、請求項1、8、10に記載した人手による書き起こしとパターン認識結果の組み合わせにより起こる。ことばは、後でそのパターン認識結果と組み合わせるために人手により書き起こされる。パターン認識結果は人手による書き起こしに付加的な情報を加えるので、人間の書き起こし者は人手による書き起こしを、例えばより早くまたはより便利にするため、このパターン認識結果を作業方法で斟酌できる。
例えば、請求項6に記載したように、人手により書き起こされたテキストを手書きの形で作成したり、速記を使用することもできる。スペリングの間違いは、修正しないで残しておくことができる。請求項7に記載したように、キーボードを使用するとき、タイピングスピードを高めるため、いくつかのキーストロークを省略したり、より早くアクセスできるキーを叩いてもよい。ここで特に興味深いことは、例えば、単一の行のキーを叩くことを制限することである。例えばドイツ語のキーボードにおいて、文字「4」、「e」、「d」、「c」の各々について、「d」のみしか叩く必要がない(左手の中指で)。シフトキーの使用も省略すれば、タイピング中の手の動きは完全に排除することができ、タイピングスピードがかなり早くなる。
この種の作業方法は、特別に設計したキーボードによりさらに支援することができる。タイピングスタイルおよびキーボードの設計において、人手による書き起こしおよびパターン認識結果はできる限り互いに補完的であるべきであるという事実を斟酌することができる。例えば、人手による書き起こしは、「m」と「n」や「b」と「p」などの似ていて間違いやすい音を異なった文字で表す点において、人手による書き起こしは音声認識結果を補完することができる。ドイツ語のキーボードにおける上述のキーの列の例において、例えば「m」と「n」はキー「j」と「h」で表され、異なる。逆に、手のレストポジションの10個のキー(左手の「a」、「s」、「d」、「f」、「スペースバー」および右手の「j」、「k」、「l」、「oe」)に制限すると、「m」と「n」はともに「j」で表され、異ならない。この結果、この種のタイピングスタイルとそれを支援するキーボードは、人手による書き起こしにはあまり好適ではない。
話されたまたは書かれたことばのパターン認識は、人手による書き起こしとは独立に実行することができる。この場合、パターン認識と人手による書き起こしとは互いに独立であり、事後的にそれらの結果を組み合わせることができる。しかし、動作中に一方の過程が他方を直接支援することはできる。
例えば、人手により書き起こされたテキストによりパターン認識が支援される実施形態が、請求項2に記載されている。認識語彙と認識音声モデルの選択が、この種の支援の例として従属項5に記載されている。例えば、単語「wrd」は、母音を省略した結果としての短縮形である。この単語「wrd」が人手による書き起こしに出てきたとき、ドイツ語の単語「ward」・「werd」・「werde」・「wird」・「wurde」・「wuerde」・「Wuerde」が、パターン認識の語彙としてアクティベートされる。したがって、人手による書き起こしに現れる単語選択のシーケンスに、音声モデルが制限される。
特定の仕方による人手による書き起こしによる追加的支援がパターン認識のために所望されるとき、その後のパターン認識のための特殊な制御指示を人手による書き起こしテキストに書き起こし者が挿入することもできる。例えば、書き起こし者は、適当であれば、話者の変化をその話者のアイデンティティについての情報をつけてマークすることができる。まったく同様に、テキストの一節の文法的および/または形式的構造についての情報を与えることもできる。文法的および/または形式的構造についての情報とは、例えば、レターヘッド、タイトル、または挨拶形式等のトピック情報またはセクション情報である。認識品質を高めるため、異なる話者、言語構造等のための好適なパターン認識モデルを使用することにより、パターン認識ではそのようなメタ情報を利用することもできる。書き起こし者の追加的入力が、高められたパターン認識品質により正当化されるように、この追加的情報は控えめに使用しなければならない。
そのような場合、パターン認識の適当な構成において、人手により書き起こされたテキストに含まれた情報はすでに斟酌されているので、パターン認識の結果がことばの書き起こしとして直接受け入れられていることを本発明の実施形態は規定している。これにより、人手により書き起こされたテキストとさらに組み合わせる手間が省ける。
逆に、パターン認識結果が人手による書き起こしを支援する実施形態が請求項9に記載されている。これにより、人間の書き起こし者は人手による書き起こし過程においてテキストのつづきを提供される。例えばタブキーなどの特殊キーを押すことにより書き起こし者はこのテキストのつづきを受け入れることができ、またはタイピングを継続することによりこのテキストのつづきを拒絶することもできる。
例えばドイツ語のテキスト「Es liegt」(英語で「There is」を意味する)を人間の書き起こし者がすでに入力したとき、パターン認識結果は2つの可能なつづきを表示するであろう。2つのつづきとはすなわち別のドイツ語の単語「ein」(英語の「a/one」)と「kein」(英語の「no/none」)である。書き起こし装置はこれらの選択肢を提供することができ、書き起こし者はこれらのうちひとつを特別な動作により選択することができる。この特別な動作とは、例えば米国特許第5,027,406号に記載されているように、「F1」と「F2」の2つのファンクションキーのうちひとつを押すことなどである。米国特許第5,027,406号は、この出願に参照により援用されている。しかし、書き起こし者の書く流れをできるだけ妨げないように、次の文字が入力されるのを待ってもよい。書き起こし者が「k」を入力したとき、ドイツ語の単語「kein」をその装置が提供できる。そして、書き起こし者が「TAB」を押すことによりこれを受け入れたり、または単にタイピングを続けることができる。
「kein」の入力を完了すると、音声認識結果はドイツ語の単語「Gehirntumor」(英語の「brain tumor」)と曖昧さなく続ける。この単語は「kein」の入力後すぐに提供される。しかし、「kein」の「k」の入力後、音声認識結果は曖昧ではないので、「k」が入力された後すぐに、完全な「kein Gehirntumor」(英語の「no brain tumor」)を提供することができる。当然、2つの選択肢「ein Gehirntumor」(英語の「a brain tumor」)と「kein Gehirntumor」(英語の「no brain tumor」)を表示することも可能である。
請求項2と9に記載したように、人手によるテキストの生成とパターン認識との相互作用に加えて、本発明の範囲内においてさらなる相互作用の選択肢も考えられる。上述の仕方でのテキストの生成をさらに支援するために、例えば、テキストの最初の部分を入力し、この入力を斟酌しながらパターン認識過程を繰り返す。
最も単純な場合において、人手で書き起こされたテキストとパターン認識結果との組み合わせは、書き起こしのために2つの選択肢の一方を受け入れることにより実行される。例えば、パターン認識結果が非常に高い信頼性を示したとき、そのパターン認識結果の受け入れは論理的である。人手により書き起こされたテキストに明らかにエラーがないとき、すなわち、例えば、単語がすべて辞書にあり文法規則にも反していないとき、そのテキストが受け入れられる。
逆に、2つの選択肢の確率的組み合わせが従属項3に記載されている。パターン認識のための入力信号をO、可能な書き起こしをT、人手により書き起こされたテキストをMT、パターン認識結果をME、確率モデルをP(...)、条件付確率をP(...|...)と呼ぶこととする。最も確からしい書き起こしは、ベイズの規則により次のようになる。
Figure 2005517216
人手による書き起こしとパターン認識はそれぞれ別々に実行される。人手による書き起こしが実際の書き起こしを介してのみ入力信号Oに依存するとき、すなわちP(MT|T,O)=P(MT|T)であるとき、これは次の段落でも仮定されるが、次を得る。
Figure 2005517216
ここで、一方、人手により書き起こされたテキストを斟酌してパターン認識を行うと(請求項2)、次を得る。
Figure 2005517216
または、パターン認識により人手による書き起こしを支援すると(請求項9)、次を得る。
Figure 2005517216
パターン認識の確率モデルP(ME,O|T)またはP(ME,O|T,MT)について、例えば既知の隠れたマルコフモデルを使ってもよい。例えば、P(ME,O|T)は次のようになる。
Figure 2005517216
パターン認識結果MEは、曖昧さなく入力信号Oに由来するから、ME=ME(O)であり、よって、確率には影響を与えない。しかし、後者の確率は既知のプロダクションモデルP(O|T)以外のなにものでもない。これはトレーニングコーパスを用いて調整することができる。
人手による書き起こしの確率モデルP(MT|T)またはP(MT|T,ME)において、最も単純な場合には、書き起こしTに関する人手による書き起こしMTが一様に分布していると仮定することができる。ここで、スペルエラー、上述のキーストロークの省略または挿入、その他同様の動作により、TからMTが取得可能であれば、MTはTと“一致する”。しかし、一様に分布していない場合、書き起こし中にこれらの個々の過程の統計をとってもよい。もし望めば、より精密な確率モデルを得るために、この統計は各書き起こし者ごとにとってもよい。最後に、例えば、パターン認識から知られる音声モデリング技術を、P(T)のモデリングに使用することができる。
得点付けされたnベストリストの形または単語グラフの形によるパターン認識結果の計算、および人手により書き起こされたテキストとの組み合わせにおいて、nベストリストの再得点化の実行または人手により書き起こされたテキストを用いた単語グラフが従属項4に記載されている。これにより、例えば、nベストリストの各選択肢と人手により書き起こされたテキストの間にどのくらい大きな隔たりがあるかについての評価を行うことができる。例えば、選択肢を人手による書き起こしと一致させるために省略され、補足され、または置換されるべきキーストロークの数をカウントする。さらに、省略、補足、置換の過程は別の方法で得点付けされてもよい。再度得点付けするため、これらの得点の合計を別の選択肢のパターン認識得点とともに要約する。確率モデルが確率の対数として入手可能なとき、得点の合計がその要約のために使用される。しかし、他の選択肢も考え得る。
人手により書き起こされたテキストおよびパターン認識結果の組み合わせの設計についてのさらなる選択肢を、エキスパートは考え得るであろう。特に、すでに触れた米国特許第5,855,000号を挙げておく。これは本出願に援用されている。
人手による書起こし、パターン認識、および人手により書き起こされたテキストとパターン認識結果の組み合わせは、話されたおよび/または書かれたことばの書き起こしのためのシステム全体の構成要素である。システム設計によって、これらの構成要素はひとつの結合装置に実装されてもよいし、個別の装置に実装されてもよい。例えば、請求項9に記載したように、パターン認識を専用サーバで実行し、その結果を支援として対応するステーションで人手による書き起こしをしてもよい。両方を専用サーバで実行することも可能である。しかし、パターン認識は、請求項2に記載したように、人手により書き起こされたテキストを斟酌することもできる。人手による書き起こし、パターン認識、およびその組み合わせを単一のステーションで実行してもよい。
パターン認識の後に人手による書き起こしをする構成は、例えば、認識品質の信頼性ゲージのような、実行されたパターン認識の品質のものさしを人間の書き起こし者に示す選択肢を規定する。書き起こし者はこのゲージに自分の書き起こしスタイルを合わせることができる。パターン認識結果が信頼できない場合、書き起こし者はより注意深く書き起こすことがきる。パターン認識品質が高い場合、書き起こし者はいくつかのエラーやキーストロークの省略または置換を許容することができる。パターン認識結果が人手による書き起こしにまだ使えない構成においては、例えばことばの信号雑音比等の、同様の情報能力をもつ他の変数によりこの品質ゲージを代替することができる。
本発明による書き起こし方法は、従来の方法と組み合わせることもできる。例えば、パターン認識結果が入手可能なとき、従来の技術により高品質の書き起こしが可能である。すなわち、書き起こし者にパターン認識結果を示し、それを修正させることが可能である。この種の表現において、低品質の部分は白いエリアとして表示され、書き起こし者が自由に、すなわち制限なく、書き起こすことができる。人手によるテキストは、本発明による方法でパターン認識結果と組み合わせられる。
放射線医師の観察記録等の話されたことばの書き起こしのための上述のアプリケーションに加えて、さらに他のアプリケーションも考えることができる。請求項11において、SMS(Short Message Service、例えばGSMモバイルテレフォニー)通信およびビデオサブタイトルの生成が特に言及されている。
例えば、SMSは、携帯電話でテキストを話し、キーパッドでテキストを入力することにより生成することができる。ここでは、タイプライターのキーボードと比較して小型の電話のキーパッドで曖昧さ無しに文字を入力するのは、意味がない。そこで、標準的な携帯電話のキーパッドで、例えば、ドイツ語の単語「dein」(英語の「your」)を数字のシーケンス「3、3、4、6」と入力し、可能な文字のシーケンス「[d,e,f][d,e,f][g,h,i][m,n,o]」から単語「dein」の正確な選択を、音声認識結果との組み合わせに残せば十分である。タッチスクリーンとテキスト入力を備えた携帯電話を持っていれば、キーパッドを使わずに手書きすることももちろんできる。
本発明による方法は、ビデオフィルムのサブタイトル付けに用いることもできる。ここで再度、必要となるのは話されたことばの書き起こしである。同様に、テレビまたはラジオ放送をテキストに変換し、そのテキストをテキストデータベースに、例えば、検索のために記憶することもできる。バックグラウンドノイズ若しくはバックグラウンド音楽、または音楽若しくはフィルムノイズ等の純粋に音声でないぱっセージを取り扱うために、必要なら、例えば非線形スベクトル差分またはセグメンテーション法などのエキスパートに知られた適当な音声認識技術をしようすることができる。
図面に示された実施形態を参照して本発明を詳細に説明する。しかし、本発明はこれらの実施形態に限定されるものではない。
図1aは概略的に単語グラフの形で、ドイツ語の話されたことば「Es liegt kein Gehirntumor vor」(英語で「There is no brain tumor present」)の音声認識の結果MEを示す。この図において、時間は右に進み、単語グラフMEのノードは音声信号の瞬間をマークしている。ノード間の矢印はノードの瞬間の間に位置する信号セクションの認識の選択肢を示す。図1aにおいては、明瞭にするため、ノード1と2、およびその間の矢印5と6だけに参照番号を付した。矢印には、各場合に認識された単語を言語に依存しない仕方で示す記号、すなわち100以上の数字が付されている。次の表は、これらの番号と、認識されたドイツ語の単語、およびそのドイツ語の単語の英語による翻訳が与える。
Figure 2005517216
よって、例えば、矢印5には認識されたドイツ語「liegt」(英語のis)を示す記号106があり、矢印6にはドイツ語「luegt」(英語のlies(a liar liesの意味で))を示す記号102がある。
これが得点付けされた単語グラフMEであるとき、認識された単語を示す記号に加えて、矢印には得点が付される。その得点は、通常の実務と調和して、得点が低いものが好ましい認識の選択肢を示す。図1aにおいて、この得点は、矢印5と6だけに付けられており、矢印5の得点は「40」、矢印6の得点は「50」である。ここで、図1aの得点は、話されたことばの関連付けられた瞬間で各場合に認識された単語の音声的類似度のみに関係する。すなわち、この得点は上述の式において音声得点P(O|T)に対応する。
認識された選択肢は、単語グラフMEのすべての可能な経路が決定されるこの種の単語グラフMEから導かれる。すなわち、グラフMEの左側からスタートして、右側へすべての可能な矢印を通る。実際に話されたドイツ語のセンテンス「Es liegt kein Gehirntumor vor」(英語のThere is no brain tumor present)に加えて、グラフMEは選択肢「Es luegt enge Hirntumoren」(There lies narrow brain tumors)もつくる。最もよい認識の選択肢は、得点が最も低いものである。この得点は、音声的類似度の得点とさらなる情報源を用いた得点の合計から導かれる。この情報源は、例えば上述の式の変数P(T)に対応するスピーチモデルである。
この後者の認識の選択肢「Es luegt enge Hirntumoren」は明らかに意味がなく、スピーチモデルによる得点は低いであろうが、例えば、バックグラウンドノイズのレベルが高いなど、アコースティック得点が大きく歪められているわずかな場合にのみ、最良の認識の選択肢として選択されるであろう。しかし、グラフMEに含まれている選択肢「Es liegt ein Gehirntumor vor」(英語のThere is a brain tumor present)は、すなわち、「kein」(英語のno/none)ではなく「ein」(英語のa/one)、音声的にもスピーチモデルを用いても、実際に話された単語のシーケンスとははっきりと区別できない。一方、「ein」と「kein」の違いは、すなわち脳腫瘍の有無は、このセンテンスの決定的な情報を当然表している。
図1bは、同一の話されたことばの可能な人手による書き起こしを示す。ここで、再度、音声認識結果のつながりを明瞭にするために選択された表現の形式は単語グラフである。この単語グラフはもちろん線形であり、すなわち1つの経路のみを有する。明瞭にするため、図1bにはノード10と11、および矢印15のみが示されている。単語グラフの矢印に付した記号は、言語から独立した仕方で、書き起こしのドイツ語の単語を表す。次の表は、これらの記号とドイツ語、およびこれらの単語がどのようにタイプされたかの備考を示している。
Figure 2005517216
例として、この人手による書き起こしの加速された作業方法から生じる結果を示す。2つのドイツ語の単語で「タイピングエラー」が起きている。「ligt」、すなわちドイツ語「liegt」(英語のis)の人手による書き起こしにおいて、「e」のキーストロークが省略されている。「keim」、すなわちドイツ語「kein」(英語のno)の人手による書き起こしにおいてタイピングエラーがあり(人手により修正されていない)、「n」が「m」となっている。「gdhkfhgjjlf」(ドイツ語「Gehirntumor」(英語のbrain tumor)でなく)において、レストポジションにある列のキーだけを使用するという指示が厳しく守られている(その結果、大文字も使用されていない)。「G」は「g」に、「e」は「d」に、「i」は「k」に、「r」は「f」に、「n」は「h」に、「t」は「g」に、「u」と「m」は「j」に、「o」は「l」になっている。
ここでは示さないが、この人手による書き起こしMTは、知られた仕方により、例えば図1aの単語グラフMEの再得点付け等に使用可能である。この種の再得点付けにおいて、タイピング時に文字の追加は、キーボードのすぐ隣の間違ったキーをたたくことよりも確からしくはないという事実を参酌することができる。それゆえ、「keim」は「ein」(英語のa)よりも「kein」(英語のno)とよりよく一致する。同様に、キーストロークの省略は、「ue」を「ie」で置き換えること、すなわち異なる指で叩くキーを叩くことよりも確からしい。その結果、「ligt」は「luegt」(英語のlies)よりも「liegt」(英語のis)とよりよく一致する。この例における人手による書き起こしMTのパターン認識結果との組み合わせは、「kein」(英語のno)を「ein」(英語のa)から区別し、正しいドイツ語のフレーズ「Es liegt kein Gehirntumor vor」(英語のThere is no brain tumor present)を生成するという異なった目的を達成する。
図2は、話されたことばの、音声認識により支援された人手による書き起こしのための本発明による装置を示す。データ記憶装置21、マイクロホン22、ラウドスピーカ23、キーボード25、フットスイッチ26、および画面27が処理部20と接続されている。話されたことばは、マイクロホン22を介してデータ記憶部21にオーディオファイルとして直接記録および記憶される。これとは別に、話されたことばは、図示しないデータ担体を介して、または電話ネットワークまたはインターネットなどのネットワークを介して、処理部20に転送することもできる。ラウドスピーカ23は、人手による書き起こしのために話されたことばを再生するために使用される。例えば、マイクロホン22とラウドスピーカ23の代わりに、ヘッドセットを使用してもよい。
処理部20は、話されたことばの音声認識を実行でき、その認識結果をデータ記憶部21に記憶させる。ネットワークを介してこの認識結果を受信することもできる。キーボード25は、フットスイッチ26とともに人手による書き起こしを入力するために使用され、画面27は、人手により入力されたテキストおよび人手による入力を音声認識結果と組み合わせることにより示唆された単語またはその完成を表示するために使用される。
画面27は、話されたドイツ語のことば「Es liegt kein Gehirntumor vor」(英語でThere is no brain tumor present)において、「Es liegt k」を含むテキスト30が事前に人手で入力されていた状況を示している。音声認識結果が図1aに示した単語グラフの形式でデータ記憶部21に記憶されている。この音声認識結果との組み合わせにより、例えば、処理部20が「ein Gehirntumor vor」を内容とするテキストのつづき31を示唆する。このつづき31はこの単語グラフME内で明らかであり、ドイツ語のテキスト「Es liegt kein Gehirntumor vor」が画面上に現れる。人手により入力されたテキスト30からつづきの示唆31を区別するため、異なった方法で表示される。ここでは、例えば反転して、すなわち、黒いバックグラウンドに白い文字で表示されている。フットスイッチ26を操作することにより、人間の書き起こし者はこのテキストのつづき31を受け入れることができる。このつづき31に合意しないときは、キーボード25をタイピングし続ければよい。
再度、図2の言語から独立した表現をするため、図1aで使用した記号が再度使用されている。すなわち、テキスト30は記号シーケンス「105 106 1」で、テキスト31は「07 108 109」で示されている。上で導入した対応を使用しており、関係する部分をここに繰り返す。
Figure 2005517216
すでに述べたとおり、図2において、「kein」の「k」はタイプされたテキスト30の最後の部分として入力され、「kein」の「ein」は提案されたタイピングのつづき31の最初の部分として提案されたと仮定している。図2において、テキスト30の最後の部分として記号107の「1」を、テキスト31の最初の部分として記号107の「07」を示すことによりこの状況を表している。
人間の書き起こし者がテキストのつづき31を、例えばタイピングを継続することにより拒絶したとき、音声認識結果が入力された人手による書き起こしとコンパチブルな経路をもはや含まないことがある。図1aの単語グラフMEを音声認識結果の基礎とするが、話されたことばはドイツ語のセンテンス「Es liegt keine hirnbluetung vor」(英語でThere is no cerebral hemorrhage present)であると仮定しよう。処理部20は、先の人手による書き起こしは音声認識結果MEと組み合わせることがもはやできないことを認識し、適当な修正手続きを開始することができる。例えば、話されたことばの新しい音声認識を先と後の人手による入力とさらに組み合わせるために、その新しい音声認識を開始することを検討することにより先の人手による入力を使用することができる。
話されたことばの音声認識結果と人手により作られたテキストを示す図である。 話されたことばの音声認識結果と人手により作られたテキストを示す図である。 本発明による、話されたことばの音声認識に支援された人手による書き起こしのための装置を示す図である。

Claims (11)

  1. 話されたことばの人手で書き起こされたテキストと音声認識結果とがあり、前記人手で書き起こされたテキストと前記音声認識結果とを組み合わせることにより、前記話されたことばを書き起こす方法。
  2. 人手で書き起こされたテキストがある話されたことばを書き起こす方法であって、前記方法は、
    前記人手で書き起こされたテキストを斟酌して、前記話されたことばの音声認識をするステップと、
    前記人手で書き起こされたテキストと前記音声認識結果の組み合わせにより、または書き起こしのための前記音声認識結果の採用により、前記話されたことばの書き起こしを生成するステップとを含む方法。
  3. 請求項1または2に記載の方法であって、
    前記人手で書き起こされたテキストと前記音声認識結果とを組み合わせることは、人手による書き起こしおよび音声認識の過程の確率的モデルにより、最も確からしい前記話されたことばの書き起こしを決定することからなることを特徴とする方法。
  4. 請求項1または2に記載の方法であって、
    前記音声認識結果は得点付けされたNベストリストまたは得点付けされた単語グラフであり、
    前記人手で書き起こされたテキストと前記音声認識結果との組み合わせは、前記人手で書き起こされたテキストを斟酌した前記Nベストリストまたは前記単語グラフの再得点付けにあることを特徴とする方法。
  5. 請求項2に記載の方法であって、
    前記話されたことばの音声認識における前記人手で書き起こされたテキストの斟酌は、前記音声認識の語彙および/またはモデルを選択することにあることを特徴とする方法。
  6. 請求項1または2に記載の方法であって、
    前記人手で書き起こされたテキストは、手書きの形式でおよび/または速記の形式であることを特徴とする方法。
  7. 請求項1または2に記載の方法であって、
    前記人手で書き起こされたテキストは、一般に適用可能な人手による書き起こしの生成と比較して指および/または手の動きの程度を削減するために、キーストロークの省略および/または異なるキーを叩くことにより、そのテキストの生成に要する時間を短縮するようにキーボード入力により生成されたものであることを特徴とする方法。
  8. 音声認識結果がある話されたことばを書き起こす装置であって、
    前記話されたことばの人手による書き起こしのための手段と、
    前記人手で書き起こされたテキストと前記音声認識結果とを組み合わせることにより、前記話されたことばの書き起こしを生成するための手段とを含む装置。
  9. 音声認識結果がある話されたことばを音声認識支援を受けて人手で書き起こす装置であって、
    前記話されたことばの人手による書き起こしの連続的な入力のための手段と、
    前記人手による入力と前記音声認識結果の連続的組み合わせのための手段と、
    前記連続的組み合わせおよび前記音声認識結果によって予測される程度まで、テキスト入力を続けることを示唆するための手段と、
    前記示唆されたテキストの継続を受け入れるかまたは拒絶するための手段とを含む装置。
  10. 書かれたことばの人手で書き起こされたテキストとテキスト認識結果とがあり、前記人手で書き起こされたテキストと前記テキスト認識結果とを組み合わせることにより、前記書かれたことばを書き起こす方法。
  11. SMS通信またはビデオの副題の生成をするための、請求項1ないし7いずれか一項記載の方法の使用。
JP2003566843A 2002-02-07 2003-01-30 話されたおよび書かれたことばの高速かつパターン認識に支援された書き起こし方法および装置 Pending JP2005517216A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10204924A DE10204924A1 (de) 2002-02-07 2002-02-07 Verfahren und Vorrichtung zur schnellen mustererkennungsunterstützten Transkription gesprochener und schriftlicher Äußerungen
PCT/IB2003/000374 WO2003067573A1 (en) 2002-02-07 2003-01-30 Method and device for the rapid, pattern-recognition-supported transcription of spoken and written utterances

Publications (2)

Publication Number Publication Date
JP2005517216A true JP2005517216A (ja) 2005-06-09
JP2005517216A5 JP2005517216A5 (ja) 2010-05-27

Family

ID=27618362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003566843A Pending JP2005517216A (ja) 2002-02-07 2003-01-30 話されたおよび書かれたことばの高速かつパターン認識に支援された書き起こし方法および装置

Country Status (7)

Country Link
US (1) US20060167685A1 (ja)
EP (1) EP1479070B1 (ja)
JP (1) JP2005517216A (ja)
AT (1) ATE358869T1 (ja)
AU (1) AU2003205955A1 (ja)
DE (2) DE10204924A1 (ja)
WO (1) WO2003067573A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050273337A1 (en) * 2004-06-02 2005-12-08 Adoram Erell Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition
US20070011012A1 (en) * 2005-07-11 2007-01-11 Steve Yurick Method, system, and apparatus for facilitating captioning of multi-media content
KR100654183B1 (ko) * 2005-11-07 2006-12-08 한국전자통신연구원 음성 인식을 이용한 문자 입력 시스템 및 그 방법
US9230222B2 (en) * 2008-07-23 2016-01-05 The Quantum Group, Inc. System and method enabling bi-translation for improved prescription accuracy
JP2013025299A (ja) * 2011-07-26 2013-02-04 Toshiba Corp 書き起こし支援システムおよび書き起こし支援方法
JP6165619B2 (ja) * 2013-12-13 2017-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
CN109285548A (zh) * 2017-07-19 2019-01-29 阿里巴巴集团控股有限公司 信息处理方法、系统、电子设备、和计算机存储介质
US10573312B1 (en) 2018-12-04 2020-02-25 Sorenson Ip Holdings, Llc Transcription generation from multiple speech recognition systems
US11017778B1 (en) 2018-12-04 2021-05-25 Sorenson Ip Holdings, Llc Switching between speech recognition systems
US11488604B2 (en) 2020-08-19 2022-11-01 Sorenson Ip Holdings, Llc Transcription of audio

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6091435A (ja) * 1983-10-25 1985-05-22 Fujitsu Ltd 文字入力装置
JPS62229300A (ja) * 1986-03-31 1987-10-08 キヤノン株式会社 音声認識装置
JPH0883092A (ja) * 1994-09-14 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> 情報入力装置及び情報入力方法
JPH0968998A (ja) * 1995-08-31 1997-03-11 Matsushita Electric Ind Co Ltd 音声認識方法及び音声認識装置
US5855000A (en) * 1995-09-08 1998-12-29 Carnegie Mellon University Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
JP2000056792A (ja) * 1998-05-25 2000-02-25 Nokia Mobile Phones Ltd ユ―ザの発話を認識するための方法及び装置
JP2000056796A (ja) * 1998-08-07 2000-02-25 Asahi Chem Ind Co Ltd 音声入力装置および方法
JP2000339305A (ja) * 1999-05-31 2000-12-08 Toshiba Corp 文書作成装置、及び文書作成方法
JP2001042996A (ja) * 1999-07-28 2001-02-16 Toshiba Corp 文書作成装置、文書作成方法
JP2001159896A (ja) * 1999-12-02 2001-06-12 Nec Software Okinawa Ltd 音声認識機能を利用した簡易文字入力方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0122880A2 (en) * 1983-04-19 1984-10-24 E.S.P. Elektronische Spezialprojekte Aktiengesellschaft Electronic apparatus for high-speed writing on electronic typewriters, printers, photocomposers, processors and the like
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
EP0505621A3 (en) * 1991-03-28 1993-06-02 International Business Machines Corporation Improved message recognition employing integrated speech and handwriting information
US5502774A (en) * 1992-06-09 1996-03-26 International Business Machines Corporation Automatic recognition of a consistent message using multiple complimentary sources of information
JP2986345B2 (ja) * 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
US5818437A (en) * 1995-07-26 1998-10-06 Tegic Communications, Inc. Reduced keyboard disambiguating computer
US5960447A (en) * 1995-11-13 1999-09-28 Holt; Douglas Word tagging and editing system for speech recognition
US6122613A (en) * 1997-01-30 2000-09-19 Dragon Systems, Inc. Speech recognition using multiple recognizers (selectively) applied to the same input sample
DE69817844T2 (de) * 1997-06-27 2004-05-06 M.H. Segan Ltd. Partnership, Great Barrington Verfahren und vorrichtung zur spracherkennungscomputereingabe
US6219453B1 (en) * 1997-08-11 2001-04-17 At&T Corp. Method and apparatus for performing an automatic correction of misrecognized words produced by an optical character recognition technique by using a Hidden Markov Model based algorithm
US6418431B1 (en) * 1998-03-30 2002-07-09 Microsoft Corporation Information retrieval and speech recognition based on language models
US6078885A (en) * 1998-05-08 2000-06-20 At&T Corp Verbal, fully automatic dictionary updates by end-users of speech synthesis and recognition systems
US6438523B1 (en) * 1998-05-20 2002-08-20 John A. Oberteuffer Processing handwritten and hand-drawn input and speech input
US6457031B1 (en) * 1998-09-02 2002-09-24 International Business Machines Corp. Method of marking previously dictated text for deferred correction in a speech recognition proofreader
US6167376A (en) * 1998-12-21 2000-12-26 Ditzik; Richard Joseph Computer system with integrated telephony, handwriting and speech recognition functions
US6442518B1 (en) * 1999-07-14 2002-08-27 Compaq Information Technologies Group, L.P. Method for refining time alignments of closed captions
US6904405B2 (en) * 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6789231B1 (en) * 1999-10-05 2004-09-07 Microsoft Corporation Method and system for providing alternatives for text derived from stochastic input sources
US7149970B1 (en) * 2000-06-23 2006-12-12 Microsoft Corporation Method and system for filtering and selecting from a candidate list generated by a stochastic input method
US7243069B2 (en) * 2000-07-28 2007-07-10 International Business Machines Corporation Speech recognition by automated context creation
US6836759B1 (en) * 2000-08-22 2004-12-28 Microsoft Corporation Method and system of handling the selection of alternates for recognized words
US6788815B2 (en) * 2000-11-10 2004-09-07 Microsoft Corporation System and method for accepting disparate types of user input
US20020152071A1 (en) * 2001-04-12 2002-10-17 David Chaiken Human-augmented, automatic speech recognition engine
US20020152075A1 (en) * 2001-04-16 2002-10-17 Shao-Tsu Kung Composite input method
US6839667B2 (en) * 2001-05-16 2005-01-04 International Business Machines Corporation Method of speech recognition by presenting N-best word candidates
US6996525B2 (en) * 2001-06-15 2006-02-07 Intel Corporation Selecting one of multiple speech recognizers in a system based on performance predections resulting from experience
US7058575B2 (en) * 2001-06-27 2006-06-06 Intel Corporation Integrating keyword spotting with graph decoder to improve the robustness of speech recognition
US7467089B2 (en) * 2001-09-05 2008-12-16 Roth Daniel L Combined speech and handwriting recognition
US6708148B2 (en) * 2001-10-12 2004-03-16 Koninklijke Philips Electronics N.V. Correction device to mark parts of a recognized text
US7124085B2 (en) * 2001-12-13 2006-10-17 Matsushita Electric Industrial Co., Ltd. Constraint-based speech recognition system and method
US20030112277A1 (en) * 2001-12-14 2003-06-19 Koninklijke Philips Electronics N.V. Input of data using a combination of data input systems
US7103542B2 (en) * 2001-12-14 2006-09-05 Ben Franklin Patent Holding Llc Automatically improving a voice recognition system
US6986106B2 (en) * 2002-05-13 2006-01-10 Microsoft Corporation Correction widget
US7137076B2 (en) * 2002-07-30 2006-11-14 Microsoft Corporation Correcting recognition results associated with user input
US7228275B1 (en) * 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6091435A (ja) * 1983-10-25 1985-05-22 Fujitsu Ltd 文字入力装置
JPS62229300A (ja) * 1986-03-31 1987-10-08 キヤノン株式会社 音声認識装置
JPH0883092A (ja) * 1994-09-14 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> 情報入力装置及び情報入力方法
JPH0968998A (ja) * 1995-08-31 1997-03-11 Matsushita Electric Ind Co Ltd 音声認識方法及び音声認識装置
US5855000A (en) * 1995-09-08 1998-12-29 Carnegie Mellon University Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
JP2000056792A (ja) * 1998-05-25 2000-02-25 Nokia Mobile Phones Ltd ユ―ザの発話を認識するための方法及び装置
JP2000056796A (ja) * 1998-08-07 2000-02-25 Asahi Chem Ind Co Ltd 音声入力装置および方法
JP2000339305A (ja) * 1999-05-31 2000-12-08 Toshiba Corp 文書作成装置、及び文書作成方法
JP2001042996A (ja) * 1999-07-28 2001-02-16 Toshiba Corp 文書作成装置、文書作成方法
JP2001159896A (ja) * 1999-12-02 2001-06-12 Nec Software Okinawa Ltd 音声認識機能を利用した簡易文字入力方法

Also Published As

Publication number Publication date
EP1479070B1 (en) 2007-04-04
US20060167685A1 (en) 2006-07-27
AU2003205955A1 (en) 2003-09-02
EP1479070A1 (en) 2004-11-24
DE60312963D1 (de) 2007-05-16
ATE358869T1 (de) 2007-04-15
DE10204924A1 (de) 2003-08-21
DE60312963T2 (de) 2007-12-13
WO2003067573A1 (en) 2003-08-14

Similar Documents

Publication Publication Date Title
US20180143956A1 (en) Real-time caption correction by audience
KR100996212B1 (ko) 음성인식을 위한 방법, 시스템 및 프로그램
US7577569B2 (en) Combined speech recognition and text-to-speech generation
US7526431B2 (en) Speech recognition using ambiguous or phone key spelling and/or filtering
US7505911B2 (en) Combined speech recognition and sound recording
US7225130B2 (en) Methods, systems, and programming for performing speech recognition
US7809574B2 (en) Word recognition using choice lists
US7444286B2 (en) Speech recognition using re-utterance recognition
JP4829901B2 (ja) マニュアルでエントリされた不確定なテキスト入力を音声入力を使用して確定する方法および装置
EP1430474B1 (en) Correcting a text recognized by speech recognition through comparison of phonetic sequences in the recognized text with a phonetic transcription of a manually input correction word
US20090326938A1 (en) Multiword text correction
US20070073540A1 (en) Apparatus, method, and computer program product for speech recognition allowing for recognition of character string in speech input
US20050159948A1 (en) Combined speech and handwriting recognition
US20050043954A1 (en) Speech recognition using automatic recognition turn off
JP5787780B2 (ja) 書き起こし支援システムおよび書き起こし支援方法
US11922944B2 (en) Phrase alternatives representation for automatic speech recognition and methods of use
Chen Speech recognition with automatic punctuation
EP1479070B1 (en) Method and device for the rapid, pattern-recognition-supported transcription of spoken and written utterances
Marx et al. Putting people first: Specifying proper names in speech interfaces
Pražák et al. Live TV subtitling through respeaking with remote cutting-edge technology
JP2001013992A (ja) 音声理解装置
Gaines An Ambiguous Technique for Nonvisual Text Entry
Scott A Comparative Analysis of Transcription Errors from Major Commercial Automatic Speech Recognition Systems on Speakers of Four Ethnic Backgrounds in the Pacific Northwest
JP2547611B2 (ja) 文章作成システム
JP2547612B2 (ja) 文章作成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090715

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090902

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100301

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100401

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20100401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100511