JP2017515140A - 混合音声認識 - Google Patents
混合音声認識 Download PDFInfo
- Publication number
- JP2017515140A JP2017515140A JP2016558287A JP2016558287A JP2017515140A JP 2017515140 A JP2017515140 A JP 2017515140A JP 2016558287 A JP2016558287 A JP 2016558287A JP 2016558287 A JP2016558287 A JP 2016558287A JP 2017515140 A JP2017515140 A JP 2017515140A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- neural network
- energy
- mixed
- switching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000000926 separation method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
特許請求される主題の実施形態は、深層ニューラルネットワーク(ニューラルネットワーク104)を使用して、単一チャンネル混合音声認識を実行する。人工的混合音声データ(例えば、混合音声フレーム108)に対してマルチスタイルトレーニング方策を使用することにより、複数の異なるトレーニングセットアップ(training setup)は、DNNシステムが、対応する類似パターンを一般化することを可能にする。さらに、WFST復号器112は、トレーニングされたニューラルネットワーク104と協働する統合復号器である。
図2は、本明細書に記載の実施形態に従った、単一チャンネル混合音声認識のための方法200のプロセスフロー図である。このプロセスフロー図は、特許請求される主題の技術のみを表すものであり、必ずしもこのシーケンスを表すわけではないことを理解されたい。方法200は、システム100により実行され得、ブロック202から開始する。ブロック202において、トレーニングセット102が、クリーンなトレーニングセットから作成される。ニューラルネットワークベースの音響モデルは、従来のシステムより環境歪みに対してロバストであることが分かっているが、このロバスト性は、トレーニングセット102と混合音声フレーム108との間により多くの歪みが存在する場合には十分に保たれない。したがって、トレーニング中に、代表的なバリエーションの例をニューラルネットワークに提示することが、トレーニングされたネットワーク106がより乱された音声を一般化するのに役立つ。
複数の音声信号を含む各混合音声発声において、1つの信号がターゲット音声であり、1つの信号が妨害音声であると仮定する。システムは両方の信号を復号するので、このラベリングはいくらか恣意的である。一実施形態は、音声信号のエネルギーに関する仮定を用いる。この実施形態において、一方の信号は、他方の信号より高い平均エネルギーを有すると仮定する。この仮定の下で、ターゲット音声を、高い方のエネルギー信号(正信号対雑音比(SNR))又は低い方のエネルギー信号(負SNR)のいずれかとして識別することが可能である。したがって、2つのニューラルネットワーク104が使用される。混合音声入力を所与として、一方のネットワークは、高い方のエネルギーの音声信号を認識するようにトレーニングされるのに対し、他方のネットワークは、低い方のエネルギーの音声信号を認識するようにトレーニングされる。
平均高エネルギー音声信号及び平均低エネルギー音声信号に基づく上記トレーニング方策に伴う1つの潜在的問題は、混合信号が、同様の平均エレルギーレベル、すなわち、ほぼ0dBのSNRを有する場合、トレーニングされたモデルが良好に機能しないことがあることである。トレーニングの観点においては、同じ混合音声入力について、トレーニングラベルが、相反する値を有する(高い方のエネルギーの話者及び低い方のエネルギーの話者の両方からのラベルであり得る)ために、この問題は不明瞭になる。しかしながら、2人の話者が同じピッチで発話している可能性はそれほど高くない。したがって、別の実施形態において、ニューラルネットワーク104は、高い方のピッチ又は低い方のピッチを伴う音声を認識するようにトレーニングされる。この実施形態において、単一のトレーニングセット102である
ニューラルネットワーク104はまた、各フレーム108における瞬時エネルギーに基づいてトレーニングされ得る。0dBという平均エネルギーを有する発声は、各フレームにおいてゼロでない瞬時SNR値を有することになり、これは、ラベリングにおいて不明確さがないことを意味する。トレーニングセット
瞬時エネルギーに基づくニューラルネットワーク104について、2つのトレーニングされたネットワーク106の各々は、どの出力が、各フレーム108においてどの話者に属するかを判定する。これを行うために、統合復号器は、トレーニングされたネットワーク106から、事後確率推定値(例えば、音素確率110)を得て、最良の2つの状態系列(各話者につき1つの状態系列)を統合的に発見する。WFSTフレームワークにおける復号グラフを作成するための標準的レシピ(recipe)は、
4.1.例示的な実施例
例示的な実施例において、音声データが、GRIDコーパスから取り出された。トレーニングセット102は、34人の異なる話者からの17000個のクリーンな音声発声(各話者につき500個の発声)を含む。評価セットは、クリーン、6dB、3dB、0dB、−3dB、−6dB、−9dBというターゲット対マスク比(TMR:target-to-mask ratio)である7つのコンディションにおける4200個の混合音声発声を含み、開発セットは、(クリーンのコンディションがない)6つのコンディションにおける1800個の混合音声発声を含む。固定のグラマーは、例えば、「place white at L 3 now」といった、命令、色、前置詞、(Wを除く)文字、数字、及び副詞の6つの部分を含む。テスト段階中、色「white」を発話した話者が、ターゲット話者として扱われた。評価基準は、ターゲット話者により発話された文字及び数字についてのWERである。全ての単語についてのWERが低くなり、別途示されない限り、以下の実験結果における全てのレポートされたWERは、文字及び数字についてのみ評価されたものであることに留意されたい。
ベースラインシステムが、17000個のクリーンな音声発声からなるオリジナルのトレーニングセットに対してトレーニングされたDNNを使用して構築された。GMM−HMMシステムが、271個の異なるセノンを有する39次元MFCC特徴量を使用してトレーニングされた。さらに、64次元対数メルフィルタバンクが特徴量として使用され、DNNをトレーニングするために9つのフレームであるコンテキストウィンドウが使用された。DNNは、各層において1024個の隠れユニットを有する7つの隠れ層と、GMM−HMMシステムのセノンに対応する271次元ソフトマックス出力層と、を有する。このトレーニング方式が、全てのDNN実験を通じて使用された。パラメータ初期化が、生成プレトレーニングを用いその後に識別プレトレーニングを用いて、層ごとに行われた。ネットワークが、誤差逆伝播法(バックプロパゲーション)を用いて識別トレーニングされた。ミニバッチサイズが、256に設定され、初期学習率が、0.008に設定された。各トレーニング期間の後、フレーム精度が、開発セットについて妥当性検証された。向上が0.5%未満である場合、学習率が、0.5という係数の分だけ低減された。トレーニングプロセスは、フレーム精度の向上が0.1%未満であった後に、停止された。ベースラインのGMM−HMMシステム及びDNN−HMMシステムのWERが、表2に示されている。示されるように、クリーンなデータに対してトレーニングされたDNN−HMMシステムは、クリーンのコンディションを除くすべてのSNRコンディションにおいて良好には機能せず、DNNマルチスタイルトレーニングの有効性が示された。
高エネルギー信号モデル及び低エネルギー信号モデルについてのマルチスタイルトレーニングの使用を調べるために、2つの混合音声トレーニングデータセットが生成された。セットIと呼ばれる高エネルギートレーニングセットが次のように作成された:各クリーンな発声について、3つの他の発声がランダムに選択され、クリーン、6dB、3dB、0dBの4つのコンディション下で、ターゲットのクリーンな発声と混合された(17000×12)。低エネルギートレーニングセットであるセットIIが、同様に作成されたが、混合は、クリーン、0dB、−3dB、−6dB、−9dBというTMRの5つのコンディション下で行われた(17000×15)。これらの2つのトレーニングセット102を使用して、高エネルギー信号及び低エネルギー信号それぞれについての2つのDNNモデルであるDNN I及びDNN IIをトレーニングした。結果が、表3に列挙されている。
トレーニングセットIIIを使用して、セクション3で説明したように、瞬時高エネルギー信号及び瞬時低エネルギー信号についての2つのDNNモデルをトレーニングした。これらの2つのトレーニングされたモデルを使用して、セクション3で説明したように、統合復号が実行された。この統合復号器の手法の結果が、表6に示されている。最後の2つのシステムは、エネルギー切り替わりペナルティが導入された場合に対応する。統合復号器Iは、一定のエネルギー切り替わりペナルティを伴うシステムであり、統合復号器IIは、適応的切り替わりペナルティを伴うシステムである。(8)で定義されるエネルギー切り替わりペナルティの値を得るために、DNNが、各フレームについてのエネルギー切り替わり確率を推定するようにトレーニングされた。表6は、統合復号器を有するDNNシステムのWER(%)を示している。
表6は、2つの混合音声信号が、大きなエネルギーレベル差を有する場合、すなわち、6dB、−6dB、−9dBの場合、DNN I+IIシステムが良好に機能したのに対し、2つの混合信号が、同様のエネルギーレベルを有する場合、統合復号器IIシステムが良好に機能したことを示している。これは、2つの信号間のエネルギー差に応じたシステムの組合せが使用されるのがよいことを示唆している。混合信号が、2つの深層雑音除去器に入力され、結果として生じた2つの出力信号を使用して、高エネルギー信号及び低エネルギー信号を推定する。これらの分離された信号を使用して、エネルギー比が、2つのオリジナルの信号のエネルギー差を近似するために算出され得る。閾値が、開発セットに関するエネルギー比について調整されて得られ、システムの組合せに対して使用される。すなわち、雑音除去器からの2つの分離された信号のエネルギー比が、閾値より高い場合、テスト発声を復号するためにDNN I+IIシステムが使用され、そうでない場合、テ統合復号器IIシステムが使用される。結果が、表6に列挙されている。
本研究において、我々は、マルチスタイルトレーニング方策を使用することにより、単一チャンネル混合音声認識のためのDNNベースのシステムを調べた。我々はまた、トレーニングされたニューラルネットワーク104と協働するWFSTベースの統合復号器を導入した。2006個の音声分離及び認識チャレンジデータに対する実験結果により、提案しているDNNベースのシステムが、競合話者の妨害に対する顕著な雑音ロバスト性を有することが実証された。我々が提案しているシステムの最良のセットアップは、19.7%という全WERを達成し、これは、IBM(登録商標)スーパーヒューマンシステムにより得られた結果と比べ、より低い複雑度及びより少ない仮定を用いて、1.9%の絶対的向上であった。
Claims (15)
- ソースからの混合音声を認識するための方法であって、
混合音声サンプルからのより高レベルの音声特性を有する話者により発話された音声信号を認識するように、第1のニューラルネットワークをトレーニングするステップと、
前記混合音声サンプルからのより低レベルの前記音声特性を有する話者により発話された音声信号を認識するように、第2のニューラルネットワークをトレーニングするステップと、
2つの前記音声信号を観測する統合尤度を最適化することにより、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを使用して、前記混合音声サンプルを復号するステップと、
を含む方法。 - 特定のフレームが、前記話者らの切り替わりポイントである確率を考慮することにより復号するステップを含む、請求項1記載の方法。
- 別のニューラルネットワークから推定された切り替わりの前記確率に基づいて、復号プロセスにおいて生じる前記切り替わりポイントを補償するステップを含む、請求項2記載の方法。
- 前記混合音声サンプルは、単一オーディオチャンネルを含み、前記単一オーディオチャンネルは、マイクロフォンにより生成されている、請求項1記載の方法。
- 前記音声特性は、
前記混合音声サンプルのフレームにおける瞬時エネルギーと、
エネルギーと、
ピッチと、
のうちの1つを含む、請求項1記載の方法。 - 音声特性切り替わりを予測するように、第3のニューラルネットワークをトレーニングするステップと、
エネルギーが、あるフレームからその次のフレームで切り替わっているかどうかを予測するステップと、
前記予測に基づいて、前記混合音声サンプルを復号するステップと、
を含む、請求項1記載の方法。 - エネルギー切り替わりが予測されるフレームに続くフレームにおけるエネルギー切り替わりの尤度に対して重み付けするステップを含む、請求項6記載の方法。
- ソースからの混合音声を認識するためのシステムであって、
第1の複数の相互接続されたシステムを含む第1のニューラルネットワークと、
第2の複数の相互接続されたシステムを含む第2のニューラルネットワークと、
を有し、
各相互接続されたシステムは、
処理ユニットと、
コードを含むシステムメモリであって、前記コードは、前記処理ユニットに
混合音声サンプルからの第1の音声信号におけるより高レベルの音声特性を認識するように、前記第1のニューラルネットワークをトレーニングさせ、
前記混合音声サンプルからの第2の音声信号におけるより低レベルの前記音声特性を認識するように、前記第2のニューラルネットワークをトレーニングさせ、
2つの前記音声信号を観測する統合尤度を最適化することにより、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを使用して、前記混合音声サンプルを復号させる
よう構成されている、システムメモリと、
を有する、システム。 - 特定のフレームが、前記音声特性の切り替わりポイントである確率を考慮することにより復号させるよう構成されているコードを有する、請求項8記載のシステム。
- 前記処理ユニットに、ニューラルネットワークから推定された前記確率に基づいて、復号プロセスにおいて生じる前記切り替わりポイントを補償させるよう構成されているコードを有する、請求項9記載のシステム。
- 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、深層ニューラルネットワークを含む、請求項8記載のシステム。
- 前記音声特性は、ピッチと、エネルギーと、前記混合音声サンプルのフレームにおける瞬時エネルギーと、のうちの選択された1つを含む、請求項8記載のシステム。
- 前記処理ユニットに、
エネルギー切り替わりを予測するように、第3のニューラルネットワークをトレーニングさせ、
エネルギーが、あるフレームからその次のフレームで切り替わっているかどうかを予測させ、
前記予測に基づいて、前記混合音声サンプルを復号させる
よう構成されているコードを有する、請求項8記載のシステム。 - エネルギー切り替わりが予測されるフレームに続くフレームにおけるエネルギー切り替わりの尤度に対して重み付けすることを含む、請求項13記載のシステム。
- コンピュータ読み取り可能な命令を記憶した1以上のコンピュータ読み取り可能な記憶メモリデバイスであって、前記コンピュータ読み取り可能な命令は、1以上の処理デバイスにより実行されたときに、
単一オーディオチャンネルを含む混合音声サンプルからの第1の音声信号におけるより高レベルの音声特性を認識するように、第1のニューラルネットワークをトレーニングすることと、
前記混合音声サンプルからの第2の音声信号におけるより低レベルの前記音声特性を認識するように、第2のニューラルネットワークをトレーニングすることと、
各フレームについての切り替わり確率を推定するように、第3のニューラルネットワークをトレーニングすることと、
2つの前記音声信号を観測する統合尤度を最適化することにより、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、及び前記第3のニューラルネットワークを使用して、前記混合音声サンプルを復号することであって、前記統合尤度は、特定のフレームが、前記音声特性の切り替わりポイントである確率を意味する、復号することと、
を行わせるよう構成されているコードを含む、1以上のコンピュータ読み取り可能な記憶メモリデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/223,468 US9390712B2 (en) | 2014-03-24 | 2014-03-24 | Mixed speech recognition |
US14/223,468 | 2014-03-24 | ||
PCT/US2015/021363 WO2015148237A1 (en) | 2014-03-24 | 2015-03-19 | Mixed speech recognition |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017515140A true JP2017515140A (ja) | 2017-06-08 |
JP2017515140A5 JP2017515140A5 (ja) | 2018-04-19 |
JP6486381B2 JP6486381B2 (ja) | 2019-03-20 |
Family
ID=52808176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016558287A Active JP6486381B2 (ja) | 2014-03-24 | 2015-03-19 | 混合音声認識 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9390712B2 (ja) |
EP (1) | EP3123466B1 (ja) |
JP (1) | JP6486381B2 (ja) |
CN (1) | CN106104674B (ja) |
RU (1) | RU2686589C2 (ja) |
WO (1) | WO2015148237A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013034A (ja) * | 2018-07-19 | 2020-01-23 | 株式会社日立製作所 | 音声認識装置及び音声認識方法 |
WO2021033222A1 (ja) * | 2019-08-16 | 2021-02-25 | 日本電信電話株式会社 | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム |
KR20210145733A (ko) | 2019-03-27 | 2021-12-02 | 소니그룹주식회사 | 신호 처리 장치 및 방법, 그리고 프로그램 |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9390712B2 (en) | 2014-03-24 | 2016-07-12 | Microsoft Technology Licensing, Llc. | Mixed speech recognition |
US9484022B2 (en) * | 2014-05-23 | 2016-11-01 | Google Inc. | Training multiple neural networks with different accuracy |
US10650805B2 (en) * | 2014-09-11 | 2020-05-12 | Nuance Communications, Inc. | Method for scoring in an automatic speech recognition system |
US9672810B2 (en) * | 2014-09-26 | 2017-06-06 | Intel Corporation | Optimizations to decoding of WFST models for automatic speech recognition |
US9530404B2 (en) * | 2014-10-06 | 2016-12-27 | Intel Corporation | System and method of automatic speech recognition using on-the-fly word lattice generation with word histories |
US10540957B2 (en) | 2014-12-15 | 2020-01-21 | Baidu Usa Llc | Systems and methods for speech transcription |
US9697826B2 (en) * | 2015-03-27 | 2017-07-04 | Google Inc. | Processing multi-channel audio waveforms |
US10403269B2 (en) | 2015-03-27 | 2019-09-03 | Google Llc | Processing audio waveforms |
US9740678B2 (en) * | 2015-06-25 | 2017-08-22 | Intel Corporation | Method and system of automatic speech recognition with dynamic vocabularies |
JP6501259B2 (ja) * | 2015-08-04 | 2019-04-17 | 本田技研工業株式会社 | 音声処理装置及び音声処理方法 |
US10339921B2 (en) | 2015-09-24 | 2019-07-02 | Google Llc | Multichannel raw-waveform neural networks |
US10014003B2 (en) * | 2015-10-12 | 2018-07-03 | Gwangju Institute Of Science And Technology | Sound detection method for recognizing hazard situation |
US10332509B2 (en) | 2015-11-25 | 2019-06-25 | Baidu USA, LLC | End-to-end speech recognition |
US9966066B1 (en) * | 2016-02-03 | 2018-05-08 | Nvoq Incorporated | System and methods for combining finite state transducer based speech recognizers |
US10235994B2 (en) * | 2016-03-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Modular deep learning model |
US10318813B1 (en) | 2016-03-11 | 2019-06-11 | Gracenote, Inc. | Digital video fingerprinting using motion segmentation |
CN111081231B (zh) | 2016-03-23 | 2023-09-05 | 谷歌有限责任公司 | 用于多声道语音识别的自适应音频增强 |
US10249305B2 (en) | 2016-05-19 | 2019-04-02 | Microsoft Technology Licensing, Llc | Permutation invariant training for talker-independent multi-talker speech separation |
EP3469584B1 (en) * | 2016-06-14 | 2023-04-19 | The Trustees of Columbia University in the City of New York | Neural decoding of attentional selection in multi-speaker environments |
US11373672B2 (en) | 2016-06-14 | 2022-06-28 | The Trustees Of Columbia University In The City Of New York | Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments |
US10657437B2 (en) | 2016-08-18 | 2020-05-19 | International Business Machines Corporation | Training of front-end and back-end neural networks |
CN107785015A (zh) * | 2016-08-26 | 2018-03-09 | 阿里巴巴集团控股有限公司 | 一种语音识别方法及装置 |
US10204621B2 (en) * | 2016-09-07 | 2019-02-12 | International Business Machines Corporation | Adjusting a deep neural network acoustic model |
US10224058B2 (en) * | 2016-09-07 | 2019-03-05 | Google Llc | Enhanced multi-channel acoustic models |
US10204620B2 (en) * | 2016-09-07 | 2019-02-12 | International Business Machines Corporation | Adjusting a deep neural network acoustic model |
US9978392B2 (en) * | 2016-09-09 | 2018-05-22 | Tata Consultancy Services Limited | Noisy signal identification from non-stationary audio signals |
ES2608613B2 (es) * | 2016-09-16 | 2018-04-02 | Universidad De Las Palmas De Gran Canaria | Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. |
US10552002B1 (en) * | 2016-09-27 | 2020-02-04 | Palantir Technologies Inc. | User interface based variable machine modeling |
CN108305619B (zh) * | 2017-03-10 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 语音数据集训练方法和装置 |
US10460727B2 (en) * | 2017-03-03 | 2019-10-29 | Microsoft Technology Licensing, Llc | Multi-talker speech recognizer |
US10529319B2 (en) | 2017-05-22 | 2020-01-07 | Samsung Electronics Co., Ltd. | User adaptive speech recognition method and apparatus |
US11106974B2 (en) * | 2017-07-05 | 2021-08-31 | International Business Machines Corporation | Pre-training of neural network by parameter decomposition |
CN107393526B (zh) * | 2017-07-19 | 2024-01-02 | 腾讯科技(深圳)有限公司 | 语音静音检测方法、装置、计算机设备和存储介质 |
US11763834B2 (en) * | 2017-07-19 | 2023-09-19 | Nippon Telegraph And Telephone Corporation | Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method, and mask calculation neural network learning method |
US11537892B2 (en) * | 2017-08-18 | 2022-12-27 | Intel Corporation | Slimming of neural networks in machine learning environments |
US10580430B2 (en) * | 2017-10-19 | 2020-03-03 | Bose Corporation | Noise reduction using machine learning |
US11556775B2 (en) | 2017-10-24 | 2023-01-17 | Baidu Usa Llc | Systems and methods for trace norm regularization and faster inference for embedded models |
US10839822B2 (en) | 2017-11-06 | 2020-11-17 | Microsoft Technology Licensing, Llc | Multi-channel speech separation |
CN110709924B (zh) * | 2017-11-22 | 2024-01-09 | 谷歌有限责任公司 | 视听语音分离 |
US10762914B2 (en) | 2018-03-01 | 2020-09-01 | Google Llc | Adaptive multichannel dereverberation for automatic speech recognition |
US10832660B2 (en) | 2018-04-10 | 2020-11-10 | Futurewei Technologies, Inc. | Method and device for processing whispered speech |
EP3775821A1 (en) | 2018-04-11 | 2021-02-17 | Dolby Laboratories Licensing Corporation | Perceptually-based loss functions for audio encoding and decoding based on machine learning |
US10957337B2 (en) * | 2018-04-11 | 2021-03-23 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
US11456003B2 (en) * | 2018-04-12 | 2022-09-27 | Nippon Telegraph And Telephone Corporation | Estimation device, learning device, estimation method, learning method, and recording medium |
US10811000B2 (en) * | 2018-04-13 | 2020-10-20 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for recognizing simultaneous speech by multiple speakers |
US11416741B2 (en) | 2018-06-08 | 2022-08-16 | International Business Machines Corporation | Teacher and student learning for constructing mixed-domain model |
CN108962271B (zh) * | 2018-06-29 | 2021-06-22 | 广州视源电子科技股份有限公司 | 多加权有限状态转换器合并方法、装置、设备及存储介质 |
US10699700B2 (en) * | 2018-07-31 | 2020-06-30 | Tencent Technology (Shenzhen) Company Limited | Monaural multi-talker speech recognition with attention mechanism and gated convolutional networks |
US20200042825A1 (en) * | 2018-08-02 | 2020-02-06 | Veritone, Inc. | Neural network orchestration |
CN110867191B (zh) * | 2018-08-28 | 2024-06-25 | 洞见未来科技股份有限公司 | 语音处理方法、信息装置与计算机程序产品 |
CN109215662B (zh) * | 2018-09-18 | 2023-06-20 | 平安科技(深圳)有限公司 | 端对端语音识别方法、电子装置及计算机可读存储介质 |
CN110288978B (zh) * | 2018-10-25 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 一种语音识别模型训练方法及装置 |
JP7167335B2 (ja) | 2018-10-29 | 2022-11-08 | ドルビー・インターナショナル・アーベー | 生成モデルを用いたレート品質スケーラブル符号化のための方法及び装置 |
CN109639377B (zh) * | 2018-12-13 | 2021-03-23 | 西安电子科技大学 | 基于深度强化学习的频谱资源管理方法 |
CN109545199B (zh) * | 2019-01-09 | 2022-06-21 | 四川虹微技术有限公司 | 一种音频处理方法、装置及可读存储介质 |
CN109616102B (zh) * | 2019-01-09 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 声学模型的训练方法、装置及存储介质 |
CN109753938B (zh) * | 2019-01-10 | 2021-11-05 | 京东方科技集团股份有限公司 | 图像识别方法和设备及应用、神经网络的训练方法 |
US10803875B2 (en) | 2019-02-08 | 2020-10-13 | Nec Corporation | Speaker recognition system and method of using the same |
CN110459238B (zh) * | 2019-04-12 | 2020-11-20 | 腾讯科技(深圳)有限公司 | 语音分离方法、语音识别方法及相关设备 |
CN111836281B (zh) * | 2019-04-23 | 2024-02-09 | 三星电子株式会社 | 用于优化物理层参数的设备和方法 |
US11146287B2 (en) * | 2019-04-23 | 2021-10-12 | Samsjung Electronics Co., Ltd. | Apparatus and method for optimizing physical layer parameter |
CN110213165B (zh) * | 2019-06-05 | 2021-04-13 | 北京灵汐科技有限公司 | 一种异构协同系统及其通信方法 |
CN110288995B (zh) * | 2019-07-19 | 2021-07-16 | 出门问问(苏州)信息科技有限公司 | 基于语音识别的交互方法、装置、存储介质和电子设备 |
CN110634469B (zh) * | 2019-09-27 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音信号处理方法、装置及存储介质 |
CN110674277A (zh) * | 2019-09-29 | 2020-01-10 | 北京金山安全软件有限公司 | 交互数据有效性识别方法和装置 |
CN110767223B (zh) * | 2019-09-30 | 2022-04-12 | 大象声科(深圳)科技有限公司 | 一种单声道鲁棒性的语音关键词实时检测方法 |
CN111354375A (zh) * | 2020-02-25 | 2020-06-30 | 咪咕文化科技有限公司 | 一种哭声分类方法、装置、服务器和可读存储介质 |
CN111798866A (zh) * | 2020-07-13 | 2020-10-20 | 商汤集团有限公司 | 音频处理网络的训练及立体声重构方法和装置 |
CN111885280B (zh) * | 2020-07-17 | 2021-04-13 | 电子科技大学 | 一种混合卷积神经网络视频编码环路滤波方法 |
US11450310B2 (en) * | 2020-08-10 | 2022-09-20 | Adobe Inc. | Spoken language understanding |
RU2754920C1 (ru) * | 2020-08-17 | 2021-09-08 | Автономная некоммерческая организация поддержки и развития науки, управления и социального развития людей в области разработки и внедрения искусственного интеллекта "ЦифровойТы" | Способ синтеза речи с передачей достоверного интонирования клонируемого образца |
US11756551B2 (en) | 2020-10-07 | 2023-09-12 | Mitsubishi Electric Research Laboratories, Inc. | System and method for producing metadata of an audio signal |
GB2602959B (en) * | 2020-11-10 | 2023-08-09 | Sony Interactive Entertainment Inc | Audio processing |
CN112863489B (zh) * | 2021-04-26 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及介质 |
US20230153957A1 (en) * | 2021-11-15 | 2023-05-18 | Samsung Electronics Co., Ltd. | System and method for training of noise model using noisy signal pairs |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005275410A (ja) * | 2004-03-23 | 2005-10-06 | Herman Becker Automotive Systems-Wavemakers Inc | ニューラルネットワークを利用してスピーチ信号を分離する。 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69328275T2 (de) * | 1992-06-18 | 2000-09-28 | Seiko Epson Corp | Spracherkennungssystem |
CN1163009A (zh) * | 1994-09-30 | 1997-10-22 | 摩托罗拉公司 | 用以识别出连续语音中在声音之间的边界的方法和系统 |
US5737485A (en) * | 1995-03-07 | 1998-04-07 | Rutgers The State University Of New Jersey | Method and apparatus including microphone arrays and neural networks for speech/speaker recognition systems |
RU2161826C2 (ru) * | 1998-08-17 | 2001-01-10 | Пензенский научно-исследовательский электротехнический институт | Способ автоматической идентификации личности |
US20030233233A1 (en) * | 2002-06-13 | 2003-12-18 | Industrial Technology Research Institute | Speech recognition involving a neural network |
KR20050115857A (ko) * | 2002-12-11 | 2005-12-08 | 소프트맥스 인코퍼레이티드 | 안정성 강제하에서 독립 성분 분석을 사용하여 음향을처리하는 시스템 및 방법 |
US20040260550A1 (en) * | 2003-06-20 | 2004-12-23 | Burges Chris J.C. | Audio processing system and method for classifying speakers in audio data |
EP1691344B1 (en) * | 2003-11-12 | 2009-06-24 | HONDA MOTOR CO., Ltd. | Speech recognition system |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US7464029B2 (en) | 2005-07-22 | 2008-12-09 | Qualcomm Incorporated | Robust separation of speech signals in a noisy environment |
KR100959983B1 (ko) * | 2005-08-11 | 2010-05-27 | 아사히 가세이 가부시키가이샤 | 음원 분리 장치, 음성 인식 장치, 휴대 전화기, 음원 분리방법, 및, 프로그램 |
US20070124264A1 (en) * | 2005-11-18 | 2007-05-31 | International Business Machines Corporation | Deconvolution and segmentation based on a network of dynamical units |
WO2007080886A1 (ja) * | 2006-01-11 | 2007-07-19 | Nec Corporation | 音声認識装置、音声認識方法、および音声認識プログラム、ならびに妨害軽減装置、妨害軽減方法、および妨害軽減プログラム |
US20080059177A1 (en) * | 2006-05-19 | 2008-03-06 | Jamey Poirier | Enhancement of simultaneous multi-user real-time speech recognition system |
WO2008117626A1 (ja) * | 2007-03-27 | 2008-10-02 | Nec Corporation | 話者選択装置、話者適応モデル作成装置、話者選択方法、話者選択用プログラムおよび話者適応モデル作成プログラム |
US8515096B2 (en) * | 2008-06-18 | 2013-08-20 | Microsoft Corporation | Incorporating prior knowledge into independent component analysis |
EP2216775B1 (en) * | 2009-02-05 | 2012-11-21 | Nuance Communications, Inc. | Speaker recognition |
US8386251B2 (en) * | 2009-06-08 | 2013-02-26 | Microsoft Corporation | Progressive application of knowledge sources in multistage speech recognition |
US9047867B2 (en) | 2011-02-21 | 2015-06-02 | Adobe Systems Incorporated | Systems and methods for concurrent signal recognition |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
WO2013149123A1 (en) | 2012-03-30 | 2013-10-03 | The Ohio State University | Monaural speech filter |
US9099096B2 (en) * | 2012-05-04 | 2015-08-04 | Sony Computer Entertainment Inc. | Source separation by independent component analysis with moving constraint |
US9111547B2 (en) * | 2012-08-22 | 2015-08-18 | Kodak Alaris Inc. | Audio signal semantic concept classification method |
US8880444B2 (en) * | 2012-08-22 | 2014-11-04 | Kodak Alaris Inc. | Audio based control of equipment and systems |
KR102219346B1 (ko) * | 2013-05-30 | 2021-02-23 | 프레지던트 앤드 펠로우즈 오브 하바드 칼리지 | 베이지안 최적화를 수행하기 위한 시스템 및 방법 |
US9858919B2 (en) * | 2013-11-27 | 2018-01-02 | International Business Machines Corporation | Speaker adaptation of neural network acoustic models using I-vectors |
US9390712B2 (en) | 2014-03-24 | 2016-07-12 | Microsoft Technology Licensing, Llc. | Mixed speech recognition |
-
2014
- 2014-03-24 US US14/223,468 patent/US9390712B2/en active Active
-
2015
- 2015-03-19 RU RU2016137972A patent/RU2686589C2/ru active
- 2015-03-19 EP EP15714120.1A patent/EP3123466B1/en active Active
- 2015-03-19 CN CN201580016161.2A patent/CN106104674B/zh active Active
- 2015-03-19 JP JP2016558287A patent/JP6486381B2/ja active Active
- 2015-03-19 WO PCT/US2015/021363 patent/WO2015148237A1/en active Application Filing
-
2016
- 2016-06-08 US US15/176,381 patent/US9558742B2/en active Active
- 2016-12-30 US US15/395,640 patent/US9779727B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005275410A (ja) * | 2004-03-23 | 2005-10-06 | Herman Becker Automotive Systems-Wavemakers Inc | ニューラルネットワークを利用してスピーチ信号を分離する。 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013034A (ja) * | 2018-07-19 | 2020-01-23 | 株式会社日立製作所 | 音声認識装置及び音声認識方法 |
KR20210145733A (ko) | 2019-03-27 | 2021-12-02 | 소니그룹주식회사 | 신호 처리 장치 및 방법, 그리고 프로그램 |
US11862141B2 (en) | 2019-03-27 | 2024-01-02 | Sony Group Corporation | Signal processing device and signal processing method |
WO2021033222A1 (ja) * | 2019-08-16 | 2021-02-25 | 日本電信電話株式会社 | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム |
WO2021033587A1 (ja) * | 2019-08-16 | 2021-02-25 | 日本電信電話株式会社 | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム |
JPWO2021033587A1 (ja) * | 2019-08-16 | 2021-02-25 | ||
JP7205635B2 (ja) | 2019-08-16 | 2023-01-17 | 日本電信電話株式会社 | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2015148237A1 (en) | 2015-10-01 |
CN106104674A (zh) | 2016-11-09 |
US20160284348A1 (en) | 2016-09-29 |
EP3123466B1 (en) | 2017-11-15 |
RU2016137972A (ru) | 2018-03-28 |
RU2016137972A3 (ja) | 2018-10-15 |
US9558742B2 (en) | 2017-01-31 |
EP3123466A1 (en) | 2017-02-01 |
RU2686589C2 (ru) | 2019-04-29 |
US20150269933A1 (en) | 2015-09-24 |
CN106104674B (zh) | 2019-10-01 |
US9390712B2 (en) | 2016-07-12 |
US20170110120A1 (en) | 2017-04-20 |
US9779727B2 (en) | 2017-10-03 |
JP6486381B2 (ja) | 2019-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6486381B2 (ja) | 混合音声認識 | |
Nicolson et al. | Deep learning for minimum mean-square error approaches to speech enhancement | |
Tu et al. | Speech enhancement based on teacher–student deep learning using improved speech presence probability for noise-robust speech recognition | |
Tan et al. | Complex spectral mapping with a convolutional recurrent network for monaural speech enhancement | |
Zhang et al. | Deep learning for environmentally robust speech recognition: An overview of recent developments | |
US9721559B2 (en) | Data augmentation method based on stochastic feature mapping for automatic speech recognition | |
Wang et al. | A joint training framework for robust automatic speech recognition | |
Yoshioka et al. | Environmentally robust ASR front-end for deep neural network acoustic models | |
Shah et al. | Time-frequency mask-based speech enhancement using convolutional generative adversarial network | |
Weng et al. | Single-channel mixed speech recognition using deep neural networks | |
Nikzad et al. | Deep residual-dense lattice network for speech enhancement | |
Yuliani et al. | Speech enhancement using deep learning methods: A review | |
Borgström et al. | Speech enhancement via attention masking network (SEAMNET): An end-to-end system for joint suppression of noise and reverberation | |
Borsdorf et al. | Universal Speaker Extraction in the Presence and Absence of Target Speakers for Speech of One and Two Talkers. | |
Mimura et al. | Reverberant speech recognition combining deep neural networks and deep autoencoders augmented with a phone-class feature | |
Li et al. | A conditional generative model for speech enhancement | |
Nguyen et al. | Feature adaptation using linear spectro-temporal transform for robust speech recognition | |
Saeki et al. | DRSpeech: Degradation-robust text-to-speech synthesis with frame-level and utterance-level acoustic representation learning | |
Mimura et al. | Deep autoencoders augmented with phone-class feature for reverberant speech recognition | |
Nathwani et al. | DNN uncertainty propagation using GMM-derived uncertainty features for noise robust ASR | |
Li et al. | Single channel speech enhancement using temporal convolutional recurrent neural networks | |
JP4964194B2 (ja) | 音声認識モデル作成装置とその方法、音声認識装置とその方法、プログラムとその記録媒体 | |
CN115273862A (zh) | 语音处理的方法、装置、电子设备和介质 | |
Narayanan et al. | Large-scale, sequence-discriminative, joint adaptive training for masking-based robust ASR. | |
Wang et al. | An ideal Wiener filter correction-based cIRM speech enhancement method using deep neural networks with skip connections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180306 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6486381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |