JP6085538B2 - 音響認識装置、音響認識方法、及び音響認識プログラム - Google Patents
音響認識装置、音響認識方法、及び音響認識プログラム Download PDFInfo
- Publication number
- JP6085538B2 JP6085538B2 JP2013181521A JP2013181521A JP6085538B2 JP 6085538 B2 JP6085538 B2 JP 6085538B2 JP 2013181521 A JP2013181521 A JP 2013181521A JP 2013181521 A JP2013181521 A JP 2013181521A JP 6085538 B2 JP6085538 B2 JP 6085538B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- unit
- label
- sound unit
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 105
- 230000008569 process Effects 0.000 claims description 75
- 238000013500 data storage Methods 0.000 claims description 45
- 238000006243 chemical reaction Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 24
- 239000013598 vector Substances 0.000 description 63
- 238000012545 processing Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 18
- 238000011156 evaluation Methods 0.000 description 15
- 238000009826 distribution Methods 0.000 description 13
- 230000007613 environmental effect Effects 0.000 description 13
- 238000013179 statistical model Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000013524 data verification Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
また、特許文献2に記載の画像処理装置では、音声データにブラインド音源分離処理を行い、各音源の音声データを抽出し、音源の方向を示す方向データを生成する。また、当該画像処理装置は、各音源の音声が、人の発話ではない環境音であるか否かを判別し、環境音をテキスト化し、テキスト化された環境音に基づいて、環境音を視覚的に提示するエフェクト画像を生成し、コンテンツ画像上にエフェクト画像をオーバーレイする。当該画像処理装置は、環境音をテキスト化する環境音識別部を備える。
上述した(4)の構成によれば、音響的な性質が近似した音ユニット同士を交換して音ユニット群系列の候補が生成されるので、雑音等により入力された音響信号の音響的な特徴が変動しても所望の音響イベントを同定することができる。
以下、図面を参照しながら本発明の第1の実施形態について説明する。
図1は、本実施形態に係る音響認識装置1の構成を示すブロック図である。
音響認識装置1は、音響信号入力部101、音響特徴量算出部102、ラベルデータ記憶部103、ラベル変換部104、認識データ出力部109、音響同定部110、及びモデルデータ生成部120を含んで構成される。音響同定部110は、区切りデータ記憶部105、区切り決定部106、イベントデータ記憶部107、及びイベントデータ照合部108を含んで構成される。
音響特徴量算出部102は、音響信号入力部101から入力された音響信号に基づいて予め定めた時間(例えば、30ms)のフレーム毎に、その音の物理的な特徴を示す音響特徴量を算出する。音響特徴量算出部102が算出する音響特徴量は、例えば、41次元の音響特徴量ベクトルである。この音響特徴量ベクトルは、13次のメルスケール対数スペクトル(MSLS:Mel Scale Log Sprctrum)、13次のMSLSの一次回帰係数、13次のMSLSの2次回帰係数、パワーの一次差分、及びその2次差分である。MSLSは、(MFCC:Mel Frequency Cepstrum Coefficients)を逆離散コサイン変換して算出することができる。MSLSやその回帰係数からなる音響特徴量ベクトルを用いることで高い雑音耐性を得ることができる。音響特徴量算出部102は、算出した音響特徴量ベクトルをラベル変換部104に出力する。
これらの確率モデルでは、入力された音響特徴量ベクトルに対して、各ラベルの出力確率を与えるように事前学習によって統計量を定めておく。事前学習では、例えば、音響特徴量ベクトルがあるクラスタのクラスタ重心となるとき、そのクラスタに係る音ユニットの出力確率が1であって、その他のクラスタに係る音ユニットの出力確率が0となるように統計量を定めておいてもよい。
区切りデータは、音ユニットNグラムモデルと音ユニット群Nグラムモデルとを含む統計モデルである。この統計モデルを、以下の説明では音ユニット・音ユニット群Nグラムモデルと呼ぶことがある。区切りデータ、つまり音ユニット・音ユニット群Nグラムモデルは、言語処理における言語モデルの一種である文字・単語Nグラムモデルに相当する。
区切りデータは、次に説明するように、1個又は複数の音ユニットからなる音ユニット系列を1個又は複数の音ユニット群に区切る確率を示すデータを含むデータのセットである。
なお、音ユニット群Nグラムモデルとは、その確率を含んで構成される統計モデルを指すこともある。
音ユニット群Nグラムモデルでは、区切りを1種の音ユニット群として扱ってもよい。音ユニットNグラムモデル、音ユニット群Nグラムモデルは、言語処理における文字モデル、単語モデルにそれぞれ相当する。
区切り決定部106は、選択した音ユニット群系列をイベントデータ照合部108に出力する。
イベントデータ照合部108は、照合に成功した音ユニット群系列に対応するイベントを示す認識データを生成し、生成した認識データを認識データ出力部109に出力する。ここで、イベントデータ照合部108は、イベントデータが示す音ユニット群系列のうち入力された音ユニット群系列と合致する部分の割合(例えば、音ユニットの個数又は音ユニット群の個数)が、最も多いイベントデータと照合に成功したと判定してもよい。また、イベントデータ照合部108は、その割合が予め定めた割合(例えば、80%)よりも大きいとき照合に成功したと判定してもよい。なお、イベントデータ照合部108は、照合に失敗したと判定した場合、認識できなかったことを示すエラーデータを認識データとして認識データ出力部109に出力してもよい。
認識データ出力部109は、イベントデータ照合部108から認識データが入力され、入力された認識データを音響認識装置1の外部に出力する。認識データ出力部109は、例えば、データ出力インタフェースである。認識データ出力部109は、音響信号入力部101と一体化され、データ入出力インタフェースとして構成されていてもよい。
なお、ラベルデータ記憶部103、区切りデータ記憶部105、イベントデータ記憶部107に、それぞれラベルデータ、区切りデータ、イベントデータが記憶されていれば、モデルデータ生成部120は省略されてもよい。モデルデータ生成部120が行うモデルデータを生成する処理は、音響認識装置1の外部の装置、例えば、電子計算機で行われてもよい。
次に、ラベルデータの例について説明する。
図2は、ラベルデータの例を示す図である。ラベルデータは、ラベルとクラスタ重心とが対応付けられているデータである。例えば、図2の第2行では、ラベルとして「c1」とクラスタ重心として「[x1]」とが対応付けられている。
次に、区切りデータの例について説明する。区切りデータは、音ユニット・音ユニット群Nグラムモデルである。つまり、区切りデータは、音ユニットNグラムモデルと音ユニット群Nグラムモデルとを含んで構成される。Nグラムとは、1個の要素が出現する確率(ユニグラム(unigram))とN−1(Nは、1よりも大きい整数)個の要素(例えば、音ユニット)の系列が与えられたときに次の要素が出現する確率を示す統計的なモデルの総称である。ユニグラムは、モノグラム(monogram)とも呼ばれる。特に、N=2、3の場合、Nグラムは、それぞれバイグラム(bigram)、トライグラム(trigram)と呼ばれる。
図3に示す区切りデータの一部は、音ユニットNグラムモデルである。図3(a)、(b)、(c)は、それぞれ音ユニットユニグラム、音ユニットバイグラム、音ユニットトライグラムの例を示す。
図3(a)は、1個の音ユニットを示すラベルと音ユニットユニグラムが対応付けられていることを示す。図3(a)の第2行では、ラベル「c1」と音ユニットユニグラム「p(c1)」とが対応付けられている。ここで、p(c1)は、ラベル「c1」の出現確率を示す。図3(b)の第3行では、ラベル系列「c1c2」と音ユニットバイグラム「p(c1|c2)」とが対応付けられている。ここで、p(c1|c2)は、音ユニットc2が与えられているときに、音ユニットc1が出現する確率を示す。図3(c)の第2行では、ラベル系列「c1c1c1」と音ユニットトライグラム「p(c1|c1c1)」とが対応付けられている。
図4に示す区切りデータの他の一部は、音ユニット群Nグラムモデルである。図4(a)、(b)、(c)は、それぞれ音ユニット群ユニグラム、音ユニット群バイグラム、音ユニットトライグラムの例を示す。
図4(a)は、1個の音ユニット群を示すラベルと音ユニットユニグラムが対応付けられていることを示す。図4(a)の第2行では、ラベル「w1」と音ユニット群ユニグラム「p(w1)」とが対応付けられている。1個の音ユニット群を示すラベルは、1個又は複数個の音ユニットから形成される音ユニット群を示す。
図4(b)の第3行では、ラベル系列「w1w2」と音ユニット群バイグラム「p(w1|w2)」とが対応付けられている。図4(c)の第2行では、ラベル系列「w1w1w1」と音ユニット群トライグラム「p(w1|w1w1)」とが対応付けられている。図4に示す例では、音ユニット群毎のラベルが付されているが、これに代えて音ユニット群のそれぞれを形成する音ユニット系列が用いられていてもよい(図5参照)。その場合には、音ユニット群間で区切りを示す区切り符号(例えば、|)が挿入されていてもよい。
次に、イベントデータの例について説明する。
図5は、イベントデータの例を示す図である。
イベントデータは、イベントとそのイベントに係る音ユニット群系列とを対応付けたデータである。図5の第2行では、イベント「e1」と音ユニット群系列「c1c1|c1c1 …」が対応付けられている。音ユニット群系列「c1c1|c1c1 …」のうち、冒頭の「c1c1」と、その後の「c1c1 …」との間には区切り符号「|」が挿入されている。この区切り符号は、冒頭の「c1c1」から形成される音ユニット群と、その後の「c1c1 …」から形成される音ユニット群の境界を示す。
次に、本実施形態に係る音響認識処理について説明する。
図6は、本実施形態に係る音響認識処理を示すフローチャートである。
(ステップS101)音響信号入力部101は、音響認識装置1の外部から音響信号が入力され、入力された音響信号を音響特徴量算出部102に出力する。その後、ステップS102に進む。
(ステップS102)音響特徴量算出部102は、音響信号入力部101から入力された音響信号に基づいてその音の物理的な特徴を示す音響特徴量ベクトルを算出する。次に、音響特徴量算出部102は、算出した音響特徴量ベクトルをラベル変換部104に出力する。その後、ステップS103に進む。
(ステップS106)認識データ出力部109は、イベントデータ照合部108から入力された認識データを、音響認識装置1の外部に出力する。その後、図1に示す音響認識処理を終了する。
次に、モデルデータ生成部120がモデルデータを生成する処理(モデルデータ生成処理)について説明する。
図7は、本実施形態に係るモデルデータを生成する処理の一例を示すフローチャートである。
(ステップS201)ラベルデータ生成部122は、一般音データ取得部121から取得した一般音データに基づいて音ユニットの候補を決定する(音ユニット候補決定)。その後、ステップS202に進む。
(ステップS202)ラベルデータ生成部122は、決定した音ユニットの候補毎に音ユニット群毎の頻度分布を算出し、算出した頻度分布が最も分散する音ユニットの候補を選択する(音ユニット決定)。その後、ステップS203に進む。
(ステップS203)ラベルデータ生成部122は、選択した音ユニットの候補に係るラベルとクラスタ重心を対応付けたラベルデータを生成し、生成したラベルデータをラベルデータ記憶部103に記憶する。その後、ステップS204に進む。
(ステップS205)区切りデータ生成部123は、生成した区切りデータを区切りデータ記憶部105に記憶する。その後、ステップS206に進む。
次に、ラベルデータ生成部122がステップS201(図7)で行う音ユニット候補決定処理について説明する。一般音データには、D(Dは、1又は1よりも大きい整数)個のイベントと音響信号の組が含まれていることを仮定する。
(ステップS301)ラベルデータ生成部122は、一般音データ取得部121から読み出した一般音データに含まれる音響信号について予め定めた時間のフレーム毎に音響特徴量ベクトルを算出する。その後、ステップS302に進む。
(ステップS302)ラベルデータ生成部122は、フレーム毎に算出した音響特徴量ベクトルについて予め定めた手法(例えば、凝集型階層クラスタリング)を用いてクラスタリングを行う。クラスタリングによって、クラスタ毎にクラスタ重心が算出される。このステップで行われるクラスタリングを第1クラスタリングと呼んで、ステップS304で行われるクラスタリングと区別する。その後、ステップS303に進む。
図9において、横軸はクラスタ重心間の距離、縦軸は距離の区間毎の個数を示す。破線は、それぞれ個数が最小となる距離、つまり距離候補Dlを示す。ステップS304では、この距離候補Dlにクラスタ重心間の距離が近似するようにクラスタリングがなされるため、クラスタ間で音響特徴量ベクトルが均等に分布する。つまり、各クラスタに対応する音ユニット候補でイベント毎の音響的な特徴を十分に説明できることを示す。図9に示す例では、距離候補Dlの数Nlは、17個である。
次に、ラベルデータ生成部122がステップS202(図7)で行う音ユニット決定処理について説明する。音ユニット候補の数は、距離候補Dlによって異なる可能性があるが、いずれもMと表記する。音ユニット候補の数は、予め設定された数であってもよい。
(ステップS306)ラベルデータ生成部122は、各距離候補Dlについて生成した音ユニット候補系列[cd]に基づいて、各音ユニット群候補zkに、音ユニット候補cmが出現する出現確率(ユニグラム)p(cm|zk)を算出する。ここで、kは、音ユニット群候補を識別するインデックスを示し、kの最大値はNzである。mは、音ユニット候補を識別するインデックスを示し、mの最大値はMである。
次に、ラベルデータ生成部122は、算出した出現確率を各行の要素として有する列ベクトル[βm]を音ユニット候補m毎に生成する。以下の説明では、この列ベクトル[βm]を、出現確率ベクトルと呼ぶ。出現確率p(cm|zk)を算出する際、ラベルデータ生成部122は、例えば、LDA(Latent Dirichlet Allocation、潜在的ディリクレ配分)法を用いる。後述するように、ラベルデータ生成部122は、LDA法を実行する過程で音ユニット群候補zkを生成する。その後、ステップS307に進む。
(ステップS308)ラベルデータ生成部122は、算出した分散σlが所定の距離の閾値よりも大きい距離候補Dl、例えば、分散σlが最大となる距離候補Dlを選択する。次に、ラベルデータ生成部122は、選択した距離候補Dlに係る音ユニットの候補を選択する。その後、図10に示す処理を終了する。
これにより、音ユニットに応じて各音ユニット群の出現確率が極力分散するようにクラスタ重心間の距離が選択されるので、多様な音ユニット群を十分に表現できる音ユニット群が選択される。
図11(a)、(b)、(c)は、それぞれ異なる距離候補Dlに係るクラスタを楕円で示す。c1等の符号は、各クラスタを識別する符号である。楕円に囲まれている黒丸のそれぞれは、音響特徴量ベクトルを示す。この例では、図11(a)、(b)、(c)の順で、距離候補Dlの値が小さい。即ち、図11(a)が最もクラスタが小さく、最も多くの音ユニットで音響信号の特徴が表される。そのため、雑音等による音響特徴量の変化の影響を受けやすいので雑音耐性が低い。図11(c)が最もクラスタが大きく、最も少ない音ユニットで音響信号の特徴が表される。そのため、雑音等による音響特徴量の変化の影響を受けにくいが、各クラスタに対応した音ユニットでは音響信号の特徴を十分に表すことができない。
図12において、横軸は音ユニットを示し、縦軸は音ユニット群を示す。
図12(a)、(b)、(c)は、図11(a)、(b)、(c)に係るクラスタに基づいて得られた出現確率を濃淡で示す。濃く示された部分ほど出現確率が高く、薄く示された部分ほど出現確率が低いことを示す。
図12(a)、(c)に示す例では、特定の音ユニットについて音ユニット群毎の出現確率が高い部分が縦線状に現れる傾向がある。これに対し、図12(b)に示す例では、特定の音ユニットについて音ユニット群毎の出現確率が高い斑点状の部分が、図12(a)、(c)に示す例よりも分散している。即ち、音ユニットに応じて各音ユニット群の出現確率が分散するようにクラスタ重心間の距離が選択されるので、対応する音ユニットからなる音ユニット系列で音響的な特徴を少ない数で十分に表すことができる。
LDA法は、従来、Nz個の潜在トピックを用いてコーパス上の文書を表す統計モデルとして、主に言語処理で利用されていた。本実施形態では、言語処理における文書、潜在トピック、単語に代えて、イベント、音ユニット群、音ユニットを適用する。
図13に示すように、LDA法では、D個のイベント[c1][c2]、…、[cD]が扱われ、d番目のイベント[cd]は、Nd個の音ユニット([cd]=cD1cD2…cDNd)から構成される音ユニット系列であると仮定する。d番目のイベント[cd]は、{c1 (μd1),…,cM (μdM)}と表わされる。ここで、μdmは、d番目のイベントに現れる音ユニットcmの個数を示す。即ち、d番目のイベント[cd]は、各音ユニットcmをμdm個有する音ユニット系列であり、μdmのm間の総和はNd個である。
p(cdn|zdk,[β])は、音ユニット群zdk、出現確率行列[β]が与えられたときに、イベントdのn番目のフレームに音ユニットcdnが現れる確率を示す。ラベルデータ生成部122は、各距離候補Dlについて生成した音ユニット候補系列[cd]に基づいて、式(2)を満たす発生回数ベクトル[α]、出現確率行列[β]を算出する。
[z]から[W]に向かう矢印及び[β]から[W]に向かう矢印は、コーパス[W]を生成する確率が音ユニット群zdkの集合[z]及び出現確率行列[β]で与えられることを示す。[z]と[W]を囲む四角形とその四角形内左下端のNdは、Nd個の音ユニットcdからイベントd毎に音ユニット群zdkの集合[z]及び出現確率行列[β]が与えられることを示す。[θ]から[z]に向かう矢印は、音ユニット群zdkの確率が生成確率ベクトル[θ]で与えられることを示す。[θ]を囲む四角形とその左下のDは、確率[θ]がD個のイベントd毎に与えられることを示す。[α]から[θ]に向かう矢印は、生成確率ベクトル[θ]が発生回数ベクトル[α]で与えられることを示す。また、発生回数ベクトル[α]、出現確率行列[β]が上述した四角形の外部にあることは、未知数として推定の対象となることを示す。
次に、区切りデータ生成部123が行う処理について説明する。
区切りデータ生成部123(図1参照)は、ラベルデータ生成部122が生成したラベルデータを用いて、一般音データ取得部121から読み出した一般音データに基づいて音ユニット系列を生成する。区切りデータ生成部123は、生成した音ユニット系列に基づいて所定の手法、例えば、NPY(Nested Pitman−Yor)過程を用いて区切りデータを生成する。NPY過程は、従来、自然言語の形態素解析に用いられていた手法である。
そこで、区切りデータ生成部123は、HPY過程を用いて音ユニットNグラムを生成し、生成した音ユニットNグラムを音ユニット群Nグラムの基底測度として用いる。
なお、区切りデータ生成部123には、音ユニットNグラムの次数、音ユニット群Nグラムの次数は、予め設定しておいてもよい。音ユニットNグラムの次数、音ユニット群Nグラムの次数は、例えば、それぞれ10次、3次である。
図15に示されるNPYモデルは、音ユニット群Nグラムと音ユニットNグラムモデルを含んで構成される音ユニット群・音ユニットNグラムモデルである。
区切りデータ生成部123は、音ユニットNグラムモデルを生成する際、例えば、音ユニットc1の出現確率を示すユニグラムp(c1)に基づいて、バイグラムp(c1|c1)、p(c1|c2)を算出する。区切りデータ生成部123は、バイグラムp(c1|c1)に基づいて、トライグラムp(c1|c1c1)、p(c1|c1c2)を算出される。
そこで、区切りデータ生成部123は、予め定めた複数の音ユニット群の個数Nzの候補のそれぞれについて、区切りデータを生成して、生成した区切りデータに基づいてモデルの複雑さの度合いを示す指標、例えば、パープレキシティ(perplexity)を算出してもよい。パープレキシティは、具体的には音ユニット群の平均分岐数を示す指標である。区切りデータ生成部123は、算出した指標が所定の指標値よりも小さい音ユニット群の個数Nzの候補と、その候補に対応する区切りデータとを学習結果として選択する。特に、そのような音ユニット群の個数Nzが複数通りある場合には、区切りデータ生成部123は、算出した指標が最小となる音ユニット群の個数Nzの候補と、その候補に対応する区切りデータとを学習結果として選択してもよい。
次に、区切りデータ生成部123がステップS204(図7)で行う区切りデータ生成処理について説明する。
図16は、本実施形態に係る区切りデータ生成処理を示すフローチャートである。
(ステップS401)区切りデータ生成部123は、一般音データ取得部121から一般音データを読み出し、読み出した一般音データに含まれる音響信号について予め定めた時間の音響特徴量ベクトルを算出する。その後、ステップS402に進む。
(ステップS402)区切りデータ生成部123は、算出した音響特徴量ベクトルのうちラベルデータ生成部122が生成したラベルデータが示すクラスタ重心に最も近似するクラスタ重心を選択する。次に、区切りデータ生成部123は、選択したクラスタ重心に対応するラベルを特定し、特定したラベルを要素とするラベル列、つまり音ユニット系列を生成する。その後、ステップS403に進む。
(ステップS404)区切りデータ生成部123は、生成した音ユニットNグラムを基底測度として音ユニット群のユニグラムを生成する。その後、ステップS405に進む。
(ステップS405)区切りデータ生成部123は、生成した音ユニットNグラムの要素毎の1個又は複数の音ユニット、音ユニット群及びそのユニグラムを対応付けた変換テーブルを生成する。次に、区切りデータ生成部123は、生成した変換テーブルを用いて、生成した音ユニット系列を複数通りの音ユニット群系列に変換し、変換した複数通りの音ユニット群系列のうち出現確率が最も高い音ユニット群系列を選択する。その後、ステップS406に進む。
(ステップS406)区切りデータ生成部123は、選択した音ユニット群系列に基づいて、ある次数の音ユニット群のNグラムを基底測度として用いて、その次数より1次高い次数の音ユニット群のNグラムを順次算出する。その後、図16に示す処理を終了する。
モデルデータ生成部120は、次に説明する変形例に係るモデルデータ生成処理を行ってもよい。上述した実施形態と同一の構成、過程については、同一の符号を付して説明を援用する。
図17は、本実施形態に係るモデルデータを生成する処理の変形例を示すフローチャートである。
本変形例は、ステップS201、ステップS203、ステップS206(図7参照)を有し、さらに、ステップS202a、ステップS204a及びステップS204bを有する。本変形例では、ステップS201が終了した後、ステップS204aに進む。
ステップS203が終了した後、ステップS206に進む。その後、図17に示す処理を終了する。
このように、クラスタ重心間の距離候補毎に生成されたラベルデータと区切りデータに基づいて、音ユニット候補及び音ユニット候補毎の頻度が算出され、その頻度の分散が最も大きくなるように音ユニット及び音ユニット候補が定められる。そのため、音ユニットや音ユニット候補の数が過大になることなく、多様な一般音データの音響的な特徴を十分に説明することができる。
音響イベントデータは、音響イベントと音ユニット群系列とが対応付けられたデータテーブルとして構成されていてもよい(図5参照)。
以下、図面を参照しながら本発明の第2実施形態について説明する。上述と同一の構成については、同一の符号を付して説明を援用する。
図18は、本実施形態に係る音響認識装置1aの構成を示すブロック図である。
音響認識装置1aは、音響信号入力部101、音響特徴量算出部102、ラベルデータ記憶部103、ラベル変換部104、認識データ出力部109、音響同定部110a、及びモデルデータ生成部120を含んで構成される。即ち、音響認識装置1aは、音響認識装置1(図1)において音響同定部110に代えて音響同定部110aを備える。
音響同定部110aは、区切りデータ記憶部105、区切り決定部106、イベントデータ記憶部107、及びイベントデータ照合部108aを含んで構成される。即ち、音響同定部110aは、音響同定部110においてイベントデータ照合部108(図1)に代えてイベントデータ照合部108aを備える。
これにより、音響的な性質が近似した音ユニット同士を交換して音ユニット群系列の候補が生成される。そのため、本実施形態に係る音響認識装置は、雑音等により入力された音響信号の音響的な特徴が変動しても所望の音響イベントを同定することができ、雑音等による耐性が向上する。
次に、ラベル変換部104から出力される音ユニット系列、区切り決定部106から出力される音ユニット群系列の例を示す。
図19は、ラベル変換部104から出力される音ユニット系列、区切り決定部106から出力される音ユニット群系列の一例を示す図である。
図19は、紙面に対して上段から下段の順に、(a)に入力音響信号、(b)にスペクトログラム、(c)に音ユニット系列、(d)に音ユニット群系列を示す。図19(a)、(b)、(c)、(d)の縦軸は、それぞれ振幅、周波数、音ユニットの番号、音ユニットの番号を示す。横軸はいずれも時刻を示す。この例では、イベントは電話の着信音である。
図19(a)は、時刻が0.1−1.12秒の間、着信音が発生し、約0.06秒周期で入力音響信号の波形が反復していることを示す。図19(b)−(d)は、入力音響信号に応じて、スペクトログラム、音ユニット、音ユニット群も約0.06秒周期で反復していることを示す。
図20(a)−(d)がそれぞれ示す情報、縦軸、横軸の関係は、図19(a)−(d)と同様である。但し、この例では、イベントは拍手である。
変化し、0と有意に異なる振幅を有する区間の長さが0.008秒と極めて狭いことを示す。それらの前後の時刻では、振幅は、ほぼ0である。図20(b)は、入力音響信号よりも広い区間でパワーが有意に0と異なる区間が広いことを示す。これは、スペクトログラムが、所定の時間間隔を有するフレーム毎に算出されるためである。図20(c)は、パワーが有意に0と異なる区間で、番号が0以外の有意な音ユニットが選択されていることを示す。図20(d)は、入力音響信号のパワーが0と有意に異なる振幅を有する区間が、それぞれ音ユニット群として区切られたことを示す。
次に、上述した音響認識装置1aを用いて評価実験を行って得られた評価結果について説明する。評価実験は、残響時間が0.2秒の実験室内で行った。実験室のほぼ中央に人型ロボット(以下、単にロボットと呼ぶ)が設置され、ロボットの頭部にマイクロホンを内蔵し、音響認識装置1aをロボットの胴体部に内蔵しておいた。ここで、マイクロホンが収録した音響信号は、音響信号入力部101に入力される。マイクロホンから1m離れた位置に、音(イベント)を発生させるために用いる音源を設置した。
図21において、最左列から右側に順に、SN比、GMM−S、本実施形態を示す。
SN比が∞である場合には、GMM−Sの正解率の方が82.1%と本実施形態の74.1%が高いが、その他の場合では、本実施形態の正解率の方がGMM−Sの正解率よりも2−9%高い。例えば、SN比が6.0dBの場合には、本実施形態の正解率は33.4%と、GMM−Sの正解率の24.1%よりも高い。この結果は、本実施形態により雑音耐性が向上することを示す。
図22において、最左列から右側に順に、SN比、本実施形態、MONO−D、MONO−Pを示す。
MONO−Dでは、SN比にかかわらず本実施形態よりも正解率が2−9%低下する。例えば、SN比が9.5dBの場合、本実施形態での正解率は41.7%であるのに対し、MONO−Dでは、33.3%となる。これは、モデルにおいて高次の生起確率が考慮されないため、音ユニット群間の時間変化が表されないことによる。
また、上述した実施形態及び変形例における音響認識装置1、1aの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。音響認識装置1、1aの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
101…音響信号入力部、102…音響特徴量算出部、103…ラベルデータ記憶部、
104…ラベル変換部、105…区切りデータ記憶部、106…区切り決定部、
107…イベントデータ記憶部、108、108a…イベントデータ照合部、
109…認識データ照合部、110、110a…音響同定部、
120…モデルデータ生成部、121…一般音データ取得部、
122…ラベルデータ生成部、123…区切りデータ生成部、
124…イベントデータ生成部
Claims (6)
- 音響信号に基づいて音響特徴量を算出する音響特徴量算出部と、
音響特徴量と音の構成単位である音ユニットを示すラベルとの対応を示すラベルデータを参照して、前記音響特徴量算出部が算出した音響特徴量に対応するラベルに変換するラベル変換部と、
少なくとも1個の音ユニットからなる音ユニット系列を少なくとも1個の音ユニット群に区切る確率を示す区切りデータを参照して、前記ラベル変換部が変換したラベルから形成されるラベル系列が音ユニット群毎に区切られた音ユニット群系列毎の確率を算出し、算出した確率に基づいて選択した音ユニット群系列に対応した音響イベントを、音響イベント毎の音ユニット群系列を示す音響イベントデータを参照して同定する音響同定部と
を備える音響認識装置。 - 前記ラベルデータは、前記音響特徴量の空間の一部であるクラスタと前記ラベルとの対応を示し、前記音ユニット群に前記音ユニットが現れる頻度の分散が、所定の分散よりも大きいことを特徴とする請求項1に記載の音響認識装置。
- 前記区切りデータは、前記音ユニット群の出現確率と、少なくとも1個の前記音ユニット群が与えられているときに次の音ユニット群の出現確率を示す確率モデルであることを特徴とする請求項1又は2に記載の音響認識装置。
- 前記音響同定部は、前記選択した音ユニット群系列を形成する音ユニットのうち、クラスタ間の距離が所定の距離よりも小さいクラスタのそれぞれに対応する音ユニットを相互に交換して生成した音ユニット群系列に対応した音響イベントを同定することを特徴とする請求項1から3のいずれかに記載の音響認識装置。
- 音響認識装置における音響認識方法において、
前記音響認識装置が、
音響信号に基づいて音響特徴量を算出する音響特徴量算出過程と、
ラベルデータ記憶部に記憶された音響特徴量と音の構成単位である音ユニットを示すラベルとの対応を示すラベルデータを参照して、前記音響特徴量に対応するラベルに変換するラベル変換過程と、
区切りデータ記憶部に記憶された少なくとも1個の音ユニットからなる音ユニット系列を少なくとも1個の音ユニット群に区切る確率を示す区切りデータを参照して、前記ラベルから形成されるラベル系列が音ユニット群毎に区切られた音ユニット群系列毎の確率を算出し、算出した確率に基づいて選択した音ユニット群系列に対応した音響イベントを、イベント記憶部に記憶された音響イベント毎の音ユニット群系列を示す音響イベントデータを参照して同定する音響同定過程と
を有する音響認識方法。 - 音響認識装置のコンピュータに、
音響信号に基づいて音響特徴量を算出する音響特徴量算出手順、
ラベルデータ記憶部に記憶された音響特徴量と音の構成単位である音ユニットを示すラベルとの対応を示すラベルデータを参照して、前記音響特徴量に対応するラベルに変換するラベル変換手順、
区切りデータ記憶部に記憶された少なくとも1個の音ユニット音系列を少なくとも1個の音ユニット群に区切る確率を示す区切りデータを参照して、前記ラベルから形成されるラベル系列が音ユニット群毎に区切られた音ユニット群系列毎の確率を算出し、算出した確率に基づいて選択した音ユニット群系列に対応した音響イベントを、イベント記憶部に記憶された音響イベント毎の音ユニット群系列を示す音響イベントデータを参照して同定する音響同定過程手順、
を実行させるための音響認識プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013181521A JP6085538B2 (ja) | 2013-09-02 | 2013-09-02 | 音響認識装置、音響認識方法、及び音響認識プログラム |
US14/468,576 US9911436B2 (en) | 2013-09-02 | 2014-08-26 | Sound recognition apparatus, sound recognition method, and sound recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013181521A JP6085538B2 (ja) | 2013-09-02 | 2013-09-02 | 音響認識装置、音響認識方法、及び音響認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015049398A JP2015049398A (ja) | 2015-03-16 |
JP6085538B2 true JP6085538B2 (ja) | 2017-02-22 |
Family
ID=52584441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013181521A Active JP6085538B2 (ja) | 2013-09-02 | 2013-09-02 | 音響認識装置、音響認識方法、及び音響認識プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9911436B2 (ja) |
JP (1) | JP6085538B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105632503B (zh) * | 2014-10-28 | 2019-09-03 | 南宁富桂精密工业有限公司 | 信息隐藏方法及系统 |
US10152298B1 (en) * | 2015-06-29 | 2018-12-11 | Amazon Technologies, Inc. | Confidence estimation based on frequency |
JP7006592B2 (ja) * | 2016-06-16 | 2022-01-24 | 日本電気株式会社 | 信号処理装置、信号処理方法および信号処理プログラム |
US20180254054A1 (en) * | 2017-03-02 | 2018-09-06 | Otosense Inc. | Sound-recognition system based on a sound language and associated annotations |
US20180268844A1 (en) * | 2017-03-14 | 2018-09-20 | Otosense Inc. | Syntactic system for sound recognition |
CN107295164B (zh) * | 2017-05-31 | 2020-05-26 | Oppo广东移动通信有限公司 | 闹钟铃声生成的方法、移动终端及存储介质 |
US10923110B2 (en) * | 2017-08-25 | 2021-02-16 | International Business Machines Corporation | Priors adaptation for conservative training of acoustic model |
CN107993664B (zh) * | 2018-01-26 | 2021-05-28 | 北京邮电大学 | 一种基于竞争神经网络的鲁棒说话人识别方法 |
US11341185B1 (en) * | 2018-06-19 | 2022-05-24 | Amazon Technologies, Inc. | Systems and methods for content-based indexing of videos at web-scale |
JP2022001967A (ja) * | 2018-09-11 | 2022-01-06 | ソニーグループ株式会社 | 音響イベント認識装置 |
JP6882814B2 (ja) * | 2018-09-13 | 2021-06-02 | LiLz株式会社 | 音解析装置及びその処理方法、プログラム |
JP7292646B2 (ja) * | 2019-12-11 | 2023-06-19 | 本田技研工業株式会社 | 音源分離装置、音源分離方法、およびプログラム |
CN111314557B (zh) * | 2020-02-20 | 2022-05-20 | 上海掌门科技有限公司 | 信息处理方法和装置 |
CN112735470B (zh) * | 2020-12-28 | 2024-01-23 | 携程旅游网络技术(上海)有限公司 | 基于时延神经网络的音频切割方法、系统、设备及介质 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5987069A (en) * | 1996-12-24 | 1999-11-16 | Gte Government Systems Corporation | Method and apparatus for variably allocating upstream and downstream communication spectra |
US6246982B1 (en) * | 1999-01-26 | 2001-06-12 | International Business Machines Corporation | Method for measuring distance between collections of distributions |
DE60236161D1 (de) * | 2001-07-20 | 2010-06-10 | Gracenote Inc | Automatische identifizierung von klangaufzeichnungen |
JP4209122B2 (ja) * | 2002-03-06 | 2009-01-14 | 旭化成株式会社 | 野鳥の鳴き声及び人の音声認識装置及びその認識方法 |
US20050171948A1 (en) * | 2002-12-11 | 2005-08-04 | Knight William C. | System and method for identifying critical features in an ordered scale space within a multi-dimensional feature space |
US6963835B2 (en) * | 2003-03-31 | 2005-11-08 | Bae Systems Information And Electronic Systems Integration Inc. | Cascaded hidden Markov model for meta-state estimation |
EP1616275A1 (en) * | 2003-04-14 | 2006-01-18 | Koninklijke Philips Electronics N.V. | Method and apparatus for summarizing a music video using content analysis |
SG140445A1 (en) * | 2003-07-28 | 2008-03-28 | Sony Corp | Method and apparatus for automatically recognizing audio data |
EP1531478A1 (en) * | 2003-11-12 | 2005-05-18 | Sony International (Europe) GmbH | Apparatus and method for classifying an audio signal |
US20050125223A1 (en) * | 2003-12-05 | 2005-06-09 | Ajay Divakaran | Audio-visual highlights detection using coupled hidden markov models |
RU2403626C2 (ru) * | 2005-06-09 | 2010-11-10 | А.Г.И. Инк. | Анализатор речи, обнаруживающий частоту основного тона, способ анализа речи и программа анализа речи |
CN1889172A (zh) * | 2005-06-28 | 2007-01-03 | 松下电器产业株式会社 | 可增加和修正声音类别的声音分类系统及方法 |
WO2008103925A1 (en) * | 2007-02-22 | 2008-08-28 | Personics Holdings Inc. | Method and device for sound detection and audio control |
JP4859130B2 (ja) | 2007-03-27 | 2012-01-25 | 株式会社メガチップス | 監視システム |
JP2009139894A (ja) * | 2007-12-11 | 2009-06-25 | Advanced Telecommunication Research Institute International | 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム |
US8762285B2 (en) * | 2008-01-06 | 2014-06-24 | Yahoo! Inc. | System and method for message clustering |
US9020816B2 (en) * | 2008-08-14 | 2015-04-28 | 21Ct, Inc. | Hidden markov model for speech processing with training method |
WO2010038385A1 (ja) * | 2008-09-30 | 2010-04-08 | パナソニック株式会社 | 音判定装置、音判定方法、及び、音判定プログラム |
WO2010086928A1 (ja) * | 2009-01-28 | 2010-08-05 | 三菱電機株式会社 | 音声認識装置 |
JP5356527B2 (ja) * | 2009-09-19 | 2013-12-04 | 株式会社東芝 | 信号分類装置 |
JP5174068B2 (ja) * | 2010-03-11 | 2013-04-03 | 株式会社東芝 | 信号分類装置 |
CN102237084A (zh) * | 2010-04-22 | 2011-11-09 | 松下电器产业株式会社 | 声音空间基准模型的在线自适应调节方法及装置和设备 |
JP2011250100A (ja) | 2010-05-26 | 2011-12-08 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8605830B2 (en) * | 2010-07-30 | 2013-12-10 | National Instruments Corporation | Blind carrier/timing recovery and detection of modulation scheme |
JP5599064B2 (ja) * | 2010-12-22 | 2014-10-01 | 綜合警備保障株式会社 | 音認識装置および音認識方法 |
JP5602653B2 (ja) * | 2011-01-31 | 2014-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 情報処理装置、情報処理方法、情報処理システム、およびプログラム |
US9443511B2 (en) * | 2011-03-04 | 2016-09-13 | Qualcomm Incorporated | System and method for recognizing environmental sound |
JP5917270B2 (ja) * | 2011-05-27 | 2016-05-11 | キヤノン株式会社 | 音検出装置及びその制御方法、プログラム |
US8949237B2 (en) * | 2012-01-06 | 2015-02-03 | Microsoft Corporation | Detecting overlapping clusters |
JP5800718B2 (ja) * | 2012-01-12 | 2015-10-28 | 日本電信電話株式会社 | 特定状況モデルデータベース作成装置とその方法と状況推定装置とプログラム |
JP5749186B2 (ja) * | 2012-02-06 | 2015-07-15 | 日本電信電話株式会社 | 音響モデル適応装置と音声認識装置とそれらの方法と、プログラム |
-
2013
- 2013-09-02 JP JP2013181521A patent/JP6085538B2/ja active Active
-
2014
- 2014-08-26 US US14/468,576 patent/US9911436B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9911436B2 (en) | 2018-03-06 |
US20150066507A1 (en) | 2015-03-05 |
JP2015049398A (ja) | 2015-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6085538B2 (ja) | 音響認識装置、音響認識方法、及び音響認識プログラム | |
Yu et al. | Calibration of confidence measures in speech recognition | |
US7421387B2 (en) | Dynamic N-best algorithm to reduce recognition errors | |
JP6501260B2 (ja) | 音響処理装置及び音響処理方法 | |
US8738378B2 (en) | Speech recognizer, speech recognition method, and speech recognition program | |
Moselhy et al. | LPC and MFCC performance evaluation with artificial neural network for spoken language identification | |
JP2011065120A (ja) | すべての言語の音声識別及び音声識別を利用した単字入力の方法 | |
JP5692493B2 (ja) | 隠れマルコフモデル作成プログラム、情報記憶媒体、隠れマルコフモデル作成システム、音声認識システム及び音声認識方法 | |
WO2018051945A1 (ja) | 音声処理装置、音声処理方法、および記録媒体 | |
KR101068122B1 (ko) | 음성인식기에서 가비지 및 반단어 모델 기반의 거절 장치 및 방법 | |
Swain et al. | Study of feature combination using HMM and SVM for multilingual Odiya speech emotion recognition | |
CN112151015A (zh) | 关键词检测方法、装置、电子设备以及存储介质 | |
Khan et al. | An intelligent system for spoken term detection that uses belief combination | |
JP5183120B2 (ja) | 平方根ディスカウンティングを使用した統計的言語による音声認識 | |
US20050187767A1 (en) | Dynamic N-best algorithm to reduce speech recognition errors | |
JP2007240589A (ja) | 音声認識信頼度推定装置、その方法、およびプログラム | |
CN111640423B (zh) | 一种词边界估计方法、装置及电子设备 | |
JP2011053569A (ja) | 音響処理装置およびプログラム | |
Ons et al. | A self learning vocal interface for speech-impaired users | |
Dua et al. | Noise robust automatic speech recognition: review and analysis | |
Walter et al. | An evaluation of unsupervised acoustic model training for a dysarthric speech interface | |
Kurian et al. | Connected digit speech recognition system for Malayalam language | |
CN110419078B (zh) | 用于自动语音识别的系统和方法 | |
JP7107377B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
JP5315976B2 (ja) | 音声認識装置、音声認識方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6085538 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |