JP2021124887A - 音響診断方法、音響診断システム、及び音響診断プログラム - Google Patents

音響診断方法、音響診断システム、及び音響診断プログラム Download PDF

Info

Publication number
JP2021124887A
JP2021124887A JP2020017101A JP2020017101A JP2021124887A JP 2021124887 A JP2021124887 A JP 2021124887A JP 2020017101 A JP2020017101 A JP 2020017101A JP 2020017101 A JP2020017101 A JP 2020017101A JP 2021124887 A JP2021124887 A JP 2021124887A
Authority
JP
Japan
Prior art keywords
sound
spectrogram
unit
state estimation
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020017101A
Other languages
English (en)
Other versions
JP7304301B2 (ja
Inventor
佳小里 末房
Kaori Suefusa
佳小里 末房
洋平 川口
Yohei Kawaguchi
洋平 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020017101A priority Critical patent/JP7304301B2/ja
Publication of JP2021124887A publication Critical patent/JP2021124887A/ja
Application granted granted Critical
Publication of JP7304301B2 publication Critical patent/JP7304301B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

【課題】設備の状態を診断する音響診断において、大量の学習データを要さず、精度よく状態推定し得るようにする。【解決手段】音響診断システム1が実行する音響診断方法は、診断対象設備の稼働音を含む入力音を取得する入力音取得工程と、入力音のスペクトログラムを計算する前処理工程とを含む。さらに、音響診断方法は、スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離工程を含む。さらに、音響診断方法は、調波音スペクトログラム及び突発音スペクトログラムを連結した特徴量ベクトルを生成する特徴量ベクトル生成工程と、特徴量ベクトルと学習モデルに基づいて診断対象設備の状態を推定する状態推定工程とを含む。【選択図】図1

Description

本発明は、音響診断方法、音響診断システム、及び音響診断プログラムに関する。
設備の異常や故障予兆などの状態は、音に現れることが多い。そこで、設備の状態を把握するために、設備の稼働音に基づく音響診断は重要である。音響診断では、稼働音の本質的な特徴を埋め込んだ特徴抽出方法が求められる。
設備の状態を音響診断する方法として、特許文献1には、「昇降機診断システムは、計測データ(センサデータ)から特徴量を求め、診断対象となる昇降機の計測データに基づき当該昇降機の運転状態を特定し、診断対象の昇降機の種別又は識別子と当該昇降機について特定した運転状態との組み合わせに対応する、正常モデルと診断用閾値との組み合わせを選択し、診断対象の昇降機について取得した計測データから求めた特徴量と正常モデルとに基づき、特徴量が正常状態で観測される確率を求め、求めた確率を診断対象の昇降機について取得した閾値と比較することにより昇降機の状態を診断する。昇降機診断システムは、例えば、複雑度の異なる複数の正常モデルを学習し、学習した複数の正常モデルのうち複雑度が最小のものを選択する。」と記載されている。
特開2018-95429号公報
上述の特許文献1に開示された技術は、音響センサで計測した信号そのものから特徴量を抽出し、学習済みの正常モデルに入力することで設備の状態を推定する。しかしながら、この従来技術では、対象設備音の周波数構造が時間変化する場合、または、環境雑音が大きい場合、特徴量空間が複雑になることから、大量の学習データを要したり、精度よく状態推定ができなかったりするという問題がある。
本発明は、上述の点を考慮してなされたものであって、設備の状態を診断する音響診断において、大量の学習データを要さず、精度よく状態推定し得るようにすることを1つの目的とする。
上記課題を解決するために、本発明においては、一態様として、音響診断システムが実行する音響診断方法は、診断対象設備の稼働音を含む入力音を取得する入力音取得工程と、前記入力音のスペクトログラムを計算する前処理工程と、前記スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離工程と、前記調波音スペクトログラム及び前記突発音スペクトログラムを連結した特徴量ベクトルを生成する特徴量ベクトル生成工程と、前記特徴量ベクトルと学習モデルに基づいて前記診断対象設備の状態を推定する状態推定工程とを含むようにした。
本発明によれば、例えば、設備の状態を診断する音響診断において、大量の学習データを要さず、精度よく状態推定できる。
実施形態1に係る音響診断システムの状態推定モデルの学習時の構成を示すブロック図である。 実施形態1に係る音響診断システムの状態推定モデルの学習時の処理を示すフローチャートである。 実施形態1に係る音響診断システムの状態推定実行時の構成を示すブロック図である。 実施形態1に係る音響診断システムの状態推定実行時の処理を示すフローチャートである。 実施形態2に係る音響診断システムの正常音モデルの学習時の構成を示すブロック図である。 実施形態2に係る音響診断システムの異常検知実行時の構成を示すブロック図である。 実施形態3に係る音響診断システムの状態推定モデルの学習時の構成を示すブロック図である。 実施形態3に係る音響診断システムの状態推定モデルの学習時の処理を示すフローチャートである。 実施形態3に係る音響診断システムの状態推定実行時の構成を示すブロック図である。 実施形態3に係る音響診断システムの状態推定実行時の処理を示すフローチャートである。 実施形態4に係る音響診断システムの状態推定モデルの学習時の構成を示すブロック図である。 実施形態4に係る音響診断システムの状態推定モデルの学習時の処理を示すフローチャートである。 実施形態4に係る音響診断システムの状態推定実行時の構成を示すブロック図である。 実施形態4に係る音響診断システムの状態推定実行時の処理を示すフローチャートである。 実施形態5に係る音響診断システムの状態推定モデルの学習時の構成を示すブロック図である。 実施形態5に係る音響診断システムの状態推定実行時の構成を示すブロック図である。 音響診断システムを実現するコンピュータのハードウェア構成を示す図である。
以下、本発明の好適な実施形態を説明する。以下において、同一又は類似の要素及び処理に同一の符号を付し、重複説明を省略する。また、後出の実施形態では、既出の実施形態との差異のみを説明し、重複説明を省略する。
また、以下の説明及び各図で示す構成及び処理は、本発明の理解及び実施に必要な程度で実施形態の概要を例示するものであり、本発明に係る実施の態様を限定することを意図する趣旨ではない。また、各実施形態及び各変形例は、本発明の趣旨を逸脱せず、整合する範囲内で、一部又は全部を組合せることができる。
[実施形態1]
<実施形態1の音響診断システム1の状態推定モデルの学習時の構成>
図1は、実施形態1に係る音響診断システム1の状態推定モデルの学習時の構成を示すブロック図である。音響診断システム1は、状態推定モデルの学習時の構成として、入力音取得部11、前処理部12、調波音−突発音音源分離部13、ベクトル連結部14、状態推定モデル学習部15、及び状態推定モデルデータベース16を有する。
入力音取得部11は、マイクロホンを介して取得又は収録された音響診断対象の設備の稼働音を含むアナログ入力音をデジタル入力音(時間領域デジタル入力音)に変換する。
前処理部12は、入力音取得部11によって変換されたデジタル入力音をフレームごとに分割し、そのフレームに窓関数を乗算し、この窓関数乗算後信号にフーリエ変換を施して、周波数領域信号を計算する。周波数領域信号の計算では、高速フーリエ変換(FFT:Fast Fourier Transform)、短時間フーリエ変換(STFT:Short-Time Fourier Transform)などの他、他の周波数解析手法が用いられてもよい。
前処理部12によって計算された周波数領域信号は、フレームサイズがNであれば、(N/2+1)=M個の周波数ビンそれぞれに1個の複素数が対応する、M個の複素数の組である。さらに、前処理部12は、周波数領域信号から入力音スペクトログラム(パワースペクトログラム又は振幅スペクトログラム)を計算する。
調波音-突発音音源分離(HPSS:Harmonic/Percussive Sound Separation)部13は、前処理部12によって計算された入力音スペクトログラムを調波音成分と突発音成分に分離する。HPSSとしては、メディアンフィルタを利用したもの(Fitzgerald, D. (2010). Harmonic/Percussive Separation using Median Filtering. 13th International Conference on Digital Audio Effects (DAFX10), Graz, Austria, 2010.)や、スペクトログラムの時間変化に基づくもの(橘秀幸, 小野順貴, 嵯峨山茂樹.(2009). スペクトルの時間変化に基づく音楽音響信号からの歌声成分の強調と抑圧. 研究報告音楽情報科学 (MUS), 2009(12), 1-6.)、スペクトログラムの滑らかさの異方性に基づくもの(Tachibana, H., Ono, N., Kameoka, H., & Sagayama, S. (2014). Harmonic/percussive sound separation based on anisotropic smoothness of spectrograms. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 22(12), 2059-2073.)などを用いてよい。例えば、スペクトログラムの時間変化に基づくHPSSを利用する場合、目的関数は式(1)、制約条件は式(2)のように定義される。
Figure 2021124887
Figure 2021124887
ここで、入力信号、調波音成分、突発音成分のスペクトログラムをそれぞれWt,k、Ht,k、Pt,kと表記し、tとkはそれぞれ時間インデックスと周波数インデックスを表す。
上記の最適化問題は、式(3)、式(4)を反復して求めることにより近似的に求められる。
Figure 2021124887
Figure 2021124887
ベクトル連結部14は、調波音成分のベクトル(調波音スペクトログラム)と突発音成分のベクトル(突発音スペクトログラム)を連結し、特徴量ベクトルを生成する。状態推定モデル学習部15は、ベクトル連結部14によって得られた複数の特徴量ベクトルをもとにモデル学習し、学習した状態推定モデルを状態推定モデルデータベース16に格納する。
なお、状態推定モデルとして、Support Vector Classifier(SVC)、1-Class Support Vector Classifier、Multi-Class Support Vector Classifier、Hidden Markov Model(HMM)、Nearest Neighbor Classifierなどを用いてよい。
<実施形態1の状態推定モデルの学習処理>
図2は、実施形態1に係る音響診断システム1の状態推定モデルの学習時の処理を示すフローチャートである。
ステップS11では、入力音取得部11は、マイクロホンを介して取得又は収録された、音響診断対象の設備の稼働音を含む学習用のアナログ入力音を、デジタル入力音(時間領域デジタル入力音)に変換する。
次にステップS12では、前処理部12は、入力音取得部11によって変換されたデジタル入力音をフレームごとに分割する。次にステップS13では、前処理部12は、ステップS12で分割されたフレームに窓関数を乗算する。次にステップS14では、前処理部12は、ステップS13での窓関数乗算後信号にフーリエ変換を施して、周波数領域信号を計算する。次にステップS15では、前処理部12は、ステップS14で計算された周波数領域信号から入力音スペクトログラムを計算する。
次にステップS16では、調波音−突発音音源分離部13は、前処理部12によって計算された入力音スペクトログラムを調波音スペクトログラムと突発音スペクトログラムに分離する。次にステップS17では、ベクトル連結部14は、調波音スペクトログラムと突発音スペクトログラムをベクトル連結した特徴量ベクトルを生成する。次にステップS18では、状態推定モデル学習部15は、ベクトル連結部14によって得られた特徴量ベクトルをもとに状態推定モデルを学習し、状態推定モデルデータベース16に格納する。
<実施形態1の音響診断システム1の状態推定実行時の構成>
図3は、実施形態1に係る音響診断システム1の状態推定実行時の構成を示すブロック図である。音響診断システム1は、状態推定実行時の構成として、入力音取得部11、前処理部12、調波音−突発音音源分離部13、ベクトル連結部14、状態推定モデルデータベース16、状態推定部21、及び状態推定結果出力部22を有する。
状態推定部21は、状態推定モデルデータベース16から状態推定モデルを読み出し、ベクトル連結部14で生成された特徴量ベクトルを入力として状態推定処理を実行する。すなわち、状態推定部21は、連続するLフレームからなる特徴量ベクトルの時系列を計算し、特徴量ベクトルから推定される各状態クラスに対しその時系列がどの程度の確率で生成されうるかを計算する。
状態推定結果出力部22は、状態推定部21による推定結果を出力する。例えば、状態推定結果出力部22は、各状態クラスと、対応する確率とを出力してもよいし、最大確率の状態クラスを出力してもよい。
<実施形態1の状態推定実行時処理>
図4は、実施形態1に係る音響診断システム1の状態推定実行時の処理を示すフローチャートである。本処理において、ステップS11では、入力音取得部11は、マイクロホンを介して取得又は収録された、音響診断対象の設備の稼働音を含む診断用のアナログ入力音を、デジタル入力音(時間領域デジタル入力音)に変換する。
また、ステップS17に続きステップS21では、状態推定部21は、状態推定モデルデータベース16から読み出した状態推定モデルをもとに、ベクトル連結部14で生成された特徴量ベクトルを入力として状態推定処理を実行する。次にステップS22では、状態推定結果出力部22は、ステップS21で推定された状態推定結果を出力する。
<実施形態1の効果>
本実施形態によれば、機械等の人工の設備音は本質的に調波音成分と突発音成分のどちらかに属すると仮定できるため、調波音-突発音音源分離(HPSS)を利用することにより、対象音が複雑な場合であっても状態推定に効果的な特徴量を得ることができる。
また、対象音の特徴が対象の状態により異なる場合(例えば、正常状態では定常状態であった音が異常状態では非定常音に変化するように、調波音成分及び突発音成分の分布が変化する場合など)であっても、HPSSにより分離した調波音成分と突発音成分のベクトルを結合することで、変化に対応可能な特徴量を得ることができ、異音検知精度を高めることができる。
[実施形態2]
<実施形態2の音響診断システム1Bの状態推定モデルの学習時の構成>
図5は、実施形態2に係る音響診断システム1Bの正常音モデルの学習時の構成を示すブロック図である。音響診断システム1Bは異常検知システムであり、実施形態1との違いは、音響診断により推定する設備の状態を正常か異常の二つに限定している点である。このため、音響診断システム1Bは、正常音モデルの学習時の構成として、音響診断システム1と比較して、状態推定モデル学習部15及び状態推定モデルデータベース16のそれぞれに代えて、正常音モデル学習部15B及び正常音モデルデータベース16Bを有する。
正常音モデル学習部15Bは、ベクトル連結部14によって得られた複数の特徴量ベクトルをもとに、連続するLフレームからなる特徴量ベクトルの正常時の分布をモデル学習し、学習した正常音モデルを正常音モデルデータベース16Bに格納する。
なお、正常音モデルとして、混合ガウス分布(GMM)、1クラスサポートベクター分類器、部分空間法、局所部分空間法、k-meansクラスタリング、Deep Neural Network(DNN) autoencoder、Convolutional Neural Network(CNN) autoencoder、Long Short Term Memory(LSTM) autoencoder、variational autoencoder(VAE)などを用いてよい。
各正常音モデルには、それぞれのモデルに適したアルゴリズムが知られており、それを用いて学習する。例えば、GMMであればEMアルゴリズムにより、あらかじめ定めたクラスタ数の個数だけのガウス分布の組み合わせによる当てはめがなされる。学習された正常音モデルは、算出されたモデルパラメタによって規定される。そのモデルパラメタ全てを正常音モデルデータベース16Bに格納される。
<実施形態2の音響診断システム1Bの状態推定実行時の構成>
図6は、実施形態2に係る音響診断システム1Bの異常検知実行時の構成を示すブロック図である。音響診断システム1Bは、状態推定実行時の構成として、音響診断システム1と比較して、状態推定部21、状態推定結果出力部22、及び状態推定モデルデータベース16のそれぞれに代えて、異常検知部21B、異常度出力部22B、及び正常音モデルデータベース16Bを有する。
異常検知部21Bは、正常音モデルデータベース16Bから正常音モデルを読み出し、診断対象スペクトログラムに対して状態推定処理を実行する。すなわち、連続するLフレームからなる特徴量ベクトルの時系列を計算し、その時系列が正常音モデルから十分な確率で生成されうるかどうかを判定する。
異常検知部21Bは、例えば、正常音モデルがGMMの場合、M×L次元の特徴量ベクトルvが正常音モデル(モデルパラメタΘ=((μ1,Γ1,π1)、・・・(μq,Γq,πq)、(μQ,ΓQ,πQ))から生成される確率p(v|Θ)を、式(5)、式(6)により計算する。
Figure 2021124887
Figure 2021124887
この場合、異常検知部21Bは、例えば、確率p(v|Θ)の負の対数尤度“-log(p(v|Θ))”を推定異常度として出力する。
また、異常検知部21Bは、正常音モデルとしてDeep Neural Network(DNN) autoencoderを用いた場合は、学習時に、SGD、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adamなどの最適化アルゴリズムによって、入力した正常音の特徴量ベクトルと出力される特徴量ベクトルとの間の復元誤差が所定値未満となるように内部パラメタが最適化される。よって、異常音の特徴量ベクトルを入力した場合、入力した異常音の特徴量ベクトルと出力される特徴量ベクトルとの間の復元誤差が所定値以上になることが期待される。よって、異常検知部21Bは、この復元誤差を推定異常度として出力する。
異常度出力部22Bは、推定異常度の値、及び、推定異常度の値が一定以上であれば異常である旨を出力する。
なお、実施形態2の音響診断システム1Bの状態推定モデルの学習時の処理では、実施形態1の音響診断システム1の状態推定モデルの学習時の処理(図2)において、ステップS18で、正常音モデル学習部15Bが、ベクトル連結部14によって得られた特徴量ベクトルをもとに正常音モデルを学習し、正常音モデルデータベース16Bに格納する。
また、実施形態2の音響診断システム1Bの状態推定実行時の処理では、実施形態1の音響診断システム1の状態推定実行時の処理(図4)において、ステップS21で、異常検知部21Bは、正常音モデルデータベース16Bから読み出した状態推定モデルをもとに、ベクトル連結部14で生成された特徴量ベクトルを入力として異常検知処理を実行する。また、ステップS22では、異常度出力部22Bは、ステップS21Bで推定された異常検知結果を出力する。
<実施形態2の効果>
本実施形態によれば、診断対象音が正常音であるか異常音であるかを判別することができる。
[実施形態3]
<実施形態3の音響診断システム1Cの状態推定モデルの学習時の構成>
図7は、実施形態3に係る音響診断システム1Cの状態推定モデルの学習時の構成を示すブロック図である。本実施形態は、低頻度成分を雑音として除去することで状態推定精度を高めることを目的とする。音響診断システム1Cは、実施形態1と比較して、状態推定モデルの学習時の構成として、調波音−突発音音源分離部13の前段に最近傍フィルタリング部12Cを有し、低頻度な成分(音声、作業音、流水音などの突発的あるいは不規則な音)を不要な雑音として除去する点が異なる。
最近傍フィルタリング部12Cは、前処理部12によって出力された入力音スペクトログラムに対し最近傍フィルタをかけ、低頻度成分と高頻度成分に分離し、低頻度成分を除去した低頻度成分除去後スペクトログラムを出力する。調波音−突発音音源分離部13は、最近傍フィルタリング部12Cによって低頻度成分が除去された低頻度成分除去後スペクトログラムを調波音スペクトログラムと突発音スペクトログラムに分離する。
<実施形態3の状態推定モデルの学習処理>
図8は、実施形態3に係る音響診断システム1Cの状態推定モデルの学習時の処理を示すフローチャートである。実施形態3に係る音響診断システム1Cの状態推定モデルの学習時の処理は、実施形態1に係る音響診断システム1の状態推定モデルの学習時の処理(図2)と比較して、次の点が異なる。
すなわち、ステップS15に続きステップS15Cでは、最近傍フィルタリング部12Cは、前処理部12によって出力された入力音スペクトログラムに対し最近傍フィルタをかけ、低頻度成分と高頻度成分に分離し、低頻度成分を除去した低頻度成分除去後スペクトログラムを出力する。ステップS15Cに続きステップS16では、調波音−突発音音源分離部13は、最近傍フィルタリング部12Cによって低頻度成分が除去された低頻度成分除去後スペクトログラムを調波音スペクトログラムと突発音スペクトログラムに分離する。
<実施形態3の音響診断システム1Cの状態推定実行時の構成>
図9は、実施形態3に係る音響診断システム1Cの状態推定実行時の構成を示すブロック図である。音響診断システム1Cは、音響診断システム1と比較して、状態推定実行時の構成として、調波音−突発音音源分離部13の前段に最近傍フィルタリング部12Cを有する点が異なる。
<実施形態3の音響診断システム1Cの状態推定実行時の処理>
図10は、実施形態3に係る音響診断システム1Cの状態推定実行時の処理を示すフローチャートである。実施形態3に係る音響診断システム1Cの状態推定実行時の処理は、実施形態1に係る音響診断システム1の状態推定実行時の処理(図4)と比較して、次の点が異なる。
すなわち、ステップS15Cでは、最近傍フィルタリング部12Cは、前処理部12によって計算された入力音スペクトログラムに対し低頻度成分を除去した低頻度成分除去後スペクトログラムを出力する。次にステップS16では、調波音−突発音音源分離部13は、最近傍フィルタリング部12Cによって出力された低頻度成分除去後スペクトログラムを調波音スペクトログラムと突発音スペクトログラムに分離する。
<実施形態3の効果>
本実施形態によれば、例えば診断対象の装置らしくない環境雑音と仮定できる低頻度の成分(音声、作業音、流水音など突発的あるいは不規則な音)を、HPSSの前段のNNフィルタで雑音除去することで、対象音の特徴量の複雑さを低減し、特徴量に基づく音響診断の精度を向上させることができる。
[実施形態4]
本実施形態では、複数チャンネルのマイクロホンを介して取得又は収録された音声データを利用し、歪みの無いフィルタリングにより状態推定精度を高める。実施形態3と比較して、本実施形態では、診断に用いるデータを単チャンネルから複数チャンネルに拡張し、無歪のフィルタリングを実現する点で異なる。
<実施形態4の音響診断システム1Dの状態推定モデルの学習時の構成>
図11は、実施形態4に係る音響診断システム1Dの状態推定モデルの学習時の構成を示すブロック図である。
音響診断システム1Dは、状態推定モデルの学習時の構成として、多チャンネル入力音取得部11D、前処理部12、最近傍フィルタリング部12C、調波音−突発音音源分離部13、ステアリングベクトル生成部13D1,13D6、雑音生成部13D2,13D7、空間共分散行列計算部13D3,13D8、フィルタ計算部13D4,13D9、フィルタリング部13D5,13D10、ベクトル連結部14、状態推定モデル学習部15、及び状態推定モデルデータベース16を有する。
多チャンネル入力音取得部11Dは、複数チャンネルのマイクロホンで収録したアナログ入力音をデジタル入力音に変換する。
ステアリングベクトル生成部13D1は、調波音スペクトログラムを目的音としたときのステアリングベクトルを生成する。また、ステアリングベクトル生成部13D6は、突発音スペクトログラムを目的音としたときのステアリングベクトルを生成する。ステアリングベクトル生成部13D1,13D6は、図11では、異なる構成として示しているが、単一の構成であってもよい。
雑音生成部13D2は、調波音−突発音音源分離部13によって分離された突発音スペクトログラムと、最近傍フィルタリング部12Cによって分離された低頻度成分スペクトログラムを混合し、雑音を生成する。また、雑音生成部13D7は、調波音−突発音音源分離部13によって分離された調波音スペクトログラムと、最近傍フィルタリング部12Cによって分離された低頻度成分スペクトログラムを混合し、雑音を生成する。雑音生成部13D2,13D7は、図11では、異なる構成として示しているが、単一の構成であってもよい。
空間共分散行列計算部13D3は、雑音生成部13D2によって生成された雑音の空間共分散行列を求める。また、空間共分散行列計算部13D8は、雑音生成部13D7によって生成された雑音の空間共分散行列を求める。空間共分散行列計算部13D3,13D8は、図11では、異なる構成として示しているが、単一の構成であってもよい。
フィルタ計算部13D4は、調波音を目的音としたステアリングベクトルと突発音を雑音とした空間共分散行列から調波音を強調するフィルタを求める。また、フィルタ計算部13D9は、突発音を目的音としたステアリングベクトルと調波音を雑音とした空間共分散行列から突発音を強調するフィルタを求める。フィルタの計算にはMinimum Variance distortionless Response(MVDR)などを用いてよい。フィルタ計算部13D4,13D9は、図11では、異なる構成として示しているが、単一の構成であってもよい。
フィルタリング部13D5は、多チャンネル入力音取得部11Dによって取得された入力音に対し、フィルタ計算部13D4によって計算された調波音を強調するフィルタを適用し、無歪の調波音成分を求める。また、フィルタリング部13D10は、多チャンネル入力音取得部11Dによって取得された入力音に対し、フィルタ計算部13D9によって計算された突発音を強調するフィルタを適用し、無歪の突発音成分を求める。フィルタリング部13D5,13D10は、図11では、異なる構成として示しているが、単一の構成であってもよい。
ベクトル連結部14は、フィルタリング部13D5によって計算された無歪の調波音成分と、フィルタリング部13D10によって計算された無歪の突発音成分を連結する。
<実施形態4の音響診断システム1Dの状態推定モデルの学習時の処理>
図12は、実施形態4に係る音響診断システム1Dの状態推定モデルの学習時の処理を示すフローチャートである。実施形態4に係る音響診断システム1Dの状態推定モデルの学習時の処理は、実施形態3に係る音響診断システム1Cの状態推定モデルの学習時の処理(図8)と比較して、次の点が異なる。
ステップS11Dでは、多チャンネル入力音取得部11Dは、多チャンネルマイクロホンを介して取得又は収録された音響診断対象の設備の稼働音を含む学習用のアナログ入力音を、デジタル入力音(時間領域デジタル入力音)に変換する。
また、ステップS16に続きステップS16D1では、ステアリングベクトル生成部13D1は調波音スペクトログラムを用いて調波音スペクトログラムを目的音としたときのステアリングベクトルを生成する。また、ステップS16D1では、ステアリングベクトル生成部13D6は突発音スペクトログラムを用いて突発音スペクトログラムを目的音としたときのステアリングベクトルを生成する。
また、ステップS16に続きステップS16D2では、雑音生成部13D2が突発音スペクトログラムと低頻度成分スペクトログラムを混合して雑音を生成し、空間共分散行列計算部13D3が雑音生成部13D2によって生成された雑音の空間共分散行列を求める。また、ステップS16D2では、雑音生成部13D7は調波音スペクトログラムと低頻度成分スペクトログラムを混合して雑音を生成し、空間共分散行列計算部13D8は雑音生成部13D7によって生成された雑音の空間共分散行列を求める。
次にステップS16D3では、フィルタ計算部13D4は、ステアリングベクトル生成部13D1によって生成されたステアリングベクトルと、空間共分散行列計算部13D3によって計算された空間共分散行列から調波音を強調するフィルタを求める。また、ステップS16D3では、フィルタ計算部13D9は、ステアリングベクトル生成部13D6によって生成されたステアリングベクトルと、空間共分散行列計算部13D8によって計算された空間共分散行列から突発音を強調するフィルタを求める。
次にステップS16D4では、フィルタリング部13D5は、多チャンネル入力音取得部11Dからの入力音に対してフィルタ計算部13D4によって計算された調波音を強調するフィルタを適用することで、無歪の調波音成分を求める。また、ステップS16D4では、フィルタリング部13D10は、多チャンネル入力音取得部11Dからの入力音に対してフィルタ計算部13D9によって計算された突発音を強調するフィルタを適用することで、無歪の突発音成分を求める。
次にステップS17では、ベクトル連結部14は、ステップS16D4で求められた無歪の調波音成分及び無歪の突発音成分をベクトル連結する。
<実施形態4の音響診断システム1Dの状態推定実行時の構成>
図13は、実施形態4に係る音響診断システム1Dの状態推定実行時の構成を示すブロック図である。音響診断システム1Dは、状態推定実行時の構成として、音響モデル学習時の構成と比較して、状態推定モデル学習部15及び状態推定モデルデータベース16のそれぞれに代えて、状態推定部21、状態推定結果出力部22、及び状態推定モデルデータベース16を有する。
<実施形態4の音響診断システム1Dの状態推定実行時の処理>
図14は、実施形態4に係る音響診断システムの状態推定実行時の処理を示すフローチャートである。実施形態4に係る音響診断システム1Dの状態推定実行時の処理は、状態推定モデルの学習時の処理(図12)と比較して、ステップS18に代えてステップS21及びS22が実行される点が異なる。
<実施形態4の効果>
本実施形態では、多チャンネルマイクロホンを用いて取得又は収録された音響診断対象の設備の稼働音を含む対象音を高頻度成分と低頻度成分とに分離し、高頻度成分をH成分(調波音成分)とP成分(突発音成分)に分離する。H成分のステアリングベクトルを生成し、P成分及び低頻度成分を用いてH成分に対する雑音の空間共分散行列を求める。また、P成分のステアリングベクトルを生成し、H成分及び低頻度成分を用いてP成分に対する雑音の空間共分散行列を求める。そして、これらのステアリングベクトル及び空間共分散行列を用いて対象音を強調するフィルタを生成し、フィルタリングすることで、異常検知の精度を高めることができる。
[実施形態5]
本実施形態では、HPSSによって入力音が音源分離された調波音及び突発音の何れか一方を強調するフィルタを計算し、多チャンネルの対象音に対し、調波音及び突発音の何れか一方からステアリングベクトルを生成し、他方から空間共分散行列を生成し、調波音及び突発音の何れか一方を強調するフィルタリングを行って、状態推定精度を高める。
本実施形態は、目的音を調波音及び突発音の何れか一方に限定し、フィルタリング後のスペクトログラムのベクトルを連結しない点で実施形態4と異なる。特に、目的音が調波音及び突発音の何れであるかが明らかであり、設備の状態に関わらず目的音が調波音及び突発音の何れであるかが変化しない場合に、本実施形態は有効である。
<実施形態5の音響診断システム1Eの状態推定モデルの学習時の構成>
図15は、実施形態5に係る音響診断システム1Eの状態推定モデルの学習時の構成を示すブロック図である。
音響診断システム1Eは、状態推定モデルの学習時の構成として、多チャンネル入力音取得部11D、前処理部12、最近傍フィルタリング部12C、調波音−突発音音源分離部13、ステアリングベクトル生成部13E1、空間共分散行列計算部13E2、フィルタ計算部13E3、フィルタリング部13E4、状態推定モデル学習部15、及び状態推定モデルデータベース16を有する。
ステアリングベクトル生成部13E1は、調波音−突発音音源分離部13によって入力音が分離された調波音スペクトログラムを用いて調波音スペクトログラムを目的音としたときのステアリングベクトルを生成する。空間共分散行列計算部13E2は、突発音スペクトログラムから空間共分散行列を計算する。
フィルタ計算部13E3は、調波音を目的音としたステアリングベクトルと突発音を雑音とした空間共分散行列から調波音を強調するフィルタを求める。フィルタリング部13E4は、多チャンネル入力音取得部11Dによって取得された入力音に対し、フィルタ計算部13E3によって計算された調波音を強調するフィルタを適用し、無歪の調波音成分を求める。
<実施形態5の音響診断システム1Eの状態推定実行時の構成>
図16は、実施形態5に係る音響診断システム1Eの状態推定実行時の構成を示すブロック図である。音響診断システム1Eは、状態推定実行時の構成として、音響モデル学習時の構成と比較して、状態推定モデル学習部15及び状態推定モデルデータベース16に代えて、状態推定部21、状態推定結果出力部22、及び状態推定モデルデータベース16を有する。
なお、図15及び図16では、調波音スペクトログラムからステアリングベクトルを生成し、突発音スペクトログラムから空間共分散行列を計算し、これらから目的音の調波音を強調した無歪の調波音成分を求めるとしている。しかしこれに限らず、突発音スペクトログラムからステアリングベクトルを生成し、調波音スペクトログラムから空間共分散行列を計算し、これらから目的音の突発音を強調した無歪の突発音成分を求めるとしてもよい。
なお、実施形態5の音響診断システム1Eの状態推定モデルの学習時の処理では、実施形態4の音響診断システム1Dの状態推定モデルの学習時の処理(図12)及び状態推定実行時の処理(図14)において、ステップS16D1で、ステアリングベクトル生成部16D1が、調波音−突発音音源分離部13によって分離された調波音スペクトログラムからステアリングベクトルを生成する。また、ステップS16D2で、空間共分散行列計算部13E2が、調波音−突発音音源分離部13によって分離された突発音スペクトログラムから空間共分散行列を計算する。
<実施形態5の効果>
本実施形態では、対象音と周辺雑音がそれぞれ調波音成分と突発音成分に分離される場合、調波音成分を用いて対象音のステアリングベクトルを生成し、突発音成分を用いて雑音の空間共分散行列を求めることができる。それらを用いて対象音を強調するフィルタを生成し、フィルタリングすることで異常検知の精度を高めることができる。
<音響診断システム1,1B,1C,1D,1Eを実現するコンピュータ5000>
図17は、音響診断システム1,1B,1C,1D,1Eを実現するコンピュータ5000のハードウェア構成を示す図である。
音響診断システム1,1B,1C,1D,1Eを実現するコンピュータ5000は、CPU(Central Processing Unit)に代表されるプロセッサ5300、RAM(Random Access Memory)等のメモリ5400、入力装置5600(例えば単チャンネルマイクロホン、多チャンネルマイクロホン、キーボード、マウス、タッチパネル等の接続インターフェース)、及び出力装置5700(例えば外部ディスプレイモニタに接続されたビデオグラフィックカード)が、メモリコントローラ5500を通して相互接続される。コンピュータ5000において、所定のプログラムがI/O(Input/Output)コントローラ5200を介してSSDやHDD等の外部記憶装置5800から読み出されて、プロセッサ5300及びメモリ5400の協働により実行されることにより、音響診断システムが実現される。あるいは、音響診断システムを実現するためのプログラムは、ネットワークインターフェース5100を介した通信により外部のコンピュータから取得されてもよい。また、音響診断システムを実現するためのプログラムは記録媒体に記録され、媒体読み取り装置によって読み取られて取得されてもよい。
本発明は上記した実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、矛盾しない限りにおいて、ある実施形態の構成の一部を他の実施形態の構成で置き換え、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、又は分散をすることが可能である。また実施形態で示した構成及び処理は、処理効率又は実装効率に基づいて適宜分散、統合、又は入れ替えることが可能である。
1,1B,1C,1D,1E:音響診断システム、11:入力音取得部、11D:多チャンネル入力音取得部、12:前処理部、12C:最近傍フィルタリング部、13:調波音−突発音音源分離部、13D1,13D6,13E1:ステアリングベクトル生成部、13D2,13D7:雑音生成部、13D3,13D8,13E2:空間共分散行列計算部、13D4,13D9,13E3:フィルタ計算部、13D5,13D10,13E4:フィルタリング部、14:ベクトル連結部、15:状態推定モデル学習部、15B:正常音モデル学習部、16:状態推定モデルデータベース、16B:正常音モデルデータベース、21:状態推定部、21B:異常検知部、22:状態推定結果出力部、22B:異常度出力部、5000:コンピュータ

Claims (12)

  1. 音響診断システムが実行する音響診断方法であって、
    診断対象設備の稼働音を含む入力音を取得する入力音取得工程と、
    前記入力音のスペクトログラムを計算する前処理工程と、
    前記スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離工程と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムを連結した特徴量ベクトルを生成する特徴量ベクトル生成工程と、
    前記特徴量ベクトルと学習モデルに基づいて前記診断対象設備の状態を推定する状態推定工程と
    を含んだことを特徴とする音響診断方法。
  2. 前記状態推定工程によって推定された前記診断対象設備の状態を出力する状態推定結果出力工程
    を含んだことを特徴とする請求項1に記載の音響診断方法。
  3. 学習用の前記入力音から生成された前記特徴量ベクトルに基づいて前記学習モデルを生成する学習モデル生成工程
    を含んだことを特徴とする請求項1に記載の音響診断方法。
  4. 前記学習モデルは、学習用の前記入力音から生成された前記特徴量ベクトルの正常時の分布をモデル学習した正常音モデルであり、
    前記状態推定工程において、診断用の前記入力音から生成された前記特徴量ベクトルと前記学習モデルに基づいて前記診断対象設備が正常か否かを推定する
    ことを特徴とする請求項3に記載の音響診断方法。
  5. 前記前処理工程によって計算された前記スペクトログラムを高頻度成分スペクトログラム及び低頻度成分スペクトログラムへ分離する頻度分離工程
    を含み、
    前記音源分離工程において、前記頻度分離工程によって分離された前記低頻度成分スペクトログラムが除去されたスペクトログラムを、前記調波音スペクトログラム及び前記突発音スペクトログラムへ分離する
    ことを特徴とする請求項1〜4の何れか1項に記載の音響診断方法。
  6. 前記入力音取得工程において、多チャンネルの前記入力音を取得し、
    前記前処理工程によって計算された前記スペクトログラムを高頻度成分スペクトログラム及び低頻度成分スペクトログラムへ分離し、前記高頻度成分スペクトログラムを前記音源分離工程へ入力する頻度分離工程と、
    前記音源分離工程によって前記高頻度成分スペクトログラムが分離された前記調波音スペクトログラム及び前記突発音スペクトログラムのうち、前記調波音スペクトログラムから第1のステアリングベクトルを生成し、前記突発音スペクトログラムから第2のステアリングベクトルを生成するステアリングベクトル生成工程と、
    前記突発音スペクトログラム及び前記低頻度成分スペクトログラムから第1の空間共分散行列を計算し、前記調波音スペクトログラム及び前記低頻度成分スペクトログラムから第2の空間共分散行列を計算する空間共分散行列計算工程と、
    前記第1のステアリングベクトル及び前記第1の空間共分散行列から第1のフィルタを計算し、前記第2のステアリングベクトル及び前記第2の空間共分散行列から第2のフィルタを計算するフィルタ計算工程と、
    前記入力音取得工程によって取得された多チャンネルの前記入力音に対し前記第1のフィルタを適用することで無歪の前記調波音スペクトログラムを求め、前記入力音に対し前記第2のフィルタを適用することで無歪の前記突発音スペクトログラムを求めるフィルタリング工程と、
    を含み、
    前記特徴量ベクトル生成工程において、前記フィルタリング工程によって求められた前記調波音スペクトログラム及び前記突発音スペクトログラムを連結して前記特徴量ベクトルを生成する
    ことを特徴とする請求項1〜4の何れか1項に記載の音響診断方法。
  7. 音響診断システムが行う音響診断方法であって、
    診断対象設備の稼働音を含む多チャンネルの入力音を取得する入力音取得工程と、
    前記入力音のスペクトログラムを計算する前処理工程と、
    前記スペクトログラムを高頻度成分スペクトログラム及び低頻度成分スペクトログラムへ分離する頻度分離工程と、
    前記スペクトログラムから前記低頻度成分スペクトログラムが除去された除去後スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離工程と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムのうちの第1のスペクトログラムからステアリングベクトルを生成するステアリングベクトル生成工程と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムのうちの第2のスペクトログラムから空間共分散行列を計算する空間共分散行列計算工程と、
    前記ステアリングベクトル及び前記空間共分散行列からフィルタを計算するフィルタ計算工程と、
    前記入力音取得工程によって取得された多チャンネルの前記入力音に対し前記フィルタを適用することで、無歪の前記第1のスペクトログラムを求めるフィルタリング工程と、
    前記フィルタリング工程によって求められた無歪の前記第1のスペクトログラムと学習モデルに基づいて前記診断対象設備の状態を推定する状態推定工程と
    を含んだことを特徴とする音響診断方法。
  8. 前記状態推定工程によって推定された前記診断対象設備の状態を出力する状態推定結果出力工程
    を含んだことを特徴とする請求項7に記載の音響診断方法。
  9. 学習用の前記入力音から生成された無歪の前記第1のスペクトログラムに基づいて前記学習モデルを生成する学習モデル生成工程
    を含んだことを特徴とする請求項7に記載の音響診断方法。
  10. 診断対象設備の状態を診断する音響診断システムであって、
    診断対象設備の稼働音を含む入力音を取得する入力音取得部と、
    前記入力音のスペクトログラムを計算する前処理部と、
    前記スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離部と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムを連結した特徴量ベクトルを生成する特徴量ベクトル生成部と、
    前記特徴量ベクトルと学習モデルに基づいて前記診断対象設備の状態を推定する状態推定部と
    を備えたことを特徴とする音響診断システム。
  11. 診断対象設備の状態を診断する音響診断システムであって、
    診断対象設備の稼働音を含む多チャンネルの入力音を取得する入力音取得部と、
    前記入力音のスペクトログラムを計算する前処理部と、
    前記スペクトログラムを高頻度成分スペクトログラム及び低頻度成分スペクトログラムへ分離する頻度分離部と、
    前記スペクトログラムから前記低頻度成分スペクトログラムが除去された除去後スペクトログラムを、調波音−突発音音源分離により、調波音スペクトログラム及び突発音スペクトログラムへ分離する音源分離部と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムのうちの第1のスペクトログラムからステアリングベクトルを生成するステアリングベクトル生成部と、
    前記調波音スペクトログラム及び前記突発音スペクトログラムのうちの第2のスペクトログラムから空間共分散行列を計算する空間共分散行列計算部と、
    前記ステアリングベクトル及び前記空間共分散行列からフィルタを計算するフィルタ計算部と、
    前記入力音取得部によって取得された多チャンネルの前記入力音に対し前記フィルタを適用することで、無歪の前記第1のスペクトログラムを求めるフィルタリング部と、
    前記フィルタリング部によって求められた無歪の前記第1のスペクトログラムと学習モデルに基づいて前記診断対象設備の状態を推定する状態推定部と
    を備えたことを特徴とする音響診断システム。
  12. 請求項10又は11に記載の音響診断システムとしてコンピュータを機能させるための音響診断プログラム。
JP2020017101A 2020-02-04 2020-02-04 音響診断方法、音響診断システム、及び音響診断プログラム Active JP7304301B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020017101A JP7304301B2 (ja) 2020-02-04 2020-02-04 音響診断方法、音響診断システム、及び音響診断プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020017101A JP7304301B2 (ja) 2020-02-04 2020-02-04 音響診断方法、音響診断システム、及び音響診断プログラム

Publications (2)

Publication Number Publication Date
JP2021124887A true JP2021124887A (ja) 2021-08-30
JP7304301B2 JP7304301B2 (ja) 2023-07-06

Family

ID=77459030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020017101A Active JP7304301B2 (ja) 2020-02-04 2020-02-04 音響診断方法、音響診断システム、及び音響診断プログラム

Country Status (1)

Country Link
JP (1) JP7304301B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317248A (ja) * 2003-04-15 2004-11-11 Ricoh Co Ltd 音響識別方法、騒音評価装置、騒音評価方法、騒音評価プログラム及び記録媒体
JP2016095231A (ja) * 2014-11-14 2016-05-26 積水化学工業株式会社 分析データ作成方法、周波数フィルター作成方法、異常音発生位置の特定方法、分析データ作成装置、周波数フィルター作成装置および異常音発生位置の特定装置
JP2017090606A (ja) * 2015-11-09 2017-05-25 日本電信電話株式会社 異常音検出装置、異常音検出学習装置、これらの方法及びプログラム
CN106847306A (zh) * 2016-12-26 2017-06-13 华为技术有限公司 一种异常声音信号的检测方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317248A (ja) * 2003-04-15 2004-11-11 Ricoh Co Ltd 音響識別方法、騒音評価装置、騒音評価方法、騒音評価プログラム及び記録媒体
JP2016095231A (ja) * 2014-11-14 2016-05-26 積水化学工業株式会社 分析データ作成方法、周波数フィルター作成方法、異常音発生位置の特定方法、分析データ作成装置、周波数フィルター作成装置および異常音発生位置の特定装置
JP2017090606A (ja) * 2015-11-09 2017-05-25 日本電信電話株式会社 異常音検出装置、異常音検出学習装置、これらの方法及びプログラム
CN106847306A (zh) * 2016-12-26 2017-06-13 华为技术有限公司 一种异常声音信号的检测方法及装置

Also Published As

Publication number Publication date
JP7304301B2 (ja) 2023-07-06

Similar Documents

Publication Publication Date Title
US10504539B2 (en) Voice activity detection systems and methods
US9666183B2 (en) Deep neural net based filter prediction for audio event classification and extraction
KR101153093B1 (ko) 다감각 음성 향상을 위한 방법 및 장치
JP4746533B2 (ja) 多音源有音区間判定装置、方法、プログラム及びその記録媒体
JP4880036B2 (ja) 音源と室内音響の確率モデルに基づく音声残響除去のための方法及び装置
JP3154487B2 (ja) 音声認識の際の雑音のロバストネスを改善するためにスペクトル的推定を行う方法
US20080215322A1 (en) Method and System for Generating Training Data for an Automatic Speech Recogniser
JP6371516B2 (ja) 音響信号処理装置および方法
JP5634959B2 (ja) 雑音/残響除去装置とその方法とプログラム
Parmar et al. Effectiveness of cross-domain architectures for whisper-to-normal speech conversion
Rahman et al. Dynamic time warping assisted svm classifier for bangla speech recognition
WO2012105386A1 (ja) 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム
JP2006349723A (ja) 音響モデル作成装置、音声認識装置、音響モデル作成方法、音声認識方法、音響モデル作成プログラム、音声認識プログラムおよび記録媒体
Li et al. Frame-Level Signal-to-Noise Ratio Estimation Using Deep Learning.
JP5974901B2 (ja) 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム
Löllmann et al. Comparative study of single-channel algorithms for blind reverberation time estimation
JP7304301B2 (ja) 音響診断方法、音響診断システム、及び音響診断プログラム
JP2021071586A (ja) 音抽出システム及び音抽出方法
Huang et al. Detecting Intelligibility by Linear Dimensionality Reduction and Normalized Voice Quality Hierarchical Features.
CN107919136B (zh) 一种基于高斯混合模型的数字语音采样频率估计方法
CN108573698B (zh) 一种基于性别融合信息的语音降噪方法
López et al. Normal-to-shouted speech spectral mapping for speaker recognition under vocal effort mismatch
CN114302301A (zh) 频响校正方法及相关产品
Li et al. Dynamic attention based generative adversarial network with phase post-processing for speech enhancement
KR101862352B1 (ko) 음성 인식을 위한 전처리 장치, 및 이를 이용한 음성 인식 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220629

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7304301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150