JP7453136B2 - 異常検出装置、異常検出方法及び異常検出システム - Google Patents
異常検出装置、異常検出方法及び異常検出システム Download PDFInfo
- Publication number
- JP7453136B2 JP7453136B2 JP2020216561A JP2020216561A JP7453136B2 JP 7453136 B2 JP7453136 B2 JP 7453136B2 JP 2020216561 A JP2020216561 A JP 2020216561A JP 2020216561 A JP2020216561 A JP 2020216561A JP 7453136 B2 JP7453136 B2 JP 7453136B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- target device
- background noise
- network
- noise level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005856 abnormality Effects 0.000 title claims description 150
- 238000001514 detection method Methods 0.000 title claims description 100
- 239000013598 vector Substances 0.000 claims description 308
- 238000012549 training Methods 0.000 claims description 39
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 27
- 230000005236 sound signal Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008867 communication pathway Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H1/00—Measuring characteristics of vibrations in solids by using direct conduction to the detector
- G01H1/003—Measuring characteristics of vibrations in solids by using direct conduction to the detector of rotating machines
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H1/00—Measuring characteristics of vibrations in solids by using direct conduction to the detector
- G01H1/12—Measuring characteristics of vibrations in solids by using direct conduction to the detector of longitudinal or not specified vibrations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/024—Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
Description
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
しかし、従来の機械学習ベースの音響信号に対する異常検出手段では、ニューラルネットワークは正常の音響信号のみによって訓練されており、検証対象の機器の種類や、検証対象の機器が配置されている環境の背景雑音等が考慮されていないため、このように訓練したニューラルネットワークを実際の音響信号の異常検出に適用した場合、別個の雑音抑制手段が必要となる上、現場での異常検出精度が限定されてしまう。
音響信号の特徴量を示す対象機器特徴量ベクトルと、機器のタイプを示すタイプ情報及び機器の識別子を示す識別子情報を含む階層条件ベクトルとに基づいて訓練される。このように、機器に関する情報を含む階層条件ベクトルを用いることにより、生成ネットワークは本物の音響信号に対する類似性がより高い偽ベクトルを生成するように訓練され、識別ネットワークは、より高精度の異常検出を行うように訓練される。
図2に示すように、本開示の実施形態に係る異常検出システム200は、異常検出装置1、センサ部2、及び対象機器3を主に含む。異常検出装置1、センサ部2、及び対象機器3は、LAN(Local Area Network)やインターネット等、任意の通信ネットワークを介して互いに接続されてもよい。
この階層条件ベクトルD2とは、所定の階層条件(例えば、機器の識別情報)に関する情報を含むデータ構造である。この階層条件ベクトルを用いて階層条件敵対的ニューラルネットワーク14を訓練することで、より正確な潜在空間表現が可能となり、本物の音響信号D0に対する類似性がより高い偽ベクトルを生成することができる。
なお、階層条件ベクトルD2の構成の詳細については、図6を参照して説明するため、ここではその説明を省略する。
より具体的には、階層条件敵対的ニューラルネットワーク14は、階層条件ベクトルD2と、雑音の信号に基づいて生成された雑音ベクトルD3とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する生成ネットワークと、対象機器特徴量ベクトルD1及び偽ベクトルD6の真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、背景雑音レベルを判定する背景雑音判定を行い、背景雑音レベル情報を生成する識別ネットワークとを含む。
訓練段階では、階層条件敵対的ニューラルネットワーク14は、真偽判定による交差エントロピー損失と、背景雑音判定による交差エントロピー損失とを最小化するように学習される。これらの損失を最小化するためのニューラルネットワークパラメータは、学習DB17に格納される。
また、推論段階では、訓練済みの階層条件敵対的ニューラルネットワーク14を用いて所定の音響信号を解析することで、高精度の異常検出結果を生成することができる。
なお、階層条件敵対的ニューラルネットワーク14の構成の詳細については後述するため、ここではその説明を省略する。
なお、異常検出システム200のそれぞれの機能部は図2を参照して上述したため、ここでは、重複する説明を省略する
メモリ21は、例えば、RAM、フラッシュメモリ、ハードディスクドライブ等の任意の記憶装置であってもよい。図3に示すように、メモリ21は、ノイズ生成部18、階層条件ベクトル生成部13、抽出部12、階層条件敵対的ニューラルネットワーク14、及び異常判定部15のそれぞれの機能を実施するためのソフトウェアモジュールを含む。
プロセッサ25は、例えば1つ又は複数のマイクロプロセッサであり、メモリ21に格納されているソフトウェアモジュールの指令を実行する。
I/Oデバイス24は、例えば、キーボード、マウス、タッチ画面等の、ユーザ入力を受け付けるためのデバイスや、ディスプレイ、スピーカ等の、情報を出力するためのデバイスを含んでもよい。
なお、生成ネットワーク26の訓練段階での処理及び推論段階での処理については後述する。
なお、識別ネットワーク27は、対象機器特徴量ベクトルD1と、偽ベクトルD6とを同時に入力せず、どちらのベクトルを入力するかは、図5に示すスイッチ505によって制御されてもよい。このスイッチ505は、抽出部12からの対象機器特徴量ベクトルD1を識別ネットワーク27に入力するか、生成ネットワーク26からの偽ベクトルD6を入力するかをランダムに判定するスイッチである。
ここでの真偽判定とは、対象機器特徴量ベクトルD1又は偽ベクトルD6が本物(すなわち、対象機器から取得した音響信号の本物の特徴量ベクトル)か偽物(すなわち、生成ネットワークによって生成された偽物の特徴量ベクトル)かを判定する処理である。この真偽判定の結果は、真偽判定情報510に示される。
一例として、識別ネットワーク27は、真偽判定の結果を二進数(バイナリー)で示したベクトルを真偽判定情報510として出力してもよい。例えば、識別ネットワーク27は、対象のベクトルを「本物」と判定した場合に「1」を、対象のベクトルを「偽物」と判定した場合に「0」を含むベクトルを真偽判定情報510として出力してもよい。
ここでの背景雑音とは、対象機器が配置されている環境において、他の装置の作動音、人間の声、交通による騒音等、対象機器以外の発生源から発生する音を意味する。また、ここでの背景雑音判定とは、対象機器特徴量ベクトルD1又は偽ベクトルD6における背景雑音のレベル(度合い)を判定する処理である。この背景雑音判定の結果は、背景雑音レベル情報520に示される。
一例として、識別ネットワーク27は、対象機器特徴量ベクトルD1又は偽ベクトルD6における背景雑音のレベルを「Δ1:低い」(例えば、-6dB)、「Δ2:中」(例えば0dB)、「Δ3:高」(例えば、6dB)のいずれか一方に分類すると共に、判定した背景雑音のレベルに応じて適切な異常判定閾値を選択した後、判定した背景雑音のレベルと、選択した異常判定閾値を背景雑音レベル情報520として出力してもよい。
なお、以下では、機器の識別情報を階層条件とした場合を一例として説明するが、本開示はこれに限定されず、異常検出手段が応用される分野に合わせて適切な階層条件を選択してもよい。
より具体的には、タイプ情報610は、ファン、ポンプ、スライダー、バルブ等、機器の種類を含んでもよい。また、識別子情報620は、タイプ情報610における危機のタイプ毎に、特定の機器を識別するID-0~ID-6を含んでもよい。これにより、任意の機器は、タイプ情報610と、識別子情報620とで一意に識別することができる(ファン、ID-3等)。
図6に示すように、階層条件ベクトルD2は、機器のタイプを示す機器タイプベクトルD4と、機器の識別子を示す機器識別ベクトルD5とを含む。
一例として、図6に示されている機器タイプベクトルD4と、機器識別ベクトルD5とは、タイプが「ポンプ」で識別子が「ID-6」の機器に対応する。
なお、ここでの全体損失Lは、第1の損失l1と第2の損失l2の加重平均であってもよい。
一例として、窓関数乗算信号のフレームサイズがN個の場合、当該信号の周波数領域はM個の複素数のセットであり、複素数のセットにおける各複素数は、M個の周波数ビンのそれぞれに対応する。そして、抽出部12は、この周波数領域の信号に基づいてパワースペクトグラムを計算する。
なお、ここでは、本開示はメルフィルタバンクに限定されず、例えば1/3オクターブバンドフィルター等、任意のフィルタバンクを用いてもよい。
なお、ここでの全体損失Lは、第1の損失l1と第2の損失l2の加重平均であってもよい。
ステップS1010で計算した全体損失Lが、収束条件τより少ないか、エポック数Cが所定のエポック数上限Ctを超える場合には、本処理はステップS1018へ進み、ステップS1010で計算した全体損失Lが、収束条件τ以上か、エポック数Cが所定のエポック数上限Ctを超えない場合には、本処理はステップS1014へ進む。
なお、推論段階の説明では、上述した訓練段階と同一の用語を用いて説明するが、推論段階における対象機器、音響信号、各種ベクトル等は、訓練段階とは異なってもよい(つまり、訓練段階で説明した階層条件ベクトル、対象機器、音響信号、対象機器特徴量ベクトル、背景雑音レベル、背景雑音レベル情報、及び偽ベクトル等は訓練用に用いられたが、推論段階では、訓練段階とは異なる第2の階層条件ベクトル、第2の対象機器、第2の音響信号、第2の対象機器特徴量ベクトル、第2の背景雑音レベルを示す第2の背景雑音レベル情報、及び第2の偽ベクトルを推論用に用いてもよい)。
なお、異常判定閾値の選択については、図12を参照して後述するため、ここではその説明を省略する。
ここでの異常スコアεは、音響信号において異常が存在する確率を示す尺度であり、例えば0~1の範囲内の数値として表現してもよい。ある実施形態では、異常スコアεは、例えば生成した偽ベクトルD6と、対象機器特徴量ベクトルD1とのユークリッド距離として計算されてもよく、以下の数式1によって求められる。
上述したように、本開示では、所定の音響信号において異常が存在するか否かとの判定は、階層条件敵対的ニューラルネットワークによって生成された異常スコアεと、当該音響信号における背景雑音レベルに応じて選択される異常判定閾値ηとに基づいて行われる。
ここでの異常判定閾値ηとは、正常と判定される異常スコアと、異常と判定される異常スコアとの境界を規定する値であり、上述したように、音響信号における背景雑音レベルに応じて選択される。
例えば、異常判定閾値ηは、以下の数式2に従って選択されてもよい。
例えば、上述した背景雑音判定の結果、背景雑音レベルがΔ1(低い)と判定された場合、異常判定閾値がη1として選択される。その後、図12におけるグラフ1210に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがη1の異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがη1の異常判定閾値以上の場合、当該信号が異常と判定される。
また、上述した背景雑音判定の結果、背景雑音レベルがΔ2(中)と判定された場合、異常判定閾値がη2として選択される。その後、図12におけるグラフ1220に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがη2の異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがη2の異常判定閾値以上の場合、当該信号が異常と判定される。
更に、上述した背景雑音判定の結果、背景雑音レベルがΔ3(高い)と判定された場合、異常判定閾値がη3として選択される。その後、図12におけるグラフ1230に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがη3の異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがη3の異常判定閾値以上の場合、当該信号が異常と判定される。
ここでの異常スコアεの計算は、例えば上述した数式1に従って行われてもよい。
異常スコアεが選択された異常判定閾値η以上の場合、異常判定部は、音響信号D0において異常が存在すると判定し、音響信号D0において異常が存在することを示す異常検出結果を出力する。一方、異常スコアεが選択された異常判定閾値ηより少ない場合、異常判定部は、音響信号D0において異常が存在しないと判定し、音響信号D0において異常が存在しないことを示す異常検出結果を出力する。
ここで出力される異常検出結果は、例えば、音響信号D0の発生源となった対象機器の管理者(工場の責任者等)に送信されてもよく、任意の第三者に送信されてもよい。
2 センサ部
3 対象機器
12 抽出部
13 階層条件ベクトル生成部
14 階層条件敵対的ニューラルネットワーク
15 異常判定部
16 機器識別DB
17 学習DB
18 ノイズ生成部
26 生成ネットワーク
27 識別ネットワーク
26A 訓練済みの生成ネットワーク
27B 訓練済みの識別ネットワーク
200 異常検出システム
510 真偽判定情報
520 背景雑音レベル情報
610 タイプ情報
620 識別子情報
800 対象機器特徴量ベクトル生成処理
900 階層条件ベクトル生成処理
1000 訓練処理
1300 推論処理
D0 音響信号
D1 対象機器特徴量ベクトル
D2 階層条件ベクトル
D3 雑音ベクトル
D4 機器タイプベクトル
D5 機器識別ベクトル
D6 偽ベクトル
Claims (11)
- 異常検出装置であって、
機器の種類毎に特定の機器を識別するための機器識別情報を格納する機器識別データベースと、
前記機器識別情報に基づいて階層条件ベクトルを生成する階層条件ベクトル生成部と、
異常検出対象の機器である対象機器から取得した音響信号を分析することで前記音響信号の特徴量を示す対象機器特徴量ベクトルを抽出する抽出部と、
前記階層条件ベクトルと、前記対象機器特徴量ベクトルとを解析することで、前記対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、判定した背景雑音レベルを示す背景雑音レベル情報を生成する階層条件敵対的ニューラルネットワークと、
少なくとも前記背景雑音レベルに応じて選択される異常判定閾値を用いて、前記対象機器特徴量ベクトルにおいて異常が存在するか否かを判定する異常判定部と、
を含むことを特徴とする異常検出装置。 - 前記階層条件敵対的ニューラルネットワークは、
前記階層条件ベクトルと、雑音の信号に基づいて生成される雑音ベクトルとに基づいて、前記対象機器特徴量ベクトルを近似した偽ベクトルを生成する生成ネットワークと、
前記対象機器特徴量ベクトル及び前記偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、前記背景雑音レベルを判定する前記背景雑音判定を行い、前記背景雑音レベル情報を生成する識別ネットワークと、
を更に含むことを特徴とする、請求項1に記載の異常検出装置。 - 前記識別ネットワークは、
前記真偽判定による交差エントロピー損失を示す第1の損失と、前記背景雑音判定による交差エントロピー損失を示す第2の損失とを計算し、
前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する、
ことを特徴とする、請求項2に記載の異常検出装置。 - 前記階層条件ベクトル生成部は、
前記機器識別情報に基づいて、第2の階層条件ベクトルを生成し、
前記抽出部は、
第2の対象機器から取得した第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出し、
前記訓練済みの識別ネットワークは、
前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成し、
前記第2の背景雑音レベルに基づいて、異常判定閾値を選択し、
前記訓練済みの生成ネットワークは、
前記第2の階層条件ベクトルと、前記第2の対象機器の正常の音響信号に基づいて生成される第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成し、
前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算し、
前記異常判定部は、
前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する、
ことを特徴とする、請求項3に記載の異常検出装置。 - 前記階層条件ベクトルは、
機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む、
ことを特徴とする、請求項1に記載の異常検出装置。 - 異常検出方法であって、
機器の種類毎に特定の機器を識別するための機器識別情報に基づいて、機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む第1の階層条件ベクトルを生成する工程と、
第1の対象機器から第1の音響信号を取得する工程と、
前記第1の音響信号を分析することで前記第1の音響信号の特徴量を示す第1の対象機器特徴量ベクトルを抽出する工程と、
前記第1の対象機器の正常の音響信号に基づいて第1の雑音ベクトルを生成する工程と、
生成ネットワークを用いて、前記第1の階層条件ベクトルと、前記第1の雑音ベクトルとに基づいて、前記第1の対象機器特徴量ベクトルを近似した第1の偽ベクトルを生成する工程と、
識別ネットワークを用いて、前記第1の対象機器特徴量ベクトル及び前記第1の偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成する工程と、
前記識別ネットワークを用いて、前記第1の階層条件ベクトルと、前記第1の対象機器特徴量ベクトルとを解析することで、前記第1の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第1の背景雑音レベルを示す第1の背景雑音レベル情報を生成する工程と、
前記真偽判定による交差エントロピー損失を示す第1の損失を計算する工程と、
前記背景雑音判定による交差エントロピー損失を示す第2の損失を計算する工程と、
前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する工程と、
前記機器識別情報に基づいて、第2の階層条件ベクトルを生成する工程と、
第2の対象機器から第2の音響信号を取得する工程と、
前記第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出する工程と、
前記第2の対象機器の正常の音響信号に基づいて第2の雑音ベクトルを生成する工程と、
前記訓練済みの識別ネットワークを用いて、前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成する工程と、
前記訓練済みの生成ネットワークを用いて、前記第2の階層条件ベクトルと、前記第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成する工程と、
前記訓練済みの生成ネットワークを用いて、前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算する工程と、
前記第2の背景雑音レベルに基づいて、異常判定閾値を選択する工程と、
前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する工程と、
を含むことを特徴とする異常検出方法。 - 異常検出システムであって、
検証対象の機器となる対象機器と、
前記対象機器からの音響信号を取得するセンサ部と、
音響信号を解析することで異常の有無を判定する異常検出装置とが通信ネットワークを介して接続されており、
前記異常検出装置は、
機器の種類毎に特定の機器を識別するための機器識別情報を格納する機器識別データベースと、
前記機器識別情報に基づいて階層条件ベクトルを生成する階層条件ベクトル生成部と、
前記センサ部から、前記音響信号を受信し、分析することで前記音響信号の特徴量を示す対象機器特徴量ベクトルを抽出する抽出部と、
前記階層条件ベクトルと、前記対象機器特徴量ベクトルとを解析することで、前記対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、判定した背景雑音レベルを示す背景雑音レベル情報を生成する階層条件敵対的ニューラルネットワークと、
少なくとも前記背景雑音レベルに応じて選択される異常判定閾値を用いて、前記対象機器特徴量ベクトルにおいて異常が存在するか否かを判定する異常判定部と、
を含むことを特徴とする異常検出システム。 - 前記階層条件敵対的ニューラルネットワークは、
前記階層条件ベクトルと、雑音の信号に基づいて生成される雑音ベクトルとに基づいて、前記対象機器特徴量ベクトルを近似した偽ベクトルを生成する生成ネットワークと、
前記対象機器特徴量ベクトル及び前記偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、前記背景雑音レベルを判定する前記背景雑音判定を行い、前記背景雑音レベル情報を生成する識別ネットワークと、
を更に含むことを特徴とする、請求項7に記載の異常検出システム。 - 前記識別ネットワークは、
前記真偽判定による交差エントロピー損失を示す第1の損失と、前記背景雑音判定による交差エントロピー損失を示す第2の損失とを計算し、
前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する、
ことを特徴とする、請求項8に記載の異常検出システム。 - 前記階層条件ベクトル生成部は、
前記機器識別情報に基づいて、第2の階層条件ベクトルを生成し、
前記抽出部は、
第2の対象機器から取得した第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出し、
前記訓練済みの識別ネットワークは、
前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成し、
前記第2の背景雑音レベルに基づいて、異常判定閾値を選択し、
前記訓練済みの生成ネットワークは、
前記第2の階層条件ベクトルと、前記第2の対象機器の正常の音響信号に基づいて生成される第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成し、
前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算し、
前記異常判定部は、
前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する、
ことを特徴とする、請求項9に記載の異常検出システム。 - 前記階層条件ベクトルは、
機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む、
ことを特徴とする、請求項7に記載の異常検出システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020216561A JP7453136B2 (ja) | 2020-12-25 | 2020-12-25 | 異常検出装置、異常検出方法及び異常検出システム |
US17/469,514 US11869492B2 (en) | 2020-12-25 | 2021-09-08 | Anomaly detection system and method using noise signal and adversarial neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020216561A JP7453136B2 (ja) | 2020-12-25 | 2020-12-25 | 異常検出装置、異常検出方法及び異常検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022102053A JP2022102053A (ja) | 2022-07-07 |
JP7453136B2 true JP7453136B2 (ja) | 2024-03-19 |
Family
ID=82117612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020216561A Active JP7453136B2 (ja) | 2020-12-25 | 2020-12-25 | 異常検出装置、異常検出方法及び異常検出システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11869492B2 (ja) |
JP (1) | JP7453136B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019073923A1 (ja) | 2017-10-10 | 2019-04-18 | 国立大学法人岐阜大学 | 異常品判定方法 |
US20200041673A1 (en) | 2019-09-04 | 2020-02-06 | Lg Electronics Inc. | Method, apparatus and system of detecting foreign objects in laundry machine |
JP2020071845A (ja) | 2018-11-02 | 2020-05-07 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 異常検知装置、異常検知方法および異常検知プログラム |
JP2020112493A (ja) | 2019-01-15 | 2020-07-27 | 株式会社スカイディスク | 検査システム、異常特定方法 |
JP2020122701A (ja) | 2019-01-30 | 2020-08-13 | 京セラドキュメントソリューションズ株式会社 | 画像形成システム及びサーバー |
WO2020165935A1 (ja) | 2019-02-12 | 2020-08-20 | 日本電気株式会社 | モデル構築装置、モデル構築方法、コンピュータプログラム及び記録媒体 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6481268B1 (en) * | 1999-10-12 | 2002-11-19 | Baker Hughes, Inc. | Particle measurement by acoustic speckle |
KR102034248B1 (ko) | 2019-04-19 | 2019-10-18 | 주식회사 루닛 | GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템 |
US20200342306A1 (en) * | 2019-04-25 | 2020-10-29 | International Business Machines Corporation | Autonomous modification of data |
FR3103048B1 (fr) * | 2019-11-07 | 2021-10-22 | Thales Sa | Procede et dispositif de generation de donnees synthetiques d'apprentissage pour machine d'intelligence artificielle pour l'aide a l'atterrissage d'aeronef |
KR102343410B1 (ko) * | 2019-12-26 | 2021-12-27 | 주식회사 나눔에너지 | 머신러닝을 이용한 태양광패널 설치용 지붕 가장자리 이미지 추출 방법 |
JP7428020B2 (ja) * | 2020-03-06 | 2024-02-06 | コニカミノルタ株式会社 | 超音波診断装置、超音波画像生成方法、プログラム及びモデル訓練装置 |
US11087215B1 (en) * | 2020-07-25 | 2021-08-10 | Sas Institute Inc. | Machine learning classification system |
US11403496B2 (en) * | 2020-11-04 | 2022-08-02 | Silicon Laboratories Inc. | Detecting anomalous events in a discriminator of an embedded device |
-
2020
- 2020-12-25 JP JP2020216561A patent/JP7453136B2/ja active Active
-
2021
- 2021-09-08 US US17/469,514 patent/US11869492B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019073923A1 (ja) | 2017-10-10 | 2019-04-18 | 国立大学法人岐阜大学 | 異常品判定方法 |
JP2020071845A (ja) | 2018-11-02 | 2020-05-07 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 異常検知装置、異常検知方法および異常検知プログラム |
JP2020112493A (ja) | 2019-01-15 | 2020-07-27 | 株式会社スカイディスク | 検査システム、異常特定方法 |
JP2020122701A (ja) | 2019-01-30 | 2020-08-13 | 京セラドキュメントソリューションズ株式会社 | 画像形成システム及びサーバー |
WO2020165935A1 (ja) | 2019-02-12 | 2020-08-20 | 日本電気株式会社 | モデル構築装置、モデル構築方法、コンピュータプログラム及び記録媒体 |
US20200041673A1 (en) | 2019-09-04 | 2020-02-06 | Lg Electronics Inc. | Method, apparatus and system of detecting foreign objects in laundry machine |
Also Published As
Publication number | Publication date |
---|---|
JP2022102053A (ja) | 2022-07-07 |
US20220208184A1 (en) | 2022-06-30 |
US11869492B2 (en) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472675B (zh) | 图像分类方法、图像分类装置、存储介质与电子设备 | |
Niu et al. | Multimodal spatiotemporal representation for automatic depression level detection | |
US11663823B2 (en) | Dual-modality relation networks for audio-visual event localization | |
Wu et al. | Self-supervised sparse representation for video anomaly detection | |
EP4035064A1 (en) | Object detection based on pixel differences | |
Pawar et al. | Convolution neural network based automatic speech emotion recognition using Mel-frequency Cepstrum coefficients | |
US20220130499A1 (en) | Medical visual question answering | |
JP6958723B2 (ja) | 信号処理システム、信号処理装置、信号処理方法、およびプログラム | |
CN112700794B (zh) | 一种音频场景分类方法、装置、电子设备和存储介质 | |
Yang et al. | Multi-scale semantic feature fusion and data augmentation for acoustic scene classification | |
EP3392882A1 (en) | Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium | |
Bartusiak et al. | Synthesized speech detection using convolutional transformer-based spectrogram analysis | |
Chang et al. | Example-based explanations with adversarial attacks for respiratory sound analysis | |
Omar et al. | Automated realtime mask availability detection using neural network | |
CN114582325A (zh) | 音频检测方法、装置、计算机设备、存储介质 | |
JP7453136B2 (ja) | 異常検出装置、異常検出方法及び異常検出システム | |
Li et al. | Binaural audio generation via multi-task learning | |
JP7373358B2 (ja) | 音抽出システム及び音抽出方法 | |
Chuchra et al. | A deep learning approach for splicing detection in digital audios | |
CN113421590B (zh) | 异常行为检测方法、装置、设备及存储介质 | |
JP2018109739A (ja) | 音声フレーム処理用の装置及び方法 | |
Agarwal et al. | A method for voice activity detection using K-means clustering | |
Perez-Carrillo | Statistical models for the indirect acquisition of violin bowing controls from audio analysis | |
CN116935889B (zh) | 一种音频类别的确定方法、装置、电子设备及存储介质 | |
Rahman et al. | Detecting Parkinson's Disease From an Online Speech-task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453136 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |