JP7453136B2 - 異常検出装置、異常検出方法及び異常検出システム - Google Patents

異常検出装置、異常検出方法及び異常検出システム Download PDF

Info

Publication number
JP7453136B2
JP7453136B2 JP2020216561A JP2020216561A JP7453136B2 JP 7453136 B2 JP7453136 B2 JP 7453136B2 JP 2020216561 A JP2020216561 A JP 2020216561A JP 2020216561 A JP2020216561 A JP 2020216561A JP 7453136 B2 JP7453136 B2 JP 7453136B2
Authority
JP
Japan
Prior art keywords
vector
target device
background noise
network
noise level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020216561A
Other languages
English (en)
Other versions
JP2022102053A (ja
Inventor
ハーシュ プラモドブハイ プロヒト
隆 遠藤
洋平 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020216561A priority Critical patent/JP7453136B2/ja
Priority to US17/469,514 priority patent/US11869492B2/en
Publication of JP2022102053A publication Critical patent/JP2022102053A/ja
Application granted granted Critical
Publication of JP7453136B2 publication Critical patent/JP7453136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • G01H1/003Measuring characteristics of vibrations in solids by using direct conduction to the detector of rotating machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • G01H1/12Measuring characteristics of vibrations in solids by using direct conduction to the detector of longitudinal or not specified vibrations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision

Description

本開示は、異常検出装置、異常検出方法及び異常検出システムに関する。
工場やデータセンター等の施設に配置されている様々な機器の稼働率を維持し、長寿命化を図るためには、個々の機器についての異常の有無を早期かつ正確に判定することが重要である。そして、機器の異常検出の手段の1つとして、検証対象の機器のファンやモーターから発生する音響信号を解析することが知られている。
信号を解析する手法の一つとして、いわゆるGAN(Generative Adversarial Networks)を用いることができる。GANとは、2つのニューラルネットワークを互いに競わせて入力データの学習を深めるアーキテクチャで構成される機械学習手段である。GANによれば、広範な分野において様々な判別タスクを高精度で行うことができる。
例えば、米国特許出願公開第16/535277号明細書(特許文献1)には、「GAN(Generative Adversarial Networks)を利用して、検出結果の精度と信頼性を向上させることができる異常検出方法、デバイス、およびそのシステムが提供される。本開示のいくつかの実施形態に係る異常検出装置は、GAN(Generative Adversarial Networks)ベースのイメージ変換モデルと異常(anomaly)の検出モデルを格納するメモリと、上記画像変換モデルを使用して低難易度の学習画像を高難易度の学習画像に変換し、上記変換された学習画像を用いて前記異常検出モデルを学習させるプロセッサを含むことができる。異常検出が難しい高難易度の学習画像に異常検出モデルを学習させることで、異常検出装置の検出性能が向上することができる」との技術が記載されている。
米国特許出願公開第16/535277号明細書
上記の特許文献1には、GANを用いることで、画像における異常(例えば、病変等)を検出する手段が開示されている。
しかし、特許文献1に記載の手段は、GANを画像処理に適応することに着目しており、音響信号における異常検出への適用は想定されていないため、音響信号に対する高精度の異常検出は期待することができない。
そこで、本開示は、音響信号を生成した機器に関してGANを用いることで、頑強性(ロバストネス)が高い異常検出手段を提供することを目的とする。
上記の課題を解決するために、代表的な本発明の異常検出装置の一つは、所定の機器の種類毎に、特定の機器を識別するための機器識別情報を格納する機器識別データベースと、前記機器識別情報に基づいて階層条件ベクトルを生成する階層条件ベクトル生成部と、異常検出対象の機器である対象機器から取得した音響信号を分析することで前記音響信号の特徴量を示す対象機器特徴量ベクトルを抽出する抽出部と、前記階層条件ベクトルと、前記対象機器特徴量ベクトルとを解析することで、前記対象機器の周辺環境の背景雑音レベルを示す背景雑音レベル情報と、前記対象機器特徴量ベクトルの真偽を示す真偽判定情報とを出力する階層条件敵対的ニューラルネットワークと、前記背景雑音レベル情報と、前記真偽判定情報とに基づいて、前記対象機器について異常が存在する確率を示す異常スコアを判定する異常判定部とを含む。
本発明によれば、音響信号を生成した機器に関してGANを用いることで、頑強性(ロバストネス)が高い異常検出手段を提供することができる。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
図1は、本発明の実施形態を実施するためのコンピュータシステムのブロック図である。 図2は、本開示の実施形態に係る異常検出システムの論理構成の一例を示す図である。 図3は、本開示の実施形態に係る異常検出システムのハードウェア構成の一例を示す図である。 図4は、本開示の実施形態に係る生成ネットワークの一例を示す図である。 図5は、本開示の実施形態に係る識別ネットワークの一例を示す図である。 図6は、本開示の実施形態に係る階層条件ベクトルの構成の一例を示す図である。 図7は、本開示の実施形態に係る異常検出装置の訓練段階における論理構成の一例を示す図である。 図8は、本開示の実施形態に係る抽出部による対象機器特徴量ベクトル生成処理の一例を示す図である。 図9は、本開示の実施形態に係る階層条件ベクトル生成部による階層条件ベクトル生成処理の一例を示す図である。 図10は、本開示の実施形態に係る異常検出装置の訓練段階の流れを示す訓練処理のフローチャートである。 図11は、本開示の実施形態に係る異常検出装置の推論段階における論理構成の一例を示す図である。 図12は、本開示の実施形態に係る背景雑音レベルと、異常判定閾値との関係を示すグラフの一例である。 図13は、本開示の実施形態に係る異常検出装置の推論段階の流れを示す推論処理のフローチャートである。
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
音響信号に対する異常検出の精度は、多くの要因に依存する。例えば、検証対象の機器の種類によって発生する音が異なるため、音響信号を解析する際には、当該音響信号を生成した機器の種類(ファン、ポンプ、バルブ等)を示す情報を考慮することが望ましい。更に、検証対象の機器が配置されている環境の背景雑音(他の装置の作動音、人間の声、交通による雑音等)も、音響信号の判定に影響を与えるため、検証対象の機器の周辺環境における背景雑音レベルに対応する最適な異常判定閾値を設定することが重要である。
つまり、音響信号に対する異常検出の精度は、例えば、検証対象の機器の種類を示す機器識別情報や、検証対象の機器が配置されている環境の背景雑音のレベルを示す背景雑音情報等、様々な要因に依存することを前提として検討することが重要となる。
しかし、従来の機械学習ベースの音響信号に対する異常検出手段では、ニューラルネットワークは正常の音響信号のみによって訓練されており、検証対象の機器の種類や、検証対象の機器が配置されている環境の背景雑音等が考慮されていないため、このように訓練したニューラルネットワークを実際の音響信号の異常検出に適用した場合、別個の雑音抑制手段が必要となる上、現場での異常検出精度が限定されてしまう。
従って、上記の問題を解決するために、本開示の実施形態に係る異常検出装置は、検証対象の機器から取得した音響信号を近似した偽ベクトルを生成する生成ネットワークと、入力したベクトルの真偽を判定すると共に、検証対象の機器が配置されている環境における背景雑音のレベルを判定する識別ネットワークとを有する階層条件敵対的ニューラルネットワークを含む。この階層条件敵対的ニューラルネットワークは、機器から取得した
音響信号の特徴量を示す対象機器特徴量ベクトルと、機器のタイプを示すタイプ情報及び機器の識別子を示す識別子情報を含む階層条件ベクトルとに基づいて訓練される。このように、機器に関する情報を含む階層条件ベクトルを用いることにより、生成ネットワークは本物の音響信号に対する類似性がより高い偽ベクトルを生成するように訓練され、識別ネットワークは、より高精度の異常検出を行うように訓練される。
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、異常検出アプリケーション350を格納していてもよい。ある実施形態では、異常検出アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
ある実施形態では、異常検出アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、異常検出アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
次に、図2を参照して、本開示の実施形態に係る異常検出システムの論理構成について説明する。
図2は、本開示の実施形態に係る異常検出システム200の論理構成の一例を示す図である。上述したように、本開示の実施形態に係る異常検出システム200は、音響信号を生成した機器に関する識別情報と、当該機器が配置されている環境の雑音レベルに関する情報とを考慮する階層条件GANを用いることで、頑強性(ロバストネス)が高い異常検出を行うためのシステムである。
図2に示すように、本開示の実施形態に係る異常検出システム200は、異常検出装置1、センサ部2、及び対象機器3を主に含む。異常検出装置1、センサ部2、及び対象機器3は、LAN(Local Area Network)やインターネット等、任意の通信ネットワークを介して互いに接続されてもよい。
対象機器3は、工場やデータセンター等の施設に配置されている機器であり、異常検出処理の対象となる音響信号を生成する機器である。対象機器3は、例えばデータセンターに配置されているサーバや、工場に配置されている装置等、作動に伴って音響信号が発生する機器であれば任意の機器であってもよい。
センサ部2は、対象機器3からの音響信号を取得するためのセンサ装置である。センサ部2は、例えば対象機器3の付近や内部等に設置されているマイクロフォンや録音装置であってもよい。センサ部2は、対象機器3から取得した音響信号を、異常検出処理の対象となる音響信号D0として異常検出装置1に送信してもよい。
図2に示すように、異常検出装置1は、抽出部12、階層条件ベクトル生成部13、階層条件敵対的ニューラルネットワーク14、異常判定部15、学習データベース(以下、「学習DB」という)16、機器識別データベース(以下、「機器識別DB」という)17、及びノイズ生成部18を含む。
抽出部12は、対象機器3から取得した音響信号D0を分析することで音響信号D0の特徴量を示す対象機器特徴量ベクトルD1を抽出する機能部である。抽出部12は、例えば、対象機器3から取得した音響信号D0を窓関数に通して、周波数スペクトルを計算した結果を、時間、周波数、信号成分の強さの3次元を表すスペクトログラム(例えばLog-Mel Spectrogram)を音響信号D0の特徴として抽出してもよい。ある実施形態では、抽出部12は、対象機器特徴量ベクトルD1を音響信号D0から抽出するためのアルゴリズム及びパラメータを、学習DB17から取得してもよい。対象機器特徴量ベクトルD1を抽出した後、抽出部12は、対象機器特徴量ベクトルD1を階層条件敵対的ニューラルネットワーク14に転送する。
学習DB17は、対象機器特徴量ベクトルD1を抽出するためのアルゴリズム及びパラメータや、階層条件敵対的ニューラルネットワーク14を訓練するためのパラメータを格納するためのデータベースである。
機器識別DB16は、様々な機器に関する識別情報を格納するためのデータベースである。例えば、機器識別DB16は、所定の機器の種類毎に、特定の機器を識別するための機器識別情報を格納してもよい。一例として、機器識別DB16は、機器のタイプ(ファン、ポンプ、バルブ等)を示すタイプ情報と、機器の識別子を示す識別子情報(特定の機器の製番、型番、ID-N等)を格納してもよい。
階層条件ベクトル生成部13は、機器識別DB16に格納されている機器識別情報に基づいて、階層条件ベクトル(hierarchical conditional vector)D2を生成するための機能部である。ある実施形態では、階層条件ベクトル生成部13は、機器識別DB16に格納されている機器識別情報に基づいて、ワンホットベクトル生成手段によって階層条件ベクトルD2を生成してもよい。
この階層条件ベクトルD2とは、所定の階層条件(例えば、機器の識別情報)に関する情報を含むデータ構造である。この階層条件ベクトルを用いて階層条件敵対的ニューラルネットワーク14を訓練することで、より正確な潜在空間表現が可能となり、本物の音響信号D0に対する類似性がより高い偽ベクトルを生成することができる。
なお、階層条件ベクトルD2の構成の詳細については、図6を参照して説明するため、ここではその説明を省略する。
ノイズ生成部18は、雑音の信号を生成するための機能部である。ある実施形態では、ノイズ生成部18は、特定の機器(例えば、対象機器等)の正常の音響信号に基づいた雑音ベクトルD3を生成してもよい。例えば、ノイズ生成部18は、雑音ベクトルD3を生成し、当該雑音ベクトルD3を後述する階層条件敵対的ニューラルネットワーク14に入力してもよい。後述するように、階層条件敵対的ニューラルネットワーク14は、この雑音ベクトルD3と、階層条件ベクトルD2とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルを生成することができる。
階層条件敵対的ニューラルネットワーク14は、階層条件ベクトルD2と、対象機器特徴量ベクトルD1とを解析することで、対象機器の周辺環境の背景雑音レベルを示す背景雑音レベル情報と、対象機器特徴量ベクトルの真偽を示す真偽判定情報とを生成するためのニューラルネットワークである。
より具体的には、階層条件敵対的ニューラルネットワーク14は、階層条件ベクトルD2と、雑音の信号に基づいて生成された雑音ベクトルD3とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する生成ネットワークと、対象機器特徴量ベクトルD1及び偽ベクトルD6の真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、背景雑音レベルを判定する背景雑音判定を行い、背景雑音レベル情報を生成する識別ネットワークとを含む。
訓練段階では、階層条件敵対的ニューラルネットワーク14は、真偽判定による交差エントロピー損失と、背景雑音判定による交差エントロピー損失とを最小化するように学習される。これらの損失を最小化するためのニューラルネットワークパラメータは、学習DB17に格納される。
また、推論段階では、訓練済みの階層条件敵対的ニューラルネットワーク14を用いて所定の音響信号を解析することで、高精度の異常検出結果を生成することができる。
なお、階層条件敵対的ニューラルネットワーク14の構成の詳細については後述するため、ここではその説明を省略する。
異常判定部15は、対象機器特徴量ベクトルにおいて異常が存在するか否かを判定するための機能部である。ある実施形態では、異常判定部15は、訓練済みの生成ネットワークによって計算される異常スコアεと、訓練済みの識別ネットワークによって判定される異常判定閾値とに基づいて、対象機器特徴量ベクトルD1が正常か異常かを示す異常検出結果を生成する。ここでの異常スコアとは、音響信号D0において異常が存在する確率を示す尺度であり、例えば0~1の範囲内の数値として表現してもよい。
次に、図3を参照して、本開示の実施形態に係る異常検出システム200のハードウェア構成について説明する。
図3は、本開示の実施形態に係る異常検出システム200のハードウェア構成の一例を示す図である。上述したように、本開示の実施形態に係る異常検出システム200は、異常検出装置1、センサ部2、及び対象機器3を主に含む。異常検出装置1、センサ部2、及び対象機器3は、LAN(Local Area Network)やインターネット等、任意の通信ネットワーク29を介して互いに接続されてもよい。
なお、異常検出システム200のそれぞれの機能部は図2を参照して上述したため、ここでは、重複する説明を省略する
異常検出装置1は、一般的なコンピューターデバイス(例えば、図1を参照して説明したコンピュータシステム300)として実現されてもよい。例えば、図3に示すように、異常検出装置1は、メモリ21、プロセッサ25、及びI/Oデバイス24を含む。
メモリ21は、例えば、RAM、フラッシュメモリ、ハードディスクドライブ等の任意の記憶装置であってもよい。図3に示すように、メモリ21は、ノイズ生成部18、階層条件ベクトル生成部13、抽出部12、階層条件敵対的ニューラルネットワーク14、及び異常判定部15のそれぞれの機能を実施するためのソフトウェアモジュールを含む。
プロセッサ25は、例えば1つ又は複数のマイクロプロセッサであり、メモリ21に格納されているソフトウェアモジュールの指令を実行する。
I/Oデバイス24は、例えば、キーボード、マウス、タッチ画面等の、ユーザ入力を受け付けるためのデバイスや、ディスプレイ、スピーカ等の、情報を出力するためのデバイスを含んでもよい。
以上、図2及び図3を参照して説明したように構成した異常検出システム200によれば、音響信号を生成した機器に関する識別情報と、当該機器が配置されている環境の雑音レベルに関する情報とを考慮する階層条件GANを用いることで、頑強性(ロバストネス)が高い異常検出手段を提供することができる。
次に、図4を参照して、本開示の実施形態に係る生成ネットワークについて説明する。
図4は、本開示の実施形態に係る生成ネットワーク26の一例を示す図である。上述したように、本開示の実施形態に係る生成ネットワーク26は、対象機器の音響信号から抽出した特徴量ベクトルである対象機器特徴量ベクトルD1(図4では図示せず)を近似した偽ベクトルD6を生成するための生成ネットワークである。
図4に示すように、生成ネットワーク26は、上述したノイズ生成部(例えば、図2に示すノイズ生成部18)によって生成される雑音ベクトルD3と、機器の種類を示すタイプ情報を含む機器タイプベクトルD4と、機器の識別子を示す識別子情報を含む機器識別ベクトルD5とを入力する。
生成ネットワーク26は、雑音ベクトルD3と、機器の種類を示すタイプ情報を含む機器タイプベクトルD4と、機器の識別子を示す識別子情報を含む機器識別ベクトルD5とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する。後述するように、識別ネットワークは、この偽ベクトルD6及び対象機器特徴量ベクトルD1の真偽を判定する真偽判定を行う。
以上説明したように、雑音ベクトルD3に加えて、機器タイプベクトルD4と、機器識別ベクトルD5とを生成ネットワーク26に入力することで、より正確な潜在空間表現が可能となり、生成ネットワーク26は、対象機器特徴量ベクトルD1により近い偽ベクトルD6を生成することができる。また、訓練されるにつれて、生成ネットワーク26は、対象機器特徴量ベクトルD1に対する類似度がより高い偽ベクトルを生成するように学習される。
なお、生成ネットワーク26の訓練段階での処理及び推論段階での処理については後述する。
次に、図5を参照して、本開示の実施形態に係る識別ネットワークについて説明する。
図5は、本開示の実施形態に係る識別ネットワーク27の一例を示す図である。上述したように、本開示の実施形態に係る識別ネットワーク27は、対象機器特徴量ベクトルD1及び偽ベクトルD6の真偽を判定する真偽判定を行い、真偽判定情報510を生成すると共に、背景雑音レベルを判定する背景雑音判定を行い、背景雑音レベル情報520を生成するため識別ネットワークである。
図5に示すように、識別ネットワーク27は、対象機器から取得した音響信号の特徴量を示す対象機器特徴量ベクトルD1と、上述した生成ネットワーク26によって生成される、対象機器特徴量ベクトルD1を近似した偽ベクトルD6と、機器の種類を示すタイプ情報を含む機器タイプベクトルD4と、機器の識別子を示す識別子情報を含む機器識別ベクトルD5とを入力する。
なお、識別ネットワーク27は、対象機器特徴量ベクトルD1と、偽ベクトルD6とを同時に入力せず、どちらのベクトルを入力するかは、図5に示すスイッチ505によって制御されてもよい。このスイッチ505は、抽出部12からの対象機器特徴量ベクトルD1を識別ネットワーク27に入力するか、生成ネットワーク26からの偽ベクトルD6を入力するかをランダムに判定するスイッチである。
識別ネットワーク27は、入力した機器タイプベクトルD4と、機器識別ベクトルD5と、対象機器特徴量ベクトルD1又は偽ベクトルD6とを解析することで、対象機器特徴量ベクトルD1又は偽ベクトルD6に対する真偽判定を行い、真偽判定情報510を生成する。
ここでの真偽判定とは、対象機器特徴量ベクトルD1又は偽ベクトルD6が本物(すなわち、対象機器から取得した音響信号の本物の特徴量ベクトル)か偽物(すなわち、生成ネットワークによって生成された偽物の特徴量ベクトル)かを判定する処理である。この真偽判定の結果は、真偽判定情報510に示される。
一例として、識別ネットワーク27は、真偽判定の結果を二進数(バイナリー)で示したベクトルを真偽判定情報510として出力してもよい。例えば、識別ネットワーク27は、対象のベクトルを「本物」と判定した場合に「1」を、対象のベクトルを「偽物」と判定した場合に「0」を含むベクトルを真偽判定情報510として出力してもよい。
また、識別ネットワーク27は、入力した機器タイプベクトルD4と、機器識別ベクトルD5と、対象機器特徴量ベクトルD1又は偽ベクトルD6とを解析することで、対象機器特徴量ベクトルD1又は偽ベクトルD6に対する背景雑音判定を行い、背景雑音レベル情報520を生成する。
ここでの背景雑音とは、対象機器が配置されている環境において、他の装置の作動音、人間の声、交通による騒音等、対象機器以外の発生源から発生する音を意味する。また、ここでの背景雑音判定とは、対象機器特徴量ベクトルD1又は偽ベクトルD6における背景雑音のレベル(度合い)を判定する処理である。この背景雑音判定の結果は、背景雑音レベル情報520に示される。
一例として、識別ネットワーク27は、対象機器特徴量ベクトルD1又は偽ベクトルD6における背景雑音のレベルを「Δ:低い」(例えば、-6dB)、「Δ:中」(例えば0dB)、「Δ:高」(例えば、6dB)のいずれか一方に分類すると共に、判定した背景雑音のレベルに応じて適切な異常判定閾値を選択した後、判定した背景雑音のレベルと、選択した異常判定閾値を背景雑音レベル情報520として出力してもよい。
また、識別ネットワーク27は、真偽判定による交差エントロピー損失と、背景雑音判定による交差エントロピー損失とを計算し、これらの交差エントロピー損失を最小化するように学習される。このように、以上説明した識別ネットワーク27によれば、真偽判定及び背景雑音判定の精度が向上し、推論段階では、より高精度の異常検出を行うことができる。
次に、図6を参照して、本開示の実施形態に係る階層条件ベクトルの構成について説明する。
図6は、本開示の実施形態に係る階層条件ベクトルD2の構成の一例を示す図である。上述したように、本開示における階層条件ベクトルD2とは、所定の階層条件(例えば、機器の識別情報)に関する情報を含むデータ構造であり、この階層条件ベクトルを用いて階層条件敵対的ニューラルネットワークを訓練することで、より正確な潜在空間表現が可能となり、本物の音響信号D0に対する類似性がより高い偽ベクトルを生成することができる。
なお、以下では、機器の識別情報を階層条件とした場合を一例として説明するが、本開示はこれに限定されず、異常検出手段が応用される分野に合わせて適切な階層条件を選択してもよい。
上述したように、階層条件ベクトルD2は、機器識別DB(例えば、図2及び図3に示す機器識別DB16)に格納されている機器識別情報に基づいて生成される。この機器識別情報には、機器のタイプを示すタイプ情報610と、機器の識別子を示す識別子情報620とが、特定の機器を識別するための2階層の情報として含まれる。
より具体的には、タイプ情報610は、ファン、ポンプ、スライダー、バルブ等、機器の種類を含んでもよい。また、識別子情報620は、タイプ情報610における危機のタイプ毎に、特定の機器を識別するID-0~ID-6を含んでもよい。これにより、任意の機器は、タイプ情報610と、識別子情報620とで一意に識別することができる(ファン、ID-3等)。
上述した階層条件ベクトル生成部(例えば、図2及び図3に示す階層条件ベクトル生成部13)は、このタイプ情報610と、識別子情報620に基づいて、いわゆるワンホットベクトル(すなわち、1つだけの要素の値が「1」であり、それ以外の要素の値が「0」となるベクトル)生成手段によって階層条件ベクトルD2を生成してもよい。
図6に示すように、階層条件ベクトルD2は、機器のタイプを示す機器タイプベクトルD4と、機器の識別子を示す機器識別ベクトルD5とを含む。
また、図6に示すように、機器タイプベクトルD4と、機器識別ベクトルD5とは二進数(バイナリー)形式のベクトルであり、特定の機器に対応するタイプの要素及び当該機器の識別子に対応する要素の値が「1」となっており、それ以外の要素の値が「0」となる。
一例として、図6に示されている機器タイプベクトルD4と、機器識別ベクトルD5とは、タイプが「ポンプ」で識別子が「ID-6」の機器に対応する。
以上説明したように構成した階層条件ベクトルD2を用いて階層条件敵対的ニューラルネットワークを訓練することで、より正確な潜在空間表現が可能となり、本物の音響信号D0に対する類似性がより高い偽ベクトルを生成することができる。
次に、図7を参照して、本開示の実施形態に係る異常検出装置の訓練段階における論理構成について説明する。
図7は、本開示の実施形態に係る異常検出装置1の訓練段階における論理構成の一例を示す図である。ここでの訓練段階とは、生成ネットワーク26による偽ベクトルD6を生成する処理と、識別ネットワーク27による真偽判定及び背景雑音判定との精度を向上するように階層条件敵対的ニューラルネットワークを学習する段階である。
まず、抽出部12は、対象機器(図7では図示せず)から取得した音響信号D0を分析することで、音響信号D0の特徴量を示す対象機器特徴量ベクトルD1を抽出する。また、生成ネットワーク26は、ノイズ生成部18によって生成される雑音ベクトルD3と、階層条件ベクトル生成部13によって生成される階層条件ベクトルD2とを入力し、これらのベクトルD2、D3に基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する。
次に、識別ネットワーク27は、抽出部12によって抽出された対象機器特徴量ベクトルD1と、偽ベクトルD6と、階層条件ベクトルD2とを入力し、上述した真偽判定及び背景雑音判定を行うことで、対象機器特徴量ベクトルD1及び/又は偽ベクトルD6の真偽を示す真偽判定情報510と、対象機器特徴量ベクトルD1及び/又は偽ベクトルD6における背景雑音のレベルを示す背景雑音レベル情報520を出力する。
次に、識別ネットワーク27は、真偽判定による交差エントロピー損失を示す第1の損失lと、背景雑音判定による交差エントロピー損失を示す第2の損失lを計算する。その後、この第1の損失lと第2の損失lとの和である全体損失L(L=l+l)は、生成ネットワーク26及び識別ネットワーク27に入力される。生成ネットワーク26及び識別ネットワーク27は、この全体損失Lを最小化するように、パラメータを更新する。更新したニューラルネットワークパラメータは、例えば上述した学習DBに格納されてもよい。
なお、ここでの全体損失Lは、第1の損失lと第2の損失lの加重平均であってもよい。
以上説明した訓練段階では、生成ネットワーク26及び識別ネットワーク27が真偽判定及び背景雑音判定の損失を最小化するように学習され、これにより、生成ネットワーク26による偽ベクトルD6を生成する処理と、識別ネットワーク27による真偽判定及び背景雑音判定の精度が向上する。
次に、図8を参照して、本開示の実施形態に係る抽出部による対象機器特徴量ベクトル生成処理について説明する。
図8は、本開示の実施形態に係る抽出部12による対象機器特徴量ベクトル生成処理800の一例を示す図である。図8に示す対象機器特徴量ベクトル生成処理800は、対象機器特徴量ベクトルを生成するための処理であり、抽出部12によって行われる。
まず、ステップS801では、抽出部12は、対象機器3から取得した音響信号D0をセンサ部から受信し、アナログーデジタル変換処理を行うことで、アナログの音響信号D0をデジタルの信号に変換した後、所定の記憶部(例えば、図2に示す学習DB17)に保存する。
次に、ステップS803では、抽出部12は、ステップS801で受信され、デジタルの信号に変換された音響信号D0を、予め定められたフレームサイズに基づいて分割することで、所定の数のフレームを含むフレーム信号を生成する(なお、フレームは重なってもよい)。
次に、ステップS805では、抽出部12は、ステップS803で生成されたフレーム信号と、所定の窓関数とを乗算させることで、窓関数乗算信号(window function multiplication signal)を生成する。ここでの窓関数とは、例えばいわゆるHanning窓関数であってもよい。
次に、ステップS807では、抽出部12は、ステップS805で生成された窓関数乗算信号に対して、短時間フーリエ変換を行うことで、当該信号の周波数領域(frequency domain)及びパワースペクトグラム(power spectogram)を計算する。
一例として、窓関数乗算信号のフレームサイズがN個の場合、当該信号の周波数領域はM個の複素数のセットであり、複素数のセットにおける各複素数は、M個の周波数ビンのそれぞれに対応する。そして、抽出部12は、この周波数領域の信号に基づいてパワースペクトグラムを計算する。
次に、ステップS809では、抽出部は12、ステップS807で生成された信号のパワースペクトグラムと、いわゆるメルフィルタバンクとを乗算させることで、メルパワースペクトグラムを生成する。
なお、ここでは、本開示はメルフィルタバンクに限定されず、例えば1/3オクターブバンドフィルター等、任意のフィルタバンクを用いてもよい。
次に、ステップS811では、抽出部12は、ステップS809で生成されたメルパワースペクトグラムに対して、所定の対数(logarithm)を適用することで、対数メルパワースペクトログラム(logarithmic mel power spectogram)を生成する。そして、この対数メルパワースペクトログラムにおいて、隣接するフレームを繋げることで、対象機器特徴量ベクトルD1を生成する。
以上説明した対象機器特徴量ベクトル生成処理800によれば、本開示の実施形態に係る階層条件敵対的ニューラルネットワークに入力される対象機器特徴量ベクトルD1を生成することができる。
次に、図9を参照して、本開示の実施形態に係る階層条件ベクトル生成部による階層条件ベクトル生成処理について説明する。
図9は、本開示の実施形態に係る階層条件ベクトル生成部による階層条件ベクトル生成処理900の一例を示す図である。図9に示す階層条件ベクトル生成処理900は、階層条件ベクトルを生成するための処理であり、階層条件ベクトル生成部13によって行われる。
まず、ステップS901及びステップS902では、階層条件ベクトル生成部13は、上述した機器識別DB(例えば、図2及び図3に示す機器識別DB16)から、特定の機器に関するタイプ情報及び識別子情報を取得する。
次に、ステップS903では、階層条件ベクトル生成部13は、取得したタイプ情報に対して、いわゆるワンホットベクトル生成手段を行うことで、機器タイプベクトルD4を生成する。
次に、ステップS904では、階層条件ベクトル生成部13は、取得した識別子情報に対して、いわゆるワンホットベクトル生成手段を行うことで、機器識別ベクトルD5を生成する。
次に、ステップS905では、階層条件ベクトル生成部13は、ステップS903で生成した機器タイプベクトルD4と、ステップS904で生成した機器識別ベクトルD5とを結合することで、階層条件ベクトルD2を生成する。
以上説明した階層条件ベクトル生成処理900によれば、本開示の実施形態に係る階層条件敵対的ニューラルネットワークに入力される階層条件ベクトルD2を生成することができる。
次に、図10を参照して、本開示の実施形態に係る異常検出装置の訓練段階の流れについて説明する。
図10は、本開示の実施形態に係る異常検出装置の訓練段階の流れを示す訓練処理1000のフローチャートである。図10に示す訓練処理1000は、生成ネットワークによる偽ベクトルを生成する処理と、識別ネットワークによる真偽判定及び背景雑音判定との精度を向上するために行われる処理である。また、この訓練処理1000は、異常検出装置の各機能部によって行われる。
ます、ステップS1002では、生成ネットワーク26は、上述したノイズ生成部(例えば、図2及び図3に示すノイズ生成部18)によって生成される雑音ベクトルD3と、階層条件ベクトル生成部によって生成される階層条件ベクトルD2とを入力し、これらのベクトルD2、D3に基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する。
次に、ステップS1004では、識別ネットワーク27は、抽出部によって抽出された対象機器特徴量ベクトルD1と、ステップS1002で生成ネットワーク26によって生成された偽ベクトルD6と、階層条件ベクトルD2とを入力し、上述した真偽判定及び背景雑音判定を行うことで、対象機器特徴量ベクトルD1及び/又は偽ベクトルD6の真偽を示す真偽判定情報と、対象機器特徴量ベクトルD1及び/又は偽ベクトルD6における背景雑音のレベルを示す背景雑音レベル情報を出力する。
次に、ステップS1006では、識別ネットワーク27は、真偽判定による交差エントロピー損失を示す第1の損失lを計算する。
次に、ステップS1008では、識別ネットワーク27は、背景雑音判定による交差エントロピー損失を示す第2の損失lを計算する。
次に、ステップS1010では、識別ネットワーク27は、ステップS1006で計算した第1の損失lと、ステップS1008で計算した第2の損失lとの和である全体損失L(L=l+l)を計算する。
なお、ここでの全体損失Lは、第1の損失lと第2の損失lの加重平均であってもよい。
次に、ステップS1012では、識別ネットワーク27は、ステップS1010で計算した全体損失Lが、所定の収束条件(convergence condition)τより少ないか、エポック数Cが所定のエポック数上限Ctを超えるか否かを計算する。ここでの収束条件τ及びエポック数上限Ctは、例えばユーザによって設定されてもよく、過去の訓練に基づいて自動的に定められてもよい。
ステップS1010で計算した全体損失Lが、収束条件τより少ないか、エポック数Cが所定のエポック数上限Ctを超える場合には、本処理はステップS1018へ進み、ステップS1010で計算した全体損失Lが、収束条件τ以上か、エポック数Cが所定のエポック数上限Ctを超えない場合には、本処理はステップS1014へ進む。
ステップS1014では、識別ネットワーク27は、新たな収束条件を設定する。上述したように、この新たな収束条件は、例えばユーザによって設定されてもよく、過去の訓練に基づいて自動的に定められてもよい。
ステップS1016では、識別ネットワーク27は、エポック数Cを1で加算した後、ステップS1010で計算した全体損失を生成ネットワーク26及び識別ネットワーク27に入力する。その後、生成ネットワーク26及び識別ネットワーク27は、この全体損失Lを最小化するように、ニューラルネットワークのパラメータを更新する。
ステップS1018では、ステップS1010で計算した全体損失Lが、収束条件τより少ないか、エポック数Cが所定のエポック数上限Ctを超える場合には、訓練処理1000が終了し、現在の生成ネットワーク26及び識別ネットワーク27のニューラルネットワークパラメータが学習DB(例えば、図2及び図3に示す学習DB17)に格納される。これらのニューラルネットワークパラメータを生成ネットワーク26及び識別ネットワーク27に設定することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークが得られる。
以上説明した訓練処理1000によれば、生成ネットワーク26及び識別ネットワーク27が真偽判定及び背景雑音判定の損失を最小化するように学習され、これにより、生成ネットワーク26による偽ベクトルD6を生成する処理と、識別ネットワーク27による真偽判定及び背景雑音判定の精度が向上する。
次に、図11を参照して、本開示の実施形態に係る異常検出装置の推論段階における論理構成について説明する。
図11は、本開示の実施形態に係る異常検出装置1の推論段階における論理構成の一例を示す図である。ここでの推論段階とは、上述した訓練処理によって得られた訓練済みの生成ネットワーク26A及び訓練済みの識別ネットワーク27Bを用いて、検証対象の機器から取得した対象機器特徴量ベクトルを解析することで異常の有無を判定する処理を行う段階である。
なお、推論段階の説明では、上述した訓練段階と同一の用語を用いて説明するが、推論段階における対象機器、音響信号、各種ベクトル等は、訓練段階とは異なってもよい(つまり、訓練段階で説明した階層条件ベクトル、対象機器、音響信号、対象機器特徴量ベクトル、背景雑音レベル、背景雑音レベル情報、及び偽ベクトル等は訓練用に用いられたが、推論段階では、訓練段階とは異なる第2の階層条件ベクトル、第2の対象機器、第2の音響信号、第2の対象機器特徴量ベクトル、第2の背景雑音レベルを示す第2の背景雑音レベル情報、及び第2の偽ベクトルを推論用に用いてもよい)。
まず、訓練済みの識別ネットワーク27Bは、対象機器から取得した音響信号の特徴量を示す対象機器特徴量ベクトルD1と、階層条件ベクトルD2とを入力した後、対象機器特徴量ベクトルD1に対する背景雑音判定を行い、背景雑音レベル情報520を生成する。また、ここで、訓練済みの識別ネットワーク27Bは、背景雑音判定によって判定された、検証対象の機器の周辺環境における雑音レベルに応じて、適切な異常判定閾値を選択してもよい。背景雑音レベル情報520は、判定した背景雑音レベル(Δ、Δ、Δ)と、選択された異常判定閾値(η、η、η)とを含んでもよい。
なお、異常判定閾値の選択については、図12を参照して後述するため、ここではその説明を省略する。
訓練済みの生成ネットワーク26Aは、階層条件ベクトルD2と、雑音の信号に基づいて生成された雑音ベクトルD3とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する。その後、訓練済みの生成ネットワーク26Aは、生成した偽ベクトルD6と、対象機器特徴量ベクトルD1とに基づいて、対象機器特徴量ベクトルD1に対する異常スコアεを計算する。
ここでの異常スコアεは、音響信号において異常が存在する確率を示す尺度であり、例えば0~1の範囲内の数値として表現してもよい。ある実施形態では、異常スコアεは、例えば生成した偽ベクトルD6と、対象機器特徴量ベクトルD1とのユークリッド距離として計算されてもよく、以下の数式1によって求められる。
Figure 0007453136000001
ここでは、Xは、対象機器特徴量ベクトルD1であり、X’は、生成した偽ベクトルD6である。
次に、異常判定部15は、訓練済みの生成ネットワーク26Aによって計算された異常スコアεと、訓練済みの識別ネットワーク27Bによって生成された背景雑音レベル情報520に含まれる異常判定閾値とに基づいて、対象機器特徴量ベクトルD1が正常か異常かを示す異常検出結果を生成する。
以上説明したように、訓練済みの識別ネットワーク27B及び訓練済みの生成ネットワーク26Aを用いて任意の音響信号を解析することで、検証対象の機器の種類及び検証対象の機器が配置されている環境の背景雑音を考慮した、頑強性(ロバストネス)が高い異常検出結果を生成することができる。
次に、図12を参照して、本開示の実施形態に係る背景雑音レベルと、異常判定閾値との関係について説明する。
図12は、本開示の実施形態に係る背景雑音レベルと、異常判定閾値との関係を示すグラフの一例である。
上述したように、本開示では、所定の音響信号において異常が存在するか否かとの判定は、階層条件敵対的ニューラルネットワークによって生成された異常スコアεと、当該音響信号における背景雑音レベルに応じて選択される異常判定閾値ηとに基づいて行われる。
ここでの異常判定閾値ηとは、正常と判定される異常スコアと、異常と判定される異常スコアとの境界を規定する値であり、上述したように、音響信号における背景雑音レベルに応じて選択される。
ある実施形態では、異常判定閾値は、音響信号における背景雑音レベル「Δ:低い」(例えば、-6dB)、「Δ:中」(例えば0dB)、「Δ:高」に基づいて、η、η、ηとの3つの段階の中から選択されてもよい。
例えば、異常判定閾値ηは、以下の数式2に従って選択されてもよい。
Figure 0007453136000002
異常判定閾値ηが設定された後、音響信号における異常の有無の判定は、ここで選択された異常判定閾値ηと、階層条件敵対的ニューラルネットワークによって生成された異常スコアεとの関係に基づいて行われる。
例えば、上述した背景雑音判定の結果、背景雑音レベルがΔ(低い)と判定された場合、異常判定閾値がηとして選択される。その後、図12におけるグラフ1210に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがηの異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがηの異常判定閾値以上の場合、当該信号が異常と判定される。
また、上述した背景雑音判定の結果、背景雑音レベルがΔ(中)と判定された場合、異常判定閾値がηとして選択される。その後、図12におけるグラフ1220に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがηの異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがηの異常判定閾値以上の場合、当該信号が異常と判定される。
更に、上述した背景雑音判定の結果、背景雑音レベルがΔ(高い)と判定された場合、異常判定閾値がηとして選択される。その後、図12におけるグラフ1230に示すように、上述した訓練済みの生成ネットワークによって計算された異常スコアεがηの異常判定閾値未満の場合、当該信号が正常と判定され、異常スコアεがηの異常判定閾値以上の場合、当該信号が異常と判定される。
以上説明したように、階層条件敵対的ニューラルネットワークによって生成された異常スコアεと、当該音響信号における背景雑音レベルに応じて選択される異常判定閾値ηとに基づいて所定の音響信号において異常が存在するか否かを判定することで、検証対象の機器の種類及び検証対象の機器が配置されている環境の背景雑音を考慮した、頑強性(ロバストネス)が高い異常検出結果を生成することができる。
次に、図13を参照して、本開示の実施形態に係る異常検出装置の推論段階の流れについて説明する。
図13は、本開示の実施形態に係る異常検出装置の推論段階の流れを示す推論処理1300のフローチャートである。図13に示す推論処理1300は、上述した訓練処理によって得られた訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを用いて、検証対象の機器から取得した対象機器特徴量ベクトルを解析することで異常の有無を判定するための処理である。また、この訓練処理1300は、異常検出装置の各機能部によって行われる。
まず、ステップS1302では、抽出部12は、対象機器から取得した音響信号D0を入力し、分析することで音響信号D0の特徴量を示す対象機器特徴量ベクトルD1を抽出する。
次に、ステップS1304では、訓練済みの識別ネットワーク27Bは、抽出部によって抽出された対象機器特徴量ベクトルD1と、階層条件ベクトルD2とを入力した後、対象機器特徴量ベクトルD1に対する背景雑音判定を行い、背景雑音レベル情報を生成する。この背景雑音レベル情報は、背景雑音判定によって判定された、検証対象の機器の周辺環境における雑音レベルに対応する最適な異常判定閾値η(例えば、η、η、η)を含んでもよい。
次に、ステップS1306では、訓練済みの生成ネットワーク26Aは、階層条件ベクトルD2と、雑音の信号に基づいて生成された雑音ベクトルD3とに基づいて、対象機器特徴量ベクトルD1を近似した偽ベクトルD6を生成する。その後、訓練済みの生成ネットワーク26Aは、生成した偽ベクトルD6と、対象機器特徴量ベクトルD1とに基づいて、対象機器特徴量ベクトルD1に対する異常スコアεを計算する。
ここでの異常スコアεの計算は、例えば上述した数式1に従って行われてもよい。
次に、ステップS1308では、異常判定部は、訓練済みの生成ネットワーク26Aによって計算された異常スコアεと、訓練済みの識別ネットワーク27Bによって生成された背景雑音レベル情報に含まれる異常判定閾値ηとに基づいて、対象機器特徴量ベクトルD1が正常か異常かを示す異常検出結果を生成する。より具体的には、異常判定部は、ステップS1306で計算した異常スコアεが選択された異常判定閾値η以上か否かを判定する。
異常スコアεが選択された異常判定閾値η以上の場合、異常判定部は、音響信号D0において異常が存在すると判定し、音響信号D0において異常が存在することを示す異常検出結果を出力する。一方、異常スコアεが選択された異常判定閾値ηより少ない場合、異常判定部は、音響信号D0において異常が存在しないと判定し、音響信号D0において異常が存在しないことを示す異常検出結果を出力する。
ここで出力される異常検出結果は、例えば、音響信号D0の発生源となった対象機器の管理者(工場の責任者等)に送信されてもよく、任意の第三者に送信されてもよい。
以上説明したように、訓練済みの識別ネットワーク27B及び訓練済みの生成ネットワーク26Aを用いて任意の音響信号を解析することで、検証対象の機器の種類及び検証対象の機器が配置されている環境の背景雑音を考慮した、頑強性(ロバストネス)が高い異常検出結果を生成することができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
以上では、本開示の実施形態に係る異常検出の様々な実施形態を音響信号に適用した場合を一例として説明したが、本開示はこれに限定されず、例えば画像や映像等、任意のドメインに対して適用されてもよい。また、本開示における階層条件はドメインのデータセットによって適宜に選択されてもよい。ドメインのデータセットによって適宜に選択された階層条件を用いることで、当該ドメインにおいてより正確な潜在空間表現が可能となり、異常検出の精度を向上させることができる。所定の音、量子化ノイズ(quantization noise)、異なる照度値等を異常判定閾値として用いられてもよい。また、この場合、識別ネットワークは、適切な閾値を選択するための分類器(classifier)として用いられてもよい。
1 異常検出装置
2 センサ部
3 対象機器
12 抽出部
13 階層条件ベクトル生成部
14 階層条件敵対的ニューラルネットワーク
15 異常判定部
16 機器識別DB
17 学習DB
18 ノイズ生成部
26 生成ネットワーク
27 識別ネットワーク
26A 訓練済みの生成ネットワーク
27B 訓練済みの識別ネットワーク
200 異常検出システム
510 真偽判定情報
520 背景雑音レベル情報
610 タイプ情報
620 識別子情報
800 対象機器特徴量ベクトル生成処理
900 階層条件ベクトル生成処理
1000 訓練処理
1300 推論処理
D0 音響信号
D1 対象機器特徴量ベクトル
D2 階層条件ベクトル
D3 雑音ベクトル
D4 機器タイプベクトル
D5 機器識別ベクトル
D6 偽ベクトル

Claims (11)

  1. 異常検出装置であって、
    機器の種類毎に特定の機器を識別するための機器識別情報を格納する機器識別データベースと、
    前記機器識別情報に基づいて階層条件ベクトルを生成する階層条件ベクトル生成部と、
    異常検出対象の機器である対象機器から取得した音響信号を分析することで前記音響信号の特徴量を示す対象機器特徴量ベクトルを抽出する抽出部と、
    前記階層条件ベクトルと、前記対象機器特徴量ベクトルとを解析することで、前記対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、判定した背景雑音レベルを示す背景雑音レベル情報を生成する階層条件敵対的ニューラルネットワークと、
    少なくとも前記背景雑音レベルに応じて選択される異常判定閾値を用いて、前記対象機器特徴量ベクトルにおいて異常が存在するか否かを判定する異常判定部と、
    を含むことを特徴とする異常検出装置。
  2. 前記階層条件敵対的ニューラルネットワークは、
    前記階層条件ベクトルと、雑音の信号に基づいて生成される雑音ベクトルとに基づいて、前記対象機器特徴量ベクトルを近似した偽ベクトルを生成する生成ネットワークと、
    前記対象機器特徴量ベクトル及び前記偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、前記背景雑音レベルを判定する前記背景雑音判定を行い、前記背景雑音レベル情報を生成する識別ネットワークと、
    を更に含むことを特徴とする、請求項1に記載の異常検出装置。
  3. 前記識別ネットワークは、
    前記真偽判定による交差エントロピー損失を示す第1の損失と、前記背景雑音判定による交差エントロピー損失を示す第2の損失とを計算し、
    前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する、
    ことを特徴とする、請求項2に記載の異常検出装置。
  4. 前記階層条件ベクトル生成部は、
    前記機器識別情報に基づいて、第2の階層条件ベクトルを生成し、
    前記抽出部は、
    第2の対象機器から取得した第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出し、
    前記訓練済みの識別ネットワークは、
    前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成し、
    前記第2の背景雑音レベルに基づいて、異常判定閾値を選択し、
    前記訓練済みの生成ネットワークは、
    前記第2の階層条件ベクトルと、前記第2の対象機器の正常の音響信号に基づいて生成される第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成し、
    前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算し、
    前記異常判定部は、
    前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する、
    ことを特徴とする、請求項3に記載の異常検出装置。
  5. 前記階層条件ベクトルは、
    機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む、
    ことを特徴とする、請求項1に記載の異常検出装置。
  6. 異常検出方法であって、
    機器の種類毎に特定の機器を識別するための機器識別情報に基づいて、機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む第1の階層条件ベクトルを生成する工程と、
    第1の対象機器から第1の音響信号を取得する工程と、
    前記第1の音響信号を分析することで前記第1の音響信号の特徴量を示す第1の対象機器特徴量ベクトルを抽出する工程と、
    前記第1の対象機器の正常の音響信号に基づいて第1の雑音ベクトルを生成する工程と、
    生成ネットワークを用いて、前記第1の階層条件ベクトルと、前記第1の雑音ベクトルとに基づいて、前記第1の対象機器特徴量ベクトルを近似した第1の偽ベクトルを生成する工程と、
    識別ネットワークを用いて、前記第1の対象機器特徴量ベクトル及び前記第1の偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成する工程と、
    前記識別ネットワークを用いて、前記第1の階層条件ベクトルと、前記第1の対象機器特徴量ベクトルとを解析することで、前記第1の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第1の背景雑音レベルを示す第1の背景雑音レベル情報を生成する工程と、
    前記真偽判定による交差エントロピー損失を示す第1の損失を計算する工程と、
    前記背景雑音判定による交差エントロピー損失を示す第2の損失を計算する工程と、
    前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する工程と、
    前記機器識別情報に基づいて、第2の階層条件ベクトルを生成する工程と、
    第2の対象機器から第2の音響信号を取得する工程と、
    前記第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出する工程と、
    前記第2の対象機器の正常の音響信号に基づいて第2の雑音ベクトルを生成する工程と、
    前記訓練済みの識別ネットワークを用いて、前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成する工程と、
    前記訓練済みの生成ネットワークを用いて、前記第2の階層条件ベクトルと、前記第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成する工程と、
    前記訓練済みの生成ネットワークを用いて、前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算する工程と、
    前記第2の背景雑音レベルに基づいて、異常判定閾値を選択する工程と、
    前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する工程と、
    を含むことを特徴とする異常検出方法。
  7. 異常検出システムであって、
    検証対象の機器となる対象機器と、
    前記対象機器からの音響信号を取得するセンサ部と、
    音響信号を解析することで異常の有無を判定する異常検出装置とが通信ネットワークを介して接続されており、
    前記異常検出装置は、
    機器の種類毎に特定の機器を識別するための機器識別情報を格納する機器識別データベースと、
    前記機器識別情報に基づいて階層条件ベクトルを生成する階層条件ベクトル生成部と、
    前記センサ部から、前記音響信号を受信し、分析することで前記音響信号の特徴量を示す対象機器特徴量ベクトルを抽出する抽出部と、
    前記階層条件ベクトルと、前記対象機器特徴量ベクトルとを解析することで、前記対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、判定した背景雑音レベルを示す背景雑音レベル情報を生成する階層条件敵対的ニューラルネットワークと、
    少なくとも前記背景雑音レベルに応じて選択される異常判定閾値を用いて、前記対象機器特徴量ベクトルにおいて異常が存在するか否かを判定する異常判定部と、
    を含むことを特徴とする異常検出システム。
  8. 前記階層条件敵対的ニューラルネットワークは、
    前記階層条件ベクトルと、雑音の信号に基づいて生成される雑音ベクトルとに基づいて、前記対象機器特徴量ベクトルを近似した偽ベクトルを生成する生成ネットワークと、
    前記対象機器特徴量ベクトル及び前記偽ベクトルの真偽を判定する真偽判定を行い、真偽判定情報を生成すると共に、前記背景雑音レベルを判定する前記背景雑音判定を行い、前記背景雑音レベル情報を生成する識別ネットワークと、
    を更に含むことを特徴とする、請求項7に記載の異常検出システム。
  9. 前記識別ネットワークは、
    前記真偽判定による交差エントロピー損失を示す第1の損失と、前記背景雑音判定による交差エントロピー損失を示す第2の損失とを計算し、
    前記第1の損失及び前記第2の損失とを用いて、前記生成ネットワーク及び前記識別ネットワークを訓練することで、訓練済みの生成ネットワーク及び訓練済みの識別ネットワークを生成する、
    ことを特徴とする、請求項8に記載の異常検出システム。
  10. 前記階層条件ベクトル生成部は、
    前記機器識別情報に基づいて、第2の階層条件ベクトルを生成し、
    前記抽出部は、
    第2の対象機器から取得した第2の音響信号を分析することで前記第2の音響信号の特徴量を示す第2の対象機器特徴量ベクトルを抽出し、
    前記訓練済みの識別ネットワークは、
    前記第2の階層条件ベクトルと、前記第2の対象機器特徴量ベクトルとを解析することで、前記第2の対象機器の周辺環境の背景雑音レベルを判定する背景雑音判定を行い、第2の背景雑音レベルを示す第2の背景雑音レベル情報を生成し、
    前記第2の背景雑音レベルに基づいて、異常判定閾値を選択し、
    前記訓練済みの生成ネットワークは、
    前記第2の階層条件ベクトルと、前記第2の対象機器の正常の音響信号に基づいて生成される第2の雑音ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルを近似した第2の偽ベクトルを生成し、
    前記第2の対象機器特徴量ベクトルと、前記第2の偽ベクトルとに基づいて、前記第2の対象機器特徴量ベクトルに対する異常スコアを計算し、
    前記異常判定部は、
    前記異常スコアと、前記異常判定閾値とに基づいて、前記第2の対象機器特徴量ベクトルにおいて異常が存在するか否かを示す異常検出結果を生成する、
    ことを特徴とする、請求項9に記載の異常検出システム。
  11. 前記階層条件ベクトルは、
    機器のタイプを示すタイプ情報と、機器の識別子を示す識別子情報とを含む、
    ことを特徴とする、請求項7に記載の異常検出システム。
JP2020216561A 2020-12-25 2020-12-25 異常検出装置、異常検出方法及び異常検出システム Active JP7453136B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020216561A JP7453136B2 (ja) 2020-12-25 2020-12-25 異常検出装置、異常検出方法及び異常検出システム
US17/469,514 US11869492B2 (en) 2020-12-25 2021-09-08 Anomaly detection system and method using noise signal and adversarial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020216561A JP7453136B2 (ja) 2020-12-25 2020-12-25 異常検出装置、異常検出方法及び異常検出システム

Publications (2)

Publication Number Publication Date
JP2022102053A JP2022102053A (ja) 2022-07-07
JP7453136B2 true JP7453136B2 (ja) 2024-03-19

Family

ID=82117612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020216561A Active JP7453136B2 (ja) 2020-12-25 2020-12-25 異常検出装置、異常検出方法及び異常検出システム

Country Status (2)

Country Link
US (1) US11869492B2 (ja)
JP (1) JP7453136B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019073923A1 (ja) 2017-10-10 2019-04-18 国立大学法人岐阜大学 異常品判定方法
US20200041673A1 (en) 2019-09-04 2020-02-06 Lg Electronics Inc. Method, apparatus and system of detecting foreign objects in laundry machine
JP2020071845A (ja) 2018-11-02 2020-05-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 異常検知装置、異常検知方法および異常検知プログラム
JP2020112493A (ja) 2019-01-15 2020-07-27 株式会社スカイディスク 検査システム、異常特定方法
JP2020122701A (ja) 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 画像形成システム及びサーバー
WO2020165935A1 (ja) 2019-02-12 2020-08-20 日本電気株式会社 モデル構築装置、モデル構築方法、コンピュータプログラム及び記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6481268B1 (en) * 1999-10-12 2002-11-19 Baker Hughes, Inc. Particle measurement by acoustic speckle
KR102034248B1 (ko) 2019-04-19 2019-10-18 주식회사 루닛 GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템
US20200342306A1 (en) * 2019-04-25 2020-10-29 International Business Machines Corporation Autonomous modification of data
FR3103048B1 (fr) * 2019-11-07 2021-10-22 Thales Sa Procede et dispositif de generation de donnees synthetiques d'apprentissage pour machine d'intelligence artificielle pour l'aide a l'atterrissage d'aeronef
KR102343410B1 (ko) * 2019-12-26 2021-12-27 주식회사 나눔에너지 머신러닝을 이용한 태양광패널 설치용 지붕 가장자리 이미지 추출 방법
JP7428020B2 (ja) * 2020-03-06 2024-02-06 コニカミノルタ株式会社 超音波診断装置、超音波画像生成方法、プログラム及びモデル訓練装置
US11087215B1 (en) * 2020-07-25 2021-08-10 Sas Institute Inc. Machine learning classification system
US11403496B2 (en) * 2020-11-04 2022-08-02 Silicon Laboratories Inc. Detecting anomalous events in a discriminator of an embedded device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019073923A1 (ja) 2017-10-10 2019-04-18 国立大学法人岐阜大学 異常品判定方法
JP2020071845A (ja) 2018-11-02 2020-05-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 異常検知装置、異常検知方法および異常検知プログラム
JP2020112493A (ja) 2019-01-15 2020-07-27 株式会社スカイディスク 検査システム、異常特定方法
JP2020122701A (ja) 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 画像形成システム及びサーバー
WO2020165935A1 (ja) 2019-02-12 2020-08-20 日本電気株式会社 モデル構築装置、モデル構築方法、コンピュータプログラム及び記録媒体
US20200041673A1 (en) 2019-09-04 2020-02-06 Lg Electronics Inc. Method, apparatus and system of detecting foreign objects in laundry machine

Also Published As

Publication number Publication date
JP2022102053A (ja) 2022-07-07
US20220208184A1 (en) 2022-06-30
US11869492B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
CN110472675B (zh) 图像分类方法、图像分类装置、存储介质与电子设备
Niu et al. Multimodal spatiotemporal representation for automatic depression level detection
US11663823B2 (en) Dual-modality relation networks for audio-visual event localization
Wu et al. Self-supervised sparse representation for video anomaly detection
EP4035064A1 (en) Object detection based on pixel differences
Pawar et al. Convolution neural network based automatic speech emotion recognition using Mel-frequency Cepstrum coefficients
US20220130499A1 (en) Medical visual question answering
JP6958723B2 (ja) 信号処理システム、信号処理装置、信号処理方法、およびプログラム
CN112700794B (zh) 一种音频场景分类方法、装置、电子设备和存储介质
Yang et al. Multi-scale semantic feature fusion and data augmentation for acoustic scene classification
EP3392882A1 (en) Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium
Bartusiak et al. Synthesized speech detection using convolutional transformer-based spectrogram analysis
Chang et al. Example-based explanations with adversarial attacks for respiratory sound analysis
Omar et al. Automated realtime mask availability detection using neural network
CN114582325A (zh) 音频检测方法、装置、计算机设备、存储介质
JP7453136B2 (ja) 異常検出装置、異常検出方法及び異常検出システム
Li et al. Binaural audio generation via multi-task learning
JP7373358B2 (ja) 音抽出システム及び音抽出方法
Chuchra et al. A deep learning approach for splicing detection in digital audios
CN113421590B (zh) 异常行为检测方法、装置、设备及存储介质
JP2018109739A (ja) 音声フレーム処理用の装置及び方法
Agarwal et al. A method for voice activity detection using K-means clustering
Perez-Carrillo Statistical models for the indirect acquisition of violin bowing controls from audio analysis
CN116935889B (zh) 一种音频类别的确定方法、装置、电子设备及存储介质
Rahman et al. Detecting Parkinson's Disease From an Online Speech-task

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150