JP7322997B2 - データ変換装置 - Google Patents
データ変換装置 Download PDFInfo
- Publication number
- JP7322997B2 JP7322997B2 JP2022063343A JP2022063343A JP7322997B2 JP 7322997 B2 JP7322997 B2 JP 7322997B2 JP 2022063343 A JP2022063343 A JP 2022063343A JP 2022063343 A JP2022063343 A JP 2022063343A JP 7322997 B2 JP7322997 B2 JP 7322997B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- domain
- learning
- input data
- probability distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 121
- 230000003044 adaptive effect Effects 0.000 claims description 105
- 230000006870 function Effects 0.000 claims description 91
- 230000009466 transformation Effects 0.000 claims description 83
- 238000006243 chemical reaction Methods 0.000 claims description 67
- 238000004364 calculation method Methods 0.000 claims description 51
- 238000010606 normalization Methods 0.000 claims description 46
- 230000002159 abnormal effect Effects 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 17
- 238000013501 data transformation Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 description 192
- 230000005856 abnormality Effects 0.000 description 76
- 238000000034 method Methods 0.000 description 47
- 238000012545 processing Methods 0.000 description 39
- 238000013528 artificial neural network Methods 0.000 description 32
- 238000012360 testing method Methods 0.000 description 27
- 238000000844 transformation Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 239000011159 matrix material Substances 0.000 description 18
- 238000003860 storage Methods 0.000 description 10
- 238000010422 painting Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 241000283070 Equus zebra Species 0.000 description 3
- 230000002547 anomalous effect Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000012614 Monte-Carlo sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/024—Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
Description
(1)いくつかの機器から収集した正常音を用いて、これらの機器に共通の正常モデルを学習する。そして、この共通のモデルを用いてすべての機器の異常検知を行う。
(2)機器ごとに収集した正常音を用いて、機器ごとに異なる正常モデルを学習する。そして、この個々のモデルを用いて各機器の異常検知を行う。
(参考非特許文献1:Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros, “Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”, arXiv:1703.10593v5, https://arxiv.org/abs/1703.10593v5)
ドメイン変換を実現するためには、ドメインDからドメインD’へのデータ変換器を作ればよい。このようなデータ変換器を作るために、例えば「風景写真」とそれを写実した「風景画」のペアを学習データとして大量に集め、ニューラルネットワークを用いて「風景写真」から「風景画」への変換を学習させるという方法を考えることができる。以下、このように2つのドメインのデータのペアを用いてデータ変換器を学習させる枠組みのことをペアデータありドメイン変換と呼ぶ。ペアデータありドメイン変換は、入力とそれに対する正解となる2つのドメインのデータのペアを学習データとして、比較的簡単に学習によりデータ変換器を構成できるという利点がある。しかし、学習データを多数集めなければならない。先ほどの「風景写真」と「風景画」の例では、まず「風景写真」を集め、その上で(例えば、画家に作成を依頼するなどして)「風景写真」を写実した「風景画」を作成する必要がある。また、「馬の写真」と「シマウマの写真」の例では、同じ構図の写真を撮ることは難しいため、学習データを集めることは現実的には不可能である。
上述の通り、(1)、(2)の方法には、データ収集や学習に係るコストと異常検知の精度のトレードオフの問題がある。そこで、第3の方法として、以下のような方法も考えられる。
(3)いくつかの機器から収集した正常音を用いて、これらの機器に共通の正常モデルを学習する。次に、機器ごとに収集した正常音を用いて、この共通のモデルから機器ごとに異なる正常モデルを適応的に学習する。そして、この個々の適応済み正常モデルを用いて各機器の異常検知を行う。
非特許文献2のStarGANでは、参考非特許文献2に記載のGenerative Adversarial Networks (GAN)という手法を利用してペアデータなしドメイン変換を実現しているが、学習が不安定であるという問題がある。
(参考非特許文献2:Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu,David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, “Generative Adversarial Nets”, Advances in Neural Information Processing Systems 27 (NIPS 2014), 2018.)
_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
本発明の実施形態は、複数の同一種類の機器に適用可能な異常検知の枠組みを提供するものである。具体的には、上述の(3)の方法による枠組みを提供する。各機器から発せられる正常音の分布の違いは音に関する特徴量の統計量で表現されるという仮説に基づき、特徴量の1次統計量である平均と2次統計量である分散を異なる機器間で一致させることにより、異なる機器の正常モデルを一つのモデルから導出できるようにするものである。
異常音検知とは、異常検知対象となる音(観測信号)を発した監視対象機器の状況が正常であるか異常であるかを判定するタスクである。ここで、観測信号から生成される入力データxには、例えば次式のように観測信号の対数振幅スペクトルln|Xt,f|を要素とするベクトルを用いることができる。
ノーマライジング・フローは、データ生成に関する確率分布p(x)を近似する分布を求める手法である。
(条件1)確率分布p(x)に対して、RD上の非負関数g(x)(≧0)が存在し、任意のx∈RDに対してp(x)=g(x)/∫g(x)dxとなる。
(条件2)関数g(x)に対して∫g(x)dxを計算することは容易である。
(参考非特許文献3:S. Ioffe, C. Szegedy, “Batch normalization: accelerating deep network training by reducing internal covariate shift”, ICML 2015, 2015.)
(参考非特許文献4:J. Oliva, et al., “Transformation Autoregressive Networks”, ICML 2018, 2018.)
ドメイン適応とは、モデル学習に用いる学習データの分布と学習済みモデルを用いた処理の対象であるテストデータの分布が異なる場合に、当該分布の相違により、学習済みモデルを用いた処理の精度が低下しないように、学習済みモデルを調整する技術のことである。ここで、学習データの集合、テストデータの集合がドメインであり、それぞれ学習用ドメイン、テスト用ドメインということもある。
(参考非特許文献5:Y. Li, et al., “Revisiting Batch Normalization For Practical Domain Adaptation”, ICLR 2017, 2016.)
解きたい問題は、「複数の機器から得られた大量の正常音を用いて学習した共通の正常モデルである第1確率分布と、異常検知対象機器から得られた少量の正常音とを用いて、異常検知対象機器のために用いることができる正常モデルである第2確率分布を学習し、この第2確率分布を用いて異常検知対象機器が発した音から異常検知することを可能とする」ことである。したがって、以下のデータを扱うことになる。
(1)学習データ:異常検知対象機器とは異なる1以上の機器から発せられた正常音であり、大量に用意することが可能であると仮定する。学習に用いることから、これらの音のことを学習用正常音という。また、その集合のことを学習用ドメインという。なお、正常音の収集対象となる機器は、異常検知対象機器と種類が同じものが好ましい。
(2)適応学習データ:異常検知対象機器から発せられた正常音であり、少量しか用意できないものと仮定する。適応学習に用いることから、これらの音のことを適応学習用正常音という。なお、その集合は、後述するテスト用ドメインである。
(3)テストデータ:異常検知対象機器から発せられた音であり、この音から機器が正常であるか異常であるかを判定する。そこで、この音のことを異常検知対象音という。また、その集合のことをテスト用ドメインという。
本発明の実施形態では、少量の適応学習データから第2確率分布を低い計算量で適応学習できるようにするため、ノーマライジング・フローに適応バッチ正規化を導入する。具体的には、ノーマライジング・フローで用いるK個の変換{fi(z)}i=1 Kのうち少なくとも1つの変換fi(z)に対して、その逆変換fi -1(z)が適応バッチ正規化であるというものである。なお、適応バッチ正規化の計算のうち、スケール変換及びシフト変換、つまり、式(7d)の計算は、省略したものであってもよい。別の言い方をすると、逆変換fi -1(z)がγ=1, β=0である適応バッチ正規化であるとも表現できる。
以下、具体的構成について説明する。
(1)学習フェーズ
まず、異常検知対象機器とは異なる1以上の機器から発せられた正常音(つまり、学習データ)から生成される入力データxを、確率分布q0(z0)に従って生成されているとみなす潜在変数z0(~q(z0))に変換するニューラルネットワークについて説明する。ここでは5個の変換{fi(z)}i=1 5を用いる場合について説明する。つまり、z0は、z0=f1 -1(f2 -1(f3 -1(f4 -1(f5 -1(x)))))として得られることになる。
(参考非特許文献6:K. He, et al., “Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”, ICCV 2015, pp.1026-1034, 2015.)
また、変換{fi(z)}i=1 5のヤコビアンの行列式の絶対値は、それぞれ次式により計算される(ただし、x=f5(z4), z4=f4(z3), z3=f3(z2), z2=f2(z1), z1=f1(z0))。
次に、異常検知対象機器から発せられた正常音(つまり、適応学習データ)から生成される入力データxの確率分布q2(x;θ)の適応学習方法について説明する。例えば、z4=f5 -1(x), z3=f4 -1(z4), z2=f3 -1(z3), z1=f2 -1(z2), z0=f1 -1(z1)を利用して、以下の手順で学習を実行すればよい。まず、入力データの集合{x’i}i=1 Mから{z’4,i}i=1 M(z’4,i=f5 -1(x’i))を計算する。次に、{z’4,i}i=1 M‘の平均、分散を求める。最後に、式(7c)のm, s2を求めた平均と分散で置換する。同様に、入力データの集合{x’i}i=1 Mから{z’1,i}i=1 M(z’1,i=f2 -1(f3 -1(f4 -1(f5 -1(x’i)))))を計算する。次に、{z’1,i}i=1 Mの平均、分散を求める。最後に、式(7c)のm, s2を求めた平均と分散で置換する。
異常検知の方法には、例えば、《教師なし異常音検知》で説明した方法を用いることができる。
ノーマライジング・フローに適応バッチ正規化を導入することにより、以下の効果が得られる。
(1)学習データの分布とテストデータの分布の相違を調整することが可能となり、テスト用ドメインにおける異常検知の精度低下を抑えることが可能となる。
(2)第2確率分布を低計算量で適応学習することが可能となる。
(3)確率密度の計算コストが抑制され、学習コストが抑制される。
同種の機器が2台以上ある状況において、その中の1台の機器(これを異常検知対象機器とする)の異常を検知することを考える。そのために、まずこの異常検知対象機器とは異なる1以上の機器から発せられた正常音(以下、学習用正常音という)から、異常検知対象機器とは異なる1以上の機器から発せられた正常音の分布を示す確率分布(以下、第1確率分布という)を学習する(学習フェーズ)。次に、異常検知対象機器から発せられた正常音(以下、適応学習用正常音という)を用いて、第1確率分布から、異常検知対象機器から発せられた正常音の分布を示す確率分布(以下、第2確率分布という)を適応学習する(適応学習フェーズ)。そして、異常検知対象機器から発せられた音(以下、異常検知対象音という)から、当該機器が異常であるか否かを判定する(テストフェーズ(異常検知フェーズ))。
確率分布学習装置100は、異常検知対象機器とは異なる1以上の機器から発せられた正常音である学習用正常音から、1つの第1確率分布q1(x;θ)を学習するものとして説明したが、異常検知対象機器とは異なる1以上の機器の数をW(Wは1以上の整数)とし、W個の機器の各々から発せられた正常音の分布を示す第1確率分布q1 (1)(x;θ), …, q1 (W)(x;θ)を学習するようにしてもよい。この場合、(ミニバッチに相当する)入力データxi(i=1, …, N)の中で同一の機器から発せられた学習用正常音から生成した入力データごとに適応バッチ正規化における平均と分散を計算することにより、潜在変数推定部120は潜在変数の推定処理を実行する。つまり、適応バッチ正規化における計算において、1組の平均と分散を用いる代わりに、W組の平均と分散を用いることになる。ただし、学習済みパラメータθは、W個の第1確率分布q1 (1)(x;θ), …, q1 (W)(x;θ)で共通となるため、1組である。
以下、図3~図4を参照して確率分布適応学習装置200を説明する。図3は、確率分布適応学習装置200の構成を示すブロック図である。図4は、確率分布適応学習装置200の動作を示すフローチャートである。図3に示すように確率分布適応学習装置200は、入力データ生成部110と、パラメータ更新部240と、出力部250と、記録部190を含む。記録部190は、確率分布適応学習装置200の処理に必要な情報を適宜記録する構成部である。記録部190は、例えば、確率分布学習装置100を用いて学習した第1確率分布q1(x;θ)のパラメータθ(つまり、学習済みパラメータ)を記録しておく。この学習済みパラメータが、第2確率分布q2(x;θ)のパラメータθの初期値となるものである。なお、第2確率分布q2(x;θ)の変数xは、異常検知対象機器から発せられた正常音から生成された入力データを示す変数である。
確率分布学習装置100がW個の第1確率分布q1 (1)(x;θ), …, q1 (W)(x;θ)を学習する場合においても、学習済みパラメータθは1組しかない。確率分布適応学習装置200はこの1組のパラメータを用いて適応学習をする。
以下、図5~図6を参照して異常検知装置300を説明する。図5は、異常検知装置300の構成を示すブロック図である。図6は、異常検知装置300の動作を示すフローチャートである。図5に示すように異常検知装置300は、入力データ生成部110と、異常度推定部320と、異常判定部330と、記録部390を含む。記録部390は、異常検知装置300の処理に必要な情報を適宜記録する構成部である。記録部390は、例えば、確率分布適応学習装置200を用いて学習した第2確率分布q2(x;θ)のパラメータθ(つまり、学習済みパラメータ)を記録しておく。
(参考非特許文献7:Y. Koizumi, S. Saito, H. Uematsu, Y. Kawachi, and N. Harada, “Unsupervised Detection of Anomalous Sound based on Deep Learning and the Neyman-Pearson Lemma,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol.27-1, pp.212-224, 2019.)
以下、本発明の第4実施形態から第6実施形態に対する技術的背景と、各実施形態について説明する。
自己符号化器を利用する場合、異常度は次式により計算できる。
同種の機器が2台以上ある状況において、その中の1台の機器(これを異常検知対象機器とする)の異常を検知することを考える。そのために、まずこの異常検知対象機器とは異なる1以上の機器から発せられた正常音(以下、学習用正常音という)から、異常検知対象機器とは異なる1以上の機器から発せられた正常音を復元する自己符号化器(以下、第1自己符号化器という)を学習する(学習フェーズ)。次に、異常検知対象機器から発せられた正常音(以下、適応学習用正常音という)を用いて、第1自己符号化器から、異常検知対象機器から発せられた正常音を復元する自己符号化器(以下、第2自己符号化器という)を適応学習する(適応学習フェーズ)。そして、異常検知対象機器から発せられた音(以下、異常検知対象音という)から、当該機器が異常であるか否かを判定する(テストフェーズ(異常検知フェーズ))。
以下、図11~図12を参照して自己符号化器適応学習装置500を説明する。図11は、自己符号化器適応学習装置500の構成を示すブロック図である。図12は、自己符号化器適応学習装置500の動作を示すフローチャートである。図11に示すように自己符号化器適応学習装置500は、入力データ生成部110と、パラメータ更新部540と、出力部550と、記録部490を含む。記録部490は、自己符号化器適応学習装置500の処理に必要な情報を適宜記録する構成部である。記録部490は、例えば、自己符号化器学習装置400を用いて学習した第1自己符号化器のパラメータθ(つまり、学習済みパラメータ)を記録しておく。この学習済みパラメータが、第2自己符号化器のパラメータθの初期値となるものである。
以下、図13~図14を参照して異常検知装置600を説明する。図13は、異常検知装置600の構成を示すブロック図である。図14は、異常検知装置600の動作を示すフローチャートである。図13に示すように異常検知装置600は、入力データ生成部110と、異常度推定部620と、異常判定部630と、記録部690を含む。記録部690は、異常検知装置600の処理に必要な情報を適宜記録する構成部である。記録部690は、例えば、自己符号化器適応学習装置500を用いて学習した第2自己符号化器のパラメータθ(つまり、学習済みパラメータ)を記録しておく。
本発明の実施形態は、ノーマライジング・フロー(Normalizing Flow)を用いてペアデータなしドメイン変換のデータ変換器の学習を行う。ノーマライジング・フローは、GANに比べて学習を行いやすいという特徴があり、その結果として従来のGANベースのペアデータなしドメイン変換技術(StarGAN)よりも安定して学習することができる。
《ノーマライジング・フロー(Normalizing Flow)》
ノーマライジング・フローは、データ生成に関する確率分布p(x)を近似する分布を求める手法である。
(条件1)確率分布p(x)に対して、RD上の非負関数g(x)(≧0)が存在し、任意のx∈RDに対してp(x)=g(x)/∫g(x)dxとなる。
(条件2)関数g(x)に対して∫g(x)dxを計算することは容易である。
ドメイン適応とは、モデル学習に用いる学習データの分布と学習済みモデルを用いた処理の対象であるテストデータの分布が異なる場合に、当該分布の相違により、学習済みモデルを用いた処理の精度が低下しないように、学習済みモデルを調整する技術のことである。ここで、学習データの集合、テストデータの集合がドメインであり、それぞれ学習用ドメイン、テスト用ドメインということもある。
AdaFlowは、ノーマライジング・フローに適応バッチ正規化を導入した手法である。具体的には、ノーマライジング・フローで用いるK個の変換{fi(z)}i=1 Kのうち少なくとも1つの変換fi_0(z)に対して、その逆変換fi_0 -1(z)が適応バッチ正規化であるというものである。なお、適応バッチ正規化の計算のうち、スケール変換及びシフト変換、つまり、式(24d)の計算は、省略したものであってもよい。別の言い方をすると、逆変換fi_0 -1(z)がγ=1, β=0である適応バッチ正規化であるとも表現できる。
確率分布学習装置1100は、P種類のドメインDj(j=1, …, P)のデータ(以下、ドメインデータという。)から生成される入力データxを、確率分布q0(z0)に従って生成されているとみなす潜在変数z0(~q(z0))に変換するニューラルネットワークのモデルパラメータθを学習する。このモデルパラメータθを用いて、確率分布q0(z0)から入力データxの確率分布q(x;θ)を求めることができる(式(22)参照)。ここで、ドメインDjは、Nj個のドメインデータを含むものとする。したがって、P種類のドメインの和集合に含まれるドメインデータの数をNとすると、N=ΣjNjとなる。
データ変換装置1200は、確率分布学習装置1100で学習した学習済みモデルパラメータθと、逆変換fi_0 -1への入力データのドメインDjの平均mi_0,jと分散si_0,j 2(j=1, …, P)とを用いて、ドメインDj_0のドメインデータをドメインDj_1のドメインデータに変換する(ただし、j0, j1は1≦j0, j1≦Pを満たす整数であり、j0≠j1である)。以下、ドメインDj_0のことを変換元ドメイン、ドメインDj_1のことを変換先ドメインという。
第7実施形態及び第8実施形態では、Pを1以上の整数とし、P種類のドメインのドメインデータを用いるものとして説明した。ここでは、P=2とした場合のデータ変換装置1300について説明する。
データ変換装置1300を教師あり異常検知問題に応用することができる。ここで、教師あり異常検知とは、多数の正常データと少数の異常データから異常検知モデルを学習し、この異常検知モデルを用いて異常検知する枠組みである。
本実施形態の発明によれば、ドメイン間でデータを相互に変換することが可能となる。その結果、例えば、異常検知モデル学習に用いる異常データを効率的に生成することができるようになる。
「風景写真」の集合と「風景画」の集合をドメインとし、ノーマライジング・フローのアーキテクチャとして参考非特許文献8に記載のGlowを採用し、GlowのActivation NormalizationをAdaBNに置き換えたニューラルネットワークAdaFlowを用いて学習を行う。風景写真と風景画の画像データをそれぞれ400枚ずつ集め、これらを用いてニューラルネットワークAdaFlowを学習させ、データ変換を行う。具体的には、「風景写真」を「風景画」に変換、または、「風景画」を「風景写真」に変換した。
(参考非特許文献8:Diederik P. Kingma, Prafulla Dhariwal, “Glow: Generative Flow with Invertible 1x1 Convolutions”, arXiv:1807.03039, https://arxiv.org/abs/1807.03039)
この実験、つまり、AdaFlowを用いたペアデータなしドメイン変換により、質のいい画像データが生成されることが確認できた。
図24は、上述の各装置を実現するコンピュータの機能構成の一例を示す図である。上述の各装置における処理は、記録部2020に、コンピュータを上述の各装置として機能させるためのプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
Claims (5)
- 第1ドメインのドメインデータに対応する入力データから、潜在変数を計算する潜在変数計算部と、
前記潜在変数から、第2ドメインのドメインデータに対応する出力データを計算する出力データ計算部と
を含むデータ変換装置であって、
前記潜在変数計算部は、逆関数を有する所定の関数(以下、第1関数という)を用いて計算するものであり、
前記出力データ計算部は、逆関数を有する所定の関数(以下、第2関数という)を用いて計算するものであり、
第1関数と第2関数は、潜在変数z0を変数xに変換する所定の関数から導出されるものである
データ変換装置。 - 請求項1に記載のデータ変換装置であって、
前記潜在変数z 0 を変数xに変換する所定の関数は、第1ドメインと第2ドメインの和集合を用いて得られる関数である
ことを特徴とするデータ変換装置。 - 請求項2に記載のデータ変換装置であって、
前記潜在変数z 0 を変数xに変換する所定の関数は、変換fi(i=1, …, K、Kは1以上の整数、変換fiに対して逆変換fi -1が存在する)を用いて、x=fK(fK-1(…(f1(z0))…))と表される関数(ただし、変換fi(i=1, …, K)のうち、少なくとも1つの変換fi_0(1≦i0≦K)に対して、その逆変換fi_0 -1は適応バッチ正規化である)として、前記和集合のドメインデータを学習データとして学習することにより、得られる関数である
ことを特徴とするデータ変換装置。 - 請求項3に記載のデータ変換装置であって、
第1関数は、前記和集合に含まれる第1ドメインのドメインデータから算出される統計量を用いて、前記潜在変数z 0 を変数xに変換する所定の関数から導出されるものであり、
第2関数は、前記和集合に含まれる第2ドメインのドメインデータから算出される統計量を用いて、前記潜在変数z 0 を変数xに変換する所定の関数から導出されるものである
ことを特徴とするデータ変換装置。 - 請求項1ないし4のいずれか1項に記載のデータ変換装置であって、
第1ドメインは、異常検知対象機器とは異なる1以上の機器から発せられた音の集合であり、
第2ドメインは、前記異常検知対象機器の音の集合であり、
前記第1ドメインのドメインデータは、前記異常検知対象機器とは異なる1以上の機器から発せられた異常音である
ことを特徴とするデータ変換装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018151412 | 2018-08-10 | ||
JP2018151412 | 2018-08-10 | ||
JP2018209416 | 2018-11-07 | ||
JP2018209416 | 2018-11-07 | ||
JP2020536385A JP7140194B2 (ja) | 2018-08-10 | 2019-07-04 | 異常検知装置、確率分布学習装置、自己符号化器学習装置、プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536385A Division JP7140194B2 (ja) | 2018-08-10 | 2019-07-04 | 異常検知装置、確率分布学習装置、自己符号化器学習装置、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082713A JP2022082713A (ja) | 2022-06-02 |
JP7322997B2 true JP7322997B2 (ja) | 2023-08-08 |
Family
ID=69415502
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536385A Active JP7140194B2 (ja) | 2018-08-10 | 2019-07-04 | 異常検知装置、確率分布学習装置、自己符号化器学習装置、プログラム |
JP2022063343A Active JP7322997B2 (ja) | 2018-08-10 | 2022-04-06 | データ変換装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536385A Active JP7140194B2 (ja) | 2018-08-10 | 2019-07-04 | 異常検知装置、確率分布学習装置、自己符号化器学習装置、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210327456A1 (ja) |
EP (3) | EP4216216A1 (ja) |
JP (2) | JP7140194B2 (ja) |
CN (1) | CN112567460A (ja) |
WO (1) | WO2020031570A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020070916A1 (ja) * | 2018-10-02 | 2020-04-09 | 日本電信電話株式会社 | 算出装置、算出方法及び算出プログラム |
CA3128957A1 (en) * | 2019-03-04 | 2020-03-03 | Bhaskar Bhattacharyya | Near real-time detection and classification of machine anomalies using machine learning and artificial intelligence |
KR20200108523A (ko) * | 2019-03-05 | 2020-09-21 | 주식회사 엘렉시 | 이상 패턴 감지 시스템 및 방법 |
JPWO2021241576A1 (ja) * | 2020-05-29 | 2021-12-02 | ||
JPWO2021241580A1 (ja) * | 2020-05-29 | 2021-12-02 | ||
JP7399797B2 (ja) | 2020-06-15 | 2023-12-18 | 株式会社日立製作所 | 異常度算出システムおよび方法 |
US20230366729A1 (en) * | 2020-09-24 | 2023-11-16 | Si Synergy Technology Co., Ltd. | Trained autoencoder, trained autoencoder generation method, non-stationary vibration detection method, non-stationary vibration detection device, and computer program |
CN112767331B (zh) * | 2021-01-08 | 2022-10-04 | 北京航空航天大学 | 基于零样本学习的图像异常检测方法 |
US11443758B2 (en) * | 2021-02-09 | 2022-09-13 | International Business Machines Corporation | Anomalous sound detection with timbre separation |
JP2022190376A (ja) * | 2021-06-14 | 2022-12-26 | 株式会社日立製作所 | 異常検知システムおよび方法 |
CN113762333B (zh) * | 2021-07-20 | 2023-02-28 | 广东省科学院智能制造研究所 | 一种基于双流联合密度估计的无监督异常检测方法和系统 |
JP7103539B1 (ja) | 2022-01-17 | 2022-07-20 | 富士電機株式会社 | 運転支援装置、運転支援方法及びプログラム |
CN114783417B (zh) * | 2022-04-29 | 2023-03-24 | 北京远鉴信息技术有限公司 | 一种语音检测方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196040A (ja) | 2004-01-09 | 2005-07-21 | Japan Science & Technology Agency | 歪みあり符号方法及び装置、歪みあり符号化プログラム及び記録媒体 |
WO2017094267A1 (ja) | 2015-12-01 | 2017-06-08 | 株式会社Preferred Networks | 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法 |
WO2017171051A1 (ja) | 2016-04-01 | 2017-10-05 | 日本電信電話株式会社 | 異常音検出学習装置、音響特徴量抽出装置、異常音サンプリング装置、これらの方法及びプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3012449B2 (ja) * | 1994-01-31 | 2000-02-21 | バブコック日立株式会社 | 音響信号の識別方法および装置 |
EP0666542A3 (en) * | 1994-02-04 | 1996-05-15 | Fuji Facom Corp | Multimedia system for monitoring and controlling processes. |
JP4100414B2 (ja) * | 2005-04-25 | 2008-06-11 | 松下電工株式会社 | 設備監視方法および設備監視装置 |
JP5767825B2 (ja) * | 2011-02-28 | 2015-08-19 | 綜合警備保障株式会社 | 音処理装置および音処理方法 |
JP6236282B2 (ja) * | 2013-10-21 | 2017-11-22 | 株式会社日立ハイテクノロジーズ | 異常検出装置、異常検出方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2015161745A (ja) * | 2014-02-26 | 2015-09-07 | 株式会社リコー | パターン認識システムおよびプログラム |
JP2016007800A (ja) | 2014-06-25 | 2016-01-18 | 株式会社リコー | 異常検知システム、電子機器、異常検知方法およびプログラム |
US9576583B1 (en) * | 2014-12-01 | 2017-02-21 | Cedar Audio Ltd | Restoring audio signals with mask and latent variables |
US10068445B2 (en) * | 2015-06-24 | 2018-09-04 | Google Llc | Systems and methods of home-specific sound event detection |
CN105244038A (zh) * | 2015-09-30 | 2016-01-13 | 金陵科技学院 | 一种基于hmm的选矿设备故障异常音频分析与识别方法 |
JP6377592B2 (ja) * | 2015-11-09 | 2018-08-22 | 日本電信電話株式会社 | 異常音検出装置、異常音検出学習装置、これらの方法及びプログラム |
WO2018136915A1 (en) * | 2017-01-23 | 2018-07-26 | Nrg Systems, Inc. | System and methods of novelty detection using non-parametric machine learning |
US11609115B2 (en) * | 2017-02-15 | 2023-03-21 | Nippon Telegraph And Telephone Corporation | Anomalous sound detection apparatus, degree-of-anomaly calculation apparatus, anomalous sound generation apparatus, anomalous sound detection training apparatus, anomalous signal detection apparatus, anomalous signal detection training apparatus, and methods and programs therefor |
CN106941005A (zh) * | 2017-02-24 | 2017-07-11 | 华南理工大学 | 一种基于语音声学特征的声带异常检测方法 |
JP6947219B2 (ja) * | 2017-09-06 | 2021-10-13 | 日本電信電話株式会社 | 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム |
JPWO2019087987A1 (ja) * | 2017-11-02 | 2020-11-12 | 日本電信電話株式会社 | 異常検知装置、異常検知方法、及びプログラム |
JP6930503B2 (ja) * | 2018-07-20 | 2021-09-01 | 日本電信電話株式会社 | 異常検知装置、異常検知方法、およびプログラム |
US11475910B2 (en) * | 2020-02-11 | 2022-10-18 | Purdue Research Foundation | System and methods for machine anomaly detection based on sound spectrogram images and neural networks |
-
2019
- 2019-07-04 EP EP23156617.5A patent/EP4216216A1/en active Pending
- 2019-07-04 CN CN201980052478.XA patent/CN112567460A/zh active Pending
- 2019-07-04 JP JP2020536385A patent/JP7140194B2/ja active Active
- 2019-07-04 EP EP19848621.9A patent/EP3836142B1/en active Active
- 2019-07-04 WO PCT/JP2019/026556 patent/WO2020031570A1/ja unknown
- 2019-07-04 EP EP23156610.0A patent/EP4216215A1/en active Pending
- 2019-07-04 US US17/266,240 patent/US20210327456A1/en active Pending
-
2022
- 2022-04-06 JP JP2022063343A patent/JP7322997B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196040A (ja) | 2004-01-09 | 2005-07-21 | Japan Science & Technology Agency | 歪みあり符号方法及び装置、歪みあり符号化プログラム及び記録媒体 |
WO2017094267A1 (ja) | 2015-12-01 | 2017-06-08 | 株式会社Preferred Networks | 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法 |
WO2017171051A1 (ja) | 2016-04-01 | 2017-10-05 | 日本電信電話株式会社 | 異常音検出学習装置、音響特徴量抽出装置、異常音サンプリング装置、これらの方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2020031570A1 (ja) | 2020-02-13 |
CN112567460A (zh) | 2021-03-26 |
EP3836142A4 (en) | 2022-08-17 |
EP4216215A1 (en) | 2023-07-26 |
JP2022082713A (ja) | 2022-06-02 |
EP3836142B1 (en) | 2024-04-03 |
JPWO2020031570A1 (ja) | 2021-08-26 |
EP3836142A1 (en) | 2021-06-16 |
EP4216216A1 (en) | 2023-07-26 |
US20210327456A1 (en) | 2021-10-21 |
JP7140194B2 (ja) | 2022-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322997B2 (ja) | データ変換装置 | |
Rakotomamonjy | Direct optimization of the dictionary learning problem | |
JP7179835B2 (ja) | モデル生成装置、モデル生成方法、プログラム | |
Jia et al. | Federated domain adaptation for asr with full self-supervision | |
Guo et al. | Gaussian Mixture Solvers for Diffusion Models | |
JP6567478B2 (ja) | 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム、信号処理学習装置 | |
Sergides et al. | Bootstrapping the local periodogram of locally stationary processes | |
JP7231027B2 (ja) | 異常度推定装置、異常度推定方法、プログラム | |
JP7047665B2 (ja) | 学習装置、学習方法及び学習プログラム | |
WO2021255925A1 (ja) | 目的音信号生成装置、目的音信号生成方法、プログラム | |
Amrane et al. | On the use of ensembles of metamodels for estimation of the failure probability | |
JP2020030373A (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム | |
Alfred | Short-term time series modelling forecasting using genetic algorithm | |
Jiang et al. | Renewable Huber estimation method for streaming datasets | |
Yümlü et al. | Bayesian changepoint and time-varying parameter learning in regime switching volatility models | |
JP7226568B2 (ja) | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム | |
JP7163977B2 (ja) | 推定装置、学習装置、それらの方法、およびプログラム | |
US20240112013A1 (en) | Generative Models for Discrete Datasets Constrained by a Marginal Distribution Specification | |
WO2022157862A1 (ja) | トラフィック変動予測装置、及びトラフィック変動予測方法、並びにトラフィック変動予測プログラム | |
WO2023013081A1 (ja) | 学習装置、推定装置、学習方法及び学習プログラム | |
WO2020144853A1 (ja) | 学習装置、学習方法および学習プログラム | |
US11971332B2 (en) | Feature extraction apparatus, anomaly score estimation apparatus, methods therefor, and program | |
US20230409901A1 (en) | Systems and methods for time series forecasting | |
Chi et al. | Negative Moment Bounds for Stochastic Regression Models with Deterministic Trends and Their Applications to Prediction Problems | |
JP2020107199A (ja) | ニューラルネットワーク、潜在パラメータ学習装置、潜在パラメータ生成装置、変数変換装置、これらの方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322997 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |