JP6527187B2 - 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ - Google Patents
学習モデル構築装置、異常検出装置、異常検出システム及びサーバ Download PDFInfo
- Publication number
- JP6527187B2 JP6527187B2 JP2017055498A JP2017055498A JP6527187B2 JP 6527187 B2 JP6527187 B2 JP 6527187B2 JP 2017055498 A JP2017055498 A JP 2017055498A JP 2017055498 A JP2017055498 A JP 2017055498A JP 6527187 B2 JP6527187 B2 JP 6527187B2
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- abnormality
- data
- learning
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 88
- 238000010276 construction Methods 0.000 title claims description 79
- 230000005856 abnormality Effects 0.000 claims description 183
- 238000004519 manufacturing process Methods 0.000 claims description 109
- 238000004891 communication Methods 0.000 claims description 12
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 21
- 238000010801 machine learning Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001746 injection moulding Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
- G10L15/075—Adaptation to the speaker supervised, i.e. under machine guidance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- General Factory Administration (AREA)
Description
また、検出した生産装置の振動や音に基づいて、生産装置の異常検出を行うものが開示されている(例えば、特許文献1〜3参照)。
まず、本発明の実施形態の概略を説明する。本実施形態は、ロボット、工作機械及び射出成形機等の生産装置の近傍で作業をする各作業者の発した音声から、1以上の生産装置を有する生産ラインの異常度を判定するためのシステムに関する。
そこで、本実施形態では、生産ラインを監視している作業者が発する声である音声データを入力データとして機械学習をする。そして、本実施形態では、機械学習をした結果データである学習モデルを用いることで、作業者の発した音声によって生産ラインが異常の場合を検出する。
以上が本発明の実施形態の概略である。
ネットワーク400は、例えば、工場内に構築されたLAN(Local Area Network)、インターネット、公衆電話網等、又はこれらの組み合わせである。ネットワーク400における具体的な通信方式や、有線接続及び無線接続のいずれであるか等については特に限定されない。
ウェアラブル端末150は、作業者が装着する携帯端末である。ウェアラブル端末150は、マイク100が集音した音声データを、学習モデル構築装置200に送信する役割と、作業者の位置情報を取得するための役割とを有する。
マイク100は、マイク100を制御するための機能ブロック、通信を行うための機能ブロック、といった一般的な機能ブロックを備える。同様に、ウェアラブル端末150は、ウェアラブル端末150を制御するための機能ブロック、通信を行うための機能ブロック、といった一般的な機能ブロックを備える。これらの一般的な機能ブロックについては、当業者によく知られているので、図示及び説明を省略する。同様に、後述の、学習モデル構築装置200や異常検出装置300においても、通信を行うための機能ブロック、作業者からの操作を受け付けるための機能ブロック、といった一般的な機能ブロックについては、図示及び説明を省略する。
学習モデル構築装置200は、近傍位置判定部210と、装置位置記憶部215と、音声取得部220と、ラベル取得部230と、学習部240と、学習モデル記憶部250とを備える。
ここで、作業者の位置情報を取得する方法としては、公知の技術を使用できる。
例えば、ウェアラブル端末150から送出される電波を受信した複数(例えば、4台)の無線基地局(図示せず)の各々は、各無線基地局に到達した電波到達時間を、近傍位置判定部210に送信する。そして、近傍位置判定部210は、受信した各無線基地局に到達した電波到達時間の差から3点測量に基づいて、ウェアラブル端末150の位置を特定する(電波到達時間差方式)。そして、近傍位置判定部210は、特定した位置情報と共に、ウェアラブル端末150に対応した作業者識別情報を取得する。
まず、音声取得部220は、マイク100から取得した音声データを解析して、音声認識の対象とする音声データを特定する。具体的には、まず、所定区間ごとに音声データを取り込み、音声データの振幅値を所定のサンプリングタイムで積算し、この積算量を1つ前の区間のそれと比較し、差分が音声認識開始用の閾値を超えた区間を、音声認識開始区間とする。そして、音声認識開始区間から一連の複数区間を音声入力区間とし、この音声入力区間に取得した音声データを、処理対象の音声データとして特定する。
次に、音声取得部220は、特定した音声データに、所定の音声認識アルゴリズムを適用して特徴量を抽出する。例えば、音声認識アルゴリズムとしてHMM(HiddenMarkovModel:隠れマルコフモデル)を用いる場合、音声取得部220は、メルケプストラム分析により、メルケプストラム、このメルケプストラムの動的特徴量(メルケプストラムの時間領域での変化量)、及びlogパワーの動的特徴量等を、特徴量として抽出する。
なお、音声認識を行う前に、音声データに対して、例えば、FFT(Fast Fourier Transform)等を用いて周波数解析を行うことで、認識対象とすべき音声と同様の周波数を持つ音声データのみを抽出する。そのようにすることで、作業者の音声を含まないノイズのみからなる音声データは、機械学習に用いないようにできる。そして、音声取得部220は、波形から音程や音量を認識する。
また、異常時を想定した予行演習をし、その時の作業者の音声データを取得してもよい。
なお、学習モデルを構築した後に、新たに教師データを取得した場合には、学習モデル記憶部250が記憶した学習モデルに対して更に教師あり学習を行うことにより、一度構築した学習モデルを更新するようにしてもよい。
また、学習モデル記憶部250が記憶した学習モデルを、他の学習モデル構築装置200との間で共有するようにしてもよい。学習モデルを複数の学習モデル構築装置200で共有するようにすれば、各学習モデル構築装置200にて分散して、更に教師あり学習を行うことが可能になるので、教師あり学習の効率及び精度を向上させることができる。
異常度判定部310は、学習部240から入力された学習モデルと、外部から入力された判定データとを用いて、判定データに対する異常度を判定する。そして、異常度判定部310は、これらのデータを用いて行った判定の結果、異常度が異常を示す場合に、通知部320に対して通知する。
また、異常度判定部310に入力される判定データは、学習部240に入力される特徴量と同等のデータである。
判定データは、学習モデル構築装置200の音声取得部220から入力されるようにしてもよい。また他にも、異常検出装置300内部に、近傍位置判定部210及び音声取得部220と同等の機能ブロックを設けておき、ウェアラブル端末150から取得した位置情報から、この近傍位置判定部210と同等の機能ブロックが、生産装置の近傍に作業者が位置しているかを判断し、マイク100から取得した音声データから、この音声取得部220と同等の機能ブロックが、特徴量を抽出するようにしてもよい。
音声を発した作業者を除く他の作業者や監視者は、通知部320による通知により、生産ラインで何らかの異常が発生したことを知ることができる。
これらの機能ブロックを実現するために、ウェアラブル端末150、学習モデル構築装置200及び異常検出装置300のいずれも、CPU(Central Processing Unit)等の演算処理装置を備える。また、ウェアラブル端末150、学習モデル構築装置200及び異常検出装置300のいずれも、各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置を備える。
具体例として、ウェアラブル端末150は、ウェアラブル端末の他、例えば、スマートフォンや携帯端末等により実現してもよい。また、学習モデル構築装置200及び異常検出装置300は、例えば、パーソナルコンピュータ、サーバ等のコンピュータにより実現してもよい。
図4のステップS(以下、単に「S」という。)11において、学習モデル構築装置200の近傍位置判定部210は、作業者の位置情報として、作業者が携行するウェアラブル端末150の位置情報を取得する。
S12において、近傍位置判定部210は、装置位置記憶部215を参照し、取得した位置情報が、装置位置記憶部215に記憶されたいずれかの生産装置の位置情報に近傍した位置であるか否かを判断する。近傍した位置である場合(S12:YES)には、近傍位置判定部210は、処理をS13に移す。他方、近傍した位置ではない場合(S12:NO)には、近傍位置判定部210は、本処理を終了する。つまり、作業者が生産装置に近傍した位置ではない場合には、作業者が生産装置に関する話はせず、生産ラインに関する音声を含まないと考えられる。そのため、作業者が生産装置に近傍した位置ではない場合には、作業者が発した音声を、学習モデル構築装置200での学習対象にしない。
S14において、音声取得部220は、S13で取得した音声データから特徴量を抽出する。ここで抽出する特徴量は、例えば、作業者の音声のうち、各単語を発した長さとすることができる。つまり、音声データから抽出した特徴量に、作業者の音声を含み、その音声が単語を発した部分を、教師データの特徴量とする。
S15において、ラベル取得部230は、ラベルを取得する。
S16において、S14で抽出した特徴量と、S15で取得したラベルとを組にした教師データを、学習部240に入力する。
具体的には、学習部240は、教師データに含まれる入力データである特徴量とラベルとの組をニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューラルネットに含まれる各パーセプトロンについての重み付けを変更する。このようにして、学習部240は、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。
いずれにしても、条件が満たされておらず、教師あり学習を未だ終了させない場合(S18:NO)には、学習部240は、処理をS16に移し、新たな教師データ又は同じ教師データを対象として、再度教師あり学習を繰り返す。
一方で、教師あり学習を繰り返す過程にて、教師あり学習を終了させる条件が満たされた場合(S18:YES)には、学習部240は、教師あり学習を終了する。
オンライン学習とは、音声データから特徴量を抽出し、ラベルが入力されて教師データが作成される都度、即座に教師あり学習を行うという学習方法である。また、バッチ学習とは、音声データから特徴量を抽出し、ラベルが入力されて、教師データが作成されることが繰り返される間に、繰り返しに応じた複数の教師データを収集し、収集した全ての教師データを用いて、教師あり学習を行うという学習方法である。更に、ミニバッチ学習とは、オンライン学習と、バッチ学習の中間的な、ある程度教師データが溜まるたびに教師あり学習を行うという学習方法である。
S22において、異常度判定部310は、音声取得部220から判定データを取得したか否かを判断する。なお、判定データの取得方法の詳細は、図2を参照した異常度判定部310の説明時に上述した通りである。音声取得部220から判定データを取得した場合(S22:YES)には、異常度判定部310は、処理をS23に移す。他方、音声取得部220から判定データを取得していない場合(S22:NO)には、異常度判定部310は、判定データを取得するまで待機する。
なお、異常検出装置300は、複数の作業者が、同時に音声を発する場合についても考慮する必要がある。例えば、複数の作業者が、生産装置の異常を発見して音声を発した場合が考えられる。そのような場合には、複数の判定データを取得することになるが、その場合には、異常度判定部310は、各判定データに対する異常度を判定し、その上で、最も度合いの高い異常度を、その時点での異常度としてもよい。
S26において、通知部320は、異常度に基づくデータに対応した通知を行う。例えば、注意を示すデータである場合には、通知部320は、警告灯を点灯させる。また、例えば、警告を示すデータである場合には、通知部320は、警告灯を点灯させ、更にアラーム音を出力させる。その後、異常検出装置300は、処理をS22に移し、次の判定データを取得するまで待機する。
そして、作業者が発した音声と、生産ラインの異常との結びつけを行うことで、生産ラインの生産装置や作業者の安全性を向上させることができる。
次に、第2実施形態について説明する。
第2実施形態では、第1実施形態に加えて、異常検出装置が判定した異常度が異常を示す場合に、異常検出装置が、生産ラインに関する状態データ及び生産装置の稼働データを出力するものである。
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
これに加えて、第2実施形態で取得した状態データや、稼働データを、教師データに含ませるようにしてもよい。例えば、温度計が計測した温度データや、地震計が計測した振動データを、特徴量の1つとして教師データに含ませるようにしてもよい。また、例えば、生産装置に設置されたセンサが測定した測定データから特徴量を抽出し、測定データの特徴量を教師データに含ませるようにしてもよい。
そのようにすることで、学習に必要なデータを多種なものにでき、異常検出の精度を高めることができる。
しかし、他のパターン認識モデルを使用したものであったり、他の機械学習のアルゴリズムを用いた学習を行うものであったりしてもよい。例えば、図3に示す教師データ241を説明するためのテーブルを、学習によって動的に作るようなものであってもよい。
これに加えて、異常度が異常を示す場合に、異常度に応じて、生産装置を緊急停止させる信号を、生産装置に対して出力するようにしてもよい。そして、生産装置では、緊急停止させる信号を受信した場合に、生産装置が備える安全確保処理部が、装置を緊急停止させる。そのようにすることで、特に、人命に関わる異常である場合に、作業者の安全性を向上させることができる。
しかし、マイク100自体が、ウェアラブル端末としての機能を有する場合には、ウェアラブル端末150は不要である。
更に、マイク100に代えて、各生産装置に設けられ、生産装置の周辺の音を集音するマイクから、作業者の音声を集音するようにしてもよい。その際、例えば、所定の周波数以下の周波数帯域の成分を減衰させるローパスフィルタを用いて、人の音声の周波数の範囲の音声データを取得するようにしてもよい。このように、生産装置に設けられたマイクから集音することで、作業者が生産装置に近傍に位置するか否かを判断するための処理が不要になるため、処理効率が向上する。
また、サーバを、各学習モデル構築装置間のデータを送受信する役割を果たすものにしてもよい。そのようにすることで、各学習モデル構築装置は、他の学習モデル構築装置の教師データを用いて学習を行うことができる。
150 ウェアラブル端末
200 学習モデル構築装置
210 近傍位置判定部
220 音声取得部
230 ラベル取得部
240 学習部
250 学習モデル記憶部
300,2300 異常検出装置
310 異常度判定部
320 通知部
600 サーバ
1000 異常検出システム
2330 状態データ取得部
2340 稼働データ取得部
2350 データ出力部
Claims (13)
- 作業者の位置情報を取得する作業者位置取得手段と、
生産装置の位置情報を記憶する装置位置記憶部と、
前記作業者位置取得手段により取得した前記作業者の位置情報と、前記装置位置記憶部に記憶された前記生産装置の位置情報とに基づいて、前記作業者が前記生産装置の近傍に位置している場合に、前記作業者の音声を含む音声データを、音声受付装置を介して取得する音声データ取得手段と、
前記生産装置を含む生産ラインに関する異常度を、ラベルとして取得するラベル取得手段と、
前記音声データと前記ラベルとの組みを教師データとして教師あり学習を行うことにより、前記異常度についての学習モデルを構築する学習手段と、
を備え、
前記音声受付装置は、前記作業者が装着可能である学習モデル構築装置。 - 請求項1に記載の学習モデル構築装置において、
前記音声データ取得手段は、前記作業者の音声から得られる特徴量を、前記音声データとして取得する学習モデル構築装置。 - 請求項2に記載の学習モデル構築装置において、
前記特徴量は、前記作業者の音声を解析して得られる音声内容、音程及び音量に関するものである学習モデル構築装置。 - 作業者の位置情報を取得する作業者位置取得手段と、
生産装置の位置情報を記憶する装置位置記憶部と、
前記作業者位置取得手段により取得した前記作業者の位置情報と、前記装置位置記憶部に記憶された前記生産装置の位置情報とに基づいて、前記作業者が前記生産装置の近傍に位置している場合に、前記作業者の音声を含む音声データを取得する音声データ取得手段と、
前記生産装置を含む生産ラインに関する異常度を、ラベルとして取得するラベル取得手段と、
前記音声データと前記ラベルとの組みを教師データとして教師あり学習を行う学習手段と、
を備える学習モデル構築装置。 - 請求項1から請求項4までのいずれかに記載の学習モデル構築装置で構築した学習モデルを用いた異常検出装置であって、
前記音声データ取得手段が取得した前記音声データと、前記学習モデルとに基づいて、前記音声データに対する前記異常度を判定する異常度判定手段と、
前記異常度判定手段により判定された前記異常度に基づく通知を行う通知手段と、
を備える異常検出装置。 - 請求項5に記載の異常検出装置において、
前記生産ラインに設けられ前記生産ラインに関する状態情報を取得する状態情報取得手段と、
前記異常度判定手段により判定された前記異常度が異常を示す場合に、前記状態情報取得手段が取得した前記状態情報を出力する状態情報出力手段と、
を備える異常検出装置。 - 請求項6に記載の異常検出装置において、
前記状態情報は、画像情報、振動情報及び温度情報の少なくともいずれかを含む異常検出装置。 - 請求項5から請求項7までのいずれかに記載の異常検出装置において、
前記生産装置の稼働情報を取得する稼働情報取得手段と、
前記異常度判定手段により判定された前記異常度が異常を示す場合に、前記稼働情報取得手段が取得した前記稼働情報を出力する稼働情報出力手段と、
を備える異常検出装置。 - 請求項8に記載の異常検出装置において、
前記稼働情報は、前記生産装置に設置されたセンサが測定した測定データを含む異常検出装置。 - 請求項1から請求項4までのいずれかに記載の学習モデル構築装置と、
請求項5から請求項9までのいずれかに記載の異常検出装置と、
を備えた異常検出システム。 - 請求項10に記載の異常検出システムにおいて、
前記学習モデル構築装置及び前記異常検出装置が、前記生産装置に設けられている異常検出システム。 - 請求項1から請求項4までのいずれかに記載の学習モデル構築装置を複数有し、複数の前記学習モデル構築装置に対して通信ネットワークを介して接続されたサーバであって、
一の前記学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信し、他の前記学習モデル構築装置に対して受信した前記教師データを送信するデータ送受信手段を備えるサーバ。 - 請求項1から請求項4までのいずれかに記載の学習モデル構築装置を複数有し、複数の前記学習モデル構築装置に対して通信ネットワークを介して接続されたサーバであって、
各学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信するデータ受信手段と、
前記データ受信手段により受信した前記教師データを用いて教師あり学習を行うことにより、前記異常度についての学習モデルを構築する学習手段と、
前記学習手段により構築された前記学習モデルを、各学習モデル構築装置に送信するモデル送信手段と、
を備えるサーバ。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017055498A JP6527187B2 (ja) | 2017-03-22 | 2017-03-22 | 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ |
US15/914,347 US10592823B2 (en) | 2017-03-22 | 2018-03-07 | Learning model construction device, abnormality detection device, abnormality detection system and server |
CN201810224790.XA CN108630229B (zh) | 2017-03-22 | 2018-03-19 | 学习模型构建装置、异常检测装置、异常检测系统及服务器 |
DE102018204135.0A DE102018204135B4 (de) | 2017-03-22 | 2018-03-19 | Lernmodellkonstruktionsvorrichtung, Abnormalitätsdetektionssystem und Server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017055498A JP6527187B2 (ja) | 2017-03-22 | 2017-03-22 | 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018159991A JP2018159991A (ja) | 2018-10-11 |
JP6527187B2 true JP6527187B2 (ja) | 2019-06-05 |
Family
ID=63450630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017055498A Active JP6527187B2 (ja) | 2017-03-22 | 2017-03-22 | 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ |
Country Status (4)
Country | Link |
---|---|
US (1) | US10592823B2 (ja) |
JP (1) | JP6527187B2 (ja) |
CN (1) | CN108630229B (ja) |
DE (1) | DE102018204135B4 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10910001B2 (en) * | 2017-12-25 | 2021-02-02 | Casio Computer Co., Ltd. | Voice recognition device, robot, voice recognition method, and storage medium |
JP6882248B2 (ja) * | 2018-11-14 | 2021-06-02 | ファナック株式会社 | 工具取付異常検出装置 |
JP2021015573A (ja) * | 2019-07-16 | 2021-02-12 | ファナック株式会社 | 異常判定装置及び異常判定システム |
US11488608B2 (en) * | 2019-12-16 | 2022-11-01 | Sigma Technologies Global Llc | Method and system to estimate speaker characteristics on-the-fly for unknown speaker with high accuracy and low latency |
JP2023512178A (ja) * | 2020-02-03 | 2023-03-24 | ピンドロップ セキュリティー、インコーポレイテッド | 音声バイオメトリクスのクロスチャネル登録と認証 |
JP7518166B2 (ja) * | 2020-05-25 | 2024-07-17 | ファナック株式会社 | 診断装置、サーバ、及び診断方法 |
CN111784966A (zh) * | 2020-06-15 | 2020-10-16 | 武汉烽火众智数字技术有限责任公司 | 一种基于机器学习的人员管控的方法及系统 |
WO2022044175A1 (ja) * | 2020-08-26 | 2022-03-03 | 三菱電機株式会社 | データ処理装置、データ処理方法およびデータ処理プログラム |
CN114577481B (zh) * | 2020-12-02 | 2024-01-12 | 新奥新智科技有限公司 | 燃气内燃机的污染指标监测方法及装置 |
CN115206042B (zh) * | 2022-07-14 | 2023-06-23 | 广东电网有限责任公司 | 工控安全的智能化监测方法、装置、设备及介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH064789A (ja) | 1992-06-22 | 1994-01-14 | Hitachi Ltd | 機器の異常監視方法および装置 |
JPH08320251A (ja) | 1995-05-25 | 1996-12-03 | Fuji Facom Corp | 設備における音響および振動の診断方法 |
JP2002169611A (ja) | 2000-11-30 | 2002-06-14 | Yaskawa Electric Corp | 故障診断システムおよびその自動設計方法 |
JP2008077160A (ja) * | 2006-09-19 | 2008-04-03 | Ricoh Co Ltd | 画像処理装置、画像処理方法、画像形成装置、コンピュータが実行するためのプログラム、およびそのプログラムを格納した記録媒体 |
JP2010237781A (ja) * | 2009-03-30 | 2010-10-21 | National Institute Of Advanced Industrial Science & Technology | 監視用撮像装置及び監視用撮像システム |
JP2013097713A (ja) * | 2011-11-04 | 2013-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 消費電力推定装置、方法及びプログラム |
JP6033140B2 (ja) * | 2013-03-21 | 2016-11-30 | Jxエネルギー株式会社 | 異常検知方法及び異常検知装置 |
DE102014012184B4 (de) | 2014-08-20 | 2018-03-08 | HST High Soft Tech GmbH | Vorrichtung und Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich |
CN104392621A (zh) | 2014-11-26 | 2015-03-04 | 长安大学 | 一种基于车车通信的公路异常停车预警方法及其实现系统 |
CN104536318B (zh) | 2014-12-17 | 2017-08-08 | 江苏苏沃环保工程有限公司 | 一种电力现场作业可穿戴智能装备 |
US9564035B2 (en) * | 2014-12-22 | 2017-02-07 | Hand Held Products, Inc. | Safety system and method |
JP6148316B2 (ja) | 2015-07-31 | 2017-06-14 | ファナック株式会社 | 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム |
US9633538B1 (en) * | 2015-12-09 | 2017-04-25 | International Business Machines Corporation | System and method for wearable indication of personal risk within a workplace |
US20170221336A1 (en) * | 2016-01-28 | 2017-08-03 | Flex Ltd. | Human voice feedback system |
US10706309B2 (en) * | 2016-02-29 | 2020-07-07 | Nec Corporation | Recursive neural networks on future event prediction |
-
2017
- 2017-03-22 JP JP2017055498A patent/JP6527187B2/ja active Active
-
2018
- 2018-03-07 US US15/914,347 patent/US10592823B2/en active Active
- 2018-03-19 DE DE102018204135.0A patent/DE102018204135B4/de active Active
- 2018-03-19 CN CN201810224790.XA patent/CN108630229B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20180276569A1 (en) | 2018-09-27 |
JP2018159991A (ja) | 2018-10-11 |
CN108630229B (zh) | 2020-05-15 |
DE102018204135A1 (de) | 2018-09-27 |
CN108630229A (zh) | 2018-10-09 |
DE102018204135B4 (de) | 2020-08-27 |
US10592823B2 (en) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6527187B2 (ja) | 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ | |
US20200233397A1 (en) | System, method and computer-accessible medium for machine condition monitoring | |
US10878839B2 (en) | Device for preventing cables against external damage based on sound source localization | |
EP3759558B1 (en) | Intelligent audio analytic apparatus (iaaa) and method for space system | |
WO2009139052A1 (ja) | 信号判定方法、信号判定装置、プログラム、信号判定システム | |
CN107526329A (zh) | 基于人工智能设计的机器人管理系统 | |
JP6236282B2 (ja) | 異常検出装置、異常検出方法、及びコンピュータ読み取り可能な記憶媒体 | |
KR102392951B1 (ko) | 초음파 대역의 음향 신호를 수신하는 다채널 감지 센서를 구비한 설비 고장 예측 시스템 | |
US10715941B2 (en) | Mobile and autonomous audio sensing and analytics system and method | |
US20130076506A1 (en) | System and Method for Testing and Calibrating Audio Detector and Other Sensing and Communications Devices | |
EP3759789B1 (en) | System and method for audio and vibration based power distribution equipment condition monitoring | |
US20180188104A1 (en) | Signal detection device, signal detection method, and recording medium | |
KR20200053093A (ko) | 건설현장 이상징후 감지 방법 및 시스템 | |
CN110678821B (zh) | 处理装置、处理方法和程序 | |
JP7157727B2 (ja) | エレベーター安全作業管理システムおよびエレベーター安全作業管理装置 | |
CN118408743B (zh) | 一种轴承故障检测系统及方法 | |
Ooi et al. | Non-intrusive operation status tracking for legacy machines via sound recognition | |
US20230350401A1 (en) | Method for contactless diagnosing power facility using artificial intelligence and signal processing technology and device using the same | |
CN115711669A (zh) | 一种井筒设备故障诊断方法、装置、终端及存储介质 | |
US20110106499A1 (en) | Method for detecting statuses of components of semiconductor equipment and associated apparatus | |
US20220138624A1 (en) | Time-series data processing method | |
KR20210080010A (ko) | 사출 성형 설비의 고장 예측 시스템 및 그 방법 | |
US12000881B2 (en) | Method for automatically creating installation-specific measuring profiles for an insulation monitoring system | |
KR20190062874A (ko) | 기계 학습 기반 지반 및 구조물의 건전도 평가 방법 및 장치 | |
US20240280980A1 (en) | Automated machine monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6527187 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |