JP6527187B2 - 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ - Google Patents

学習モデル構築装置、異常検出装置、異常検出システム及びサーバ Download PDF

Info

Publication number
JP6527187B2
JP6527187B2 JP2017055498A JP2017055498A JP6527187B2 JP 6527187 B2 JP6527187 B2 JP 6527187B2 JP 2017055498 A JP2017055498 A JP 2017055498A JP 2017055498 A JP2017055498 A JP 2017055498A JP 6527187 B2 JP6527187 B2 JP 6527187B2
Authority
JP
Japan
Prior art keywords
learning model
abnormality
data
learning
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017055498A
Other languages
English (en)
Other versions
JP2018159991A (ja
Inventor
健一郎 小栗
健一郎 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017055498A priority Critical patent/JP6527187B2/ja
Priority to US15/914,347 priority patent/US10592823B2/en
Priority to CN201810224790.XA priority patent/CN108630229B/zh
Priority to DE102018204135.0A priority patent/DE102018204135B4/de
Publication of JP2018159991A publication Critical patent/JP2018159991A/ja
Application granted granted Critical
Publication of JP6527187B2 publication Critical patent/JP6527187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • G10L15/075Adaptation to the speaker supervised, i.e. under machine guidance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • General Factory Administration (AREA)

Description

本発明は、学習モデル構築装置、異常検出装置、異常検出システム及びサーバに関する。
従来、生産装置に属するセンサにより収集される情報を用いた、生産装置の異常検出が行われている。例えば、サーボモータによって駆動される産業用ロボットや工作機械等の生産装置は、一般的に角度検出器及び電流検出器等の機器を備えている。また、生産装置は、用途によって、温度センサ、トルクセンサ、力センサ、タッチセンサ等の多様なセンサを備えている。そして、機器やセンサを用いた異常検出として、モータの電流値から推定される外力により衝突を検出したり、推定外力を周波数解析して減速機の異常を検出したりする方法が行われている。
また、検出した生産装置の振動や音に基づいて、生産装置の異常検出を行うものが開示されている(例えば、特許文献1〜3参照)。
特開2002−169611号公報 特開平8−320251号公報 特開平6−4789号公報
ここで、音を収集及び解析して、生産装置や生産装置の属する生産ラインの異常を検出する場合に、生産装置に属するセンサによって、生産装置から生じる音を収集及び解析している。しかし、生産ラインにおいて、異常を示す音や、異常の兆候を含む音は、生産装置から発生するものに限られない。
本発明は、係る課題に鑑みなされたものであり、その目的は、生産装置周辺の音情報を用いて異常検出を行うための学習モデル構築装置、異常検出装置、異常検出システム及びサーバを提供することである。
(1)本発明の学習モデル構築装置(例えば、学習モデル構築装置200)は、生産装置の近傍に位置した作業者の音声を含む音声データを、音声受付装置(例えば、マイク100)を介して取得する音声データ取得手段(例えば、音声取得部220)と、前記生産装置を含む生産ラインに関する異常度を、ラベルとして取得するラベル取得手段(例えば、ラベル取得部230)と、前記音声データと前記ラベルとの組みを教師データとして教師あり学習を行うことにより、異常度についての学習モデルを構築する学習手段(例えば、学習部240)と、を備える。
(2) (1)に記載の学習モデル構築装置において、前記音声データ取得手段(例えば、音声取得部220)は、前記作業者の音声から得られる特徴量を、前記音声データとして取得してもよい。
(3) (2)に記載の学習モデル構築装置において、前記特徴量は、前記作業者の音声を解析して得られる音声内容、音程及び音量に関するものであってもよい。
(4) (1)から(3)までのいずれかに記載の学習モデル構築装置において、前記音声受付装置(例えば、マイク100)は、前記作業者が装着可能であり、前記作業者の位置情報を取得する作業者位置取得手段(例えば、近傍位置判定部210)と、前記生産装置の位置情報を記憶する装置位置記憶部(例えば、装置位置記憶部215)と、を備え、前記音声データ取得手段(例えば、音声取得部220)は、前記作業者位置取得手段により取得した前記作業者の位置情報と、前記装置位置記憶部に記憶された前記生産装置の位置情報とから、前記作業者が前記生産装置の近傍に位置している場合に、前記音声データを取得してもよい。
(5) (1)から(4)までのいずれかに記載の学習モデル構築装置で構築した前記学習モデルを用いた異常検出装置(例えば、異常検出装置300,2300)は、前記音声データ取得手段(例えば、音声取得部220)が取得した前記音声データと、前記学習モデルとに基づいて、前記音声データに対する前記異常度を判定する異常度判定手段(例えば、異常度判定部310)と、前記異常度判定手段により判定された前記異常度に基づく通知を行う通知手段(例えば、通知部320)と、を備える。
(6) (5)に記載の異常検出装置(例えば、異常検出装置2300)において、前記生産ラインに設けられ前記生産ラインに関する状態情報を取得する状態情報取得手段(例えば、状態データ取得部2330)と、前記異常度判定手段(例えば、異常度判定部310)により判定された前記異常度が異常を示す場合に、前記状態情報取得手段が取得した前記状態情報を出力する状態情報出力手段(例えば、データ出力部2350)と、を備えてもよい。
(7) (6)に記載の異常検出装置において、前記状態情報は、画像情報、振動情報及び温度情報の少なくともいずれかを含んでもよい。
(8) (5)から(7)までのいずれかに記載の異常検出装置(例えば、異常検出装置2300)において、前記生産装置の稼働情報を取得する稼働情報取得手段(例えば、稼働データ取得部2340)と、前記異常度判定手段(例えば、異常度判定部310)により判定された前記異常度が異常を示す場合に、前記稼働情報取得手段が取得した前記稼働情報を出力する稼働情報出力手段(例えば、データ出力部2350)と、を備えてもよい。
(9) (8)に記載の異常検出装置において、前記稼働情報は、前記生産装置に設置されたセンサが測定した測定データを含んでもよい。
(10) 本発明の異常検出システム(例えば、異常検出システム1000,1000−2)は、(1)から(4)までのいずれかに記載の学習モデル構築装置(例えば、学習モデル構築装置200)と、(5)から(9)までのいずれかに記載の異常検出装置(例えば、異常検出装置300,2300)と、を備える。
(11) (10)に記載の異常検出システムにおいて、前記学習モデル構築装置及び前記異常検出装置が、前記生産装置に設けられていてもよい。
(12) (1)から(4)までのいずれかに記載の学習モデル構築装置(例えば、学習モデル構築装置200)を複数有し、複数の前記学習モデル構築装置に対して通信ネットワーク(例えば、ネットワーク500)を介して接続されたサーバは、一の前記学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信し、他の前記学習モデル構築装置に対して受信した前記教師データを送信するデータ送受信手段を備える。
(13) (1)から(4)までのいずれかに記載の学習モデル構築装置(例えば、学習モデル構築装置200)を複数有し、複数の前記学習モデル構築装置に対して通信ネットワーク(例えば、ネットワーク500)を介して接続されたサーバ(例えば、サーバ600)は、各学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信するデータ受信手段と、前記データ受信手段により受信した前記教師データを用いて教師あり学習を行うことにより、異常度についての学習モデルを構築する学習手段と、前記学習手段により構築された前記学習モデルを、各学習モデル構築装置に送信するモデル送信手段と、を備える。
本発明によれば、生産装置周辺の音情報を用いて異常検出を行うための学習モデル構築装置、異常検出装置、異常検出システム及びサーバを提供できる。
本発明の実施形態全体の基本的構成を表すブロック図である。 本発明の第1実施形態における各装置に含まれる機能ブロックを表すブロック図である。 本発明の第1実施形態における教師データの例を示す図である。 本発明の第1実施形態における機械学習時の動作について示すフローチャートである。 本発明の第1実施形態における異常検出時の動作について示すフローチャートである。 本発明の第2実施形態における異常検出装置に含まれる機能ブロックを表すブロック図である。 本発明の変形形態における学習モデル構築装置間連携を表すブロック図である。
(第1実施形態)
まず、本発明の実施形態の概略を説明する。本実施形態は、ロボット、工作機械及び射出成形機等の生産装置の近傍で作業をする各作業者の発した音声から、1以上の生産装置を有する生産ラインの異常度を判定するためのシステムに関する。
各作業者は、生産装置の近傍で生産装置を監視している際に、例えば、危険な状況を確認した場合には、「危ない」、「止めろ」等の声を発する。また、危険な状況下において、各作業者が発する声には、「キャー」等の悲鳴のような叫び声も含まれる。
そこで、本実施形態では、生産ラインを監視している作業者が発する声である音声データを入力データとして機械学習をする。そして、本実施形態では、機械学習をした結果データである学習モデルを用いることで、作業者の発した音声によって生産ラインが異常の場合を検出する。
以上が本発明の実施形態の概略である。
次に、本実施形態である異常検出システム1000の構成について、図1を参照して説明をする。図1に示すように、異常検出システム1000は、n台のマイク100、n台のウェアラブル端末150、学習モデル構築装置200、異常検出装置300、及びネットワーク400を備える。なお、nは、任意の自然数である。
これらの装置間の接続について説明する。マイク100と、ウェアラブル端末150とは、各作業者が有し、マイク100は、例えば、Bluetooth(登録商標)等の近距離無線通信等により、ウェアラブル端末150に通信可能に接続されている。そして、ウェアラブル端末150は、ネットワーク400に通信可能に接続されている。
学習モデル構築装置200と、異常検出装置300とは、それぞれネットワーク400に接続されており、ネットワーク400を介して相互に通信を行うことが可能である。
ネットワーク400は、例えば、工場内に構築されたLAN(Local Area Network)、インターネット、公衆電話網等、又はこれらの組み合わせである。ネットワーク400における具体的な通信方式や、有線接続及び無線接続のいずれであるか等については特に限定されない。
次に、異常検出システム1000に含まれるこれら装置の機能について図2を参照して説明をする。ここで、図2は、各装置に含まれる機能ブロックを表すブロック図である。なお、マイク100−1からマイク100−nは、同等の機能を有し、また、ウェアラブル端末150−1からウェアラブル端末150−nも、同等の機能を有しているため、図2では、それぞれ1台のみを図示する。また、各装置間に存在するネットワーク400については図示を省略する。
マイク100は、例えば、作業者が頭部に装着するヘッドセットの集音部分であり、作業者の音声を集音する音声受付装置である。
ウェアラブル端末150は、作業者が装着する携帯端末である。ウェアラブル端末150は、マイク100が集音した音声データを、学習モデル構築装置200に送信する役割と、作業者の位置情報を取得するための役割とを有する。
マイク100は、マイク100を制御するための機能ブロック、通信を行うための機能ブロック、といった一般的な機能ブロックを備える。同様に、ウェアラブル端末150は、ウェアラブル端末150を制御するための機能ブロック、通信を行うための機能ブロック、といった一般的な機能ブロックを備える。これらの一般的な機能ブロックについては、当業者によく知られているので、図示及び説明を省略する。同様に、後述の、学習モデル構築装置200や異常検出装置300においても、通信を行うための機能ブロック、作業者からの操作を受け付けるための機能ブロック、といった一般的な機能ブロックについては、図示及び説明を省略する。
学習モデル構築装置200は、マイク100が受け付けた音声データを用いて機械学習を行う装置である。そして、学習モデル構築装置200は、機械学習を行うことにより、異常検出を行うための学習モデルを構築する。
学習モデル構築装置200は、近傍位置判定部210と、装置位置記憶部215と、音声取得部220と、ラベル取得部230と、学習部240と、学習モデル記憶部250とを備える。
近傍位置判定部210は、作業者の位置を特定する。そして、近傍位置判定部210は、特定した作業者の位置が、生産装置の近傍であるか否かを判定する。
ここで、作業者の位置情報を取得する方法としては、公知の技術を使用できる。
例えば、ウェアラブル端末150から送出される電波を受信した複数(例えば、4台)の無線基地局(図示せず)の各々は、各無線基地局に到達した電波到達時間を、近傍位置判定部210に送信する。そして、近傍位置判定部210は、受信した各無線基地局に到達した電波到達時間の差から3点測量に基づいて、ウェアラブル端末150の位置を特定する(電波到達時間差方式)。そして、近傍位置判定部210は、特定した位置情報と共に、ウェアラブル端末150に対応した作業者識別情報を取得する。
また、ウェアラブル端末150から送出される電波を受信した無線基地局は、受信した電波の強度を、近傍位置判定部210に送信する。そして、近傍位置判定部210は、受信した電波の強度、及び事前に取得した電波強度マップ又は3点測量に基づいて、ウェアラブル端末150の位置を特定する(電波強度方式)。そして、近傍位置判定部210は、特定した位置情報と共に、ウェアラブル端末150に対応した作業者を識別するための作業者識別情報を取得する。
更に、作業者の位置情報を取得する方法として、ビーコン方式を適用してもよい。その場合、作業者は、ウェアラブル端末150の他にビーコンを携行し、又は、作業者が携行するウェアラブル端末150にビーコンの機能を有するようにする。そして、生産ライン内に設置されたビーコンユニット(図示せず)が、ビーコンから発射される電波又は赤外線等を受信することにより、ビーコンに対応した作業者識別情報を取得すると共に、作業者の位置を計測する。そして、近傍位置判定部210は、ビーコンユニットから作業者の位置情報を取得する。なお、ビーコン及びビーコンユニットとしては、例えば、RFID(Radio Frequency Identification)、Bluetooth(登録商標)、等が挙げられる。
このように、学習モデル構築装置200は、公知の位置検出の機能を備えることにより、生産ライン内における作業者の位置情報を、作業者識別情報と共に検出することができる。なお、学習モデル構築装置200とは別に、公知の位置検出の機能を有した位置検出システムを備え、位置検出システムは、取得した作業者の位置情報を、学習モデル構築装置200に送信するようにしてもよい。
次に、近傍位置判定部210は、取得した作業者の位置情報と、作業者識別情報と、装置位置記憶部215に記憶された生産装置の位置情報とに基づいて、作業者の位置が、生産装置の近傍であるか否かを判定する。例えば、作業者の位置と、作業者の位置に一番近い生産装置の位置との差が、10m以内であれば、近傍位置判定部210は、作業者の位置が、生産装置の近傍であると判定する。
音声取得部220は、マイク100からウェアラブル端末150を介して音声データを取得し(以下、簡略化して「マイク100から音声データを取得」ともいう。)、取得した音声データから特徴量を抽出することで、学習するための入力データを生成する部分である。ここで、音声取得部220は、近傍位置判定部210によって、作業者が生産装置の近傍に位置することが判定された場合に、音声データから特徴量を抽出する。
まず、音声取得部220は、マイク100から取得した音声データを解析して、音声認識の対象とする音声データを特定する。具体的には、まず、所定区間ごとに音声データを取り込み、音声データの振幅値を所定のサンプリングタイムで積算し、この積算量を1つ前の区間のそれと比較し、差分が音声認識開始用の閾値を超えた区間を、音声認識開始区間とする。そして、音声認識開始区間から一連の複数区間を音声入力区間とし、この音声入力区間に取得した音声データを、処理対象の音声データとして特定する。
次に、音声取得部220は、特定した音声データに、所定の音声認識アルゴリズムを適用して特徴量を抽出する。例えば、音声認識アルゴリズムとしてHMM(HiddenMarkovModel:隠れマルコフモデル)を用いる場合、音声取得部220は、メルケプストラム分析により、メルケプストラム、このメルケプストラムの動的特徴量(メルケプストラムの時間領域での変化量)、及びlogパワーの動的特徴量等を、特徴量として抽出する。
更に、音声取得部220は、抽出結果に基づいて音声認識処理を行って、音声データに含まれる作業者の音声内容を認識することができる。そして、音声取得部220は、認識した音声内容から、形態素解析等によって、音声の特徴量として単語を抽出する。なお、音声認識処理は、公知の種々の技術を用いて行うことができる。
なお、音声認識を行う前に、音声データに対して、例えば、FFT(Fast Fourier Transform)等を用いて周波数解析を行うことで、認識対象とすべき音声と同様の周波数を持つ音声データのみを抽出する。そのようにすることで、作業者の音声を含まないノイズのみからなる音声データは、機械学習に用いないようにできる。そして、音声取得部220は、波形から音程や音量を認識する。
ラベル取得部230は、学習モデル構築装置200の操作受付部(図示せず)により、例えば、監視者からのラベルの入力操作を受け付け、これによりラベルを取得する。ここで、ラベルとは、機械学習において入力に対応すべき正しい出力である。本実施形態では、ラベルは、生産ラインの異常度に関するものである。より具体的には、ラベルは、例えば、異常度が0から2までの3段階の度合いである。ここで、異常度が0は、異常な状況が生じていない、つまり、正常であることを示す。また、異常度が1は、注意レベルの異常度合いを示し、異常度が2は、警告レベルの異常度合いを示す。注意レベルの度合いとは、例えば、生産ラインを確認するレベルをいい、警告レベルの度合いとは、例えば、生産ラインを停止させるレベルをいう。
このようにして、学習対象とした作業者の音声データの特徴量と、生産ラインの異常度のラベルとが組となり、学習部240に入力される。この特徴量とラベルの組は、機械学習における教師データに相当する。図3は、学習部240に入力される教師データ241の例を示す図である。
ここで、機械学習を行うための教師データは、多数用意されることが望ましい。そこで、例えば、実際に、生産装置が稼働中に異常が発生した際の作業者の音声データを取得して、取得した音声データを蓄積するその際、複数の生産ラインの各々について、各作業者からの音声データを取得してもよい。このようにすることで、作業者が通常通りに使用しているマイク100から取得した音声データにより、多くの教師データを作成することができるのでよい。
また、異常時を想定した予行演習をし、その時の作業者の音声データを取得してもよい。
学習部240は、このようにして入力された教師データに基づいて機械学習を行うことにより、生産ラインの異常度についての学習モデルを構築する。学習部240が構築した学習モデルは、学習モデル記憶部250及び後述の異常検出装置300に対して出力される。
学習モデル記憶部250は、学習部240による学習によって学習モデル記憶部250に対して出力した学習モデルを記憶する記憶部である。学習モデル記憶部250が記憶した学習モデルは、異常検出装置300により利用される。
なお、学習モデルを構築した後に、新たに教師データを取得した場合には、学習モデル記憶部250が記憶した学習モデルに対して更に教師あり学習を行うことにより、一度構築した学習モデルを更新するようにしてもよい。
また、学習モデル記憶部250が記憶した学習モデルを、他の学習モデル構築装置200との間で共有するようにしてもよい。学習モデルを複数の学習モデル構築装置200で共有するようにすれば、各学習モデル構築装置200にて分散して、更に教師あり学習を行うことが可能になるので、教師あり学習の効率及び精度を向上させることができる。
異常検出装置300は、本実施形態における生産ラインの異常を検出する装置である。異常検出装置300は、異常度判定部310と通知部320とを備える。
異常度判定部310は、学習部240から入力された学習モデルと、外部から入力された判定データとを用いて、判定データに対する異常度を判定する。そして、異常度判定部310は、これらのデータを用いて行った判定の結果、異常度が異常を示す場合に、通知部320に対して通知する。
ここで、学習部240から異常度判定部310に入力される学習モデルは、上述のように学習部240により構築されたものである。
また、異常度判定部310に入力される判定データは、学習部240に入力される特徴量と同等のデータである。
判定データは、学習モデル構築装置200の音声取得部220から入力されるようにしてもよい。また他にも、異常検出装置300内部に、近傍位置判定部210及び音声取得部220と同等の機能ブロックを設けておき、ウェアラブル端末150から取得した位置情報から、この近傍位置判定部210と同等の機能ブロックが、生産装置の近傍に作業者が位置しているかを判断し、マイク100から取得した音声データから、この音声取得部220と同等の機能ブロックが、特徴量を抽出するようにしてもよい。
通知部320は、異常度判定部310から入力された判定結果に基づいて出力する部分である。通知部320は、判定結果として出力された異常度に応じて、例えば、警告灯を点灯させたり、アラーム音を出力したりして通知する。
音声を発した作業者を除く他の作業者や監視者は、通知部320による通知により、生産ラインで何らかの異常が発生したことを知ることができる。
以上、マイク100、ウェアラブル端末150、学習モデル構築装置200及び異常検出装置300の機能ブロックについて説明した。次に、これらの機能ブロックの実現方法について説明をする。
これらの機能ブロックを実現するために、ウェアラブル端末150、学習モデル構築装置200及び異常検出装置300のいずれも、CPU(Central Processing Unit)等の演算処理装置を備える。また、ウェアラブル端末150、学習モデル構築装置200及び異常検出装置300のいずれも、各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置を備える。
そして各装置において、演算処理装置が補助記憶装置からアプリケーションやOSを読み込み、読み込んだアプリケーションやOSを主記憶装置に展開させながら、これらのアプリケーションやOSに基づいた演算処理を行う。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。
具体例として、ウェアラブル端末150は、ウェアラブル端末の他、例えば、スマートフォンや携帯端末等により実現してもよい。また、学習モデル構築装置200及び異常検出装置300は、例えば、パーソナルコンピュータ、サーバ等のコンピュータにより実現してもよい。
ただし、学習モデル構築装置200については、機械学習に伴う演算量が多いため、例えば、パーソナルコンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General−Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを機械学習に伴う演算処理に利用するようにすると、高速処理できるようになるのでよい。更には、より高速な処理を行うために、このようなGPUを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
次に、図4のフローチャートを参照して、機械学習時の学習モデル構築装置200の動作について説明をする。
図4のステップS(以下、単に「S」という。)11において、学習モデル構築装置200の近傍位置判定部210は、作業者の位置情報として、作業者が携行するウェアラブル端末150の位置情報を取得する。
S12において、近傍位置判定部210は、装置位置記憶部215を参照し、取得した位置情報が、装置位置記憶部215に記憶されたいずれかの生産装置の位置情報に近傍した位置であるか否かを判断する。近傍した位置である場合(S12:YES)には、近傍位置判定部210は、処理をS13に移す。他方、近傍した位置ではない場合(S12:NO)には、近傍位置判定部210は、本処理を終了する。つまり、作業者が生産装置に近傍した位置ではない場合には、作業者が生産装置に関する話はせず、生産ラインに関する音声を含まないと考えられる。そのため、作業者が生産装置に近傍した位置ではない場合には、作業者が発した音声を、学習モデル構築装置200での学習対象にしない。
S13において、音声取得部220は、マイク100を介して音声データを取得する。
S14において、音声取得部220は、S13で取得した音声データから特徴量を抽出する。ここで抽出する特徴量は、例えば、作業者の音声のうち、各単語を発した長さとすることができる。つまり、音声データから抽出した特徴量に、作業者の音声を含み、その音声が単語を発した部分を、教師データの特徴量とする。
S15において、ラベル取得部230は、ラベルを取得する。
S16において、S14で抽出した特徴量と、S15で取得したラベルとを組にした教師データを、学習部240に入力する。
S17において、学習部240は、入力された教師データを用いて機械学習を実行する。本実施形態では、パーセプトロンを組み合わせて構成したニューラルネットワークにより、教師あり学習を行う。
具体的には、学習部240は、教師データに含まれる入力データである特徴量とラベルとの組をニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューラルネットに含まれる各パーセプトロンについての重み付けを変更する。このようにして、学習部240は、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。
S18において、学習部240は、教師あり学習を終了するか、それとも教師あり学習を繰り返すかを判定する。ここで、教師あり学習を終了させる条件は、任意に定めることができる。例えば、ニューラルネットワークの出力とラベルとの誤差の値が所定値以下となった場合に、教師あり学習を終了させるようにするとよい。また他にも、予め定めておいた回数だけ教師あり学習を繰り返した場合に、教師あり学習を終了させるようにしてもよい。
いずれにしても、条件が満たされておらず、教師あり学習を未だ終了させない場合(S18:NO)には、学習部240は、処理をS16に移し、新たな教師データ又は同じ教師データを対象として、再度教師あり学習を繰り返す。
一方で、教師あり学習を繰り返す過程にて、教師あり学習を終了させる条件が満たされた場合(S18:YES)には、学習部240は、教師あり学習を終了する。
S19において、学習部240は、その時点までの教師あり学習により構築した学習モデルを、学習モデル記憶部250に出力して記憶させる。このように学習モデル記憶部250に記憶させておけば、新たに設置された異常検出装置300から学習モデルを要求された場合に、学習モデル構築装置200は、学習モデルを送信することができる。また、新たな教師データを取得した場合に、学習モデル構築装置200は、学習モデルに対して更なる機械学習を行うことができる。その後、学習モデル構築装置200は、本処理を終了する。
なお、上述のフローチャートでは、作業者の位置が生産装置に近傍した位置であるかを判断し、生産装置に近傍した位置である場合に、音声データを取得して特徴量を抽出するものとして説明した。しかし、作業者の位置情報を取得し、作業者が生産装置に近傍した位置であるか否かを判断する処理は、音声データを取得後に行ってもよいし、音声データの取得と同時に行ってもよい。また、音声データから特徴量を抽出する処理と同時であってもよいし、特徴量を抽出した後に、作業者の位置に関する処理を行ってもよい。つまり、学習部240に入力する音声データを、作業者が生産装置に近傍した位置で発したものになるようにすれば、どのような順番で処理を行ってもよい。
以上説明した動作により、学習モデル構築装置200は、作業者の音声データを用いた生産ラインの異常度についての学習モデルを構築することができる、という効果を奏する。
上述した教師あり学習は、オンライン学習で行ってもよく、バッチ学習で行ってもよく、ミニバッチ学習で行ってもよい。
オンライン学習とは、音声データから特徴量を抽出し、ラベルが入力されて教師データが作成される都度、即座に教師あり学習を行うという学習方法である。また、バッチ学習とは、音声データから特徴量を抽出し、ラベルが入力されて、教師データが作成されることが繰り返される間に、繰り返しに応じた複数の教師データを収集し、収集した全ての教師データを用いて、教師あり学習を行うという学習方法である。更に、ミニバッチ学習とは、オンライン学習と、バッチ学習の中間的な、ある程度教師データが溜まるたびに教師あり学習を行うという学習方法である。
以上、学習モデル構築装置200による学習モデルの構築について説明をした。次に、このようにして構築された学習モデルを用いた異常検出装置300における異常検出について、図5のフローチャートを参照して説明をする。
図5のS21において、異常検出装置300の異常度判定部310は、学習モデル構築装置200が送信した学習モデルを受信することにより学習モデルを取得する。
S22において、異常度判定部310は、音声取得部220から判定データを取得したか否かを判断する。なお、判定データの取得方法の詳細は、図2を参照した異常度判定部310の説明時に上述した通りである。音声取得部220から判定データを取得した場合(S22:YES)には、異常度判定部310は、処理をS23に移す。他方、音声取得部220から判定データを取得していない場合(S22:NO)には、異常度判定部310は、判定データを取得するまで待機する。
S23において、異常度判定部310は、取得した学習モデル及び取得した判定データにより異常度の判定を行う。具体的には、取得した判定データに含まれる特徴量と、S21において取得した学習モデルとに基づいて、判定データに対する異常度を判定する。
なお、異常検出装置300は、複数の作業者が、同時に音声を発する場合についても考慮する必要がある。例えば、複数の作業者が、生産装置の異常を発見して音声を発した場合が考えられる。そのような場合には、複数の判定データを取得することになるが、その場合には、異常度判定部310は、各判定データに対する異常度を判定し、その上で、最も度合いの高い異常度を、その時点での異常度としてもよい。
S24において、異常度判定部310は、判定した異常度が異常を示すものであるか否かを判断する。判定した異常度が異常を示すものである場合とは、上述の例によれば、異常度が2(警告レベル)や1(注意レベル)の場合をいう。異常度が異常を示すものである場合(S24:YES)には、異常度判定部310は、処理をS25に移す。他方、異常度が異常を示すものではない場合(S24:NO)には、異常度判定部310は、この判定データに対する後続の処理を行わないため、処理をS22に移す。
S25において、異常度判定部310は、通知部320に対して異常度に基づくデータを出力する。異常度に基づくデータとは、例えば、注意を示すデータや、警告を示すデータをいい、異常度が1であれば、注意を示すデータを、異常度が2であれば、警告を示すデータを出力する。
S26において、通知部320は、異常度に基づくデータに対応した通知を行う。例えば、注意を示すデータである場合には、通知部320は、警告灯を点灯させる。また、例えば、警告を示すデータである場合には、通知部320は、警告灯を点灯させ、更にアラーム音を出力させる。その後、異常検出装置300は、処理をS22に移し、次の判定データを取得するまで待機する。
以上説明した本実施形態では、他の作業者や監視者は、通知部320による出力によって、生産ラインの異常を知ることができる、という効果を奏する。
そして、作業者が発した音声と、生産ラインの異常との結びつけを行うことで、生産ラインの生産装置や作業者の安全性を向上させることができる。
(第2実施形態)
次に、第2実施形態について説明する。
第2実施形態では、第1実施形態に加えて、異常検出装置が判定した異常度が異常を示す場合に、異常検出装置が、生産ラインに関する状態データ及び生産装置の稼働データを出力するものである。
本実施形態である異常検出システム1000−2の構成については、異常検出装置300に代えて異常検出装置2300である点を除き、図1に示すものと同様である。異常検出システム1000−2の異常検出装置2300について、図6に基づき説明する。
異常検出装置2300は、本実施形態における生産ラインの異常を検出する装置である。異常検出装置2300は、異常度判定部310と、通知部320との他に、状態データ取得部2330と、稼働データ取得部2340と、データ出力部2350とを備える。
状態データ取得部2330は、判定データとして取得した作業者がいる生産ラインに設置されたカメラや地震計、温度計等の生産ラインに関する状態を確認するための機器から、状態データを取得する。状態データは、カメラであれば画像データであり、地震計であれば振動データであり、温度計であれば温度データである。状態データ取得部2330は、各機器から常に状態データを取得してもよい。また、状態データ取得部2330は、判定データを取得した場合に、判定データを取得したタイミングより所定時間前の時間からの各機器から状態データを取得してもよい。
稼働データ取得部2340は、判定データとして取得した作業者がいる生産ラインの生産装置から稼働データを取得する。稼働データは、生産装置に設置されたセンサが測定した測定データを含む。具体的には、生産装置が射出成形機である場合に、稼働データは、射出成形機のモータで収集された電流値及び角度情報である。稼働データ取得部2340は、各生産装置から常に稼働データを取得してもよいし、判定データを取得した場合に各生産装置から稼働データを取得してもよい。
データ出力部2350は、異常度判定部310から入力された判定結果に基づいて、状態データ取得部2330が取得した状態データと、稼働データ取得部2340が取得した稼働データとを出力する。出力は、例えば、監視者が監視する監視画面(図示せず)であってもよいし、生産装置が備えるディスプレイ等の表示装置(図示せず)であってもよい。
このような構成を備えることで、異常検出装置2300は、判定データによって判定された異常度が異常を示す場合に、状態データや稼働データを出力する。よって、作業者や監視者は、生産ラインに異常が発生したことと共に、生産ラインの状態や、生産装置の稼働状態を確認できる。その結果、異常と判定された場合の原因を究明するための情報を、早期かつ簡単に入手できる。
(変形形態)
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
例えば、上述した実施形態では、マイク100が受け付けた音声データから特徴量を抽出していた。そして、抽出した特徴量とラベルとで教師データを作成していた。
これに加えて、第2実施形態で取得した状態データや、稼働データを、教師データに含ませるようにしてもよい。例えば、温度計が計測した温度データや、地震計が計測した振動データを、特徴量の1つとして教師データに含ませるようにしてもよい。また、例えば、生産装置に設置されたセンサが測定した測定データから特徴量を抽出し、測定データの特徴量を教師データに含ませるようにしてもよい。
そのようにすることで、学習に必要なデータを多種なものにでき、異常検出の精度を高めることができる。
また、上述した実施形態では、学習モデル構築装置200は、ニューラルネットワークにより、教師あり学習を行うものを例に説明した。
しかし、他のパターン認識モデルを使用したものであったり、他の機械学習のアルゴリズムを用いた学習を行うものであったりしてもよい。例えば、図3に示す教師データ241を説明するためのテーブルを、学習によって動的に作るようなものであってもよい。
また、上述した実施形態では、異常検出装置300は、異常度判定部310により判定した異常度が異常を示す場合に、通知部320による通知を行うものであった。
これに加えて、異常度が異常を示す場合に、異常度に応じて、生産装置を緊急停止させる信号を、生産装置に対して出力するようにしてもよい。そして、生産装置では、緊急停止させる信号を受信した場合に、生産装置が備える安全確保処理部が、装置を緊急停止させる。そのようにすることで、特に、人命に関わる異常である場合に、作業者の安全性を向上させることができる。
また、上述した実施形態では、作業者が携行するマイク100から作業者の音声を集音し、ウェアラブル端末150を用いて作業者の位置データを取得していた。
しかし、マイク100自体が、ウェアラブル端末としての機能を有する場合には、ウェアラブル端末150は不要である。
更に、マイク100に代えて、各生産装置に設けられ、生産装置の周辺の音を集音するマイクから、作業者の音声を集音するようにしてもよい。その際、例えば、所定の周波数以下の周波数帯域の成分を減衰させるローパスフィルタを用いて、人の音声の周波数の範囲の音声データを取得するようにしてもよい。このように、生産装置に設けられたマイクから集音することで、作業者が生産装置に近傍に位置するか否かを判断するための処理が不要になるため、処理効率が向上する。
また、上述した実施形態では、学習モデル構築装置200が学習モデルを構築するものを説明した。この点、図7に示すように、異常検出システム1000−3が、m個の学習モデル構築装置に対してネットワーク500を介して接続されたサーバ600を備えるものとしてもよい。例えば、生産ラインごとに学習モデル構築装置を備えた場合には、mは、生産ライン数である。そして、複数の学習モデル構築装置200−1〜200−mに対してネットワーク500を介してサーバ600を接続することで、サーバ600は、各学習モデル構築装置200の教師データを集約することができる。そうすることで、サーバ600は、各学習モデル構築装置200で学習するよりも多くの教師データを使用した学習をすることができ、処理能力が高いサーバ600を利用することで、処理を効率よく行うことができる。そして、多くの教師データを集めるための時間を短縮できる。
また、サーバを、各学習モデル構築装置間のデータを送受信する役割を果たすものにしてもよい。そのようにすることで、各学習モデル構築装置は、他の学習モデル構築装置の教師データを用いて学習を行うことができる。
更に他の変形例として、学習モデル構築装置200と、異常検出装置300とが一体の装置として実現されるようにしてもよい。学習モデル構築装置200と、異常検出装置300とを一体の装置とすることで、ハードウェアを1つにすることができると共に、処理を共通化でき、システム構築に係るコストダウンを図ることができる。
また、学習モデル構築装置200と、異常検出装置300とを、生産装置内に有するようにしてもよい。そのようにすることで、生産装置のハードウェアを利用することができるため、システム構築に係る更なるコストダウンを図ることができる。
なお、上記の異常検出システムに含まれる各装置は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。また、上記の異常検出システムに含まれる各装置により行われる異常検出方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 マイク
150 ウェアラブル端末
200 学習モデル構築装置
210 近傍位置判定部
220 音声取得部
230 ラベル取得部
240 学習部
250 学習モデル記憶部
300,2300 異常検出装置
310 異常度判定部
320 通知部
600 サーバ
1000 異常検出システム
2330 状態データ取得部
2340 稼働データ取得部
2350 データ出力部

Claims (13)

  1. 作業者の位置情報を取得する作業者位置取得手段と、
    生産装置の位置情報を記憶する装置位置記憶部と、
    前記作業者位置取得手段により取得した前記作業者の位置情報と、前記装置位置記憶部に記憶された前記生産装置の位置情報とに基づいて、前記作業者が前記生産装置の近傍に位置している場合に、前記作業者の音声を含む音声データを、音声受付装置を介して取得する音声データ取得手段と、
    前記生産装置を含む生産ラインに関する異常度を、ラベルとして取得するラベル取得手段と、
    前記音声データと前記ラベルとの組みを教師データとして教師あり学習を行うことにより、前記異常度についての学習モデルを構築する学習手段と、
    を備え
    前記音声受付装置は、前記作業者が装着可能である学習モデル構築装置。
  2. 請求項1に記載の学習モデル構築装置において、
    前記音声データ取得手段は、前記作業者の音声から得られる特徴量を、前記音声データとして取得する学習モデル構築装置。
  3. 請求項2に記載の学習モデル構築装置において、
    前記特徴量は、前記作業者の音声を解析して得られる音声内容、音程及び音量に関するものである学習モデル構築装置。
  4. 業者の位置情報を取得する作業者位置取得手段と、
    産装置の位置情報を記憶する装置位置記憶部と、
    記作業者位置取得手段により取得した前記作業者の位置情報と、前記装置位置記憶部に記憶された前記生産装置の位置情報とに基づいて、前記作業者が前記生産装置の近傍に位置している場合に、前記作業者の音声を含む音声データを取得する音声データ取得手段と、
    前記生産装置を含む生産ラインに関する異常度を、ラベルとして取得するラベル取得手段と、
    前記音声データと前記ラベルとの組みを教師データとして教師あり学習を行う学習手段と、
    を備える学習モデル構築装置。
  5. 請求項1から請求項4までのいずれかに記載の学習モデル構築装置で構築した学習モデルを用いた異常検出装置であって、
    前記音声データ取得手段が取得した前記音声データと、前記学習モデルとに基づいて、前記音声データに対する前記異常度を判定する異常度判定手段と、
    前記異常度判定手段により判定された前記異常度に基づく通知を行う通知手段と、
    を備える異常検出装置。
  6. 請求項5に記載の異常検出装置において、
    前記生産ラインに設けられ前記生産ラインに関する状態情報を取得する状態情報取得手段と、
    前記異常度判定手段により判定された前記異常度が異常を示す場合に、前記状態情報取得手段が取得した前記状態情報を出力する状態情報出力手段と、
    を備える異常検出装置。
  7. 請求項6に記載の異常検出装置において、
    前記状態情報は、画像情報、振動情報及び温度情報の少なくともいずれかを含む異常検出装置。
  8. 請求項5から請求項7までのいずれかに記載の異常検出装置において、
    前記生産装置の稼働情報を取得する稼働情報取得手段と、
    前記異常度判定手段により判定された前記異常度が異常を示す場合に、前記稼働情報取得手段が取得した前記稼働情報を出力する稼働情報出力手段と、
    を備える異常検出装置。
  9. 請求項8に記載の異常検出装置において、
    前記稼働情報は、前記生産装置に設置されたセンサが測定した測定データを含む異常検出装置。
  10. 請求項1から請求項4までのいずれかに記載の学習モデル構築装置と、
    請求項5から請求項9までのいずれかに記載の異常検出装置と、
    を備えた異常検出システム。
  11. 請求項10に記載の異常検出システムにおいて、
    前記学習モデル構築装置及び前記異常検出装置が、前記生産装置に設けられている異常検出システム。
  12. 請求項1から請求項4までのいずれかに記載の学習モデル構築装置を複数有し、複数の前記学習モデル構築装置に対して通信ネットワークを介して接続されたサーバであって、
    一の前記学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信し、他の前記学習モデル構築装置に対して受信した前記教師データを送信するデータ送受信手段を備えるサーバ。
  13. 請求項1から請求項4までのいずれかに記載の学習モデル構築装置を複数有し、複数の前記学習モデル構築装置に対して通信ネットワークを介して接続されたサーバであって、
    各学習モデル構築装置の前記音声データ取得手段が取得した前記音声データ及び前記ラベル取得手段が取得した前記ラベルの組みからなる教師データを受信するデータ受信手段と、
    前記データ受信手段により受信した前記教師データを用いて教師あり学習を行うことにより、前記異常度についての学習モデルを構築する学習手段と、
    前記学習手段により構築された前記学習モデルを、各学習モデル構築装置に送信するモデル送信手段と、
    を備えるサーバ。
JP2017055498A 2017-03-22 2017-03-22 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ Active JP6527187B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017055498A JP6527187B2 (ja) 2017-03-22 2017-03-22 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ
US15/914,347 US10592823B2 (en) 2017-03-22 2018-03-07 Learning model construction device, abnormality detection device, abnormality detection system and server
CN201810224790.XA CN108630229B (zh) 2017-03-22 2018-03-19 学习模型构建装置、异常检测装置、异常检测系统及服务器
DE102018204135.0A DE102018204135B4 (de) 2017-03-22 2018-03-19 Lernmodellkonstruktionsvorrichtung, Abnormalitätsdetektionssystem und Server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055498A JP6527187B2 (ja) 2017-03-22 2017-03-22 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ

Publications (2)

Publication Number Publication Date
JP2018159991A JP2018159991A (ja) 2018-10-11
JP6527187B2 true JP6527187B2 (ja) 2019-06-05

Family

ID=63450630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055498A Active JP6527187B2 (ja) 2017-03-22 2017-03-22 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ

Country Status (4)

Country Link
US (1) US10592823B2 (ja)
JP (1) JP6527187B2 (ja)
CN (1) CN108630229B (ja)
DE (1) DE102018204135B4 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10910001B2 (en) * 2017-12-25 2021-02-02 Casio Computer Co., Ltd. Voice recognition device, robot, voice recognition method, and storage medium
JP6882248B2 (ja) * 2018-11-14 2021-06-02 ファナック株式会社 工具取付異常検出装置
JP2021015573A (ja) * 2019-07-16 2021-02-12 ファナック株式会社 異常判定装置及び異常判定システム
US11488608B2 (en) * 2019-12-16 2022-11-01 Sigma Technologies Global Llc Method and system to estimate speaker characteristics on-the-fly for unknown speaker with high accuracy and low latency
JP2023512178A (ja) * 2020-02-03 2023-03-24 ピンドロップ セキュリティー、インコーポレイテッド 音声バイオメトリクスのクロスチャネル登録と認証
JP7518166B2 (ja) * 2020-05-25 2024-07-17 ファナック株式会社 診断装置、サーバ、及び診断方法
CN111784966A (zh) * 2020-06-15 2020-10-16 武汉烽火众智数字技术有限责任公司 一种基于机器学习的人员管控的方法及系统
WO2022044175A1 (ja) * 2020-08-26 2022-03-03 三菱電機株式会社 データ処理装置、データ処理方法およびデータ処理プログラム
CN114577481B (zh) * 2020-12-02 2024-01-12 新奥新智科技有限公司 燃气内燃机的污染指标监测方法及装置
CN115206042B (zh) * 2022-07-14 2023-06-23 广东电网有限责任公司 工控安全的智能化监测方法、装置、设备及介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064789A (ja) 1992-06-22 1994-01-14 Hitachi Ltd 機器の異常監視方法および装置
JPH08320251A (ja) 1995-05-25 1996-12-03 Fuji Facom Corp 設備における音響および振動の診断方法
JP2002169611A (ja) 2000-11-30 2002-06-14 Yaskawa Electric Corp 故障診断システムおよびその自動設計方法
JP2008077160A (ja) * 2006-09-19 2008-04-03 Ricoh Co Ltd 画像処理装置、画像処理方法、画像形成装置、コンピュータが実行するためのプログラム、およびそのプログラムを格納した記録媒体
JP2010237781A (ja) * 2009-03-30 2010-10-21 National Institute Of Advanced Industrial Science & Technology 監視用撮像装置及び監視用撮像システム
JP2013097713A (ja) * 2011-11-04 2013-05-20 Nippon Telegr & Teleph Corp <Ntt> 消費電力推定装置、方法及びプログラム
JP6033140B2 (ja) * 2013-03-21 2016-11-30 Jxエネルギー株式会社 異常検知方法及び異常検知装置
DE102014012184B4 (de) 2014-08-20 2018-03-08 HST High Soft Tech GmbH Vorrichtung und Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich
CN104392621A (zh) 2014-11-26 2015-03-04 长安大学 一种基于车车通信的公路异常停车预警方法及其实现系统
CN104536318B (zh) 2014-12-17 2017-08-08 江苏苏沃环保工程有限公司 一种电力现场作业可穿戴智能装备
US9564035B2 (en) * 2014-12-22 2017-02-07 Hand Held Products, Inc. Safety system and method
JP6148316B2 (ja) 2015-07-31 2017-06-14 ファナック株式会社 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
US9633538B1 (en) * 2015-12-09 2017-04-25 International Business Machines Corporation System and method for wearable indication of personal risk within a workplace
US20170221336A1 (en) * 2016-01-28 2017-08-03 Flex Ltd. Human voice feedback system
US10706309B2 (en) * 2016-02-29 2020-07-07 Nec Corporation Recursive neural networks on future event prediction

Also Published As

Publication number Publication date
US20180276569A1 (en) 2018-09-27
JP2018159991A (ja) 2018-10-11
CN108630229B (zh) 2020-05-15
DE102018204135A1 (de) 2018-09-27
CN108630229A (zh) 2018-10-09
DE102018204135B4 (de) 2020-08-27
US10592823B2 (en) 2020-03-17

Similar Documents

Publication Publication Date Title
JP6527187B2 (ja) 学習モデル構築装置、異常検出装置、異常検出システム及びサーバ
US20200233397A1 (en) System, method and computer-accessible medium for machine condition monitoring
US10878839B2 (en) Device for preventing cables against external damage based on sound source localization
EP3759558B1 (en) Intelligent audio analytic apparatus (iaaa) and method for space system
WO2009139052A1 (ja) 信号判定方法、信号判定装置、プログラム、信号判定システム
CN107526329A (zh) 基于人工智能设计的机器人管理系统
JP6236282B2 (ja) 異常検出装置、異常検出方法、及びコンピュータ読み取り可能な記憶媒体
KR102392951B1 (ko) 초음파 대역의 음향 신호를 수신하는 다채널 감지 센서를 구비한 설비 고장 예측 시스템
US10715941B2 (en) Mobile and autonomous audio sensing and analytics system and method
US20130076506A1 (en) System and Method for Testing and Calibrating Audio Detector and Other Sensing and Communications Devices
EP3759789B1 (en) System and method for audio and vibration based power distribution equipment condition monitoring
US20180188104A1 (en) Signal detection device, signal detection method, and recording medium
KR20200053093A (ko) 건설현장 이상징후 감지 방법 및 시스템
CN110678821B (zh) 处理装置、处理方法和程序
JP7157727B2 (ja) エレベーター安全作業管理システムおよびエレベーター安全作業管理装置
CN118408743B (zh) 一种轴承故障检测系统及方法
Ooi et al. Non-intrusive operation status tracking for legacy machines via sound recognition
US20230350401A1 (en) Method for contactless diagnosing power facility using artificial intelligence and signal processing technology and device using the same
CN115711669A (zh) 一种井筒设备故障诊断方法、装置、终端及存储介质
US20110106499A1 (en) Method for detecting statuses of components of semiconductor equipment and associated apparatus
US20220138624A1 (en) Time-series data processing method
KR20210080010A (ko) 사출 성형 설비의 고장 예측 시스템 및 그 방법
US12000881B2 (en) Method for automatically creating installation-specific measuring profiles for an insulation monitoring system
KR20190062874A (ko) 기계 학습 기반 지반 및 구조물의 건전도 평가 방법 및 장치
US20240280980A1 (en) Automated machine monitoring

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190509

R150 Certificate of patent or registration of utility model

Ref document number: 6527187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150