JP7188463B2 - ANALYSIS DEVICE, ANALYSIS METHOD, AND PROGRAM - Google Patents

ANALYSIS DEVICE, ANALYSIS METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7188463B2
JP7188463B2 JP2020571198A JP2020571198A JP7188463B2 JP 7188463 B2 JP7188463 B2 JP 7188463B2 JP 2020571198 A JP2020571198 A JP 2020571198A JP 2020571198 A JP2020571198 A JP 2020571198A JP 7188463 B2 JP7188463 B2 JP 7188463B2
Authority
JP
Japan
Prior art keywords
discriminator
processing
analysis
data
analysis device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571198A
Other languages
Japanese (ja)
Other versions
JPWO2020162425A1 (en
Inventor
康晴 大西
靖行 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020162425A1 publication Critical patent/JPWO2020162425A1/en
Application granted granted Critical
Publication of JP7188463B2 publication Critical patent/JP7188463B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • G01H1/12Measuring characteristics of vibrations in solids by using direct conduction to the detector of longitudinal or not specified vibrations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H17/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Description

本発明は、解析装置、解析方法、およびプログラムに関し、特に、設備の状態を監視するセンサのデータを解析する解析装置、解析方法、およびプログラム関する。 TECHNICAL FIELD The present invention relates to an analysis device, an analysis method, and a program, and more particularly to an analysis device, an analysis method, and a program for analyzing data from sensors that monitor the state of equipment.

機械系設備を用いた生産材の製造品質管理に振動や音響センサを用いて状態監視する方法がある。例えば、生産材の加工時に加工機で生じた振動データを取得し、異常振動を捉えたときに生産材の加工をストップすることにより製造ロスを回避することや、生産設備の稼働状況を振動にて監視し、メンテナンスの効率化や、設備を長寿命化するための最適な稼働条件を見出すことなどにより、製造業の生産効率を向上させる技術として注目されている。 There is a method of condition monitoring using vibration and acoustic sensors for manufacturing quality control of production materials using mechanical equipment. For example, by acquiring vibration data generated by a processing machine during processing of production materials and stopping processing of production materials when abnormal vibrations are detected, production loss can be avoided, and the operating status of production equipment can be monitored based on vibrations. It is attracting attention as a technology that improves the production efficiency of the manufacturing industry by monitoring various parts of the body, making maintenance more efficient, and finding the optimal operating conditions for extending the life of equipment.

特許文献1には、監視対象の設備にセンサを取り付け、当該センサが測定した時系列データに基づきその設備の監視を行う方法が開示されている。 Patent Literature 1 discloses a method of attaching a sensor to equipment to be monitored and monitoring the equipment based on time-series data measured by the sensor.

特開2009-270843号公報JP 2009-270843 A

上述した特許文献1に記載されたシステムのように、センサで収集したデータに基づき設備の異常等を検出しようとすると、解析すべきデータの量が多くなり得る。また、ディープラーニングなどの機械学習により正常/異常状態モデルを構築することも考えられるが、この方法では、あくまで異常と推察される状態を抽出させるだけに留まり、稼働を停止するなどのアクションにしか適用できない。 If an attempt is made to detect equipment anomalies based on data collected by sensors, as in the system described in Patent Literature 1, the amount of data to be analyzed may increase. It is also conceivable to build a normal/abnormal state model by machine learning such as deep learning, but this method only extracts states that are inferred to be abnormal, and only takes actions such as stopping operations. Not applicable.

本発明は上記事情に鑑みてなされたものであり、その目的とするところは、生産設備の状態監視を効率よく高精度に行う技術を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for efficiently and highly accurately monitoring the state of production equipment.

本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第一の側面は、解析装置に関する。
第一の側面に係る第1の解析装置は、
生産設備に設けられた振動センサの検出結果を画像化する画像処理手段と、
前記画像化したデータを機械学習処理の対象にして判別器を生成する生成手段と、
前記判別器を用いて前記生産設備の状態解析処理を行う解析手段と、を有する。
第一の側面に係る第2の解析装置は、
生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行う判定手段と、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化する画像処理手段と、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成する生成手段と、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う解析手段と、を有する。
A first aspect relates to an analysis device.
A first analysis device according to the first aspect includes:
image processing means for imaging the detection result of the vibration sensor provided in the production equipment;
generating means for generating a discriminator by subjecting the imaged data to machine learning processing;
and analysis means for performing state analysis processing of the production equipment using the discriminator.
A second analysis device according to the first aspect includes:
determination means for performing abnormality determination processing of the production equipment using a first discriminator based on the detection result of the vibration sensor provided in the production equipment;
An image processing means for imaging the detection result that could not be determined as normal or abnormal by the first discriminator;
generating means for generating a second discriminator using the imaged data as a target for machine learning processing;
and analysis means for performing state analysis processing of the production equipment using the second discriminator.

第二の側面は、少なくとも1つのコンピュータにより実行される解析方法に関する。
第二の側面に係る第1の解析方法は、
解析装置が、
生産設備に設けられた振動センサの検出結果を画像化し、
前記画像化したデータを機械学習処理の対象にして判別器を生成し、
前記判別器を用いて前記生産設備の状態解析処理を行う、ことを含む。
第二の側面に係る第2の解析方法は、
解析装置が、
生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行い、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化し、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成し、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う、ことを含む。
A second aspect relates to at least one computer-implemented analysis method.
A first analysis method according to the second aspect is
the analysis device
Image the detection result of the vibration sensor installed in the production equipment,
generating a discriminator by subjecting the imaged data to machine learning processing;
and performing state analysis processing of the production equipment using the discriminator.
A second analysis method according to the second aspect is
the analysis device
performing abnormality determination processing of the production facility using a first discriminator based on the detection result of the vibration sensor provided in the production facility;
Imaging the detection result that could not be determined as normal or abnormal by the first discriminator,
generating a second discriminator using the imaged data as a target for machine learning processing;
and performing state analysis processing of the production facility using the second discriminator.

なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、解析装置上で、その解析方法を実施させるコンピュータプログラムコードを含む。
As another aspect of the present invention, it may be a program that causes at least one computer to execute the method of the second aspect, or a computer-readable recording medium recording such a program. may This recording medium includes a non-transitory tangible medium.
The computer program includes computer program code which, when executed by a computer, causes the computer to perform the analysis method on the analysis device.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and any conversion of expressions of the present invention into methods, devices, systems, recording media, computer programs, etc. are also effective as embodiments of the present invention.

また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。 In addition, the various constituent elements of the present invention do not necessarily have to exist independently of each other. A component may be part of another component, a part of a component may overlap a part of another component, and the like.

また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。 In addition, although the method and computer program of the present invention describe multiple procedures in order, the order of description does not limit the order in which the multiple procedures are performed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not interfere with the content.

さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。 Furthermore, the multiple steps of the method and computer program of the present invention are not limited to being performed at different times. Therefore, the occurrence of another procedure during the execution of a certain procedure, or the overlap of some or all of the execution timing of one procedure with the execution timing of another procedure, and the like are acceptable.

上記各側面によれば、生産設備の状態監視を効率よく高精度に行う技術を提供することができる。 According to each aspect described above, it is possible to provide a technique for efficiently and highly accurately monitoring the state of production equipment.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above objectives, as well as other objectives, features and advantages, will become further apparent from the preferred embodiments described below and the accompanying drawings below.

本発明の実施の形態に係る解析装置を用いた設備監視システムのシステム構成を概念的に示す図である。1 is a diagram conceptually showing a system configuration of an equipment monitoring system using an analysis device according to an embodiment of the present invention; FIG. 本実施形態の記憶装置が記憶する振動データと設備情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the vibration data which the memory|storage device of this embodiment memorize|stores, and equipment information. 本実施形態の各装置のハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware constitutions of each apparatus of this embodiment. 本実施形態の解析装置の論理的な構成を示す機能ブロック図である。It is a functional block diagram showing the logical configuration of the analysis device of the present embodiment. は画像化前の測定データの時系列データを示す図である。is a diagram showing time-series data of measurement data before imaging. 画像処理部により画像化した画像データを示す図である。It is a figure which shows the image data imaged by the image processing part. 本実施形態の解析装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an analysis device of this embodiment. 図7のステップS101の画像化処理の詳細フローの一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a detailed flow of imaging processing in step S101 of FIG. 7; FIG. 本実施形態の解析装置の論理的な構成を示す機能ブロック図である。It is a functional block diagram showing the logical configuration of the analysis device of the present embodiment. 本実施形態の解析装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an analysis device of this embodiment. 本実施形態の解析装置における異常判定処理の手順の一例を示すフローチャートである。5 is a flow chart showing an example of the procedure of abnormality determination processing in the analysis device of the present embodiment; 本実施形態の解析装置の画像処理部の論理的な構成を示す機能ブロック図である。It is a functional block diagram which shows the logical structure of the image processing part of the analysis apparatus of this embodiment. 本実施形態の解析装置の画像処理部の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an image processing part of an analysis device of this embodiment. 本実施形態の解析装置の論理的な構成を示す機能ブロック図である。It is a functional block diagram showing the logical configuration of the analysis device of the present embodiment. 補正情報30のデータ構造の一例を示す図である。3 is a diagram showing an example of a data structure of correction information 30; FIG. 解析部による判別処理の詳細フローの一例を示すフローチャートである。9 is a flowchart showing an example of a detailed flow of discrimination processing by an analysis unit; 図16のステップS405で抽出されたデータを用いた判別器の更新処理手順の一例を示すフローチャートである。FIG. 17 is a flow chart showing an example of a discriminator update processing procedure using data extracted in step S405 of FIG. 16; FIG. 図16の状態解析処理のステップS401で正常と判別された場合の処理手順の一例を示すフローチャートである。FIG. 17 is a flow chart showing an example of a processing procedure when it is determined to be normal in step S401 of the state analysis processing of FIG. 16; 解析装置の不具合モデル構築処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of the procedure of fault model building processing of the analysis device; 実施例1の解析装置を説明するためのフロー図である。FIG. 2 is a flowchart for explaining the analysis device of Example 1; 実施例2の解析装置を説明するためのフロー図である。FIG. 10 is a flowchart for explaining the analysis device of Example 2;

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in all the drawings, the same constituent elements are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

(第1の実施の形態)
図1は、本発明の実施の形態に係る解析装置を用いた設備監視システム1のシステム構成を概念的に示す図である。
設備監視システム1が監視対象とする設備は、生産設備10であり、本実施形態では、ベルトコンベアを例として説明する。図の例では、ベルトコンベアを監視するための複数のセンサ12がベルトコンベアの移動方向に沿って複数箇所に設置されている。各センサ12は、例えば、振動センサである。また、一方向の振動を検知する振動センサの場合、複数方向の振動を検出するために1箇所につき複数の振動センサを設置してもよい。
(First embodiment)
FIG. 1 is a diagram conceptually showing the system configuration of a facility monitoring system 1 using an analysis device according to an embodiment of the present invention.
Equipment to be monitored by the equipment monitoring system 1 is the production equipment 10, and in this embodiment, a belt conveyor will be described as an example. In the illustrated example, a plurality of sensors 12 for monitoring the belt conveyor are installed at a plurality of locations along the moving direction of the belt conveyor. Each sensor 12 is, for example, a vibration sensor. Moreover, in the case of a vibration sensor that detects vibration in one direction, a plurality of vibration sensors may be installed at one location in order to detect vibration in multiple directions.

振動センサから出力される測定データは、振動波形を示す時系列データである。
振動センサは、監視対象の生産設備10に生じた振動を測定する。振動センサは、一軸方向の加速度を測定する一軸加速度センサであってもよいし、三軸方向の加速度を測定する三軸加速度センサであってもよいし、その他であってもよい。なお、複数の振動センサは、同種の振動センサであってもよいし、複数種類の振動センサが混在してもよい。
The measurement data output from the vibration sensor is time-series data representing a vibration waveform.
The vibration sensor measures vibrations occurring in the monitored production equipment 10 . The vibration sensor may be a uniaxial acceleration sensor that measures acceleration in a uniaxial direction, a triaxial acceleration sensor that measures acceleration in 3 axial directions, or other sensors. The plurality of vibration sensors may be vibration sensors of the same type, or multiple types of vibration sensors may be mixed.

解析装置100は、ネットワーク3を介してGW(GateWay)5と接続され、生産設備10に複数設けられているセンサ12から検出結果を受信する。解析装置100は、記憶装置20に接続される。記憶装置20は、解析装置100が解析する振動データが格納される。記憶装置20は、解析装置100とは別体の装置であってもよいし、解析装置100の内部に含まれる装置であってもよいし、これらの組み合わせであってもよい。 The analysis device 100 is connected to a gateway (GW) 5 via a network 3 and receives detection results from a plurality of sensors 12 provided in the production facility 10 . Analysis device 100 is connected to storage device 20 . The storage device 20 stores vibration data analyzed by the analysis device 100 . The storage device 20 may be a device separate from the analysis device 100, a device included inside the analysis device 100, or a combination thereof.

実施形態の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。 In each drawing of the embodiment, the configuration of parts that are not related to the essence of the present invention are omitted and not shown.

図2は、本実施形態の記憶装置20が記憶する振動データ22と設備情報24のデータ構造の一例を示す図である。
振動データ22は、振動センサを識別するセンサID毎に、時刻情報と、測定データとが紐付けられている。設備情報24は、設備を識別する設備ID毎に、少なくとも一つの振動センサのセンサIDが紐付けられている。
FIG. 2 is a diagram showing an example of the data structure of the vibration data 22 and the facility information 24 stored in the storage device 20 of this embodiment.
The vibration data 22 is associated with time information and measurement data for each sensor ID that identifies the vibration sensor. In the facility information 24, the sensor ID of at least one vibration sensor is associated with each facility ID that identifies the facility.

図3は、本実施形態の各装置のハードウェア構成を例示するブロック図である。各装置は、プロセッサ50、メモリ52、入出力インターフェイス(I/F)54、周辺回路56、バス58を有する。周辺回路56には、様々なモジュールが含まれる。処理装置は周辺回路56を有さなくてもよい。 FIG. 3 is a block diagram illustrating the hardware configuration of each device of this embodiment. Each device has a processor 50 , a memory 52 , an input/output interface (I/F) 54 , peripheral circuits 56 and a bus 58 . The peripheral circuit 56 includes various modules. The processing device need not have peripheral circuitry 56 .

バス58は、プロセッサ50、メモリ52、周辺回路56及び入出力インターフェイス54が相互にデータを伝送するためのデータ伝送路である。プロセッサ50は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ52、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス54は、入力装置、外部装置、外部サーバ、センサ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンタ、メーラ等である。プロセッサ50は、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。 A bus 58 is a data transmission path through which the processor 50, memory 52, peripheral circuit 56 and input/output interface 54 mutually transmit data. The processor 50 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 52 is , for example, a RAM (Random Access Memory) or a ROM (Read Only Memory). The input/output interface 54 includes an interface for acquiring information from an input device, an external device, an external server, a sensor, or the like, an interface for outputting information to an output device, an external device, an external server, or the like. The input device is, for example, a keyboard, mouse, microphone, or the like. The output device is, for example, a display, a speaker, a printer, a mailer, or the like. The processor 50 can issue commands to each module and perform calculations based on their calculation results.

後述する図4の本実施形態の解析装置100の各構成要素は、図3に示すコンピュータのハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各実施形態の解析装置を示す機能ブロック図は、ハードウェア単位の構成ではなく、論理的な機能単位のブロックを示している。 Each component of the analysis device 100 of this embodiment shown in FIG. 4, which will be described later, is realized by an arbitrary combination of computer hardware and software shown in FIG. It should be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. A functional block diagram showing an analysis apparatus of each embodiment described below shows blocks in units of logical functions, not in units of hardware.

プロセッサ50が、プログラムをメモリ52に読み出して実行することにより、図4の解析装置100の各ユニットの各機能を実現することができる。 Each function of each unit of the analysis device 100 of FIG. 4 can be realized by the processor 50 reading the program into the memory 52 and executing it.

本実施形態のコンピュータプログラムは、解析装置100を実現させるためのコンピュータ(図3のプロセッサ50)に、生産設備10に設けられた振動センサ12の検出結果を画像化する手順、画像化したデータを機械学習処理の対象にして判別器を生成する手順、判別器を用いて生産設備10の異常判定処理を行う手順、を実行させるように記述されている。 The computer program of the present embodiment provides a computer (processor 50 in FIG. 3) for realizing the analysis device 100 with a procedure for imaging the detection result of the vibration sensor 12 provided in the production facility 10 and the imaged data. It is described so as to execute a procedure for generating a discriminator as a target of machine learning processing and a procedure for performing abnormality determination processing of the production facility 10 using the discriminator.

本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記録媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリ52(図3)にロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリ52にロードされてもよい。 The computer program of this embodiment may be recorded on a computer-readable recording medium. The recording medium is not particularly limited, and various forms are conceivable. Also, the program may be loaded from a recording medium into the computer's memory 52 (FIG. 3), or may be downloaded to the computer through a network and loaded into the memory 52 .

コンピュータプログラムを記録する記録媒体は、非一時的な有形のコンピュータが使用可能な媒体を含み、その媒体に、コンピュータが読み取り可能なプログラムコードが埋め込まれる。コンピュータプログラムが、コンピュータ上で実行されたとき、コンピュータに、解析装置100を実現する本実施形態の解析方法を実行させる。 A recording medium for recording a computer program includes a non-transitory tangible computer-usable medium in which a computer-readable program code is embedded. When the computer program is executed on the computer, it causes the computer to execute the analysis method of the present embodiment that implements the analysis apparatus 100 .

図4は、本実施形態の解析装置100の論理的な構成を示す機能ブロック図である。解析装置100は、画像処理部102と、生成部104と、解析部106と、を備える。
画像処理部102は、生産設備10に設けられた振動センサの検出結果を画像化する。生成部104は、画像化したデータを機械学習処理の対象にして判別器110を生成する。解析部106は、判別器110を用いて生産設備10の状態解析処理を行う。
FIG. 4 is a functional block diagram showing the logical configuration of the analysis device 100 of this embodiment. The analysis device 100 includes an image processing unit 102 , a generation unit 104 and an analysis unit 106 .
The image processing unit 102 converts the detection result of the vibration sensor provided in the production equipment 10 into an image. The generating unit 104 generates the discriminator 110 by subjecting the imaged data to machine learning processing. The analysis unit 106 performs state analysis processing of the production equipment 10 using the discriminator 110 .

振動は、振幅、周波数、および位相の3つの要素からなり、測定データは、変位、速度、および加速度の3つのパラメータで示すことができる。振動センサの測定データは、複数のパラメータで示される複数の振動波形を含む時系列データであるため、そのまま機械学習にかけても特徴を捉えられず、適切な学習モデルを生成することができない。そこで、本実施形態では、画像処理部102により測定データを画像化する。図5は画像化前の測定データの時系列データを示す図である。図6は、画像処理部102により画像化した画像データを示す図である。 Vibration consists of three components, amplitude, frequency, and phase, and the measured data can be expressed in terms of three parameters, displacement, velocity, and acceleration. Since the measurement data of the vibration sensor is time-series data containing multiple vibration waveforms indicated by multiple parameters, even if it is directly applied to machine learning, the characteristics cannot be captured, and an appropriate learning model cannot be generated. Therefore, in this embodiment, the image processing unit 102 converts the measurement data into an image. FIG. 5 is a diagram showing time-series data of measurement data before imaging. FIG. 6 is a diagram showing image data imaged by the image processing unit 102. As shown in FIG.

画像処理部102は、生産設備10のセンサ12の検出結果(以下、振動データとも呼ぶ)を取得する。そして、画像処理部102は、取得した振動データをFFT処理してから周波数分割し、そして、得られた振動スペクトラムデータを画像化して画像データを得る。これらの処理により、データを圧縮することができ、機械学習処理および判別処理を高速化することができる。 The image processing unit 102 acquires the detection result (hereinafter also referred to as vibration data) of the sensor 12 of the production equipment 10 . Then, the image processing unit 102 subjects the obtained vibration data to FFT processing and frequency-divides the data, and converts the obtained vibration spectrum data into an image to obtain image data. By these processes, the amount of data can be compressed, and the machine learning process and the discrimination process can be speeded up.

実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。 In the embodiment, "acquisition" means that the own device goes to get data or information stored in another device or storage medium (active acquisition), and that the device is output from another device Including at least one of entering data or information (passive acquisition). Examples of active acquisition include requesting or interrogating other devices and receiving their replies, and accessing and reading other devices or storage media. Also, examples of passive acquisition include receiving information that is distributed (or sent, pushed, etc.). Furthermore, "acquisition" may be selecting and acquiring received data or information, or selecting and receiving distributed data or information.

判別器110は、生成部104により、画像化されたデータを機械学習処理の対象にして生成される。解析部106は、この判別器110を用いて、生産設備10の状態解析処理を行う。 The discriminator 110 is generated by the generation unit 104 by subjecting the imaged data to machine learning processing. The analysis unit 106 uses this discriminator 110 to perform state analysis processing of the production equipment 10 .

機械学習は、例えば、ディープラーニング(深層学習)を用いることができるが、これに限定されない。判別器110が判別する生産設備10の状態は、例えば、正常か、それ以外の状態である。以後、正常以外の状態は「Unknown」とも呼ぶ。本実施形態では、判別器110は異常状態の判別は行わない。判別器110の機械学習処理については後述する実施形態で詳細に説明する。 Machine learning can use, for example, deep learning, but is not limited to this. The state of the production facility 10 determined by the discriminator 110 is, for example, normal or otherwise. Hereinafter, states other than normal are also referred to as "Unknown." In this embodiment, the discriminator 110 does not discriminate an abnormal state. The machine learning processing of the discriminator 110 will be described in detail in an embodiment described later.

判別器110の判別結果はオペレータが参照できるように出力されてもよい。出力方法は、例えば、解析装置100のディスプレイに表示してもよいし、解析装置100からプリンタに印字出力されてもよいし、通信回線を介して他の装置(例えば、操作端末等)に送信されてもよい。 The determination result of the discriminator 110 may be output so that the operator can refer to it. The output method may be, for example, display on the display of the analysis device 100, printout from the analysis device 100 to a printer, or transmission to another device (eg, operation terminal, etc.) via a communication line. may be

このように構成された本実施形態の解析装置100の動作について説明する。図7は、本実施形態の解析装置100の動作の一例を示すフローチャートである。
まず、画像処理部102は、生産設備10に設けられた振動センサの検出結果を画像化する(ステップS101)。そして、生成部104は、画像化したデータを機械学習処理の対象にして判別器110を生成する(ステップS103)。そして、解析部106は、判別器110を用いて生産設備10の状態解析処理を行う(ステップS105)。
The operation of the analysis device 100 of this embodiment configured in this way will be described. FIG. 7 is a flow chart showing an example of the operation of the analysis device 100 of this embodiment.
First, the image processing unit 102 images the detection result of the vibration sensor provided in the production equipment 10 (step S101). Then, the generation unit 104 generates the discriminator 110 by subjecting the imaged data to machine learning processing (step S103). Then, the analysis unit 106 uses the discriminator 110 to perform state analysis processing of the production equipment 10 (step S105).

図8は、図7のステップS101の画像化処理の詳細フローの一例を示すフローチャートである。まず、画像処理部102は、センサ12の測定データをFFT処理してから周波数分割し(ステップS113)、得られた振動スペクトラムデータを画像化して画像データを出力する(ステップS115)。ステップS115で得られた画像データは、図7のステップS105で解析部106により判別器110を用いた生産設備10の状態解析処理が行われる。 FIG. 8 is a flow chart showing an example of the detailed flow of the imaging process in step S101 of FIG. First, the image processing unit 102 performs FFT processing on the measurement data of the sensor 12 and then frequency-divides (step S113), converts the obtained vibration spectrum data into an image, and outputs the image data (step S115). The image data obtained in step S115 undergoes state analysis processing of the production facility 10 using the discriminator 110 by the analysis unit 106 in step S105 of FIG.

以上説明したように、本実施形態において、画像処理部102によりセンサ12の測定データが画像化された後、生成部104により画像化された画像データを機械学習処理の対象にして判別器110が生成され、そして、この判別器110を用いて解析部106により生産設備10の状態解析処理が行われる。このように、本実施形態によれば、振動センサの検出結果を機械学習する際に、機械学習処理の対象となる振動波形データを画像化することで、データ量を圧縮できるので、処理負荷を低減するとともに、処理速度を高速化できる。 As described above, in the present embodiment, after the measurement data of the sensor 12 is imaged by the image processing unit 102, the image data imaged by the generation unit 104 is subjected to machine learning processing, and the discriminator 110 Then, using this discriminator 110, the analysis unit 106 performs state analysis processing of the production equipment 10. FIG. As described above, according to the present embodiment, when machine learning is performed on the detection result of the vibration sensor, the amount of data can be compressed by imaging the vibration waveform data to be machine-learned, thereby reducing the processing load. The processing speed can be increased while reducing.

(第2の実施の形態)
図9は、本実施形態の解析装置100の論理的な構成を示す機能ブロック図である。解析装置100は、図4の解析装置100と同様な画像処理部102と、生成部104と、解析部106と、を備えるとともに、さらに、異常判定部120を備える。
(Second embodiment)
FIG. 9 is a functional block diagram showing the logical configuration of the analysis device 100 of this embodiment. The analysis device 100 includes an image processing unit 102, a generation unit 104, and an analysis unit 106 similar to the analysis device 100 of FIG.

異常判定部120は、生産設備10に設けられた振動センサの検出結果に基づいて当該生産設備10の異常判定処理を第1の判別器124を用いて行う。異常判定部120は、第1の判別器124を用いた異常判定処理の結果を出力する。出力された結果は、設備監視システム1において生産設備10の監視処理に使用されてもよい。 The abnormality determination unit 120 uses the first discriminator 124 to perform abnormality determination processing of the production equipment 10 based on the detection result of the vibration sensor provided in the production equipment 10 . The abnormality determination unit 120 outputs the result of abnormality determination processing using the first discriminator 124 . The output result may be used for monitoring processing of the production equipment 10 in the equipment monitoring system 1 .

また、本実施形態の画像処理部102は、画像化対象となる検出結果が、第1の判別器124により正常か異常かの判別ができなかった検出結果である点で上記実施形態の画像処理部102と相違する。生成部104は、このように閾値解析により正常か異常かの判別ができなかった測定データを機械学習処理するための第2の判別器126を生成する。 In addition, the image processing unit 102 of the present embodiment performs the image processing of the above embodiment in that the detection result to be imaged is a detection result for which the first discriminator 124 cannot determine whether it is normal or abnormal. It is different from the part 102 . The generation unit 104 generates the second discriminator 126 for performing machine learning processing on the measured data for which it was not possible to discriminate whether it is normal or abnormal by the threshold analysis.

振動センサで計測される振動は、複数の要因からなる複数の振動波形が含まれる。一般に、振動センサから検出される測定データは、高速フーリエ変換(FFT: Fast Fourie Transform)処理を行うことにより周波数解析が行われる。測定データをFFT処理することにより、特徴な周波数(ピーク)が検出され、検出されたピークレベルを閾値により正常か異常かを判別することで異常診断することが可能になる。 The vibration measured by the vibration sensor includes multiple vibration waveforms due to multiple factors. In general, measurement data detected by a vibration sensor undergoes frequency analysis by performing Fast Fourier Transform (FFT) processing. Characteristic frequencies (peaks) are detected by subjecting the measured data to FFT processing, and abnormality diagnosis can be made by determining whether the detected peak level is normal or abnormal using a threshold value.

しかし、この閾値解析により正常か異常かの判別ができない場合がある。生成部104は、このように閾値解析により正常か異常かの判別できなかった測定データを機械学習処理の対象として第2の判別器126を生成する。この第2の判別器126は、図4の判別器110に相当する。 However, it may not be possible to distinguish between normality and abnormality by this threshold analysis. The generation unit 104 generates the second discriminator 126 by subjecting the measured data, which could not be determined as normal or abnormal by the threshold analysis, to machine learning processing. This second classifier 126 corresponds to the classifier 110 in FIG.

「第1の判別器124で判別できない」場合とは、例えば、第1の判別モデル128に登録されている振動波形パターンと検出結果がマッチングしなかった場合、マッチング結果の尤度が所定値以上得られず、設備診断に必要とされる基準以上(例えば、検出率90%以上)の信頼性が得られなかった場合、等である。 The case where "cannot be discriminated by the first discriminator 124" is, for example, when the vibration waveform pattern registered in the first discriminant model 128 and the detection result do not match, the likelihood of the matching result is equal to or greater than a predetermined value. This is the case when the reliability is not obtained and the reliability of the standard or higher (for example, the detection rate of 90% or higher) required for equipment diagnosis is not obtained.

解析部106は、第2の判別器126を用いて生産設備10の状態解析処理を行う。解析部106は、第1の判別器124により正常か異常かの判別ができなかった検出結果を画像化したデータについて第2の判別器126を用いて生産設備10の状態解析処理を行う。 The analysis unit 106 uses the second discriminator 126 to perform state analysis processing of the production equipment 10 . The analysis unit 106 uses the second discriminator 126 to perform state analysis processing of the production equipment 10 on the image data of the detection result for which the first discriminator 124 could not discriminate between normal and abnormal.

第1の判別器124は、第1の判別モデル128を用いて、正常か異常かを判別する。第1の判別モデル128は、例えば振動スペクトルのパターンマッチングや、閾値判定を用いたモデルである。 The first classifier 124 uses the first discriminant model 128 to discriminate between normal and abnormal. The first discrimination model 128 is, for example, a model using vibration spectrum pattern matching or threshold determination.

一例として、第1の判別器124は、振動センサの測定データをFFT処理して得られた周波数分布から、特定周波数のピークレベル、最大および平均ピークレベルの比、S/N比(Signal-to-Noise ratio)、および特定周波数の範囲でのピークレベルの積算値の少なくともいずれか一つについてそれぞれ求め、求めた値に閾値を設定し、閾値の範囲内か否かに基づいて異常判定処理を行う。そして閾値範囲内の場合は、第1の判別器124は、正常と判別し、閾値範囲外の場合は異常と判別する。 As an example, the first discriminator 124 determines the peak level of a specific frequency, the ratio of the maximum and average peak levels, the S/N ratio (Signal-to -Noise ratio), and at least one of the peak level integrated values in a specific frequency range, set a threshold value for the obtained value, and perform abnormality determination processing based on whether it is within the threshold range. conduct. If the value is within the threshold range, the first discriminator 124 determines that it is normal, and if it is outside the threshold range, it determines that it is abnormal.

第1の判別器124は複数の特定周波数を用いて上記した判定処理を行ってもよい。その場合は、第1の判別器124は特定周波数毎に判定結果を出力してもよい。また、第1の判別器124は、複数の特定周波数のうち1つでも閾値を外れた値があった場合に異常と判定してもよいし、複数の特定周波数のうちの所定数以上の特定周波数が閾値を外れた値があった場合に異常と判定してもよいし、複数の特定周波数のすべてが閾値を外れていた場合に異常と判定してもよいし、複数の特定周波数のすべてが閾値範囲内の場合に正常と判定してもよい。また、不具合事象毎に複数の特定周波数の値の組み合わせをモデル化して第1の判別モデル128に登録しておき、第1の判別器124は第1の判別モデル128とのパターンマッチングにより、不具合事象を判別してもよい。判別された不具合事象を、異常判定部120は、対応する不具合事象項目をオペレータに通知してもよい。 The first discriminator 124 may perform the determination process described above using a plurality of specific frequencies. In that case, the first discriminator 124 may output a determination result for each specific frequency. In addition, the first discriminator 124 may determine that there is an abnormality when even one of the plurality of specific frequencies has a value outside the threshold value, or may determine that a predetermined number or more of the plurality of specific frequencies exceed the threshold value. It may be determined that there is an abnormality when the frequency has a value outside the threshold, it may be determined as an abnormality when all of the plurality of specific frequencies are outside the threshold, or all of the plurality of specific frequencies is within the threshold range, it may be determined to be normal. Further, a combination of a plurality of specific frequency values for each failure event is modeled and registered in the first discriminant model 128, and the first discriminator 124 performs pattern matching with the first discriminant model 128 to determine the failure Events may be determined. The abnormality determination unit 120 may notify the operator of the corresponding malfunction event item for the determined malfunction event.

閾値は自動設定されてもよいし、オペレータによる手動設定で行われてもよい。自動設定の場合は、生成部104は、第1の判別モデル128に登録されている振動特性パターン(周波数分布)について、特定周波数のピークレベル、最大および平均ピークレベルの比、S/N比(Signal-to-Noise ratio)、および特定周波数の範囲でのピークレベルの積算値の少なくともいずれか一つについてそれぞれ求め、正常時と異常時の境界範囲を検出して閾値を設定してもよい。 The threshold may be set automatically or manually by an operator. In the case of automatic setting, the generation unit 104 generates the peak level of a specific frequency, the ratio of the maximum and average peak levels, the S/N ratio ( (Signal-to-Noise ratio), and at least one of the peak level integrated values in the specific frequency range, and the threshold may be set by detecting the boundary range between the normal state and the abnormal state.

手動設定の場合、生成部104は、第1の判別モデル128に登録されている振動特性パターン(周波数分布)について、特定周波数のピークレベル、最大および平均ピークレベルの比、S/N比(Signal-to-Noise ratio)、および特定周波数の範囲でのピークレベルの積算値の少なくともいずれか一つについてそれぞれ求めた結果をオペレータに提示して、第1の判別器124の閾値の設定をオペレータ操作によりそれぞれ受け付けてもよい。オペレータへの結果の提示方法は様々考えられるが、例として、解析装置100のディスプレイに表示してもよいし、解析装置100からプリンタに印字出力されてもよいし、通信回線を介して他の装置(例えば、操作端末等)に送信されてもよい。 In the case of manual setting, the generation unit 104 calculates the peak level of a specific frequency, the ratio of the maximum and average peak levels, the S/N ratio (Signal -to-Noise ratio), and at least one of the peak level integrated values in the specific frequency range is presented to the operator, and the setting of the threshold value of the first discriminator 124 is operated by the operator. may be accepted by Various methods of presenting the results to the operator are conceivable. For example, the results may be displayed on the display of the analysis device 100, printed out from the analysis device 100 on a printer, or sent to another operator via a communication line. It may be transmitted to a device (for example, an operation terminal, etc.).

第2の判別器126は、生成部104により生成され、上記実施形態の生成部104で生成される判別器110に相当する。生成部104は、第2の判別器126により正常と判別されたデータのみを機械学習させ、正常状態を正規化して第2の判別モデル130を更新する。ここで、正規化とは、正常時の振動センサの測定データの画像化データのパターンをモデル化することである。第2の判別器126は、第2の判別モデル130の範囲から外れたデータを、例えば、「Unknown」として抽出する。つまり、この第2の判別器126を用いて解析部106により、第1の判別器124で判別できなかった検出結果について、さらに、第2の判別モデル130に基づいて、生産設備10の状態が、正常か「Unknown」かが判別される。第2の判別器126は、生産設備10の異常状態は判別しない、正常以外の状態は「Unknown」と判別する。 The second discriminator 126 is generated by the generator 104 and corresponds to the discriminator 110 generated by the generator 104 in the above embodiment. The generator 104 performs machine learning only on the data determined to be normal by the second discriminator 126 , normalizes the normal state, and updates the second discriminant model 130 . Here, normalization refers to modeling the pattern of imaging data of measurement data of the vibration sensor during normal operation. The second discriminator 126 extracts data out of the range of the second discriminant model 130 as, for example, "Unknown". That is, the analysis unit 106 uses the second discriminator 126 to determine the state of the production equipment 10 based on the second discriminant model 130 for the detection result that could not be discriminated by the first discriminator 124. , is determined to be normal or “Unknown”. The second discriminator 126 does not discriminate an abnormal state of the production facility 10, and discriminates a state other than normal as "Unknown".

この第2判別器126により「Unknown」と判別されたデータは、オペレータにより参照されて、分析されてもよい。オペレータにより分析された結果は、検出結果の異常判定処理の閾値に反映されてもよい。「Unknown」と判別されたデータの利用方法については後述する実施形態で詳細に説明する。 The data determined as "Unknown" by the second discriminator 126 may be referred to and analyzed by the operator. The result of analysis by the operator may be reflected in the threshold of the abnormality determination process of the detection result. A method of using data determined as "Unknown" will be described in detail in an embodiment described later.

このように構成された本実施形態の解析装置100の動作について説明する。図10は、本実施形態の解析装置100の動作の一例を示すフローチャートである。
まず、異常判定部120は、生産設備10に設けられた振動センサの検出結果に基づいて当該生産設備10の異常判定処理を第1の判別器124を用いて行う(ステップS121)。そして、画像処理部102は、第1の判別器124により正常か異常かの判別ができなかった検出結果を(ステップS123のNO)、画像化する(ステップS125)。判別できた場合は(ステップS123のYES)、本処理を終了する。
The operation of the analysis device 100 of this embodiment configured in this way will be described. FIG. 10 is a flow chart showing an example of the operation of the analysis device 100 of this embodiment.
First, the abnormality determination unit 120 uses the first discriminator 124 to perform abnormality determination processing for the production equipment 10 based on the detection result of the vibration sensor provided in the production equipment 10 (step S121). Then, the image processing unit 102 forms an image of the detection result (NO in step S123) for which the first discriminator 124 could not discriminate between normal and abnormal (step S125). If it can be determined (YES in step S123), this process ends.

そして、生成部104は、画像化したデータを機械学習処理の対象にして第2の判別器126を生成する(ステップS127)。そして、解析部106は、第2の判別器126を用いて生産設備10の状態解析処理を行う(ステップS129)。 Then, the generation unit 104 generates the second discriminator 126 by subjecting the imaged data to machine learning processing (step S127). Then, the analysis unit 106 uses the second discriminator 126 to perform state analysis processing of the production equipment 10 (step S129).

また、本実施形態のコンピュータプログラムは、解析装置100を実現させるためのコンピュータ(図3のプロセッサ50)に、生産設備10に設けられた振動センサ12の検出結果に基づいて当該生産設備10の異常判定処理を第1の判別器124を用いて行う手順、第1の判別器124により正常か異常かの判別ができなかった検出結果を画像化する手順、画像化したデータを機械学習処理の対象として第2の判別器126を生成する手順、第2の判別器126を用いて生産設備10の状態解析処理を行う手順、を実行させるように記述されている。 Further, the computer program of the present embodiment causes the computer (processor 50 in FIG. 3) for realizing the analysis device 100 to detect an abnormality in the production equipment 10 based on the detection result of the vibration sensor 12 provided in the production equipment 10 . A procedure for performing determination processing using the first discriminator 124, a procedure for imaging the detection result that could not be discriminated as normal or abnormal by the first discriminator 124, and the imaged data as a target for machine learning processing. and the procedure for performing the state analysis processing of the production equipment 10 using the second discriminator 126 are described to be executed.

以上説明したように、本実施形態において、異常判定部120により第1の判別器124を用いて振動センサの検出結果に基づく異常判定処理で判別結果が得られなかった場合に、そのときの振動センサの検出結果を画像処理部102により画像化し、第2の判別器126により正常か「Unknown」かが判別される。このように、本実施形態によれば、第2の判別器126には、正常状態に対応する振動センサの検出結果のみを機械学習させ、正常状態について正規化するので、少量多品種や変種変動生産などで、製造条件が常に流動的不具合事象の情報が積み上がりにくい場合であっても、判別の精度を向上できる。 As described above, in the present embodiment, when the abnormality determination unit 120 uses the first discriminator 124 and the abnormality determination process based on the detection result of the vibration sensor fails to obtain a determination result, the vibration at that time is determined. The image processing unit 102 converts the detection result of the sensor into an image, and the second discriminator 126 discriminates whether it is normal or "Unknown". Thus, according to the present embodiment, the second discriminator 126 performs machine learning only on the detection results of the vibration sensors corresponding to the normal state, and normalizes the normal state. In production, etc., even if manufacturing conditions are always in flux and it is difficult to accumulate information on defect events, the accuracy of discrimination can be improved.

また、上記実施形態と同様に、振動センサの検出結果を機械学習する際に、機械学習処理の対象となる振動波形データを画像化することで、データ量を圧縮できるので、処理負荷を低減するとともに、処理速度を高速化できる。 Further, as in the above-described embodiment, when machine learning is performed on the detection results of the vibration sensor, the amount of data can be compressed by imaging the vibration waveform data that is the target of machine learning processing, thereby reducing the processing load. At the same time, the processing speed can be increased.

(第3の実施の形態)
図11は、本実施形態の解析装置100における異常判定処理の手順の一例を示すフローチャートである。本実施形態は、第1の判別器124を用いた生産設備10の異常判定処理の結果を出力する構成を有する点以外は図9の解析装置100と同様である。
(Third Embodiment)
FIG. 11 is a flow chart showing an example of the procedure of abnormality determination processing in the analysis device 100 of this embodiment. This embodiment is the same as the analysis device 100 of FIG. 9 except that it has a configuration for outputting the result of the abnormality determination processing of the production equipment 10 using the first discriminator 124 .

まず、異常判定部120は、生産設備10に設けられた振動センサから振動データを取得する(ステップS301)。そして、異常判定部120は、第1の判別器124を用いて取得した振動データの異常判定処理を実行する(ステップS303)。ここで、振動データはFFT処理された後、異常判定部120の第1の判別モデル128によって正常か異常を判別される(ステップS305)。 First, the abnormality determination unit 120 acquires vibration data from a vibration sensor provided in the production equipment 10 (step S301). Then, the abnormality determination unit 120 executes abnormality determination processing for the acquired vibration data using the first discriminator 124 (step S303). Here, after the vibration data is subjected to FFT processing, normality or abnormality is determined by the first determination model 128 of the abnormality determination unit 120 (step S305).

異常判定部120は、FFT処理して得られた周波数分布から、特定周波数のピークレベル、最大および平均ピークレベルの比、S/N比(Signal-to-Noise ratio)、および特定周波数の範囲でのピークレベルの積算値の少なくともいずれか一つについてそれぞれ求め、閾値を用いてこれらの値が正常か異常かを判別する(ステップS305)。閾値の範囲内の場合(ステップS305のNO)、第1の判別器124は、生産設備10は正常であると判定し(ステップS307)、異常判定部120は、生産設備10は正常であることを示す判定結果を出力する(ステップS311)。 From the frequency distribution obtained by FFT processing, the abnormality determination unit 120 determines the peak level of a specific frequency, the ratio of the maximum and average peak levels, the signal-to-noise ratio (S/N ratio), and the range of the specific frequency. are obtained for at least one of the integrated values of the peak levels of , and a threshold value is used to determine whether these values are normal or abnormal (step S305). If it is within the threshold range (NO in step S305), the first discriminator 124 determines that the production equipment 10 is normal (step S307), and the abnormality determination unit 120 determines that the production equipment 10 is normal. is output (step S311).

閾値の範囲外の場合(ステップS305のYES)、第1の判別器124は、生産設備10は異常状態であると判定し(ステップS309)、生産設備10は異常状態であることを示す判定結果を出力する(ステップS311)。 If it is outside the threshold range (YES in step S305), the first discriminator 124 determines that the production facility 10 is in an abnormal state (step S309), and the determination result indicates that the production facility 10 is in an abnormal state. is output (step S311).

また、第1の判別器124による正常か異常かの判別ができなかった場合(ステップS305の判別不可)、異常判定部120は、画像処理部102に振動データを出力し(ステップS313)、図10のステップS125に進む。 Further, when the first discriminator 124 cannot discriminate between normality and abnormality (discrimination not possible in step S305), the abnormality determination unit 120 outputs vibration data to the image processing unit 102 (step S313). 10 to step S125.

本実施形態では、生産設備10の異常判定処理に第1の判別器124を用い、第2の判別器126は異常判定処理には使用しない。また、第2の判別器126の判別結果は、第1の判別器124の第1の判別モデル128を更新するのに使用されるが、この構成については後述する実施形態で説明する。 In this embodiment, the first discriminator 124 is used for the abnormality determination processing of the production equipment 10, and the second discriminator 126 is not used for the abnormality determination processing. The discrimination result of the second discriminator 126 is used to update the first discriminant model 128 of the first discriminator 124, and this configuration will be described later in the embodiment.

以上説明したように、本実施形態において、異常判定部120により第1の判別器124を用いて生産設備10の異常判定処理を行い、異常判定部120は第2の判別器126を生産設備10の異常判定処理には使用しない。生成部104によって更新される第2の判別器126の判別結果を用いて第1の判別器124を更新することができる。この構成によれば、第2の判別器126の判別結果を反映した第1の判別器124を用いて異常判定処理を行うことができるので、判定結果の精度を向上できる。 As described above, in the present embodiment, the abnormality determination unit 120 uses the first discriminator 124 to perform abnormality determination processing for the production facility 10 , and the abnormality determination unit 120 uses the second discriminator 126 as the production facility 10 not used for the abnormality determination process. The first discriminator 124 can be updated using the discrimination result of the second discriminator 126 updated by the generation unit 104 . According to this configuration, the abnormality determination process can be performed using the first discriminator 124 reflecting the determination result of the second discriminator 126, so that the accuracy of the determination result can be improved.

(第4の実施の形態)
図12は、本実施形態の解析装置100の画像処理部102の論理的な構成を示す機能ブロック図である。本実施形態の解析装置100は、画像処理部102において、測定データからノイズを除去する処理を行ってから、画像化処理を行う構成を有する点以外は上記実施形態と同様である。本実施形態の構成は、他のいずれの実施形態の構成と組み合わせてもよい。
(Fourth embodiment)
FIG. 12 is a functional block diagram showing the logical configuration of the image processing unit 102 of the analysis device 100 of this embodiment. The analysis apparatus 100 of the present embodiment is the same as the above embodiment except that the image processing unit 102 performs processing for removing noise from the measurement data and then performs imaging processing. The configuration of this embodiment may be combined with the configuration of any other embodiment.

画像処理部102は、ノイズ除去部112と、画像化処理部114とを含む。ノイズ除去部112は、検出結果に対してノイズ除去処理を行う。画像化処理部114は、ノイズ除去部112によるノイズ除去処理が行われた後の検出結果を画像化する。ノイズ除去により測定データの振動波形が鮮明になる。 The image processing unit 102 includes a noise removal unit 112 and an imaging processing unit 114 . The noise removal unit 112 performs noise removal processing on the detection result. The imaging processing unit 114 images the detection result after the noise removal processing by the noise removal unit 112 has been performed. Noise removal makes the vibration waveform of the measurement data clearer.

ノイズ除去処理は、例えば、複数配置された振動センサからの環境ノイズを予め計測して記憶しておき、ノイズデータを元に差分処理することを含む。ただしノイズ除去処理は他の方法で行われてもよい。 The noise removal process includes, for example, pre-measurement and storage of environmental noise from a plurality of arranged vibration sensors, and differential processing based on the noise data. However, noise removal processing may be performed by other methods.

図13は、本実施形態の解析装置100の画像処理部102の動作の一例を示すフローチャートである。図13のフローチャートは、上記実施形態で説明した図8のフローチャートのステップS113およびステップS115に加え、さらにステップS111を含む。 FIG. 13 is a flow chart showing an example of the operation of the image processing unit 102 of the analysis device 100 of this embodiment. The flowchart of FIG. 13 further includes step S111 in addition to steps S113 and S115 of the flowchart of FIG. 8 described in the above embodiment.

ステップS111では、ノイズ除去部112は、測定データのノイズ除去処理を行う。そして、ステップS111でノイズ除去処理されたデータを画像化処理部114がFFT処理してから周波数分割処理し(ステップS113)、得られた振動スペクトラムデータを画像化して画像データを出力する(ステップS115)。ステップS115で得られた画像データは、図7のステップS103で解析部106により判別器110を用いた生産設備10の状態解析処理が行われる。 In step S111, the noise removal unit 112 performs noise removal processing on the measurement data. Then, the image processing unit 114 performs FFT processing on the data subjected to the noise removal processing in step S111, and then performs frequency division processing (step S113). ). The image data obtained in step S115 undergoes state analysis processing of the production equipment 10 using the discriminator 110 by the analysis unit 106 in step S103 of FIG.

以上説明したように、本実施形態において、ノイズ除去部112によりノイズ除去処理されたセンサ12の測定データを、画像化処理部114により画像化する。この構成により本実施形態によれば、上記実施形態と同様に機械学習処理又は判別処理の高速化を図ることができるとともに、さらに、ノイズ除去により測定データの振動波形が鮮明になり、FFT処理および画像化処理の精度が向上し、測定データの解析結果の精度および信頼性が向上する。 As described above, in the present embodiment, the measurement data of the sensor 12 subjected to noise removal processing by the noise removal unit 112 is imaged by the image processing unit 114 . With this configuration, according to the present embodiment, it is possible to speed up the machine learning process or the discrimination process as in the above embodiment, and furthermore, the vibration waveform of the measurement data becomes clearer by removing noise, and the FFT process and The accuracy of imaging processing is improved, and the accuracy and reliability of analysis results of measurement data are improved.

(第5の実施の形態)
図14は、本実施形態の解析装置100の論理的な構成を示す機能ブロック図である。本実施形態の解析装置100は生産設備10の状態解析処理により正常でないと判別されたデータを抽出し、そのデータに基づき第1の判別器124の第1判別モデル128を更新する構を有する点以外は上記実施形態と同様である。
(Fifth embodiment)
FIG. 14 is a functional block diagram showing the logical configuration of the analysis device 100 of this embodiment. The analysis device 100 of the present embodiment extracts data determined to be abnormal by the state analysis processing of the production equipment 10, and updates the first discrimination model 128 of the first discriminator 124 based on the data. It is the same as the above embodiment except that it has

解析装置100は、図9の解析装置100と同様な画像処理部102と、生成部104と、解析部106と、異常判定部120と、を備えるとともに、さらに抽出部140を備える。 The analysis device 100 includes an image processing unit 102, a generation unit 104, an analysis unit 106, and an abnormality determination unit 120 similar to the analysis device 100 of FIG.

抽出部140は、第2の判別器126を用いた状態解析処理で正常でない(「Unknown」)と判定されたデータを抽出する。生成部104は、抽出されたデータに基づく補正情報を受け付け第1の判別器124の第1の判別モデル128を更新する。ここで、補正情報は、不具合事象と振動特性とを紐付けた情報を含む。 The extraction unit 140 extracts data determined to be abnormal (“Unknown”) in the state analysis process using the second discriminator 126 . The generation unit 104 receives correction information based on the extracted data and updates the first discrimination model 128 of the first discriminator 124 . Here, the correction information includes information that associates the malfunction event with the vibration characteristic.

抽出されるデータとは、「Unknown」と判別された画像化データに対応する、画像処理部102が画像化処理する前の、振動センサから受信した生の振動波形データと、当該データの時刻情報を含む。この「Unknown」と判別された振動データが示す振動は、未だ特定されていない生産設備10の不具合事象により引き起こされている可能性がある。 The data to be extracted includes the raw vibration waveform data received from the vibration sensor before image processing by the image processing unit 102, corresponding to the imaging data determined as "Unknown", and the time information of the data. including. The vibration indicated by the vibration data determined as "Unknown" may be caused by an unspecified malfunction of the production equipment 10 .

そこで、抽出された振動データを時刻情報とともに、設備監視システム1が有している生産設備10の稼働情報、状態情報、加工物の情報等を用いて、オペレータが人手で分析を行い、当該振動の原因となった不具合事象を特定する。 Therefore, an operator manually analyzes the extracted vibration data together with the time information, using the operation information, state information, information on the workpiece, etc. of the production equipment 10 possessed by the equipment monitoring system 1. Identify the failure event that caused the

そのため、解析装置100は、抽出部140が抽出したデータを出力し、オペレータに提示する。オペレータへのデータの提示方法は様々考えられるが、例として、解析装置100のディスプレイに表示してもよいし、解析装置100からプリンタに印字出力されてもよいし、通信回線を介して他の装置(例えば、操作端末等)に送信されてもよい。 Therefore, the analysis device 100 outputs the data extracted by the extraction unit 140 and presents it to the operator. Various methods of presenting the data to the operator are conceivable. For example, the data may be displayed on the display of the analysis device 100, printed out from the analysis device 100 on a printer, or may be presented to the operator via a communication line. It may be transmitted to a device (for example, an operation terminal, etc.).

オペレータが特定した不具合事象に、対応する振動の振動特性情報を紐付けた図15の補正情報30を、オペレータは操作画面等を用いて解析装置100に入力する。生成部104は、入力された補正情報30を受け付け、第1の判別器124の第1の判別モデル128を更新する。 The operator inputs the correction information 30 shown in FIG. 15, in which the vibration characteristic information of the corresponding vibration is linked to the defect event specified by the operator, into the analysis device 100 using the operation screen or the like. The generation unit 104 receives the input correction information 30 and updates the first discrimination model 128 of the first discriminator 124 .

図16は、解析部106による判別処理の詳細フローの一例を示すフローチャートである。解析部106は、図13のステップS115で出力された画像データを第2の判別器126にかけ、生産設備10の状態解析処理を行う(ステップS401)。第2の判別器126により正常と判別されたデータは(ステップS401の「正常」)、生成部104に受け渡され、正常データとして機械学習処理される(ステップS403)。一方、解析部106は、第2の判別器126により正規化の範囲から外れたデータを(ステップS401の「Unknown」)、抽出する(ステップS405)。 FIG. 16 is a flowchart showing an example of a detailed flow of discrimination processing by the analysis unit 106. As shown in FIG. The analysis unit 106 applies the image data output in step S115 of FIG. 13 to the second discriminator 126, and performs state analysis processing of the production facility 10 (step S401). Data determined to be normal by the second discriminator 126 ("normal" in step S401) is transferred to the generation unit 104 and machine-learned as normal data (step S403). On the other hand, the analysis unit 106 extracts data ("Unknown" in step S401) outside the normalization range by the second discriminator 126 (step S405).

なお、図16のフローを用いて、図8のステップS115で出力された画像データについても同様に処理してよい。 Note that the image data output in step S115 of FIG. 8 may be similarly processed using the flow of FIG.

図17は、図16のステップS405で抽出されたデータを用いた判別器の更新処理手順の一例を示すフローチャートである。
まず、抽出部140は、ステップS405で抽出したデータ(振動データと時刻情報)を出力する(ステップS411)。ここでは、例えば、解析装置100のディスプレイに表示する。そして、オペレータは、ステップS411で表示された振動データを時刻情報とともに、設備監視システム1が有している生産設備10の稼働情報、状態情報、加工物の情報等を用いて分析を行い、当該振動の原因となった不具合事象を特定する。オペレータは、特定した不具合事象と、対応する振動特性情報とを紐付けた情報を作成し、解析装置100の操作画面に従い、第1の判別器124の閾値の補正情報として入力する。
FIG. 17 is a flow chart showing an example of a classifier update processing procedure using the data extracted in step S405 of FIG.
First, the extraction unit 140 outputs the data (vibration data and time information) extracted in step S405 (step S411). Here, for example, it is displayed on the display of the analysis device 100 . Then, the operator analyzes the vibration data displayed in step S411 together with the time information, using the operation information, state information, workpiece information, etc. of the production facility 10 possessed by the facility monitoring system 1, and Identify the fault event that caused the vibration. The operator creates information that associates the specified failure event with the corresponding vibration characteristic information, and inputs it as correction information for the threshold value of the first discriminator 124 according to the operation screen of the analysis device 100 .

生成部104は、入力された補正情報を受け付け(ステップS413)、受け付けた補正情報を用いて第1の判別器124を更新する(ステップS415)。 The generation unit 104 receives the input correction information (step S413), and updates the first discriminator 124 using the received correction information (step S415).

具体的には、受け付けた補正情報に含まれる、振動特性情報と不具合事象とを第1の判別モデル128に登録し、特定周波数のピークレベル、最大および平均ピークレベルの比、S/N比(Signal-to-Noise ratio)、および特定周波数の範囲でのピークレベルの積算値の少なくともいずれか一つについてそれぞれ求め、正常時と異常時の境界範囲を検出して閾値を設定する。あるいは、オペレータが、上記特定した不具合事象に対応する振動特性情報から求められた各値を元に閾値をそれぞれ設定して操作画面を用いて入力してもよい。 Specifically, the vibration characteristic information and the failure event included in the received correction information are registered in the first discrimination model 128, and the peak level of the specific frequency, the ratio of the maximum and average peak levels, the S/N ratio ( (Signal-to-Noise ratio), and at least one of the peak level integrated values in the specific frequency range, and the boundary range between normal and abnormal states is detected and a threshold is set. Alternatively, the operator may set each threshold value based on each value obtained from the vibration characteristic information corresponding to the specified malfunction event and input it using the operation screen.

以上説明したように、本実施形態において、抽出部140により第2の判別器126の「Unknown」データが抽出され、オペレータに提示され、生成部104によりオペレータにより分析された不具合事象と振動特性情報とを紐付けた補正情報が受け付けられ、補正情報に基づき第1の判別器124が更新される。このように、本実施形態によれば、第1の判別器124が判別できなかった測定データについて、さらに第2の判別器126により判別処理を行い、「Unknown」とされたデータを抽出してオペレータが解析し、その結果を第1の判別器124に反映するので、異常判定処理の精度を向上させることができる。 As described above, in the present embodiment, the extraction unit 140 extracts the "Unknown" data of the second discriminator 126, presents it to the operator, and the generation unit 104 analyzes the malfunction event and vibration characteristic information by the operator. is received, and the first discriminator 124 is updated based on the correction information. As described above, according to the present embodiment, the measurement data that the first discriminator 124 could not discriminate is further discriminated by the second discriminator 126, and the data marked as "Unknown" is extracted. Since the operator analyzes and the result is reflected in the first classifier 124, the accuracy of the abnormality determination process can be improved.

また、第2の判別器126には、正常時の情報のみを機械学習させるので、少量多品種や変種変動生産などで、製造条件が常に流動的不具合事象の情報が積み上がりにくい場合であっても、第1の判別モデル128を更新できるので生産設備10の異常状態の判定精度を向上させることができる。 In addition, since the second discriminator 126 is machine-learned only on the information of the normal state, it is difficult to accumulate information on defective events because the manufacturing conditions are always in flux , such as in small-lot, high-mix, variable-variety production. However, since the first discrimination model 128 can be updated, the accuracy of discrimination of the abnormal state of the production facility 10 can be improved.

(第5の実施の形態の変形態様)
図14の解析装置100は、図9の解析装置100の構成に抽出部140を設けた構成としていた。その変形態様として、図4の解析装置100において、抽出部140を設けた構成としてもよい。
(Modification of Fifth Embodiment)
The analysis device 100 in FIG. 14 has a configuration in which the extraction unit 140 is added to the configuration of the analysis device 100 in FIG. 9 . As a modification thereof, the analysis device 100 of FIG. 4 may be configured to include the extraction unit 140 .

解析装置100は、異常判定部120と、抽出部140と、さらに備える。異常判定部120は、検出結果が示す振動センサの振動の特徴解析処理を行い、閾値を用いて生産設備10の異常判定処理を行う。抽出部140は、状態解析処理で生産設備10が正常状態でないと判定されたデータを抽出する。生成部104は、抽出されたデータに基づく補正情報を受け付け、閾値を更新する。補正情報は、不具合事象と振動特性とを紐付けた情報を含む。 The analysis device 100 further includes an abnormality determination section 120 and an extraction section 140 . The abnormality determination unit 120 performs characteristic analysis processing of the vibration of the vibration sensor indicated by the detection result, and performs abnormality determination processing of the production facility 10 using a threshold value. The extraction unit 140 extracts data determined by the state analysis processing that the production facility 10 is not in a normal state. The generation unit 104 receives correction information based on the extracted data and updates the threshold. The correction information includes information that associates the malfunction event with the vibration characteristic.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、図18は、図16の状態解析処理のステップS401で正常と判別された場合の処理手順の一例を示すフローチャートである。この実施形態は、第2の判別器126により正常と判別された検出結果を第2の判別器126の教師データとする構成を有する点以外は上記実施形態と同様である。
Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than those described above can also be adopted.
For example, FIG. 18 is a flow chart showing an example of a processing procedure when it is determined to be normal in step S401 of the state analysis processing of FIG. This embodiment is the same as the above embodiment except that the detection result determined as normal by the second discriminator 126 is used as training data for the second discriminator 126 .

生成部104は、第2の判別器126を用いた状態解析処理により、正常と判定された検出結果を(図16のステップS401の正常)、生産設備10の正常状態の教師データとして第2の判別器126の第2の判別モデル130を更新する(ステップS501)。 The generation unit 104 uses the detection result determined to be normal by the state analysis processing using the second discriminator 126 (normal in step S401 in FIG. The second discriminant model 130 of the discriminator 126 is updated (step S501).

この構成によれば、第2の判別器126を用いた状態解析処理により、正常と判定された検出結果を生産設備10の正常状態の教師データとして第2の判別モデル130が生成部104により更新される。このように、第1の判別器124による異常判定処理において判別できなかった測定データから正常状態の教師データを生成し、第2の判別モデル130を更新することができ、第2の判別器126の判別精度を向上することができる。 According to this configuration, the generation unit 104 updates the second discrimination model 130 by using the detection result determined to be normal by the state analysis processing using the second discriminator 126 as teaching data of the normal state of the production equipment 10. be done. In this way, it is possible to generate normal training data from measured data that could not be discriminated in the abnormality determination process by the first discriminator 124, to update the second discriminant model 130, and to update the second discriminant model 126. can improve the accuracy of discrimination.

さらに、上記実施形態の第1の判別器124と、第2の判別器126に加え、解析装置100は、第3の判別器(不図示)を備えてもよい。図19は、解析装置100が第3の判別器を用いて不具合モデルを構築し、不具合事象を識別する処理手順の一例を示すフローチャートである。第3の判別器は、第1の判別器124で正常と判別された測定データを取得する(ステップS601)。さらに、第3の判別器は、第2の判別器126でUnknownと判別された測定データを取得する(ステップS603)。そして、第3の判別器は、これらのデータを機械学習し、不具合事象を分類したモデルを構築する(ステップS605)。なお、第3の判別器が機械学習する各測定データについても、上記実施形態で説明したノイズ除去処理および画像化処理を行ってよい。 Furthermore, in addition to the first discriminator 124 and the second discriminator 126 of the above embodiments, the analysis device 100 may include a third discriminator (not shown). FIG. 19 is a flow chart showing an example of a processing procedure in which the analysis device 100 constructs a defect model using the third discriminator and identifies a defect event. The third discriminator acquires measurement data determined to be normal by the first discriminator 124 (step S601). Furthermore, the third discriminator acquires the measurement data discriminated as Unknown by the second discriminator 126 (step S603). Then, the third discriminator machine-learns these data and builds a model that classifies the failure event (step S605). The noise removal processing and imaging processing described in the above embodiment may also be performed on each measurement data machine-learned by the third discriminator.

さらに、第3の判別器を用いて、生産設備10のセンサ12の測定データが正常か異常かを判定し、さらに、異常の場合に不具合事象を識別する(ステップS607)。 Furthermore, using a third discriminator, it is determined whether the measurement data of the sensor 12 of the production equipment 10 is normal or abnormal, and if abnormal, a malfunction event is identified (step S607).

また、複数のセンサ12の各々の位置情報を設備情報24に記憶しておき、振動データと位置情報の関係をさらに、機械学習させ、分類モデル202、第1の判別モデル128、および第2の判別モデル130の少なくともいずれか一つに反映させてもよい。 In addition, the position information of each of the plurality of sensors 12 is stored in the facility information 24, and the relationship between the vibration data and the position information is further machine-learned, and the classification model 202, the first discrimination model 128, and the second At least one of the discriminant models 130 may be reflected.

さらに、複数のセンサ12の測定データの測定条件(設備種別、環境(温度、湿度)等)等の情報を設備情報24に記憶しておいてもよい。この測定条件、生産設備10の稼働情報に含まれる稼働状態、稼働条件等から近い条件の測定データをグルーピングして、グループ毎に測定データを機械学習させ、分類モデル202、第1の判別モデル128、および第2の判別モデル130の少なくともいずれか一つに反映させてもよい。 Furthermore, information such as measurement conditions (equipment type, environment (temperature, humidity), etc.) for measurement data of a plurality of sensors 12 may be stored in the facility information 24 . By grouping measurement data of conditions close to the measurement conditions, operating states, operating conditions, etc. included in the operation information of the production equipment 10, machine learning is performed on the measurement data for each group, and a classification model 202 and a first discrimination model 128 are generated. , and the second discriminant model 130 .

(実施例1)
図20は、実施例1の解析装置を説明するためのフロー図である。
まず、異常判定部120は、生産設備10のセンサ12から振動データが入力されると、第1の判別器124においてFFT処理を行う(ステップS11)。このとき第1の判別モデル128を用いてパターンマッチング処理により振動特性を特定する。そして、第1の判別器124は振動特性が閾値の範囲内の場合は正常と判定し、閾の範囲を外れた場合は異常と判定する。異常判定部120はこの結果を設備監視システム1に生産設備10の異常判定結果として出力する(不図示)。
(Example 1)
FIG. 20 is a flowchart for explaining the analysis device of Example 1. FIG.
First, when vibration data is input from the sensor 12 of the production equipment 10, the abnormality determination unit 120 performs FFT processing in the first discriminator 124 (step S11). At this time, the first discriminant model 128 is used to identify the vibration characteristics by pattern matching processing. Then, the first discriminator 124 determines that the vibration characteristic is normal when the vibration characteristic is within the range of the threshold, and determines that it is abnormal when it is outside the range of the threshold . The abnormality determination unit 120 outputs this result to the equipment monitoring system 1 as the abnormality determination result of the production equipment 10 (not shown).

さらに、異常判定部120は、ステップS11で第1の判別器124により正常か否かの判別ができなかったデータを抽出し(ステップS13)、第2の判別器126の機械学習処理の対象として解析部106に受け渡す。 Further, the abnormality determination unit 120 extracts the data for which the first discriminator 124 could not determine whether or not it was normal in step S11 (step S13), and uses it as a target for machine learning processing by the second discriminator 126. It is passed to the analysis unit 106 .

解析部106は、第1の判別器124で判別できなかったセンサ12の測定データについてノイズ除去処理を行い(ステップS15)、周波数分析して画像化する(ステップS17)。解析部106は、画像化されたデータを第2の判別器126を用いて判別し(ステップS19)、生産設備10の状態が正常か否かを判別する(ステップS21)。正常と判別された場合(ステップS21のYES)、生成部104は、当該正常と判別された測定データを機械学習し第2の判別器126の第2の判別モデル130を更新する(ステップS23)。 The analysis unit 106 performs noise removal processing on the measurement data of the sensor 12 that could not be discriminated by the first discriminator 124 (step S15), performs frequency analysis, and forms an image (step S17). The analysis unit 106 discriminates the imaged data using the second discriminator 126 (step S19), and discriminates whether or not the state of the production equipment 10 is normal (step S21). If determined to be normal (YES in step S21), the generator 104 machine-learns the measured data determined to be normal, and updates the second discrimination model 130 of the second discriminator 126 (step S23). .

一方、正常と判別されなかった(「Unknown」)場合(ステップS21のNO)、抽出部140は、当該Unknownとなった測定データを抽出して出力する(ステップS31)。オペレータは、この抽出されたUnknownなデータを参照し、生産設備10の稼働情報等とともに分析して、不具合事象を特定する。そして、不具合事象と振動特性とを紐付けた補正情報を解析装置100に入力する(ステップS33)。 On the other hand, if it is not determined to be normal ("Unknown") (NO in step S21), the extraction unit 140 extracts and outputs the measurement data that is Unknown (step S31). The operator refers to this extracted unknown data, analyzes it together with the operation information of the production equipment 10, etc., and identifies the failure event. Then, correction information linking the malfunction event and the vibration characteristic is input to the analysis device 100 (step S33).

生成部104は、入力された補正情報を受け付け、受け付けた補正情報を元に第1の判別モデル128と閾値を更新する(ステップS35)。 The generation unit 104 receives the input correction information, and updates the first discrimination model 128 and the threshold based on the received correction information (step S35).

このようにして、解析装置100により、第1の判別器124で異常判定できなかった測定データを、第2の判別器126により機械学習することで、正常でないUnknownなデータを抽出し、生産設備10の稼働情報とともにオペレータが分析することで不具合事象を特定し、振動特性と不具合事象を紐付けた補正情報として解析装置100に入力することで、補正情報を元に第1の判別器124の第1の判別モデル128と閾値を更新することができる。 In this way, the second discriminator 126 performs machine learning on the measurement data for which the first discriminator 124 could not determine an abnormality by the analysis device 100, thereby extracting abnormal unknown data and 10 operation information by the operator to identify the failure event, input to the analysis device 100 as correction information that links the vibration characteristics and the failure event, and based on the correction information, the first discriminator 124 The first discriminant model 128 and thresholds can be updated.

(実施例2)
図21は、実施例2の解析装置を説明するためのフロー図である。
この実施例の解析装置100は、第1の判別器124と、第2の判別器126と、に加え、さらに、第3の判別器200を備える。
第3の判別器200は、第1の判別器124により正常と判別された測定データと、第2の判別器126によりUnknownと判別された測定データとを用いて機械学習する(ステップS41)。第2の判別器126は、機械学習により、正常と異常の分類モデル202を構築する。分類モデル202は、不具合事象をクラス分けする。
(Example 2)
FIG. 21 is a flowchart for explaining the analysis device of Example 2. FIG.
The analysis apparatus 100 of this embodiment further includes a third discriminator 200 in addition to the first discriminator 124 and the second discriminator 126 .
The third discriminator 200 performs machine learning using the measured data determined as normal by the first discriminator 124 and the measured data determined as Unknown by the second discriminator 126 (step S41). The second discriminator 126 builds a normal/abnormal classification model 202 by machine learning. Classification model 202 classifies failure events.

第3の判別器200は、この分類モデル202を用いて、測定データが正常か異常の判別を行うとともに、さらに、不具合事象を識別して特定することができる。 Using this classification model 202, the third discriminator 200 can discriminate whether the measured data is normal or abnormal, and can also identify and specify a failure event.

以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
Although the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
In the present invention, acquisition and use of information relating to users shall be done legally.

上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 生産設備に設けられた振動センサの検出結果を画像化する画像処理手段と、
前記画像化したデータを機械学習処理の対象にして判別器を生成する生成手段と、
前記判別器を用いて前記生産設備の状態解析処理を行う解析手段と、を備える解析装置。
2. 1.に記載の解析装置において、
前記検出結果が示す前記振動センサの振動の特徴解析処理を行い、閾値を用いて前記生産設備の異常判定処理を行う判定手段と、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出する抽出手段と、をさらに備え、
前記生成手段は、抽出された前記データに基づく補正情報を受け付け、前記閾値を更新し、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、解析装置。
3. 生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行う判定手段と、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化する画像処理手段と、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成する生成手段と、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う解析手段と、
を備える、
解析装置。
4. 3.に記載の解析装置において、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出する抽出手段をさらに備え、
前記生成手段は、抽出された前記データに基づく補正情報を受け付け前記第1の判別器を更新し、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、解析装置。
5. 1.から4.のいずれか一つに記載の解析装置において、
前記生成手段は、前記状態解析処理により正常と判定された前記データを前記機械学習処理の教師データとする、解析装置。
6. 1.から5.のいずれか一つに記載の解析装置において、
前記検出結果に対してノイズ除去処理を行う処理手段をさらに備え、
前記画像処理手段は、前記処理手段による前記ノイズ除去処理が行われた後の前記検出結果を画像化する、解析装置。
7. 1.から6.のいずれか一つに記載の解析装置において、
前記生産設備は、ベルトコンベアであり、
前記振動センサは、前記ベルトコンベアに設けられた複数の振動センサである、解析装置。
Some or all of the above embodiments can also be described as the following additional remarks, but are not limited to the following.
1. image processing means for imaging the detection result of the vibration sensor provided in the production equipment;
generating means for generating a discriminator by subjecting the imaged data to machine learning processing;
an analysis device that uses the discriminator to analyze the state of the production equipment.
2. 1. In the analysis device according to
determination means for performing characteristic analysis processing of the vibration of the vibration sensor indicated by the detection result, and performing abnormality determination processing of the production equipment using a threshold value;
an extraction means for extracting data determined by the state analysis processing that the production equipment is not in a normal state,
The generating means receives correction information based on the extracted data, updates the threshold,
The analysis device, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
3. determination means for performing abnormality determination processing of the production equipment using a first discriminator based on the detection result of the vibration sensor provided in the production equipment;
An image processing means for imaging the detection result that could not be determined as normal or abnormal by the first discriminator;
generating means for generating a second discriminator using the imaged data as a target for machine learning processing;
analysis means for performing state analysis processing of the production equipment using the second discriminator;
comprising
analysis equipment.
4. 3. In the analysis device according to
further comprising extracting means for extracting data determined by the state analysis processing that the production facility is not in a normal state;
The generating means receives correction information based on the extracted data and updates the first discriminator,
The analysis device, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
5. 1. to 4. In the analysis device according to any one of
The generating means is an analysis device that uses the data determined to be normal by the state analysis process as teacher data for the machine learning process.
6. 1. to 5. In the analysis device according to any one of
Further comprising processing means for performing noise removal processing on the detection result,
The analysis device, wherein the image processing means forms an image of the detection result after the noise removal processing is performed by the processing means.
7. 1. to 6. In the analysis device according to any one of
The production equipment is a belt conveyor,
The analysis device, wherein the vibration sensor is a plurality of vibration sensors provided on the belt conveyor.

8. 解析装置が、
生産設備に設けられた振動センサの検出結果を画像化し、
前記画像化したデータを機械学習処理の対象にして判別器を生成し、
前記判別器を用いて前記生産設備の状態解析処理を行う、
解析方法。
9. 8.に記載の解析方法において、
前記解析装置が、さらに、
前記検出結果が示す前記振動センサの振動の特徴解析処理を行い、閾値を用いて前記生産設備の異常判定処理を行い、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出し、
抽出された前記データに基づく補正情報を受け付け、前記閾値を更新し、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、解析方法。
10. 解析装置が、
生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行い、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化し、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成し、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う、
解析方法。
11. 10.に記載の解析方法において、
前記解析装置が、さらに、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出し、
抽出された前記データに基づく補正情報を受け付け前記第1の判別器を更新し、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、解析方法。
12. 8.から11.のいずれか一つに記載の解析方法において、
前記解析装置が、さらに、
前記状態解析処理により正常と判定された前記データを前記機械学習処理の教師データとする、解析方法。
13. 8.から12.のいずれか一つに記載の解析方法において、
前記解析装置が、さらに、
前記検出結果に対してノイズ除去処理を行い、
前記ノイズ除去処理が行われた後の前記検出結果を画像化する、解析方法。
14. 8.から13.のいずれか一つに記載の解析方法において、
前記生産設備は、ベルトコンベアであり、
前記振動センサは、前記ベルトコンベアに設けられた複数の振動センサである、解析方法。
8. the analysis device
Image the detection result of the vibration sensor installed in the production equipment,
generating a discriminator by subjecting the imaged data to machine learning processing;
performing state analysis processing of the production equipment using the classifier;
analysis method.
9. 8. In the analysis method described in
The analysis device further
Performing characteristic analysis processing of the vibration of the vibration sensor indicated by the detection result, performing abnormality determination processing of the production equipment using a threshold value,
extracting data determined by the state analysis processing that the production facility is not in a normal state;
Receiving correction information based on the extracted data, updating the threshold,
The analysis method, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
10. the analysis device
performing abnormality determination processing of the production facility using a first discriminator based on the detection result of the vibration sensor provided in the production facility;
Imaging the detection result that could not be determined as normal or abnormal by the first discriminator,
generating a second discriminator using the imaged data as a target for machine learning processing;
Performing state analysis processing of the production equipment using the second discriminator,
analysis method.
11. 10. In the analysis method described in
The analysis device further
extracting data determined by the state analysis processing that the production facility is not in a normal state;
Receiving correction information based on the extracted data and updating the first discriminator;
The analysis method, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
12. 8. to 11. In the analysis method according to any one of
The analysis device further
An analysis method, wherein the data determined to be normal by the state analysis processing is used as teaching data for the machine learning processing.
13. 8. to 12. In the analysis method according to any one of
The analysis device further
Performing noise removal processing on the detection result,
An analysis method, wherein the detection result after the noise removal processing is performed is imaged.
14. 8. to 13. In the analysis method according to any one of
The production equipment is a belt conveyor,
The analysis method, wherein the vibration sensor is a plurality of vibration sensors provided on the belt conveyor.

15. コンピュータに、
生産設備に設けられた振動センサの検出結果を画像化する手順、
前記画像化したデータを機械学習処理の対象にして判別器を生成する手順、
前記判別器を用いて前記生産設備の状態解析処理を行う手順、を実行させるためのプログラム。
16. 15.に記載のプログラムにおいて、
前記検出結果が示す前記振動センサの振動の特徴解析処理を行い、閾値を用いて前記生産設備の異常判定処理を行う手順、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出する手順、
前記生成する手順において、抽出された前記データに基づく補正情報を受け付け、前記閾値を更新する手順、をさらにコンピュータに実行させ、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、プログラム。
17. コンピュータに、
生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行う手順、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化する手順、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成する手順、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う手順、を実行させるためのプログラム。
18. 17.に記載のプログラムにおいて、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出する手順、
前記生成する手順において、抽出された前記データに基づく補正情報を受け付け前記第1の判別器を更新する手順、をさらにコンピュータに実行させ、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、プログラム。
19. 15.から18.のいずれか一つに記載のプログラムにおいて、
前記生成する手順において、前記状態解析処理により正常と判定された前記データを前記機械学習処理の教師データとする手順をさらにコンピュータに実行させるためのプログラム。
20. 15.から19.のいずれか一つに記載のプログラムにおいて、
前記検出結果に対してノイズ除去処理を行う手順、
前記画像化する手順において、前記ノイズ除去処理が行われた後の前記検出結果を画像化する手順、をさらにコンピュータに実行させるためのプログラム。
21. 15.から20.のいずれか一つに記載のプログラムにおいて、
前記生産設備は、ベルトコンベアであり、
前記振動センサは、前記ベルトコンベアに設けられた複数の振動センサである、プログラム。
15. to the computer,
A procedure for imaging the detection result of the vibration sensor provided in the production equipment,
A procedure for generating a discriminator by subjecting the imaged data to machine learning processing,
A program for executing a procedure for performing state analysis processing of the production equipment using the discriminator.
16. 15. In the program described in
A procedure of performing characteristic analysis processing of the vibration of the vibration sensor indicated by the detection result and performing abnormality determination processing of the production equipment using a threshold value;
A procedure for extracting data determined by the state analysis processing that the production facility is not in a normal state;
causing the computer to further execute a step of receiving correction information based on the extracted data and updating the threshold value in the generating step;
The program, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
17. to the computer,
A procedure for performing abnormality determination processing of the production equipment using a first discriminator based on the detection result of the vibration sensor provided in the production equipment,
A procedure for imaging the detection result that could not be determined as normal or abnormal by the first discriminator,
A procedure for generating a second discriminator using the imaged data as a target for machine learning processing,
A program for executing a procedure for performing state analysis processing of the production equipment using the second discriminator.
18. 17. In the program described in
A procedure for extracting data determined by the state analysis processing that the production facility is not in a normal state;
causing the computer to further execute a procedure of accepting correction information based on the extracted data and updating the first discriminator in the generating procedure;
The program, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
19. 15. to 18. In the program according to any one of
A program for causing a computer to further execute a procedure, in the generating procedure, of using the data determined to be normal by the state analysis processing as training data for the machine learning processing.
20. 15. to 19. In the program according to any one of
a procedure for performing noise removal processing on the detection result;
A program for causing a computer to further execute a procedure of imaging the detection result after the noise removal process in the imaging procedure.
21. 15. to 20. In the program according to any one of
The production equipment is a belt conveyor,
The program, wherein the vibration sensor is a plurality of vibration sensors provided on the belt conveyor.

この出願は、2019年2月5日に出願された日本出願特願2019-019068号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2019-019068 filed on February 5, 2019, and the entire disclosure thereof is incorporated herein.

Claims (7)

生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行う判定手段と、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化する画像処理手段と、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成する生成手段と、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う解析手段と、
を備える、
解析装置。
determination means for performing abnormality determination processing of the production equipment using a first discriminator based on the detection result of the vibration sensor provided in the production equipment;
An image processing means for imaging the detection result that could not be determined as normal or abnormal by the first discriminator;
generating means for generating a second discriminator using the imaged data as a target for machine learning processing;
analysis means for performing state analysis processing of the production equipment using the second discriminator;
comprising
analysis equipment.
請求項に記載の解析装置において、
前記状態解析処理で前記生産設備が正常状態でないと判定されたデータを抽出する抽出手段をさらに備え、
前記生成手段は、抽出された前記データに基づく補正情報を受け付け前記第1の判別器を更新し、
前記補正情報は、不具合事象と振動特性とを紐付けた情報を含む、解析装置。
In the analysis device according to claim 1 ,
further comprising extracting means for extracting data determined by the state analysis processing that the production facility is not in a normal state;
The generating means receives correction information based on the extracted data and updates the first discriminator,
The analysis device, wherein the correction information includes information that associates a malfunction event with a vibration characteristic.
請求項1または2に記載の解析装置において、
前記生成手段は、前記状態解析処理により正常と判定された前記データを前記機械学習処理の教師データとする、解析装置。
In the analysis device according to claim 1 or 2 ,
The generating means is an analysis device that uses the data determined to be normal by the state analysis process as teacher data for the machine learning process.
請求項1からのいずれか一項に記載の解析装置において、
前記検出結果に対してノイズ除去処理を行う処理手段をさらに備え、
前記画像処理手段は、前記処理手段による前記ノイズ除去処理が行われた後の前記検出結果を画像化する、解析装置。
In the analysis device according to any one of claims 1 to 3 ,
Further comprising processing means for performing noise removal processing on the detection result,
The analysis device, wherein the image processing means forms an image of the detection result after the noise removal processing is performed by the processing means.
請求項1からのいずれか一項に記載の解析装置において、
前記生産設備は、ベルトコンベアであり、
前記振動センサは、前記ベルトコンベアに設けられた複数の振動センサである、解析装置。
In the analysis device according to any one of claims 1 to 4 ,
The production equipment is a belt conveyor,
The analysis device, wherein the vibration sensor is a plurality of vibration sensors provided on the belt conveyor.
解析装置が、
生産設備に設けられた振動センサの検出結果に基づいて当該生産設備の異常判定処理を第1の判別器を用いて行い、
前記第1の判別器により正常か異常かの判別ができなかった前記検出結果を画像化し、
前記画像化したデータを機械学習処理の対象として第2の判別器を生成し、
前記第2の判別器を用いて前記生産設備の状態解析処理を行う、
解析方法。
the analysis device
performing abnormality determination processing of the production facility using a first discriminator based on the detection result of the vibration sensor provided in the production facility;
Imaging the detection result that could not be determined as normal or abnormal by the first discriminator,
generating a second discriminator using the imaged data as a target for machine learning processing;
Performing state analysis processing of the production equipment using the second discriminator,
analysis method.
請求項に記載の解析方法を少なくとも1つのコンピュータに実行させるプログラム。 A program that causes at least one computer to execute the analysis method according to claim 6 .
JP2020571198A 2019-02-05 2020-02-04 ANALYSIS DEVICE, ANALYSIS METHOD, AND PROGRAM Active JP7188463B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019019068 2019-02-05
JP2019019068 2019-02-05
PCT/JP2020/004042 WO2020162425A1 (en) 2019-02-05 2020-02-04 Analysis device, analysis method, and program

Publications (2)

Publication Number Publication Date
JPWO2020162425A1 JPWO2020162425A1 (en) 2021-12-09
JP7188463B2 true JP7188463B2 (en) 2022-12-13

Family

ID=71947695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571198A Active JP7188463B2 (en) 2019-02-05 2020-02-04 ANALYSIS DEVICE, ANALYSIS METHOD, AND PROGRAM

Country Status (5)

Country Link
JP (1) JP7188463B2 (en)
KR (1) KR20210107844A (en)
CN (1) CN113383216A (en)
TW (1) TW202045898A (en)
WO (1) WO2020162425A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022053036A (en) * 2020-09-24 2022-04-05 国立大学法人大阪大学 Degradation-status prediction system and degradation-status prediction method
JP2022113523A (en) * 2021-01-25 2022-08-04 株式会社日本製鋼所 Computer program, abnormality detection method, abnormality detection device, molding machine system, and learning model generation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107093A (en) 2009-11-20 2011-06-02 Jx Nippon Oil & Energy Corp Apparatus and method for diagnosing abnormality of vibrating body
JP2018092453A (en) 2016-12-06 2018-06-14 日本電気通信システム株式会社 Learning apparatus, learning method, and program
JP2018178810A (en) 2017-04-10 2018-11-15 株式会社デンソーテン Knocking controller, knocking adaptation method and knocking adaptation program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3170076B2 (en) * 1992-12-18 2001-05-28 株式会社小野測器 Rolling bearing failure diagnosis device
JP2000321176A (en) * 1999-05-17 2000-11-24 Mitsui Eng & Shipbuild Co Ltd Method and device for detecting abnormal condition
JP4862708B2 (en) * 2007-03-19 2012-01-25 Jfeスチール株式会社 Deterioration degree diagnosis method, deterioration degree diagnosis device, and deterioration diagnosis program
CN102494882B (en) * 2011-11-30 2013-11-06 中国神华能源股份有限公司 Device for online monitoring and fault diagnosis of spring of vibrating screen for mining and method thereof
US20200173887A1 (en) * 2017-05-25 2020-06-04 Nec Corporation Processing apparatus, processing method, and non-transitory storage medium
CN107560849B (en) * 2017-08-04 2020-02-18 华北电力大学 Wind turbine generator bearing fault diagnosis method of multichannel deep convolutional neural network
CN108896296A (en) * 2018-04-18 2018-11-27 北京信息科技大学 A kind of wind turbine gearbox method for diagnosing faults based on convolutional neural networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107093A (en) 2009-11-20 2011-06-02 Jx Nippon Oil & Energy Corp Apparatus and method for diagnosing abnormality of vibrating body
JP2018092453A (en) 2016-12-06 2018-06-14 日本電気通信システム株式会社 Learning apparatus, learning method, and program
JP2018178810A (en) 2017-04-10 2018-11-15 株式会社デンソーテン Knocking controller, knocking adaptation method and knocking adaptation program

Also Published As

Publication number Publication date
JPWO2020162425A1 (en) 2021-12-09
KR20210107844A (en) 2021-09-01
CN113383216A (en) 2021-09-10
TW202045898A (en) 2020-12-16
WO2020162425A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
CN109397703B (en) Fault detection method and device
US20180264613A1 (en) Abnormality detection apparatus and machine learning apparatus
JP6672132B2 (en) Lift diagnostic system, lift diagnostic device, and lift diagnostic method
JP4726288B2 (en) Fault diagnosis system capable of learning, fault diagnosis method and fault diagnosis training method
JP6837848B2 (en) Diagnostic device
RU2704073C2 (en) Method and system for training acoustic or vibration analysis of machine
CN102265227B (en) Method and apparatus for creating state estimation models in machine condition monitoring
JP7188463B2 (en) ANALYSIS DEVICE, ANALYSIS METHOD, AND PROGRAM
US9535419B2 (en) Device and method for the residual analysis of a residuum to detect system errors in the system behaviour of a system of an aircraft
JP2016224913A (en) Artificial intelligence-based health management of host system
JP6374466B2 (en) Sensor interface device, measurement information communication system, measurement information communication method, and measurement information communication program
JP6200833B2 (en) Diagnostic equipment for plant and control equipment
EP0985174A1 (en) System and method for diagnosing and validating a machine using waveform data
KR20070033482A (en) Systems, apparatus, and methods for updating system-monitoring models
KR20200075148A (en) AI system and pre-conditioning method in use with noise data for detecting noise source
JP2012018066A (en) Device for inspecting abnormality
CN106482828A (en) A kind of checkout and diagnosis device and method of Fault Diagnosis of Aeroengines
CN111742274A (en) Intelligent Audio Analysis Apparatus (IAAA) and method for spatial system
KR102545672B1 (en) Method and apparatus for machine fault diagnosis
JP5535954B2 (en) Soundness evaluation apparatus, method and program
Tastimur et al. Defect diagnosis of rolling element bearing using deep learning
CN105740822B (en) A kind of mechanical fault diagnosis optimization method and system
JP6989841B2 (en) Learning data generation method with teacher information, machine learning method, learning data generation system and program with teacher information
EP4290204A1 (en) Method and device for vibroacoustic analysis of industrial equipment
CN114286931B (en) Abnormal portion detection device, abnormal portion detection method, and computer-readable recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R151 Written notification of patent or utility model registration

Ref document number: 7188463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151