JP6173649B1 - Deterioration location estimation apparatus, degradation location estimation system, and degradation location estimation method - Google Patents

Deterioration location estimation apparatus, degradation location estimation system, and degradation location estimation method Download PDF

Info

Publication number
JP6173649B1
JP6173649B1 JP2017517134A JP2017517134A JP6173649B1 JP 6173649 B1 JP6173649 B1 JP 6173649B1 JP 2017517134 A JP2017517134 A JP 2017517134A JP 2017517134 A JP2017517134 A JP 2017517134A JP 6173649 B1 JP6173649 B1 JP 6173649B1
Authority
JP
Japan
Prior art keywords
time
time series
deterioration
unit
fourier transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017517134A
Other languages
Japanese (ja)
Other versions
JPWO2018096582A1 (en
Inventor
阿部 芳春
芳春 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6173649B1 publication Critical patent/JP6173649B1/en
Publication of JPWO2018096582A1 publication Critical patent/JPWO2018096582A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H17/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/08Railway vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/46Processing the detected response signal, e.g. electronic circuits specially adapted therefor by spectral analysis, e.g. Fourier analysis or wavelet analysis

Abstract

劣化個所推定装置(6)は、検査対象機器に設けられた複数個のマイクロホン(131〜133)の各々に対応するマイク信号(DS1,DS2,DS3)を取得して、マイク信号(DS1,DS2,DS3)の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部(31)と、短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の時系列配列を生成する時系列配列生成部(32)と、ニューラルネットワークにより構成されており、時系列配列の入力を受け付けて検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部(35)と、劣化度を用いて検査対象機器における劣化個所を判定する判定部(36)とを備える。The degradation point estimation device (6) acquires microphone signals (DS1, DS2, DS3) corresponding to each of the plurality of microphones (131 to 133) provided in the inspection target device, and acquires the microphone signals (DS1, DS2). , DS3), a short-time Fourier transform unit (31) for calculating a time series of short-time Fourier transform coefficients corresponding to each, and a time-series array for input to the neural network using the time series of short-time Fourier transform coefficients A time-series array generating unit (32) for generating, and a neural network unit (35) configured by a neural network, which receives an input of the time-series array and outputs a degree of deterioration corresponding to the inspection target location in the inspection target device; And a determination unit (36) for determining a deterioration part in the inspection target device using the deterioration degree.

Description

本発明は、検査対象となる機器における劣化した個所を推定する劣化個所推定装置、劣化個所推定システム及び劣化個所推定方法に関する。   The present invention relates to a degradation location estimation device, a degradation location estimation system, and a degradation location estimation method for estimating a degradation location in a device to be inspected.

従来、検査対象となる機器(以下「検査対象機器」という。)から発生した音に基づいて、検査対象機器における故障した個所(以下「故障個所」という。)を推定する故障個所推定装置が開発されている。同様に、検査対象機器から発生した音に基づいて、検査対象機器における劣化した個所(以下「劣化個所」という。)を推定する劣化個所推定装置が開発されている。   Conventionally, a failure location estimation device has been developed that estimates a failure location (hereinafter referred to as “failure location”) in a device to be inspected based on sound generated from the device to be inspected (hereinafter referred to as “inspection device”). Has been. Similarly, a degradation location estimation device has been developed that estimates a degradation location (hereinafter referred to as “degradation location”) in a device to be inspected based on sound generated from the device to be inspected.

例えば、特許文献1の故障個所推定装置は、移動体に設けられ、移動体及び移動体の移動範囲周辺に位置する機器から発生する作動音を収集する集音器(1)と、収集された正常な作動音を分析し、基準標本系列(104)を求める基準標本系列分析手段(2,3,4)と、収集された診断対象の作動音を分析し、対象標本系列(105)を求める対象標本系列分析手段(2,3,4)と、基準標本系列(104)及び対象標本系列(105)間の変異系列を求め、変異曲線(106)を生成する変異曲線生成部(6)と、変異曲線(106)の形状特徴(107)を抽出する形状特徴抽出部(7)と、形状特徴(107)をテンプレートと照合し、移動体及び移動体の移動範囲周辺に位置する機器に起こる故障個所を判定する照合判定部(9)とを備えるものである(特許文献1の要約及び図1参照)。   For example, the failure location estimation device disclosed in Patent Document 1 is collected in a sound collector (1) that is provided on a moving body and collects operating sounds generated from the moving body and devices located around the moving range of the moving body. Analyzing the normal operating sound and obtaining the reference sample series (104), the reference sample series analyzing means (2, 3, 4), and analyzing the collected operating sounds of the diagnostic object to obtain the target sample series (105) A target sample series analyzing means (2, 3, 4), and a mutation curve generating unit (6) for obtaining a mutation series between the reference sample series (104) and the target sample series (105) and generating a mutation curve (106); The shape feature extraction unit (7) for extracting the shape feature (107) of the mutation curve (106) and the shape feature (107) are compared with the template, and this occurs in the mobile body and the device located around the moving range of the mobile body. Collation determination unit that determines the failure location ( ) And those with a (abstract and FIG. 1 of Patent Document 1).

特開2014−105075号公報JP 2014-105075 A

特許文献1の故障個所推定装置は、移動体に設けられた1個のマイクロホン(集音器1)を用いて、検査対象機器における各個所にて発生した音を取得するものである。これにより、複数個の個所が移動体の移動方向に沿って互いに離間して配置されている場合は、取得した音がいずれの個所にて発生したのかを識別することができる。しかしながら、複数個の個所が移動体の移動方向に対して垂直な面に沿って互いに離間して配置されている場合は、取得した音がいずれの個所にて発生したのかを識別することができない。すなわち、特許文献1の故障個所推定装置は、音の到来方向に対する分解能が低く、故障個所の推定精度が低い問題があった。   The failure location estimation apparatus of Patent Document 1 acquires sound generated at each location in a device to be inspected using one microphone (sound collector 1) provided on a moving body. Thereby, when a plurality of locations are arranged apart from each other along the moving direction of the moving body, it is possible to identify at which location the acquired sound is generated. However, when a plurality of locations are arranged apart from each other along a plane perpendicular to the moving direction of the moving body, it is impossible to identify at which location the acquired sound is generated. . That is, the failure location estimation apparatus of Patent Document 1 has a problem that the resolution with respect to the direction of sound arrival is low, and the failure location estimation accuracy is low.

また、劣化個所推定装置においても同様の問題があった。   Further, the same problem has occurred in the degradation location estimation apparatus.

本発明は、上記のような課題を解決するためになされたものであり、検査対象機器における劣化個所を高精度に推定することができる劣化個所推定装置、劣化個所推定システム及び劣化個所推定方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and includes a degradation location estimation device, a degradation location estimation system, and a degradation location estimation method that can accurately estimate degradation locations in a device to be inspected. The purpose is to provide.

本発明の劣化個所推定装置は、検査対象機器に設けられた複数個のマイクロホンの各々に対応するマイク信号を取得して、マイク信号の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部と、短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の複数個の時系列配列を生成する時系列配列生成部と、ニューラルネットワークにより構成されており、時系列配列の入力を受け付けて検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部と、劣化度を用いて検査対象機器における劣化個所を判定する判定部とを備えるものである。 The degradation point estimation apparatus of the present invention acquires microphone signals corresponding to each of a plurality of microphones provided in a device to be inspected, and calculates a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals. It is composed of a short-time Fourier transform unit, a time-series array generation unit that generates a plurality of time-series arrays for input to a neural network using a time series of short-time Fourier transform coefficients, and a neural network. A neural network unit that receives an input of an array and outputs a deterioration level corresponding to the inspection target location in the inspection target device, and a determination unit that determines the deterioration location in the inspection target device using the deterioration level.

本発明によれば、上記のように構成したので、検査対象機器における劣化個所を高精度に推定することができる。   According to this invention, since it comprised as mentioned above, the degradation location in a test object apparatus can be estimated with high precision.

本発明の実施の形態1に係る検査対象機器の要部を示す説明図である。It is explanatory drawing which shows the principal part of the test object apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る劣化個所推定システムの要部を示す説明図である。It is explanatory drawing which shows the principal part of the degradation location estimation system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る劣化個所推定装置の要部を示すハードウェア構成図である。It is a hardware block diagram which shows the principal part of the degradation location estimation apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る劣化個所推定装置の要部を示す機能ブロック図である。It is a functional block diagram which shows the principal part of the degradation location estimation apparatus which concerns on Embodiment 1 of this invention. 図3Aは、本発明の実施の形態1に係る相互相関演算部により生成された相互相関スペクトログラムを示す説明図である。図3Bは、本発明の実施の形態1に係る自己相関演算部により生成された自己相関スペクトログラムを示す説明図である。FIG. 3A is an explanatory diagram showing a cross-correlation spectrogram generated by the cross-correlation calculating unit according to Embodiment 1 of the present invention. FIG. 3B is an explanatory diagram showing an autocorrelation spectrogram generated by the autocorrelation calculating unit according to Embodiment 1 of the present invention. 本発明の実施の形態1に係るニューラルネットワーク部におけるニューラルネットワークの構造を示す説明図である。It is explanatory drawing which shows the structure of the neural network in the neural network part which concerns on Embodiment 1 of this invention. 図4に示すニューラルネットワーク内の入力層における3次元配列を示す説明図である。It is explanatory drawing which shows the three-dimensional arrangement | sequence in the input layer in the neural network shown in FIG. 図4に示すニューラルネットワーク内の畳込み層における3次元配列を示す説明図である。It is explanatory drawing which shows the three-dimensional arrangement | sequence in the convolution layer in the neural network shown in FIG. 本発明の実施の形態1に係る劣化個所推定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the degradation location estimation apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る短時間フーリエ変換部の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the short time Fourier-transform part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る相互相関演算部の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the cross correlation calculating part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る自己相関演算部の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the autocorrelation calculating part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るニューラルネットワーク部の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the neural network part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る判定部の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the determination part which concerns on Embodiment 1 of this invention.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。   Hereinafter, in order to explain the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.

実施の形態1.
図1Aは、本発明の実施の形態1に係る検査対象機器の要部を示す説明図である。図1Bは、本発明の実施の形態1に係る劣化個所推定システムの要部を示す説明図である。図1Cは、本発明の実施の形態1に係る劣化個所推定装置の要部を示すハードウェア構成図である。図1を参照して、実施の形態1の劣化個所推定システム100について説明する。
Embodiment 1 FIG.
FIG. 1A is an explanatory diagram showing a main part of an inspection target apparatus according to Embodiment 1 of the present invention. FIG. 1B is an explanatory diagram showing a main part of the degradation point estimation system according to Embodiment 1 of the present invention. FIG. 1C is a hardware configuration diagram illustrating a main part of the degradation point estimation apparatus according to Embodiment 1 of the present invention. With reference to FIG. 1, the degradation location estimation system 100 of Embodiment 1 is demonstrated.

図中、1はエレベータである。エレベータ1は昇降路2を有している。昇降路2内には、カゴ3及び図示しない複数個の可動部品などが設けられている。エレベータ1は図示しない建築物に設けられており、カゴ3は昇降路2に沿って当該建築物の最上階と最下階との間を昇降自在である。エレベータ1により、検査対象機器が構成されている。   In the figure, 1 is an elevator. The elevator 1 has a hoistway 2. In the hoistway 2, a basket 3 and a plurality of movable parts (not shown) are provided. The elevator 1 is provided in a building (not shown), and the basket 3 can move up and down along the hoistway 2 between the uppermost floor and the lowermost floor of the building. The elevator 1 constitutes a device to be inspected.

カゴ3の天井部には、マイクロホンアレイ装置4と、オーディオインタフェース装置5と、劣化個所推定装置6とが設けられている。マイクロホンアレイ装置4、オーディオインタフェース装置5及び劣化個所推定装置6により、劣化個所推定システム100の要部が構成されている。   A microphone array device 4, an audio interface device 5, and a degradation location estimation device 6 are provided on the ceiling of the basket 3. The microphone array device 4, the audio interface device 5, and the degradation location estimation device 6 constitute the main part of the degradation location estimation system 100.

マイクロホンアレイ装置4は、略円柱状の台座11と、台座11が有する略円形の載置面12に載置された3個のマイクロホン13〜13とを有している。マイクロホン13〜13の各々は、エレベータ1にて発生した音を取得するものである。マイクロホン13〜13は、取得した音の波形に対応するアナログ信号AS1,AS2,AS3をそれぞれ出力するものである。The microphone array device 4 includes a substantially cylindrical pedestal 11 and three microphones 13 1 to 133 3 mounted on a substantially circular mounting surface 12 included in the pedestal 11. Each of the microphones 131-134 3 is to obtain the sound generated by the elevator 1. The microphones 13 1 to 13 3 output analog signals AS1, AS2, and AS3 corresponding to the acquired sound waveforms, respectively.

ここで、マイクロホン13〜13は、載置面12の円周部に沿って略等間隔に配置されている。すなわち、マイクロホン13〜13は、カゴ3の昇降方向に対して略垂直な載置面12において、図示しない正三角形の各頂点に対応する位置に配置されている。これにより、マイクロホン13〜13間の間隔は、載置面12内における最大値に設定されている。Here, the microphones 13 1 to 13 3 are arranged at substantially equal intervals along the circumferential portion of the placement surface 12. That is, the microphones 13 1 to 13 3 are arranged at positions corresponding to the vertices of an equilateral triangle (not shown) on the placement surface 12 that is substantially perpendicular to the moving direction of the cage 3. Thus, the spacing between the microphones 131-134 3 is set to the maximum value in the mounting surface 12.

オーディオインタフェース装置5は、例えば、マルチチャネル入力に対応したアナログ‐デジタル変換回路を用いたものである。オーディオインタフェース装置5は、マイクロホン13〜13が出力したアナログ信号AS1,AS2,AS3を取得して、アナログ信号AS1,AS2,AS3をデジタル信号DS1,DS2,DS3にそれぞれ変換するものである。オーディオインタフェース装置5は、デジタル信号DS1,DS2,DS3の各々を劣化個所推定装置6に出力するものである。The audio interface device 5 uses, for example, an analog-digital conversion circuit that supports multi-channel input. Audio interface device 5 acquires the analog signal AS1, AS2, AS3 the microphone 131-134 3 has outputted, and converts each analog signal AS1, AS2, AS3 into digital signals DS1, DS2, DS3. The audio interface device 5 outputs each of the digital signals DS1, DS2, and DS3 to the degradation point estimation device 6.

具体的には、例えば、オーディオインタフェース装置5は、リニアPCM(Pulse Code Modulation)方式によりアナログ信号AS1,AS2,AS3をデジタル信号DS1,DS2,DS3に変換する。このとき、サンプリング周波数は例えば48キロヘルツ(kHz)に設定され、量子化ビット数は例えば16ビットに設定される。当該変換の結果、デジタル信号DS1,DS2,DS3の各々は複数個のフレームにより構成された信号となる。   Specifically, for example, the audio interface device 5 converts the analog signals AS1, AS2, and AS3 into digital signals DS1, DS2, and DS3 by a linear PCM (Pulse Code Modulation) method. At this time, the sampling frequency is set to 48 kilohertz (kHz), for example, and the number of quantization bits is set to 16 bits, for example. As a result of the conversion, each of the digital signals DS1, DS2, DS3 becomes a signal composed of a plurality of frames.

劣化個所推定装置6は、パーソナルコンピュータ(Personal Computer,PC)などのコンピュータにより構成されている。当該コンピュータは、入出力インタフェース21と、プロセッサ22と、メモリ23とを有している。   The degradation location estimation device 6 is configured by a computer such as a personal computer (PC). The computer has an input / output interface 21, a processor 22, and a memory 23.

入出力インタフェース21は、例えば、USB(Universal Serial Bus)端子及びLAN(Local Area Network)端子などにより構成されている。USB端子は、オーディオインタフェース装置5と通信自在に接続されている。LAN端子は、図示しないLANケーブルにより、エレベータ1用の図示しない制御装置と通信自在に接続されている。この制御装置は、当該コンピュータが出力した信号をエレベータ1の動作制御に用いるようになっている。   The input / output interface 21 includes, for example, a USB (Universal Serial Bus) terminal and a LAN (Local Area Network) terminal. The USB terminal is communicatively connected to the audio interface device 5. The LAN terminal is communicably connected to a control device (not shown) for the elevator 1 by a LAN cable (not shown). The control device uses a signal output from the computer for operation control of the elevator 1.

メモリ23は、オーディオインタフェース装置5が出力したデジタル信号DS1,DS2,DS3を一時的に記憶するものである。また、メモリ23には、当該コンピュータを図2に示す短時間フーリエ変換部31、時系列配列生成部32、ニューラルネットワーク部35及び判定部36として機能させるためのプログラムが記憶されている。メモリ23に記憶されたプログラムをプロセッサ22が読み出して実行することにより、図2に示す短時間フーリエ変換部31、時系列配列生成部32、ニューラルネットワーク部35及び判定部36の機能が実現される。そのほか、メモリ23は、当該プログラムにより計算された各種値などのデータを適宜記憶するようになっている。   The memory 23 temporarily stores the digital signals DS1, DS2, DS3 output from the audio interface device 5. The memory 23 stores a program for causing the computer to function as the short-time Fourier transform unit 31, the time-series array generation unit 32, the neural network unit 35, and the determination unit 36 illustrated in FIG. When the processor 22 reads and executes the program stored in the memory 23, the functions of the short-time Fourier transform unit 31, the time series array generation unit 32, the neural network unit 35, and the determination unit 36 shown in FIG. 2 are realized. . In addition, the memory 23 appropriately stores data such as various values calculated by the program.

プロセッサ22は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などにより構成されている。メモリ23は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read−Only Memory)などの半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクなどにより構成されている。   The processor 22 is configured by, for example, a CPU (Central Processing Unit), a microprocessor, a microcontroller, or a DSP (Digital Signal Processor). The memory 23 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Memory), or the like. An optical disk or a magneto-optical disk is used.

図2は、本発明の実施の形態1に係る劣化個所推定装置の要部を示す機能ブロック図である。図3Aは、本発明の実施の形態1に係る相互相関演算部により生成された相互相関スペクトログラムを示す説明図である。図3Bは、本発明の実施の形態1に係る自己相関演算部により生成された自己相関スペクトログラムを示す説明図である。図2及び図3を参照して、劣化個所推定装置6について説明する。   FIG. 2 is a functional block diagram showing the main part of the degradation point estimation apparatus according to Embodiment 1 of the present invention. FIG. 3A is an explanatory diagram showing a cross-correlation spectrogram generated by the cross-correlation calculating unit according to Embodiment 1 of the present invention. FIG. 3B is an explanatory diagram showing an autocorrelation spectrogram generated by the autocorrelation calculating unit according to Embodiment 1 of the present invention. With reference to FIG.2 and FIG.3, the degradation location estimation apparatus 6 is demonstrated.

短時間フーリエ変換部31は、オーディオインタフェース装置5が出力したデジタル信号(以下「マイク信号」という。)DS1,DS2,DS3を取得するものである。短時間フーリエ変換部31は、マイク信号DS1,DS2,DS3の各々に対する短時間フーリエ変換(Short−time Fourier Transform,STFT)を実行することにより、マイク信号DS1,DS2,DS3の各々に対応する短時間フーリエ変換係数の時系列を計算するものである。すなわち、各時系列は複数個の短時間フーリエ変換係数により構成されており、個々の短時間フーリエ変換係数は複素周波数スペクトルを示すものである。   The short-time Fourier transform unit 31 acquires digital signals (hereinafter referred to as “microphone signals”) DS1, DS2, DS3 output from the audio interface device 5. The short-time Fourier transform unit 31 performs a short-time Fourier transform (STFT) on each of the microphone signals DS1, DS2, and DS3, so that the short-time Fourier transform unit 31 corresponds to each of the microphone signals DS1, DS2, and DS3. A time series of time Fourier transform coefficients is calculated. That is, each time series is composed of a plurality of short-time Fourier transform coefficients, and each short-time Fourier transform coefficient indicates a complex frequency spectrum.

時系列配列生成部32は、短時間フーリエ変換部31が計算した短時間フーリエ変換係数の時系列を用いて、ニューラルネットワーク部35に対する入力用の時系列配列(以下、単に「時系列配列」ということがある。)を生成するものである。図2に示す例において、時系列配列生成部32は、相互相関演算部33及び自己相関演算部34により構成されている。   The time series array generation unit 32 uses the time series of the short-time Fourier transform coefficients calculated by the short-time Fourier transform unit 31 to input a time series array for input to the neural network unit 35 (hereinafter simply referred to as “time series array”). May be generated). In the example illustrated in FIG. 2, the time series array generation unit 32 includes a cross correlation calculation unit 33 and an autocorrelation calculation unit 34.

相互相関演算部33は、マイク信号DS1に対応する短時間フーリエ変換係数の時系列とマイク信号DS2に対応する短時間フーリエ変換係数の時系列とを用いて、マイク信号DS1,DS2間の相互相関スペクトルの時系列による時系列配列を生成するものである。また、相互相関演算部33は、マイク信号DS2に対応する短時間フーリエ変換係数の時系列とマイク信号DS3に対応する短時間フーリエ変換係数の時系列とを用いて、マイク信号DS2,DS3間の相互相関スペクトルの時系列による時系列配列を生成するものである。さらに、相互相関演算部33は、マイク信号DS3に対応する短時間フーリエ変換係数の時系列とマイク信号DS1に対応する短時間フーリエ変換係数の時系列とを用いて、マイク信号DS3,DS1間の相互相関スペクトルの時系列による時系列配列を生成するものである。   The cross-correlation calculating unit 33 uses the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS1 and the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS2 to cross-correlate between the microphone signals DS1 and DS2. A time-series arrangement based on a spectrum time-series is generated. The cross-correlation calculating unit 33 uses the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS2 and the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS3 to A time-series arrangement based on the time series of the cross-correlation spectrum is generated. Further, the cross-correlation calculating unit 33 uses the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS3 and the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS1 to between the microphone signals DS3 and DS1. A time-series arrangement based on the time series of the cross-correlation spectrum is generated.

以下、相互相関スペクトルの時系列による時系列配列を「相互相関スぺクトログラム」という。個々の相互相関スぺクトログラムは、第1次元を周波数に対応する方向(以下「周波数方向」という。)とし、かつ、第2次元をフレームに対応する方向(以下「フレーム方向」という。)とした2次元配列により表される。図3Aに、相互相関スペクトログラムの一例を示す。図3Aに示す相互相関スペクトログラムは、(W/2+1)行T列の2次元配列により表されている。ここで、Tはマイク信号DS1,DS2,DS3の各々を構成するフレーム数であり、Wは各フレームのフレーム長である。   Hereinafter, a time-series arrangement of time-series cross-correlation spectra is referred to as a “cross-correlation spectrogram”. In each cross-correlation spectrogram, the first dimension is a direction corresponding to a frequency (hereinafter referred to as “frequency direction”), and the second dimension is a direction corresponding to a frame (hereinafter referred to as “frame direction”). Represented by a two-dimensional array. FIG. 3A shows an example of a cross-correlation spectrogram. The cross-correlation spectrogram shown in FIG. 3A is represented by a two-dimensional array of (W / 2 + 1) rows and T columns. Here, T is the number of frames constituting each of the microphone signals DS1, DS2, and DS3, and W is the frame length of each frame.

自己相関演算部34は、マイク信号DS1に対応する短時間フーリエ変換係数の時系列を用いて、マイク信号DS1内の自己相関スペクトルの時系列による時系列配列を生成するものである。また、自己相関演算部34は、マイク信号DS2に対応する短時間フーリエ変換係数の時系列を用いて、マイク信号DS2内の自己相関スペクトルの時系列による時系列配列を生成するものである。さらに、自己相関演算部34は、マイク信号DS3に対応する短時間フーリエ変換係数の時系列を用いて、マイク信号DS3内の自己相関スペクトルの時系列による時系列配列を生成するものである。   The autocorrelation calculating unit 34 generates a time series array based on the time series of the autocorrelation spectrum in the microphone signal DS1 using the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS1. In addition, the autocorrelation calculation unit 34 generates a time series array based on the time series of the autocorrelation spectrum in the microphone signal DS2, using the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS2. Furthermore, the autocorrelation calculation unit 34 generates a time series array based on the time series of the autocorrelation spectrum in the microphone signal DS3 using the time series of the short-time Fourier transform coefficients corresponding to the microphone signal DS3.

以下、自己相関スペクトルの時系列による時系列配列を「自己相関スぺクトログラム」という。個々の自己相関スぺクトログラムは、第1次元を周波数方向とし、かつ、第2次元をフレーム方向とした2次元配列により表される。図3Bに、自己相関スペクトログラムの一例を示す。図3Bに示す自己相関スペクトログラムは、(W/2+1)行T列の2次元配列により表されている。   Hereinafter, the time series arrangement by the time series of the autocorrelation spectrum is referred to as “autocorrelation spectrogram”. Each autocorrelation spectrogram is represented by a two-dimensional array in which the first dimension is the frequency direction and the second dimension is the frame direction. FIG. 3B shows an example of an autocorrelation spectrogram. The autocorrelation spectrogram shown in FIG. 3B is represented by a two-dimensional array of (W / 2 + 1) rows and T columns.

ニューラルネットワーク部35は、いわゆる「ニューラルネットワーク」を用いたものである。ニューラルネットワーク部35におけるニューラルネットワーク(以下、単に「ニューラルネットワーク」ということがある。)は階層型であり、入力層と、中間層と、出力層とを有している。ニューラルネットワーク内の各層は、複数個のユニットにより構成されている。   The neural network unit 35 uses a so-called “neural network”. The neural network in the neural network unit 35 (hereinafter sometimes simply referred to as “neural network”) is a hierarchical type, and has an input layer, an intermediate layer, and an output layer. Each layer in the neural network is composed of a plurality of units.

入力層は、時系列配列生成部32により生成された複数個の時系列配列の入力を受け付けるものである。具体的には、例えば、入力層は、相互相関演算部33により生成された3個の相互相関スペクトログラムと、自己相関演算部34により生成された3個の自己相関スペクトログラムとの入力を受け付けるものである。   The input layer accepts input of a plurality of time series arrays generated by the time series array generation unit 32. Specifically, for example, the input layer receives inputs of three cross-correlation spectrograms generated by the cross-correlation calculation unit 33 and three auto-correlation spectrograms generated by the auto-correlation calculation unit 34. is there.

出力層に含まれる複数個のユニット(以下「出力ユニット」という。)は、エレベータ1における複数個の個所のうちの少なくとも一部の個所(以下「検査対象個所」という。)と一対一に対応している。個々の検査対象個所は、例えば、昇降路2内に設けられたカゴ3、可動部品、その他の各種機器のうちのいずれかに対応している。   A plurality of units included in the output layer (hereinafter referred to as “output units”) have a one-to-one correspondence with at least some of the plurality of locations in the elevator 1 (hereinafter referred to as “inspection target locations”). doing. Each location to be inspected corresponds to, for example, one of the basket 3 provided in the hoistway 2, movable parts, and other various devices.

ニューラルネットワークは、入力層に対して時系列配列が入力されたとき、個々の出力ユニットの出力値(いわゆる「活性度」)が、対応する検査対象個所における劣化の度合い(以下「劣化度」という。)を示すものとなるように、専用の訓練データを用いて予め訓練されたものである。すなわち、ニューラルネットワーク部35は、時系列配列生成部32により生成された時系列配列の入力に対して、検査対象個所の各々に対応する劣化度を出力するものである。   In a neural network, when a time-series arrangement is input to an input layer, the output value of each output unit (so-called “activity”) is a degree of deterioration at a corresponding inspection target location (hereinafter referred to as “deterioration degree”). .) Is previously trained using dedicated training data. In other words, the neural network unit 35 outputs the degree of deterioration corresponding to each of the inspection target portions in response to the input of the time series array generated by the time series array generation unit 32.

判定部36は、ニューラルネットワーク部35が出力した劣化度を用いて、複数個の検査対象個所の中に劣化個所が含まれているか否か、すなわちエレベータ1における劣化個所の有無を判定するものである。判定部36は、劣化個所が存在すると判定した場合、当該劣化個所と、当該劣化個所に対応する劣化度とを示す判定結果を出力するものである。他方、劣化個所が存在しないと判定した場合、判定部36は、その旨を示す判定結果を出力するものである。判定部36が出力した判定結果は、例えば、エレベータ1用の図示しない制御装置に入力される。   The determination unit 36 uses the degree of deterioration output from the neural network unit 35 to determine whether or not there are deterioration points in the plurality of inspection target points, that is, whether or not there is a deterioration point in the elevator 1. is there. If the determination unit 36 determines that there is a deteriorated part, the determination unit 36 outputs a determination result indicating the deteriorated part and the degree of deterioration corresponding to the deteriorated part. On the other hand, when it is determined that there is no deterioration portion, the determination unit 36 outputs a determination result indicating that fact. The determination result output from the determination unit 36 is input to a control device (not shown) for the elevator 1, for example.

短時間フーリエ変換部31、時系列配列生成部32、ニューラルネットワーク部35及び判定部36により、劣化個所推定装置6の要部が構成されている。   The short-time Fourier transform unit 31, the time series array generation unit 32, the neural network unit 35, and the determination unit 36 constitute a main part of the degradation point estimation device 6.

図4は、本発明の実施の形態1に係るニューラルネットワーク部におけるニューラルネットワークの構造を示す説明図である。図5は、図4に示すニューラルネットワーク内の入力層における3次元配列を示す説明図である。図6は、図4に示すニューラルネットワーク内の畳込み層における3次元配列を示す説明図である。図4〜図6を参照して、ニューラルネットワーク部35におけるニューラルネットワークについて説明する。   FIG. 4 is an explanatory diagram showing the structure of the neural network in the neural network unit according to the first embodiment of the present invention. FIG. 5 is an explanatory diagram showing a three-dimensional array in the input layer in the neural network shown in FIG. FIG. 6 is an explanatory diagram showing a three-dimensional arrangement in the convolution layer in the neural network shown in FIG. A neural network in the neural network unit 35 will be described with reference to FIGS.

図4に示す如く、ニューラルネットワークは、入力層と、中間層と、出力層とを有している。図4に示す例において、中間層は1個の畳込み層と2個の非線形層とにより構成されている。ニューラルネットワーク内の層数はL+1であり、各層には0からLまでの通し番号lが割り当てられている。すなわち、図4に示す例においてはL=4である。   As shown in FIG. 4, the neural network has an input layer, an intermediate layer, and an output layer. In the example shown in FIG. 4, the intermediate layer is composed of one convolution layer and two nonlinear layers. The number of layers in the neural network is L + 1, and a serial number l from 0 to L is assigned to each layer. That is, L = 4 in the example shown in FIG.

ニューラルネットワーク内の各層は、複数個のユニットにより構成されている。図中、白丸は個々のユニットを示している。各層に含まれる個々のユニットは、当該層に対する前層に含まれる複数個のユニットのうちの少なくとも一部である複数個のユニットとそれぞれ結合している。なお、各層の層内におけるユニット間の結合はない。ユニット間の結合の度合いは荷重係数Wにより表される。また、各ユニットは結合に係るバイアスBを有している。   Each layer in the neural network is composed of a plurality of units. In the figure, white circles indicate individual units. The individual units included in each layer are respectively coupled to a plurality of units that are at least part of the plurality of units included in the previous layer with respect to the layer. There is no coupling between the units in each layer. The degree of coupling between units is represented by a load factor W. Each unit also has a bias B for coupling.

以下、本明細書において、いわゆる「添字表記法」に倣い、原則、1文字のアルファベット大文字により任意のオブジェクトを表し、かつ、当該アルファベット大文字に続く1文字以上のアルファベット小文字(すなわち添え字)により当該オブジェクトに係る任意の要素を表すものとする。例えば、ニューラルネットワーク内の各層において、当該層に含まれるユニットを示すインデックスをkとし、当該層に対する前層に含まれるユニットを示すインデックスをiとする。層lに含まれるユニットkと層lに対する前層に含まれるユニットiとの結合の度合い示す荷重係数Wは、「Wlik」と表記される。層lに含まれるユニットkが有するバイアスBは、「Blk」と表記される。   Hereinafter, in this specification, following the so-called “subscript notation”, in principle, an arbitrary object is represented by a single alphabetic capital letter, and the alphabetic capital letter following that alphabetic capital letter (ie, a subscript) It represents any element related to the object. For example, in each layer in the neural network, an index indicating a unit included in the layer is k, and an index indicating a unit included in the previous layer with respect to the layer is i. The load coefficient W indicating the degree of coupling between the unit k included in the layer l and the unit i included in the previous layer with respect to the layer l is expressed as “Wlik”. The bias B included in the unit k included in the layer l is denoted as “Blk”.

ただし、添え字に対して対応する要素の値を代入した結果、添え字にアルファベット大文字、数字又は記号が含まれる場合もある。例えば、図4において、出力層l(l=L)に含まれるユニットkと非線形層l(l=L−1)に含まれるユニットiとの結合の度合いを示す荷重係数Wlikは、「WLik」と表記されている。非線形層l(l=L−1)に含まれるユニットkと非線形層l(l=2)に含まれるユニットiとの間の結合の度合いを示す荷重係数Wlikは、「WL−1ik」と表記されている。   However, as a result of substituting the value of the corresponding element for the subscript, the subscript may include uppercase letters, numbers, or symbols. For example, in FIG. 4, the load coefficient WLik indicating the degree of coupling between the unit k included in the output layer l (l = L) and the unit i included in the nonlinear layer l (l = L−1) is “WLik”. It is written. The load coefficient Wlik indicating the degree of coupling between the unit k included in the nonlinear layer l (l = L−1) and the unit i included in the nonlinear layer l (l = 2) is expressed as “WL-1ik”. Has been.

入力層は、互いに直交する第1次元及び第2次元に沿って複数個のユニットを配列してなる面(以下「2次元配列面」という。)が複数面積層された構造、すなわち2次元配列面の積層方向を第3次元とする3次元配列の構造を有している。入力層に含まれる2次元配列面は、ニューラルネットワーク部35に入力される複数個の時系列配列と一対一に対応するものである。すなわち、入力層に含まれる個々の2次元配列面には、対応する時系列配列が入力されるようになっている。   The input layer has a structure in which a plurality of units arranged along a first dimension and a second dimension orthogonal to each other (hereinafter referred to as a “two-dimensional array surface”) are layered, that is, a two-dimensional array. It has a three-dimensional array structure in which the surface stacking direction is the third dimension. The two-dimensional array plane included in the input layer has a one-to-one correspondence with a plurality of time-series arrays input to the neural network unit 35. That is, a corresponding time series array is input to each two-dimensional array surface included in the input layer.

図5に、入力層における3次元配列の一例を示す。図5に示す例において、入力層は、(W/2+1)行T列の2次元配列面が(M+COMBINATIONS(M,2))面積層された3次元配列の構造を有している。ここで、Mはマイクロホンアレイ装置4が有するマイクロホン13〜13の個数であり、COMBINATIONS(M,2)はM個の中から2個を選択する組合せの数を求める関数である。実施の形態1においては、M=3であり、COMBINATIONS(M,2)による組合せの数は3である。個々の2次元配列面には、相互相関演算部33により生成された3個の相互相関スペクトログラムのうちのいずれか一つ、又は自己相関演算部34により生成された3個の自己相関スペクトログラムのうちのいずれか一つが入力される。FIG. 5 shows an example of a three-dimensional array in the input layer. In the example shown in FIG. 5, the input layer has a three-dimensional array structure in which the (W + 2 + 1) rows and T columns two-dimensional array surfaces are (M + COMBINATIONS (M, 2)) area layers. Here, M is the number of microphones 13 1 to 13 3 included in the microphone array device 4, and COMBINATIONS (M, 2) is a function for obtaining the number of combinations for selecting two of the M. In the first embodiment, M = 3, and the number of combinations according to COMBINATIONS (M, 2) is three. Each two-dimensional array surface has one of the three cross-correlation spectrograms generated by the cross-correlation calculating unit 33 or three auto-correlation spectrograms generated by the auto-correlation calculating unit 34. Any one of is input.

畳込み層は、入力層内の3次元領域Ωgtfに対する畳込み演算を実行するものである。図4に示す如く、3次元領域Ωgtfには複数個のユニットが含まれている。ここで、添え字gは3次元領域Ω内の各ユニットが配置された2次元配列面を示すインデックス、添え字tは3次元領域Ω内の各ユニットに対応するフレームを示すインデックス、添え字fは3次元領域Ω内の各ユニットに対応する周波数を示すインデックスである。   The convolution layer performs a convolution operation on the three-dimensional region Ωgtf in the input layer. As shown in FIG. 4, the three-dimensional region Ωgtf includes a plurality of units. Here, the subscript g is an index indicating a two-dimensional array surface on which each unit in the three-dimensional region Ω is arranged, the subscript t is an index indicating a frame corresponding to each unit in the three-dimensional region Ω, and the subscript f Is an index indicating the frequency corresponding to each unit in the three-dimensional region Ω.

図6に、畳込み層における3次元配列の一例を示す。図6に示す例において、畳込み層は、((W/2+1)/DF)行(T/DT)列の2次元配列面がD面積層された3次元配列の構造を有している。すなわち、畳込み層に含まれる個々の2次元配列面は、入力層に含まれる個々の2次元配列面をフレーム方向及び周波数方向に対してダウンサンプリングしてなる形状を有している。ここで、DTはフレーム方向に対する間引き間隔であり、DFは周波数方向に対する間引き間隔である。DTの値が1であれば、フレーム方向の間引きはなく、DTの値がD(Dは2以上の整数)であれば、D−1間隔にてダウンサンプリングされることを示している。同様に、DFの値が1であれば、周波数方向の間引きはなく、DFの値がD(Dは2以上の整数)であれば、D−1間隔にてダウンサンプリングされることを示している。畳込み層に含まれる2次元配列面は、畳込み演算により得られる特徴d(d=1,…,D)と一対一に対応している。   FIG. 6 shows an example of a three-dimensional arrangement in the convolution layer. In the example shown in FIG. 6, the convolution layer has a three-dimensional array structure in which a two-dimensional array surface of ((W / 2 + 1) / DF) rows (T / DT) columns is a D area layer. That is, each two-dimensional array surface included in the convolution layer has a shape obtained by down-sampling each two-dimensional array surface included in the input layer in the frame direction and the frequency direction. Here, DT is a thinning interval in the frame direction, and DF is a thinning interval in the frequency direction. If the value of DT is 1, there is no decimation in the frame direction, and if the value of DT is D (D is an integer of 2 or more), it indicates that downsampling is performed at intervals of D-1. Similarly, if the value of DF is 1, there is no decimation in the frequency direction, and if the value of DF is D (D is an integer of 2 or more), it indicates that downsampling is performed at an interval of D-1. Yes. The two-dimensional array plane included in the convolution layer has a one-to-one correspondence with the feature d (d = 1,..., D) obtained by the convolution operation.

ニューラルネットワーク部35による処理の途中において、畳込み層におけるユニットの配列形状は、3次元配列から1次元配列(すなわちベクトル)に変換される。畳込み層よりも後の各層(l=2,…,L)は、複数個のユニットによる1次元配列の構造を有している。   During the processing by the neural network unit 35, the arrangement shape of the units in the convolution layer is converted from a three-dimensional arrangement to a one-dimensional arrangement (that is, a vector). Each layer (l = 2,..., L) after the convolution layer has a one-dimensional array structure of a plurality of units.

2個の非線形層の各々は、複数個のユニットによる1次元配列の構造を有している。非線形層に含まれる個々のユニットは、非線形な出力関数を有している。この出力関数には、例えば、シグモイド(SIGMOID)関数又はTANH関数などが用いられる。   Each of the two nonlinear layers has a one-dimensional arrangement of a plurality of units. Each unit included in the nonlinear layer has a nonlinear output function. As this output function, for example, a sigmoid function or a TANH function is used.

出力層は、複数個の出力ユニットによる1次元配列の構造を有している。上記のとおり、出力ユニットはエレベータ1における検査対象個所と一対一に対応している。ニューラルネットワークは、個々の出力ユニットの活性度が、対応する検査対象個所における劣化度を示すものとなるように予め訓練されたものである。   The output layer has a one-dimensional array structure with a plurality of output units. As described above, the output unit has a one-to-one correspondence with the inspection target portion in the elevator 1. The neural network is trained in advance so that the activity of each output unit indicates the degree of deterioration at the corresponding inspection target location.

次に、図7のフローチャートを参照して、劣化個所推定装置6の動作について説明する。   Next, the operation of the degradation point estimation device 6 will be described with reference to the flowchart of FIG.

エレベータ1の運転中、オーディオインタフェース装置5は、マイクロホン13〜13が出力したアナログ信号AS1,AS2,AS3を取得し、アナログ信号AS1,AS2,AS3をデジタル信号DS1,DS2,DS3に変換し、デジタル信号DS1,DS2,DS3を劣化個所推定装置6に出力する処理を継続して実行する。オーディオインタフェース装置5が出力したデジタル信号DS1,DS2,DS3は、メモリ23に一時的に記憶される。劣化個所推定装置6は、メモリ23に記憶されたデジタル信号DS1,DS2,DS3、すなわちマイク信号DS1,DS2,DS3に対して、以下のステップST1〜ST4の処理を実行する。During operation of the elevator 1, the audio interface unit 5 acquires the analog signal AS1, AS2, AS3 the microphone 131-134 3 has outputted, and converts the analog signal AS1, AS2, AS3 into digital signals DS1, DS2, DS3 Then, the process of outputting the digital signals DS1, DS2, DS3 to the degradation point estimation device 6 is continuously executed. Digital signals DS 1, DS 2, DS 3 output from the audio interface device 5 are temporarily stored in the memory 23. The degradation point estimation device 6 performs the following steps ST1 to ST4 on the digital signals DS1, DS2, DS3 stored in the memory 23, that is, the microphone signals DS1, DS2, DS3.

まず、ステップST1にて、短時間フーリエ変換部31は、メモリ23に記憶されたマイク信号DS1,DS2,DS3を取得する。短時間フーリエ変換部31は、マイク信号DS1,DS2,DS3の各々に対する短時間フーリエ変換を実行することにより、マイク信号DS1,DS2,DS3の各々に対応する短時間フーリエ変換係数の時系列を計算する。各時系列は複数個の短時間フーリエ変換係数により構成されており、個々の短時間フーリエ変換係数は複素周波数スペクトルを示している。   First, in step ST1, the short-time Fourier transform unit 31 acquires the microphone signals DS1, DS2, DS3 stored in the memory 23. The short-time Fourier transform unit 31 calculates a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals DS1, DS2, and DS3 by executing a short-time Fourier transform on each of the microphone signals DS1, DS2, and DS3. To do. Each time series is composed of a plurality of short-time Fourier transform coefficients, and each short-time Fourier transform coefficient indicates a complex frequency spectrum.

次いで、ステップST2にて、時系列配列生成部32は、短時間フーリエ変換部31がステップST1で計算した短時間フーリエ変換係数の時系列を用いて、複数個の時系列配列を生成する。具体的には、例えば、時系列配列生成部32は、マイク信号DS1,DS2間の相互相関スペクトログラムと、マイク信号DS2,DS3間の相互相関スペクトログラムと、マイク信号DS3,DS1間の相互相関スペクトログラムと、マイク信号DS1内の自己相関スペクトログラムと、マイク信号DS2内の自己相関スペクトログラムと、マイク信号DS3内の自己相関スペクトログラムとを生成する。   Next, in step ST2, the time series array generation unit 32 generates a plurality of time series arrays using the time series of the short time Fourier transform coefficients calculated by the short time Fourier transform unit 31 in step ST1. Specifically, for example, the time series array generation unit 32 includes a cross-correlation spectrogram between the microphone signals DS1 and DS2, a cross-correlation spectrogram between the microphone signals DS2 and DS3, and a cross-correlation spectrogram between the microphone signals DS3 and DS1. The autocorrelation spectrogram in the microphone signal DS1, the autocorrelation spectrogram in the microphone signal DS2, and the autocorrelation spectrogram in the microphone signal DS3 are generated.

次いで、ステップST3にて、ニューラルネットワーク部35は、時系列配列生成部32がステップST2で生成した複数個の時系列配列の入力を受け付ける。ニューラルネットワーク部35は、時系列配列の入力に対して、検査対象個所の各々に対応する劣化度を出力する。   Next, in step ST3, the neural network unit 35 receives an input of a plurality of time series arrays generated by the time series array generation unit 32 in step ST2. The neural network unit 35 outputs a degree of deterioration corresponding to each of the inspection target portions in response to the time-series array input.

次いで、ステップST4にて、判定部36は、ニューラルネットワーク部35がステップST3で出力した劣化度を用いて、エレベータ1における劣化個所の有無を判定する。判定部36は、劣化個所が存在すると判定した場合、当該劣化個所と、当該劣化個所に対応する劣化度とを示す判定結果を出力する。他方、劣化個所が存在しないと判定した場合、判定部36は、その旨を示す判定結果を出力する。   Next, in step ST4, the determination unit 36 determines the presence / absence of a deterioration portion in the elevator 1 using the deterioration degree output by the neural network unit 35 in step ST3. If the determination unit 36 determines that a deterioration location exists, the determination unit 36 outputs a determination result indicating the deterioration location and the degree of deterioration corresponding to the deterioration location. On the other hand, when it is determined that there is no deterioration portion, the determination unit 36 outputs a determination result indicating that fact.

次に、図8のフローチャートを参照して、図7に示すステップST1の処理、すなわち短時間フーリエ変換部31による処理の詳細について説明する。   Next, the details of the process of step ST1 shown in FIG. 7, that is, the process by the short-time Fourier transform unit 31, will be described with reference to the flowchart of FIG.

まず、短時間フーリエ変換部31は、メモリ23に記憶されたマイク信号DS1,DS2,DS3を取得する(ステップST11)。   First, the short-time Fourier transform unit 31 acquires the microphone signals DS1, DS2, DS3 stored in the memory 23 (step ST11).

次いで、短時間フーリエ変換部31は、マイクロホン13〜13のうちのいずれか1個のマイクロホンを選択する(ステップST12)。以下、選択されたマイクロホンを示す番号をm(mは0≦m<Mを満たす整数)とする。短時間フーリエ変換部31は、選択したマイクロホンmに対応するマイク信号について、以下のステップST13〜ST18の処理を実行する。ここでは、一例としてm=0に対応するマイクロホン13が選択されたものとする。Next, the short-time Fourier transform unit 31 selects any one of the microphones 13 1 to 13 3 (step ST12). Hereinafter, the number indicating the selected microphone is m (m is an integer satisfying 0 ≦ m <M). The short-time Fourier transform unit 31 performs the following steps ST13 to ST18 on the microphone signal corresponding to the selected microphone m. Here, it is assumed that the microphone 13 1 corresponding to m = 0 as an example has been selected.

なお、マイクロホンmに対応するマイク信号はT個のフレームにより構成されており、各フレームを示す番号をtとする。また、当該マイク信号における信号列をg(m,i)と表記する。ここで、iは信号列gにおける離散時刻インデックスを示しており、0≦i<NS(NSは集音サンプル数)を満たす整数である。短時間フーリエ変換部31は、フレームtの各々について(ステップST13)、以下のステップST14〜T18の処理を実行する。   The microphone signal corresponding to the microphone m is composed of T frames, and the number indicating each frame is t. In addition, a signal string in the microphone signal is expressed as g (m, i). Here, i represents a discrete time index in the signal sequence g, and is an integer that satisfies 0 ≦ i <NS (NS is the number of sound collection samples). The short-time Fourier transform unit 31 performs the following steps ST14 to T18 for each frame t (step ST13).

まず、短時間フーリエ変換部31は、選択したマイクロホン13に対応するマイク信号DS1に対して、フレーム番号tが1増加するごとに、フレーム位置をLF点ずつ移動し(ステップST14)、フレーム番号tに対応するフレーム位置にてフレームを切り出す(ステップST15)。ステップST14,ST15の処理は、例えば、以下の式(1)により実現される。First, short-time Fourier transform unit 31, with respect to the microphone signal DS1 corresponding to the microphone 13 1 selected, each time the frame number t is increased by one, to move the frame position by LF point (step ST14), the frame number A frame is cut out at a frame position corresponding to t (step ST15). The processing of steps ST14 and ST15 is realized by the following equation (1), for example.

frame(i)
=g(m,t×LF+i) (i=0,1,2,…,W−1) (1)
frame (i)
= G (m, t × LF + i) (i = 0, 1, 2,..., W−1) (1)

ここで、Wは各フレームのフレーム長であり、LFはフレームの移動量である。実施の形態1においては、W=1024、LF=512に設定されている。   Here, W is the frame length of each frame, and LF is the amount of movement of the frame. In the first embodiment, W = 1024 and LF = 512 are set.

次いで、短時間フーリエ変換部31は、切り出されたフレームを示す信号に対して時間窓を乗算する(ステップST16)。ステップST16の処理は、例えば、以下の式(2)により実現される。   Next, the short-time Fourier transform unit 31 multiplies the signal indicating the extracted frame by a time window (step ST16). The process of step ST16 is realized by the following equation (2), for example.

x(i)
=frame(i)×window(i) (i=0,1,2,…,W−1)
window(i)
=0.54−0.46cos(2πi/(W−1)) (2)
x (i)
= Frame (i) × window (i) (i = 0, 1, 2,..., W−1)
window (i)
= 0.54-0.46 cos (2πi / (W-1)) (2)

ここで、window(i)は時間窓関数である。上記式(2)の例においては、ハミング窓関数を用いている。   Here, window (i) is a time window function. In the example of the above formula (2), a Hamming window function is used.

次いで、短時間フーリエ変換部31は、窓関数の乗算により得られた数列x(i)に対して高速フーリエ変換(Fast Fourier Transform,FFT)を実行する(ステップST17)。ステップST17の処理は、例えば、以下の式(3)により実現される。   Next, the short-time Fourier transform unit 31 performs a fast Fourier transform (FFT) on the sequence x (i) obtained by the multiplication of the window function (step ST17). The process of step ST17 is realized by the following equation (3), for example.

Zf=FFT(x[0:W]) (f=0,1,2,…,W−1) (3)   Zf = FFT (x [0: W]) (f = 0, 1, 2,..., W−1) (3)

ここで、Zfは複素周波数スペクトルを表し、x[0:W]は数列[x(0),x(1),…,x(W−1)]を表している。また、FFT(x)は、数列xに対して高速フーリエ変換を実行するFFT演算関数を表している。   Here, Zf represents a complex frequency spectrum, and x [0: W] represents a sequence [x (0), x (1),..., X (W−1)]. FFT (x) represents an FFT operation function that performs a fast Fourier transform on the sequence x.

次いで、短時間フーリエ変換部31は、複素周波数スペクトルZfの実部と虚部とを分離して、メモリ23に記憶させる(ステップST18)。ステップST18の処理は、例えば、以下の式(4)により実現される。   Next, the short-time Fourier transform unit 31 separates the real part and the imaginary part of the complex frequency spectrum Zf and stores them in the memory 23 (step ST18). The process of step ST18 is realized by the following equation (4), for example.

Xmtf=Re(Zf) (0≦f≦W/2)
Ymtf=Im(Zf) (0≦f≦W/2) (4)
Xmtf = Re (Zf) (0 ≦ f ≦ W / 2)
Ymtf = Im (Zf) (0 ≦ f ≦ W / 2) (4)

ここで、Xmtfはマイクロホンm、フレームt、周波数fにおける複素周波数スペクトルZfの実部を表し、Ymtfはマイクロホンm、フレームt、周波数fにおける複素周波数スペクトルZfの虚部を表している。また、Re(c)は複素数c=a+bjの実部aを抽出する関数であり、Im(c)は複素数c=a+bjの虚部bを抽出する関数である。また、jは虚数単位であり、−1の平方根(すなわちj**2=−1。ただし**はべき乗演算子)である。   Here, Xmtf represents the real part of the complex frequency spectrum Zf at the microphone m, frame t, and frequency f, and Ymtf represents the imaginary part of the complex frequency spectrum Zf at the microphone m, frame t, and frequency f. Re (c) is a function for extracting the real part a of the complex number c = a + bj, and Im (c) is a function for extracting the imaginary part b of the complex number c = a + bj. Further, j is an imaginary unit and is a square root of −1 (that is, j ** 2 = −1, where ** is a power operator).

なお、上記式(3)に示す如くFFT演算の入力が実数の数列であるため、Zfの実部はfに関して偶対称性Xmtf=XmtW−fを有し、Zfの虚部はfに関して奇対称性Ymtf=−YmtW−fを有する。そこで、短時間フーリエ変換部31は、冗長なf>W/2の部分を切り捨て、0≦f≦W/2の部分のみをメモリ23に記憶させる。   Since the input of the FFT operation is a real number sequence as shown in the above equation (3), the real part of Zf has even symmetry Xmtf = XmtW−f with respect to f, and the imaginary part of Zf has odd symmetry with respect to f. Ymtf = −YmtW−f. Therefore, the short-time Fourier transform unit 31 truncates the redundant portion of f> W / 2 and stores only the portion of 0 ≦ f ≦ W / 2 in the memory 23.

短時間フーリエ変換部31は、残余のマイクロホン13,13に対応するマイク信号DS2,DS3の各々について(ステップST12)、上記と同様のステップST13〜ST18の処理を実行する。この結果、メモリ23には、マイク信号DS1,DS2,DS3の各々に対応する複素周波数スペクトルZfの時系列、すなわち短時間フーリエ変換係数の時系列が記憶された状態となる。Short-time Fourier transform unit 31, the microphone signal DS2, DS3 For each of (step ST12) corresponding to the microphone 13 2, 13 3 of the residual executes processing similar to the above steps ST13~ST18. As a result, the memory 23 stores the time series of the complex frequency spectrum Zf corresponding to each of the microphone signals DS1, DS2, and DS3, that is, the time series of the short-time Fourier transform coefficients.

次に、図9のフローチャートを参照して、図7に示すステップST2の処理のうち、相互相関演算部33による処理の詳細について説明する。   Next, with reference to the flowchart of FIG. 9, the detail of the process by the cross correlation calculating part 33 among the processes of step ST2 shown in FIG. 7 is demonstrated.

まず、相互相関演算部33は、マイクロホン13〜13のうちのいずれか2個のマイクロホンの組合せを選択する(ステップST21)。以下、選択された2個のマイクロホンのうちの一方のマイクロホンを示す番号をmとし、他方のマイクロホンを示す番号をnとする。m,nの各々は、0≦m<n<Mを満たす整数である。First, the cross-correlation calculating unit 33 selects a combination of any two microphones among the microphones 13 1 to 13 3 (step ST21). Hereinafter, it is assumed that a number indicating one of the two selected microphones is m, and a number indicating the other microphone is n. Each of m and n is an integer satisfying 0 ≦ m <n <M.

相互相関演算部33は、選択したマイクロホンm,nの各々に対応する複素周波数スペクトルの時系列について、以下のステップST22〜ST25の処理を実行する。すなわち、相互相関演算部33は、フレームtの各々について(ステップST22)、以下のステップST23〜ST25の処理を実行する。   The cross-correlation calculating unit 33 executes the following processes of steps ST22 to ST25 for the time series of the complex frequency spectrum corresponding to each of the selected microphones m and n. That is, the cross-correlation calculating unit 33 performs the following steps ST23 to ST25 for each frame t (step ST22).

まず、相互相関演算部33は、マイクロホンmに対応する複素周波数スペクトルの実部Xmtf及び虚部Ymtfと、マイクロホンnに対応する複素周波数スペクトルの実部Xntf及び虚部Yntfとをメモリ23から取得する。相互相関演算部33は、マイクロホンmに対応する複素周波数スペクトルとマイクロホンnに対応する複素周波数スペクトルとの乗算により、複素相互相関スペクトルCfを計算する(ステップST23)。ステップST23の処理は、例えば、以下の式(5)により実現される。   First, the cross-correlation calculating unit 33 acquires the real part Xmtf and the imaginary part Ymtf of the complex frequency spectrum corresponding to the microphone m and the real part Xntf and the imaginary part Yntf of the complex frequency spectrum corresponding to the microphone n from the memory 23. . The cross-correlation calculating unit 33 calculates a complex cross-correlation spectrum Cf by multiplying the complex frequency spectrum corresponding to the microphone m and the complex frequency spectrum corresponding to the microphone n (step ST23). The process of step ST23 is realized by the following equation (5), for example.

Cf=(Xmtf*Xntf+Ymtf*Yntf)
+(Xmtf*Yntf−Ymtf*Xntf)j (5)
Cf = (Xmtf * Xntf + Ymtf * Yntf)
+ (Xmtf * Yntf-Ymtf * Xntf) j (5)

次いで、相互相関演算部33は、複素相互相関スペクトルCfの絶対値を取り、当該絶対値を対数に変換することによりデシベル値(dB値)を取る。これにより、複素相互相関スペクトルCfが強度に変換されて(ステップST24)、ダイナミックレンジが圧縮される。ステップST24の処理は、例えば、以下の式(6)により実現される。   Next, the cross-correlation calculating unit 33 takes the absolute value of the complex cross-correlation spectrum Cf and takes the decibel value (dB value) by converting the absolute value into a logarithm. As a result, the complex cross-correlation spectrum Cf is converted into intensity (step ST24), and the dynamic range is compressed. The process of step ST24 is implement | achieved by the following formula | equation (6), for example.

Hf=10*LOG10(ABS(Cf)) (0≦f≦W/2) (6)   Hf = 10 * LOG10 (ABS (Cf)) (0 ≦ f ≦ W / 2) (6)

ここで、Hfは相互相関スペクトルの強度、LOG10(x)は常用対数関数、ABS(c)は絶対値関数である。絶対値関数は、複素数c=a+bj(a,bは実数、jは虚数単位)に対して、絶対値をSQRT(a**2+b**2)(SQRTは平方根関数)により計算する関数である。   Here, Hf is the intensity of the cross-correlation spectrum, LOG10 (x) is a common logarithmic function, and ABS (c) is an absolute value function. The absolute value function is a function for calculating an absolute value by SQRT (a ** 2 + b ** 2) (SQRT is a square root function) for a complex number c = a + bj (a and b are real numbers and j is an imaginary unit). .

メモリ23には、組合せ(m,n)に対応する相互相関スペクトルHfの時系列による時系列配列、すなわち相互相関スペクトログラムHmntfを記憶するための領域が用意されている。相互相関演算部33は、計算したHfを当該領域のうちのフレームtに対応するアドレスに記憶させる(ステップST25)。ステップST25の処理は、例えば、以下の式(7)により実現される。   In the memory 23, an area for storing a time-series arrangement of the cross-correlation spectrum Hf corresponding to the combination (m, n) in time series, that is, a cross-correlation spectrogram Hmntf is prepared. The cross correlation calculation unit 33 stores the calculated Hf at an address corresponding to the frame t in the region (step ST25). The process of step ST25 is implement | achieved by the following formula | equation (7), for example.

Hmntf=Hf (0≦f≦W/2) (7)   Hmntf = Hf (0 ≦ f ≦ W / 2) (7)

相互相関演算部33は、すべてのフレームtについて上記ステップST23〜ST25の処理が終了すると、次の組合せ(m,n)について上記ステップST22〜ST25の処理を実行する(ステップST21)。最終的に、相互相関演算部33は、すべての組合せ(m,n)について上記ステップST22〜ST25の処理を実行する。   When the processing of steps ST23 to ST25 is completed for all frames t, the cross-correlation calculating unit 33 executes the processing of steps ST22 to ST25 for the next combination (m, n) (step ST21). Finally, the cross-correlation calculating unit 33 executes the processes of steps ST22 to ST25 for all combinations (m, n).

以上の処理の結果、メモリ23には、マイク信号DS1,DS2間の相互相関スペクトルの時系列、マイク信号DS2,DS3間の相互相関スペクトルの時系列、及びマイク信号DS3,DS1間の相互相関スペクトルの時系列が記憶された状態、すなわち各時系列による相互相関スペクトログラムHmntfが記憶された状態となる。個々の相互相関スペクトログラムHmntfは、以下の式(8)を満たすものである。   As a result of the above processing, the memory 23 stores the time series of the cross-correlation spectrum between the microphone signals DS1 and DS2, the time series of the cross-correlation spectrum between the microphone signals DS2 and DS3, and the cross-correlation spectrum between the microphone signals DS3 and DS1. Is stored, that is, a cross-correlation spectrogram Hmntf for each time series is stored. Each cross-correlation spectrogram Hmntf satisfies the following formula (8).

Hmntf (0≦m<n<M,0≦t<T,0≦f≦W/2) (8) Hmntf (0 ≦ m <n <M, 0 ≦ t <T, 0 ≦ f ≦ W / 2) (8)

次に、図10のフローチャートを参照して、図7に示すステップST2の処理のうち、自己相関演算部34による処理の詳細について説明する。   Next, with reference to the flowchart of FIG. 10, the details of the process by the autocorrelation calculation unit 34 in the process of step ST2 shown in FIG. 7 will be described.

まず、自己相関演算部34は、マイクロホン13〜13のうちのいずれか1個のマイクロホンを選択する(ステップST31)。以下、選択されたマイクロホンを示す番号をm(mは0≦m<Mを満たす整数)とする。First, the autocorrelation calculating unit 34 selects any one of the microphones 13 1 to 13 3 (step ST31). Hereinafter, the number indicating the selected microphone is m (m is an integer satisfying 0 ≦ m <M).

自己相関演算部34は、選択したマイクロホンmに対応する複素周波数スペクトルの時系列について、以下のステップST32〜ST35の処理を実行する。すなわち、自己相関演算部34は、フレームtの各々について(ステップST32)、以下のステップST33〜ST35の処理を実行する。   The autocorrelation calculation unit 34 performs the following processes of steps ST32 to ST35 on the time series of the complex frequency spectrum corresponding to the selected microphone m. That is, the autocorrelation calculating unit 34 performs the following steps ST33 to ST35 for each frame t (step ST32).

まず、自己相関演算部34は、マイクロホンmに対応する複素周波数スペクトルの実部Xmtf及び虚部Ymtfをメモリ23から取得する。自己相関演算部34は、マイクロホンmに対応する複素周波数スペクトルと、この複素周波数スぺクトルの複素共役との乗算により、自己相関スペクトルAfを計算する(ステップST33)。ステップST33の処理は、例えば、以下の式(9)により実現される。なお、フーリエ変換の理論により自己相関スペクトルAfの虚数部は0となるため、式(9)において当該虚数部の計算は省略している。   First, the autocorrelation calculating unit 34 acquires the real part Xmtf and the imaginary part Ymtf of the complex frequency spectrum corresponding to the microphone m from the memory 23. The autocorrelation calculating unit 34 calculates the autocorrelation spectrum Af by multiplying the complex frequency spectrum corresponding to the microphone m and the complex conjugate of the complex frequency spectrum (step ST33). The process of step ST33 is realized by the following equation (9), for example. In addition, since the imaginary part of the autocorrelation spectrum Af is 0 according to the theory of Fourier transform, the calculation of the imaginary part is omitted in Equation (9).

Af
=Xmtf*Xmtf+Ymtf*Ymtf (0≦f≦W/2) (9)
Af
= Xmtf * Xmtf + Ymtf * Ymtf (0 ≦ f ≦ W / 2) (9)

次いで、自己相関演算部34は、自己相関スペクトルAfの絶対値を取り、当該絶対値を対数に変換することによりデシベル値(dB値)を取る。これにより、自己相関スペクトルAfが強度Gfに変換されて(ステップST34)、ダイナミックレンジが圧縮される。ステップST34の処理は、例えば、以下の式(10)により実現される。   Next, the autocorrelation calculation unit 34 takes an absolute value of the autocorrelation spectrum Af, and takes the decibel value (dB value) by converting the absolute value into a logarithm. Thereby, the autocorrelation spectrum Af is converted into the intensity Gf (step ST34), and the dynamic range is compressed. The process of step ST34 is realized by the following equation (10), for example.

Gf
=10*LOG10(ABS(Af)) (0≦f≦W/2) (10)
Gf
= 10 * LOG10 (ABS (Af)) (0 ≦ f ≦ W / 2) (10)

メモリ23には、マイクロホンmに対応する自己相関スペクトルの時系列による時系列配列、すなわち自己相関スペクトログラムGmtfを記憶するための領域が用意されている。自己相関演算部34は、計算したGfを当該領域のうちのフレームtに対応するアドレスに記憶させる(ステップST35)。ステップST35の処理は、例えば、以下の式(11)により実現される。   The memory 23 is provided with an area for storing a time-series arrangement of the autocorrelation spectrum corresponding to the microphone m, that is, an autocorrelation spectrogram Gmtf. The autocorrelation calculating unit 34 stores the calculated Gf at an address corresponding to the frame t in the region (step ST35). The process of step ST35 is implement | achieved by the following formula | equation (11), for example.

Gmtf=Gf (0≦f≦W/2) (11)   Gmtf = Gf (0 ≦ f ≦ W / 2) (11)

自己相関演算部34は、すべてのフレームtについて上記ステップST33〜ST35の処理が終了すると、次のマイクロホンmについて上記ステップST32〜ST35の処理を実行する(ステップST31)。最終的に、自己相関演算部34は、すべてのマイクロホンmについて上記ステップST32〜ST35の処理を実行する。   When the processing of steps ST33 to ST35 is completed for all frames t, autocorrelation calculation unit 34 executes the processing of steps ST32 to ST35 for the next microphone m (step ST31). Finally, the autocorrelation calculating unit 34 executes the processes of steps ST32 to ST35 for all the microphones m.

以上の処理の結果、メモリ23には、マイク信号DS1内の自己相関スペクトルの時系列、マイク信号DS2内の自己相関スペクトルの時系列、及びマイク信号DS3内の自己相関スペクトルの時系列が記憶された状態、すなわち各時系列による自己相関スペクトログラムGmtfが記憶された状態となる。個々の自己相関スペクトログラムGmtfは、以下の式(12)を満たすものである。   As a result of the above processing, the memory 23 stores the time series of the autocorrelation spectrum in the microphone signal DS1, the time series of the autocorrelation spectrum in the microphone signal DS2, and the time series of the autocorrelation spectrum in the microphone signal DS3. In other words, the autocorrelation spectrogram Gmtf for each time series is stored. Each autocorrelation spectrogram Gmtf satisfies the following expression (12).

Gmtf (0≦m<M,0≦t<T,0≦f≦W/2) (12)   Gmtf (0 ≦ m <M, 0 ≦ t <T, 0 ≦ f ≦ W / 2) (12)

次に、図4〜図6と図11のフローチャートとを参照して、図7に示すステップST3の処理、すなわちニューラルネットワーク部35による処理の詳細について説明する。   Next, with reference to FIGS. 4 to 6 and the flowchart of FIG. 11, the details of the process of step ST3 shown in FIG.

まず、ニューラルネットワーク部35は、複数個(実施の形態1においては3個)の相互相関スペクトログラムHmntf及び複数個(実施の形態1においては3個)の自己相関スペクトログラムGmtfをメモリ23から取得する。ニューラルネットワーク部35は、相互相関スペクトログラムHmntfの各々に対応する2次元配列面と自己相関スペクトログラムGmtfの各々に対応する2次元配列面とが積層された3次元配列、すなわち図5に示す3次元配列を生成する(ステップST41)。ステップST41の処理は、例えば、以下の式(13)に従いメモリ23に値を書き込むことで実現される。   First, the neural network unit 35 acquires a plurality (three in the first embodiment) cross-correlation spectrograms Hmntf and a plurality (three in the first embodiment) autocorrelation spectrograms Gmtf from the memory 23. The neural network unit 35 is a three-dimensional array in which a two-dimensional array surface corresponding to each of the cross-correlation spectrograms Hmntf and a two-dimensional array surface corresponding to each of the autocorrelation spectrograms Gmtf are stacked, that is, the three-dimensional array shown in FIG. Is generated (step ST41). The process of step ST41 is realized by writing a value in the memory 23 according to the following equation (13), for example.

g←0
for m such that 0≦m<M:
Egtf=Gmtf (0≦f≦W/2)
g←g+1
for m such that 0≦m<M−1:
for m such that m<n<M:
Egtf=Hmntf (0≦f≦W/2)
g←g+1 (13)
g ← 0
for much that 0 ≦ m <M:
Egtf = Gmtf (0 ≦ f ≦ W / 2)
g ← g + 1
for much that 0 ≦ m <M−1:
for m such that m <n <M:
Egtf = Hmntf (0 ≦ f ≦ W / 2)
g ← g + 1 (13)

ここで、Egtfは、周波数f、フレームt、及び2次元配列面gに対応する3次元配列の値である。ニューラルネットワーク部35は、生成した3次元配列をニューラルネットワークの入力層に入力する。   Here, Egtf is a value of a three-dimensional array corresponding to the frequency f, the frame t, and the two-dimensional array surface g. The neural network unit 35 inputs the generated three-dimensional array to the input layer of the neural network.

次いで、ニューラルネットワーク部35は、入力層内の各ユニットの活性度から、畳込み層内の対応するユニットの活性度をそれぞれ計算する(ステップST42)。このとき、畳込み層は、入力層内の3次元領域Ωgtfに対して畳込み演算を実行する。ステップST42の処理は、例えば、以下の式(14)により実現される。   Next, the neural network unit 35 calculates the activity of the corresponding unit in the convolution layer from the activity of each unit in the input layer (step ST42). At this time, the convolution layer performs a convolution operation on the three-dimensional region Ωgtf in the input layer. The process of step ST42 is realized by the following equation (14), for example.

l←1
Alk=OFUN(Σgtf⊂Ωgtf(k) Wlgtfk*Egtf+Bltk)
(14)
l ← 1
Alk = OFUN (Σgtf⊂Ωgtf (k) Wltfk * Egtf + Bltk)
(14)

ここで、lはニューラルネットワーク内の各層を示すインデックス(ここでは畳込み層を示すl=1)、kは畳込み層内の各ユニットを示すインデックス、Alkはユニットkの活性度、OFUNは出力関数、Σは総和演算である。また、Ωgtf(k)は、ユニットkと結合する入力層内の各ユニットを示すインデックス(g,t,f)の集合である。この集合内の各(g,t,f)は、入力層において当該ユニットが配置された2次元配列面、入力層において当該ユニットが対応するフレーム、入力層において当該ユニットが対応する周波数をそれぞれ示すインデックスである。WlgtfkはEgtfに対するユニットkの荷重係数を表しており、Bltkはユニットkが有するバイアスを表している。なお、畳込み層におけるインデックスkは、畳込み層に含まれる全ユニットをなめるように畳込み演算を実行する。   Here, l is an index indicating each layer in the neural network (here, l = 1 indicating a convolution layer), k is an index indicating each unit in the convolution layer, Alk is an activity of unit k, and OFUN is an output. The function Σ is a sum operation. Further, Ωgtf (k) is a set of indexes (g, t, f) indicating each unit in the input layer coupled to the unit k. Each (g, t, f) in the set indicates a two-dimensional array surface on which the unit is arranged in the input layer, a frame corresponding to the unit in the input layer, and a frequency corresponding to the unit in the input layer. It is an index. Wltffk represents the load coefficient of unit k relative to Egtf, and Bltk represents the bias of unit k. Note that the index k in the convolution layer performs a convolution operation so that all units included in the convolution layer can be licked.

次いで、ニューラルネットワーク部35は、畳込み層におけるユニットの配列形状を3次元配列から1次元配列に変換する(ステップST43)。この処理は、上記Alkをkをインデックスとして1次元配列に格納することにより実現される。   Next, the neural network unit 35 converts the array shape of the units in the convolution layer from a three-dimensional array to a one-dimensional array (step ST43). This processing is realized by storing the above Alk in a one-dimensional array with k as an index.

次いで、ニューラルネットワーク部35は、非線形層l(l=2,…,L−1)の各々について(ステップST44)、順次、以下のステップST45の処理を実行する。すなわち、ニューラルネットワーク部35は、層p(p=l−1)内の各ユニットの活性度から、層l内の対応するユニットの活性度をそれぞれ計算する(ステップST45)。より具体的には、ニューラルネットワーク部35は、層p内の各ユニットの活性度に荷重係数を乗算し、複数個のユニットに係る乗算値の総和を求め、当該総和の値にバイアスを加算し、さらに、出力関数を通すことにより、層l内の対応するユニットの活性度をそれぞれ計算する。ステップST45の処理は、例えば、以下の式(15)により実現される。   Next, the neural network unit 35 sequentially executes the processing of the following step ST45 for each of the nonlinear layers l (l = 2,..., L−1) (step ST44). That is, the neural network unit 35 calculates the activity of the corresponding unit in the layer l from the activity of each unit in the layer p (p = 1-1) (step ST45). More specifically, the neural network unit 35 multiplies the activity of each unit in the layer p by a load coefficient to obtain a sum of multiplication values related to a plurality of units, and adds a bias to the value of the sum. Further, the activity of the corresponding unit in the layer l is calculated by passing the output function, respectively. The process of step ST45 is realized by the following equation (15), for example.

p←l−1
Alk=OFUN(Σi Wlik*Api+Blk) (15)
p ← l-1
Alk = OFUN (Σi Wlik * Api + Blk) (15)

ここで、Alkは層l内のユニットkの活性度、OFUNは出力関数、Σiはユニットkと結合する層p内のユニットiに関する総和演算、Apiは層p内のユニットiの活性度、Blkはバイアスである。出力関数OFUNには、非線形な関数であるシグモイド(SIGMOID)関数又はTANH関数を用いることができる。   Here, Alk is the activity of the unit k in the layer l, OFUN is the output function, Σi is the summation operation for the unit i in the layer p coupled to the unit k, Api is the activity of the unit i in the layer p, Blk Is a bias. As the output function OFUN, a sigmoid function or a TANH function which is a nonlinear function can be used.

次いで、ニューラルネットワーク部35は、出力層Lに対する前層である非線形層L−1内の各ユニットの活性度から、出力層L内の対応するユニットの活性度をそれぞれ計算する(ステップST46)。ステップST46の処理は、例えば、以下の式(16)により実現される。   Next, the neural network unit 35 calculates the activity of the corresponding unit in the output layer L from the activity of each unit in the nonlinear layer L-1 that is the previous layer with respect to the output layer L (step ST46). The process of step ST46 is realized by the following equation (16), for example.

p←L−1
ALk=Σi WLik*Api+BLk (0≦k<K) (16)
p ← L-1
ALk = Σi WLik * Api + BLk (0 ≦ k <K) (16)

ここで、ALkは層L内のユニットkの活性度、Σiはユニットkと結合する層p(p=L−1)内のユニットiに関する総和演算、Apiは層p(p=L−1)内のユニットiの活性度、BLkはバイアス、Kはエレベータ1における検査対象個所の個数である。なお、実施の形態1において、ニューラルネットワーク部35は線形な劣化度を計算するものであるため、出力層には出力関数が設けられておらず、当該出力関数による非線形処理は実行されない。   Here, ALk is the activity of the unit k in the layer L, Σi is the summation operation for the unit i in the layer p (p = L−1) coupled to the unit k, and Api is the layer p (p = L−1). Of the unit i, BLk is a bias, and K is the number of inspection object portions in the elevator 1. In the first embodiment, since the neural network unit 35 calculates a linear deterioration degree, an output function is not provided in the output layer, and nonlinear processing using the output function is not executed.

以下、添え字kは、出力層L内の各ユニットを示すとともに、当該ユニットに対応する検査対象個所を示すものとする。メモリ23には、検査対象個所kの各々に対応する劣化度Rkを記憶するための領域が用意されている。ニューラルネットワーク部35は、上記式(16)により計算した活性度ALkを劣化度Rkとしてメモリ23の当該領域に記憶させる(ステップST47)。ステップST47の処理は、例えば、以下の式(17)により実現される。   Hereinafter, the subscript k indicates each unit in the output layer L, and indicates an inspection target portion corresponding to the unit. In the memory 23, an area for storing the deterioration degree Rk corresponding to each of the inspection target locations k is prepared. The neural network unit 35 stores the activity degree ALk calculated by the above equation (16) in the area of the memory 23 as the deterioration degree Rk (step ST47). The process of step ST47 is realized by the following equation (17), for example.

Rk=ALk (0≦k<K) (17)   Rk = ALk (0 ≦ k <K) (17)

次に、図12のフローチャートとを参照して、図7に示すステップST4の処理、すなわち判定部36による処理の詳細について説明する。   Next, the details of the process of step ST4 shown in FIG. 7, that is, the process by the determination unit 36 will be described with reference to the flowchart of FIG.

まず、判定部36は、検査対象個所kの各々に対応する劣化度Rkをメモリ23から取得する(ステップST51)。   First, the determination unit 36 acquires the deterioration degree Rk corresponding to each of the inspection target locations k from the memory 23 (step ST51).

次いで、判定部36は、取得した劣化度Rkのうちの最大の劣化度R*と、最大の劣化度R*に対応する検査対象個所kを示すインデックスk*とを求める(ステップST52)。ステップST52の処理は、例えば、以下の式(18)により実現される。   Next, the determination unit 36 obtains the maximum deterioration degree R * of the acquired deterioration degrees Rk and the index k * indicating the inspection target location k corresponding to the maximum deterioration degree R * (step ST52). The process of step ST52 is realized by the following equation (18), for example.

k*=ARGMAXk Rk
R*=Rk* (18)
k * = ARGMAXk Rk
R * = Rk * (18)

ここで、ARGMAXk Rkは、添え字kに関し最大値をとるRkのインデックス(これをk*とすると、k*は、Rk*≧Rkを満足する)を返す関数である。   Here, ARGMAXk Rk is a function that returns an index of Rk that takes the maximum value with respect to the subscript k (where k * satisfies Rk * ≧ Rk).

次いで、判定部36は、最大の劣化度R*を所定の閾値θと比較する(ステップST53)。   Next, the determination unit 36 compares the maximum deterioration degree R * with a predetermined threshold value θ (step ST53).

最大の劣化度R*が閾値θ以下である場合(ステップST53“NO”)、判定部36は劣化個所が存在しないと判定する(ステップST54)。判定部36は、劣化個所を示すインデックスが−1であり、かつ、当該劣化個所に対応する劣化度が0である判定結果を出力する(ステップST55)。すなわち、この場合の判定結果は、エレベータ1に劣化個所が存在しないことを示すものである。   When the maximum deterioration degree R * is equal to or less than the threshold value θ (step ST53 “NO”), the determination unit 36 determines that there is no deterioration portion (step ST54). The determination unit 36 outputs a determination result in which the index indicating the degradation location is −1 and the degradation level corresponding to the degradation location is 0 (step ST55). In other words, the determination result in this case indicates that there is no deterioration portion in the elevator 1.

他方、最大の劣化度R*が閾値θを超えている場合(ステップST53“YES”)、判定部36は劣化個所が存在すると判定する(ステップST56)。判定部36は、劣化個所を示すインデックスがk*であり、かつ、当該劣化個所に対応する劣化度がR*である判定結果を出力する(ステップST57)。すなわち、この場合の判定結果は、エレベータ1における劣化個所と、当該劣化個所に対応する劣化度とを示すものである。   On the other hand, when the maximum deterioration degree R * exceeds the threshold θ (step ST53 “YES”), the determination unit 36 determines that a deterioration portion exists (step ST56). The determination unit 36 outputs a determination result in which the index indicating the degradation location is k * and the degradation level corresponding to the degradation location is R * (step ST57). In other words, the determination result in this case indicates the degradation location in the elevator 1 and the degradation level corresponding to the degradation location.

なお、時系列配列生成部32が生成する時系列配列は、相互相関スペクトログラムHmntf及び自己相関スペクトログラムGmtfに限定されるものではない。例えば、時系列配列生成部32は、相互相関スペクトログラムHmntfを生成せずに自己相関スペクトログラムGmtfのみを生成するものであっても良い。これにより、自己相関スペクトログラムGmtfのみがニューラルネットワークに入力されるため、ニューラルネットワークにおけるパラメータ数を削減することができる。   The time series array generated by the time series array generation unit 32 is not limited to the cross-correlation spectrogram Hmntf and the autocorrelation spectrogram Gmtf. For example, the time series array generation unit 32 may generate only the autocorrelation spectrogram Gmtf without generating the cross correlation spectrogram Hmntf. Thereby, since only the autocorrelation spectrogram Gmtf is input to the neural network, the number of parameters in the neural network can be reduced.

または、例えば、時系列配列生成部32は、相互相関スペクトログラムHmntf及び自己相関スペクトログラムGmtfに代えて、マイク信号DS1,DS2,DS3の各々に対応する自己相関スペクトルAfの実部の時系列による時系列配列と、マイク信号DS1,DS2,DS3の各々に対応する自己相関スペクトルAfの虚部の時系列による時系列配列とを生成するものであっても良い。これらの時系列配列は、相互相関スペクトログラムHmntf及び自己相関スペクトログラムGmtfと同様に、第1次元を周波数方向として第2次元をフレーム方向とした2次元配列により表すことができる。この場合、強度変換及び相互相関演算などに相当する処理をニューラルネットワーク内にて実行することが求められる。このため、ニューラルネットワークによる出力の精度を維持する観点から、ニューラルネットワーク内の層数を増やすのが好適である。   Alternatively, for example, the time series array generation unit 32 replaces the cross-correlation spectrogram Hmntf and the autocorrelation spectrogram Gmtf with a time series based on the real part of the autocorrelation spectrum Af corresponding to each of the microphone signals DS1, DS2, and DS3. An array and a time-series array based on a time series of the imaginary part of the autocorrelation spectrum Af corresponding to each of the microphone signals DS1, DS2, and DS3 may be generated. Similar to the cross-correlation spectrogram Hmntf and the autocorrelation spectrogram Gmtf, these time-series arrays can be represented by a two-dimensional array in which the first dimension is the frequency direction and the second dimension is the frame direction. In this case, it is required to execute processing corresponding to intensity conversion and cross-correlation calculation in the neural network. For this reason, it is preferable to increase the number of layers in the neural network from the viewpoint of maintaining the accuracy of output by the neural network.

または、例えば、時系列配列生成部32は、相互相関スペクトログラムHmntf及び自己相関スペクトログラムGmtfに代えて、マイク信号DS1,DS2,DS3の各々に対応する複素周波数スペクトルZfの実部の時系列による時系列配列と、マイク信号DS1,DS2,DS3の各々に対応する複素周波数スペクトルZfの虚部の時系列による時系列配列とを生成するものであっても良い。これらの時系列配列は、相互相関スペクトログラムHmntf及び自己相関スペクトログラムGmtfと同様に、第1次元を周波数方向として第2次元をフレーム方向とした2次元配列により表すことができる。この場合、強度変換、自己相関演算及び相互相関演算などに相当する処理をニューラルネットワーク内にて実行することが求められる。このため、ニューラルネットワークによる出力の精度を維持する観点から、ニューラルネットワーク内の層数を増やすのが好適である。   Alternatively, for example, the time series array generation unit 32 replaces the cross-correlation spectrogram Hmntf and the autocorrelation spectrogram Gmtf with a time series based on the real part time series of the complex frequency spectrum Zf corresponding to each of the microphone signals DS1, DS2, DS3. An array and a time series array by a time series of the imaginary part of the complex frequency spectrum Zf corresponding to each of the microphone signals DS1, DS2, and DS3 may be generated. Similar to the cross-correlation spectrogram Hmntf and the autocorrelation spectrogram Gmtf, these time-series arrays can be represented by a two-dimensional array in which the first dimension is the frequency direction and the second dimension is the frame direction. In this case, it is required to execute processing corresponding to intensity conversion, autocorrelation calculation, cross-correlation calculation, and the like in the neural network. For this reason, it is preferable to increase the number of layers in the neural network from the viewpoint of maintaining the accuracy of output by the neural network.

また、劣化個所が存在すると判定した場合に判定部36が出力する判定結果は、少なくとも劣化個所を示すものであれば良く、当該劣化個所に対応する劣化度を示さないものであっても良い。   In addition, the determination result output from the determination unit 36 when it is determined that there is a deteriorated portion may be at least indicating the deteriorated portion, and may not indicate the degree of deterioration corresponding to the deteriorated portion.

また、判定部36は、ニューラルネットワーク部35が出力した劣化度Rkを用いて劣化個所に関する何らかの判定を実行するものであれば良く、当該判定は劣化個所の有無の判定に限定されるものではない。   Moreover, the determination part 36 should just perform some determination regarding a degradation location using the degradation degree Rk which the neural network part 35 output, and the said determination is not limited to determination of the presence or absence of a degradation location. .

また、マイクロホンアレイ装置4は複数個のマイクロホンを有するものであれば良く、当該マイクロホンの個数は3個に限定されるものではない。例えば、マイクロホンアレイ装置4は4個のマイクロホンを有するものであっても良い。この場合、これらのマイクロホンは、載置面12の円周部に沿って、正四角形の各頂点に対応する位置に配置されたものであっても良い。マイクロホンの個数を増やすことにより、音の到来方向に対する分解能が向上するため、互いにより近接して配置された検査対象個所を識別することが可能となる。なお、マイクロホンの個数が増えるにつれて、ニューラルネットワークにおけるパラメータ数を増やすことが求められる。   Further, the microphone array device 4 may be any one having a plurality of microphones, and the number of the microphones is not limited to three. For example, the microphone array device 4 may have four microphones. In this case, these microphones may be arranged along the circumferential portion of the placement surface 12 at positions corresponding to the vertices of the regular square. By increasing the number of microphones, the resolution with respect to the direction of arrival of the sound is improved, so that it is possible to identify inspection target locations arranged closer to each other. As the number of microphones increases, it is required to increase the number of parameters in the neural network.

また、マイクロホンアレイ装置4は、カゴ3の天井部に代えてカゴ3の床部に設けられたものであっても良い。そのほか、マイクロホンアレイ装置4は、昇降路2内の如何なる個所に設けられたものであっても良い。ただし、音の到来方向に対する分解能を向上しつつマイクロホンの個数を低減する観点から、マイクロホンアレイ装置4はカゴ3などの移動体に設けるのが好適である。   Further, the microphone array device 4 may be provided on the floor portion of the cage 3 instead of the ceiling portion of the cage 3. In addition, the microphone array device 4 may be provided at any location in the hoistway 2. However, from the viewpoint of reducing the number of microphones while improving the resolution with respect to the direction of sound arrival, the microphone array device 4 is preferably provided on a moving body such as the basket 3.

また、検査対象機器は、エレベータ1に限定されるものではない。検査対象機器は、例えば鉄道車両であっても良い。この場合、マイクロホンアレイ装置4、オーディオインタフェース装置5及び劣化個所推定装置6は、当該鉄道車両に設けられたものであっても良い。そのほか、検査対象機器は、移動体を含む機器又は移動体により構成された機器であれば、如何なる機器であっても良い。   Further, the inspection target device is not limited to the elevator 1. The inspection target device may be, for example, a railway vehicle. In this case, the microphone array device 4, the audio interface device 5, and the degradation location estimation device 6 may be provided in the railway vehicle. In addition, the inspection target device may be any device as long as it is a device including a moving body or a device configured by a moving body.

以上のように、実施の形態1の劣化個所推定装置6は、検査対象機器に設けられた複数個のマイクロホン13〜13の各々に対応するマイク信号DS1,DS2,DS3を取得して、マイク信号DS1,DS2,DS3の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部31と、短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の時系列配列を生成する時系列配列生成部32と、ニューラルネットワークにより構成されており、時系列配列の入力を受け付けて検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部35と、劣化度を用いて検査対象機器における劣化個所を判定する判定部36とを備える。これにより、音の到来方向を考慮することが可能となり、劣化個所の推定精度を向上することができる。As described above, the degradation point estimation device 6 according to the first embodiment acquires the microphone signals DS1, DS2, DS3 corresponding to each of the plurality of microphones 13 1 to 13 3 provided in the inspection target device, A short-time Fourier transform unit 31 that calculates a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals DS1, DS2, and DS3, and a time series for input to the neural network using the time series of short-time Fourier transform coefficients A time-series array generating unit 32 that generates an array, and a neural network, a neural network unit 35 that receives an input of the time-series array and outputs a degree of deterioration corresponding to the inspection target location in the inspection target device; And a determination unit 36 that determines the deterioration location in the inspection target device using the degree. As a result, it is possible to consider the direction of arrival of the sound and improve the estimation accuracy of the deteriorated part.

また、検査対象機器は移動体を含むものであり、マイクロホン13〜13は移動体に設けられている。これにより、音の到来方向を考慮することを可能としつつ、マイクロホンの個数を低減することができる。The inspection target device is intended to include mobile, microphone 131-134 3 is provided on the moving body. As a result, the number of microphones can be reduced while allowing the direction of sound arrival to be taken into account.

また、実施の形態1の劣化個所推定システム100は、検査対象機器に設けられた複数個のマイクロホン13〜13を備える。劣化個所推定システム100は、マイクロホン13〜13の各々に対応するマイク信号DS1,DS2,DS3を取得して、マイク信号DS1,DS2,DS3の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部31と、短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の時系列配列を生成する時系列配列生成部32と、ニューラルネットワークにより構成されており、時系列配列の入力を受け付けて検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部35と、劣化度を用いて検査対象機器における劣化個所を判定する判定部36とを有する劣化個所推定装置6を備える。これにより、音の到来方向を考慮することが可能となり、劣化個所の推定精度を向上することができる。Further, the degradation point estimation system 100 of the first embodiment includes a plurality of microphones 13 1 to 13 3 provided in the inspection target device. Deterioration location estimation system 100 acquires microphone signals DS1, DS2, DS3 corresponding to each of microphones 13 1 to 13 3 and time-series Fourier transform coefficients corresponding to each of microphone signals DS1, DS2, DS3. A short-time Fourier transform unit 31 that calculates the time series, a time-series array generation unit 32 that generates a time-series array for input to the neural network using the time series of the short-time Fourier transform coefficients, and a neural network, A deterioration having a neural network unit 35 that receives an input of a time-series arrangement and outputs a deterioration degree corresponding to the inspection target part in the inspection target device, and a determination part 36 that determines the deterioration point in the inspection target device using the deterioration degree. A location estimation device 6 is provided. As a result, it is possible to consider the direction of arrival of the sound and improve the estimation accuracy of the deteriorated part.

また、実施の形態1の故障箇所推定方法は、短時間フーリエ変換部31が、検査対象機器に設けられた複数個のマイクロホン13〜13の各々に対応するマイク信号DS1,DS2,DS3を取得して、マイク信号DS1,DS2,DS3の各々に対応する短時間フーリエ変換係数の時系列を計算するステップ(ステップST1)と、時系列配列生成部32が、短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の時系列配列を生成するステップ(ステップST2)と、ニューラルネットワークにより構成されたニューラルネットワーク部35が、時系列配列の入力を受け付けて検査対象機器における検査対象個所に対応する劣化度を出力するステップ(ステップST3)と、判定部36が、劣化度を用いて検査対象機器における劣化個所を判定するステップ(ステップST4)とを備える。これにより、音の到来方向を考慮することが可能となり、劣化個所の推定精度を向上することができる。Further, in the failure location estimation method of the first embodiment, the short-time Fourier transform unit 31 uses the microphone signals DS1, DS2, and DS3 corresponding to the plurality of microphones 13 1 to 13 3 provided in the inspection target device. A step of acquiring and calculating a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals DS1, DS2, and DS3 (step ST1), and the time-series array generation unit 32 generates a time series of short-time Fourier transform coefficients. Generating a time series array for input to the neural network using the step (step ST2), and the neural network unit 35 constituted by the neural network accepts the input of the time series array and places it in the inspection target location in the inspection target device. The step of outputting the corresponding deterioration degree (step ST3) and the determination unit 36 use the deterioration degree. And a step of determining the deterioration point in the inspection target device (step ST4) Te. As a result, it is possible to consider the direction of arrival of the sound and improve the estimation accuracy of the deteriorated part.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

本発明の劣化個所推定装置は、例えば、エレベータ又は鉄道車両などの検査対象機器における劣化個所の推定に用いることができる。   The degradation point estimation apparatus of the present invention can be used for estimation of a degradation point in an inspection target device such as an elevator or a railway vehicle, for example.

1 エレベータ、2 昇降路、3 カゴ、4 マイクロホンアレイ装置、5 オーディオインタフェース装置、6 劣化個所推定装置、11 台座、12 載置面、13,13,13 マイクロホン、21 入出力インタフェース、22 プロセッサ、23 メモリ、31 短時間フーリエ変換部、32 時系列配列生成部、33 相互相関演算部、34 自己相関演算部、35 ニューラルネットワーク部、36 判定部、100 劣化個所推定システム。1 elevator, 2 hoistway, 3 car, 4 microphone array system, 5 audio interface device, 6 deterioration location estimating apparatus, 11 pedestal, 12 mounting surface, 13 1, 13 2, 13 3 microphones, 21 input-output interface, 22 Processor, 23 Memory, 31 Short-time Fourier transform unit, 32 Time series array generation unit, 33 Cross-correlation calculation unit, 34 Autocorrelation calculation unit, 35 Neural network unit, 36 Judgment unit, 100 Deterioration location estimation system

Claims (12)

検査対象機器に設けられた複数個のマイクロホンの各々に対応するマイク信号を取得して、前記マイク信号の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部と、
前記短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の複数個の時系列配列を生成する時系列配列生成部と、
前記ニューラルネットワークにより構成されており、前記時系列配列の入力を受け付けて前記検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部と、
前記劣化度を用いて前記検査対象機器における劣化個所を判定する判定部と、
を備える劣化個所推定装置。
A short-time Fourier transform unit that acquires a microphone signal corresponding to each of a plurality of microphones provided in the inspection target device and calculates a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals;
A time series array generation unit for generating a plurality of time series arrays for input to a neural network using the time series of the short-time Fourier transform coefficients;
A neural network unit configured by the neural network, which receives an input of the time series array and outputs a degree of deterioration corresponding to the inspection target portion in the inspection target device;
A determination unit that determines a deterioration location in the inspection target device using the deterioration degree,
A degradation point estimation device comprising:
前記時系列配列生成部は、前記短時間フーリエ変換係数の時系列を用いて、前記マイク信号内の自己相関スペクトルの時系列による前記時系列配列と、前記マイク信号間の相互相関スペクトルによる前記時系列配列とを生成することを特徴とする請求項1記載の劣化個所推定装置。   The time series array generation unit uses the time series of the short-time Fourier transform coefficients to generate the time series array based on the time series of the autocorrelation spectrum in the microphone signal and the time based on the cross correlation spectrum between the microphone signals. The degradation location estimation apparatus according to claim 1, wherein a sequence array is generated. 前記時系列配列生成部は、前記短時間フーリエ変換係数の時系列を用いて、前記マイク信号内の自己相関スペクトルの時系列による前記時系列配列を生成することを特徴とする請求項1記載の劣化個所推定装置。   The time series array generation unit generates the time series array based on the time series of the autocorrelation spectrum in the microphone signal using the time series of the short-time Fourier transform coefficients. Deterioration location estimation device. 前記時系列配列生成部は、前記短時間フーリエ変換係数の時系列を用いて、前記短時間フーリエ変換係数のうちの実部の時系列による前記時系列配列と、前記短時間フーリエ変換係数のうちの虚部の時系列による前記時系列配列とを生成することを特徴とする請求項1記載の劣化個所推定装置。   The time series array generation unit uses the time series of the short-time Fourier transform coefficients, and uses the time series array of the real part time series of the short-time Fourier transform coefficients and the short-time Fourier transform coefficients. The deterioration location estimation apparatus according to claim 1, wherein the time series array is generated by a time series of the imaginary part. 前記ニューラルネットワークは、複数個の前記時系列配列の入力を受け付ける入力層と、前記入力層に対する畳込み演算を実行する畳込み層とを有することを特徴とする請求項1記載の劣化個所推定装置。   2. The degradation point estimation apparatus according to claim 1, wherein the neural network includes an input layer that receives a plurality of inputs of the time series array, and a convolution layer that performs a convolution operation on the input layer. . 前記入力層は、複数個のユニットによる2次元配列面が積層された3次元配列の構造を有し、前記2次元配列面の各々に対応する前記時系列配列が入力されるものであり、
前記畳込み層は、前記入力層内の3次元領域に対する前記畳込み演算を実行するものである
ことを特徴とする請求項5記載の劣化個所推定装置。
The input layer has a three-dimensional array structure in which a two-dimensional array surface by a plurality of units is stacked, and the time-series array corresponding to each of the two-dimensional array surfaces is input.
The degradation point estimation device according to claim 5, wherein the convolution layer performs the convolution operation on a three-dimensional region in the input layer.
前記マイクロホンは、正多角形の各頂点に対応する位置に配置されていることを特徴とする請求項1記載の劣化個所推定装置。   The degradation point estimation apparatus according to claim 1, wherein the microphone is arranged at a position corresponding to each vertex of a regular polygon. 前記検査対象機器は移動体を含むものであり、前記マイクロホンは前記移動体に設けられていることを特徴とする請求項1記載の劣化個所推定装置。   The degradation location estimation apparatus according to claim 1, wherein the inspection target device includes a moving body, and the microphone is provided in the moving body. 前記検査対象機器はエレベータにより構成されており、前記移動体は前記エレベータのカゴにより構成されており、前記マイクロホンは前記カゴの天井部又は床部に設けられていることを特徴とする請求項8記載の劣化個所推定装置。   The said inspection object apparatus is comprised by the elevator, the said mobile body is comprised by the cage | basket | car of the said elevator, The said microphone is provided in the ceiling part or floor | floor part of the said basket, It is characterized by the above-mentioned. Deterioration location estimation device as described. 前記判定部は、前記劣化個所の有無を判定して、前記劣化個所が存在すると判定した場合、前記劣化個所と前記劣化個所に対応する前記劣化度とを示す判定結果を出力することを特徴とする請求項1記載の劣化個所推定装置。   The determination unit determines the presence or absence of the deterioration portion, and outputs a determination result indicating the deterioration portion and the degree of deterioration corresponding to the deterioration portion when it is determined that the deterioration portion exists. The degradation location estimation apparatus according to claim 1. 検査対象機器に設けられた複数個のマイクロホンと、
前記マイクロホンの各々に対応するマイク信号を取得して、前記マイク信号の各々に対応する短時間フーリエ変換係数の時系列を計算する短時間フーリエ変換部と、前記短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の複数個の時系列配列を生成する時系列配列生成部と、前記ニューラルネットワークにより構成されており、前記時系列配列の入力を受け付けて前記検査対象機器における検査対象個所に対応する劣化度を出力するニューラルネットワーク部と、前記劣化度を用いて前記検査対象機器における劣化個所を判定する判定部と、を有する劣化個所推定装置と、
を備える劣化個所推定システム。
A plurality of microphones provided in the device to be inspected;
A short-time Fourier transform unit that obtains a microphone signal corresponding to each of the microphones and calculates a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals, and a time series of the short-time Fourier transform coefficients A time-series array generating unit that generates a plurality of time-series arrays for input to the neural network, and the neural network, and accepts the input of the time-series array, and the inspection target location in the inspection target device A deterioration location estimation apparatus comprising: a neural network unit that outputs a deterioration level corresponding to the determination unit; and a determination unit that determines a deterioration location in the inspection target device using the deterioration level;
Deterioration location estimation system with
短時間フーリエ変換部が、検査対象機器に設けられた複数個のマイクロホンの各々に対応するマイク信号を取得して、前記マイク信号の各々に対応する短時間フーリエ変換係数の時系列を計算するステップと、
時系列配列生成部が、前記短時間フーリエ変換係数の時系列を用いてニューラルネットワークに対する入力用の複数個の時系列配列を生成するステップと、
前記ニューラルネットワークにより構成されたニューラルネットワーク部が、前記時系列配列の入力を受け付けて前記検査対象機器における検査対象個所に対応する劣化度を出力するステップと、
判定部が、前記劣化度を用いて前記検査対象機器における劣化個所を判定するステップと、
を備える劣化個所推定方法。
A step of obtaining a microphone signal corresponding to each of a plurality of microphones provided in the device to be inspected by the short-time Fourier transform unit and calculating a time series of short-time Fourier transform coefficients corresponding to each of the microphone signals; When,
A time series array generating unit generating a plurality of time series arrays for input to the neural network using the time series of the short-time Fourier transform coefficients;
A step of receiving a time-series array input and outputting a degree of deterioration corresponding to an inspection target location in the inspection target device, wherein the neural network unit configured by the neural network;
A step of determining a deterioration portion in the inspection target device using the deterioration degree;
A degradation location estimation method comprising:
JP2017517134A 2016-11-22 2016-11-22 Deterioration location estimation apparatus, degradation location estimation system, and degradation location estimation method Active JP6173649B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/084603 WO2018096582A1 (en) 2016-11-22 2016-11-22 Degraded portion estimation apparatus, degraded portion estimation system, and degraded portion estimation method

Publications (2)

Publication Number Publication Date
JP6173649B1 true JP6173649B1 (en) 2017-08-02
JPWO2018096582A1 JPWO2018096582A1 (en) 2018-11-22

Family

ID=59505258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017517134A Active JP6173649B1 (en) 2016-11-22 2016-11-22 Deterioration location estimation apparatus, degradation location estimation system, and degradation location estimation method

Country Status (3)

Country Link
JP (1) JP6173649B1 (en)
CN (1) CN109983311B (en)
WO (1) WO2018096582A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117412916A (en) * 2021-10-14 2024-01-16 威特控股有限公司 Computer-implemented method for training a machine learning model for detecting installation errors in an elevator, in particular in an elevator door, computer-implemented method for classifying installation errors, and system therefor
CN114408694B (en) * 2022-03-04 2023-06-23 深圳市爱丰达盛科技有限公司 Elevator fault prediction system and prediction method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009270843A (en) * 2008-04-30 2009-11-19 Toshiba Corp Time-series data monitoring system
US20130263667A1 (en) * 2010-10-07 2013-10-10 Nederlandse Organisatie voor toegepastnatuuwetenschappelijk onderzoek TNO System and method for performing ultrasonic pipeline wall property measurements
JP2014105075A (en) * 2012-11-28 2014-06-09 Mitsubishi Electric Corp Failure part estimation device
JP5996153B1 (en) * 2015-12-09 2016-09-21 三菱電機株式会社 Deterioration location estimation apparatus, degradation location estimation method, and moving body diagnosis system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1931169A4 (en) * 2005-09-02 2009-12-16 Japan Adv Inst Science & Tech Post filter for microphone array
CN202735105U (en) * 2012-07-03 2013-02-13 上海电机学院 Fault detecting device
CN103852338B (en) * 2014-03-12 2016-09-28 上海夏普电器有限公司 Air purifier extraordinary noise fault detection method
CN103969046B (en) * 2014-05-20 2016-05-04 北京康拓红外技术股份有限公司 A kind of bearing acoustics diagnose system and method for and the coupling of wheel set bearing running-in machine
CN105451151B (en) * 2014-08-29 2018-09-21 华为技术有限公司 A kind of method and device of processing voice signal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009270843A (en) * 2008-04-30 2009-11-19 Toshiba Corp Time-series data monitoring system
US20130263667A1 (en) * 2010-10-07 2013-10-10 Nederlandse Organisatie voor toegepastnatuuwetenschappelijk onderzoek TNO System and method for performing ultrasonic pipeline wall property measurements
JP2014105075A (en) * 2012-11-28 2014-06-09 Mitsubishi Electric Corp Failure part estimation device
JP5996153B1 (en) * 2015-12-09 2016-09-21 三菱電機株式会社 Deterioration location estimation apparatus, degradation location estimation method, and moving body diagnosis system

Also Published As

Publication number Publication date
JPWO2018096582A1 (en) 2018-11-22
WO2018096582A1 (en) 2018-05-31
CN109983311B (en) 2021-03-19
CN109983311A (en) 2019-07-05

Similar Documents

Publication Publication Date Title
JP4245617B2 (en) Feature amount correction apparatus, feature amount correction method, and feature amount correction program
JP5127754B2 (en) Signal processing device
JP2011107603A (en) Speech recognition device, speech recognition method and program
JP6077957B2 (en) Audio processing apparatus, audio processing method, and audio processing program
WO2005024788A9 (en) Signal separation method, signal separation device, signal separation program, and recording medium
JP6334895B2 (en) Signal processing apparatus, control method therefor, and program
CN108291837B (en) Degraded portion estimation device, degraded portion estimation method, and mobile body diagnosis system
JP5634959B2 (en) Noise / dereverberation apparatus, method and program thereof
CN108630222B (en) Signal processing system and signal processing method
JP2014145838A (en) Sound processing device and sound processing method
JP6174856B2 (en) Noise suppression device, control method thereof, and program
CN112750441B (en) Voiceprint recognition method and device, electronic equipment and storage medium
JP6173649B1 (en) Deterioration location estimation apparatus, degradation location estimation system, and degradation location estimation method
CN113077806B (en) Audio processing method and device, model training method and device, medium and equipment
Egas-López et al. Deep neural network embeddings for the estimation of the degree of sleepiness
JP2007279517A (en) Sound source separating device, program for sound source separating device, and sound source separating method
JP5443547B2 (en) Signal processing device
JP4630183B2 (en) Audio signal analysis apparatus, audio signal analysis method, and audio signal analysis program
JP3039623B2 (en) Voice recognition device
JP2019132948A (en) Voice conversion model learning device, voice conversion device, method, and program
JP4610451B2 (en) Speech recognition apparatus and program
JP2005196020A (en) Speech processing apparatus, method, and program
JP2011139409A (en) Audio signal processor, audio signal processing method, and computer program
JP2017134321A (en) Signal processing method, signal processing device, and signal processing program
JP2007248529A (en) Voice recognizer, voice recognition program, and voice operable device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170329

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170530

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R150 Certificate of patent or registration of utility model

Ref document number: 6173649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250