JP2014016199A - Mobile terminal, vibration sound measuring system, and vibration sound measuring method - Google Patents

Mobile terminal, vibration sound measuring system, and vibration sound measuring method Download PDF

Info

Publication number
JP2014016199A
JP2014016199A JP2012152854A JP2012152854A JP2014016199A JP 2014016199 A JP2014016199 A JP 2014016199A JP 2012152854 A JP2012152854 A JP 2012152854A JP 2012152854 A JP2012152854 A JP 2012152854A JP 2014016199 A JP2014016199 A JP 2014016199A
Authority
JP
Japan
Prior art keywords
signal
image
measurement
sound
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012152854A
Other languages
Japanese (ja)
Other versions
JP5985281B2 (en
Inventor
Toshimasa Hirate
利昌 平手
Fumiaki Takeuchi
文章 竹内
Tatsuya Hirose
達也 廣瀬
Junpei Uechi
純平 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Industrial Products and Systems Corp
Original Assignee
Toshiba Corp
Toshiba Industrial Products Manufacturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Industrial Products Manufacturing Corp filed Critical Toshiba Corp
Priority to JP2012152854A priority Critical patent/JP5985281B2/en
Publication of JP2014016199A publication Critical patent/JP2014016199A/en
Application granted granted Critical
Publication of JP5985281B2 publication Critical patent/JP5985281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mobile terminal, a vibration sound measuring system, and a vibration sound measuring method that can improve the efficiency of maintenance and diagnosis of rotary machines.SOLUTION: A mobile terminal comprises photographic means, sound collecting means, object detecting means, signal processing means, and signal analyzing means. The photographic means photographs an image of a photographic object. The sound collecting means measures sound radiated by the photographic object. The object detecting means detects a measurement object from the image photographed by the photographic means. The signal processing means converts the radiated sound measured by the sound collecting means into a digital sound signal. The signal analyzing means, if the object detecting means has detected the measurement object from the photographic object, analyzes the sound signal under preset analytic conditions and thereby diagnoses the state of the measurement object.

Description

本実施形態は、回転機械の保守、診断するための携帯端末、振動音響計測システム及び振動音響計測方法に関する。   The present embodiment relates to a portable terminal for maintaining and diagnosing a rotating machine, a vibroacoustic measurement system, and a vibroacoustic measurement method.

− 回転機械の保全(保守) −
電動機などの回転機械(回転機器)は、その運転時間の経過と共に構成分の一部または全てが劣化、損傷していく。例えば電動機のロータを支える軸受装置は、時間の経過と共に劣化し、異常振動を引き起こす。従来は、まず聴感上で異常現象をとらえ、その後加速度センサで回転機械の異常音を出している部位の振動加速度を計測(測定)、解析し保全を行っていた。
− Maintenance (maintenance) of rotating machinery −
A rotating machine (rotating device) such as an electric motor is partially or entirely deteriorated or damaged as the operation time elapses. For example, a bearing device that supports a rotor of an electric motor deteriorates with time and causes abnormal vibration. Conventionally, an abnormal phenomenon is first detected in the sense of hearing, and then the vibration acceleration is measured (measured), analyzed and maintained by the acceleration sensor where the abnormal sound of the rotating machine is generated.

- 計測装置の現状 -
異常診断は、聴感上で回転機械の異常を検知するケースが多いため、音響診断が作業効率、安全性から最も望ましい。加速度センサの設置は、回転機械に近づく必要があるため安全上のリスクも発生する。したがって、音響マイクによる非接触計測が、作業効率、安全性から望ましいことは言うまでもない。
振動音響を計測する音響マイクは、今日、小型軽量な装置が数多く提案されている。そのため、このような音響マイクを有する装置を応用した振動音響計測装置がいくつか提案されている。
-Current status of measuring equipment-
Abnormality diagnosis often detects abnormalities in a rotating machine in terms of hearing, so acoustic diagnosis is most desirable from the viewpoint of work efficiency and safety. The installation of the acceleration sensor also requires a safety risk because it needs to be close to the rotating machine. Therefore, it goes without saying that non-contact measurement using an acoustic microphone is desirable from the viewpoint of work efficiency and safety.
Many acoustic microphones for measuring vibroacoustics have been proposed today. For this reason, several vibroacoustic measuring apparatuses using such an apparatus having an acoustic microphone have been proposed.

特開2007−236935号公報JP 2007-236935 A 特開2006−208074号公報JP 2006-208074 A

しかしながら、音響マイクは、計測対象となる部位に関する情報を音声でしか記録できないという問題がある。
また、音響マイクは、一カ所に固定して、異常発生部位を計測する手法が主流であった。しかしながら、異音発生部位を聴感上だけで特定するのは困難である。例えば、回転機械は、異常発生部位を正確に特定する必要がある。回転機械の周囲を音響マイクで計測すれば、音響レベルの大きさに基づいて回転機械のどの部位で異常発生しているかを特定することも考えられる。しかしながら、音響マイクによる計測結果からは、解析時に、回転機械を計測した音響マイクの場所を正確に特定することは困難である。
However, the acoustic microphone has a problem that it can only record information about a part to be measured by voice.
In addition, the mainstream method is to fix the acoustic microphone in one place and measure the abnormal site. However, it is difficult to specify an abnormal sound generation site only by hearing. For example, a rotating machine needs to specify an abnormality occurrence site accurately. If the periphery of the rotating machine is measured with an acoustic microphone, it may be possible to specify which part of the rotating machine is abnormal based on the level of the sound level. However, it is difficult to accurately specify the location of the acoustic microphone that measured the rotating machine from the measurement result of the acoustic microphone at the time of analysis.

本発明は、上記事情に鑑みてなされたものであり、その目的は、回転機械の保守、診断の効率を良くする携帯端末、振動音響計測システム及び振動音響計測方法を提供することにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a portable terminal, a vibroacoustic measurement system, and a vibroacoustic measurement method that improve the efficiency of maintenance and diagnosis of a rotating machine.

実施形態によれば、携帯端末は、撮影手段と、集音手段と、対象検出手段と、信号処理手段と、信号解析手段と、を有する。前記撮影手段は、撮影対象の画像を撮影する。前記集音手段は、前記撮影対象の放射音を計測する。前記対象検出手段は、前記撮影手段による撮影画像から計測対象を検出する。前記信号処理手段は、前記集音手段で計測した前記放射音をデジタルの音響信号に変換する。前記信号解析手段は、前記対象検出手段が前記撮影画像から前記計測対象を検出した場合、前記音響信号を予め設定された解析条件に基づいて解析し、前記計測対象の状態を診断する。   According to the embodiment, the mobile terminal includes an imaging unit, a sound collection unit, a target detection unit, a signal processing unit, and a signal analysis unit. The photographing unit photographs an image to be photographed. The sound collecting means measures a radiated sound of the photographing target. The target detection unit detects a measurement target from an image captured by the shooting unit. The signal processing means converts the radiated sound measured by the sound collecting means into a digital acoustic signal. When the target detection unit detects the measurement target from the captured image, the signal analysis unit analyzes the acoustic signal based on a preset analysis condition and diagnoses the state of the measurement target.

実施形態に係る振動音響計測システムを示す概略図。Schematic which shows the vibroacoustic measuring system which concerns on embodiment. 実施形態に係る携帯端末による回転機械のビデオ撮影の一例を示す図。The figure which shows an example of the video imaging | photography of the rotary machine by the portable terminal which concerns on embodiment. 実施形態に係る撮影画像の一例を示す図。The figure which shows an example of the picked-up image which concerns on embodiment. 実施形態に係る元画像のエッジ情報と撮影画像のエッジ情報を表示したモデル図。The model figure which displayed the edge information of the original image which concerns on embodiment, and the edge information of a picked-up image. 実施形態に係る元画像のエッジ情報と撮影画像のエッジ情報を表示したモデル図。The model figure which displayed the edge information of the original image which concerns on embodiment, and the edge information of a picked-up image. 実施形態に係る元画像のマーカー情報と撮影画像のマーカー情報を表示したモデル図。The model figure which displayed the marker information of the original image and marker information of a picked-up image which concern on embodiment. 実施形態に係る元画像のマーカー情報と撮影画像のマーカー情報を表示したモデル図。The model figure which displayed the marker information of the original image and marker information of a picked-up image which concern on embodiment. 実施形態に係る携帯端末で回転機械を距離A´だけ離れた位置から撮影するモデル図。The model figure which image | photographs a rotary machine from the position which left | separated only distance A 'with the portable terminal which concerns on embodiment. 実施形態に係る携帯端末で回転機械を距離B´だけ離れた位置から撮影するモデル図。The model figure which image | photographs a rotary machine from the position which left | separated only distance B 'with the portable terminal which concerns on embodiment. 実施形態に係る携帯端末の周波数特性及び補正カーブを示すグラフ。The graph which shows the frequency characteristic and correction curve of the portable terminal which concern on embodiment. 実施形態に係る携帯端末の補正カーブ及び補正後の周波数特性を示すグラフ。The graph which shows the correction curve of the portable terminal which concerns on embodiment, and the frequency characteristic after correction | amendment. 実施形態に係る撮影画像、音響信号を関連付けて示す図。The figure which shows the picked-up image and acoustic signal which concern on embodiment in relation. 実施形態に係る制御PCと携帯端末との間で通信する情報の例を示す図。The figure which shows the example of the information communicated between control PC and portable terminal which concerns on embodiment.

以下、本実施形態ついて図面を参照して説明する。
図1は、本実施形態に係る振動音響計測システム1を示す概略図である。振動音響計測システム1は、携帯端末2、制御PC(Personal Computer)3を有する。
携帯端末2は、例えば、PDA(Personal Digital Assistant)、携帯電話、スマートホン、デジタルカメラ、ビデオカメラなどであるが、これらに限定されるものではない。携帯端末2は、後述する撮影機能、集音機能を有していればよい。携帯端末2は、制御部21、記憶部22、撮影部(撮影手段)23、集音部(集音手段)24、通信部25、表示部26を有する。
Hereinafter, this embodiment will be described with reference to the drawings.
FIG. 1 is a schematic diagram showing a vibroacoustic measurement system 1 according to the present embodiment. The vibroacoustic measurement system 1 includes a portable terminal 2 and a control PC (Personal Computer) 3.
The mobile terminal 2 is, for example, a PDA (Personal Digital Assistant), a mobile phone, a smart phone, a digital camera, a video camera, or the like, but is not limited thereto. The portable terminal 2 should just have the imaging | photography function and sound collection function which are mentioned later. The portable terminal 2 includes a control unit 21, a storage unit 22, an imaging unit (imaging unit) 23, a sound collection unit (sound collection unit) 24, a communication unit 25, and a display unit 26.

制御部21は、携帯端末2内の各部の動作を制御する。制御部21は、対象検出手段211、信号処理手段212、信号解析手段213、記録制御手段214を有する。各手段の作用については後述する。記憶部22は、制御部21の動作プログラムを保存する機能を有する。また、記憶部22は、各種データを一時的に保存する機能を有する。撮影部23は、録画用の動画または静止画の撮影機能を有するセンサである。集音部24は、録音用の集音機能を有する音響マイクである。通信部25は、制御PC3と無線または有線で通信し、データを送受信する。表示部26は、画像等のデータを表示するディスプレイである。   The control unit 21 controls the operation of each unit in the mobile terminal 2. The control unit 21 includes a target detection unit 211, a signal processing unit 212, a signal analysis unit 213, and a recording control unit 214. The operation of each means will be described later. The storage unit 22 has a function of storing an operation program of the control unit 21. The storage unit 22 has a function of temporarily storing various data. The photographing unit 23 is a sensor having a photographing function for recording moving images or still images. The sound collection unit 24 is an acoustic microphone having a sound collection function for recording. The communication unit 25 communicates with the control PC 3 in a wireless or wired manner and transmits / receives data. The display unit 26 is a display that displays data such as images.

制御PC3は、制御部31、記憶部(記憶手段)32、通信部33、表示部34を有する。制御部31は、制御PC3内の各部の動作を制御する。制御部31の作用については、後述する。記憶部32は、制御部31の動作プログラムを保存する機能を有する。また、記憶部32は、各種データを一時的に保存する機能を有する。通信部33は、携帯端末2と無線または有線で通信し、データを送受信する。表示部34は、画像等のデータを表示するモニタである。   The control PC 3 includes a control unit 31, a storage unit (storage unit) 32, a communication unit 33, and a display unit 34. The control unit 31 controls the operation of each unit in the control PC 3. The operation of the control unit 31 will be described later. The storage unit 32 has a function of storing an operation program of the control unit 31. The storage unit 32 has a function of temporarily storing various data. The communication unit 33 communicates with the mobile terminal 2 wirelessly or by wire to transmit and receive data. The display unit 34 is a monitor that displays data such as images.

次に、携帯端末2による計測対象である回転機械4のビデオ撮影について説明する。図2は、携帯端末2による回転機械4のビデオ撮影の一例を示す図である。回転機械4は、一例として、ポンプ5が回転軸に接続されたモータ(電動機)である。なお、回転機械4は、これに限定されるものではない。また、振動音響計測システム1は、回転機械4に限られず、駆動により振動する機械に適用できる。   Next, video shooting of the rotating machine 4 to be measured by the mobile terminal 2 will be described. FIG. 2 is a diagram illustrating an example of video shooting of the rotating machine 4 by the mobile terminal 2. As an example, the rotating machine 4 is a motor (electric motor) in which a pump 5 is connected to a rotating shaft. The rotating machine 4 is not limited to this. The vibroacoustic measurement system 1 is not limited to the rotating machine 4 and can be applied to a machine that vibrates by driving.

携帯端末2は、回転機械4の音響診断時に、撮影対象である駆動中の回転機械4の外周面を撮影部23及び集音部24を用いてビデオ撮影する。撮影部23は、回転機械4の画像を撮影し、画像信号を取得する。集音部24は、回転機械4の放射音を計測し、音響信号を取得する。携帯端末2は、位置Aから位置Bにかけて回転機械4の外周を移動すると共に、連続的に回転機械4の外周面をビデオ撮影する。したがって、携帯端末2は、位置Aから位置Bにかけての移動時間分に相当する画像信号、音響信号を取得する。制御部21は、現在撮影している画像(以降、撮影画像という)の信号に基づく画像データ、現在計測している音響信号に基づく音響データを記憶部22に記録する。なお、携帯端末2の移動は、人手によって行なわれても、自動で行なわれてもよい。   The mobile terminal 2 uses the photographing unit 23 and the sound collecting unit 24 to take a video image of the outer peripheral surface of the rotating rotating machine 4 that is a photographing target during acoustic diagnosis of the rotating machine 4. The imaging unit 23 captures an image of the rotating machine 4 and acquires an image signal. The sound collection unit 24 measures the radiated sound of the rotary machine 4 and acquires an acoustic signal. The mobile terminal 2 moves from the position A to the position B on the outer periphery of the rotating machine 4 and continuously shoots the outer peripheral surface of the rotating machine 4 by video. Therefore, the mobile terminal 2 acquires an image signal and an acoustic signal corresponding to the moving time from the position A to the position B. The control unit 21 records, in the storage unit 22, image data based on a signal of a currently captured image (hereinafter referred to as a captured image) and acoustic data based on a currently measured acoustic signal. The mobile terminal 2 may be moved manually or automatically.

次に、携帯端末2が取得した画像データ、音響データを用いた回転機械4の音響診断処理、管理処理について、各部の作用と共に説明する。携帯端末2は、通信部25を介して、音響診断処理に必要な情報(以降、解析情報という)を制御PC3からダウンロードしているものとする。解析情報は、計測対象である回転機械4の元画像、計測対象毎に登録されたエッジ部分の情報またはマーカー部分の情報、回転機械4の運転・機械諸元情報(回転数、軸受諸元、電動機が対象であればその極数、スロット数、スロットコンビ値、ポンプであれば羽枚数、案内羽枚数、ギアボックス又は歯車であれば全ての歯数)、後述するように信号解析手段213で音響信号を解析するための解析条件などのうち少なくとも1つを含む。なお、元画像とは、予め上記手法によりビデオ撮影されたものであって、初期設置時(正常時)における駆動していない計測対象である回転機械4の外周面の画像をいう。元画像は、予め携帯端末2が制御PC3にアップロードされていてもよい。   Next, acoustic diagnosis processing and management processing of the rotating machine 4 using image data and acoustic data acquired by the mobile terminal 2 will be described together with the operation of each unit. It is assumed that the portable terminal 2 has downloaded information necessary for acoustic diagnosis processing (hereinafter referred to as analysis information) from the control PC 3 via the communication unit 25. The analysis information includes the original image of the rotating machine 4 to be measured, the edge part information or the marker part information registered for each measuring object, the operation / machine information of the rotating machine 4 (rotation speed, bearing specifications, The number of poles, the number of slots, the slot combination value for an electric motor, the number of blades for a pump, the number of guide wings, the total number of teeth for a gear box or gear), and the signal analysis means 213 as described later. It includes at least one of analysis conditions for analyzing the acoustic signal. Note that the original image is an image of the outer peripheral surface of the rotating machine 4 that is a measurement target that has not been driven at the time of initial installation (normal time) and has been previously captured by the above-described method. The original image may be uploaded in advance by the mobile terminal 2 to the control PC 3.

対象検出手段211の作用について説明する。対象検出手段211は、計測対象である回転機械4の元画像を取得する。制御部21は、音響診断開始時に、制御PC3から元画像をダウンロードし、記憶部22に一時的に保存する。なお、元画像は、予め記憶部22に保存されていてもよい。   The operation of the object detection unit 211 will be described. The target detection unit 211 acquires an original image of the rotating machine 4 that is a measurement target. The control unit 21 downloads an original image from the control PC 3 and temporarily stores it in the storage unit 22 at the start of acoustic diagnosis. The original image may be stored in the storage unit 22 in advance.

対象検出手段211は、撮影画像と元画像を比較することで、撮影画像から、回転機械4の計測対象部位の特徴図形(一部)または全体像(全景)を検出(抽出)する。計測対象部位とは、回転機械4において予め登録された計測対象となる部位(例えば(回転機械4の負荷側)、フレームフィン(フレーム)、ファンカバー(反負荷側)など)である。つまり、対象検出手段211は、撮影画像中における回転機械4の計測対象部位の特徴図形または全体像の存在の有無(特徴図形または全体像との一致の有無)を解析し、判断する。なお、回転機械4に複数の計測対象部位がある場合、対象検出手段211は、撮影画像毎に異なる計測対象部位を検出すればよい。対象検出手段211は、撮影画像と元画像との比較を例えば画像マッチング技術によって判断する。主なアルゴリズムとしては、残差逐次検定法などである。なお、対象検出手段211が撮影画像中における計測対象部位の全体像の存在の有無を常に解析判断することは、処理時間が膨らむ要因となる。そのため、対象検出手段211は、撮影画像から計測対象部位の特徴図形を主として検出するようにしてもよい。   The object detection unit 211 detects (extracts) a feature graphic (partial) or a whole image (entire view) of the measurement target part of the rotating machine 4 from the captured image by comparing the captured image with the original image. The measurement target part is a part (for example, (load side of the rotary machine 4), frame fin (frame), fan cover (anti-load side), etc.) registered in advance in the rotary machine 4. That is, the target detection unit 211 analyzes and determines the presence / absence of the feature graphic or the entire image of the measurement target portion of the rotating machine 4 in the captured image (the presence / absence of matching with the feature graphic or the entire image). Note that, when the rotating machine 4 has a plurality of measurement target parts, the target detection unit 211 may detect different measurement target parts for each captured image. The object detection unit 211 determines the comparison between the captured image and the original image using, for example, an image matching technique. The main algorithm is the residual sequential test method. It should be noted that the fact that the object detection unit 211 always analyzes and determines the presence / absence of the entire image of the measurement target region in the captured image is a factor that increases the processing time. Therefore, the target detection unit 211 may mainly detect the feature graphic of the measurement target part from the captured image.

次に、対象検出手段211が撮影画像から計測対象部位の特徴図形を検出する手法の一例について説明する。図3は、一例となる計測対象部位(軸受ハウジング)の撮影画像の一例を示す図である。撮影画像から計測対象部位を検出する方法は、撮影画像から、計測対象部位の特徴図形であるエッジ部分41を求める方法、回転機器4のハウジングの外周面に取り付けられた回転機器4の型式を示す銘版42をマーカーとして応用する方法が考えられるが、これらに限定されるものではない。   Next, an example of a method in which the target detection unit 211 detects a feature graphic of a measurement target part from a captured image will be described. FIG. 3 is a diagram illustrating an example of a captured image of a measurement target portion (bearing housing) as an example. The method for detecting the measurement target region from the captured image shows a method for obtaining the edge portion 41 that is a characteristic figure of the measurement target region from the captured image, and the type of the rotating device 4 attached to the outer peripheral surface of the housing of the rotating device 4. Although the method of applying the nameplate 42 as a marker can be considered, it is not limited to these.

エッジ部分41を求める方法について説明する。なお、対象検出手段211は、元画像から、元画像のエッジ部分41の情報(以降、元画像のエッジ情報という)を導くことができる。さらに、対象検出手段211は、撮影画像から、例えば、画像微分と2値化処理により、撮影画像のエッジ部分41の情報(以降、撮影画像のエッジ情報という)を導くことができる。上記のように、対象検出手段211は、元画像のエッジ情報と、撮影画像のエッジ情報を取得する。   A method for obtaining the edge portion 41 will be described. Note that the target detection unit 211 can derive information on the edge portion 41 of the original image (hereinafter referred to as edge information of the original image) from the original image. Further, the target detection unit 211 can derive information on the edge portion 41 of the captured image (hereinafter referred to as edge information of the captured image) from the captured image, for example, by image differentiation and binarization processing. As described above, the target detection unit 211 acquires the edge information of the original image and the edge information of the captured image.

図4は、元画像のエッジ情報と、撮影画像のエッジ情報を同時に表示したモデル図である。つまり、対象検出手段211は、元画像のエッジ情報を撮影画像に重畳させる。図4中の実線は、撮影画像のエッジ情報であり、破線は、元画像のエッジ情報である。図5は、背景の撮影画像を削除し、撮影画像のエッジ情報と元画像のエッジ情報だけを同時に表示したモデル図である。対象検出手段211は、撮影画像のエッジ情報と元画像のエッジ情報を比較、検査することにより、撮影画像中における特徴図形の存在の有無を判断できる。一例として、対象検出手段211は、撮影画像のエッジ情報を収縮させてマッチングを行えば元画像のエッジ情報と一致させることができる。つまり、対象検出手段211は、撮影画像及び元画像のエッジ情報に基づいて、撮影画像から計測対象部位を検出する。対象検出手段211が、撮影画像のエッジ情報が元画像のエッジ情報と一致したと判断した場合、制御部21は、音響診断処理を起動する。つまり、制御部21は、撮影画像のエッジ情報と元画像のエッジ情報とのパターンマッチングにより、ビデオ撮影時に自動的に音響診断処理を起動する。なお、対象検出手段211が、撮影画像のエッジ情報が元画像のエッジ情報と一致しないと判断した場合、制御部21は、撮影画像のエッジ情報が予め設定された計測対象部位ではないと判断し、音響診断処理を起動しない。   FIG. 4 is a model diagram in which the edge information of the original image and the edge information of the captured image are displayed simultaneously. That is, the target detection unit 211 superimposes the edge information of the original image on the captured image. The solid line in FIG. 4 is edge information of the captured image, and the broken line is edge information of the original image. FIG. 5 is a model diagram in which the background captured image is deleted and only the edge information of the captured image and the edge information of the original image are displayed simultaneously. The object detection unit 211 can determine the presence or absence of a feature graphic in the captured image by comparing and inspecting the edge information of the captured image and the edge information of the original image. As an example, the object detection unit 211 can match the edge information of the original image by contracting the edge information of the captured image and performing matching. That is, the target detection unit 211 detects the measurement target part from the captured image based on the captured image and the edge information of the original image. When the target detection unit 211 determines that the edge information of the captured image matches the edge information of the original image, the control unit 21 activates an acoustic diagnosis process. That is, the control unit 21 automatically activates the acoustic diagnosis process at the time of video shooting by pattern matching between the edge information of the captured image and the edge information of the original image. When the target detection unit 211 determines that the edge information of the captured image does not match the edge information of the original image, the control unit 21 determines that the edge information of the captured image is not a preset measurement target part. Does not start the acoustic diagnosis process.

次に、銘板42をマーカーとして応用する方法について説明する。銘板42は、回転機械4の表面の所定位置に配置されている。銘板42は、形状の単純な記号または文字などの識別情報がマーカーとして予め書き込まれている。なお、銘板42にではなく、回転機械4の表面にマーカーが予め記入されていてもよい。なお、対象検出手段211は、元画像から、元画像の銘板42の情報(以降、元画像のマーカー情報という)を導くことができる。さらに、対象検出手段211は、撮影画像から、撮影画像の銘板42の情報(以降、撮影画像のマーカー情報という)を導くことができる。上記のように、対象検出手段211は、元画像のマーカー情報と、撮影画像のマーカー情報を取得する。   Next, a method for applying the nameplate 42 as a marker will be described. The nameplate 42 is disposed at a predetermined position on the surface of the rotary machine 4. On the nameplate 42, identification information such as a simple symbol or character having a shape is written in advance as a marker. It should be noted that a marker may be entered in advance on the surface of the rotary machine 4 instead of on the nameplate 42. The object detection unit 211 can derive information on the nameplate 42 of the original image (hereinafter referred to as marker information of the original image) from the original image. Furthermore, the target detection unit 211 can derive information on the nameplate 42 of the captured image (hereinafter referred to as marker information of the captured image) from the captured image. As described above, the target detection unit 211 acquires the marker information of the original image and the marker information of the captured image.

図6は、元画像のマーカー情報と、撮影画像のマーカー情報を同時に表示したモデル図である。つまり、対象検出手段211は、元画像のマーカー情報(破線)を撮影画像に重畳させる。図7は、図6に示す撮影画像から撮影画像のマーカー情報だけを切り出し、元画像のマーカー情報と比較するモデル図である。対象検出手段211は、撮影画像のマーカー情報と元画像のマーカー情報を比較、検査することにより、撮影画像中における特徴図形の存在の有無を判断できる。一例として、対象検出手段211は、エッジ部分41を求める方法の場合とは逆に、撮影画像のマーカー情報を拡大させてマッチングを行えば元画像のマーカー情報と一致させることができる。つまり、対象検出手段211は、撮影画像及び元画像のマーカー情報に基づいて、撮影画像から計測対象部位を検出する。対象検出手段211が、撮影画像のマーカー情報が元画像のマーカー情報と一致したと判断した場合、制御部21は、音響診断処理を起動する。つまり、制御部21は、撮影画像のマーカー情報と元画像のマーカー情報とのパターンマッチングにより、ビデオ撮影時に自動的に音響診断処理を起動する。なお、対象検出手段211が、撮影画像のマーカー情報が元画像のマーカー情報と一致しないと判断した場合、制御部21は、撮影画像のマーカー情報が予め設定された計測対象部位ではないと判断し、音響診断処理を起動しない。なお、制御部21は、撮影画像のマーカー情報に基づいて、回転機械4の種別を識別できるだけでなく、計測対象部位(電動機の場合、軸受カバー、フレームフィン、ファンカバーなど)も特定できる。これは、銘板42には回転機械4毎に異なるマーカー(形状)が表記されているためである。   FIG. 6 is a model diagram in which the marker information of the original image and the marker information of the photographed image are displayed at the same time. That is, the target detection unit 211 superimposes the marker information (broken line) of the original image on the captured image. FIG. 7 is a model diagram in which only the marker information of the photographed image is cut out from the photographed image shown in FIG. 6 and compared with the marker information of the original image. The target detection unit 211 can determine the presence or absence of a feature graphic in the captured image by comparing and inspecting the marker information of the captured image and the marker information of the original image. As an example, contrary to the method of obtaining the edge portion 41, the target detection unit 211 can match the marker information of the original image by enlarging the marker information of the captured image and performing matching. That is, the target detection unit 211 detects the measurement target part from the captured image based on the captured image and the marker information of the original image. When the target detection unit 211 determines that the marker information of the captured image matches the marker information of the original image, the control unit 21 starts an acoustic diagnosis process. That is, the control unit 21 automatically activates an acoustic diagnosis process during video shooting by pattern matching between the marker information of the captured image and the marker information of the original image. If the target detection unit 211 determines that the marker information of the captured image does not match the marker information of the original image, the control unit 21 determines that the marker information of the captured image is not a preset measurement target part. Does not start the acoustic diagnosis process. Note that the control unit 21 can not only identify the type of the rotating machine 4 based on the marker information of the photographed image, but can also specify a measurement target part (in the case of an electric motor, a bearing cover, a frame fin, a fan cover, etc.). This is because different markers (shapes) are written on the nameplate 42 for each rotating machine 4.

さらに、対象検出手段211は、撮影画像と元画像を比較することで、携帯端末2による回転機械4の撮影位置(携帯端末2が撮影画像を取得するためにビデオ撮影した回転機械4との距離)を検出できる。つまり、対象検出手段211は、撮影画像と元画像が一致すると判断した場合、撮影画像中における計測対象部位の位置と大きさから、撮影位置を検出(推定)する。例えば、対象検出手段211は、図7に示す撮影画像のマーカー情報の寸法Aと、元画像のマーカー情報の寸法Bとを比較する。対象検出手段211は、撮影画像中の計測対象部位と元画像中の計測対象部位との形状の相違に基づいて、撮影画像の撮影位置が元画像の撮影位置とどの程度異なっているかを定量的に判断する。対象検出手段211は、判断結果に基づいて、撮影画像の撮影位置の情報を補正する。   Furthermore, the object detection unit 211 compares the captured image with the original image, so that the photographing position of the rotating machine 4 by the portable terminal 2 (the distance from the rotating machine 4 that has taken the video for the portable terminal 2 to acquire the photographed image). ) Can be detected. That is, when it is determined that the captured image and the original image match, the target detection unit 211 detects (estimates) the captured position from the position and size of the measurement target part in the captured image. For example, the target detection unit 211 compares the dimension A of the marker information of the captured image shown in FIG. 7 with the dimension B of the marker information of the original image. The target detection unit 211 quantitatively determines how much the shooting position of the shot image is different from the shooting position of the original image based on the difference in shape between the measurement target portion in the shot image and the measurement target portion in the original image. Judgment. The object detection unit 211 corrects the information on the shooting position of the shot image based on the determination result.

ここで、撮影位置の特定手法の一例について説明する。図8は、携帯端末2で回転機械4を距離A´だけ離れた位置から撮影するモデル図である。図9は、携帯端末2で回転機械4を距離B´(>A´)だけ離れた位置から撮影するモデル図である。対象検出手段211は、距離B´だけ離れた位置での撮影画像よりも、距離A´だけ離れた位置での撮影画像を大きな画像として取得できる。対象検出手段211は、元画像のエッジ情報のサイズと、撮影画像のエッジ情報のサイズを比較することにより、撮影画像の撮影位置を特定し、撮影画像の撮影位置を補正できる。なお、図8、9は、エッジ部分41を求める方法に関する図を示しているが、銘板42をマーカーとして応用する方法であっても同様である。   Here, an example of the method for specifying the shooting position will be described. FIG. 8 is a model diagram of photographing the rotating machine 4 from the position separated by the distance A ′ with the portable terminal 2. FIG. 9 is a model diagram of photographing the rotating machine 4 from a position separated by a distance B ′ (> A ′) with the mobile terminal 2. The object detection unit 211 can acquire a captured image at a position separated by a distance A ′ as a larger image than a captured image at a position separated by a distance B ′. The object detection unit 211 can identify the shooting position of the shot image and correct the shooting position of the shot image by comparing the size of the edge information of the original image with the size of the edge information of the shot image. 8 and 9 show diagrams relating to the method of obtaining the edge portion 41, but the same applies to the method of applying the nameplate 42 as a marker.

なお、携帯端末2がオーバーレイ表示方法により回転機械4をビデオ撮影した場合、対象検出手段211は、上記の撮影位置の特定処理を省略してもよい。オーバーレイ表示方法は、表示部26にある計測対象部位の元画像(静止画)を半透明で表示させながらビデオ撮影する方法である。携帯端末2は、表示部26には元画像が半透明に表示されるので、元画像と重なるように回転機械4をビデオ撮影すれば、元画像の撮影位置で撮影画像を容易に撮影できる。なお、携帯端末2は、表示部26にある計測対象部位の元画像のエッジ情報(またはマーカー情報)を半透明に表示させ、元画像のエッジ情報(またはマーカー情報)と重なるように回転機械4をビデオ撮影すれば、元画像の撮影位置で撮影画像を容易に撮影できる。   When the mobile terminal 2 takes a video of the rotating machine 4 by the overlay display method, the target detection unit 211 may omit the above-described shooting position specifying process. The overlay display method is a method of taking a video while displaying an original image (still image) of a measurement target region on the display unit 26 in a translucent manner. Since the mobile terminal 2 displays the original image on the display unit 26 in a translucent manner, if the rotating machine 4 is video-recorded so as to overlap the original image, the captured image can be easily captured at the position where the original image was captured. Note that the mobile terminal 2 displays the edge information (or marker information) of the original image of the measurement target region on the display unit 26 in a translucent manner and overlaps the edge information (or marker information) of the original image. If a video is taken, a photographed image can be easily photographed at the photographing position of the original image.

次に、信号処理手段212の作用について説明する。信号処理手段212は、集音部24がビデオ撮影時に計測した放射音に基づく音響信号をデジタルの音響信号に変換する際、携帯端末2(集音部24)に応じた周波数特性、撮影位置に応じた信号レベルの双方を補正(調整)する。   Next, the operation of the signal processing means 212 will be described. When the sound processing unit 212 converts the sound signal based on the radiated sound measured at the time of video shooting into a digital sound signal, the signal processing unit 212 has a frequency characteristic and a shooting position according to the mobile terminal 2 (sound collecting unit 24). Both of the corresponding signal levels are corrected (adjusted).

周波数特性の補正について説明する。携帯端末2の周波数特性(音響計測機能)は、一般の騒音計とは異なり、計測周波数帯域(10〜100000Hz)全域で一定(フラット)とは限らない。周波数特性は、帯域によっては減衰する場合もある。計測したい音の帯域が減衰する場合、携帯端末2は、回転機械4の状態を正しく判断することができない。そこで、信号処理手段1221は、周波数特性を補正する。例えば、信号処理手段1221は、対象検出手段211で検出した対象機械4(そのID)に基づいて、信号検出レンジ(電圧)、離散化周期(計測周波数帯域)を調整する。   The correction of the frequency characteristic will be described. The frequency characteristic (acoustic measurement function) of the mobile terminal 2 is not always constant (flat) across the entire measurement frequency band (10 to 100,000 Hz), unlike a general sound level meter. The frequency characteristic may be attenuated depending on the band. When the sound band to be measured is attenuated, the mobile terminal 2 cannot correctly determine the state of the rotating machine 4. Therefore, the signal processing unit 1221 corrects the frequency characteristic. For example, the signal processing unit 1221 adjusts the signal detection range (voltage) and the discretization period (measurement frequency band) based on the target machine 4 (its ID) detected by the target detection unit 211.

図10は、携帯端末2が1〜10000Hzのスイープ信号(音響信号)を計測し、FFT(Fast Fourier Transformation)解析を実施した結果(横軸周波数、縦軸FFTレベル)の一例となる周波数特性(実線)及びこれを補正する補正カーブ(破線)を示すグラフである。図10から分かるように、周波数特性のレベルは、一定ではなく、帯域毎に携帯端末2(集音部24)の感度が異なる。そこで、制御部21は、周波数特性から波線で示すような補正カーブを予め求めておき、記憶部22に保存しておく。なお、補正カーブは、周波数特性を反転させたものである。信号処理手段1221は、記憶部22に保存されている補正カーブを用いて、音響信号の周波数特性(計測時減衰または増幅分)を補正する。   FIG. 10 shows frequency characteristics as an example of results (horizontal axis frequency, vertical axis FFT level) in which the mobile terminal 2 measures a sweep signal (acoustic signal) of 1 to 10000 Hz and performs FFT (Fast Fourier Transformation) analysis. It is a graph which shows the correction | amendment curve (broken line) which corrects this with a continuous line. As can be seen from FIG. 10, the level of the frequency characteristic is not constant, and the sensitivity of the mobile terminal 2 (sound collector 24) is different for each band. Therefore, the control unit 21 obtains in advance a correction curve as indicated by a wavy line from the frequency characteristics and stores it in the storage unit 22. The correction curve is obtained by inverting the frequency characteristic. The signal processing unit 1221 corrects the frequency characteristic (attenuation or amplification during measurement) of the acoustic signal using the correction curve stored in the storage unit 22.

図11は、図10で示した補正カーブの波形(実線)及び補正後の周波数特性(破線)を示すグラフ(横軸周波数、縦軸FFTレベル)の一例である。補正後の周波数特性は、全帯域で一定のレベルに補正される。信号処理手段1221は、計測した音響信号に対して補正カーブを適用して補正することで、全帯域で一定のレベルになるように音響信号を補正することができる。つまり、補正カーブは、特に減衰してしまう帯域であっても、この帯域について増幅させるように予め設定された状態で記憶部22に保存されている。そのため、携帯端末2は、全ての帯域で各回転機械4が発する微小な異常音も音響診断(記録解析)することが可能にある。   FIG. 11 is an example of a graph (horizontal axis frequency, vertical axis FFT level) showing the waveform (solid line) of the correction curve shown in FIG. 10 and the corrected frequency characteristic (broken line). The corrected frequency characteristic is corrected to a constant level in the entire band. The signal processing unit 1221 can correct the acoustic signal so that it becomes a constant level in the entire band by applying a correction curve to the measured acoustic signal and correcting it. That is, the correction curve is stored in the storage unit 22 in a state set in advance so as to amplify the band even if the band is particularly attenuated. Therefore, the portable terminal 2 can perform acoustic diagnosis (recording analysis) on minute abnormal sounds generated by each rotating machine 4 in all bands.

撮影位置に応じた信号レベルの補正について説明する。信号処理手段212は、対象検出手段211で特定した撮影位置(距離)の違いに応じて信号レベルを補正する。つまり、信号処理手段212は、距離の比に応じて信号レベルを補正する。例えば、信号処理手段212は、予め回転機械4からの距離をずらしながら信号レベルを計測し、信号レベルの減衰又は増幅の程度を予め求めたテーブルを用いることで、より高い精度で音響信号の信号レベルを補正できる。   The signal level correction according to the shooting position will be described. The signal processing unit 212 corrects the signal level according to the difference in the shooting position (distance) specified by the target detection unit 211. That is, the signal processing unit 212 corrects the signal level according to the distance ratio. For example, the signal processing unit 212 measures the signal level while shifting the distance from the rotary machine 4 in advance, and uses a table in which the degree of attenuation or amplification of the signal level is obtained in advance. The level can be corrected.

次に、信号解析手段213の作用について説明する。図12は、図2に示す手法により携帯端末2でビデオ撮影した際に得られる撮影画像、音響信号の同期を取って関連付けて示す図である。図12の音響信号のグラフは、横軸に時間、縦軸に信号レベルを示している。信号解析手段213は、対象検出手段211が回転機械4の各計測対象部位において、撮影画像の中における元画像の有無及び撮影位置を特定できるので、各測定対象部位の撮影画像(連続撮影したファイルから切り出した画像)、その撮影位置情報、同時に計測した音響信号との関係(撮影タイミング)の同期を取って設定(ひも付け)できる。したがって、信号解析手段213は、対象検出手段211が撮影画像から計測対象部位を検出した場合、以下のように、音響信号を予め設定された解析条件(状態判定値)に基づいて解析し、計測対象部位の状態を診断する。なお、信号解析手段213は、計測対象部位毎に音響信号を解析する。   Next, the operation of the signal analysis means 213 will be described. FIG. 12 is a diagram showing the captured image and the acoustic signal obtained when video is captured with the mobile terminal 2 by the method shown in FIG. The acoustic signal graph of FIG. 12 shows time on the horizontal axis and signal level on the vertical axis. The signal analysis unit 213 can specify the presence / absence of the original image and the imaging position in the captured image at each measurement target part of the rotating machine 4 by the signal analysis unit 213. Image), its shooting position information, and the relationship (shooting timing) with the simultaneously measured sound signal (synchronization). Therefore, when the target detection unit 211 detects the measurement target part from the captured image, the signal analysis unit 213 analyzes the acoustic signal based on a preset analysis condition (state determination value) and performs measurement as follows. Diagnose the condition of the target site. The signal analyzing unit 213 analyzes the acoustic signal for each measurement target part.

信号解析手段213は、予め設定された特定周波数の信号の判断レベルと信号処理手段212で補正された音響信号とを比較する。さらに、信号解析手段213は、回転機械4の設定回転数情報を元に、音響信号の中の回転n次成分を求め、実回転数を検出する。さらに、信号解析手段213は、機械固有のパラメータ(軸受では軸受パス周波数、ギアボックスでは歯当たり周波数、ポンプでは羽切り周波数など)のレベルから異常の有無を判断する。つまり、信号解析手段213は、予め設定された解析条件に基づいて、回転機械4の各計測対象部位における状態を診断する。   The signal analysis unit 213 compares the judgment level of a signal having a specific frequency set in advance with the acoustic signal corrected by the signal processing unit 212. Further, the signal analysis unit 213 obtains the rotation n-order component in the acoustic signal based on the set rotation speed information of the rotating machine 4 and detects the actual rotation speed. Further, the signal analysis means 213 determines the presence or absence of an abnormality from the level of parameters inherent to the machine (bearing path frequency for a bearing, tooth contact frequency for a gear box, blade cutting frequency for a pump, etc.). That is, the signal analysis unit 213 diagnoses the state of each measurement target part of the rotating machine 4 based on preset analysis conditions.

なお、前記信号解析手段213は、計測対象部位及び撮影位置のうち少なくとも1つに応じて、計測対象部位毎または撮影位置毎またはこれらの組み合わせ毎に設定された診断アルゴリズム(診断方法)を自動的に切り替えて(追加して)起動して解析条件を変更し、音響信号を解析する機能を備えていてもよい。一例として、信号解析手段213は、アンバランスを全部位に等しく実施すると設定し、ビデオ撮影時、軸受カバーが撮影対象に入ってきた時に、自動的に軸受診断機能(軸受診断アルゴリズム)を起動する。他の例として、信号解析手段213は、フレームを撮影するタイミングでは、電磁騒音、アンバランス異音の解析処理を自動的に起動する。上記のような信号解析手段213の機能は、音響マイクだけの計測ではできない機能である。   The signal analyzing unit 213 automatically uses a diagnostic algorithm (diagnostic method) set for each measurement target region, each imaging position, or each combination thereof according to at least one of the measurement target region and the imaging position. It may be provided with a function of switching to (adding) and starting and changing the analysis condition to analyze the acoustic signal. As an example, the signal analysis unit 213 sets that the unbalance is to be equally applied to all parts, and automatically activates the bearing diagnosis function (bearing diagnosis algorithm) when the bearing cover enters the imaging target during video shooting. . As another example, the signal analysis unit 213 automatically activates an analysis process of electromagnetic noise and unbalanced abnormal noise at the timing of capturing a frame. The function of the signal analysis means 213 as described above is a function that cannot be performed by measurement using only an acoustic microphone.

次に、記録制御手段214の作用について説明する。記録制御手段214は、計測タイミング毎(ビデオ撮影毎)に電子ファイルを作成する。つまり、記録制御手段214は、信号解析手段213で関係づけられた撮影画像と音響信号を含む測定結果を一つの電子ファイルとして記憶部22に記録する。さらに、記録制御手段214は、ビデオ撮影時、計測対象部位毎に測定結果の電子ファイルを作成する。つまり、記録制御手段214は、対象検出手段211が撮影画像中に測定対象部位(例えば特徴となるエッジ情報、マーカー情報)が存在することを特定する都度音響診断処理を起動すると、計測対象部位毎に、測定結果を一つの電子ファイルとして記憶部22に記録する。
上記のような携帯端末2の各部の処理により、音響診断処理は、終了する。その後、制御部21は、通信部25を介して、記録制御手段214が記憶部22に記録した測定結果に解析情報を付加した診断結果ファイルを制御PC3にアップロードする。
Next, the operation of the recording control unit 214 will be described. The recording control means 214 creates an electronic file at every measurement timing (every video shooting). That is, the recording control unit 214 records the measurement result including the captured image and the acoustic signal related by the signal analysis unit 213 in the storage unit 22 as one electronic file. Furthermore, the recording control means 214 creates an electronic file of measurement results for each measurement target part during video shooting. That is, the recording control unit 214 activates the acoustic diagnosis process every time the target detection unit 211 specifies that the measurement target part (for example, characteristic edge information or marker information) exists in the captured image. In addition, the measurement result is recorded in the storage unit 22 as one electronic file.
The acoustic diagnosis processing is completed by the processing of each unit of the mobile terminal 2 as described above. Thereafter, the control unit 21 uploads a diagnostic result file in which analysis information is added to the measurement result recorded in the storage unit 22 by the recording control unit 214 to the control PC 3 via the communication unit 25.

次に、制御PC3の制御部31の作用について説明する。制御部31は、音響診断処理時に、ユーザの要求に応じてまたは自動で、携帯端末2との間で各種情報を送受信する。図13は、制御PC3と携帯端末2との間で通信する情報の例を示す。制御部(送信手段)31は、通信部33を介して、音響診断処理開始前に、携帯端末2にダウンロードする解析情報を送信する。なお、解析情報は、記憶部32に保存されている。   Next, the operation of the control unit 31 of the control PC 3 will be described. The control unit 31 transmits and receives various types of information to and from the mobile terminal 2 in response to a user request or automatically during the acoustic diagnosis process. FIG. 13 shows an example of information communicated between the control PC 3 and the portable terminal 2. The control unit (transmission means) 31 transmits analysis information to be downloaded to the mobile terminal 2 through the communication unit 33 before starting the acoustic diagnosis process. The analysis information is stored in the storage unit 32.

さらに、制御部(受信手段)31は、通信部33を介して、音響診断処理終了後に、携帯端末2からアップロードされる診断結果ファイルを受信する。制御部31は、診断結果ファイルを記憶部32に記録する。さらに、制御部31は、診断結果ファイルに含まれる撮影画像から、自動的に回転機械4の計測対象部位を特定し、診断結果ファイルを計測対象部位毎に管理された場所(電子ファイルフォルダ)に保存する。したがって、制御PC3は、診断結果ファイルが誤って別の電子ファイルフォルダに転送されることを防止できる。   Furthermore, the control unit (reception unit) 31 receives a diagnostic result file uploaded from the mobile terminal 2 after the acoustic diagnosis process is completed via the communication unit 33. The control unit 31 records the diagnosis result file in the storage unit 32. Furthermore, the control unit 31 automatically specifies the measurement target part of the rotating machine 4 from the captured image included in the diagnosis result file, and stores the diagnosis result file in a place (electronic file folder) managed for each measurement target part. save. Therefore, the control PC 3 can prevent the diagnosis result file from being erroneously transferred to another electronic file folder.

なお、制御部31は、診断結果ファイルがアップロードされた際に、表示部34に診断結果ファイルの情報を表示してもよい。さらに、制御部31は、診断結果ファイルに含まれる撮影画像を確認し、測定結果の矛盾の有無をチェックするようにしてもよい。
上記のような制御PC3の処理により、管理処理は、終了する。
The control unit 31 may display information on the diagnosis result file on the display unit 34 when the diagnosis result file is uploaded. Further, the control unit 31 may check a captured image included in the diagnosis result file and check whether there is a contradiction in the measurement result.
The management process is terminated by the process of the control PC 3 as described above.

本実施形態によれば、回転機械4の音響診断処理、管理処理を自動化できる。さらに、回転機械4の測定機器である携帯端末2は、可搬性に優れているため、より簡便に回転機械4の振動現象をビデオ撮影できる。したがって、監視員による回転機械4の監視負担を軽減でき、回転機械4の損傷事故を未然にかつ容易に防ぐことができる。   According to this embodiment, the acoustic diagnosis process and management process of the rotating machine 4 can be automated. Furthermore, since the portable terminal 2 which is a measuring device of the rotating machine 4 is excellent in portability, the vibration phenomenon of the rotating machine 4 can be video-recorded more easily. Therefore, the monitoring burden of the rotating machine 4 by the supervisor can be reduced, and damage accidents of the rotating machine 4 can be prevented easily and in advance.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…振動音響計測システム、2…携帯端末、3…制御PC、4…回転機械、21…制御部、22…記憶部、23…撮影部24…集音部、25…通信部、26…表示部、31…制御部、32…記憶部、33…通信部、34…表示部、41…エッジ部分、42…銘版、211…対象検出手段、212…信号処理手段、213…信号解析手段、214…記録制御手段。   DESCRIPTION OF SYMBOLS 1 ... Vibration acoustic measurement system, 2 ... Portable terminal, 3 ... Control PC, 4 ... Rotating machine, 21 ... Control part, 22 ... Memory | storage part, 23 ... Imaging | photography part 24 ... Sound collecting part, 25 ... Communication part, 26 ... Display , 31: control unit, 32 ... storage unit, 33 ... communication unit, 34 ... display unit, 41 ... edge portion, 42 ... name plate, 211 ... target detection unit, 212 ... signal processing unit, 213 ... signal analysis unit, 214: Recording control means.

Claims (9)

撮影対象の画像を撮影する撮影手段と、
前記撮影対象の放射音を計測する集音手段と、
前記撮影手段による撮影画像から計測対象を検出する対象検出手段と、
前記集音手段で計測した前記放射音をデジタルの音響信号に変換する信号処理手段と、
前記対象検出手段が前記撮影画像から前記計測対象を検出した場合、前記音響信号を予め設定された解析条件に基づいて解析し、前記計測対象の状態を診断する信号解析手段と、
を有する携帯端末。
Photographing means for photographing an image to be photographed;
Sound collecting means for measuring the radiated sound of the photographing object;
Target detection means for detecting a measurement target from a photographed image by the photographing means;
Signal processing means for converting the radiated sound measured by the sound collecting means into a digital acoustic signal;
When the target detection unit detects the measurement target from the captured image, the acoustic signal is analyzed based on a preset analysis condition, and a signal analysis unit that diagnoses the state of the measurement target;
Mobile terminal having.
前記対象検出手段は、前記撮影画像と前記計測対象の画像を比較することで、前記携帯端末による前記撮影対象の撮影位置を検出する、請求項1記載の携帯端末。   The portable terminal according to claim 1, wherein the target detection unit detects a photographing position of the photographing target by the portable terminal by comparing the photographed image with the measurement target image. 前記信号処理手段は、前記集音手段に応じた周波数特性、前記撮影位置に応じた信号レベルの双方を補正する、請求項2記載の携帯端末。   The portable terminal according to claim 2, wherein the signal processing unit corrects both a frequency characteristic corresponding to the sound collecting unit and a signal level corresponding to the photographing position. 前記対象検出手段は、エッジ情報またはマーカー情報に基づいて、前記撮影画像から前記計測対象を検出する、請求項2記載の携帯端末。   The portable terminal according to claim 2, wherein the target detection unit detects the measurement target from the captured image based on edge information or marker information. 前記対象検出手段は、前記撮影画像毎に異なる前記計測対象の部位を検出する、請求項2記載の携帯端末。   The portable terminal according to claim 2, wherein the target detection unit detects a part of the measurement target that is different for each captured image. 前記信号解析手段は、前記部位毎に前記音響信号を解析する、請求項5記載の携帯端末。   The portable terminal according to claim 5, wherein the signal analysis unit analyzes the acoustic signal for each of the parts. 前記信号解析手段は、前記計測対象の部位毎または前記撮影位置毎に設定されたアルゴリズムを起動して前記解析条件を変更する、請求項6記載の携帯端末。   The mobile terminal according to claim 6, wherein the signal analysis unit activates an algorithm set for each measurement target region or each imaging position to change the analysis condition. 請求項1から請求項7のいずれか1項に記載の携帯端末と、
前記携帯端末に前記解析条件を送信する送信手段と、
前記携帯端末から、前記信号解析手段による測定結果を受信する受信手段と、
前記測定結果を記憶する記憶手段と、
を有する制御PCと、
を有する振動音響計測システム。
The mobile terminal according to any one of claims 1 to 7,
Transmitting means for transmitting the analysis condition to the portable terminal;
Receiving means for receiving a measurement result by the signal analyzing means from the portable terminal;
Storage means for storing the measurement results;
A control PC having
A vibro-acoustic measurement system.
撮影対象の撮影画像を取得し、
前記撮影対象からの放射音を計測し、
前記撮影画像から計測対象を検出し、
前記放射音をデジタルの音響信号に変換し、
前記撮影画像から前記計測対象を検出した場合、前記音響信号を予め設定された解析条件に基づいて解析し、前記計測対象の状態を診断する、
振動音響計測方法。
Get the shot image to be shot,
Measure the sound emitted from the subject,
A measurement object is detected from the captured image,
Converting the radiated sound into a digital acoustic signal;
When the measurement target is detected from the captured image, the acoustic signal is analyzed based on preset analysis conditions, and the state of the measurement target is diagnosed.
Vibro-acoustic measurement method.
JP2012152854A 2012-07-06 2012-07-06 Portable terminal, vibroacoustic measurement system, and vibroacoustic measurement method Active JP5985281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012152854A JP5985281B2 (en) 2012-07-06 2012-07-06 Portable terminal, vibroacoustic measurement system, and vibroacoustic measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012152854A JP5985281B2 (en) 2012-07-06 2012-07-06 Portable terminal, vibroacoustic measurement system, and vibroacoustic measurement method

Publications (2)

Publication Number Publication Date
JP2014016199A true JP2014016199A (en) 2014-01-30
JP5985281B2 JP5985281B2 (en) 2016-09-06

Family

ID=50111019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012152854A Active JP5985281B2 (en) 2012-07-06 2012-07-06 Portable terminal, vibroacoustic measurement system, and vibroacoustic measurement method

Country Status (1)

Country Link
JP (1) JP5985281B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3242036A1 (en) * 2016-12-30 2017-11-08 Grundfos Holding A/S Method for detecting a condition of a pump unit
JP2019048686A (en) * 2017-09-08 2019-03-28 株式会社日立ビルシステム Inspection device for passenger conveyor and inspection system for passenger conveyor
JP2019207224A (en) * 2018-05-29 2019-12-05 東芝産業機器システム株式会社 Acoustic diagnostic device
JP2020042095A (en) * 2018-09-07 2020-03-19 コニカミノルタ株式会社 Image processing system, control method for the same, control program for the same, image processing apparatus, and image display device
WO2023286447A1 (en) * 2021-07-14 2023-01-19 株式会社日立産機システム Device abnormality diagnosis method
JP7402500B2 (en) 2019-12-19 2023-12-21 ネクストウェア株式会社 State change detection system and state change detection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164089A (en) * 1997-08-18 1999-03-05 Toshiba Corp Wave motion diagnostic equipment
JP2002107223A (en) * 2000-09-28 2002-04-10 Ishikawajima Harima Heavy Ind Co Ltd Rotating machine abnormal sound diagnosis processing technique
JP2005265480A (en) * 2004-03-16 2005-09-29 Rikogaku Shinkokai Field measurement system, wave source exploration method, and wave source exploration program
JP2006194656A (en) * 2005-01-12 2006-07-27 Ebara Corp Failure diagnosis system of rotary machine
JP2006201124A (en) * 2005-01-24 2006-08-03 Hajime Hatano Sound source position detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164089A (en) * 1997-08-18 1999-03-05 Toshiba Corp Wave motion diagnostic equipment
JP2002107223A (en) * 2000-09-28 2002-04-10 Ishikawajima Harima Heavy Ind Co Ltd Rotating machine abnormal sound diagnosis processing technique
JP2005265480A (en) * 2004-03-16 2005-09-29 Rikogaku Shinkokai Field measurement system, wave source exploration method, and wave source exploration program
JP2006194656A (en) * 2005-01-12 2006-07-27 Ebara Corp Failure diagnosis system of rotary machine
JP2006201124A (en) * 2005-01-24 2006-08-03 Hajime Hatano Sound source position detector

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3242036A1 (en) * 2016-12-30 2017-11-08 Grundfos Holding A/S Method for detecting a condition of a pump unit
CN108266385A (en) * 2016-12-30 2018-07-10 格兰富控股联合股份公司 For detecting the method for pump assembly state
RU2689271C1 (en) * 2016-12-30 2019-05-24 Грундфос Холдинг А/С Method of recording state of pump unit
US10949979B2 (en) 2016-12-30 2021-03-16 Grundfos Holding A/S Method for detecting a condition of a pump assembly
JP2019048686A (en) * 2017-09-08 2019-03-28 株式会社日立ビルシステム Inspection device for passenger conveyor and inspection system for passenger conveyor
JP2019207224A (en) * 2018-05-29 2019-12-05 東芝産業機器システム株式会社 Acoustic diagnostic device
JP7313895B2 (en) 2018-05-29 2023-07-25 東芝産業機器システム株式会社 Acoustic diagnostic equipment
JP2020042095A (en) * 2018-09-07 2020-03-19 コニカミノルタ株式会社 Image processing system, control method for the same, control program for the same, image processing apparatus, and image display device
JP7402500B2 (en) 2019-12-19 2023-12-21 ネクストウェア株式会社 State change detection system and state change detection program
WO2023286447A1 (en) * 2021-07-14 2023-01-19 株式会社日立産機システム Device abnormality diagnosis method

Also Published As

Publication number Publication date
JP5985281B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
JP5985281B2 (en) Portable terminal, vibroacoustic measurement system, and vibroacoustic measurement method
EP2558815B1 (en) On-board ultrasonic frequency spectrum and image generation
US11579043B2 (en) Information terminal and machine component diagnosis system
US9200979B2 (en) System for bearing fault detection
US10670657B2 (en) System for monitoring operation status of electric machine and mobile phone therefor and server-based system using the same
CN106961514B (en) Terminal device and information output method
EP3182368A1 (en) Collection and validation of data from visual displays
RU2617242C2 (en) Facility for detecting defects by acoustic analysis of aircraft turbomachine
WO2006019887A2 (en) Automation of imaging and dynamic signal analyses
US9524629B2 (en) Adaptive and state driven data collection
US11514583B1 (en) Image acquisition, correlation and detailed visual inspection of component in periodic motion
Orman et al. Bearing fault detection with the use of acoustic signals recorded by a hand-held mobile phone
JP2017026421A (en) Bearing abnormality diagnosis device
CN116630327B (en) Boiler state abnormity monitoring system based on thermodynamic diagram
JP7201413B2 (en) Analyzer and analysis program
WO2015002617A1 (en) Multi-function machine condition analyzer instrument
JPWO2015011791A1 (en) Anomaly detection evaluation system
JP7313895B2 (en) Acoustic diagnostic equipment
JP2022029352A (en) Acoustic diagnostic device
WO2023286447A1 (en) Device abnormality diagnosis method
JP2004093255A (en) Abnormalities diagnostic equipment and method of machine
US20240159623A1 (en) Vibration diagnosis device
CN118149719A (en) Explosion-proof gap detection system, method, equipment and medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160803

R150 Certificate of patent or registration of utility model

Ref document number: 5985281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350